next up previous contents
Nächste Seite: Das Hamilton-Prinzip Aufwärts: Die Bewegungsgleichungen Vorherige Seite: Die Bewegungsgleichungen   Inhalt


Einführung

Eine der wichtigsten Erscheinungen der Natur ist die Bewegung. Bewegt sich ein Objekt über Abstände, die viel grösser als seine Ausdehnung sind, so kann dieses Objekt als Massenpunkt $P$ betrachtet werden, d.h. ein geometrischer Punkt $P$, der eine Masse $m$ hat, wobei $m$ das einzige Merkmal ist, das Massenpunkte voneinander unterscheidet (Einheiten für die Masse: $kg$). Im Fall eines Massenpunktes kann dann seine endliche Ausdehnung für die Beschreibung der Bewegung vernachlässigt werden. Beispielsweise kann man für die Beschreibung der Umlaufbahn der Erde um die Sonne die Ausdehnung der Erde vernachlässigen - will man hingegen erklären, warum es Tag und Nacht gibt, muss man berücksichtigen, dass sich die Erde als Konsequenz ihrer endlichen Ausdehnung um ihre eigene Achse dreht. Die Lage des Massenpunktes in Bezug auf ein geeignetes Koordinatensystem beschreibt einen Ortsvektor $\vec{r}$, die Bahn von $P$ eine Vektorfunktion $\vec{r}(t)$, wobei der reelle Parameter $t$ die Zeit ist. (Einheiten für $\vert \vec{r}\vert, t$: $m,sec$)
Verschiedene Grössen in der Physik, wie zum Beispiel die Grundgrössen Länge, Masse und Zeit, können im Rahmen der Newtonschen Mechanik durch eine einzige reelle Zahl spezifiziert werden. Diese Zahl kann dabei von dem Einheitensystem abhängen, in dem wir die Messung vornehmen. Solche Grössen bezeichnen wir als Skalare. Ein Skalar wird durch einen Buchstaben angegeben, z.B. für die Zeit $t$ und für die Masse $m$.

Abbildung: Vektor $\vec a$ (links). $\vec a = \vec b$ (rechts)
\includegraphics [width=4cm]{f11l.eps} \includegraphics [width=4cm]{f11r.eps}

Andere Grössen in der Physik, wie die Ortsangabe oder die Geschwindigkeit bedürfen zu ihrer vollständigen Spezifikation der Angabe eines Betrages und einer Richtung. Solche Grössen nennen wir Vektoren und kennzeichnen sie durch einen Pfeil über den Buchstaben, um die Bedeutung der Richtungsangabe hervorzuheben. So schreiben wir beispielsweise für den Ortsvektor $\vec r$. Ein Vektor verbindet zwei Punkte, beispielsweise bezeichnen wir den Betrag oder die Länge eines Vektors $\vec a$ mit $\vert\vec a\vert$ oder $a$. Wir wollen nun die einfachen Gesetze der Vektoralgebra behandeln. Zwei Vektoren $\vec a$ und $\vec b$ sind gleich, wenn sie den gleichen Betrag und die gleiche Richtung aufweisen unabhängig von ihrem Anfangspunkt. Einen Vektor, der die gleiche Länge wie der Vektor $\vec a$ aufweist, aber in die entgegengesetzte Richtung zeigt, bezeichnen wir mit $-\vec a$. Zwei Vektoren $\vec a$ und $\vec b$ werden addiert, indem man durch Parallelverschiebung den Fusspunkt des einen Vektors $\vec b$ mit der Pfeilspitze des anderen Vektors $\vec a$ zur Deckung bringt.

Abbildung 1.2: Addition von Vektoren (links) und Kommutativität (rechts)
\includegraphics [width=4cm]{f12l.eps} \includegraphics [width=4cm]{f12r.eps}

Der Summenvektor $\vec a + \vec b\, $ beginnt am Fusspunkt von $\vec a$ und reicht bis zur Spitze von $\vec b$. $\vec a + \vec b\, $ entspricht der Diagonalen des von $\vec a$ und $\vec b$ aufgespannten Parallelogramms. Für die Vektorsumme gilt die Kommutativität

\begin{eqnarray*}
\vec a + \vec b = \vec b + \vec a
\end{eqnarray*}



Entscheidend für die Kommutativität ist die freie Parallelverschiebbarkeit der Vektoren. Assoziativität:

\begin{eqnarray*}
(\vec a + \vec b\,) + \vec c = \vec a + (\vec b + \vec c\,)
\end{eqnarray*}



Wiederum überzeugt man sich aufgrund einer graphischen Veranschaulichung sofort von der Richtigkeit dieser Behauptung.

Abbildung 1.3: Assoziativität
\includegraphics [width=4cm]{f13.eps}

Die Differenz zweier Vektoren $\vec a$ und $\vec b$ oder die Vektorsubtraktion ist definiert als

\begin{eqnarray*}
\vec a - \vec b = \vec a + (-\vec b) \quad .
\end{eqnarray*}



Subtrahiert man $\vec a$ von sich selbst, so ergibt sich der Nullvektor

\begin{eqnarray*}
\vec a - \vec a = \vec 0.
\end{eqnarray*}



Der Nullvektor hat den Betrag $0$; er ist richtungslos. Für alle Vektoren gilt

\begin{eqnarray*}
\vec a + \vec 0 = \vec a.
\end{eqnarray*}



Unter dem Produkt $p\vec a$ eines Vektors $\vec a$ mit einem Skalar $p$, wobei $p$ eine reelle Zahl ist, versteht man einen Vektor, der die gleiche Richtung aufweist wie $\vec a$ und den Betrag

\begin{eqnarray*}
\vert p\vec a\vert = \vert p\vert \cdot \vert\vec a\vert
\end{eqnarray*}



hat.

Abbildung 1.4: Multiplikation mit einer Zahl
\includegraphics [width=4cm]{f14.eps}

Hierbei gilt das Distributivgesetz, d. h.

\begin{eqnarray*}
(p + q)\vec a = p\vec a + q\vec a \, ,\nonumber \\
p(\vec a + \vec b) = p\vec a + p\vec b \, ,
\end{eqnarray*}



sowie das Assoziativgesetz

\begin{eqnarray*}
q(p\vec a \, ) = p(q\vec a \, ) = qp\, \vec a \, .
\end{eqnarray*}



Ein Einheitsvektor ist ein Vektor mit der Länge 1. Aus jedem Vektor $\vec a$ lässt sich durch Multiplikation mit dem Kehrwert seines Betrages ein Einheitsvektor $\vec e_a$ in Richtung von $\vec a$ konstruieren.

\begin{eqnarray*}
\vec e_a = \frac{1}{a} \, \vec a
\end{eqnarray*}



und damit auch

\begin{eqnarray*}
\vec a = a \, \vec e_a
\end{eqnarray*}



mit

\begin{eqnarray*}
\vert\vec e_a\vert = \frac{a}{a} = 1 \, .
\end{eqnarray*}



Einheitsvektoren werden in der Regel mit den Buchstaben $\vec e$ oder $\vec n$ bezeichnet. Wir fassen die Gesetze der Vektoralgebra zusammen
  1. $\vec a + \vec b = \vec b + \vec a$ Kommutativgesetz der Addition
  2. $(\vec a + \vec b \, ) + \vec c = \vec a + (\vec b + \vec c \, )$ Assoziativgesetz der Addition
  3. $p \, (q\vec a \, ) = (pq)\, \vec a = q \, (p\vec a\, )$ Assoziativgesetz der Multiplikation
  4. $(p + q) \vec a = p\vec a + q\vec a$ Distributivgesetz
  5. $p(\vec a + \vec b\, ) = p\vec a + p\vec b$ Distributivgesetz
Bislang haben wir Ortsvektoren als einen Spezialfall der Vektoren diskutiert. Der Zusammenhang mit dem abstrakten mathematischen Vektorbegriff ist leicht herstellbar. Die Gesamtheit der Vektoren bilden einen linearen Vektorraum $V$ über dem Körper der reellen Zahlen ${\bf R}$. Es werden die folgenden Axiome erfüllt:
  1. Zwischen zwei Elementen $\vec a, \, \vec b \, \, \in \, \, V$ ist eine Verknüpfung (Addition) definiert

    \begin{eqnarray*}
\vec a + \vec b = \vec s \, \, \in \, \, V
\end{eqnarray*}



    mit
    1. $(\vec a + \vec b \, ) + \vec c = \vec a + (\vec b + \vec c \, )$
    2. Nullelement: $\vec a + \vec 0 = \vec a$ für alle $\vec a$
    3. Inverses: Zu jedem $\vec a \, \, \in \, \, V$ gibt es ein $(-\vec a\, ) \, \, \in \, \, V,$ so daß gilt
      $\vec a + (-\vec a) = \vec 0,$
    4. $\vec a + \vec b = \vec b + \vec a$ (Kommutativität)
  2. Multiplikation mit Elementen $\alpha, \, \beta,\,..\, \in \, \, {\bf R}:$
    $\alpha \, \, \in \, \, {\bf R}, \, \vec a \, \, \in \, \, V \Longrightarrow
\alpha \vec a \, \, \in \, \, V$
    mit
    1. $(\alpha + \beta ) \, \vec a = \alpha \vec a + \beta \vec a,$
      $\alpha (\vec a + \vec b \, ) = \alpha \vec a + \alpha \vec b$, (Distributivität)
    2. $\alpha (\beta \vec a\, ) = (\alpha \beta ) \vec a$ (Assoziativität)
    3. Es gibt ein Einselement $1$, so dass gilt
      $1 \cdot \vec a = \vec a$ für alle $\vec a \, \, \in \, \, V.$
Skalarprodukt von Vektoren. Wir haben bisher die Multiplikation von Vektoren mit Skalaren betrachtet. Jetzt wenden wir uns der Multiplikation von Vektoren zu. Hierbei werden wir zwei unterschiedliche Typen von Produkten von Vektoren kennenlernen, das Skalarprodukt (inneres Produkt) und das Vektorprodukt (äusseres Produkt). Als Skalarprodukt zweier Vektoren $\vec a$ und $\vec b$ bezeichnet man den folgenden Skalar:

\begin{eqnarray*}
\vec a \cdot \vec b = ab \, \cos \vartheta,
\end{eqnarray*}



wobei $\vartheta$ den Winkel zwischen den Vektoren $\vec a$ und $\vec b$ kennzeichnet.

\begin{eqnarray*}
\vartheta = \,\, <\!\!\!) \, \, (\vec a ,\vec b \, )\nonumber
\end{eqnarray*}



Abbildung 1.5: Skalarprodukt
\includegraphics [width=4cm]{f15.eps}

Anschaulich handelt es sich um das Produkt aus der Länge des ersten Vektors mit der Projektion des zweiten Vektors auf die Richtung des ersten. Offensichtlich gilt

\begin{eqnarray*}
& &\vec a \cdot \vec b = 0,\\
& &\mbox{falls } 1) \, a = 0 ...
...mber \\
& &\mbox{oder } \, 2)\, \vartheta = \pi /2. \nonumber
\end{eqnarray*}



Basierend auf dieser Einsicht bezeichnen wir zwei Vektoren $\vec a$ und $\vec b$ als orthogonal $(\vec a \perp \vec b)$ zueinander, falls $\vec a \cdot \vec b = 0 $
Eine wichtige Eigenschaft des Skalarprodukts betrifft den Betrag eines Vektors. Wegen
$\cos (0) =1$ gilt

\begin{eqnarray*}
\vec a \cdot \vec a = a^2 \geq 0 \, \, .
\end{eqnarray*}



Damit können wir schreiben

\begin{eqnarray*}
a = \sqrt{\vec a \cdot \vec a} \, \, .
\end{eqnarray*}



Für den Einheitsvektor haben wir

\begin{eqnarray*}
\vec e \cdot \vec e = 1 \, \, .
\end{eqnarray*}



Ein Vektorraum, in dem ein Skalarprodukt definiert ist, heisst unitärer Vektorraum. Einem Produkt von zwei Vektoren können wir jedoch auch einen Vektor zuordnen. Das Vektorprodukt (äusseres Produkt, Kreuzprodukt) von zwei Vektoren $\vec a$ und $\vec b$ führt zu einem Vektor $\vec c$

\begin{eqnarray*}
\vec c = \vec a \times \vec b \, \, .
\end{eqnarray*}



Abbildung 1.6: Vektorprodukt
\includegraphics [width=4cm]{f16.eps}

Der Vektor $\vec c$ hat folgende Eigenschaften:
  1. $ c = ab\, \sin \vartheta,$
    wobei $\vartheta$ wieder der von $\vec a$ und $\vec b$ eingeschlossene Winkel ist. Der Betrag von $\vec c$, also $c$, entspricht dem Flächeninhalt des von $\vec a$ und $\vec b$ aufgespannten Parallelogramms.
  2. $\vec c$ steht senkrecht auf der von $\vec a$ und $\vec b$ aufgespannten Ebene. $\vec a ,\, \vec b$ und $\vec c$ bilden ein Rechtssystem.
Wir wollen nun einige wichtige Eigenschaften des Vektorproduktes diskutieren.
  1. antikommutativ:

    \begin{eqnarray*}
\vec a \times \vec b = -\vec b \times \vec a
\end{eqnarray*}



  2. \begin{eqnarray*}
\vec a \times \vec b = 0 \hspace{0,4cm} \mbox{falls} \,&1)& \...
...ec b = \alpha \vec a ; \alpha \, \, \in \, \, {\bf R} \nonumber
\end{eqnarray*}



    Für kolineare Vektoren gilt $\sin \vartheta = 0$, da $\vartheta
= 0$, und somit verschwindet das Kreuzprodukt.
  3. distributiv:

    \begin{eqnarray*}
(\vec a + \vec b\, ) \times \vec c = \vec a \times \vec c + \vec b \times \vec c
\end{eqnarray*}



  4. nicht assoziativ

    \begin{eqnarray*}
\vec a \times (\vec b \times \vec c\, ) \neq (\vec a \times \vec b \, ) \times \vec c
\end{eqnarray*}



  5. bilinear

    \begin{eqnarray*}
(\alpha \vec a\, ) \times \vec b = \vec a \times (\alpha \vec b \, ) = \alpha (\vec a
\times \vec b \, )
\end{eqnarray*}



Wir wollen nun einige Eigenschaften von Basisvektoren näher beleuchten. Wir stellen den Vektor $\vec a$ durch den Einheitsvektor $\vec e_a$ dar, um Betrags- und Richtungsangabe etwas zu trennen

\begin{eqnarray*}
\vec a = a \, \, \vec e _a.
\end{eqnarray*}



Zwei Vektoren $\vec a$ und $\vec b$ mit der selben Richtung $\vec e$ heissen kolinear. Für sie lassen sich reelle Zahlen $\alpha \neq 0, \, \beta \neq 0$ finden, die die Gleichung

\begin{eqnarray*}
\alpha \vec a + \beta \vec b = 0
\end{eqnarray*}



erfüllen. $\vec a$ und $\vec b$ sind linear abhängig. Damit können wir umgedreht folgende Definition vereinbaren:
$n$ Vektoren $\vec a_1, \,\vec a_2, \,... \, ,\vec a_n,$ heissen linear unabhängig, falls die Gleichung

\begin{eqnarray*}
\sum \limits^n_{j=1} \alpha _j \vec a_j = 0
\end{eqnarray*}



nur durch

\begin{eqnarray*}
\alpha_1 = \alpha_2 = ... = \alpha_n = 0
\end{eqnarray*}



erfüllt werden kann. Andernfalls heissen sie linear abhängig.
Ferner gilt die Definition: Die Dimension eines Vektorraumes ist gleich der maximalen Anzahl linear unabhängiger Vektoren. In einem $d$-dimensionalen Vektorraum bildet jede Menge von $d$ linear unabhängigen Vektoren eine Basis, d.h. jeder beliebige Vektor dieses Raumes lässt sich als Linearkombination dieser $d$ Vektoren beschreiben. Besonders bedeutsam als Basisvektoren sind Einheitsvektoren, die paarweise orthogonal zueinander sind. Man spricht in diesem Fall von einem Orthonormalsystem $\vec e_i \, ,\, i = 1,2,..., d.$ Damit gilt

\begin{eqnarray*}
\vec e_i \cdot \vec e_j = \delta_{ij}
\end{eqnarray*}



mit dem Kronecker-Symbol

\begin{eqnarray*}
\delta _{ij} = \left \lbrace \begin{array}{lll}
1 & \mbox{f\...
...\\
0 & \mbox{f\uml {u}r} & i \neq j \, .
\end{array} \right.
\end{eqnarray*}



Ein Orthonormalsystem, das gleichzeitig Basis des Vektorraumes $V$ ist, bezeichnet man als vollständig. Für einen beliebigen Vektor $\vec a \, \, \in \, \, V$ gilt dann

\begin{eqnarray*}
\vec a = \sum \limits^d_{j=1} a_j \, \vec e_j \, \, .
\end{eqnarray*}



Die $a_j$ sind die Komponenten des Vektors $\vec a$ bezüglich der Basis $\vec e_1,...,\vec e_d$. Beispielsweise bilden die kartesischen Basisvektoren $\vec e_x,\, \vec e_y$ und $\vec e_z$ ein vollständiges Orthonormalsystem des $E_3$. Die Komponentenschreibweise erlaubt eine gebräuchliche Darstellung des Vektors als Spaltenvektor:

\begin{eqnarray*}
\vec a = \left (\begin{array}{l}
a_1 \\ a_2 \\ . \\ .\\ .\\ a_d
\end{array} \right ) \nonumber
\end{eqnarray*}



oder als Zeilenvektor:

\begin{eqnarray*}
\vec a = (a_1, \, a_2, \, . \, .\, .\, ,a_d) \, .\nonumber
\end{eqnarray*}



Für den dreidimensionalen euklidischen Raum können wir somit explizit schreiben

\begin{eqnarray*}
\vec a &=& a_x \vec e_x + a_y \vec e_y +a_z \vec e_z = \, a_1...
...vec e_3 \nonumber \\
&=& \sum \limits^3_{j=1} a_j \, \vec e_j
\end{eqnarray*}



oder auch

\begin{eqnarray*}
\vec a = (a_1,a_2,a_3) \, .\nonumber
\end{eqnarray*}



Mit dem vollständigen Orthonormalsystem können wir auch den Betrag eines Vektors auswerten. Es ist

\begin{eqnarray*}
a
&=&
\vert\vec a\vert
=
\sqrt{\vec a \cdot \vec a}
=
\...
...imits^3_{i=1} a_i^2}
=
\sqrt{a_1^2 +a_2^2 + a_3^2} \, \, \, .
\end{eqnarray*}



Für die Richtungskosinusse erhalten wir mittels der kartesischen Komponenten $a_i$

\begin{eqnarray*}
a_i = \vec e_i \cdot \vec a = a \, \cos \vartheta _i
\end{eqnarray*}



mit $\hspace{5.2cm} \vartheta_i = \, \, <\!\!\!) \, (\vec e_i, \vec a).$









Damit folgt sofort

\begin{eqnarray*}
\cos \vartheta _i = \frac{a_i}{a}.
\end{eqnarray*}



Ferner bekommen wir

\begin{eqnarray*}
\cos ^2\vartheta _1 + \cos ^2\vartheta _2 + \cos ^2\vartheta ...
...\frac{a_3^2}{a^2} =
\frac{a_1^2 + a_2^2 + a_3^2}{a^2} = 1 \, .
\end{eqnarray*}



Auch das Skalarprodukt lässt sich mit dem vollständigen Orthonormalsystem leicht auswerten. Es ist

\begin{eqnarray*}
\vec a \cdot \vec b &=& \sum \limits^3_{i=1} a_i \, \vec e_i ...
...arrow & \vec a \cdot \vec b = \sum \limits^3_{j=1} a_j b_j \, .
\end{eqnarray*}



Wir studieren jetzt Vektorprodukte mit orthonormalen Basisvektoren, die ein Rechtssystem bilden. Es ist

\begin{eqnarray*}
&\vec e_1 &\times \hspace{0,4cm} \vec e_2 = \vec e_3 \, ,\\
...
...,\\
&\vec e_3 &\times \hspace{0,4cm} \vec e_1 = \vec e_2 \, ,
\end{eqnarray*}



aber zum Beispiel $\vec e_2 \times \vec e_1 = -\vec e_3$ und $\vec e_1 \times \vec e_1 = 0$. Multiplizieren wir den resultierenden Vektor wieder skalar mit $\vec e_i$, so folgt

\begin{eqnarray*}
\vec e_i \cdot (\vec e_j \times \vec e_k) = \left \{
\begin{...
...x{sonst}
\end{array} \right \} = \varepsilon _{ijk} \, \, \, .
\end{eqnarray*}



$\varepsilon _{ijk}$ ist das Levi-Civita Symbol oder der sogenannte total antisymetrische Tensor dritter Stufe. Es ist also

\begin{eqnarray*}
\varepsilon _{ijk} = \vec e_i \cdot (\vec e_j \times \vec e_k) \, \, .
\end{eqnarray*}



Mit diesem Symbol lassen sich Vektorprodukte der Basisvektoren zusammenfassend formulieren:

\begin{eqnarray*}
\vec e_i \times \vec e_j = \sum \limits^3_{k=1} \varepsilon _{ijk} \,
\vec e_k\, \, .
\end{eqnarray*}



Für allgemeine Vektorprodukte gilt entsprechend

\begin{eqnarray*}
\vec c = \vec a \times \vec b = \sum \limits^3_{i,j=1} a_i b_...
... \, a_i b_j \, \vec e_k
= \sum \limits^3_{k=1} c_k \, \vec e_k
\end{eqnarray*}



mit der abkürzenden Schreibweise

\begin{eqnarray*}
c_k = \sum \limits^3_{i,j=1} \varepsilon _{ijk} \, a_i b_j
\end{eqnarray*}



oder ausführlich

\begin{eqnarray*}
c_1 = a_2 b_3 - a_3 b_2, \, c_2 = a_3 b_1 - a_1 b_3, \, c_3 = a_1 b_2 - a_2 b_1.
\end{eqnarray*}



Das Kreuzprodukt lässt sich auch leicht mit Hilfe der Determinantenschreibweise auswerten. Ein rechteckiges Schema von Zahlen wird Matrix genannt.

\begin{eqnarray*}
& &\hspace{1cm} \mbox{Spalten} \nonumber \\
& &\hspace{1,4c...
...\
\end{array} \right ) \longleftarrow \mbox{Zeilen} \nonumber
\end{eqnarray*}



Der erste Index des Koeffizienten gibt die Zeile an, der zweite die Spalte. Für den Fall, dass $q=p$ ist, spricht man von einer quadratischen Matrix. Dieser Matrix lässt sich ein Zahlenwert $D$ zuordnen, der Determinante genannt wird. Für die Dimensionen $1$, $2$ und $3$ lässt sich dieser Wert folgendermassen auswerten

\begin{eqnarray*}
&1.)& \, \det (a_{11}) \equiv \vert a_{11}\vert = a_{11} \, \...
..._{33} - a_{23} a_{31}) + a_{13} (a_{21} a_{32} - a_{22} a_{31})
\end{eqnarray*}



Mit Hilfe der Determinantenschreibweise können wir das Vektorprodukt auch formal auswerten durch

\begin{eqnarray*}
\vec a \times \vec b &=& \left \vert
\begin{array}{ccc}
\ve...
...b_3 - a_3 b_1) \vec e_2 +
(a_1 b_2 - a_2 b_1) \vec e_3 \, \, .
\end{eqnarray*}



Dies ist identisch mit dem bereits abgeleiteten Resultat. Wird jedem Wert einer skalaren Variablen $t$ ein Vektor $\vec{r}(t)$ zugeordnet, dann heisst $\vec{r}(t)$ Vektorfunktion der skalaren Variable $t$. Trägt man $\vec{r}(t)$ in einem festen Punkt $0$ an, dann liegen die Endpunkte von $\vec{r}(t)$ auf einer Raumkurve, die Trajektorie oder die Bahnkurve des Massenpunktes $P$.

Abbildung 1.7: Bahnkurve eines Massenpunktes
\includegraphics [width=4cm]{f17.eps}

Ein wichtiger Begriff ist die Ableitung derartiger vektorwertiger Funktionen. Wir betrachten $\vec{r}$ zu verschiedenen Zeiten $t$ und $t+\Delta t$ und bilden den Differenzvektor $\Delta \vec{r} = \vec{r}(t+\Delta t)- \vec{r}(t)$. Dies erlaubt die Geschwindigkeit als Grenzübergang zu definieren:

\begin{displaymath}
\lim_{\Delta t \to 0}\frac{\Delta \vec{r}}{\Delta t}\doteq \dot{\vec{r}}\doteq \frac{d\vec{r}}{dt}
\end{displaymath}

In einem zeitunabhängigen orthonormalen Basissystem $\vec{e_i}$ gilt $\vec{r}(t) = \sum_{i=1}^3 x_i(t)\vec{e_i}$, kurz $\vec{r} = (x(t),y(t),z(t))$ und $\dot{\vec{r}}= (\dot{x}(t),\dot{y}(t),\dot{z}(t))$ (sog. kartesische Koordinaten). Ein Massenpunkt $P$ in einem euklidischen Raum hat dementsprechend 3 Freiheitsgrade, d.h. seine Lage ist durch die Angabe von 3 Koordinaten eindeutig festgelegt. Es gelten die folgenden Ableitungsregeln

\begin{eqnarray*}
\frac{d}{dt} [f(t) \, \vec a(t)] &=& \dot{f} (t) \, \vec a (t...
...) \times \vec b(t) +
\vec a(t) \times \dot{\vec b} (t) \quad .
\end{eqnarray*}



Höhere Ableitungen einer Vektorfunktion lassen sich entsprechend definieren. Für analytische Vektorfunktionen gilt die Taylor Entwicklung um $t=t_0$:

\begin{displaymath}
\vec{r}(t) = \vec{r}(t) \vert _{t_0} + \frac{\dot{\vec{r}}(...
...c{\ddot {\vec{r}}(t)\vert _{t_0}}{2!}\cdot (t-t_0)^2 + \dots
\end{displaymath}

Die Integration von vektorwertigen Funktionen erfolgt auch komponentenweise:

\begin{displaymath}
\int_{t_o}^{t_1}\vec{r}(t) dt = \Bigl(\int_{t_o}^{t_1}x(t) dt,\int_{t_o}^{t_1}y(t) dt, \int_{t_o}^{t_1}z(t) dt\Bigr)
\end{displaymath}

bei der konkreten Lösung physikalischer Probleme ist die Wahl geeigneter Koordinaten ein sehr wesentlicher Lösungsschritt. Benutzt man kartesische Koordinaten, dann betrachtet man $P$ sozusagen als die Ecke eines Parallelepipeds. Man kann sich aber $P$ auf einer Kugeloberfläche (Zylinderoberfläche) vorstellen: dann benutzt man Kugelkoordinaten( Zylinderkoordinaten):

\begin{eqnarray*}
(x,y,z) & = & (r\ sin\ \theta\ cos\ \phi, r\ sin\ \theta\ sin...
...& (\rho\ cos\ \phi,\ \rho\ sin\ \phi, z); 0\leq \phi \leq 2\pi
\end{eqnarray*}



Abbildung 1.8: Kugelkoordinaten (links) und Zylinderkoordinaten (rechts)
\includegraphics [width=4cm]{f18l.eps} \includegraphics [width=4cm]{f18r.eps}

Zylinderkoordinaten in der Ebene $z=0$ heissen auch Polarkoordinaten. Kugel-und Zylinderkoordinaten sind ein Beispiel von krummlinigen Koordinaten. Mit einer geeigneten Parametrisierung $x(q_1,q_2,q_3),y(q_1,q_2,q_3),z(q_1,q_2,q_3)$ kann man die krummlinigen Koordinaten $(q_1,q_2,q_3)$ dazu benutzen, den ganzen euklidischen Raum als eine aufeinanderfolgende Sequenz von Raumflächen zu decken.

Der direkteste Weg, die Bewegung von $P$ zu erfassen, ist die Messung von $\vec{r}(t)$ über ein gewisses Zeitintervall. Dadurch lässt sich vielleicht ein Gesetz erkennen, mit dessen Hilfe man den weiteren Verlauf der Bewegung voraussagen kann. So haben Naturwissenschaftler bis und mit Galileo Galilei gearbeitet. Durch unzählige Beobachtungen hatte man ein sehr genaues Bild, z.B. der Dynamik der Planeten und der Sterne (fast so genau wie unseres) erlangt, und konnte damit schon Begriffe wie die jährliche Periodizität der Erdbewegung um die Sonne formulieren. Das Experiment von Galileo auf dem Turm von Pisa ist in diesem Sinne ein Merkmal in der Geschichte der Physik: Er lässt eine Kugel aus einer Höhe $z_0$ fallen, misst ihre Lage $z$ als Funktion der Zeit und schliesst auf ein $t^2$ -Gesetz: $z(t) = z_0-\frac{1}{2}gt^2$. Galileo war danach imstande, die Position der Kugel zu jeder Zeit anzugeben.

Im Prinzip könnte man auf diese Art alle wichtigen Bewegungen der Natur erfassen. Dank Sir Isaac Newton wissen wir jedoch, dass hinter der Vielfalt von Bewegungen noch fundamentalere Gesetze existieren, anhand derer die Bahn von $P$ im Prinzip voraussehbar ist, wenn nur zu einem bestimmten Zeitpunkt Ort und Geschwindigkeit bekannt sind. Das vereinfacht natürlich das Leben des Physikers: Er muss nicht jeden $P$ mühsam verfolgen, um ein empirisches Gesetz zu formulieren. Eine einzige Angabe ( $\vec{r}(t_0), \dot{\vec{r}}(t_0)$) genügt. Diese Angabe nennt man Anfangsbedingungen, die Gesetze, die die Bewegung beschreiben, nennt man Bewegungsgleichungen.


next up previous contents
Nächste Seite: Das Hamilton-Prinzip Aufwärts: Die Bewegungsgleichungen Vorherige Seite: Die Bewegungsgleichungen   Inhalt
Kraeutler Vincent
2000-05-30