next up previous contents
Nächste Seite: Einige wichtige Kräfte der Aufwärts: Die Bewegungsgleichungen Vorherige Seite: Einführung   Inhalt


Das Hamilton-Prinzip

Leider benötigt die Formulierung der Bewegungsgleichungen - wie alle Gesetze der Physik - einen gewissen Grad an Abstraktion. Diese Abstraktion ist, neben der Beobachtung, eine weitere Eigenschaft, die die Physik kennzeichnet. Abstraktion bedeutet oft die Einführung von Hilfsgrössen, die keinen unmittelbaren experimentellen Zugang haben und deshalb eher mathematischer Natur sind.

Seit den Arbeiten von R.P. Feynman (wie Newton und Einstein einer der Grossen der Physik) wissen wir, dass eine allgemeine Methode, physikalische Gesetze zu formulieren, im Prinzip der kleinsten Wirkung ( principle of least action) liegt. Dieses Prinzip wurde von W.R. Hamilton in der Mechanik 1823 eingeführt, und erlaubt, die Bewegungsgleichungen aufzustellen. Die für seine Formulierung benötigten abtsrakten Grössen wollen wir anhand des Experimentsvon Galileo einführen. Gegeben sei ein Massenpunkt $P$, der sich auf einer Höhe $z_0$ zur Zeit $t_0$ befindet. Lässt man $P$ fallen, so verringert sich seine Höhe, während seine Geschwindigkeit gleichzeitig zunimmt. Zur Zeit $t_0$ besitzt $P$ aus sich heraus (dadurch dass er auf einer bestimmten Höhe ist) die Fähigkeit, Geschwindigkeit zu gewinnen. Diese Fähigkeit drücken die Physiker mit dem Begriff der potentiellen Energie aus. Die potenzielle Energie ist eine skalare Grösse, d.h. sie kann nur eine Funktion von $(\vec{r}\cdot \vec{r})$ sein. Die einfachste Wahl für $E_{pot}$ im Galileo Experiment ist $E_{pot}(z)=\alpha z$, wobei wir $\alpha$ später bestimmen. Mit dieser Wahl drücken wir die Tatsache aus, dass je höher $P$ liegt, die Geschwindigkeit dementsprechend zunehmen kann, bevor er auf die Erde trifft. Wir könnten auch weitere Potenzen von $z_0$ berücksichtigen (das wäre sogar richtiger, wie wir später zeigen werden). Wir wollen aber sehen, ob dieser einfache lineare Ansatz genügt, um den Fallvorgang zu beschreiben. Die einfachste skalare Grösse, die man mit einem Vektor $\dot{\vec{r}}$ bilden kann, ist $(\dot{\vec{r}}\cdot \dot{\vec{r}})$, sodass die Energie, die mit der Geschwindigkeit assoziert ist, $E_{kin}= E_{kin}(\dot{\vec{r}}\cdot \dot{\vec{r}})$ sein muss. Wir werden später sehen, dass die einfachste Wahl, die sich anbietet - $E_{kin}(\dot z) \propto \dot z$ - falsch ist: die niedrigste Potenz, die mit den Experimenten in Einklang ist, ist $E_{kin}(\dot z) = \beta \dot z^2$, wobei wir seit Einstein wissen, dass auch diese Wahl nur eine Näherung für $\dot z <<c$, mit ($c=$ Lichtgeschwindigkeit $=3\times10^8$ m/sec) ist. Durch die Einführung der abtstrakten Begriffe $E_{pot}(\vec r)$ und $E_{kin}(\dot
{\vec{ r}})$ sind wir imstande, das Hamilton Prinzip zu formulieren. Dem Massenpunkt $P$ ordnen wir die Lagrange Funktion zu:

\begin{displaymath}
L[ \vec{r}(t), \dot {\vec{r}} (t)] =E_{kin}(\dot{ \vec r}) - E_{pot}(\vec r)
\end{displaymath}

die im Fall vom Galileo Experiment zu $L(z,\dot z) = \beta \dot z^2 - \alpha z$ wird. Der Begriff des Feldes stellt ein fundamentales Konzept in der Physik dar. Man unterscheidet zwischen Skalarfeldern und Vektorfeldern. Ein Skalarfeld $\Phi(\vec {r})= \Phi(x,y,z)$ ist eine skalarwertige Funktion dreier unabhängiger Variablen, wobei sich die Zahl drei auf die Dimension unseres Raumes bezieht.
Beispiel: Wir betrachten die Funktion $\Phi(\vec{r})= \alpha/(\sqrt{x^2+y^2+z^2})$. Graphisch stellt man solche Felder durch 2-dimensionale Schnitte dar, in denen die Flächen $\Phi(\vec{r}) = Konst$ (Äquipotentialfläche) als Höhenlinien erscheinen. Der Abstand der Linien enstpricht dabei gleichen Wertunterschieden der Konstanten.
Beispiel: Die Lagrange Funktion des Galileo Experiments kann man als zweidimensionales Skalarfeld $L(x,y)= y^2-x$ darstellen.
Ein Vektorfeld ordnet jedem Punkt im Raum eine vektorwertige Funktion $\vec{K}= \vec{K}(\vec{r})$ zu.
Beispiel: Das Gravitationsfeld eines Masssenpunktes ist gegeben durch
$\vec{K}(\vec{r})= m\frac{\vec{r}}{(x^2+y^2+z^2)^{3/2}}$.
Graphisch lassen sich Vektorfelder durch 2-dimensionale Schnitte darstellen, in denen die Flächen konstanter Feldstärke $\vert \vec{K}(\vec{r}\vert = Konst.$ als Höhenlinien erscheinen, an denen man das Feld lokal durch einen Vektorpfeil charakterisiert. Vektorfelder kann man auch mittels Feldlinien darstellen, wobei das Feld tangential zur Feldlinie verläuft. Die Dichte der Feldlinien ist dann ein Mass für die Stärke des Feldes.

Abbildung 1.9: Graphische Darstellung eines Skalarfeldes
\includegraphics [width=4cm]{f19l.eps} \includegraphics [width=4cm]{f19r.eps}

Abbildung 1.10: Graphische Darstellung von $L(x,y)= y^2-x$
\includegraphics [width=4cm]{f110l.eps} \includegraphics [width=4cm]{f110r.eps}

Abbildung 1.11: Graphische Darstellung eines Vektorfeldes
\includegraphics [width=4cm]{f111l.eps} \includegraphics [width=4cm]{f111r.eps}

Abbildung 1.12: Konstruktion zur Berechnung von $d \Phi $ (links) und graphische Deutung des Gradienten (rechts)
\includegraphics [width=4cm]{f112l.eps} \includegraphics [width=4cm]{f112r.eps}

Für Skalarfelder kann man den Begriff der partiellen Ableitung einführen:

\begin{displaymath}
\frac{\partial \Phi}{\partial x} \doteq \lim_{\Delta x \to 0} \frac{\Phi(x+\Delta x,y,z)}{\Delta x}
\end{displaymath}

(und ähnlich für $y,z$). Damit lässt sich die räumliche Änderung der Skalarfelder beschreiben. Wir betrachten zwei Punkte $\vec{r}_1$ und $\vec{r}_2$, die durch eine kleine Strecke $d \vec{r}$ voneinander getrennt sind.
Die Änderung $d \Phi = \Phi(\vec{r}_2)-\Phi(\vec{r}_1)$ ist gegeben durch die folgende Summe:

\begin{eqnarray*}
d \Phi & = &\frac{\partial \Phi}{\partial x} d x + \frac{\par...
... z) \nonumber\\
& \doteq & \vec {\nabla}\Phi \cdot d \vec{r}
\end{eqnarray*}



wobei $\vec{\nabla}\Phi$ der Gradient von $\Phi$ und $d \Phi $ das totale Differential des Feldes $\Phi$ sind. Der Gradient lässt sich deuten, indem man $d \vec{r}$ in die Richtung wählt, so dass $d\Phi = 0$ in dieser Richtung ist. Aus der Gleichung $ \vec {\nabla}\Phi \cdot d \vec{r_0}= 0$ folgt, dass $\vec{\nabla}\Phi$ senkrecht auf $d\vec{r_0}$ steht. Anderseits definiert $d\Phi = 0$ Flächen $\Phi = Konst.$, so dass $\vec{\nabla}\Phi$ senkrecht auf den Äquipotentialflächen steht. Sein Betrag ist ein Mass für die Stärke der Änderung von $\Phi$, wenn man senkrecht zu den Äquipotentialflächen fortschreitet.
Für ein Vektorfeld kann man den Begriff des Linienintegrals einführen (in der Physik spricht man von ''Arbeit'' $A$ oder $W$). Die Arbeit, die wir aufbringen müssen, um einen Gegenstand von Punkt $P_1$ zu Punkt $P_2$ entlang des Wegs $C$ zu bewegen, ist definiert als Wegintegral der Kraft

\begin{eqnarray*}
W = \int_{C} \vec F \cdot d \, \vec r
\end{eqnarray*}



mit $d \vec r = (dx, \, dy, \, dz)$. Das Inkrement $d \vec r$ ist ein Vektor, die Arbeit hingegen ist aufgrund des Skalarproduktes ein Skalar.

Abbildung 1.13: Zur Definition der Arbeit einer Kraft
\includegraphics [width=4cm]{f113.eps}

$C$ ist hierbei die Bezeichnung für die Raumkurve $\vec r \, (t)$ zwischen dem Anfangspunkt $P_1 = \vec r \, (t_1)$ und dem Endpunkt $P_2 = \vec r \, (t_2)$. Wir geben nun eine Möglichkeit an, das Linienintegral explizit zu berechnen. Dazu zerlegen wir das Vektorfeld $\vec F$ in seine kartesischen Komponenten und setzen dies in das Integral ein: $\int \vec F \cdot d \vec r = \int ( F_x, \, F_y, \, F_z) \cdot d\vec r$. Die kartesischen Komponenten $F_i$ sind noch eine Funktion des Ortes, d.h. $F_i = F_i (x, y, z)$ mit $x= x(t)$, $y = y(t)$ und $z=z(t)$. Für das Integral benötigen wir die Komponenten des Vektorfeldes $\vec F$ entlang der Raumkurve in Abhängigkeit des Parameters $t$. Wir erhalten dies, indem wir die entsprechenden Komponenten der Raumkurve $\vec r \, (t)$ in $F_x, \, F_y$ und $F_z$ einsetzen. Für $d \vec r$ schreiben wir $d \vec r = \frac{d \vec r}{dt}\cdot dt$. Für das Arbeitsintegral ergibt sich durch Einsetzen

\begin{eqnarray*}
\int \limits_C \vec F \cdot d \vec r &=&
\int \limits_C \lef...
... \frac{dy}{dt}
+ F_z (t) \frac{dz}{dt} \right ] \, dt
\quad .
\end{eqnarray*}



Damit übersetzen wir das Linienintegral in die Summe gewöhnlicher eindimensionaler Integrale.


Beispiel. Das Vektorfeld $\vec F$ und die Raumkurve $\vec r \, (t)$ seien gegeben durch $\vec F = (0,0,-mg)$ und $(v_0 t,0,z_0-1/2 g t^2)$. Die von der Kraft geleistete Arbeit zwischen den Zeiten $t_1,t_2$ ist

\begin{eqnarray*}
\int \limits_{t_1}^{t_2} \vec F \cdot d \vec r & = & \int \li...
...rac{1}{2}mg^2 (t_2^2-t_1^2)\\
& = & mg\cdot z_1-mg\cdot z_2
\end{eqnarray*}



Falls $\vec F =-\vec{\nabla \Phi}$, heisst das Vektorfeld konservativ. Für solche Felder, welche Kraftfelder sind, gilt $\vec F \cdot d \vec r = d\Phi$ Somit ist $\int \vec F \cdot d\vec r = \Phi(P_1)-\Phi(P_2)$: Wegintegrale über konservative Felder zwischen den Punkten $P_1$ und $P_2$ sind unabhängig vom explizit gewählten Weg, und sind nur vom Wert des skalaren Feldes am Anfangspunkt $P_1$ und am Endpunkt $P_2$ abhängig.


Nach dem Hamilton Prinzip verläuft die Bewegung eines mechanischen Systems von einem gegebenen Anfangspunkt zur Zeit $t_0$ zu einem gegebenenm Endpunkt zur Zeit $t_1$ derart, dass die Wirkung

\begin{displaymath}
S[\vec{r(t)}, \dot{\vec {r(t)}}] \doteq \int_{t_0}^{t_1}L \Bigl ( \vec{r}(t), \dot {\vec{r}}(t) \Bigr )dt
\end{displaymath}

minimal ist (Prinzip der kleinsten Wirkung). $S[\vec{r}, \dot {\vec {r}}]$ ist ein Funktional, das allen möglichen Bahnen $[\vec{r}(t),\dot{\vec{r}}(t)]$ eine reelle Zahl zuordnet - den Wert des Integrals. Eine Möglichkeit, dieses Prinzip zu benutzen, um die physikalische Bahn zu finden, ist die Auswahl vieler Bahnen, unter welchen $S$ minimalisiert wird. In diesem Sinne ist das Hamilton Prinzip ein Variationsprinzip, d.h. man versucht durch variieren der Bahn jene zu finden, die $S$ minimiert. Es ist heutzutage nicht ungewöhnlich, dass viele Probleme der Naturwissenschaft (inklusive der Biologie) als Variationsprinzip formuliert werden. Damit wird das Problem der Suche nach dem Minimum eines geeigneten Funktionals reduziert - ein ideales Terrain für die heutigen Supercomputer. Oft wird die Suche nach der Lösung folgendermassen gestaltet: man erzeugt eine Schar von Funktionen, die aus irgendeinem Grund ''physikalisch'' sein könnten. Diese Funktionen werden geeignet parametrisiert und es werden solche Parameter gesucht, die $S$ minimalisieren. Die so ermittelte Funktion ist dann eine Möglichkeit für die korrekte Lösung, wobei ein Funktional oft viele Minima besitzt, so dass die Suche nach dem absoluten Minimum weitere Optimierungsschritte erfordert.

Wir wollen diesen möglichen Lösungsweg am Galileo-Experiment illustrieren. Wir beginnen mit der Vermutung (um ein Variationsproblem vernünftig zu lösen, muss man eine ''Vermutung'' über die mögliche Bahn haben), dass $z(a,t)=z_0 - at^2$ ist. $a$ ist hier der sogenannte Variationsparameter, der so gewählt werden muss, damit $S$ minimal wird. Damit ist

\begin{displaymath}
L(z(t),\dot{z}(t)) = \underbrace{\beta (-2at)^2}_{E_{kin}}-
...
...2)}_{E_{pot}}= 4 \beta a^2t^2- \alpha z_0 +\alpha a t^2=L(a,t)
\end{displaymath}

Die Bahn wird variiert, aber die Randpunkte sollen fest sein. Wir setzen $z(t=0) = z_0$ und $z(t=t_0)=0$ ein. Die Wirkung berechnet über die möglichen Bahnen $z(a,t)$ zwischen diesen festen Randpunkten ist

\begin{eqnarray*}
S(a) & = &\int_{0}^{t_0} L(a,t)dt=\\
& = & \beta 4 a^2 \frac...
...= & \beta 4 a^2 \frac {1}{3}t_0^3 - \alpha\ a \frac {2}{3} t_0^3
\end{eqnarray*}



$a_{ph}$ bestimmen wir als Lösung der Gleichung $\frac{dS(a)}{da}=0$, d.h. $a_{ph} = \frac{\alpha}{4\beta}$. Der Vergleich dieses theoretischen Resultats mit dem experimentellen Resultat $a_{ph}= \frac{1}{2}g$ erlaubt, das Verhältnis des bis jetzt unbekannten Parameters $\beta$ und $\alpha$ zu bestimmen: $\frac{\alpha}{\beta} = 2g$. Mit Hilfe dieses Prinzips haben wir eine eindeutige Voraussage erlangt, die mit dem Experimemt verifiziert werden kann: legen wir $\beta$ fest, dann ist auch $\alpha$ festgelegt. Mit der Wahl $\beta = 1/2m$, müssen wir $\alpha$ zu $mg$ umwandeln, damit das Hamilton Prinzip mit dem Experiment konsistent ist. Damit kennen wir auch die genaue Form der Lagrange Funktion für das Galileo Experiment.

Wir hätten anders argumentieren können. Angenommen die Koeffizienten $\alpha$ und $\beta$ seien bekannt, dann besagt unser Variationsprinzip, dass $a_{ph}$ von $m$ unabhängig ist. Wir haben damit eine Voraussage produziert, die man experimentell testen kann. Ist der Test erfolgreich, so freuen wir uns, dass aus einem so abstrakten Prinzip direkt eine solch konkrete (und gewissermassen überraschende) experimentelle Tatsache folgt.

Ein zweiter möglicher Weg zur Lösung des Variationsprinzips von Hamilton führt zu den Bewegungsgleichungen. Zum Studium diseses zweiten Wegs wollen wir zunächst Variationsprobleme im Allgemeinen diskutieren.
Gegeben sei die integrierbare Funktion

\begin{displaymath}
F = F(y(x),y'(x))\quad .
\end{displaymath}

Wir suchen eine Funktion $y = y(x)$, so daß das Funktional

\begin{displaymath}
I = \int_{x_1}^{x_2} F(y(x),y'(x)) \, dx
\end{displaymath}

einen Extremalwert annimmt. Angenommen, $y(x)$ sei eben diese Funktion, die $I$Ęzu einem Minimum macht. Dann wächst $I$ wenn $y(x)$ durch eine Funktion der Form $y(x) + \delta y(x)$ ersetzt ist. $\delta y(x)$ ist eine beliebige differenzierbare Funktion, die an den Endpunkten verschwindet.

\begin{displaymath}
\delta y (x_1) = \delta y (x_2) = 0
\end{displaymath}

und heisst Variation der Funktion $y(x)$.

Abbildung 1.14: Die Variation von $y(x)$
\includegraphics [width=4cm]{f114.eps}

Die Änderung von $I$ beim Einsetzen von $y(x) + \delta y(x)$ ist die Variation des Funktionals $I [y(x)]$:

\begin{eqnarray*}
\delta I
&=&
I [ y(x) + \delta y(x)]
-
I [ y (x) ]
\nonu...
...ht )
-
F \left (
x, y (x), y'(x)
\right)\quad \nonumber \\
\end{eqnarray*}



Die Entwicklung dieser Differenz nach Potenzen von $\delta y$ und $\delta y'$ im Integranden beginnt mit Gliedern erster Ordnung. Die notwendige Bedingung, dass $I$ extremal ist, ist das Verschwinden dieser Glieder. Nach Ausführung der Taylor Entwicklung erhalten wir

\begin{eqnarray*}
\delta I
&=&
\int_{x_1}^{x_2} \left(
\frac{\partial F}{...
...rtial F}{\partial y'}\cdot \delta y'
\right) dx \nonumber\\
\end{eqnarray*}



Wenn man berücksichtigt, dass $\delta y' = \frac{d}{dx}\delta y$ ist, dann lässt sich der zweite Integrand partiell integrieren:

\begin{eqnarray*}
\int_{x_1}^{x_2}dx \frac{\partial F}{\partial y'}\cdot \frac{...
...
\frac{d}{dx} \frac{\partial F}{\partial y'} \right) \delta y
\end{eqnarray*}



Da die Endpunkte fest sein sollen, verschwindet der ausintegrierte Term, und die Extremalbedingung lautet

\begin{displaymath}
\int_{x_1}^{x_2} \left( \frac{\partial F}{\partial y} - \fr...
...c{\partial F}{\partial y'} \right) \delta y \, dx = 0 \quad .
\end{displaymath}

Da $\delta y(x)$ eine beliebige Funktion sein kann, ist diese Gleichung allgemein nur dann erfüllt, wenn

\begin{displaymath}
\frac{d}{dx} \frac{\partial F(y(x),y'(x))}{\partial y'} -
\frac{\partial F(y(x),y'(x))}{\partial y} = 0\quad
\end{displaymath}

ist. Diese Beziehung heißt Euler-Lagrange-Gleichung. Sie stellt eine notwendige Bedingung für einen Extremwert des Integrals $I$ dar.
Wir kehren zurück zum Hamilton Prinzip. Hierbei wird die Zeit als Koordinate nicht variiert. Das System durchläuft einen Bahnpunkt und den dazugehörigen variierten Bahnpunkt zur gleichen Zeit. Es gilt also $\delta t = 0$. Ausgehend vom Integral

\begin{eqnarray*}
\delta I = \delta \int_{t_1}^{t_2}
L(\vec{r}(t), \dot{\vec{r}} (t), t) \, dt = 0\quad ,\\
\nonumber
\end{eqnarray*}



führen wir die Variation durch. Die Variation einer Bahnkurve $\vec{r}(t)$ beschreiben wir durch $\vec{r}(t) \to \vec{r}+ \delta \vec{r}(t)$, wobei $\delta \vec{r}$ an den Endpunkten verschwinden soll: $\delta \vec{r}(t_1) = \delta \vec{r}(t_2) = 0$. Da die Zeit nicht variiert wird, folgt

\begin{eqnarray*}
\delta \int_{t_1}^{t_2} L \, dt &=& \int_{t_1}^{t_2} \delta L...
...al L}{\partial \dot{q_i}} \delta \dot{q_i}
\right) dt \quad .
\end{eqnarray*}



wobei $q_i(t)$ die $i$-te Koordinate darstellt. Wegen $\frac{d}{dt} \delta q_i = \delta \dot{q_i}(t) $, liefert die partielle Integration des zweiten Summanden

\begin{eqnarray*}
\int_{t_1}^{t_2} \frac{\partial L}{\partial \dot{q_i}}
\del...
...\partial L}{\partial \dot{q_i}}
\right) \delta q_i dt \quad .
\end{eqnarray*}



Da $\delta q_i$ an den Endpunkten (Integralgrenzen) verschwindet, erhalten wir für die Variation des Integrals

\begin{displaymath}
\delta I = \int_{t_1}^{t_2} \left[ \sum_i \left(
\frac{\p...
...artial \dot{q_i}}
\right) \delta q_i \right] dt = 0 \quad .
\end{displaymath}

Das Integral verschwindet nur dann, wenn der Koeffizient eines jeden $\delta q_i$ verschwindet. Daraus folgen die Lagrange-Gleichungen der Mechanik:

\begin{displaymath}
\frac{d}{dt}\frac{\partial L}{\partial \dot{q_i}} -
\frac{\partial L}{\partial q_i} = 0
\end{displaymath}

$i= 1,2,3$. Das sind die Bewegungsgleichungen. Sie sind eine Folge des Variationsprinzips, so wie alle Gleichungen der Physik eine Folge eines Variationsprinzips sind (oder sein sollten). Für einen Massenpunkt $P$ mit der Lagrange Funktion $ L[ \vec{r}(t), \dot {\vec{r}} (t)] = 1/2 m \dot{ \vec r}^2 - U(\vec r)$, bekommen wir

\begin{displaymath}
m\cdot \ddot{\vec{r}} = -\vec{\nabla}U(\vec{r})
\end{displaymath}

Diese wurden, in dieser Form, von Newton gefunden. Deswegen heissen die Lagrange Gleichungen eines Massenpunktes in kartesischen Koordinaten auch Newton Gleichungen. Wichtige Fragen der Physik wurden durch die explizite Lösung dieser Gleichungen beantwortet. Die BG sind Differentialgleichungen (DG). Sie lassen sich eindeutig lösen, wenn die Anfangsbedingungen bekannt sind. Die Struktur dieser Differentialgleichungen suggeriert, dass zwei Angaben als Anfangsbedingungen notwendig und hinreichend sind: Ort und Geschwindigkeit zu einer bestimmen Zeit.

Die Terme in den Newton Gleichungen haben folgende Bedeutung: Die zweite zeitliche Ableitung von $\vec{r}$ ist die Beschleunigung von $P$, und beschreibt die Änderung der Geschwindigkeit. Die negative Ableitung der potentiellen Energie ist die Kraft, die für die Änderung der Geschwindigkeit verantwortlich ist. Die Beschleunigung wird in den Einheiten $m/sec^2$ gemessen, die Kraft misst man in $kg\cdot m/sec^2= Newton~(N)$. Die Energie ist deshalb $N\cdot m = Joule~ (J)$. Am Beispiel von Galileo nehmen die BG eine besonders einfache Form an. Die potentielle Energie, die der Ursprung der Kraft ist, ist bekannterweise $mg z$. Die Kraft ist $(0,0,K_z =-mg)$. Die Bewegungsgleichungen lauten

\begin{displaymath}
m\ddot x = m\ddot y = 0;\ m\ddot{z} = -mg
\end{displaymath}

und deren Lösung, mit $x(t=0)=y(t=0)=0, z(t=0)=z_0$:

\begin{displaymath}
(0,0,z_0-\frac{1}{2}gt^2)
\end{displaymath}


next up previous contents
Nächste Seite: Einige wichtige Kräfte der Aufwärts: Die Bewegungsgleichungen Vorherige Seite: Einführung   Inhalt
Kraeutler Vincent
2000-05-30