Wir hatten uns im letzten Abschnitt mit affinen Transformationen \[ f(x) = \Lambda x + d \] befasst und gefordert, dass Teilchen, die sich mit Lichtgeschwindigkeit bewegen, sich auch nach der Transformation weiter mit Lichtgeschwindigkeit bewegen müssen.
Wir konnten diese Forderung umformulieren in die Forderung, dass die Matrix \(\Lambda\) lichtartige Vierervektoren auf lichtartige Vierervektoren abbildet, d.h. wenn ein Vierervektor \(b\) die Beziehung \[ g(b,b) = (b^0)^2 - \boldsymbol{b}^2 = 0 \] erfüllt, so muss auch der Vierervektor \(\Lambda b\) die Beziehung \[ g(\Lambda b, \Lambda b) = 0 \] erfüllen.
In den Physikbüchern wird allerdings normalerweise eine andere Forderung erhoben. Es wird gefordert, dass die Matrix \(\Lambda\) die Metrik \(g\) invariant läßt, d.h. es wird \[ g(a,b) = g(\Lambda a, \Lambda b) \] für beliebige Vierervektoren der Raumzeit gefordert. Die zugehörigen Transformationen \( f(x) = \Lambda x + d \) werden als Poincaré-Transformationen bezeichnet. Für \(d = 0\) bezeichnet man sie auch als Lorentz-Transformationen.
Wenn \( g(a,b) = g(\Lambda a, \Lambda b) \) gilt, so folgt natürlich für Vierervektoren mit der Eigenschaft \(g(b,b) = 0\) sofort, dass auch \(g(\Lambda b,\Lambda b) = 0\) ist. Die Bedingung \(g(a,b) = g(\Lambda a, \Lambda b)\) umfasst also die Bedingung, dass lichtartige Vierervektoren auf lichtartige Vierervektoren abgebildet werden müssen.
Die Bedingung, dass lichtartige Vierervektoren auf lichtartige Vierervektoren abgebildet werden, ist also nicht so einschränkend wie die stärkere Bedingung, dass die Metrik invariant sein soll. Es könnte also Transformationen geben, die zwar lichtartige Vierervektoren auf lichtartige Vierervektoren abbilden, die aber trotzdem die Metrik nicht grundsätzlich invariant lassen. Wir wollen herausfinden, ob das so ist und wie der Zusammenhang zwischen den Bedingungen ist.
Versuchen wir zu ermitteln, welche Form die Matrix \(\Lambda\) hat. Wir wollen also eine geeignete Parametrisierung für \(\Lambda\) finden. Dabei könnten wir versuchen, analog zu unserer Untersuchung der Galileigruppe vorzugehen. Man gelangt auf diese Weise allerdings zu recht unübersichtlichen Formeln, und wir werden daher hier einen anderen Weg einschlagen.
Wir beschränken uns zunächst auf Matrizen \(\Lambda\), die stetig mit der Einheitsmatrix zusammenhängen. Anschaulich ist damit folgendes gemeint:
Man beginnt mit der Einheitsmatrix \(1\), die die Raum-und Zeitkoordinaten noch überhaupt nicht ändert. Nun verändert man die Matrixkomponenten in stetiger Weise, und zwar so, dass die sich verändernde Matrix immer unsere Bedingung erfüllt. Die Matrix wird also die Raum- und Zeitkoordinaten immer mehr verändern. Physikalisch kann man sich vorstellen, dass ein Zug langsam beschleunigt wird, bis er die gewünschte Geschwindigkeit erreicht hat, oder dass ein Experiment langsam im Raum gedreht wird, bis der gewünschte Drehwinkel erreicht ist.
Um diese Idee mathematisch zu präzisieren, benötigen wir die sogenannte Exponentialabbildung von Matrizen, auch Matrixexponential genannt. Sie ist in Analogie zur Reihenentwicklung der bekannten reellen \(e\)-Funktion definiert: \[ e^X := \sum_{k = 0}^{\infty} \, \frac{1}{k!} X^k = \] \[ = 1 + X + \frac{1}{2} X X + \frac{1}{2 \cdot 3} X X X + \, ... \] Dabei ist \[ k! = k \cdot (k-1) \cdot \, ... \, \cdot 2 \cdot 1 \] (sprich \(k\)-Fakultät) und X ist eine relle Matrix (mit gleich viel Zeilen wie Spalten, also eine \(n \times n\)-Matrix). Mit \(X^k\) meinen wir das \(k\)-fache Matrixprodukt von \(X\) mit sich selbst, wobei \(X^0 = 1\) die Einheitsmatrix sein soll.
Man kann zeigen, dass die obige Reihe für jede \(n \times n\)-Matrix \(X\) gegen eine \(n \times n\)-Matrix \(e^X\) konvergiert. Die Abbildung ist also wohldefiniert. Für den Beweis möchte ich auf die im Anhang aufgeführten Lehrbücher und Skripte verweisen (z.B. das Buch von Schottenloher).
Wir wollen nun eine geeignete Matrix \(X\) vorgeben (was geeignet bedeutet, sehen wir später) und den Ansatz \[ \Lambda(\lambda) = e^{\lambda X} \] machen, wobei \(\lambda\) ein reller Parameter ist. Die Matrix \(\Lambda(\lambda)\) hängt also nur von einem reellen Parameter ab, nämlich von \(\lambda\) (die Matrix \(X\) wird ja fest vorgegeben). Die Abhängigkeit von dem Parameter ist stetig und sogar beliebig oft differenzierbar. Man kann sich vorstellen, wie sich die Matrix \(\Lambda\) bei Änderungen des Parameters \(\lambda\) gemäß der obigen Formel stetig-differenzierbar mitändert. Für \(\lambda = 0\) ist dabei \(\Lambda(0) = 1\) (also die Einheitsmatrix).
Die Menge der Matrizen \(\Lambda(\lambda) = e^{\lambda X}\) bildet eine sogenannte einparametrige Untergruppe der Matrizen Die Matrix \(X\) wird dabei als Generator der Untergruppe bezeichnet. Der Begriff einparametrige Untergruppe bedeutet dabei, dass neben den Gruppenaxiomen zusätzlich \[ \Lambda(\lambda_1) \, \Lambda(\lambda_2) = \Lambda(\lambda_1 + \lambda_2) \] sowie \(\Lambda(0) = 1\) gilt. Für den Nachweis dieser Beziehungen benötigt man die Formel \[ e^X \, e^Y = e^{X + Y} \] die erfüllt ist, wenn die Matrizen \(X\) und \(Y\) kommutieren (also \(XY = YX\)).
Man kann nun zeigen, dass jede einparametrige Untergruppe der Matrizen in der obigen Form geschrieben werden kann.
Der Beweis geht so:
Wir starten mit einer beliebigen vorgegebenen einparametrigen Gruppe von Matrizen \(A(\lambda)\) und verwenden, dass für einparametrige Gruppen per Definition die Beziehung \[ A(\lambda_1) \, A(\lambda_2) = A(\lambda_1 + \lambda_2) \] sowie \(A(0) = 1\) gelten muss (man wählt die Parametrisierung entsprechend). Nun leiten wir nach dem Parameter ab: \[ \frac{d}{d\lambda} A(\lambda) = \] \[ = \lim_{\tau \rightarrow 0} \, \frac{1}{\tau} \, [ A(\lambda + \tau) - A(\lambda) ] = \] \[ = \lim_{\tau \rightarrow 0} \, \frac{1}{\tau} \, [ A(\lambda) \, A(\tau) - A(\lambda) ] = \] \[ = A(\lambda) \, \lim_{\tau \rightarrow 0} \, \frac{1}{\tau} \, [ A(\tau) - 1 ] = \] \[ = A(\lambda) \, \frac{dA}{d\lambda} \bigg|_{\lambda = 0} \] Aus dem Eindeutigkeitssatz für Differentialgleichungen erster Ordnung folgt für die Anfangsbedingung \(A(0) = 1\), dass \[ A(\lambda) = e^{\lambda \, \frac{dA}{d\lambda} \big|_{\lambda = 0}} \] sein muss. Die Matrix ist also zwangsläufig von der gewünschten Form, wenn wir \[ X := \frac{dA}{d\lambda} \bigg|_{\lambda = 0} \] definieren.
Wir wollen nun erreichen, dass die Matrizen \[ \Lambda = e^{\lambda X} \] für jeden Wert von \(\lambda\) unsere Bedingung erfüllen, also lichtartige Vierervektoren in lichtartige Vierervektoren umwandeln. Es werden dabei nur bestimmte Generator-Matrizen \(X\) übrig bleiben.
Starten wir also mit lichtartigen Vektoren \(b\). Für diese Vektoren gilt \[ g(b,b) = (b^0)^2 - \boldsymbol{b}^2 = 0 \] Wenn wir \[ \boldsymbol{b} = |\boldsymbol{b}| \, \boldsymbol{e} \] mit \(|\boldsymbol{e}| = 1\) schreiben, so folgt aus der Lichtartigkeits-Bedingung, dass \[ b^0 = \pm |\boldsymbol{b}| =: \epsilon \, |\boldsymbol{b}| \] mit \[ \epsilon = \pm 1 \] sein muss. Also lässt sich jeder lichtartige Vierervektor \(b\) schreiben als \[ b = |\boldsymbol{b}| \, \begin{pmatrix} \epsilon \\ \boldsymbol{e} \end{pmatrix} \] Für Vektoren dieser Form soll nun gelten: \[ g(\Lambda b, \Lambda b) = \] \[ = b^T \Lambda^T g \, \Lambda \, b = \] \[ = b^T e^{\lambda X^T} \,g \, e^{\lambda X} \, b = \] \[ = 0 \] Wir können diese Gleichung an der Stelle \(\lambda = 0\) nach \(\lambda\) ableiten: \[ \frac{d}{d \lambda} ( b^T e^{\lambda X^T} \,g \, e^{\lambda X} \, b )\bigg|_{\lambda = 0} = \] \[ = b^T X^T g \, b + b^T g \, X \, b = \] \[ = 0 \]
Wir wollen jetzt die Komponenten der Matrix \(X\) in der Form \[ X = \begin{pmatrix} k & \boldsymbol{d} \\ \boldsymbol{a} & K \end{pmatrix} \] schreiben. Dabei ist die Null-Null-Komponente \(k\) eine reelle Zahl, \(\boldsymbol{a}\) und \(\boldsymbol{d}\) sind dreikomponentige Vektoren und \(K\) ist eine reelle \(3 \times 3\)-Matrix. Nun können wir die obige Gleichung \[ b^T X^T g \, b + b^T g \, X \, b = 0 \] in Komponenten auswerten. Eine kleine Rechnung ergibt \[ b^T X^T g \, b + b^T g \, X \, b = \] \[ |\boldsymbol{b}|^2 \, \big[ 2k + 2 \epsilon \boldsymbol{e} (\boldsymbol{d} - \boldsymbol{a}) - \boldsymbol{e}^T (K + K^T) \boldsymbol{e} \big] \] \[ = 0 \] Wir können nun in dieser Gleichung separat den Wert \(\epsilon = 1\) sowie den Wert \(\epsilon = -1\) einsetzen. Zusätzlich können wir noch durch \(|\boldsymbol{b}|^2\) dividieren. Es ergeben sich die beiden Gleichungen \begin{align} 2k + 2 \boldsymbol{e} (\boldsymbol{d} - \boldsymbol{a}) - \boldsymbol{e}^T (K + K^T) \boldsymbol{e} &= 0 \\ & \\ 2k - 2 \boldsymbol{e} (\boldsymbol{d} - \boldsymbol{a}) - \boldsymbol{e}^T (K + K^T) \boldsymbol{e} &= 0 \end{align} Wir addieren bzw. subtrahieren die beiden Gleichungen voneinander und erhalten \[ 4k - 2 \boldsymbol{e}^T (K + K^T) \boldsymbol{e} = 0 \] \[ 4 \boldsymbol{e} (\boldsymbol{d} - \boldsymbol{a}) = 0 \] Da beide Gleichungen für beliebige Einheitsvektoren \(\boldsymbol{e}\) gelten müssen, folgt \[ K + K^T = 2k \, \mathbb{1} \] \[ \boldsymbol{d} = \boldsymbol{a} \] mit der \(3 \times 3\)-Einheitsmatrix \(\mathbb{1}\).
Die obere Gleichung können wir noch etwas umschreiben, indem wir die Matrix \(K\) als \[ K =: k \, \mathbb{1} + G \] schreiben (dies definiert die Matrix \(G\) eindeutig). Dann sieht die obere Gleichung so aus: \[ K + K^T = \] \[ = (k \, \mathbb{1} + G) + (k \, \mathbb{1} + G)^T = \] \[ = 2k \, \mathbb{1} + G + G^T = \] \[ = 2k \, \mathbb{1} \] d.h. die obere Gleichung sagt nichts anderes als \[ G^T = -G \] Die Matrix \(G\) ist also eine sogenannte schiefe Matrix.
Damit ist die Matrix \(X\) von der Form \[ X = \begin{pmatrix} k & \boldsymbol{a} \\ \boldsymbol{a} & k \, \mathbb{1} + G \end{pmatrix} \] \[ = k \, 1 + \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} \] mit \(G^T = -G\) und der \(4 \times 4\)-Matrix \(1\) im linken Term \(k \, 1\).
Unser Ergebnis für die Transformations-Matrix \(\Lambda = e^{\lambda X}\) lautet also \[ \Lambda = e^{ \lambda k \, 1 + \lambda \, \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} } \]
Betrachten wir die speziellen Matrizen \(\Lambda\), bei denen \(\boldsymbol{a}\) und G gleich Null sind, also \[ \Lambda = e^{ \lambda k \, 1} = 1 \, e^{ \lambda k} \] Diese Raum-Zeit-Transformationen würden also einfach nur die Raum- und die Zeitachsen um den Faktor \(e^{ \lambda k}\) dehnen bzw. stauchen (aber nicht spiegeln). Die Geschwindigkeit eines fliegenden Teilchens würde sich dadurch nicht ändern, denn der Faktor geht in gleicher Weise in Raum- und Zeitdifferenzen ein und kürzt sich daher in der Geschwindigkeit heraus.
Überlegen wir, wie diese spezielle Raum-Zeit-Transformation zu interpretieren ist, wenn sie eine physikalische Symmetrietransformation wäre. Bei einer geradlinig gleichförmigen Bewegung ist die Interpretation einfach. Angenommen, das gleichförmig fliegende Teilchen befindet sich zur Zeit Null am Ort Null (also im Ursprung des Koordinatensystems) und zur Zeit \(t\) am Ort \(\boldsymbol{x}\). Nun lassen wir die Transformation wirken. Dann würde sich das Teilchen zur Zeit Null immer noch im Ursprung befinden, aber zur Zeit \( e^{ \lambda k} t \) muss es sich am Ort \( e^{ \lambda k} \boldsymbol{x}\) befinden. Das ist eine physikalisch mögliche Bewegung. Es ist sogar genau dieselbe geradlinig-gleichförmige Bewegung wie vorher, mit genau derseben Geschwindigkeit!
Interessante Informationen können wir also nur gewinnen, wenn wir über die Betrachtung geradlinig-gleichförmiger Bewegungen hinausgehen und beispielsweise den Zusammenstoß zweier Teilchen im Detail betrachten. Wir werden später noch einmal auf diese merkwürdigen Abbildungen zurückkommen, wenn die Voraussetzungen dafür geschaffen sind.
Für den Moment wollen wir jedoch (ohne Begründung) die Abbildungen der Form \[ \Lambda = e^{ \lambda k \, 1} = 1 \, e^{ \lambda k} \] aus unserer Betrachtung ausschließen, d.h. die Gruppe der \(\Lambda\)-Matrizen soll keine solchen Abbildungen enthalten, die nur Raum und Zeit in gleicher Weise dehnen.
Unser Ergebnis lautet also:
Wenn \(\Lambda\) aus lichtartigen Vierervektoren wieder lichtartige Vierervektoren macht (d.h. für \(g(b,b) = 0\) ist \(g(\Lambda b, \Lambda b) = 0\) erfüllt), wenn die Menge der Matrizen \(\Lambda\) weiterhin eine einparametrige Untergruppe der Matrizen bildet, d.h. \(\Lambda\) ist von der Form \[ \Lambda = e^{\lambda X} \] und wenn diese Untergruppe keine Elemente der Form Einheitsmatrix mal positivem reellen Parameter (also \(\Lambda = 1 \, e^{ \lambda k}\) ) enthält, dann hat \(\Lambda\) die Form \[ \Lambda = e^{\lambda \, \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} } \] mit \(G^T = -G\).
Können wir unsere obige Forderung, dass aus lichtartigen Viervektoren wieder lichtartige Vierervektoren werden müssen, vielleicht durch die strengere Standardforderung nach invarianter Metrik \[ g(a,b) = g(\Lambda a, \Lambda b) \] ersetzen? Versuchen wir es:
Wir starten wieder mit dem Ansatz \[ \Lambda = e^{\lambda X} \] mit allgemeiner Matrix \(X\) und sehen, welche Form diese Matrix \(X\) haben muss, damit sie die Metrik invariant lässt, sodass \(g(a,b) = g(\Lambda a, \Lambda b)\) erfüllt ist. Dazu schreiben wir die Bedingung erst einmal in Matrixform um. Es ist \[ g(a,b) = a^T g \, b \] und \[ g(\Lambda a, \Lambda b) = \] \[ = (\Lambda a)^T g \, (\Lambda b) = \] \[ = a^T \Lambda^T g \, \Lambda b \] Es muss also \[ a^T g \, b = a^T \Lambda^T g \, \Lambda b \] für beliebige Vierervektoren \(a\) und \(b\) gelten. Damit folgt, dass \(\Lambda\) die Matrix-Bedingung \[ g = \Lambda^T g \, \Lambda \] erfüllen muss. Wieder setzen wir den Ansatz \(\Lambda = e^{\lambda X}\) ein und leiten nach \(\lambda\) an der Stelle \(\lambda = 0\) ab. Analog zu oben folgt die Gleichung \[ X^T \, g + g\, X = 0 \] Was bedeutet nun diese Gleichung für die Komponenten von \(X\) ? Setzen wir die Komponentendarstellung \[ X = \begin{pmatrix} k & \boldsymbol{d} \\ \boldsymbol{a} & K \end{pmatrix} \] in die Gleichung X^T g + g X = 0 ein, so ergibt sich \[ \quad \quad \begin{pmatrix} k & \boldsymbol{a} \\ \boldsymbol{d} & K^T \end{pmatrix} \, \begin{pmatrix} 1 & \boldsymbol{0} \\ \boldsymbol{0} & - \mathbb{1} \end{pmatrix} + \] \[ + \begin{pmatrix} 1 & \boldsymbol{0} \\ \boldsymbol{0} & - \mathbb{1} \end{pmatrix} \begin{pmatrix} k & \boldsymbol{d} \\ \boldsymbol{a} & K \end{pmatrix} = \] \[ = \begin{pmatrix} k & - \boldsymbol{a} \\ \boldsymbol{d} & - K^T \end{pmatrix} + \begin{pmatrix} k & \boldsymbol{d} \\ -\boldsymbol{a} & - K \end{pmatrix} = \] \[ = \begin{pmatrix} 2k & \boldsymbol{d} - \boldsymbol{a} \\ \boldsymbol{d} - \boldsymbol{a} & - (K^T + K) \end{pmatrix} = \] \[ = 0 \] d.h. wir erhalten die Bedingungen \begin{align} k &= 0 \\ \boldsymbol{a} &= \boldsymbol{d} \\ K &= - K^T \end{align} d.h. \(K = G\) mit \(G = - G^T\). Damit hat \(X\) genau die Form, die oben erhalten haben, wenn wir die Raum-Zeit-Streckungen ausschließen.
Wir sehen also:
Wenn wir Matrizen \(\Lambda\) aus einer einparametrigen Untergruppe der Menge aller Matrizen betrachten (d.h. \(\Lambda\) ist von der Form \(\Lambda = e^{\lambda X}\) ), so sind die folgenden beiden Forderungen gleichwertig:
\(\Lambda\) lässt die Minkowski-Metrik von Vierervektoren invariant, erfüllt also die Beziehung \[ g(a,b) = g(\Lambda a,\Lambda b) \] für alle Vierervektoren \(a\) und \(b\).
Beide Forderungen bewirken, dass \(\Lambda\) die Form \[ \Lambda = e^{\lambda \, \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} } \] mit \(G^T = -G\) hat.
Wir können nun verschiedene Matrizen \(X\) mit verschiedenen Werten für den Vektor \(\boldsymbol{a}\) und die schiefsymmetrische Matrix \(G\) vorgeben und erhalten so verschiedene Untergruppen. Insgesamt enthält die Matrix \(X\) sechs freie Parameter: die drei Komponenten des Vektors \(\boldsymbol{a}\) sowie die drei Parameter der Matrix \(G\) (wegen der Bedingung \(G^T = -G\) können bei \(G\) nur drei Komponenten frei vorgegeben werden; die Diagonale von G ist Null).
Der Parameter \(\lambda\) ist kein zusätzlicher freier Parameter, denn er kann in die Matrix \(X\) mit hineingezogen werden, indem wir \(X_{\mathrm{neu}} : = \lambda X\) definieren. Die Matrix \(X_{\mathrm{neu}}\) ist dann immer noch von der oben angegebenen Form. Den Index neu lassen wir daher wieder weg, so dass wir die Lorentz-Transformationsmatrix \(\Lambda\) auch direkt in der Form \[ \Lambda = e^X = e^{ \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} } \] mit \(G^T = -G\) schreiben können. Die Parameter sind nun alle in der Matrix \(X\) enthalten.
In den folgenden zwei Abschnitten wollen wir nun zwei wichtige Fälle unterscheiden.
Wir wollen einmal den Fall \(G = 0\) betrachten, der uns zu den sogenannten Geschwindigkeitstransformationen oder Boost führt.
Dann werden wir den Fall \(\boldsymbol{a} = 0\) untersuchen und feststellen, dass wir so die Drehungen im dreidimensionalen Raum erhalten.
© Jörg Resag, www.joerg-resag.de
last modified on 22 June 2023