Die üblichen Regeln der Matrizen-Algebra (Assoziativität, Distributivität, Determinanten-Regeln usw.) gelten nat. auch hier.
Es sei eine beliebige 2x2-Matrix $P \DEF {\alpha,\gamma\choose\beta,\delta}$ aus 4 komplexen Zahlen $\alpha,\beta,\gamma,\delta\in\CS$ gegeben.\\ Dann ist ihre Adjunkte ('bar'-Operation) definiert als $\bar P \DEF {\;\delta,-\gamma\choose-\beta,\;\alpha}.$ Diese Operation ist nur für 2x2-Matrizen linear.\\ Dafür gilt trivial $\bar P P = P\bar P = |P| I$ mit der Determinante $|P| \DEF\alpha\delta - \beta\gamma$ und der Einheitsmatrix $I\DEF {1,0\choose 0,1}$ und mit der Matrix-Inversen $ |P|P^{-1} = \bar P .$\\ $\TR(P) \DEF \alpha+\delta =\TR (\bar P)$ ist die Spur der Matrix $P$ und dafür folgt $P+\bar P= \TR(P) I$ und $\TR(P\bar P) = 2|P|.$ Für die Spur gilt eine zyklische Vertauschungsregel: $\TR( AB\cdots X) = \TR(B\cdots X A)$.\\ Die hermitesch konjugierte Matrix ('dagger'-Operation) ist $P^\dagger \DEF {\alpha^\ast,\beta^\ast \choose\gamma^\ast,\delta^\ast} $ als Kombination von komplex konjugierter und transponierter Matrix.\\ Es gelten folgende allg. Regeln für Produkte: $\overline{(P_1 P_2)} = \bar P_2\bar P_1$ und $(P_1 P_2)^\dagger = P_2^\dagger P_1^\dagger$ (Involution mit Vertauschung der Faktoren); und $\overline{\bar P} = P$ und $\HC{(P^\dagger)} = P.$
Die drei Pauli-Matrizen sind $ \sigma_1 ={0,1\choose 1,0},\; \sigma_2 ={0,-i\choose i,\;0},\; \sigma_3 ={1,\;0\choose 0,-1}$. Zusätzlich definieren wir $ \UL{\sigma_0 \DEF I} $.\\ Für die Indizees benutzen wir griech. und lat. Buchstaben als $\mu,\nu,\dots =0,\dots, 3 $ bzw. $ j,k,l,\dots = 1,2,3$. Damit gilt $\sigma_\mu^2 = I,\; \sigma_\mu^\dagger =\sigma_\mu $, $ \bar\sigma_0 = \sigma_0,\;\bar\sigma_k = -\sigma_k $, $ \sigma_1\sigma_2 = -\sigma_2\sigma_1 = i\sigma_3$ usw. (123-zyklisch).\\ Das Produkt zweier Pauli-Matrizen ist $\sigma_i\sigma_j = \delta_{ij} I +i\epsilon_{ijk} \sigma_k$ mit dem vollst. antisymm. Tensor $\epsilon_{ijk}$.\FN{ Mit den Regeln $\epsilon_{mkl}\epsilon_{lnj} = \delta_{mn}\delta_{kj} -\delta_{mj}\delta_{kn}$ (nur die Summanden, für die $m=n, k=j$ oder $m=j,k=n$ ist, verschwinden nicht) folgt das allg. Pauli-Triple-Produkt\\ $ \UL{\sigma_m\sigma_k\sigma_n} = (\sigma_m\sigma_k)\sigma_n = (\delta_{mk}I + i\epsilon_{mkl}\sigma_l)\sigma_n = \delta_{mk}\sigma_n + i\epsilon_{mkl}(\delta_{ln} + i\epsilon_{lnj}\sigma_j) $ $ = \delta_{mk}\sigma_n + i\epsilon_{mkn}I - \epsilon_{mkl}\epsilon_{lnj}\sigma_j = \UL{\delta_{mk}\sigma_n - \delta_{mn}\sigma_k +\delta_{kn}\sigma_m + i\epsilon_{mkn} I} $\\ Als Probe (insbes. Vz) genügen die vier Kombinationen mkn = 111, 121, 122, 123 } Daraus folgt eine Orthogonalitäts-Relation $\UL{\TR (\sigma_\mu\sigma_\nu) = 2\delta_{\mu\nu}}$, da $\TR(\sigma_0) = 2 $ und $\TR(\sigma_k) = 0$.\\ Die vier Matrizen $\sigma_\mu$ bilden eine Basis im Vektorraum der 2x2-Matrizen, dh jede Matrix $P$ kann in der Form $P = p_\mu\sigma_\mu = {p_0+p_3,p_1-ip_2\choose p_1+ip_2,p_0-p_3} $ mit vier komplexen Zahlen $p_\mu\in\CS$ dargestellt werden.\\ Die Abbildung des damit definierten 4-Vektors $p_\mu \Leftrightarrow P$ ist eineindeutig.\\ Die vier Basis-Matrizen erzeugen außerdem eine Minkowski-Metrik $\eta^{\mu\nu} = [1,-1,-1,-1]$ (als 4x4-Diagonal-Matrix) mittels $\TR(\sigma_\mu\bar\sigma_\nu) = 2\eta^{\mu\nu} $, wie aus obigen Formeln leicht zu zeigen ist.\\ Damit ist das lorentz-invariante Skalarprodukt zweier (beliebiger komplexer) 4-Vektoren $a_\mu,b_\mu$ mit $A\DEF a_\mu\sigma_\mu,\; B \DEF b_\mu\sigma_\mu$ definiert als $\fbox \, a_\mu b^\mu = a_\mu b_\nu \eta^{\mu\nu} \DEF \frac 12\TR(A\bar B),\,$ da $\TR(A\bar B) = \TR( a_\mu \sigma_\mu b_\nu \bar \sigma_\nu) = a_\mu b_\nu \TR(\sigma_\mu\bar \sigma_\nu) = 2 a_\mu b_\nu \eta^{\mu\nu}.$
Minkowski-Vektoren werden durch hermitesche Matrizen $M^\dagger = M \; (\DEF m_\mu\sigma_\mu)$ beschrieben, genau dann sind alle vier Komponenten $m_\mu\in\RS$ reell, dh es gilt $M = {a,\, \eta^\ast \choose \eta,\, b} $ mit reellen Diagonalelementen $a \DEF m_0+m_3,\, b \DEF m_0 -m_3$ und $\eta \DEF m_1+im_2$. Die (ebenfalls reelle) Determinante $|M| = m_\mu m^\mu = m_0^2 -m_k^2 = \frac 12 \TR(M \bar M) $ ist die Lorentz-Invariante, also $|M|$ > $0$ für zeitartige, $|M|$ < $0$ für raumartige und $|M| = 0$ für lichtartige Vektoren.\\ Für Minkwoski-Matrizen bewirkt die bar-Operation $M\to \bar M $ offensichtlich eine Raum-Spiegelung (aller drei Koordinaten) bei ungeänderter Zeitkomponente.\\
Eine Lorentz-Transformation wird mit einer unimodularen Matrix $T,\; |T|=1$ beschrieben mit $\fbox\, M\to M' = TM \HC T\, (*)\,$. Eine solche Matrix $T$ hat drei komplexe (= 6 reelle) Freiheitsgrade, die die drei R3-Drehwinkel & die drei echten RZ-Transformationen (boosts) darstellen. Hermitezität $\HC{M'} = (TM \HC T)^\dagger = TM \HC T = M'$ und Invariante $|M'| = |T M \HC T| = |T| |M| | \HC T| = |M| $ bleiben dafür erhalten, da auch $ | \HC T| = |T|^\ast = 1 $. Die bar-Matrix $\bar M$ transformiert sich folglich mit $\bar M' = \overline{(TM \HC T) } = \bar \HC T \bar M\, \bar T.$ Die Umkehrformel zu $(*)$ ergibt sich durch beidseitige Multipl. zu $ M = \bar T M' \bar \HC T $.
Die Gruppe aller $T$ bildet eine Doppel-Darstellung der Lorentz-Gruppe, da $-T$ dieselbe LT wie $T$ beschreibt.\\ Die Gruppe heißt $SL(2,C)$ Spezielle lineare Gruppe (Wikipedia) (vom Grad 2 über dem Körper der komplexen Zahlen) und besitzt als Untergruppe die der unitären Matrizen $SU(2,C) \subset SL(2,C),$ für die zusätzlich gilt $\bar T = \HC T,$ und die die R3-Rotationen abbilden (isomorph zu den Einheits-Quaternionen).
Matrix-Exponentialfunktionen & Lorentz-Transformationen\\ Es sei $Z \DEF z_\mu \sigma_\mu = z_0 +z_k\sigma_k \DEF z_0 +\vec z$ eine Matrix mit beliebigen komplexen Koeffizienten $z_\mu \in \CS$. Eine (i.A. komplexe) 'Norm' von $\vec z$ sei def. als $\lambda^2 \DEF \vec z^2 = \sum_k z_k^2,\; \lambda \in \CS $.\\ Wenn $\lambda \neq 0$ ist, kann man einen 'Einheitsvektor' (er erfüllt $\vec e^2 = 1$) definieren: $e_k \DEF \frac {z_k}\lambda$\FN{ $\lambda$ und $\vec e$ sind damit nur bis auf das Vorzeichen eindeutig bestimmt, man kann aber zB. festlegen, daß $\Re(\lambda) \geq 0$ gelten soll. } Dann gilt $\vec z = \lambda\vec e $.\\ Wir definieren nun eine Matrix-Exponentialfunktion $E(Z) \DEF e^Z = e^{z_0 + \vec z} = e^{z_0 + \lambda\vec e} = e^{z_0}\, e^{\lambda\vec e} $ (mit skalarem Faktor $ e^{z_0}$) durch die Reihenentwicklung $ e^{\lambda\vec e} = I + \lambda \vec e + \frac 1{2!}(\lambda\vec e)^2 + \frac 1{3!}(\lambda\vec e)^3 + \cdots = (1 + \frac 1{2!}\lambda^2 +\cdots)I + (\lambda + \frac 1{3!}\lambda^3 +\cdots)\vec e = \UL{\cosh\lambda + \sinh\lambda\cdot \vec e}$.\FN{ Eine solche Def ist natürl. nur für dimensionslose (Zahlen-)Matrizen $Z$ sinnvoll, da man Potenzen von dimensionsbehafteten Größen nicht addieren kann.\\ }\\ Zu beachten ist, daß man – wegen der Nichtkommutativität der Matrixmultiplikation – die Argumente zweier Exponentialfunktionen i.A. nicht addieren darf: $e^{X} e^{Y} \neq e^{X+Y}$, wenn $XY\neq YX$.\\ Es gilt jedoch ein Additionstheorem für Exponentialfunktionen mit gleichem $\vec e$: \[ \UL{E(\lambda_1 \vec e)E(\lambda_2 \vec e)} = (\cosh\lambda_1 + \sinh\lambda_1 \vec e)(\cosh\lambda_2 + \sinh\lambda_2 \vec e) = \cosh\lambda_1 \cosh\lambda_2 + \sinh\lambda_1 \sinh\lambda_2 +(\cosh\lambda_1\sinh\lambda_2 +\cosh\lambda_2\sinh\lambda_1)\vec e = \cosh(\lambda_1 +\lambda_2) + \sinh(\lambda_1 +\lambda_2)\vec e = \UL{E((\lambda_1+\lambda_2) \vec e)} \] $E(Z) = E(z_0,\lambda,\vec e)$ ist eine holomorphe Funktion der zwei komplexen Argumente $z_0,\lambda$, und es gilt $|E| = e^{Z}e^{\bar Z} = e^{Z + \bar Z} = e^{2z_0}$ ($Z,\bar Z$ kommutieren).\\ Ein einfaches Beispiel ist $\vec e = \sigma_3$ also $\vec z = \lambda\sigma_3 = {\lambda,\;0\choose 0, \, -\lambda$, was ergibt $E(\vec z) = e^{\lambda\sigma_3} = \cosh\lambda + \sinh\lambda\sigma_3 = { \cosh\lambda + \sinh\lambda,\quad 0\quad \choose \quad 0,\quad \cosh\lambda - \sinh\lambda} = {e^\lambda,\,0\choose 0, \, e^{-\lambda}$ \\ Speziell für $z_0 = 0$ ist $T \DEF E(\vec z) = e^{\vec z} = e^{\lambda \vec e} $ unimodular: $|T| = 1,$ stellt also eine LT dar. (Damit sind alle LT darstellbar, weil $\vec z$ drei komplexe = 6 reelle Freiheitsgrade hat.)\\ Wenn $\vec e$ ein reeller Vektor ist (alle $e_k \in \RS$), gilt $\HC T = \HC{(e^{\lambda \vec e})} = e^{\HC{(\lambda \vec e)}} = e^{\lambda^\ast \vec e}.$ Für reelles $\lambda =\lambda^\ast$ ist $T= \HC T$ dann ein Lorentz-Boost in Richtung $\vec e.$\\ Für rein imaginäres $\lambda \DEF i\mu$ erhalten wir $\HC T = e^{-i\mu \vec e} = \bar T =$unitär. Damit stellt $T(i\mu,\vec e) = e^{i\mu \vec e}= \cos\mu + i\sin\mu\cdot \vec e$ eine Drehung um die Achse $\vec e$ um den Winkel $2\mu $ dar.\FN{ ZB. ergibt $\mu = \frac \pi 4$ eine Drehung um 90°: $T = \frac 1{\sqrt 2}(1+i\vec e)$ und $\mu = \frac \pi 2$ eine Drehung um 180°: $T = i\vec e$ }\\ Mit der Substitution $B\DEF \tanh(\lambda) \vec e \DEF b_k\sigma_k$ kann man einen allg. Lorentz-Boost auch in der Form $\UL{T = \frac 1{\sqrt {1-B^2}}(I+B)}$ darstellen. Die drei reellen $b_k$ entsprechen dann dem relativist. Geschwindigkeitvektor $\beta_k = -\frac {2b_k}{1+B^2},$ also $\UL{\vec\beta \DEF -\frac {2B}{1+B^2}}.$\\ Das beweist man mit der Transformation von $\vec x_0 = \vec\beta t$, d.h. des Minkowski-Vektors $X \DEF t I + \vec\beta t = t(I+\vec\beta)$.\\ Dieser wird abgebildet auf $X' = T X \HC T = \frac t{1-B^2}(I+B)(I+\vec\beta)(I+B) = \frac t{1-B^2}(I+B)(I - \frac {2B}{1+B^2})(I+B).$ Da in diesem Produkt alle Matrizen kommutieren, ergibt sich \[ \UL{ X' \DEF t'I + \vec x_0'} = \frac t{1-B^2}(I+B)^2(I - \frac {2B}{1+B^2}) = \frac t{1-B^2}(I+ 2B + B^2)(I - \frac {2B}{1+B^2}) = \frac t{1-B^2}[1+ B^2 - \frac {4B^2}{1+B^2}]I = t\frac {1-B^2}{1+ B^2}I = \UL{t\sqrt{1-|\vec\beta|^2}I}, \] also der Zeitpfeil der Eigenzeit $t' = \tau = t\sqrt{1-|\vec\beta|^2} $ im neuen KS-Ursprung $\vec x_0' = 0.$
Lagrange-Dichte und Variations-Ableitung für Matrizen\\ Die Lagrange-Dichte ist stets ein Skalar, der als Summe von Spuren von Matrix-Produkten gebildet wird: $\LAGR = \TR (AXB\cdots) + \TR(CDX\cdots) +\cdots $. Um die Variations-Ableitung nach der Matrix $X$ zu berechnen, benutzt man die zyklische Vertauschungs-Regel für die Spur von Produkten und normalisiert sie zu $\UL{\LAGR(X)} = \TR (XB\cdots A) + \TR(X\cdots CD) +\cdots = \UL{\TR (X Y)}$ mit der Matrix $Y\DEF B\cdots A + \cdots CD + \cdots$\\ Es sei $X \DEF x_\mu \sigma_\mu, \; Y \DEF y_\mu \sigma_\mu$. Die Variations-Ableitung nach $x_\mu$ ist dann $ \frac {\partial \LAGR}{\partial x_\mu} = \frac {\partial}{\partial x_\mu} (x_\mu\TR(\sigma_\mu Y)) = \TR(\sigma_\mu Y) = y_\nu \TR(\sigma_\mu \sigma_\nu) = y_\nu 2\delta_{\mu\nu}= 2y_\mu$ und damit $\sigma_\mu\frac {\partial \LAGR}{\partial x_\mu} = 2 \sigma_\mu y_\mu = 2 Y$. Wir definieren also $\UL{\frac {\partial \LAGR} {\partial X} \DEF \frac 12\sigma_\mu\frac {\partial \LAGR}{\partial x_\mu}}$ und erhalten $ \UL{ \frac {\partial \TR (X Y)}{\partial X} = Y}.$ (Der Faktor $\frac 12$ ist eine Konvention, die keine direkte Auswirkung hat, da die Euler-Lagrange-Gln stets homogen sind.)\\ Falls $X$ auch in $Y$ auftaucht (bilineare Formen), muß das für jeden Faktor einzeln erfolgen (Produktregel).\\ Analoges gilt für das skalare Produkt von Spinoren, zB für $\LAGR = \HC\Phi \Psi =$skalar, wird definiert $\frac {\partial \LAGR}{\partial \HC\Phi} = \Psi.$