Zusammenfassung
Für die lineare Algebra bedeutete es einen gewaltigen Fortschritt, Vektoren und Matrizen durch jeweils ein einziges Symbol zu bezeichnen, also nicht stets die einzelnen Koordinaten oder Einträge aufschreiben zu müssen. Damit lassen sich nämlich Strukturen viel einfacher erkennen. So wird heute in fast allen Lehrbüchern zur linearen Algebra der koordinatenfreie Zugang bevorzugt.
Andererseits sind bei konkreten Anwendungsproblemen gerade die einzelnen Koordinaten oder Matrizenelemente wesentlich, denn diese vermitteln dem Praktiker oft die wesentlichen Informationen. Die Formeln der Tensorrechnung mit ihrer geschickten Notation erleichtern das Hantieren mit einzelnen Koordinaten sowie deren Transformation bei Änderungen des Koordinatensystems.
Wir werden erkennen, dass Vektoren und Matrizen, sofern sie geometrische oder physikalische Größen repräsentieren, unter dem Begriff eines Tensors zu subsumieren sind. Lineare Abbildungen und Bilinearformen ordnen sich gleichfalls diesem Begriff unter. Aber Tensoren bleiben nicht auf einfach oder zweifach indizierte Größen beschränkt, wir können mit drei und mehr Indizes arbeiten. Nur müssen wir lernen, aus dem Gewirr von Indizes das Wesentliche herauszulesen, und genau das ist ein Ziel dieses Kapitels zur Tensorrechnung. Das Wort Tensor leitet sich übrigens vom lateinischen tendere (spannen) ab und deutet auf eine wichtige Anwendung hin, den Spannungstensor.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Author information
Authors and Affiliations
Corresponding author
Appendices
Zusammenfassung
Als Einführung in die Tensoralgebra vergleichen wir das Transformationsverhalten der Basisvektoren bei Basiswechseln mit jenem der Komponenten von Vektoren und Linearformen sowie jenem der Darstellungsmatrizen von Bilinearformen und linearen Abbildungen.
Vektorkoordinaten verhalten sich anders als die Basisvektoren. Wir nennen dies kontravariant, und die Vektorkoordinaten bekommen hochgestellte Indizes. Im Gegensatz dazu verhalten sich die Koeffizienten in Linearformen kovariant und ihre Indizes werden tiefgestellt.
Einstein’sche Summationskonvention
Tritt in einem Term derselbe Index zweimal auf, und zwar einmal oben, und einmal unten, so ist über diesen Index von 1 bis \(n\) zu summieren.
Definition der Tensoren 1. Stufe
Ein Tensor 1. Stufe ist eine Größe, deren Komponenten \(x^{i}\) oder \(x_{i}\) sich bei einem Wechsel von der Basis \(B\) zu \(\overline{B}\) kontravariant oder kovariant verhalten, also
1.1 Zu jedem Vektorraum gibt es einen Dualraum, zu jeder Basis eine Dualbasis
Die Vektoren \((\boldsymbol{b}^{1},\dots,\boldsymbol{b}^{n})\) der Dualbasis verhalten sich kontravariant zu jenen der Ausgangsbasis.
1.2 Der Metriktensor bestimmt das Skalarprodukt
Die Komponenten \(g_{ij}=\boldsymbol{b}_{i}\cdot\boldsymbol{b}_{j}\) des Metriktensors sind kovariant und ermöglichen die Darstellung \(g_{ij}x^{i}y^{j}\) des Skalarproduktes. Die zu \((g_{ij})\) inverse Matrix enthält als Einträge den kontravarianten Metriktensor \(g^{ij}=\boldsymbol{b}^{i}\cdot\boldsymbol{b}_{j}\).
Die linearen Abbildungen sind gemischte Tensoren zweiter Stufe und Anlass zu folgender allgemeiner Definition.
Definition der Tensoren 2. Stufe
Ein Tensor 2. Stufe ist eine Größe, deren doppelt indizierte Komponenten sich bei einem Basiswechsel je nach Stellung des jeweiligen Index ebenso wie kovariante oder kontravariante Vektoren transformieren.
1.3 Allgemeine Tensoren können addiert, multipliziert und sogar verjüngt werden
Definition allgemeiner Tensoren
Ein \(r\)-fach kontravarianter und \(s\)-fach kovarianter Tensor \(t^{i_{1}\dots i_{r}}_{j_{1}\dots j_{s}}\) ist eine Größe, deren Komponenten sich bei Basiswechsel wie folgt verhalten:
Die Addition von Tensoren, das Tensorprodukt, das Überschieben, Verjüngen, Hinauf- und Hinunterziehen erzeugen aus Tensoren stets wieder Tensoren.
1.4 Kartesische Tensoren
Beschränkt man sich auf orthonormierte Basen, so sind alle Transformationsmatrizen orthogonal. Es entfällt der Unterschied zwischen kontravariant und kovariant. Alle Indizes werden tiefgestellt. Die Einstein’sche Summationskonvention wird dementsprechend modifiziert.
Definition kartesischer Tensoren
Ein kartesischer Tensor \(r\)-ter Stufe \(t_{i_{1}\,\dots\,i_{r}}\) genügt den Transformationsregeln
1.5 Der Epsilon-Tensor führt zu einfachen Darstellungen in Tensorschreibweise
Der Epsilon-Tensor wird als vollständig alternierender kartesischer Tensor 2. Stufe eingeführt und erlaubt die tensorielle Darstellung des Vektorproduktes \(\varepsilon_{ijk}x^{j}y^{k}\) und des Spatproduktes \(\varepsilon_{ijk}x^{i}y^{j}z^{k}\).
1.6 Die Tensoren 2. Stufe sind von besonderer Bedeutung für die Anwendungen
Als Beispiele betrachten wir den alternierenden Rotationstensor und den Drehtensor sowie als symmetrische Tensoren den Projektionstensor, den Spannungstensor, Trägheitstensor und Verzerrungstensor.
Hauptachsentransformation der symmetrischen Tensoren 2. Stufe
Zu jedem symmetrischen Tensor \(t_{ij}\) gibt es eine orthonormierte Rechtsbasis, bezüglich welcher die Tensorkomponenten eine Diagonalmatrix bilden. Dabei sind die Diagonaleinträge die Eigenwerte und die Basisvektoren Eigenvektoren der Matrix \((t_{ij})\).
Aufgaben
Die Aufgaben gliedern sich in drei Kategorien: Anhand der Verständnisfragen können Sie prüfen, ob Sie die Begriffe und zentralen Aussagen verstanden haben, mit den Rechenaufgaben üben Sie Ihre technischen Fertigkeiten und die Anwendungsprobleme geben Ihnen Gelegenheit, das Gelernte an praktischen Fragestellungen auszuprobieren.
Ein Punktesystem unterscheidet leichte Aufgaben •, mittelschwere •• und anspruchsvolle ••• Aufgaben. Lösungshinweise am Ende des Buches helfen Ihnen, falls Sie bei einer Aufgabe partout nicht weiterkommen. Dort finden Sie auch die Lösungen – betrügen Sie sich aber nicht selbst und schlagen Sie erst nach, wenn Sie selber zu einer Lösung gekommen sind. Ausführliche Lösungswege, Beweise und Abbildungen finden Sie auf der Website zum Buch.
Viel Spaß und Erfolg bei den Aufgaben!
2.1 Verständnisfragen
22.1
• Gegeben sind kartesische Tensoren \(r_{ijk}\), \(s_{ij}\) und \(t_{ij}\). Welche der folgenden Größen sind koordinateninvariant?
22.2
•• Warum verschwindet das doppelt-verjüngende Produkt \(s^{ij}a_{ij}\), wenn der Tensor \(s^{ij}\) symmetrisch und der Tensor \(a_{ij}\) alternierend ist? Was ist \(s^{ij}a_{ji}\)?
22.3
•• Warum sind die Symmetrie und die Antisymmetrie eines kartesischen Tensors \(t_{ij}\) zweiter Stufe koordinateninvariante Eigenschaften.
22.4
• Beweisen Sie die folgende Aussage: Sind die Vektoren mit Komponenten \(a_{i}\), \(b_{i}\) und \(c_{i}\) linear unabhängig im \(\mathbb{R}^{3}\) und ist der Vektor \(v_{i}\) darstellbar als die Linearkombination \(v_{i}=\alpha\,a_{i}+\beta\,b_{i}+\gamma\,c_{i}\), so gilt für den ersten Koeffizienten \(\alpha=\varepsilon_{ijk}v_{i}b_{j}c_{k}/\varepsilon_{ijk}a_{i}b_{j}c_{k}\). Wie lauten die analogen Ausdrücke für \(\beta\) und \(\gamma\)?
22.5
••• Wie lautet das Quadrat a) des Rotationstensors \(t_{ik}\) sowie b) jenes des Drehtensors \(d_{ij}\)?
2.2 Rechenaufgaben
22.6
• Berechnen Sie im \(\mathbb{R}^{3}\) die nachstehend angeführten Ausdrücke, die alle das Kronecker-Delta enthalten:
22.7
•• Zerlegen Sie den Tensor \(t_{ij}\) mit
in seinen symmetrischen Anteil \(s_{ij}\) und seinen alternierenden Anteil \(a_{ij}\) und berechnen Sie den Vektor \(d_{j}=\tfrac{1}{2}\,\varepsilon_{ijk}t_{ik}\).
22.8
••• Berechnen Sie für den zyklischen Basiswechsel von \(B=(\boldsymbol{b}_{1},\boldsymbol{b}_{2},\boldsymbol{b}_{3})\) zu \(\overline{B}=(\boldsymbol{b}_{2},\boldsymbol{b}_{3},\boldsymbol{b}_{1})\) die Einträge \(\overline{a}^{\,i}_{j}\) und \(\underline{a}^{i}_{j}\) und überprüfen Sie dies beim kovarianten Metriktensor \(g_{ij}\).
22.9
••• Neben der kanonischen Basis \((\boldsymbol{e}_{1},\boldsymbol{e}_{2},\boldsymbol{e}_{3})\) des \(\mathbb{R}^{3}\) sei \(B\) eine weitere Basis mit
Berechnen Sie die Vektoren \(\boldsymbol{b}^{1}\), \(\boldsymbol{b}^{2}\) und \(\boldsymbol{b}^{3}\) der Dualbasis \(B^{\ast}\), den kovarianten Metriktensor \(g_{ij}\), den kontravarianten Metriktensor \(g^{ij}\) durch Invertieren der Matrix \((g_{ij})\) und überprüfen Sie die Gleichung (22.8).
22.10
••• Wir wechseln von der Basis \(B=(\boldsymbol{b}_{1},\boldsymbol{b}_{2},\boldsymbol{b}_{3})\) mit dem kovarianten Metriktensor \((g_{ij})=\mathop{\mathrm{diag}}(1,2,1)\) zur Basis \(\overline{B}=(\overline{\boldsymbol{b}}_{1},\overline{\boldsymbol{b}}_{2},\overline{\boldsymbol{b}}_{3})\) mit
Wie sehen die neuen Komponenten \(\overline{t}_{ij}\) des Tensors \(t_{ij}\) mit
aus? Berechnen Sie ferner die neuen Komponenten \(\overline{t}^{i}_{\,j}\), und zwar einerseits im neuen Koordinatensystem durch Hinaufziehen, andererseits aus den zugehörigen alten Komponenten nach dem jeweiligen Transformationsgesetz.
22.11
•• Wie ändert sich der symmetrische Tensor 2. Stufe
wenn die zugrunde liegende orthonormierte Basis \(B\) um die \(x_{3}\)-Achse durch \(60^{\circ}\) nach \(\overline{B}\) verdreht wird?
22.12
• Berechnen Sie den Projektionstensor \(n_{ij}\) zum Einheitsvektor \(\boldsymbol{\widehat{n}}=\frac{1}{\sqrt{6}}(1,-1,2)^{T}\) und zerlegen Sie den Vektor \(\boldsymbol{v}=(1,1,1)^{T}\) in zwei orthogonale Komponenten \(\boldsymbol{v}^{\prime}\) und \(\boldsymbol{v}^{\prime\prime}\), wobei \(\boldsymbol{v}^{\prime}\) zu \(\boldsymbol{\widehat{n}}\) parallel ist.
22.13
•• Die eigentlich orthogonale Matrix
bestimmt einen Drehtensor. Berechnen Sie die Drehachse \(\boldsymbol{\widehat{d}}\) und den auf die Orientierung von \(\boldsymbol{\widehat{d}}\) abgestimmten Drehwinkel \(\varphi\) mit \(0\leq\varphi<360^{\circ}\).
22.14
• Berechnen Sie die Werte \(\varepsilon_{ijk}\varepsilon_{ijl}\) und \(\varepsilon_{ijk}\varepsilon_{ijk}\).
22.15
•• Sind \(e_{i}\) die Komponenten eines Einheitsvektors und \(v_{i}\) jene eines beliebigen Vektors des \(\mathbb{R}^{3}\), so gilt die Identität
Begründen Sie diese Identität. Was bedeutet sie in Vektorform?
22.16
•• Beweisen Sie die Grassmann-Identität von S. 714
unter Benutzung der Tensordarstellung (22.12) von Vektorprodukten.
2.3 Anwendungsprobleme
22.17
• Bestimmen Sie bei dem gegebenen Spannungstensor
mit \(\sigma\) als Normalspannung und \(\tau\) als Schubspannung die Konstanten \(x,y\in\mathbb{R}\) derart, dass der Spannungsvektor auf der zu \((1,1,1)^{T}\) orthogonalen Ebene verschwindet.
22.18
•• In einem Punkt des Armes am abgebildeten Kran sind die durch die Last hervorgerufenen Dehnungs- und Gleitungsgrößen bezüglich des angegebenen Koordinatensystems bekannt:
Bestimmen Sie die Hauptdehnungen und die Hauptdehnungsrichtungen des zugehörigen Verzerrungstensors \(\boldsymbol{V}\).
Antworten der Selbstfragen
Antwort 1
Wir substituieren zweimal aus (22.1),
Diese Gleichung drückt aus, dass es sich auf der linken und der rechten Seite um denselben Vektor \(\boldsymbol{x}\in V\) handelt. Nur die verwendeten Basen sind verschieden.
Antwort 2
Wenn der Summationsindex \(j\) gleich \(i\) ist, ist der erste Faktor 1, ansonsten 0. Damit bleibt als Summe \(\delta^{i}_{j}\delta^{j}_{k}=\delta^{i}_{k}\).
Antwort 3
Durch Einsetzen folgt
nachdem in der Summe \(\delta^{i}_{k}\,x^{k}\) wegen der Definition des Kronecker-Deltas nur der Summand mit \(k=i\) übrig bleibt.
Antwort 4
Wir verwenden (22.1) und (22.5),
Diese Gleichung besagt, dass das Skalarprodukt eine von der Basis unabhängige Bedeutung hat. Dasselbe wird übrigens auch in der ersten Gleichung von (19.14) zum Ausdruck gebracht.
Antwort 5
Hier ändern sich ausnahmsweise die Komponenten nicht bei einem Basiswechsel, denn
wegen (22.3).
Antwort 6
a) Durch Vertauschung der Summationsindizes \(j\) und \(k\) folgt
b) Es verschwinden die Skalarprodukte \(w_{i}u_{i}\) und \(w_{i}v_{i}\), denn
Antwort 7
Wir nutzen mehrfach \(d_{i}d_{i}=1\) sowie \(\varepsilon_{ikm}d_{i}d_{m}=0\). Bei dem letzten Summanden verwenden wir die Summenformel (22.15). Somit erhalten wir schließlich
Antwort 8
Zuerst behandeln wir die rechte Seite:
Wir beachten wiederum \(\varepsilon_{ris}d_{r}d_{s}=0\) und ferner \(\varepsilon_{ris}\delta_{rs}=0\), nachdem für jedes Indexpaar \((r,s)\) einer der Faktoren verschwindet. Der letzte Summand wird nach (22.15) umgeformt. Damit bleibt schließlich
Auf der linken Seite kommt der Summand \(\varepsilon_{kjl}d_{kl}=2d_{j}\sin\varphi\) vor. Also ist
wie behauptet.
Rights and permissions
Copyright information
© 2018 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature
About this chapter
Cite this chapter
Arens, T., Hettlich, F., Karpfinger, C., Kockelkorn, U., Lichtenegger, K., Stachel, H. (2018). Tensoren – geschicktes Hantieren mit Indizes. In: Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-56741-8_22
Download citation
DOI: https://doi.org/10.1007/978-3-662-56741-8_22
Published:
Publisher Name: Springer Spektrum, Berlin, Heidelberg
Print ISBN: 978-3-662-56740-1
Online ISBN: 978-3-662-56741-8
eBook Packages: Life Science and Basic Disciplines (German Language)