Es gibt eine orthogonale Matrix, wenn die mit ihrer Transponierung multiplizierte Matrix zu der Identitätsmatrix führt. Wenn die Umkehrung einer Matrix gleich der Transponierten ist, ist die ursprüngliche Matrix orthogonal.
Orthogonale Matrizen haben die Eigenschaft, dass die Anzahl der Zeilen gleich der Anzahl der Spalten ist. Weiterhin sind die Zeilenvektoren orthogonale Einheitsvektoren und die transponierten Zeilenvektoren auch.
Abbildung 1. Beispiel einer orthogonalen Matrix und wie sie geometrische Objekte transformiert. (Vorbereitet von Ricardo Pérez)
Wenn eine orthogonale Matrix mit den Vektoren eines Vektorraums multipliziert wird, erzeugt sie eine isometrische Transformation, dh eine Transformation, die die Abstände nicht ändert und die Winkel beibehält.
Ein typischer Vertreter orthogonaler Matrizen sind Rotationsmatrizen. Die Transformationen von orthogonalen Matrizen in einem Vektorraum werden als orthogonale Transformationen bezeichnet.
Die geometrischen Transformationen der Rotation und Reflexion von Punkten, die durch ihre kartesischen Vektoren dargestellt werden, werden durchgeführt, indem orthogonale Matrizen auf die ursprünglichen Vektoren angewendet werden, um die Koordinaten der transformierten Vektoren zu erhalten. Aus diesem Grund werden orthogonale Matrizen in der Computergrafikverarbeitung häufig verwendet.
Eigenschaften
Eine Matrix M ist orthogonal, wenn sie mit ihrer Transponierten M T multipliziert wird, was als Ergebnis die Identitätsmatrix I ergibt . In ähnlicher Weise ergibt das Produkt der Transponierung einer orthogonalen Matrix durch die ursprüngliche Matrix die Identitätsmatrix:
MM T = M T M = I.
Als Konsequenz der vorherigen Aussage haben wir, dass die Transponierte einer orthogonalen Matrix gleich ihrer inversen Matrix ist:
M T = M -1 .
Die Menge der orthogonalen Matrizen der Dimension nxn bildet die orthogonale Gruppe O (n). Und die Teilmenge von O (n) orthogonaler Matrizen mit der Determinante +1 bildet die Gruppe der einheitlichen Spezialmatrizen SU (n). Die Matrizen der Gruppe SU (n) sind Matrizen, die lineare Rotationstransformationen erzeugen, die auch als Rotationsgruppe bekannt sind.
Demonstration
Wir wollen zeigen, dass eine Matrix genau dann orthogonal ist, wenn die Zeilenvektoren (oder Spaltenvektoren) orthogonal zueinander und von Norm 1 sind.
Angenommen, die Zeilen einer orthogonalen Matrix nxn sind n orthonormale Vektoren der Dimension n. Wenn es mit v 1 , v 2 , … bezeichnet wird, gilt V n für die n Vektoren:
Wo es offensichtlich ist, dass der Satz von Zeilenvektoren tatsächlich ein Satz von orthogonalen Vektoren mit der Norm Eins ist.
Beispiele
Beispiel 1
Zeigen Sie, dass die 2 x 2-Matrix, die in ihrer ersten Reihe den Vektor v1 = (-1 0) und in ihrer zweiten Reihe den Vektor v2 = (0 1) hat, eine orthogonale Matrix ist.
Lösung: Die Matrix M wird konstruiert und ihre Transponierte M T berechnet :
In diesem Beispiel ist die Matrix M selbsttransponiert, dh die Matrix und ihre Transponierung sind identisch. Multipliziere M mit seiner Transponierten M T :
Es wird überprüft, dass MM T gleich der Identitätsmatrix ist:
Wenn die Matrix M mit den Koordinaten eines Vektors oder eines Punktes multipliziert wird, werden neue Koordinaten erhalten, die der Transformation entsprechen, die die Matrix auf dem Vektor oder Punkt durchführt.
Abbildung 1 zeigt, wie M den Vektor u in u ' transformiert und wie M das blaue Polygon in das rote Polygon transformiert. Da M orthogonal ist, handelt es sich dann um eine orthogonale Transformation, bei der die Abstände und Winkel erhalten bleiben.
Beispiel 2
Angenommen, Sie haben eine 2 x 2-Matrix, die in den durch den folgenden Ausdruck angegebenen Realwerten definiert ist:
Finden Sie die reellen Werte von a, b, c und d so, dass die Matrix M eine orthogonale Matrix ist.
Lösung: Per Definition ist eine Matrix orthogonal, wenn sie mit ihrer Transponierten multipliziert wird und die Identitätsmatrix erhalten wird. Wenn man bedenkt, dass die transponierte Matrix aus dem Original erhalten wird und Zeilen gegen Spalten ausgetauscht werden, wird die folgende Gleichheit erhalten:
Durchführen einer Matrixmultiplikation haben wir:
Wenn wir die Elemente der linken Matrix mit den Elementen der Identitätsmatrix auf der rechten Seite gleichsetzen, erhalten wir ein System von vier Gleichungen mit vier Unbekannten a, b, c und d.
Wir schlagen für a, b, c und d die folgenden Ausdrücke in Bezug auf die trigonometrischen Verhältnisse Sinus und Cosinus vor:
Mit diesem Vorschlag und aufgrund der grundlegenden trigonometrischen Identität werden die erste und dritte Gleichung automatisch in der Gleichheit der Matrixelemente erfüllt. Die dritte und vierte Gleichung sind gleich und in der Matrixgleichheit nach dem Ersetzen der vorgeschlagenen Werte sieht es so aus:
was zu folgender Lösung führt:
Schließlich werden die folgenden Lösungen für die orthogonale Matrix M erhalten:
Es ist zu beachten, dass die erste der Lösungen die Determinante +1 hat, so dass sie zur Gruppe SU (2) gehört, während die zweite Lösung die Determinante -1 hat und daher nicht zu dieser Gruppe gehört.
Beispiel 3
Bestimmen Sie anhand der folgenden Matrix die Werte von a und b, so dass wir eine orthogonale Matrix haben.
Lösung: Damit eine bestimmte Matrix orthogonal ist, muss das Produkt mit seiner Transponierung die Identitätsmatrix sein. Dann wird das Matrixprodukt der gegebenen Matrix mit ihrer transponierten Matrix ausgeführt, was das folgende Ergebnis ergibt:
Als nächstes wird das Ergebnis mit der 3 x 3-Identitätsmatrix gleichgesetzt:
In der zweiten Zeile hat die dritte Spalte (ab = 0), aber a kann nicht Null sein, da sonst die Gleichheit der Elemente der zweiten Zeile und der zweiten Spalte nicht erfüllt wäre. Dann ist unbedingt b = 0. Wenn wir den Wert 0 durch b ersetzen, haben wir:
Dann wird die Gleichung gelöst: 2a ^ 2 = 1, deren Lösungen sind: + ½√2 und -½√2.
Unter Verwendung der positiven Lösung für a wird die folgende orthogonale Matrix erhalten:
Der Leser kann leicht überprüfen, ob die Zeilenvektoren (und auch die Spaltenvektoren) orthogonal und einheitlich sind, dh orthonormal.
Beispiel 4
Zeigen Sie, dass die Matrix A, deren Zeilenvektoren v1 = (0, -1 0) , v2 = (1, 0, 0) und v3 = (0 0 -1) sind, eine orthogonale Matrix ist. Zusätzlich findet die Vektoren aus der kanonischen Basis transformiert werden , i, j, k Vektoren u1 , u2 und u3 .
Lösung: Es ist zu beachten, dass das Element (i, j) einer Matrix multipliziert mit ihrer Transponierten das Skalarprodukt des Vektors der Zeile (i) mit dem der Spalte (j) der Transponierten ist. Darüber hinaus entspricht dieses Produkt dem Kronecker-Delta für den Fall, dass die Matrix orthogonal ist:
In unserem Fall sieht es so aus:
v1 • v1 = 0x0 + (-1) x (-1) + 0x0 = 1
v2 • v2 = 1 × 1 + 0x0 + 0x0 = 1
v3 • v3 = 0x0 + 0x0 + (-1) x (-1) = 1
v1 • v2 = 0x1 + (-1) x0 + 0x0 = 0
v2 • v1 = 1 × 0 + 0x (-1) + 0x0 = 0
v2 • v3 = 1 × 0 + 0x (0) + 0x (-1) = 0
v3 • v2 = 0x1 + 0x (0) + (-1) x0 = 0
v1 • v3 = 0x0 + (-1) x (0) + 0x (-1) = 0
v3 • v1 = 0x0 + 0x (-1) + (-1) x0 = 0
Womit gezeigt wird, dass es sich um eine orthogonale Matrix handelt.
Weiterhin ist u1 = A i = (0, 1, 0); u2 = A j = (-1, 0, 0) und schließlich u3 = A k = (0, 0, -1)
Verweise
- Anthony Nicolaides (1994) Determinanten & Matrizen. Pass-Veröffentlichung.
- Birkhoff und MacLane. (1980). Moderne Algebra, hrsg. Vicens-Vives, Madrid.
- Casteleiro Villalba M. (2004) Einführung in die lineare Algebra. ESIC Editorial.
- Dave Kirkby (2004) Maths Connect. Heinemann.
- Jenny Olive (1998) Mathematik: Ein Leitfaden für das Überleben eines Schülers. Cambridge University Press.
- Richard J. Brown (2012) 30-Sekunden-Mathematik: Die 50 umwerfendsten Theorien in der Mathematik. Ivy Press Limited.
- Wikipedia. Orthogonale Matrix. Wiederhergestellt von: es.wikipedia.com
- Wikipedia. Orthogonale Matrix. Wiederhergestellt von: en.wikipedia.com