Kehren wir zur Matrix zurück

und wenden Sie die Transformation auf einige Beispielpunkte an.

Die Auswirkungen der Transformation B auf verschiedenen Eingabevektoren

Beachten Sie Folgendes:

  • Punkt X₁​ wurde gegen den Uhrzeigersinn gedreht und näher an den Ursprung gebracht,
  • Punkt X₂​ hingegen wurde im Uhrzeigersinn gedreht und vom Ursprung weggeschoben,
  • Punkt X₃​ wurde nur verkleinert, d. h. es ist näher an den Ursprung gerückt, behält aber seine Richtung bei,
  • Punkt X₄ hat eine ähnliche Transformation durchlaufen, wurde jedoch vergrößert.

Die Transformation komprimiert sich im X⁽¹⁾-Richtung und erstreckt sich in der X⁽²⁾-Richtung. Sie können sich vorstellen, dass sich die Gitterlinien wie eine Ziehharmonika verhalten.

Richtungen, wie sie beispielsweise durch die Vektoren dargestellt werden X₃ und X₄ spielen beim maschinellen Lernen eine wichtige Rolle, aber das ist eine Geschichte für ein anderes Mal.

Im Second können wir sie anrufen Eigenrichtungenda Vektoren entlang dieser Richtungen möglicherweise nur durch die Transformation skaliert werden, ohne gedreht zu werden. Jede Transformation, mit Ausnahme von Rotationen, hat ihren eigenen Satz von Eigenrichtungen.

Denken Sie daran, dass die Transformationsmatrix durch Stapeln der transformierten Basisvektoren in Spalten erstellt wird. Vielleicht möchten Sie sehen, was passiert, wenn wir Vertauschen Sie die Zeilen und Spalten danach (die Transposition).

Nehmen wir zum Beispiel die Matrix

Wo Aᵀ steht für die transponierte Matrix.

Aus geometrischer Sicht die Koordinaten des ersten neuer Basisvektor stammt die ersten Koordinaten von allen die alten Basisvektoren, die zweiten aus den zweiten Koordinaten und so weiter.

In NumPy ist es so einfach:

import numpy as np

A = np.array((
(1, -1),
(1 , 1)
))

print(f'A transposed:n{A.T}')

A transposed:
(( 1 1)
(-1 1))

Ich muss Sie jetzt enttäuschen, da ich keine einfache Regel liefern kann, die den Zusammenhang zwischen den Transformationen ausdrückt A Und Aᵀ in nur wenigen Worten.

Stattdessen möchte ich Ihnen eine Eigenschaft zeigen, die sowohl die ursprüngliche als auch die transponierte Transformation gemeinsam haben und die sich später als nützlich erweisen wird.

Hier ist die geometrische Interpretation der durch die Matrix dargestellten Transformation A. Der grau schattierte Bereich wird aufgerufen das Parallelogramm.

Parallelogramm, das von den durch eine Matrix transformierten Basisvektoren aufgespannt wird A

Vergleichen Sie dies mit der Transformation, die Sie durch Anwendung der Matrix erhalten Aᵀ:

Parallelogramm, das von den durch eine Matrix transformierten Basisvektoren aufgespannt wird A

Betrachten wir nun eine weitere Transformation, die völlig andere Maßstäbe auf die Einheitsvektoren anwendet:

Das der Matrix zugeordnete Parallelogramm B ist jetzt viel schmaler:

Parallelogramm, das von den durch eine Matrix transformierten Basisvektoren aufgespannt wird B

aber es stellt sich heraus, dass es die gleiche Größe wie die Matrix hat Bᵀ:

Parallelogramm, das von den durch eine Matrix transformierten Basisvektoren aufgespannt wird B

Lassen Sie es mich so ausdrücken: Sie haben eine Reihe von Zahlen, die Sie den Komponenten Ihrer Vektoren zuordnen können. Wenn Sie einer Komponente eine größere Zahl zuweisen, müssen Sie für die anderen kleinere Zahlen verwenden. Mit anderen Worten: Die Gesamtlänge der Vektoren, aus denen das Parallelogramm besteht, bleibt gleich. Ich weiß, dass diese Argumentation etwas vage ist. Wenn Sie additionally nach strengeren Beweisen suchen, sehen Sie sich die Literatur im Abschnitt „Referenzen“ an.

Und hier ist der Clou am Ende dieses Abschnitts: Die Fläche der Parallelogramme kann durch Berechnen ermittelt werden die Determinante der Matrix. Was mehr ist, die Determinante der Matrix und ihre Transponierte sind identisch.

Mehr zur Determinante in den nächsten Abschnitten.

Sie können eine Folge von Transformationen anwenden – beginnen Sie beispielsweise mit der Anwendung A zum Vektor Xund geben Sie dann das Ergebnis weiter B. Dies kann erreicht werden, indem zunächst der Vektor multipliziert wird X durch die Matrix Aund dann das Ergebnis mit der Matrix multiplizieren B:

Sie können die Matrizen multiplizieren B Und A um die Matrix zu erhalten C zur weiteren Verwendung:

Dies ist der Effekt der durch die Matrix dargestellten Transformation C:

Durch die zusammengesetzte Matrix beschriebene Transformation BA

Sie können die Transformationen auch in umgekehrter Reihenfolge durchführen: Zuerst anwenden Bdann bewerben A:

Lassen D stellen die Folge von Multiplikationen dar, die in dieser Reihenfolge durchgeführt werden:

Und so wirkt es sich auf die Gitterlinien aus:

Durch die zusammengesetzte Matrix beschriebene Transformation AB

Das können Sie additionally selbst sehen Die Reihenfolge der Matrixmultiplikation ist wichtig.

Es gibt eine coole Immobilie mit die Transponierte einer zusammengesetzten Transformation. Schauen Sie sich an, was passiert, wenn wir uns vermehren A von B:

und dann das Ergebnis transponieren, was bedeutet, dass wir (AB)ᵀ:

Sie können diese Beobachtung leicht auf die folgende Regel erweitern:

Zum Abschluss dieses Abschnitts betrachten wir das umgekehrte Downside: Ist es möglich, Matrizen wiederherzustellen? A Und B nur gegeben C = AB?

Das ist Matrixfaktorisierungfür die es, wie zu erwarten, keine eindeutige Lösung gibt. Die Matrixfaktorisierung ist eine leistungsstarke Technik, die Einblicke in Transformationen liefern kann, da diese als Zusammensetzung einfacherer, elementarer Transformationen ausgedrückt werden können. Aber das ist ein Thema für ein anderes Mal.

Sie können leicht eine Matrix erstellen, die a darstellt Nichtstun-Transformation das lässt die Standardbasisvektoren unverändert:

Es wird allgemein als bezeichnet die Identitätsmatrix.

Nehmen Sie eine Matrix A und bedenken Sie die Transformation, die ihre Auswirkungen zunichte macht. Die Matrix, die diese Transformation darstellt, ist A⁻¹. Insbesondere bei Anwendung danach oder davor Aes ergibt die Identitätsmatrix ICH:

Es gibt viele Ressourcen, die erklären, wie man die Umkehrung von Hand berechnet. Ich empfehle Lernen Gauß-Jordan-Methode weil es einfache Zeilenmanipulationen an der erweiterten Matrix beinhaltet. Bei jedem Schritt können Sie zwei Zeilen vertauschen, jede Zeile neu skalieren oder zu einer ausgewählten Zeile eine gewichtete Summe der verbleibenden Zeilen hinzufügen.

Nehmen Sie die folgende Matrix als Beispiel für Handberechnungen:

Sie sollten die inverse Matrix erhalten:

Überprüfen Sie von Hand, ob Gleichung (4) gilt. Sie können dies auch in NumPy tun.

import numpy as np

A = np.array((
(1, -1),
(1 , 1)
))

print(f'Inverse of A:n{np.linalg.inv(A)}')

Inverse of A:
(( 0.5 0.5)
(-0.5 0.5))

Sehen Sie sich in den folgenden Abbildungen an, wie sich die beiden Transformationen unterscheiden.

Transformation A
Transformation A⁻¹

Auf den ersten Blick ist es nicht offensichtlich, dass eine Transformation die Auswirkungen der anderen umkehrt.

Allerdings könnten Sie in diesen Handlungen etwas Faszinierendes und Weitreichendes entdecken Zusammenhang zwischen der Transformation und ihrer Umkehrung.

Schauen Sie sich die erste Abbildung genau an, die den Effekt der Transformation zeigt A auf den Basisvektoren. Die ursprünglichen Einheitsvektoren werden halbtransparent dargestellt, während ihre transformierten Gegenstücke aus der Multiplikation mit einer Matrix resultieren Asind klar und solide gezeichnet. Stellen Sie sich nun vor, dass diese neu gezeichneten Vektoren die Basisvektoren sind, die Sie zur Beschreibung des Raums verwenden, und dass Sie den ursprünglichen Raum aus ihrer Perspektive wahrnehmen. Dann erscheinen die ursprünglichen Basisvektoren kleiner und sind zweitens nach Osten ausgerichtet. Und genau das zeigt die zweite Abbildung, die die Wirkung der Transformation verdeutlicht A⁻¹.

Dies ist eine Vorschau auf ein bevorstehendes Thema, das ich im nächsten Artikel behandeln werde Verwendung von Matrizen zur Darstellung verschiedener Perspektiven auf Daten.

Das klingt alles großartig, aber es gibt einen Haken: Einige Transformationen können nicht rückgängig gemacht werden.

Das Arbeitstier des nächsten Experiments wird die Matrix mit Einsen auf der Diagonale und sein B auf der Antidiagonalen:

Wo B ist ein Bruch im Intervall (0, 1). Diese Matrix ist per Definition symmetrisch, da sie zufällig mit ihrer eigenen Transponierten identisch ist: A=Aᵀ, aber ich erwähne das nur nebenbei; es ist hier nicht besonders related.

Kehren Sie diese Matrix mit der Gauß-Jordan-Methode um und Sie erhalten Folgendes:

Sie können die Regeln zur Berechnung der Determinante von 2×2-Matrizen ganz einfach on-line finden

Das ist kein Zufall. Im Allgemeinen gilt das

Beachten Sie das, wann B = 0, die beiden Matrizen sind identisch. Das ist keine Überraschung, denn A reduziert sich auf die Identitätsmatrix ICH.

Schwierig wird es, wenn B = 1, da die det(A) = 0 und det(A⁻¹) wird unendlich. Infolge, A⁻¹ existiert für eine Matrix nicht A vollständig aus Einsen bestehend. Im Algebraunterricht warnen Lehrer Sie oft vor einer Nulldeterminante. Wenn wir jedoch überlegen, woher die Matrix kommt, wird deutlich, dass auch eine unendliche Determinante auftreten kann, was zu ein fataler Fehler. Ohnehin,

Eine Nulldeterminante bedeutet, dass die Transformation nicht umkehrbar ist.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert