Eigenwerte, Eigenvektoren und Eigenzusammensetzung

Was müssen Sie wissen, um dieses Thema zu verstehen?

  • Grundlagen der linearen Algebra

Abschnitte

  • Eigenwas?
  • Eigendecomposition
    • Ein Beispiel
  • Warum ist eigendecomposition sinnvoll?
    • Matrix inverse
    • Potenz einer Matrix
  • Eigenschaften der Eigenzusammensetzung
  • Wie berechnet man die Eigenzusammensetzung?
    • Leistungsiteration
    • QR-Algorithmus

Eigenwas?

Eigen bedeutet eigen oder Selbst. In der linearen Algebra sind Eigenwert, Eigenvektor und Eigendecomposition Begriffe, die intrinsisch verwandt sind. Eigendecomposition ist die Methode, um eine quadratische Matrix in ihre Eigenwerte und Eigenvektoren zu zerlegen. Für eine Matrix $ A $, wenn $$ \ begin{equation} A\mathbf{v} =\lambda \mathbf{v}\label {eq: Avlv} \end{equation}$$ dann ist $ \ mathbf {v} $ ein Eigenvektor der Matrix $ A $ und $ \ lambda $ ist der entsprechende Eigenwert. Das heißt, wenn die Matrix $ A $ mit einem Vektor multipliziert wird und das Ergebnis eine skalierte Version desselben Vektors ist, dann ist es ein Eigenvektor von $ A $ und der Skalierungsfaktor ist sein Eigenwert.

Eigendecomposition

Wie finden wir also die Eigenvektoren einer Matrix? Von $ \ eqref {eq: Avlv} $: $$ A \ mathbf{v}-\ lambda I \ mathbf{v} = 0 $$$$ \ begin {Gleichung} (A -\ lambda I) \ mathbf {v} = 0 \ label {eq: AlI} \ end {Gleichung}, $$wobei $I $ die Identitätsmatrix ist. Die Werte von $ \lambda $, wobei $\eqref{eq:AlI}$ gilt, sind die Eigenwerte von $ A $. Es stellt sich heraus, dass diese Gleichung äquivalent ist zu:$$\begin{equation}det(A-\lambda I) = 0,\label{eq:detAlI}\end{equation}$$wobei det() die Determinante einer Matrix ist.

Beweis, dass $det(A-\lambda I) \equiv (A-\lambda I) \mathbf{v}=0$

Zunächst müssen Sie wissen, dass eine Matrix genau dann nicht invertierbar ist, wenn ihre Determinante Null ist. Für die Werte von $ \ lambda $, die $ \ eqref {eq: detAlI} $ enthält, ist $ A- \ lambda I $ nicht invertierbar (Singular). In diesen Fällen können Sie nicht beide Seiten von $ \ eqref {eq: AlI} $ mit $ (A- \ lambda I) ^ {-1} $ multiplizieren (da es keine Inverse gibt), um zu erhalten:$$\mathbf{v} = 0,$$was bedeutet, dass in diesen Fällen die Lösung für $\eqref{eq:Avlv}$ sich von $\mathbf{v} = 0$ unterscheidet und $\lambda $ ein Eigenwert von $ A $ ist.

Ein Beispiel

Sehen wir uns die eigendecomposition für die Matrix an:$$A=\left$$From $\eqref{eq:detAlI}$:$$det\left(\left\right) = 0$$$$(1-\ lambda)(3-\lambda) = 0$$wir erhalten direkt $\lambda_1 = 1$ und $\lambda_2 = 3$. Der obige Ausdruck wird üblicherweise als charakteristisches Polinom oder charakteristische Gleichung einer Matrix bezeichnet.
$\lambda_1$ in $\eqref{eq:Avlv}$ einstecken, erhalten wir:$$\left\left= 1 \left$$von dem wir $v_{11} = -2v_{12} $ erhalten. Das heißt, jeder Vektor $\mathbf{v_1} = $ wobei $v_{11} = -2v_{12}$ ein Eigenvektor von $ A $ mit dem Eigenwert 1 ist.
Wenn wir $\lambda_2$ in $\eqref{eq:Avlv}$ stecken, erhalten wir:$$\left\left= 3 \left$$von dem wir $v_{21} = 0$ und $v_{22} \in \mathbb{R}$ . Das heißt, jeder Vektor $\mathbf{v_2} = $ wobei $v_{21} = 0 $ ein Eigenvektor von $ A $ mit dem Eigenwert 3 ist.

Warum ist eigendecomposition sinnvoll?

In Bezug auf unser vorheriges Beispiel können wir sowohl Eigenvektoren als auch Eigenwerte in einer einzigen Matrixgleichung verbinden:$$A\left = \left\left =\left\left =\left\left$$Wenn wir ersetzen:$$\Lambda = \left$$$$V = \left$$es ist auch wahr, dass:$$AV = V\Lambda$$$$\begin{equation}A = V\Lambda V^{-1}\label{eq:AVLV}\end{equation}$$Eigendecomposition zerlegt eine Matrix $A$ in eine Multiplikation einer Matrix von Eigenvektoren $V$ und einer Diagonalmatrix von eigenwerte $\Lambda$. Dies ist nur möglich, wenn eine Matrix diagonalisierbar ist. Tatsächlich ist die Definition einer diagonalisierbaren Matrix $A \in \mathbb{R} ^ {n \times n} $ , dass sie in $ n $ Eigenvektoren eigenkomposiert werden kann, so dass $V ^{-1}AV = \Lambda $ .

Matrixinverse mit eigendecomposition

Von $\eqref{eq:AVLV}$:$$ A ^{-1} = V \Lambda ^{-1}V ^{-1}$$Die Umkehrung von $\ Lambda $ ist nur die Umkehrung jedes diagonalen Elements (die Eigenwerte).

Potenz einer Matrix mit Eigenzusammensetzung

Von $ \ eqref{eq:AVLV}$:$$ A ^ 2 = V \Lambda V ^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$ A ^ n = V \ Lambda ^ n V ^{-1} $$ Die Potenz von $\Lambda $ ist nur die Potenz jedes diagonalen Elements. Dies wird viel einfacher als Multiplikationen von A.

Eigenschaften von eigendecomposition

  • $ det(A)=\prod_{i=1}^{n}\lambda_i$ (die Determinante von A ist gleich dem Produkt seiner Eigenwerte)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (die Determinante von A ist gleich der Summe seiner Eigenwerte)
  • Die Eigenwerte von $A^{-1}$ sind $\ lambda_i^{-1}$
  • Die Eigenwerte von $A ^{n} $ sind $\lambda_i^{n}$
  • Im Allgemeinen sind die Eigenwerte von $f(A) $ $f(\lambda_i)$
  • Die Eigenvektoren von $ A ^{-1} $ sind die gleichen wie die Eigenvektoren von $ A $.
  • wenn $ A $ hermitian ist (seine konjugierte Transponierung ist gleich sich selbst) und Full-rank (alle Zeilen oder Spalten sind linear unabhängig), dann sind die Eigenvektoren gegenseitig orthogonal (das Punktprodukt zwischen zwei beliebigen Eigenvektoren ist Null) und die Eigenwerte sind real.
  • $A$ ist invertierbar, wenn alle seine Eigenwerte von Null verschieden sind und umgekehrt.
  • Wenn die Eigenwerte der Matrix $ A $ verschieden sind (nicht wiederholt werden), kann A eigendekomponiert werden.

Wie berechnet man die Eigenzusammensetzung?

Das charakteristische Polinom zu berechnen und es dann in Bezug auf die Eigenwerte zu lösen, wird mit zunehmender Größe der Matrix unpraktisch. In der Praxis werden iterative Algorithmen zur Eigenkomposition einer Matrix verwendet.

Power Iteration

Power Iteration ist eine iterative Methode zur Berechnung des höchsten Eigenwerts und des zugehörigen Eigenvektors. Es wird nur der höchste Wert / Vektor gefunden, daher ist diese Methode nur begrenzt einsetzbar.

Zunächst beginnen wir mit einem Vektor $b_0 $ , der eine fundierte Vermutung des dominanten Eigenvektors oder eines Zufallsvektors sein kann. Durchlaufen Sie dann die folgende Gleichung:$$b_{k+1} = \frac{A b_k}{\left\Vert A b_k \right\Vert} .$$ Bei jeder Iteration wird der Vektor mit der Matrix $ A $ links multipliziert und normalisiert, wobei er zum dominanten Eigenvektor konvergiert. Diese Methode funktioniert nur, wenn:

  • $ Ein $ hat einen Eigenwert größer oder gleich allen anderen.
  • Vektor $b_0 $ hat eine Komponente ungleich Null in Richtung des dominanten Eigenvektors (dh ihr Punktprodukt ist von Null verschieden)

Verwenden Sie unsere Beispielmatrix $ A $ und den Anfangsvektor: $$ b_0 = \left $$ Für den ersten Schritt:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$Verwenden Sie für die nächsten Schritte das letzte $b$ und:$$b_2= \left, b_3= \left, b_4=\left, b_5= \left$$und $$ \left\Vert A b_5 \right\Vert = 2.99$$ Wenn Sie sich erinnern, ist der höchste Eigenwert $ A $ ist 3 und sein Eigenvektor ist $ \ mathbf{v} = $, wobei $ v_ {21} = 0 $ und $ v_ {22} $ einen beliebigen Wert haben können.

QR-Algorithmus

Der QR-Algorithmus verwendet die QR-Zerlegung iterativ, um die Eigenzusammensetzung zu erstellen. Denken Sie daran, dass die QR-Zerlegung eine Matrix $ A $ in eine orthogonale Matrix $ Q $ und eine obere dreieckige Matrix $ R $ als $ A = QR $ zerlegt.

Wenn ich Ihnen in irgendeiner Weise geholfen habe, helfen Sie mir bitte zurück, indem Sie diese Website unten auf der Seite mögen oder auf den Link unten klicken. Es würde mir die Welt bedeuten!

Twittern