Eigenwaarden, eigenvectoren en eigendecomposition

Wat moet u weten om dit onderwerp te begrijpen?

  • basis van de lineaire algebra

secties

  • Eigenwhat?
  • Eigendecomposition
    • An example
  • Waarom is eigendecomposition nuttig?
    • Matrix inverse
    • vermogen van een matrix
  • eigenschappen van eigen samenstelling
  • hoe bereken ik eigen samenstelling?
    • vermogen iteratie
    • QR algoritme

eigen Wat?

Eigen betekent eigen of zelf. In de lineaire algebra zijn eigenwaarde, eigenvector en eigendecomposition termen die intrinsiek gerelateerd zijn. Eigendecomposition is de methode om een vierkante matrix te ontleden in zijn eigenwaarden en eigenvectoren. Voor een matrix $A$, als$$ \ begin{vergelijking}A \ mathbf{v}= \ lambda \ mathbf{v} \ label{eq: avlv}\end{vergelijking}$$dan is $ \ mathbf{v}$ een eigenvector van matrix $A$ en $ \ lambda$ is de overeenkomstige eigenwaarde. Dat wil zeggen, als matrix $A$ wordt vermenigvuldigd met een vector en het resultaat is een geschaalde versie van dezelfde vector, dan is het een eigenvector van $A$ en de schaling factor is zijn eigenwaarde.

eigen samenstelling

dus hoe vinden we de eigenvectoren van een matrix? Van $\eqref{eq: Avlv}$:$$a\mathbf{v}-\lambda I \mathbf{v} = 0$$$$begin{vergelijking}(A- \lambda I) \mathbf{v} = 0 \label{EQ: AlI}\end{vergelijking},$$waarbij $I$ de identiteitsmatrix is. De waarden van $\lambda$ waar $ \ eqref{EQ: AlI}$ houdt zijn de eigenwaarden van $A$. Het blijkt dat deze vergelijking gelijk is aan:$$ \ begin{vergelijking}det ( A- \ lambda I) = 0,\label{EQ:detAlI}\end{vergelijking}$$waarbij det () de determinant van een matrix is.

bewijs dat $det (A-\lambda I) \equiv (A-\lambda I) \ mathbf{v}=0$

Ten eerste moet je weten dat een matrix dan en alleen dan niet-inverteerbaar is als de determinant nul is. Dus voor de waarden van $\lambda$ die $\eqref{EQ:detAlI}$ bevat, is $A- \ lambda I$ niet-inverteerbaar (enkelvoud). In die gevallen kun je beide zijden van $\eqref{EQ:AlI}$ niet laten vermenigvuldigen met $(A-\lambda I)^{-1}$ (omdat er geen inverse is) om te krijgen:$$ \ mathbf{v} = 0,$$wat betekent dat in die gevallen de oplossing voor $\eqref{eq:avlv}$ verschilt van $\mathbf{v} = 0$ en $\lambda$ is een eigenwaarde van $A$.

een voorbeeld

laten we eens kijken naar de eigendecompositie voor de matrix:$$a= \ left$$From $\eqref{EQ: detAlI}$:$$det\left (\left \ right) = 0$$$$(1-\lambda) (3-\lambda) = 0$$We krijgen direct $\lambda_1 = 1$ en $\lambda_2 = 3$. De bovenstaande uitdrukking wordt meestal aangeduid als de karakteristieke polinomiale of karakteristieke vergelijking van een matrix.
pluggen $ \ lambda_1$ in $ \ eqref{eq:Avlv}$, krijgen we:$$\left \ left = 1 \ left$$waarvan we $v_{11} = -2v_{12}$krijgen. Dat wil zeggen, elke vector $ \ mathbf{v_1} = $ waarbij $v_{11} = – 2v_{12}$ een eigenvector is van $A$ met eigenwaarde 1.
door $\lambda_2$ in te pluggen in $\eqref{eq:Avlv}$, krijgen we:$$ \ left\left = 3 \ left$$waarvan we $v_{21} = 0$ en $v_{22} \in \mathbb{R}$krijgen. Dat wil zeggen, elke vector $ \ mathbf{v_2} = $ waarbij $v_{21} = 0$ een eigenvector is van $A$ met eigenwaarde 3.

Waarom is eigendecomposition nuttig?

verwijzend naar ons vorige voorbeeld, kunnen we zowel eigenvectoren als eigenwaarden samenvoegen in een enkele matrixvergelijking:$$A\left = \left\left =\left\left =\left\left$$als we vervangen:$$\Lambda = \left$$$V = \left$$het is ook waar dat:$$AV = v\Lambda$$$$\begin{vergelijking}A = V\Lambda v^{-1}\label{eq:AVLV}\end{vergelijking}$$Eigendecomposition ontleedt een matrix$A $in een vermenigvuldiging van een matrix van eigenvectoren$ V $en een diagonaal matrix van eigenwaarden$ \Lambda$. Dit kan alleen als een matrix diagonaliseerbaar is. In feite is de definitie van een diagonaliseerbare matrix $A \in \mathbb{R}^{n \times n}$ dat het eigengemaakt kan worden in $n$ eigenvectoren, zodat $V^{-1}AV = \ Lambda$.

Matrix inverse met eigen samenstelling

van $\eqref{eq:AVLV}$:$$A^{-1} = V \ Lambda^{-1}V^{-1}$$de inverse van $ \ Lambda$ is gewoon de inverse van elk diagonaal element (de eigenwaarden).

macht van een matrix met eigen samenstelling

van $\eqref{eq:AVLV}$:$$a^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^n = v \ Lambda^n V^{-1}$$de macht van $ \ Lambda$ is gewoon de macht van elk diagonaal element. Dit wordt veel eenvoudiger dan vermenigvuldigingen van A.

Eigenschappen van eigendecomposition

  • $det(A)=\prod_{i=1}^{n}\lambda_i$ (de determinant van A is gelijk aan het product van de eigenwaarden)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (het spoor van A is gelijk aan de som van de eigenwaarden)
  • De eigenwaarden van $A^{-1}$ zijn $\lambda_i^{-1}$
  • De eigenwaarden van $A^{n}$ zijn $\lambda_i^{n}$
  • In het algemeen, de eigenwaarden van $f(A)$ zijn $f(\lambda_i)$
  • De eigenvectoren van $A^{-1}$ zijn dezelfde als de eigenvectoren van $Een$.
  • als $A$ hermitiaans is (zijn geconjugeerde transponatie is gelijk aan zichzelf) en full-rank (alle rijen of kolommen zijn lineair onafhankelijk), dan zijn de eigenvectoren wederzijds orthogonaal (het puntproduct tussen elke twee eigenvectoren is nul) en de eigenwaarden zijn reëel.
  • $a$ is inverteerbaar als alle eigenwaarden verschillen van nul en vice versa.
  • als de eigenwaarden van matrix $A$ verschillend zijn (niet herhaald), dan kan A eigengecomponeerd zijn.

hoe eigen samenstelling berekenen?

het berekenen van de karakteristieke polinomiale en vervolgens oplossen met betrekking tot de eigenwaarden wordt onpraktisch naarmate de grootte van de matrix toeneemt. In de praktijk worden iteratieve algoritmen gebruikt om een matrix zelf samen te stellen.

vermogen iteratie

vermogen iteratie is een iteratieve methode om de hoogste eigenwaarde en de bijbehorende eigenvector te berekenen. Alleen de hoogste waarde / vector wordt gevonden, dus deze methode als beperkt gebruik.

eerst beginnen we met een vector $b_0$, die een gefundeerde schatting kan zijn van de dominante eigenvector of een willekeurige vector. Herhaal dan de volgende vergelijking:$$b_{k+1} = \frac{A b_k} {\left \ Vert A b_k \ right \ Vert}.$$Bij elke iteratie wordt de vector-vermenigvuldigd met matrix $A$ en genormaliseerd, convergerend naar de dominante eigenvector. Deze methode werkt alleen als:

  • $een$ heeft een eigenwaarde die groter of gelijk is aan alle anderen.
  • Vector $b_0$ heeft een niet-nulcomponent in de richting van de dominante eigenvector (d.w.z. hun puntproduct verschilt van nul)

met behulp van onze voorbeeld matrix $A$ en initiële vector:$$b_0 = \ links$$voor de eerste stap:$$b_1 = \frac{\left\left}{\left\left\left\right\Vert}=\frac {\left}{5} = \left$$voor de volgende stappen, hergebruiken de laatste $b$ en:$$b_2= \left, b_3= \left, b_4=\left, b_5=\left$$En$$ \left \Vert A b_5\right \Vert = 2.99$$ als je je herinnert, de hoogste eigenwaarde van $A$ is 3 en zijn eigenvector is $\mathbf{v} = $, waarbij $v_{21} = 0$ en $V_{22}$ elke waarde kunnen hebben.

QR-algoritme

het QR-algoritme gebruikt de QR-ontleding iteratief om de eigen samenstelling te maken. Bedenk dat de QR decompositie een matrix $A$ ontleedt in een orthogonale matrix $Q$ en een bovenste driehoekige matrix $R$ als $A = QR$.

als ik u op de een of andere manier heb geholpen, help me dan alstublieft terug door deze website onderaan de pagina te liken of op de link hieronder te klikken. Het zou veel voor me betekenen!

Tweet