Egenverdier, egenvektorer og eigendecomposition
Hva trenger du å vite for å forstå dette emnet?
- grunnleggende om lineær algebra
Seksjoner
- Egenhva?
- Eigendecomposition
- et eksempel
- hvorfor er eigendecomposition nyttig?
- matrise inverse
- Strøm av en matrise
- Egenskaper for egen sammensetning
- hvordan beregne egen sammensetning?
- Strøm iterasjon
- QR-algoritme
Egenhva?
Eigen betyr egen eller selv. I lineær algebra er egenverdi, egenvektor og eigendecomposition termer som er iboende relatert. Eigendecomposition er metoden for å dekomponere en kvadratisk matrise i sine egenverdier og egenvektorer. For en matrise $A$, hvis$$\begin{equation}a\mathbf{v}=\lambda \mathbf{v}\label{Eq:Avlv}\end{equation}$$så er $ \ mathbf {v}$ en egenvektor av matrisen $A$ og $\lambda$ er den tilsvarende egenverdien. Det vil si at hvis matrisen$ A $ multipliseres med en vektor og resultatet er en skalert versjon av samme vektor, så er det en egenvektor på $A$ og skaleringsfaktoren er egenverdien.
Eigendecomposition
Så hvordan finner vi egenvektorer av en matrise? Fra $\eqref{Eq:Avlv}$:$$a\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(A -\lambda I) \mathbf{v} = 0\label{Eq:AlI}\end{equation},$$hvor $i$ er identitetsmatrisen. Verdiene på $ \ lambda$ hvor $\eqref{Eq: AlI} $ holder er egenverdiene på $a$. Det viser seg at denne ligningen tilsvarer:$ $ \ begin {equation}det (A-\lambda I) = 0, \ label{eq: detAlI}\end{equation}$ $ hvor det() er determinanten til en matrise.
Bevis på at $det (A- \ lambda I) \equiv (A- \ lambda I) \ mathbf{v}=0$
et eksempel
La oss se egenendekomposisjonen for matrisen:$$a=\venstre$$fra $\eqref{eq:detali}$:$ $ det\left (\left \ right) = 0$$$$(1-\lambda) (3 – \lambda) = 0 $ $ vi får direkte $\lambda_1 = 1$ og $\lambda_2 = 3$. Uttrykket ovenfor er vanligvis referert til som den karakteristiske polinomiale eller karakteristiske ligningen til en matrise.
Plugger $\lambda_1$ inn i $\eqref{Eq: Avlv}$, får vi:$$\left \ left= 1 \ left$ $ hvorfra vi får $v_{11} = – 2v_{12}$. Det vil si at enhver vektor $\mathbf{v_1} = $ hvor $v_{11} = – 2v_{12}$ er en egenvektor på $A$ med egenverdi 1.
Plugging $\lambda_2 $ inn i $\eqref{Eq: Avlv}$, vi får:$$\left \ left= 3 \ left$ $ hvorfra vi får $v_{21} = 0 $ og $v_{22} \i \ mathbb{R}$. Det vil si at enhver vektor $\mathbf{v_2} = $ hvor $v_{21} = 0 $ er en egenvektor på $A$ med egenverdi 3.
Hvorfor er eigendecomposition nyttig?
Med Henvisning til vårt tidligere eksempel kan vi bli med både egenvektorer og egenverdier i en enkelt matriseligning:$$A\left = \left\left =\left\left =\Left\left$$Hvis vi erstatter:$$\Lambda = \left$$$V = \left$$det er også sant at:$$AV = V\Lambda$$$$\begin{equation}A = V\Lambda v^{-1}\label{EQ:AVLV}\end{equation}$$Eigendecomposition dekomponerer en matrise$A $i en multiplikasjon av en matrise av egenvektorer$ V $og en diagonal matrise av egenverdier$ \lambda$. Dette kan bare gjøres hvis en matrise er diagonaliserbar. Faktisk er definisjonen av en diagonaliserbar matrise $a \ i \ mathbb{r}^{n \times n}$ at den kan egenkomponeres i $n$ egenvektorer, slik at $V^{-1}av = \Lambda$.
Matrix inverse med eigendecomposition
fra $\eqref{EQ:AVLV}$:$$A^{-1} = V \Lambda^{-1} V^{-1} $ $ den inverse av $\Lambda$ er bare den inverse av hvert diagonalt element (egenverdiene).
Kraft av en matrise med egen sammensetning
fra $\eqref{EQ:AVLV}$:$$A^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^N = V \Lambda^N V^{-1}$$kraften til $\Lambda$ er bare kraften til hver diagonal element. Dette blir mye enklere enn multiplikasjoner Av A.
Egenskaper for egen sammensetning
- $det(a)=\prod_{i=1}^{n}\lambda_i$ (determinanten Av A er lik produktet av egenverdiene)
- $tr(A)=\sum_{i=1}^{n}\lambda_i$ (sporet Av A er lik summen av egenverdiene)
- egenverdiene på $a^{-1}$ er $\lambda_i^{-1}$
- egenverdiene på $a^{n} $ er $\lambda_i^{n}$
- generelt er egenverdiene på $f (A)$ $f (\lambda_i)$
- egenvektorene på $a^{-1}$ er de samme som egenvektorer på $a$.
- hvis $A$ er hermitian (dens konjugattransponere er lik seg selv) og full-rank (alle rader eller kolonner er lineært uavhengige), så er egenvektorer gjensidig ortogonale (prikkproduktet mellom to egenvektorer er null) og egenverdiene er ekte.
- $a$ er inverterbar hvis alle egenverdiene er forskjellige fra null og omvendt.
- hvis egenverdiene til matrisen $a$ er forskjellige (ikke gjentatt), Kan A være egenkomponert.
hvordan beregne egen sammensetning?
Beregning av karakteristisk polinomial og deretter løse det med hensyn til egenverdiene blir upraktisk når størrelsen på matrisen øker. I praksis brukes iterative algoritmer til å komponere en matrise.
Power iteration
Power iteration er En Iterativ metode for å beregne den høyeste egenverdien og tilhørende egenvektor. Bare den høyeste verdien / vektoren er funnet, så denne metoden som begrenset bruk.
først begynner vi med noen vektor $b_0$, som kan være en utdannet gjetning av den dominerende egenvektoren eller en tilfeldig vektor. Deretter itererer du gjennom følgende ligning:$$b_{k+1} = \frac{A B_k}{\left\Vert A b_k \right\Vert}.$ $ Ved hver iterasjon blir vektoren igjen-multiplisert med matrisen $A$ og normalisert, konvergerende til den dominerende egenvektoren. Denne metoden fungerer bare hvis:
- $A$ har en egenverdi større eller lik alle andre.
- Vektor $b_0$ har en ikke-null komponent i retning av den dominerende egenvektoren (dvs. deres dot-produkt er forskjellig fra null)
Bruke vår eksempelmatrise $a$ og initial vector:$$b_0 = \ venstre$$for første trinn:$$b_1 = \frac{\left\left}{\left\Left\left\Right\Vert}=\Frac {\left}{5} = \left$$for de neste trinnene, gjenbruk den siste $b$ og:$$b_2= \left, b_3= \left, b_4=\left, b_5=\left$og$$ \left \Vert A b_5\right \Vert = 2,99$$ hvis du husker, den høyeste egenverdien av$ a $er 3 og dens egenvektor er$\mathbf{V}=$, hvor $ v_{21} = 0 $og$ v_{22} $kan ha noen verdi.
QR-algoritme
QR-algoritmen bruker QR-dekomponeringen iterativt for å gjøre eigendecomposition. Husk AT QR-dekomponeringen dekomponerer en matrise $A$ i en ortogonal matrise $Q$ og en øvre trekantet matrise $R$ som $A = QR$.