Egenvärden, egenvektorer och egenkomposition

Vad behöver du veta för att förstå detta ämne?

  • grunderna i linjär algebra

sektioner

  • egen vad?
  • Egenkomposition
    • ett exempel
  • varför är egenkomposition användbar?
    • Matrix inverse
    • effekt av en matris
  • egenskaper för egenkomposition
  • hur man beräknar egenkomposition?
    • effekt iteration
    • QR-algoritm

Eigenwhat?

Eigen betyder egen eller själv. I linjär algebra, egenvärde, egenvektor och egendekomposition är termer som är inneboende relaterade. Egenkomposition är metoden att sönderdela en kvadratmatris i dess egenvärden och egenvektorer. För en matris $A$, om$$ \ begin{equation}A\mathbf{v}= \ lambda \mathbf{v} \ label{eq: Avlv}\end{equation}$$då $\mathbf{v}$ är en egenvektor av matrisen $A$ och $\lambda$ är motsvarande egenvärde. Det vill säga om matrisen $A$ multipliceras med en vektor och resultatet är en skalad version av samma vektor, är det en egenvektor på $A$ och skalningsfaktorn är dess egenvärde.

Egenkomposition

så hur hittar vi egenvektorerna i en matris? Från $ \ eqref{eq: Avlv}$:$$A\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(A -\lambda I) \mathbf{v} = 0\label{EQ: AlI}\end{equation},$$där $i$ är identitetsmatrisen. Värdena på $ \ lambda$ där $ \ eqref{EQ: AlI} $ innehar är egenvärdena på $A$. Det visar sig att denna ekvation motsvarar:$$ \ begin{equation}det (A-\lambda I) = 0,\label{eq:detAlI}\end{equation}$$där det () är determinanten för en matris.

bevis på att $det (A-\lambda I) \equiv (a-\lambda I) \mathbf{v}=0$

först måste du veta att en matris är icke-inverterbar om och endast om dess determinant är noll. Så, för värdena på $ \ lambda$ som $ \ eqref{eq: detAlI}$ innehar, $A-\lambda i$ är icke-inverterbar (singular). I dessa fall kan du inte vänster-multiplicera båda sidor av $ \ eqref{EQ: AlI}$ med $(a-\lambda i)^{-1}$ (eftersom det inte finns någon invers) för att få:$$ \ mathbf{v} = 0,$$vilket innebär att lösningen för $\eqref{eq:Avlv}$ skiljer sig från $\mathbf{v} = 0$ och $\lambda$ är ett egenvärde på $A$.

ett exempel

Låt oss se egenkompositionen för matrisen:$$A=\vänster$$från $\eqref{eq:detAlI}$:$$det \ Vänster (\Vänster \ Höger) = 0$$$$(1-\lambda) (3-\lambda) = 0$$vi får direkt $\lambda_1 = 1$ och $\lambda_2 = 3$. Ovanstående uttryck kallas vanligtvis den karakteristiska polinomiala eller karakteristiska ekvationen för en matris.
pluggar $ \ lambda_1$ till $\eqref{eq:Avlv}$, vi får:$$ \ left \ left= 1 \left$$från vilken vi får $v_{11} = -2v_{12}$. Det vill säga vilken vektor $\mathbf{v_1} = $ där $v_{11} = -2v_{12}$ är en egenvektor på $A$ med egenvärde 1.
pluggar $\lambda_2$ till $\eqref{eq: Avlv}$, vi får:$$\vänster\vänster= 3 \vänster$$från vilken vi får $v_{21} = 0$ och $v_{22} \i \mathbb{R}$. Det vill säga vilken vektor $\mathbf{v_2} = $ där $v_{21} = 0$ är en egenvektor på $A$ med egenvärde 3.

varför är eigendecomposition användbar?

med hänvisning till vårt tidigare exempel kan vi gå med i både egenvektorer och egenvärden i en enda matrisekvation:$$A\left = \left\left =\left\left =\left\left$$om vi ersätter:$$\Lambda = \left$$$V = \left$$$det är också sant att:$$AV = v\Lambda$$$$\begin{equation}A = V\Lambda v^{-1}\label{eq:AVLV}\end{equation}$$Eigendecomposition sönderdelar en matris $A$ i en multiplikation av en matris av egenvektorer $V$ och en diagonal matris av egenvärden $\Lambda$. Detta kan endast göras om en matris är diagonaliserbar. Faktum är att definitionen av en diagonaliserbar matris $A \ in \ mathbb{R}^{n \ times n}$ är att den kan vara egenkomponerad i $n$ egenvektorer, så att $V^{-1}AV = \Lambda$.

matris invers med egenkomposition

från $\eqref{eq:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$inversen av $\Lambda$ är bara inversen av varje diagonalt element (egenvärdena).

effekt av en matris med egenkomposition

från $\eqref{eq:AVLV}$:$$a^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$a^n = V \Lambda^n V^{-1}$$$effekten av$ \Lambda $ är bara kraften av varje diagonalt element. Detta blir mycket enklare än multiplikationer av A.

egenskaper för egenkomposition

  • $det (A)=\prod_{i=1}^{n}\lambda_i$ (determinanten för A är lika med produkten av dess egenvärden)
  • $tr (a)= \ sum_{i=1}^{n} \ lambda_i$ (spåret av A är lika med summan av dess egenvärden)
  • egenvärdena för $A^{-1}$ är $ \ lambda_i^{-1}$
  • egenvärdena på $A^{n}$ är $ \ lambda_i^{n}$
  • i allmänhet är egenvärdena på $f(A)$ $f(\lambda_i)$
  • egenvektorerna på $A^{-1}$ är desamma som egenvektorerna på $A$.
  • om $A$ är hermitian (dess konjugat transponering är lika med sig själv) och full rang (alla rader eller kolumner är linjärt oberoende), då är egenvektorerna ömsesidigt ortogonala (punktprodukten mellan två egenvektorer är noll) och egenvärdena är verkliga.
  • $a$ är inverterbart om alla dess egenvärden skiljer sig från noll och vice versa.
  • om egenvärdena för matris $A$ är distinkta (inte upprepade), kan A vara egenkomponerad.

hur man beräknar egenkomposition?

beräkning av det karakteristiska polinomialet och sedan lösa det med avseende på egenvärdena blir opraktiskt när matrisens storlek ökar. I praktiken används iterativa algoritmer för att egenkomponera en matris.

Power iteration

Power iteration är en iterativ metod för att beräkna den högsta egenvärdet och dess tillhörande egenvektor. Endast det högsta värdet/vektorn hittas, så denna metod som begränsad användning.

först börjar vi med någon vektor $b_0$, vilket kan vara en utbildad gissning av den dominerande egenvektorn eller en slumpmässig vektor. Upprepa sedan genom följande ekvation:$$b_{k + 1} = \frac{A b_k}{\left\Vert A b_k \right\Vert}.$$Vid varje iteration lämnas vektorn multiplicerad med matrisen $A$ och normaliseras, konvergerar till den dominerande egenvektorn. Denna metod fungerar bara om:

  • $en$ har en egenvärde större eller lika med alla andra.
  • Vector $b_0$ har en icke-nollkomponent i riktning mot den dominerande egenvektorn (dvs. deras punktprodukt skiljer sig från noll)

med hjälp av vår exempelmatris $a$ och initial vektor:$$b_0 = \ vänster$$för det första steget:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$för nästa steg, återanvänd den sista $b$ och:$$b_2= \left, b_3= \left, b_4=\left, b_5= \left$$Och$$ \left\Vert A b_5 \right\Vert = 2.99$$ om du kommer ihåg, den högsta egenvärdet av $A$ är 3 och dess egenvektor är $\mathbf{v} = $, där $v_{21} = 0$ och $v_{22}$ kan ha något värde.

QR-algoritm

QR-algoritmen använder QR-nedbrytningen iterativt för att göra egenkompositionen. Kom ihåg att QR-nedbrytningen sönderdelar en matris $A$ i en ortogonal matris $Q$ och en övre triangulär matris $R$ som $a = QR$.

om jag hjälpte dig på något sätt, snälla hjälp mig tillbaka genom att gilla den här webbplatsen längst ner på sidan eller klicka på länken nedan. Det skulle betyda världen för mig!

Tweet