Wartości własne, wektory własne i Komponenty własne

co musisz wiedzieć, aby zrozumieć ten temat?

  • podstawy algebry liniowej

sekcje

  • Eigendecomposition
    • przykład
  • dlaczego eigendecomposition jest przydatne?
    • odwrotność macierzy
    • moc macierzy
  • właściwości eigendecomposition
  • jak obliczyć eigendecomposition?
    • iteracja mocy
    • algorytm QR

co takiego?

Eigen oznacza własny lub własny. W algebrze liniowej wartości własne, wektor własny i wektor własny są terminami wewnętrznie ze sobą związanymi. Eigendecomposition jest metodą rozkładania macierzy kwadratowej na jej wartości własne i wektory własne. Dla macierzy $a$, jeśli$$ \ begin{equation}a\mathbf{v}= \ lambda \ mathbf{v} \ label{eq: Avlv} \ end{equation}$$, to $ \ mathbf{v}$ jest wektorem własnym macierzy $A$, a $ \ lambda$ jest odpowiednią wartością własną. Oznacza to, że jeśli macierz $a$ jest pomnożona przez wektor, a wynik jest skalowaną wersją tego samego wektora, to jest to wektor własny $a$, a współczynnik skalowania jest jego wartością własną.

Eigendecomposition

więc jak znaleźć wektory własne macierzy? From $\eqref{EQ:Avlv}$:$$a\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(a -\lambda I) \ mathbf{v} = 0\label{EQ: AlI} \ end{equation},$$gdzie $i$ jest macierzą tożsamościową. Wartości $ \ lambda$, gdzie $\eqref{eq: AlI} $ holds są wartościami własnymi $a$. Okazuje się, że równanie to jest równoważne:$$ \ begin{equation}det (a – \lambda I) = 0, \ label{EQ: detAlI} \ end{equation}$$gdzie det() jest wyznacznikiem macierzy.

dowód, że $det (a – \lambda I) \ equiv (a – \lambda I) \mathbf{v}=0$

po pierwsze, musisz wiedzieć, że macierz jest nieodwracalna wtedy i tylko wtedy, gdy jej wyznacznik wynosi zero. Zatem dla wartości $ \ lambda$, które posiada $\eqref{eq: detAlI}$, $a – \lambda i$ jest nieodwracalne (liczba pojedyncza). W takich przypadkach nie można pomnożyć obu stron $\eqref{eq:AlI}$ przez $(a-\lambda I)^{-1}$ (ponieważ nie ma odwrotności), aby uzyskać:$$ \ mathbf{v} = 0,$$co oznacza, że w tych przypadkach rozwiązanie dla $\eqref{EQ:Avlv}$ różni się od $\mathbf{v} = 0$ i $\lambda$ jest wartością własną $a$.

przykład

zobaczmy skład własny macierzy:$$a= \ left$ $ From $\eqref{EQ:detAlI}$:$ $ det\left (\left\right) = 0$$$$(1-\lambda) (3 – \lambda) = 0$ $ dostajemy bezpośrednio $\lambda_1 = 1$ i $\lambda_2 = 3$. Powyższe wyrażenie określa się zwykle jako równanie charakterystyczne macierzy lub równanie charakterystyczne macierzy.
podłączając $ \ lambda_1$ do $\eqref{EQ: Avlv}$, otrzymujemy:$$ \ left \ left= 1 \ left$$z którego otrzymujemy $v_{11} = – 2v_{12}$. Oznacza to, że każdy wektor $ \ mathbf{V_1}=$, gdzie $V_{11} = – 2v_{12}$ jest wektorem własnym $a$ o wartości własnej 1.
wpinając $\lambda_2$ do $ \ eqref{EQ: Avlv}$, otrzymujemy:$$ \ left\left= 3 \ left$$z którego otrzymujemy $v_{21} = 0$ i $v_{22} \w \ mathbb{R}$. Oznacza to, że każdy wektor $ \ mathbf{V_2}=$, gdzie $v_{21} = 0$ jest wektorem własnym $a$ o wartości własnej 3.

dlaczego eigendecomposition jest przydatne?

odwołując się do naszego poprzedniego przykładu, możemy połączyć zarówno wektory własne, jak i wartości własne w jednym równaniu macierzowym:$$A\left = \left\left =\left\left =\left\left$$jeśli zamienimy:$$\Lambda = \left$$$V = \left$$prawdą jest również, że:$$AV = v\Lambda$$$$\begin{równanie}A = V\Lambda V^{-1}\label{eq:AVLV}\end{równanie}$$Eigendecomposition rozkłada macierz$a $na mnożenie macierzy wektorów własnych$ V $i a diagonalna macierz wartości własnych$ \lambda$. Można to zrobić tylko wtedy, gdy macierz jest przekątna. W rzeczywistości, definicja przekątnej macierzy $A \in \mathbb{R}^{n \times n}$ jest taka, że można ją przypisać do$ n $ wektorów własnych, tak że $V^{-1}AV = \ Lambda$.

odwrotność macierzy z iloczynem własnym

z $\eqref{EQ:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$odwrotność $\Lambda$ jest tylko odwrotnością każdego elementu diagonalnego (wartości własnych).

potęga macierzy z eigendecompozycją

z $\eqref{EQ:AVLV}$:$$a^2 = V \Lambda V^{-1} V \Lambda V^{-1} = v \Lambda^{2} V^{-1}$$$a^n = v \Lambda^N V^{-1}$$potęga$\Lambda $jest tylko potęgą każdego elementu po przekątnej. Staje się to o wiele prostsze niż mnożenie A.

właściwości eigendecomposition

  • $det(a)=\prod_{i=1}^{n}\lambda_i$ (wyznacznik a jest równy iloczynowi jego wartości własnych)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (ślad a jest równy sumie jego wartości własnych)
  • wartości własne $a^{-1}$ to $\lambda_i^{-1}$
  • wartości własne $ a^{n}$ to $ \ lambda_i^{n}$
  • ogólnie rzecz biorąc, wartości własne $f(a)$ to $f(\lambda_i)$
  • wektory własne $a^{-1}$ są takie same jak wektory własne $a$.
  • jeśli $a$ jest hermicjanem (jego sprzężenie transponowane jest równe sobie) i pełnowartościowym (wszystkie wiersze lub kolumny są liniowo niezależne), to wektory własne są wzajemnie ortogonalne (iloczyn kropkowy pomiędzy dowolnymi dwoma wektorami własnymi wynosi zero), a wartości własne są rzeczywiste.
  • $a$ jest odwracalne, jeśli wszystkie jego wartości własne są różne od zera i odwrotnie.
  • jeśli wartości własne macierzy $a$ są różne (nie powtarzają się), to A może być własne.

Jak obliczyć eigendecomposition?

Obliczanie charakterystycznego polinomialu i następnie rozwiązywanie go w odniesieniu do wartości własnych staje się niepraktyczne, gdy zwiększa się rozmiar macierzy. W praktyce algorytmy iteracyjne służą do tworzenia macierzy.

iteracja mocy

iteracja mocy jest iteracyjną metodą obliczania najwyższej wartości własnej i powiązanego z nią wektora własnego. Tylko najwyższa wartość/wektor jest znaleziony, więc ta metoda jako ograniczone zastosowanie.

najpierw zaczynamy od jakiegoś wektora $b_0$, który może być wykształconym odgadnięciem dominującego wektora własnego lub wektora losowego. Następnie wykonaj iterację za pomocą następującego równania:$$b_{k + 1} = \ frac{a b_k} {\left\Vert A b_k \right\Vert}.$$Przy każdej iteracji wektor zostaje pomnożony przez macierz $a$ i znormalizowany, zbiegając do dominującego wektora własnego. Ta metoda działa tylko wtedy, gdy:

  • $$ ma wartość własną większą lub równą wszystkim innym.
  • Wektor $b_0$ ma niezerową składową w kierunku dominującego wektora własnego (tzn. ich iloczyn kropkowy jest różny od zera)

korzystając z naszej przykładowej macierzy $a$ i wektora początkowego:$ $ b_0 = \ left$$dla pierwszego kroku:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$aby wykonać kolejne kroki, użyj ostatniego $b$ i:$$b_2= \left, b_3= \left, b_4=\left, b_5= \left$$I$$ \left\Vert a b_5 \right\Vert = 2.99$$ wartość własna $a$ wynosi 3, a jej wektor własny to $\mathbf{V} = $, gdzie $V_{21} = 0$ i $v_{22}$ mogą mieć dowolną wartość.

algorytm QR

algorytm QR iteracyjnie wykorzystuje dekompozycję QR do tworzenia własnej kompilacji. Przypomnijmy, że rozkład QR rozkłada macierz $a$ na macierz ortogonalną $Q$ i górną macierz trójkątną $R$ jako $a = QR$.

jeśli w jakiś sposób ci pomogłem, proszę pomóż mi, polubić tę stronę na dole strony lub klikając w poniższy link. To by wiele dla mnie znaczyło!

RedTube