Autovalori, autovettori e eigendecomposition
Cosa devi sapere per capire questo argomento?
- Nozioni di base di algebra lineare
Sezioni
- Eigenwhat?
- Eigendecomposition
- Un esempio
- Perché eigendecomposition è utile?
- Matrice inversa
- Potenza di una matrice
- Proprietà di eigendecomposition
- Come calcolare l’eigendecomposition?
- Iterazione di potenza
- Algoritmo QR
Eigen Cosa?
Eigen significa proprio o sé. In algebra lineare, autovalore, autovettore e eigendecomposition sono termini intrinsecamente correlati. Eigendecomposition è il metodo per scomporre una matrice quadrata nei suoi autovalori e autovettori. Per una matrice $A$, se$$\begin{equation}A\mathbf{v}=\lambda \mathbf{v}\label{eq:Avlv}\end{equation}$$quindi $\mathbf{v}$ è un autovettore della matrice $A$ e $\lambda$ è il corrispondente autovalore. Cioè, se la matrice matrix A is viene moltiplicata per un vettore e il risultato è una versione in scala dello stesso vettore, allora è un autovettore di A A.e il fattore di scala è il suo autovalore.
Eigendecomposition
Quindi come troviamo gli autovettori di una matrice? Da $\eqref{eq:Avlv}$:$$A\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(A -\lambda I) \mathbf{v} = 0\label{eq:AlI}\end{equation},$$dove $I$ è la matrice identità. I valori di $\lambda$, dove $\eqref{eq:AlI}$ detiene sono gli autovalori di $A$. Si scopre che questa equazione è equivalente a:$ $\begin{equation}det (A-\lambda I) = 0,\label{eq:detAlI}\end{equation} where dove det () è il determinante di una matrice.
Prova che d det (A-\lambda I) \ equiv (A – \lambda I) \ mathbf{v}=0$
Un esempio
Vediamo l’eigendecomposition per la matrice: A A=\left From From \ \ eqref{eq:detAlI}$: d det \ left (\left\right) = 0$$$$(1-\lambda) (3 – \lambda) = 0 get otteniamo direttamente directly\lambda_1 = 1 and e \\lambda_2 = 3.. L’espressione di cui sopra è di solito indicato come la caratteristica polinomiale o equazione caratteristica di una matrice.
Collegando into \ lambda_1 into in into \ eqref{eq: Avlv}$, otteniamo:$ $\left\left = 1 \left from da cui otteniamo v v_ {11} = – 2v_ {12}$. Che è, ogni vettore $\mathbf{v_1} = $ dove $v_{11} = -2v_{12}$ è un autovettore di $A$ con autovalore 1.
Collegare $\lambda_2$ in $\eqref{eq:Avlv}$, otteniamo:$$\left\left= 3 \left$$da cui si ottiene $v_{21} = 0$ e $v_{22} \in \mathbb{R}$. Che è, ogni vettore $\mathbf{v_2} = $ dove $v_{21} = 0$ è un autovettore di $A$ con autovalore 3.
Perché eigendecomposition è utile?
Facendo riferimento al nostro esempio precedente, possiamo unire entrambi gli autovettori e gli autovalori in una singola equazione di matrice:$$A\left = \left\left =\left\left =\left\left$$Se sostituiamo:$$\Lambda = \left$$$$V = \left$$è anche vero che:$$AV = V\Lambda$$$$\begin{equation}A = V\Lambda V^{-1}\label{eq:AVLV}\end{equation}$$Eigendecomposition si decompone una matrice $A$ in una moltiplicazione di una matrice degli autovettori di $V$ e una matrice diagonale degli autovalori $\Lambda$. Questo può essere fatto solo se una matrice è diagonalizzabile. Infatti, la definizione di un diagonalizable matrice $A \in \mathbb{R}^{n \times n}$ è che può essere eigendecomposed in $n$ autovettori, in modo che $V^{-1}AV = \Lambda$.
Matrice inversa con eigendecomposition
Da $\eqref{eq:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$L’inversa di $\Lambda$ è proprio l’inverso di ogni elemento diagonale (autovalori).
Potenza di una matrice con eigendecomposition
Da $\eqref{eq:AVLV}$:$$A^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^n = V \Lambda^n V^{-1}$$La potenza di $\Lambda$ è solo la potenza di ogni elemento diagonale. Questo diventa molto più semplice delle moltiplicazioni di A.
Proprietà di eigendecomposition
- $det(A)=\prod_{i=1}^{n}\lambda_i$ (il determinante di A è uguale al prodotto dei suoi autovalori)
- $tr(A)=\sum_{i=1}^{n}\lambda_i$ (la traccia di A è uguale alla somma dei suoi autovalori)
- Gli autovalori di $A^{-1}$ sono $\lambda_i^{-1}$
- Gli autovalori di $A^{n}$ sono $\lambda_i^{n}$
- In generale, gli autovalori di $f(A)$ sono $f(\lambda_i)$
- autovettori di $A^{-1}$ sono gli stessi autovettori di $A$.
- se herm A herm è hermitiano (la sua trasposizione coniugata è uguale a se stessa) e full-rank (tutte le righe o le colonne sono linearmente indipendenti), allora gli autovettori sono reciprocamente ortogonali (il prodotto punto tra due autovettori è zero) e gli autovalori sono reali.
- $A A è invertibile se tutti i suoi autovalori sono diversi da zero e viceversa.
- Se gli autovalori della matrice matrix A are sono distinti (non ripetuti), allora A può essere autocomposto.
Come calcolare l’eigendecomposition?
Calcolare il polinomiale caratteristico e quindi risolverlo rispetto agli autovalori diventa impraticabile all’aumentare della dimensione della matrice. In pratica, gli algoritmi iterativi vengono utilizzati per comporre automaticamente una matrice.
Power iteration
Power iteration è un metodo iterativo per calcolare l’autovalore più alto e il relativo autovettore associato. Viene trovato solo il valore/vettore più alto, quindi questo metodo come uso limitato.
Per prima cosa, iniziamo con un vettore vector b_0., che può essere un’ipotesi plausibile dell’autovettore dominante o di un vettore casuale. Quindi, scorrere la seguente equazione: b b_{k+1}= \frac{A b_k} {\left\Vert A b_k \right\Vert}.$ $Ad ogni iterazione, il vettore viene lasciato-moltiplicato per la matrice A A A e normalizzato, convergendo verso l’autovettore dominante. Questo metodo funziona solo se:
- $A$ ha un autovalore maggiore o uguale a tutti gli altri.
- Il vettore Vector b_0 has ha una componente diversa da zero nella direzione dell’autovettore dominante (cioè il loro prodotto punto è diverso da zero)
Usando la nostra matrice di esempio vector A vector e il vettore iniziale: vector b_0 = \left vector Per il primo passaggio:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$Per i prossimi passi, riutilizzare l’ultimo $b$ e:$$q_2= \left, b_3= \left, b_4=\left, b_5= \left$$e$$ \left\Vert Un b_5 \right\Vert = 2.99$$ Se si ricorda, il massimo autovalore di $A$ 3 e il suo autovettore è di $\mathbf{v} = $, dove $v_{21} = 0$ e $v_{22}$ può avere qualsiasi valore.
Algoritmo QR
L’algoritmo QR utilizza la decomposizione QR in modo iterativo per creare l’eigendecomposition. Ricordiamo che la decomposizione QR si decompone una matrice $A$ in una matrice ortogonale $Q$ e una matrice triangolare superiore $R$ di $A = QR$.