Autovalori, autovettori e eigendecomposition

Cosa devi sapere per capire questo argomento?

  • Nozioni di base di algebra lineare

Sezioni

  • Eigenwhat?
  • Eigendecomposition
    • Un esempio
  • Perché eigendecomposition è utile?
    • Matrice inversa
    • Potenza di una matrice
  • Proprietà di eigendecomposition
  • Come calcolare l’eigendecomposition?
    • Iterazione di potenza
    • Algoritmo QR

Eigen Cosa?

Eigen significa proprio o sé. In algebra lineare, autovalore, autovettore e eigendecomposition sono termini intrinsecamente correlati. Eigendecomposition è il metodo per scomporre una matrice quadrata nei suoi autovalori e autovettori. Per una matrice $A$, se$$\begin{equation}A\mathbf{v}=\lambda \mathbf{v}\label{eq:Avlv}\end{equation}$$quindi $\mathbf{v}$ è un autovettore della matrice $A$ e $\lambda$ è il corrispondente autovalore. Cioè, se la matrice matrix A is viene moltiplicata per un vettore e il risultato è una versione in scala dello stesso vettore, allora è un autovettore di A A.e il fattore di scala è il suo autovalore.

Eigendecomposition

Quindi come troviamo gli autovettori di una matrice? Da $\eqref{eq:Avlv}$:$$A\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(A -\lambda I) \mathbf{v} = 0\label{eq:AlI}\end{equation},$$dove $I$ è la matrice identità. I valori di $\lambda$, dove $\eqref{eq:AlI}$ detiene sono gli autovalori di $A$. Si scopre che questa equazione è equivalente a:$ $\begin{equation}det (A-\lambda I) = 0,\label{eq:detAlI}\end{equation} where dove det () è il determinante di una matrice.

Prova che d det (A-\lambda I) \ equiv (A – \lambda I) \ mathbf{v}=0$

Innanzitutto, devi sapere che una matrice non è invertibile se e solo se il suo determinante è zero. Così, per i valori di $\lambda$ che $\eqref{eq:detAlI}$ contiene $A-\lambda I$ è non invertibile (singolare). In questi casi, non puoi moltiplicare a sinistra entrambi i lati di both\eqref{eq: AlI} by per by (A – \ lambda I)^{-1} since (poiché non c’è inverso) per ottenere:$$\mathbf{v} = 0,$$, il che significa che in quei casi la soluzione $\eqref{eq:Avlv}$ è diverso da $\mathbf{v} = 0$ e $\lambda$ è un autovalore di $A$.

Un esempio

Vediamo l’eigendecomposition per la matrice: A A=\left From From \ \ eqref{eq:detAlI}$: d det \ left (\left\right) = 0$$$$(1-\lambda) (3 – \lambda) = 0 get otteniamo direttamente directly\lambda_1 = 1 and e \\lambda_2 = 3.. L’espressione di cui sopra è di solito indicato come la caratteristica polinomiale o equazione caratteristica di una matrice.
Collegando into \ lambda_1 into in into \ eqref{eq: Avlv}$, otteniamo:$ $\left\left = 1 \left from da cui otteniamo v v_ {11} = – 2v_ {12}$. Che è, ogni vettore $\mathbf{v_1} = $ dove $v_{11} = -2v_{12}$ è un autovettore di $A$ con autovalore 1.
Collegare $\lambda_2$ in $\eqref{eq:Avlv}$, otteniamo:$$\left\left= 3 \left$$da cui si ottiene $v_{21} = 0$ e $v_{22} \in \mathbb{R}$. Che è, ogni vettore $\mathbf{v_2} = $ dove $v_{21} = 0$ è un autovettore di $A$ con autovalore 3.

Perché eigendecomposition è utile?

Facendo riferimento al nostro esempio precedente, possiamo unire entrambi gli autovettori e gli autovalori in una singola equazione di matrice:$$A\left = \left\left =\left\left =\left\left$$Se sostituiamo:$$\Lambda = \left$$$$V = \left$$è anche vero che:$$AV = V\Lambda$$$$\begin{equation}A = V\Lambda V^{-1}\label{eq:AVLV}\end{equation}$$Eigendecomposition si decompone una matrice $A$ in una moltiplicazione di una matrice degli autovettori di $V$ e una matrice diagonale degli autovalori $\Lambda$. Questo può essere fatto solo se una matrice è diagonalizzabile. Infatti, la definizione di un diagonalizable matrice $A \in \mathbb{R}^{n \times n}$ è che può essere eigendecomposed in $n$ autovettori, in modo che $V^{-1}AV = \Lambda$.

Matrice inversa con eigendecomposition

Da $\eqref{eq:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$L’inversa di $\Lambda$ è proprio l’inverso di ogni elemento diagonale (autovalori).

Potenza di una matrice con eigendecomposition

Da $\eqref{eq:AVLV}$:$$A^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^n = V \Lambda^n V^{-1}$$La potenza di $\Lambda$ è solo la potenza di ogni elemento diagonale. Questo diventa molto più semplice delle moltiplicazioni di A.

Proprietà di eigendecomposition

  • $det(A)=\prod_{i=1}^{n}\lambda_i$ (il determinante di A è uguale al prodotto dei suoi autovalori)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (la traccia di A è uguale alla somma dei suoi autovalori)
  • Gli autovalori di $A^{-1}$ sono $\lambda_i^{-1}$
  • Gli autovalori di $A^{n}$ sono $\lambda_i^{n}$
  • In generale, gli autovalori di $f(A)$ sono $f(\lambda_i)$
  • autovettori di $A^{-1}$ sono gli stessi autovettori di $A$.
  • se herm A herm è hermitiano (la sua trasposizione coniugata è uguale a se stessa) e full-rank (tutte le righe o le colonne sono linearmente indipendenti), allora gli autovettori sono reciprocamente ortogonali (il prodotto punto tra due autovettori è zero) e gli autovalori sono reali.
  • $A A è invertibile se tutti i suoi autovalori sono diversi da zero e viceversa.
  • Se gli autovalori della matrice matrix A are sono distinti (non ripetuti), allora A può essere autocomposto.

Come calcolare l’eigendecomposition?

Calcolare il polinomiale caratteristico e quindi risolverlo rispetto agli autovalori diventa impraticabile all’aumentare della dimensione della matrice. In pratica, gli algoritmi iterativi vengono utilizzati per comporre automaticamente una matrice.

Power iteration

Power iteration è un metodo iterativo per calcolare l’autovalore più alto e il relativo autovettore associato. Viene trovato solo il valore/vettore più alto, quindi questo metodo come uso limitato.

Per prima cosa, iniziamo con un vettore vector b_0., che può essere un’ipotesi plausibile dell’autovettore dominante o di un vettore casuale. Quindi, scorrere la seguente equazione: b b_{k+1}= \frac{A b_k} {\left\Vert A b_k \right\Vert}.$ $Ad ogni iterazione, il vettore viene lasciato-moltiplicato per la matrice A A A e normalizzato, convergendo verso l’autovettore dominante. Questo metodo funziona solo se:

  • $A$ ha un autovalore maggiore o uguale a tutti gli altri.
  • Il vettore Vector b_0 has ha una componente diversa da zero nella direzione dell’autovettore dominante (cioè il loro prodotto punto è diverso da zero)

Usando la nostra matrice di esempio vector A vector e il vettore iniziale: vector b_0 = \left vector Per il primo passaggio:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$Per i prossimi passi, riutilizzare l’ultimo $b$ e:$$q_2= \left, b_3= \left, b_4=\left, b_5= \left$$e$$ \left\Vert Un b_5 \right\Vert = 2.99$$ Se si ricorda, il massimo autovalore di $A$ 3 e il suo autovettore è di $\mathbf{v} = $, dove $v_{21} = 0$ e $v_{22}$ può avere qualsiasi valore.

Algoritmo QR

L’algoritmo QR utilizza la decomposizione QR in modo iterativo per creare l’eigendecomposition. Ricordiamo che la decomposizione QR si decompone una matrice $A$ in una matrice ortogonale $Q$ e una matrice triangolare superiore $R$ di $A = QR$.

Se ti ho aiutato in qualche modo, per favore aiutami indietro gradendo questo sito web in fondo alla pagina o cliccando sul link sottostante. Significherebbe il mondo per me!

Tweet