Valeurs propres, vecteurs propres et composantes propres

Que devez-vous savoir pour comprendre ce sujet?

  • Bases de l’algèbre linéaire

Sections

  • Propres Quoi?
  • Composition propre
    • Un exemple
  • Pourquoi la composition propre est-elle utile?
    • Matrice inverse
    • Puissance d’une matrice
  • Propriétés de la composition propre
  • Comment calculer la composition propre?
    • Itération de puissance
    • Algorithme QR

Ce qui est propre ?

Eigen signifie propre ou soi. En algèbre linéaire, valeur propre, vecteur propre et composition propre sont des termes intrinsèquement liés. La composition propre est la méthode pour décomposer une matrice carrée en valeurs propres et vecteurs propres. Pour une matrice $A$, si$$\begin{equation}A\mathbf{v}=\lambda \mathbf{v}\label{eq:Avlv}\end{equation}$$, alors $\mathbf{v}$ est un vecteur propre de la matrice $A$ et $\lambda$ est la valeur propre correspondante. Autrement dit, si la matriceAA is est multipliée par un vecteur et que le résultat est une version mise à l’échelle du même vecteur, alors c’est un vecteur propre deAA$ et le facteur d’échelle est sa valeur propre.

Composition propre

Alors, comment trouver les vecteurs propres d’une matrice? À partir de $\eqref{eq:Avlv}$:$$A\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{equation}(A -\lambda I) \mathbf{v} = 0\label{eq:AlI}\end{equation},$$où $I$ est la matrice identité. Les valeurs de $\lambda$ où $\eqref{eq:AlI}$ détient sont les valeurs propres de $A$. Il s’avère que cette équation est équivalente à:$$\begin{equation} det(A-\lambda I) = 0, \label{eq:detAlI}\end{equation}where où det() est le déterminant d’une matrice.

Preuve que $det(A-\lambda I) \equiv(A-\lambda I) \mathbf{v}=0$

Tout d’abord, vous devez savoir qu’une matrice est non inversible si et seulement si son déterminant est nul. Ainsi, pour les valeurs de $\lambda$ que $\eqref{eq:detAlI}$ détient, $A-\lambda I$ est non-inversible (au singulier). Dans ces cas, vous ne pouvez pas multiplier à gauche les deux côtés de $\eqref{eq: AlI} by parA(A-\lambda I) ^{-1}^ (puisqu’il n’y a pas d’inverse) pour obtenir:$$\mathbf{v} = 0,$$ce qui signifie que, dans ces cas, la solution pour $\eqref{eq:Avlv}$ est différent de $\mathbf{v} = 0$ et $\lambda$ est une valeur propre de $A$.

Un exemple

Voyons la composition propre de la matrice :AA = \leftFromFrom\\eqref{eq:detAlI}::dedet\left(\left\right) = 0$$$$(1-\ lambda)(3-\lambda) = 0we on obtient directement $\lambda_1=1 and et\\lambda_2=3$. L’expression ci-dessus est généralement appelée équation polinomiale caractéristique ou équation caractéristique d’une matrice.
En branchant $\lambda_1 into dans $\eqref{eq:Avlv}$, on obtient:from\left\left = 1\leftfrom d’où nous obtenonsvv_{11} =-2v_{12}$. C’est, tout vecteur $\mathbf{v_1} = $ où $v_{11} = -2v_{12}$ est un vecteur propre de $A$ avec la valeur propre 1.
Brancher $\lambda_2$ dans $\eqref{eq:Avlv}$, on a:$$\left\left= 3 \left$$à partir de laquelle nous obtenons $v_{21} = 0$ et $v_{22} \in \mathbb{R}$. C’est, tout vecteur $\mathbf{v_2} = $ où $v_{21} = 0$ est un vecteur propre de $A$ avec la valeur propre 3.

Pourquoi la composition propre est-elle utile ?

En se référant à notre exemple précédent, nous pouvons joindre à la fois des vecteurs propres et des valeurs propres dans une seule équation matricielle:$$A\left = \left\left =\left\left =\left\left$$Si nous remplacer:$$\Lambda = \left$$$$V = \left$$il est vrai aussi que:$$AV = V\Lambda$$$$\begin{equation}A = V\Lambda V^{-1}\label{eq:AVLV}\end{equation}$$Eigendecomposition se décompose en une matrice $A$ dans une multiplication d’une matrice de vecteurs propres $V$ et une matrice diagonale des valeurs propres $\Lambda$. Cela ne peut être fait que si une matrice est diagonalisable. En fait, la définition d’un diagonalizable de la matrice $A \in \mathbb{R}^{n \times n}$ est qu’il peut être eigendecomposed en $n$ vecteurs propres, de sorte que $V^{-1}AV = \Lambda$.

Matrice inverse avec eigendecomposition

à Partir de $\eqref{eq:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$L’inverse de $\Lambda$ est juste l’inverse de chaque élément de la diagonale (les valeurs propres).

Puissance d’une matrice de eigendecomposition

à Partir de $\eqref{eq:AVLV}$:$$A^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^n = V \Lambda^n V^{-1}$$La puissance de $\Lambda$ est juste la puissance de chaque élément de la diagonale. Cela devient beaucoup plus simple que les multiplications de A.

Propriétés de eigendecomposition

  • $det(A)=\prod_{i=1}^{n}\lambda_i$ (le déterminant de A est égal au produit de ses valeurs propres)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (la trace de A est égale à la somme de ses valeurs propres)
  • Les valeurs propres de $A^{-1}$ sont $\lambda_i^{-1}$
  • Les valeurs propres de $A^{n}$ sont $\lambda_i^{n}$
  • En général, les valeurs propres de $f(A)$ est $f(\lambda_i)$
  • Les vecteurs propres de $A^{-1}$ sont les mêmes que les vecteurs propres de $A$.
  • siAA is est hermitien (sa transposition conjuguée est égale à elle-même) et de rang complet (toutes les lignes ou colonnes sont linéairement indépendantes), alors les vecteurs propres sont mutuellement orthogonaux (le produit scalaire entre deux vecteurs propres quelconques est nul) et les valeurs propres sont réelles.
  • $A is est inversible si toutes ses valeurs propres sont différentes de zéro et vice-versa.
  • Si les valeurs propres de la matriceAA are sont distinctes (non répétées), alors A peut être propre.

Comment calculer la composition propre?

Calculer le polinôme caractéristique puis le résoudre par rapport aux valeurs propres devient impraticable à mesure que la taille de la matrice augmente. En pratique, des algorithmes itératifs sont utilisés pour être propres. composer une matrice.

Itération de puissance

L’itération de puissance est une méthode itérative pour calculer la valeur propre la plus élevée et son vecteur propre associé. Seule la valeur / vecteur la plus élevée est trouvée, donc cette méthode est d’une utilisation limitée.

Tout d’abord, nous commençons par un vecteur $b_0,, qui peut être une supposition éclairée du vecteur propre dominant ou un vecteur aléatoire. Ensuite, parcourez l’équation suivante:bb_{k + 1} = \frac{A b_k} {\left\Vert A b_k\right\Vert}.$$À chaque itération, le vecteur est multiplié à gauche par la matriceAA and et normalisé, convergeant vers le vecteur propre dominant. Cette méthode ne fonctionne que si:

  • $ A has a une valeur propre supérieure ou égale à toutes les autres.
  • Le vecteurbb_0 has a une composante non nulle dans la direction du vecteur propre dominant (c’est-à-dire que leur produit scalaire est différent de zéro)

En utilisant notre exemple de matriceAA and et le vecteur initial:bb_0 = \leftFor Pour la première étape:$$b_1 = \frac{\left\left}{\left\Vert\left\left\right\Vert}= \frac{\left}{5} = \left$$Pour les prochaines étapes, réutiliser le dernier $b$ et:$$b_2= \left, b_3= \left, b_4=\left, b_5= \left$$et$$ \left\Vert Un b_5 \right\Vert = 2.99$$ Si vous vous souvenez, la plus haute valeur propre de $A$ est de 3 et de son vecteur propre est de $\mathbf{v} = $, où $v_{21} = 0$ et $v_{22}$ peut avoir n’importe quelle valeur.

Algorithme QR

L’algorithme QR utilise la décomposition QR de manière itérative pour effectuer la composition propre. Rappelons que la décomposition QR se décompose en une matrice $A$ dans une matrice orthogonale $Q$ et une triangulaire supérieure de la matrice de $R$ tel que $A = QR$.

Si je vous ai aidé d’une manière ou d’une autre, aidez-moi en aimant ce site en bas de la page ou en cliquant sur le lien ci-dessous. Cela signifierait le monde pour moi!

Le Blog