Valores propios, vectores propios y composición propia

¿Qué necesitas saber para entender este tema?

  • conceptos Básicos de álgebra lineal

Secciones

  • Eigenwhat?
  • Eigendecomposition
    • ejemplo
  • ¿por Qué es eigendecomposition útil?
    • Matriz inversa
    • Potencia de una matriz
  • Propiedades de eigendecomposition
  • Cómo calcular eigendecomposition?
    • Iteración de potencia
    • Algoritmo QR

¿Propio Qué?

Propio significa propio o propio. En álgebra lineal, valor propio, vector propio y composición propia son términos que están intrínsecamente relacionados. La composición propia es el método para descomponer una matriz cuadrada en sus valores propios y vectores propios. Para una matriz $A$, si$$\begin{ecuación}A\mathbf{v}=\lambda \mathbf{v}\label{eq:Avlv}\end{ecuación}$$, entonces $\mathbf{v}$ es un autovector de la matriz $A$ y $\lambda$ es el correspondiente autovalor. Es decir, si la matriz A A is se multiplica por un vector y el resultado es una versión escalada del mismo vector, entonces es un vector propio de A A.y el factor de escala es su valor propio.

Composición propia

Entonces, ¿cómo encontramos los vectores propios de una matriz? Desde $\eqref{eq:Avlv}$:$$A\mathbf{v}-\lambda I \mathbf{v} = 0$$$$\begin{ecuación}(A -\lambda I) \mathbf{v} = 0\label{eq:AlI}\end{ecuación},$$donde $I$ es la matriz identidad. Los valores de $\lambda$ donde $\eqref{eq:AlI}$ tiene son los autovalores de $A$. Resulta que esta ecuación es equivalente a:\ \ begin {ecuación} det (A-\lambda I) = 0,\label {eq:detAlI}\end {ecuación} where donde det () es el determinante de una matriz.

Prueba de que $det (A-\lambda I) \equiv (A – \lambda I) \mathbf{v}=0$

Primero, debe saber que una matriz no es invertible si y solo si su determinante es cero. Así que, para los valores de $\lambda$ que $\eqref{eq:detAlI}$ tiene, $A-\lambda I$ es no invertible (en singular). En esos casos, no se puede multiplicar por la izquierda ambos lados de $\eqref{eq:AlI} by por $(A – \lambda I)^{-1}$ (ya que no hay inverso) para obtener:$$\mathbf{v} = 0,$$lo que significa que en esos casos, la solución para $\eqref{eq:Avlv}$ es diferente de $\mathbf{v} = 0$ y $\lambda$ es un autovalor de $A$.

Un ejemplo

Veamos la composición propia de la matriz: A A= \ left From From From \ eqref {eq: detAlI}$: d det \ left (\left\right) = 0$$$$(1-\lambda) (3 – \lambda) = 0 get obtenemos directamente$\lambda_1 = 1 and y \ \ lambda_2 = 3.. La expresión anterior generalmente se denomina polinomio característico o ecuación característica de una matriz.
Conectando $\lambda_1 into a $\eqref{eq: Avlv}$, obtenemos:\ \ left \ left= 1 \left from de la que obtenemos $v_{11} = -2v_{12}.. Es decir, cualquier vector $\mathbf{v_1} = $ donde $v_{11} = -2v_{12}$ es un autovector de $A$ con autovalor 1.
Enchufar $\lambda_2$ en $\eqref{eq:Avlv}$, obtenemos:$$\left\left= 3 \left$$de $v_{21} = 0$ y $v_{22} \in \mathbb{R}$. Es decir, cualquier vector $\mathbf{v_2} = $ donde $v_{21} = 0$ es un autovector de $A$ con autovalor 3.

¿Por qué es útil eigendecomposition?

En referencia a nuestro ejemplo anterior, podemos unir ambos vectores propios y valores propios en una sola ecuación de matriz:$$A\left = \left\left =\left\left =\left\left$$Si reemplazamos:$$\Lambda = \left$$$$V = \left$$también es cierto que:$$AV = V\Lambda$$$$\begin{ecuación}A = V\Lambda V^{-1}\label{eq:AVLV}\end{ecuación}$$Eigendecomposition descompone una matriz $A$ en una multiplicación de una matriz de vectores propios $V$ y una matriz diagonal de valores propios $\Lambda$. Esto solo se puede hacer si una matriz es diagonalizable. De hecho, la definición de una matriz diagonalizable $A \in \mathbb{R}^{n \times n}$ es que se puede eigendecomposed en $$ n vectores propios, por lo que $V^{-1}AV = \Lambda$.

Matriz inversa con eigendecomposition

De $\eqref{eq:AVLV}$:$$A^{-1} = V \Lambda^{-1}V^{-1}$$La inversa de $\Lambda$ es simplemente el inverso de cada elemento diagonal (los autovalores).

Potencia de una matriz con eigendecomposition

De $\eqref{eq:AVLV}$:$$A^2 = V \Lambda V^{-1} V \Lambda V^{-1} = V \Lambda^{2} V^{-1}$$$$A^n = V \Lambda^n V^{-1}$$El poder de $\Lambda$ es sólo el poder de cada elemento diagonal. Esto se vuelve mucho más simple que las multiplicaciones de A.

Propiedades de eigendecomposition

  • $det(A)=\prod_{i=1}^{n}\lambda_i$ (el determinante de a es igual al producto de sus autovalores)
  • $tr(A)=\sum_{i=1}^{n}\lambda_i$ (la traza de a es igual a la suma de sus valores propios)
  • Los valores de $A^{-1}$ son $\lambda_i^{-1}$
  • Los autovalores de $A^{n}$ son $\lambda_i^{n}$
  • En general, los autovalores de $f(A)$ son $f(\lambda_i)$
  • Los vectores propios de $A^{-1}$ son los mismos que los vectores propios de $A$.
  • si $A A es hermitiana (su transpuesta conjugada es igual a sí misma) y de rango completo (todas las filas o columnas son linealmente independientes), entonces los vectores propios son mutuamente ortogonales (el producto puntual entre dos vectores propios cualesquiera es cero) y los valores propios son reales.
  • $A is es invertible si todos sus valores propios son diferentes de cero y viceversa.
  • Si los valores propios de matrix A A are son distintos (no repetidos), entonces A se puede componer de forma propia.

¿Cómo calcular la composición propia?

Calcular el polinomio característico y luego resolverlo con respecto a los valores propios se vuelve poco práctico a medida que aumenta el tamaño de la matriz. En la práctica, los algoritmos iterativos se utilizan para componer una matriz de modo propio.

Iteración de potencia

La iteración de potencia es un método iterativo para calcular el valor propio más alto y su vector propio asociado. Solo se encuentra el valor/vector más alto, por lo que este método es de uso limitado.

Primero, comenzamos con algún vector b b_0., que puede ser una suposición educada del vector propio dominante o un vector aleatorio. Luego, itere a través de la siguiente ecuación: b b_{k+1} = \frac{A b_k}{\left\Vert A b_k \right\Vert}.$ $En cada iteración, el vector se multiplica a la izquierda por la matriz A A A y se normaliza, convergiendo al vector propio dominante. Este método solo funciona si:

  • $A has tiene un valor propio mayor o igual a todos los demás.
  • El vector b b_0 has tiene un componente distinto de cero en la dirección del vector propio dominante (es decir, su producto escalar es diferente de cero)

Usando nuestra matriz de ejemplo A A vector y vector inicial: b b_0 = \left For Para el primer paso:$$b_1 = \frac{\left\left}{\left\Vert\left\left\derecho\Vert}= \frac{\left}{5} = \left$$Para los próximos pasos, la reutilización de los últimos $b$ e:$$b_2= \left, b_3= \left, b_4=\left, b_5= \left$$y$$ \left\Vert Un b_5 \derecho\Vert = 2.99$$, Si usted recuerda, el mayor autovalor de $A$ es 3 y su vector propio es de $\mathbf{v} = $, donde $v_{21} = 0$ y $v_{22}$ puede tener cualquier valor.

Algoritmo QR

El algoritmo QR utiliza la descomposición QR iterativamente para hacer la composición propia. Recordemos que la descomposición QR descompone una matriz $A$ en una matriz ortogonal $P$ y una triangular superior de la matriz $R$ como $a = QR$.

Si le ayudé de alguna manera, por favor, ayúdeme de nuevo dándole «me gusta» a este sitio web en la parte inferior de la página o haciendo clic en el enlace de abajo. ¡Significaría mucho para mí!

Tweet