Tema 4: Diagonalización y Fromas Cuadráticas

clase 1: Diagonalización

La idea fundamental de la diagonalización se origina al descubir que había matrices cuadradas que, multiplicadas por ciertos vectores, te devolvían un vector proporcional por el que multiplicas. Por ejemplo, la matriz

\[ \mathbf{A}=\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right), \]

si la multiplicamos por el vector

\(\overrightarrow{x}=\left[\begin{array}{c} 1\\ 1 \end{array}\right]\), obtienes

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left[\begin{array}{c} 1\\ 1 \end{array}\right]=\left[\begin{array}{c} 5\\ 5 \end{array}\right] \]

y fíjate que el vector \(\left[\begin{array}{c} 5\\ 5 \end{array}\right]\) es proporcional al vector \(\left[\begin{array}{c} 1\\ 1 \end{array}\right]\). De hecho, podemos reescribirlo como

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left[\begin{array}{c} 1\\ 1 \end{array}\right]=5\left[\begin{array}{c} 1\\ 1 \end{array}\right] \]

al vector \(\overrightarrow{x}\), se le decidió poner el sobrenombre de autovector y al escalar,autovalor.Las preguntas, entonces,que nos pueden surgir ante este descubrimiento son

  1. ¿Todas las matrices tienen esta propiedad?

  2. ¿Cualquier vector puede ser “un autovector”?

  3. ¿Cómo se obtienen los autovalores-autovectores?

Empecemos por esta última pregunta.

El problema consiste en resolver esta ecuación, donde sólo \(\mathbf{A}\) es conocida:

\[ \mathbf{A}\overrightarrow{x}=\lambda\overrightarrow{x} \]

y donde \(\lambda\in\mathbb{R}\). Si despejamos,

\[ \mathbf{A}\overrightarrow{x}-\lambda\overrightarrow{x}=\overrightarrow{0} \]

Podemos sacar factor común, convenientemente, a \(\overrightarrow{x}\):

\[\begin{equation} (\mathbf{A}-\lambda I)\overrightarrow{x}=\overrightarrow{0} \end{equation}\]


Ojo, ¿por qué hacemos esto? Imagina que \(\lambda\) es cualquier número. Por ejemplo, \(\lambda=3\), ¿podríamos hacer esta cuenta?

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)-3 \]

no, ¿verdad?. Pero esta, sí:

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)-3\left(\begin{array}{cc} 1 & 0\\ 0 & 1 \end{array}\right)=\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)-\left(\begin{array}{cc} 3 & 0\\ 0 & 3 \end{array}\right), \]

por eso tenemos que poner la matriz identidad.


Como ves, en la ecuación \((\mathbf{A}-\lambda I)\overrightarrow{x}=\overrightarrow{0}\) tenemos un sistema de ecuaciones homogéneo:

\[ \underset{coeficientes}{(\mathbf{A}-\lambda I)}\underset{inc\acute{o}gnitas}{\overrightarrow{x}}=\underset{t.independiente}{\overrightarrow{0}} \]

Sabemos que un sistema homogéneo siempre es compatible. Si es determinado, la solución será \(\overrightarrow{x}=(0,0...,0)\), el cual no nos será de utilidad para lo que buscamos. Por ello, preferiremos que de aquí salga un sistema compatible indeterminado (y así, tener un conjunto de soluciones distintos al vector de ceros), es decir, las correspondientes al \(Nul(\mathbf{A}-\lambda I))\). ¿Cómo hacemos que el sistema sea compatible indeterminado? Muy sencillo, como la matriz de coeficientes es cuadrada, podemos pedir que:

\[ \left|\mathbf{A}-\lambda I\right|=0 \]

ya que, si el determinante de la matriz de coeficientes de un sistema es cero, este puede ser o compatible indeterminado o incompatible (puesto que el rango será menor que el número de variables). Pero como un sistema homogéneo siempre es compatible, entonces este criterio podremos usarlo siempre.

Y, de hecho, a esto \(\left|\mathbf{A}-\lambda I\right|\) lo llamaremos el polinomio característico y a la ecuación que resulta de igualarlo a cero, la ecuación característica.

Formalizando la notación, diremos que una matriz \(A\in\mathcal{M}_{n\times n}\) tendrá como autovalores

\[ \sigma(A)=\left\{ \lambda_{1},...,\lambda_{n};\mathrm{con}\:\lambda_{i}\Rightarrow\left|\left(\mathbf{A}-\lambda\mathbf{I}\right)\right|=0,i=1,...,n\right\} \]

al conjunto \(\sigma(\mathbf{A})\) se le llama “espectro” de la matriz \(\mathbf{A}\).

Ejercicio resuelto

Obtén los autovalores (espectro) de la matriz \[ \mathbf{A}=\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right) \]

  • Definimos el polinomio característico \[ \left|\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)-\left(\begin{array}{cc} \lambda & 0\\ 0 & \lambda \end{array}\right)\right| \]
  • Definimos la ecuación característica \[ \left|\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)-\left(\begin{array}{cc} \lambda & 0\\ 0 & \lambda \end{array}\right)\right|=0 \]
  • Resolvemos y obtenemos \[ \left|\left(\begin{array}{cc} 3-\lambda & 2\\ 1 & 4-\lambda \end{array}\right)\right|=0\Rightarrow\lambda^{2}-7\lambda+10=0 \]
  • De aquí, sacamos que \[ \sigma(A)=\left\{ 2,5\right\} \]

Una vez tenemos los autovalores…

…buscamos los autovectores.

Para ello, definiremos el autoespacio asociado a un autovalor concreto como:

\[ S_{\lambda_{i}}=\left\{ \overrightarrow{x}\in\mathbb{R}^{n}\:;\:(\mathbf{A}-\lambda_{i}\mathbf{I})\overrightarrow{x}=\overrightarrow{0}\right\} \]

es decir, el autoespacio es el conjunto de vectores que son solución al sistema homogéneo asociado a cada autovalor.

Ahora, vamos a buscar los “autoespacios” asociados a cada autovalor de la matriz anterior (ejercicio resuelto)

\[ S_{\lambda=2}=\left\{ \overrightarrow{x}\in\mathbb{R}^{2}\:;\:(\mathbf{A} - 2 \mathbf{I})\overrightarrow{x}=\overrightarrow{0}\right\} \]

es decir, tenemos que resolver este sistema homogéneo

\(:\left(\begin{array}{cc} 1 & 2\\ 1 & 2 \end{array}\right)\left[\begin{array}{c} x\\ y \end{array}\right]=\left[\begin{array}{c} 0\\ 0 \end{array}\right]\), que se resuelve rápidamente, puesto que : \(x+2y=0\Rightarrow x=-2y\)

Esto es, el autoespacio está formado por todos los vectores que se extraen de estas ecuaciones paramétricas

\[ \left[\begin{array}{c} x\\ y \end{array}\right]=y\left[\begin{array}{c} -2\\ 1 \end{array}\right] \]

Por ejemplo, haciendo \(\overrightarrow{x}=\left[\begin{array}{c} -2\\ 1 \end{array}\right]\) ya tenemos un autovector (puedes elegir cualquier vector proporcional a este) . Por otro lado, respecto del autovalor \(\lambda=5\),

\[ S_{\lambda=5}=\left\{ \overrightarrow{x}\in\mathbb{R}^{2}\:;\:(\mathbf{A}-5\mathbf{I})\overrightarrow{x}=\overrightarrow{0}\right\} \]

que nos lleva a resolver este sistema homogéneo

\(:\left(\begin{array}{cc} -2 & 2\\ 1 & -1 \end{array}\right)\left[\begin{array}{c} x\\ y \end{array}\right]=\left[\begin{array}{c} 0\\ 0 \end{array}\right]\), que se resuelve también rápidamente: \(-2x+2y=0\Rightarrow x=y\)

Es decir, el autoespacio asociado con el autovalor 5 está formado por todos los vectores que se extraen de estas ecuaciones paramétricas

\[ \left[\begin{array}{c} x\\ y \end{array}\right]=y\left[\begin{array}{c} 1\\ 1 \end{array}\right] \]

haciendo \(\overrightarrow{x}=\left[\begin{array}{c} 1\\ 1 \end{array}\right]\) ya tenemos el otro autovector que necesitamos.

Repaso general

Vamos a repasar todo lo que tenemos aplicado a la matriz \(\mathbf{A}=\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right):\)

\[ \begin{cases} \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left[\begin{array}{c} -2\\ 1 \end{array}\right]=2\left[\begin{array}{c} -2\\ 1 \end{array}\right]\\ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left[\begin{array}{c} 1\\ 1 \end{array}\right]=5\left[\begin{array}{c} 1\\ 1 \end{array}\right] \end{cases} \]

Entonces, podemos reescribir todo de una forma más compacta,

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)=\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right) \]

Fíjate: entonces, al encontrar los autovalores y autovectores de una matriz \(\mathbf{A}\), podemos reescribirla de esta otra manera:

\[ \left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)=\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1} \]

En general, llamaremos \(\mathbf{P}\) a la matriz donde colocamos los vectores columna del autoespacio y \(\mathbf{D}\) a la matriz diagonal donde (en la diagonal principal) ponemos los autovalores en orden. Esto entronca con una de las utilidades del cálculo de autovalores y autovectores de una matriz: la diagonalización. Antes de que entiendas qué quiere decir “diagonalizar” una matriz, primero diremos que una matriz es “diagonalizable” si se puede obtener su descomposición en autovalores/autovectores.

De esta forma, decimos que si una matriz \(\mathbf{A}\) es diagonalizable entonces \(\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1}.\)

¿y para qué nos sirve esta forma?. Imagina que tienes que obtener

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}\).

En vez de hacer

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}=\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)...\) \(k\) veces, puedes aprovechar que

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}=\underbrace{\underbrace{\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}}_{\mathbf{A}}\underbrace{\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}}_{\mathbf{A}}...\underbrace{\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}}_{\mathbf{A}}}_{k\,veces}\)

nota que, operando,

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}=\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\underbrace{\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)}_{\mathbf{I}}\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\underbrace{\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)}_{\mathbf{I}}...\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}\),

donde la potencia ahora es muy fácil de calcular, puesto que elevar la matriz \(\mathbf{D}\) a \(k\), al ser una matriz diagonal, consiste simplemente en elevar los elementos a \(k\).

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}=\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)...\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}\), es decir

\(\left(\begin{array}{cc} 3 & 2\\ 1 & 4 \end{array}\right)^{k}=\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} 2 & 0\\ 0 & 5 \end{array}\right)^{k}\left(\begin{array}{cc} -2 & 1\\ 1 & 1 \end{array}\right)^{-1}\)

Ahora vamos a seguir avanzando en el concepto de diagonalizar una matriz que, como ves, está claramente relacionado con la búsqueda de los autovalores y autovectores. Vamos a definir dos nuevos conceptos: multiplicidad algebráica y multiplicidad geométrica.

  • multiplicidad algebráica.

consiste en el número de veces que un autovalor se repite en el espectro de la matriz. Por ejemplo, si \(\sigma(A)=\{2,1,1,1\}\), entonces el autovalor 2 tiene multiplicidad algebráica 1 y el autovalor 1 tiene multiplicidad algebráica de 3. Si \(\sigma(A)=\{-2,1,2\}\), cada autovalor tiene multiplicidad algebráica de 1.

Por otro lado,

  • La multiplicidad geométrica

es la dimensión del autoespacio: \(dim\left(S_{\lambda_{i}}\right)\) es, decir, consiste en el número de vectores linealmente independientes que dan lugar a la base que representa el subespacio solución del sistema homogéneo. Resulta que:


Condición necesaria para que una matriz sea diagonalizable

Una matriz será diagonalizable si la multiplicidad algebráica de cada autovalor coincide con su multiplicidad geométrica.


Ejercicio resuelto

Por ejemplo, diagonaliza la siguiente matriz y analiza el espectro y el autoespacio asociado a cada autovalor \[ \mathbf{A}=\left(\begin{array}{ccc} -1 & 0 & 0\\ 2 & -6 & 8\\ 1 & -4 & 6 \end{array}\right) \]


Nota que el polinomio característico es \(P(\lambda)=(-1-\lambda)(\lambda^{2}-4)\) y sus raíces son \(\sigma(\mathbf{A})=\left\{ -1,+2,-2\right\}.\) Por lo que la multiplicidad algebráica es 1 en cada autovalor.¿Cuál es su multiplicidad geométrica? Veamos los diferentes autoespacios \[ S_{\lambda=-1}=\left\{ \overrightarrow{x}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} 0 & 0 & 0\\ 2 & -5 & 8\\ 1 & -4 & 7 \end{array}\right)\left(\begin{array}{c} x\\ y\\ z \end{array}\right)=\overrightarrow{0}\right\} \]

Escalonando, tenemos que \(\left(\begin{array}{ccc} 0 & 0 & 0\\ 2 & -5 & 8\\ 1 & -4 & 7 \end{array}\right)P_{31}\left(\begin{array}{ccc} 2 & -5 & 8\\ 1 & -4 & 7\\ 0 & 0 & 0 \end{array}\right)E_{21}(-\frac{1}{2})\left(\begin{array}{ccc} {\color{red}2} & -5 & 8\\ 0 & {\color{red}-3/2} & 3\\ 0 & 0 & 0 \end{array}\right)\) por lo que tenemos dos pivotes y, por tanto, una variable libre o exógena. La dimensión del subespacio solución es, por tanto, igual al número de variables libres y esta es 1. Es decir, \(dim\left(S_{\lambda=-1}\right)=1.\)

En el caso de \(\lambda=-2\), tenemos

\[ S_{\lambda=-2}=\left\{ \overrightarrow{x}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} 1 & 0 & 0\\ 2 & -4 & 8\\ 1 & -4 & 8 \end{array}\right)\left(\begin{array}{c} x\\ y\\ z \end{array}\right)=\overrightarrow{0}\right\} \]

Escalonando, tenemos que \(\left(\begin{array}{ccc} 1 & 0 & 0\\ 2 & -4 & 8\\ 1 & -4 & 8 \end{array}\right)E_{21}(-2)\left(\begin{array}{ccc} 1 & 0 & 0\\ 0 & -4 & 8\\ 1 & -4 & 8 \end{array}\right)E_{31}(-1)\left(\begin{array}{ccc} 1 & 0 & 0\\ 0 & -4 & 8\\ 0 & -4 & 8 \end{array}\right)\rightarrow\left(\begin{array}{ccc} {\color{red}1} & 0 & 0\\ 0 & {\color{red}-4} & 8\\ 0 & 0 & 0 \end{array}\right)\) por lo que tenemos dos pivotes y, por tanto, una variable libre o exógena. La dimensión del subespacio solución es, por tanto, igual al número de variables libres y esta es 1. Es decir, \(dim\left(S_{\lambda=-2}\right)=1.\)

Finalmente,

\[ S_{\lambda=2}=\left\{ \overrightarrow{p}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} -3 & 0 & 0\\ 2 & -8 & 8\\ 1 & -4 & 4 \end{array}\right)\left(\begin{array}{c} x\\ y\\ z \end{array}\right)=\overrightarrow{0}\right\} \] Comprueba que, de nuevo, la dimensión del subespacio solución a este sistema de ecuaciones es 1.


Como vemos, la multiplicidad geométrica de cada autoespacio es 1. Coinciden, por tanto, las multiplicidades geométricas y algebráicas, por lo que la matriz es diagonalizable. Esto implica, como ya sabes, que podemos escribir la matriz \(\mathbf{A}\) como

\[ \left(\begin{array}{ccc} -1 & 0 & 0\\ 2 & -6 & 8\\ 1 & -4 & 6 \end{array}\right)=\left(\begin{array}{ccc} 0 & 0 & 1\\ 2 & 1 & 2\\ 1 & 1 & 1 \end{array}\right)\left(\begin{array}{ccc} -1 & 0 & 0\\ 0 & -2 & 0\\ 0 & 0 & 2 \end{array}\right)\left(\begin{array}{ccc} 0 & 0 & 1\\ 2 & 1 & 2\\ 1 & 1 & 1 \end{array}\right)^{-1} \]


clase 2: Diagonalización II

Continuamos con los aspectos más relevantes de la diagonalización. En este caso, analizamos la condición suficiente para que una matriz sea diagonalizable

Condición suficiente para la diagonalización

Visto lo visto, una matriz cuadrada será diagonalizable si somos capaces de encontrar una base para el autoespacio asociado a cada autovalor con la dimensión igual a la multiplicidad algebráica de su autovalor asociado. Por ejemplo trata de diagonalizar esta matriz: \[ \mathbf{B}=\left(\begin{array}{ccc} 2 & 1 & -4\\ 0 & -2 & -4\\ 0 & 1 & 3 \end{array}\right) \]

su ecuación característica es \((2-\lambda)(\lambda^{2}-\lambda-2)=0,\) cuyas raíces forman el espectro $()={ -1,+2,+2} $ como ves, la raíz \(2\) tiene multiplicidad algebráica 2. ¿Cuál será la multiplicidad geométrica? Vamos al autoespacio asociado:

\[ S_{\lambda=2}=\left\{ \overrightarrow{x}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} 0 & 1 & -4\\ 0 & -4 & -4\\ 0 & 1 & 1 \end{array}\right)\left(\begin{array}{c} x\\ y\\ z \end{array}\right)=\overrightarrow{0}\right\} \]

como ves, el rango de \(\left(\begin{array}{ccc} 0 & 1 & -4\\ 0 & -4 & -4\\ 0 & 1 & 1 \end{array}\right)\)

es 2, por lo que la dimensión del subespacio solución es \(n-Rango\left(\left(\begin{array}{ccc} 0 & 1 & -4\\ 0 & -4 & -4\\ 0 & 1 & 1 \end{array}\right)\right)=1.\)

La multiplicidad geométrica no coincide con la algebráica. No vamos a ser capaces de encontrar una base de dos vectores, que es lo que necesitamos, para poder diagonalizar la matriz. No es diagonalizable.

Una consecuencia directa de lo que acabamos de ver es que:

Si \(\mathbf{A}\in\mathcal{M}_{n\times n}\) tiene autovalores reales distintos, entonces es diagonalizable.

Esto es una condición suficiente de diagonalización. No todas las matrices diagonalizables la tienen que cumplir (como hemos visto) pero, si la cumplen, ya sabemos que lo son.

La prueba es sencilla. Tenemos un conjunto \(\left\{ \overrightarrow{x}_{1},...,\overrightarrow{x}_{n}\right\}\) de autovectores asociados a una matriz \(\mathbf{A}\in\mathcal{M}_{n\times n}\). Supongamos que \(\overrightarrow{x}_{1}\) es linealmente dependiente del resto de autovectores (asociados al resto de autovalores) \(\overrightarrow{x}_{2},...,\overrightarrow{x}_{n}\), es decir, \(\overrightarrow{x}_{1}=c_{2}\overrightarrow{x}_{2}+...+c_{n}\overrightarrow{x}_{n}\). Si es así, la matriz \(\mathbf{A}\) no será diagonalizable puesto que la matriz \(\mathbf{P}=\left[\overrightarrow{x}_{1}|\overrightarrow{x}_{2}|...|\overrightarrow{x}_{n}\right]\) no será invertible (y necesitamos que lo sea para poder escribir \(\mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{-1})\). Multiplicamos por \(\mathbf{A}\) la combinación lineal de tal forma que

\[ \mathbf{A}\overrightarrow{x}_{1}=c_{2}\mathbf{A}\overrightarrow{x}_{2}+...+c_{n}\mathbf{A}\overrightarrow{x}_{n} \]

de esta forma, aprovechando la definición que me proporciona la descomposición en autovalores-autovectores, esta expresión equivale a

\[ \mathbf{\lambda_{1}}\overrightarrow{x}_{1}=c_{2}\mathbf{\mathbf{\lambda_{2}}}\overrightarrow{x}_{2}+...+c_{n}\mathbf{\mathbf{\lambda_{n}}}\overrightarrow{x}_{n} \] Por otro lado, si multiplicamos por \(\lambda_{1}\) la combinación lineal \(\overrightarrow{x}_{1}=c_{2}\overrightarrow{x}_{2}+...+c_{n}\overrightarrow{x}_{n}\), definida previamente

\[ \lambda_{1}\overrightarrow{x}_{1}=c_{2}\lambda_{1}\overrightarrow{x}_{2}+...+c_{n}\lambda_{1}\overrightarrow{x}_{n} \]

Si restamos ambas expresiones:

\[ \overrightarrow{0}=c_{2}\left(\lambda_{2}-\lambda_{1}\right)\overrightarrow{x}_{2}+...+c_{2}\left(\lambda_{n}-\lambda_{1}\right)\overrightarrow{x}_{n} \]

esto obligaría a que los autovalores fueran todos iguales. Es decir, la única condición para que haya dependencia lineal entre \(\overrightarrow{x}_{1}\) y el resto de autovectores es que los autovalores sean iguales entre sí, lo cual contradice nuestra hipótesis.

Por lo tanto…

Con lo visto antes, diremos que una matriz es diagonalizable si sus multiplicidades geométricas y algebráicas coinciden. La multiplicidad geométrica (que calcularías en el caso de tener un autovalor \(\lambda\) con multiplicidad algebráica mayor que uno) consistirá en:

\[ n-rango(A-\lambda I) \]

Ejercicio resuelto.

Discute si la matriz \(A=\left[\begin{array}{ccc} 2 & 0 & 0\\ 0 & 1 & 1\\ 0 & 1 & 1 \end{array}\right]\) es diagonalizable

  1. Obtenemos el espectro a través de la ecuación característica \((2-\lambda)(\lambda^{2}-2\lambda)=0\) de lo que obtenemos que \(\sigma(A)=\left\{ 2,2,0\right\}\)
  1. Debemos asegurarnos que el autovalor con multiplicidad algebráica doble (es decir, el autovalor \(2\), que aparece 2 veces) presenta multiplicidad geométrica doble, también. Para ello, hay que analizar el rango de \[ \left[\begin{array}{ccc} 2 & 0 & 0\\ 0 & 1 & 1\\ 0 & 1 & 1 \end{array}\right]-\left[\begin{array}{ccc} 2 & 0 & 0\\ 0 & 2 & 0\\ 0 & 0 & 2 \end{array}\right]=\left[\begin{array}{ccc} 0 & 0 & 0\\ 0 & -1 & 1\\ 0 & 1 & -1 \end{array}\right] \]

como vemos, el rango de esta matriz es 1. Entonces, \(n-1=2\). Por lo que la multiplicidad geométrica coincide con la algebráica y, por tanto, la matriz es diagonalizable.

Clase 3: diagonalización de matrices simétricas

Ahora nos centramos en las matrices simétricas (es decir, aquellas que satisfacen \(\mathbf{A}^{t}=\mathbf{A}\)) y sus propiedades con respecto a su diagonalización

  • Una matriz simétrica tiene todos los autovalores reales.

Esta propiedad sólo vamos a demostrarla para una matriz 2x2. Para ello, nota que:

\[ \mathbf{A}=\left[\begin{array}{cc} a & {\color{red}b}\\ {\color{red}b} & c \end{array}\right] \]

Los autovalores se obtienen de las raíces del polinomio característico, es decir, si \(P(\lambda)=\lambda^{2}-(a+c)+ac-b^{2}\), los autovalores son las raíces de dicho polinomio. Es decir:

\[ \lambda=\frac{(a+c)\pm\sqrt{(a+c)^{2}-4ac+4b^{2}}}{2} \]

Para que las raíces sean reales, necesitamos asegurar que el discriminante \((a+c)^{2}-4ac+4b^{2}\) es mayor o igual que cero. Nota que el discriminante puede reescribirse como \((a-c)^{2}+4b^{2}\), que siempre será mayor o igual que cero.

  • Una matriz simétrica siempre puede diagonalizarse

Atendemos a la condición suficiente: si una matriz tiene autovalores distintos entre sí, es diagonalizable. Si observamos en la prueba anterior, si el discriminante es estrictamente mayor que cero, los autovalores serán dos valores distintos. Cumple la condición suficiente de diagonalización. Por otro lado, si el discriminante es nulo, esto es porque \(b=0\) y \(a=c\), lo cual ya hace que la matriz sea diagonal (con los dos autovalores iguales). Sin embargo, la prueba general de esta propiedad es complicada y no la vamos a discutir en este texto.

  • Los autovectores de matrices simétricas asociados a autovalores distintos entre sí, son perpendiculares.

Para probar esto necesitamos, primeramente, definir lo siguiente:

Dada una matriz simétrica (\(\mathbf{A}^{T}=\mathbf{A})\), tal que \(\mathbf{A}\overrightarrow{x}_{1}=\lambda_{1}\overrightarrow{x}_{1}\), \(\mathbf{A}\overrightarrow{x}_{2}=\lambda_{2}\overrightarrow{x}_{2}\) , queremos probar que

\[ \overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2}=0 \]

Para ello, vamos a crear una prueba que involucre a la matriz \(\mathbf{A}\) y a su traspuesta. La primera idea es que aparezca uno de los autovalores multiplicando al producto escalar de los dos autovectores

\[ {\color{blue}{\lambda_{2}}\overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2}}= \] como \(\lambda_2\) es un escalar, lo puedes poner en cualquier otro lugar, vamos buscando utilizar el resultado principal de este capítulo: \(\mathbf{A}\overrightarrow{x}_{2}=\lambda_2\overrightarrow{x}_{2}\), entonces \[=\overrightarrow{x}_{1}^{t}\lambda_{2}\overrightarrow{x}_{2}=\]

\[=\overrightarrow{x}_{1}^{t}\mathbf{A}\overrightarrow{x}_{2}\] y utiliando las propiedades de la traspuesta

\[=\left(\mathbf{A^{\mathrm{\mathit{t}}}}\overrightarrow{x}_{1}\right)^{t}\overrightarrow{x}_{2}=\]

\[=\left(\mathbf{A}\overrightarrow{x}_{1}\right)^{t}\overrightarrow{x}_{2}=\] por simetría \[=\left(\mathbf{\lambda_{1}}\overrightarrow{x}_{1}\right)^{t}\overrightarrow{x}_{2}\] entonces,

\[=\lambda_{1}\overrightarrow{x}_{1}{}^{t}\overrightarrow{x}_{2}\]

De donde obtenemos-entre la primera y esta última igualdades \[ \lambda_{2}\overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2}=\lambda_{1}\overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2} \]

es decir

\[ (\lambda_{2}-\lambda_{1})\overrightarrow{x}_{1}^{T}\overrightarrow{x}_{2}=0 \]

como los autovalores son distintos, esto implica que \[ \overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2}=0 \]

  • Una matriz simétrica es diagonalizable ortonormalmente.

Como hemos visto, si los autovalores son distintos, los vectores que forman la base de autovectores serán perpendiculares (y, dividiendo por la norma, ortonormales).

En caso de que se tengan autovalores repetidos, sabemos que- al ser la matriz siempre diagonalizable- cumplimos la condición necesaria de diagonalización. Es decir, tendremos el nímero adecuado (multiplicidad geométrica=multiplicidad algebráica) de autovectores que formen una base. En ese caso, lo único que tenemos que hacer, una vez tenemos la base, es buscar ortogonalizarla y conseguir que tenga norma 1. En los ejercicios resueltos del Campus Virtual tienes ejemplos, y más abajo

  • Si una matriz es diagonalizable ortonormalmente, eso es que es simétrica

Esta prueba también podemos hacerla de forma constructiva. En una matriz diagonalizable sabemos que se cumple \(\mathbf{A=PDP}^{-1}\). Si es diagonalizable ortonormalmente, entonces, la matriz \(\mathbf{P}\) es ortogonal y cumple que \(\mathbf{P}^{t}=\mathbf{P}^{-1}\). Entonces

\[\mathbf{A}^{t}=\left(\mathbf{PDP}^{-1}\right)^{t}=\]

\[=\mathbf{\left(P^{-1}\right)^{t}D^{t}P^{t}}=\] \[=\mathbf{\left(P^{t}\right)^{t}D^{t}P}^{-1}\] \[=\mathbf{PD^{t}P}^{-1} \] \[=\mathbf{A}\]

Ejemplo 1

Vamos a diagonalizar ortonormalmente una matriz simétrica

\[ \mathbf{\mathrm{\mathbf{A}=\left[\begin{array}{ccc} 2 & 3 & 0\\ 3 & 2 & 0\\ 0 & 0 & 4 \end{array}\right]}} \]

  1. Obtén la ecuación característica \((\lambda-4)(\lambda^{2}-4\lambda-5)=0\)

  2. Obtenemos el espectro \(\sigma(\mathbf{A})=\left\{ 4,5,-1\right\}.\) Nota que, como los autovalores son distintos (la multiplicidad algebráica de cada autovalor es uno), las propiedades anteriores nos aseguran que, dado que la matriz es simétrica, los autovectores son todos ortogonales entre sí

  3. Obtenemos los distintos autoespacios:

\(S_{\lambda=4}=\left\{ \overrightarrow{x}_{1}\in\mathbb{R}^{3}\::\:\left[\begin{array}{ccc} -2 & 3 & 0\\ 3 & -2 & 0\\ 0 & 0 & 0 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\overrightarrow{0}\right\}\)

tendrás que llegar a la conclusión de que la base del autoespacio está formada por vectores proporcionales a

\(\overrightarrow{x}_{1}=\left[\begin{array}{c} 0\\ 0\\ 1 \end{array}\right]\)

entonces, \(S_{\lambda=5}=\left\{ \overrightarrow{x}_{2}\in\mathbb{R}^{3}\::\:\left[\begin{array}{ccc} -3 & 3 & 0\\ 3 & -3 & 0\\ 0 & 0 & -1 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\overrightarrow{0}\right\}\)

la base del autoespacio será \(\overrightarrow{x}_{2}=\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]\), finalmente

\(S_{\lambda=-1}=\left\{ \overrightarrow{x}_{3}\in\mathbb{R}^{3}\::\:\left[\begin{array}{ccc} 3 & 3 & 0\\ 3 & 3 & 0\\ 0 & 0 & 3 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\overrightarrow{0}\right\}\) tendrás que llegar a la conclusión de que la base del autoespacio está formada por vectores proporcionales a \(\overrightarrow{x}_{3}=\left[\begin{array}{c} 1\\ -1\\ 0 \end{array}\right]\)

Ahora bien, una matriz \(\mathbf{P}\) sería \(\left[\begin{array}{ccc} 0 & 1 & 1\\ 0 & 1 & -1\\ 1 & 0 & 0 \end{array}\right]\).

Si te das cuenta, los vectores que conforman esta matriz son ortogonales (tal y como promete la propiedad de las matrices simétricas), es decir, \(\overrightarrow{x}_{1}^{t}\overrightarrow{x}_{2}=0,\overrightarrow{x}_{1}^{t}\overrightarrow{x}_{3}=0,\overrightarrow{x}_{2}^{t}\overrightarrow{x}_{3}=0)\) pero no ortonormales (la norma de cada vector columna no es 1). Para hacerlos ortonormales, debemos dividir cada columna por la norma de su vector. Obtendremos, finalmente, \(\mathbf{P}=\left[\begin{array}{ccc} 0 & 1/\sqrt{2} & 1/\sqrt{2}\\ 0 & 1/\sqrt{2} & -1/\sqrt{2}\\ 1 & 0 & 0 \end{array}\right]\).

¿Por qué nos preocupa tanto conseguir que sean ortonormales? Muy sencillo, podemos reescribir: \[ \mathbf{\mathrm{\mathbf{A}=\left[\begin{array}{ccc} 2 & 3 & 0\\ 3 & 2 & 0\\ 0 & 0 & 4 \end{array}\right]=\left[\begin{array}{ccc} 0 & 1/\sqrt{2} & 1/\sqrt{2}\\ 0 & 1/\sqrt{2} & -1/\sqrt{2}\\ 1 & 0 & 0 \end{array}\right]\left[\begin{array}{ccc} 4 & 0 & 0\\ 0 & 5 & 0\\ 0 & 0 & -1 \end{array}\right]\left[\begin{array}{ccc} 0 & 1/\sqrt{2} & 1/\sqrt{2}\\ 0 & 1/\sqrt{2} & -1/\sqrt{2}\\ 1 & 0 & 0 \end{array}\right]^{-1}}} \]

Pero nota que, al ser \(\mathbf{P}\) una matriz ortogonal (esto es un poco trabalenguas, pero las matrices ortogonales están compuestas por vectores ortonormales), se cumple que \(\mathbf{P}^{-1}=\mathbf{P}^{t}\). Es decir, \[ \mathbf{\mathrm{\mathbf{A}=\left[\begin{array}{ccc} 2 & 3 & 0\\ 3 & 2 & 0\\ 0 & 0 & 4 \end{array}\right]=\left[\begin{array}{ccc} 0 & 1/\sqrt{2} & 1/\sqrt{2}\\ 0 & 1/\sqrt{2} & -1/\sqrt{2}\\ 1 & 0 & 0 \end{array}\right]\left[\begin{array}{ccc} 4 & 0 & 0\\ 0 & 5 & 0\\ 0 & 0 & -1 \end{array}\right]\left[\begin{array}{ccc} 0 & 0 & 1\\ 1/\sqrt{2} & 1/\sqrt{2} & 0\\ 1/\sqrt{2} & -1/\sqrt{2} & 0 \end{array}\right]}} \]

Ejemplo 2

Veamos esta otra matriz simétrica, que pretendemos diagonalizarla ortonormalmente

\[ \mathbf{\mathrm{\mathbf{A}=\left[\begin{array}{ccc} 2 & 2 & -2\\ 2 & -1 & 4\\ -2 & 4 & -1 \end{array}\right]}} \]

  1. La ecuación característica es \(-\lambda^{3}+27\lambda-54=0\)

  2. De este polinomio, obtenemos el espectro \(\sigma(\mathbf{A})=\left\{ 3,3,-6\right\}\) Nota que uno de los autovalores tiene multiplicidad algebráica 2 (el autovalor

  1. Entonces, los 2 autovectores asociados a ese autovalor no van a ser ortogonales.
  1. Obtenemos los distintos autoespacios

\(S_{\lambda=-6}=\left\{ \overrightarrow{x}_{1}\in\mathbb{R}^{3}\::\:\left[\begin{array}{ccc} 8 & 2 & -2\\ 2 & 5 & 4\\ -2 & 4 & 5 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\overrightarrow{0}\right\}\) tendrás que llegar a la conclusión de que la base del autoespacio está formada por vectores proporcionales a \(\overrightarrow{x}_{1}=\left[\begin{array}{c} 1\\ -2\\ 2 \end{array}\right]\)

\(S_{3}=\left\{ \overrightarrow{x}_{2},\overrightarrow{x}_{3}\in\mathbb{R}^{3}\::\:\left[\begin{array}{ccc} -1 & 2 & -2\\ 2 & -4 & 4\\ -2 & 4 & -4 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\overrightarrow{0}\right\}\) tendrás que llegar a la conclusión de que la base del autoespacio está formada por vectores con estas paramétricas \(\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=x_{2}\left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right]+x_{3}\left[\begin{array}{c} -2\\ 0\\ 1 \end{array}\right]\), por lo que una base del autoespacio será \(\left\{ \left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -2\\ 0\\ 1 \end{array}\right]\right\}\).

  1. Ahora bien, una matriz \(\mathbf{P}\) sería \(\left[\begin{array}{ccc} 1 & 2 & -2\\ -2 & 1 & 0\\ 2 & 0 & 1 \end{array}\right]\). Si te das cuenta, los vectores que conforman esta matriz no son ortogonales. (puesto que \(\left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -2\\ 0\\ 1 \end{array}\right]\) no lo son). Sin embargo, por la propiedad anterior, \(\left[\begin{array}{c} 1\\ -2\\ 2 \end{array}\right]\) sí que lo es con respecto a los autovectores del autoespacio \(S_{\lambda=3}\). La matriz \(\mathbf{A}\) quedaría perfectamente diagonalizada. Pero…

  2. … queremos obtener una base ortonormal. Para ello, tenemos que buscar unos vectores de la base del autoespacio \(S_{\lambda=3}\) que sean ortogonales. Eso ya lo sabes hacer, puesto que lo has entrenado en los capítulos anteriores

Buscamos dos vectores ortogonales que pertenezcan al subespacio. De las ecuaciones paramétricas \(\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=x_{2}\left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right]+x_{3}\left[\begin{array}{c} -2\\ 0\\ 1 \end{array}\right]\)

Podemos pasar a cartesianas \(x_{1}=2x_{2}-2x_{3}.\) Como se trata de la ecuación de un plano, \[ x_{1}-2x_{2}+2x_{3}=0, \]

los vectores que pertenecen al plano han de ser, a su vez, perpendiculares al vector normal, \(\overrightarrow{n}=\left[\begin{array}{c} 1\\ -2\\ 2 \end{array}\right]\). Buscamos, por tanto, un vector \(\overrightarrow{w}\) que sea perpendicular al vector normal y, a su vez, a cualquiera de los vectores de la base (por ejemplo, elegimos \(\left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right])\). De esta forma, queremos resolver: \[ \begin{cases} \overrightarrow{w}^{t}\overrightarrow{n}=0\\ \overrightarrow{w}^{t}\left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right]=0 \end{cases} \]

De donde obtenemos \[ w_{1}-2w_{2}+2w_{3}=0 \]

\[ 2w_{1}+w_{2}=0 \]

De lo que obtenemos \[ w_{2}=-2w_{1} \]

\[ w_{1}+4w_{1}+2w_{3}=0\Rightarrow w_{3}=-\frac{5}{2}w_{1} \]

Entonces, \[ \overrightarrow{w}=\left[\begin{array}{c} 1\\ -2\\ -5/2 \end{array}\right] \]

ya tenemos una nueva base de autovectores, asociados al autovalor \(\lambda=3\), que-además- son perpendiculares:

\[ \left[\begin{array}{c} 2\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} 1\\ -2\\ -5/2 \end{array}\right] \].

Nuestra nueva matriz \(\mathbf{P}\) será \(\left[\begin{array}{ccc} 1 & 2 & 1\\ -2 & 1 & -2\\ 2 & 0 & -5/2 \end{array}\right]\).

(Si lo necesitaras, dividiendo los elementos de cada columna por su norma, tendríaas una base ortonormal y, por tanto, la matriz ser?a ortogonal).

Más propiedades de interés de la diagonalización que debes conocer

Estas propiedades son aplicables a cualquier matriz

  • El determinante de una matriz es igual al producto de los autovalores: \(\left|\mathbf{A}\right|=\lambda_{1}\lambda_{2}...\lambda_{n}\)
  • La traza de una matriz es igual a la suma de los autovalores: \(tr(\mathbf{A})=\lambda_{1}+\lambda_{2}+...+\lambda_{n}\)
  • Si en una matriz todas sus filas suman lo mismo, un autovalor es dicha suma y un autovector es el vector de unos.
  • El resultado de \(\mathbf{A}^{k}\overrightarrow{x}=\lambda^{k}\overrightarrow{x}\)
  • Si \(\overrightarrow{w}=\alpha_{1}\overrightarrow{x}_{1}+\alpha_{2}\overrightarrow{x}_{2}+...+\alpha_{n}\overrightarrow{x}_{n}\), entonces, \(\mathbf{A}^{k}\overrightarrow{w}=\alpha_{1}\lambda_{1}^{k}\overrightarrow{x_{1}}+...+\alpha_{n}\lambda_{n}^{k}\overrightarrow{x_{n}}\)

Ejercicio 1 Intenta probar las propiedades que se han enunciado. Para ello, debes saber que \(tr(\mathbf{A}\mathbf{B}\mathbf{C})=tr(\mathbf{C}\mathbf{A}\mathbf{B})=tr(\mathbf{B}\mathbf{C}\mathbf{A})\)

Ejercicio 2 Prueba que el polinomio característico de una matriz \(2\times2\) puede escribirse como}

\[ P(\lambda)=\lambda^{2}-tr(\mathbf{A})\lambda+det(\mathbf{A}) \]

Si definimos la matriz \(A=\left[\begin{array}{cc} a & b\\ c & d \end{array}\right]\) ,el polinomio característico será \(P(\lambda)=\left(a-\lambda\right)(d-\lambda)-cb=ad-a\lambda-d\lambda+\lambda^{2}-cb.\) Reorganizando términos (y sabiendo que \(tr(\mathbf{A})=a+d\) , se puede ver inmediatamente.

Ejercicios resueltos de Examen

Considere los vectores \[ \overrightarrow{v}_{1}=\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right],\overrightarrow{v}_{2}=\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right],\overrightarrow{v}_{3}=\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right] \]

y se sabe que \(\mathbf{A}\overrightarrow{v}_{1}=2\overrightarrow{v}_{1},\mathbf{A}\overrightarrow{v}_{2}=\overrightarrow{v}_{2},\mathbf{A}\overrightarrow{v}_{3}=\overrightarrow{v}_{3}\), donde \(\mathbf{A}\) es una matriz de orden \(3\times3\)

  1. Halle todas las soluciones del sistema \(\mathbf{A}\overrightarrow{x}=\overrightarrow{0}\)

sol Nota que nos piden las soluciones del sistema homogéneo, pero que no conocemos \(\mathbf{A}\). Sin embargo, con la información que tenemos, somos capaces de resolver el sistema. Para ello, recuerda que un sistema homogéneo siempre es compatible (será determinado si la única solución es \(\overrightarrow{x}=\overrightarrow{0}\) y será indeterminado si tiene un conjunto de soluciones infinitas). Nunca será incompatible, por tanto. Como la matriz \(\mathbf{A}\) es cuadrada, podemos analizar el tipo de sistema usando el determinante de esta. ¿De dónde sacamos el determinante? De la propiedad de que el determinante de una matriz es igual al producto de sus autovalores. Del enunciado, sabemos que $()={ 2,1,1} $ y, por tanto, \(\left|\mathbf{A}\right|=2\times1\times1=2\). Como el determinante es distinto de cero, el sistema es compatible determinado y la única solución es \(\overrightarrow{x}=\overrightarrow{0}\).

  1. Halle unas ecuaciones cartesianas para el autoespacio asociado al autovalor doble

sol Tenemos que una base del autoespacio es \(B_{S_{\lambda=1}}=\left\{ \left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right],\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]\right\}\), por lo que unas ecuaciones paramétricas serán \(\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\alpha_{1}\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\alpha_{2}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]\). De aquí, obtenemos que \(x_{2}=2x_{1}\)

  1. Razone, sin hallar la matriz \(\mathbf{A}\), si es simétrica. ¿Es \(\mathbf{A}\) diagonalizable?

sol Para saber si es simétrica, podemos analizar si los autovectores asociados a autovalores distintos son ortogonales. En este caso, si \(\overrightarrow{v}_{1}^{t}\overrightarrow{v}_{2}=0\), y si \(\overrightarrow{v}_{1}^{t}\overrightarrow{v}_{3}=0\). Resulta que \(\overrightarrow{v}_{1}^{t}\overrightarrow{v}_{2}=3\), por lo que no es simétrica. Será diagonalizable, sin embargo, si las multiplicidades algebráica y geométrica coinciden. Para ello, debemos ver qué ocurre con los autovectores del autovalor doble. Como vemos, \(\left\{ \left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right],\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]\right\}\) es un conjunto de vectores linealmente independiente (es una base) y, por tanto, la multiplicidad geométrica también es 2. La matriz es diagonalizable aunque no simétrica.

  1. Demuestre que \(B=\left\{ \overrightarrow{v}_{1},\overrightarrow{v}_{2},\overrightarrow{v}_{3}\right\}\) es una base de \(\mathbb{R}^{3}\) y halle las coordenadas del vector \(\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right]\) respecto de la base

sol Es fácil ver que \(B=\left\{ \left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right],\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]\right\}\) es una base de \(\mathbb{R}^{3}\). No olvidemos que para ello, necesitamos tener tres vectores linelamente independientes y estos lo son (puedes argumentar que, al estar compuesta por los autovectores de la matriz y haber probado anteriormente que esta es diagonalizable, entonces los autovectores son linealmente independientes. Si todavía te quedan dudas, puedes hacer el determinante de la matriz que conformas con estos vectores dispuestos en columnas y obtener que es distinto de cero. Nos piden, además, \(a,b,c\) tales que \[ a\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]+b\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+c\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]=\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \] es decir, resolver el sistema \[ \left[\begin{array}{ccc} 1 & 1 & 0\\ 1 & 2 & 0\\ 0 & 0 & 2 \end{array}\right]\left[\begin{array}{c} a\\ b\\ c \end{array}\right]=\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right], \] de donde escalonando \[ \left[\begin{array}{ccc} 1 & 1 & 0\\ 1 & 2 & 0\\ 0 & 0 & 2 \end{array}\begin{array}{c} 1\\ 0\\ 1 \end{array}\right]E_{21}(-1)\left[\begin{array}{ccc} 1 & 1 & 0\\ 0 & 1 & 0\\ 0 & 0 & 2 \end{array}\begin{array}{c} 1\\ -1\\ 1 \end{array}\right] \] llegamos al sistema equivalente \[ \left[\begin{array}{ccc} 1 & 1 & 0\\ 0 & 1 & 0\\ 0 & 0 & 2 \end{array}\right]\left[\begin{array}{c} a\\ b\\ c \end{array}\right]=\left[\begin{array}{c} 1\\ -1\\ 1 \end{array}\right], \] de tal forma que \(c=1/2,b=-1,a=2.\) Es decir, \[ 2\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]-\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\frac{1}{2}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]=\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \]

  1. Calcule, sin hallar \(\mathbf{A}\), el valor de \(\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right]\)

sol Para ello, usaremos otra propiedad de la diagonalización: \(\mathbf{A}^{k}\overrightarrow{x}=\lambda^{k}\overrightarrow{x}\). Entonces, del resultado anterior

\[ \mathbf{A}^{3}\left(2\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]-\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\frac{1}{2}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]\right)=\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \] operando, \[ 2\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]-\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\frac{1}{2}\mathbf{A}^{3}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]=\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \]

de nuevo, aprovechando la propiedad indicada,

\[ 2\mathbf{2}^{3}\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]-\mathbf{1}^{3}\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\frac{1}{2}\mathbf{1}^{3}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]=\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \]

\[ 16\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]-\left[\begin{array}{c} 1\\ 2\\ 0 \end{array}\right]+\frac{1}{2}\left[\begin{array}{c} 0\\ 0\\ 2 \end{array}\right]=\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \]

\[ \left[\begin{array}{c} 15\\ 15\\ 1 \end{array}\right]=\mathbf{A}^{3}\left[\begin{array}{c} 1\\ 0\\ 1 \end{array}\right] \]

Ejercicio resuelto 2 de examen

Considere la matriz \(\mathbf{A}=\left[\begin{array}{ccccc} 2 & 1 & 1 & 1 & 1\\ 1 & 2 & 1 & 1 & 1\\ 1 & 1 & 2 & 1 & 1\\ 1 & 1 & 1 & 2 & 1\\ 1 & 1 & 1 & 1 & 2 \end{array}\right]\)

  1. ¿Es diagonalizable? Justifique su respuesta:

sol Sí, porque es simétrica.

  1. Encuentre sus cinco autovalores, teniendo en cuenta que \(\mathbf{A-I}\) tiene rango 1 y usando la traza de \(\mathbf{A}\)

sol La traza de \(\mathbf{A}\) es 10, por lo que sabemos que los autovalores han de sumar esa cantidad. Por otro lado, si el rango de \(\mathbf{A-I}\) es 1, nos está hablando del autoespacio asociado a un autovalor 1, ya que \[ S_{\lambda=1}=\left\{ \overrightarrow{x}\in\mathbb{R}^{5},\left(\mathbf{A-I}\right)\overrightarrow{x}=\overrightarrow{0}\right\} \]

Si el rango es 1, eso indica que la solución del sistema homogéneo tendrá \(n-Rango\left(\mathbf{A-I}\right)\) exógenas. En este caso, 4 exógenas. Por lo que la multiplicidad geométrica asociada al autovalor 1 es 4. Entonces, el espectro será: \(\sigma(\mathbf{A})=\{1,1,1,1,\lambda_{5}\}\). El último autovalor lo sacamos de la propiedad de la traza. Entonces, sabemos que \(\lambda_{5}=6\) y, por tanto, \(\sigma(\mathbf{A})=\{1,1,1,1,6\}.\)

  1. Encuentre cinco autovectores de \(\mathbf{A}\) linealmente independientes.

sol Para ello, acudamos a los autoespacios \[ S_{\lambda=1}=\left\{ \overrightarrow{x}\in\mathbb{R}^{5},\left(\mathbf{A-I}\right)\overrightarrow{x}=\overrightarrow{0}\right\} \] es decir, debemos resolver \[ \left[\begin{array}{ccccc} 1 & 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1 & 1 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3}\\ x_{4}\\ x_{5} \end{array}\right]=\left[\begin{array}{c} 0\\ 0\\ 0\\ 0\\ 0 \end{array}\right] \] y, naturalmente, nos queda \[ x_{1}=-x_{2}-x_{3}-x_{4}-x_{5} \] por lo que, entonces, las cartesianas de este autoespacio, serán: \(\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3}\\ x_{4}\\ x_{5} \end{array}\right]=x_{2}\left[\begin{array}{c} -1\\ 1\\ 0\\ 0\\ 0 \end{array}\right]+x_{3}\left[\begin{array}{c} -1\\ 0\\ 1\\ 0\\ 0 \end{array}\right]+x_{4}\left[\begin{array}{c} -1\\ 0\\ 0\\ 1\\ 0 \end{array}\right]+x_{5}\left[\begin{array}{c} -1\\ 0\\ 0\\ 0\\ 1 \end{array}\right]\) dando lugar a una base \[ B_{S_{\lambda=1}}=\left\{ \left[\begin{array}{c} -1\\ 1\\ 0\\ 0\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 1\\ 0\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 0\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 0\\ 0\\ 1 \end{array}\right]\right\} \] y, por otro lado, \[ S_{\lambda=6}=\left\{ \overrightarrow{x}\in\mathbb{R}^{5},\left(\mathbf{A-\mathrm{6}I}\right)\overrightarrow{x}=\overrightarrow{0}\right\} \] es decir, debemos resolver \[ \left[\begin{array}{ccccc} -4 & 1 & 1 & 1 & 1\\ 1 & -4 & 1 & 1 & 1\\ 1 & 1 & -4 & 1 & 1\\ 1 & 1 & 1 & -4 & 1\\ 1 & 1 & 1 & 1 & -4 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3}\\ x_{4}\\ x_{5} \end{array}\right]=\left[\begin{array}{c} 0\\ 0\\ 0\\ 0\\ 0 \end{array}\right] \] Puedes ver, enseguida, que una solución a este sistema es \[ \left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3}\\ x_{4}\\ x_{5} \end{array}\right]=\left[\begin{array}{c} 1\\ 1\\ 1\\ 1\\ 1 \end{array}\right] \] por lo que los cinco autovectores que se nos piden son \(\left[\begin{array}{c} -1\\ 1\\ 0\\ 0\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 1\\ 0\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 0\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 0\\ 0\\ 1 \end{array}\right],\left[\begin{array}{c} 1\\ 1\\ 1\\ 1\\ 1 \end{array}\right]\)

Clase 4: Formas cuadráticas

Una forma cuadrática es una función \(f\::\:\mathfrak{\mathbb{R}}^{n}\rightarrow\mathbb{R}\) que está formada sólo por términos de grado 2. Por ejemplo:

  • En 2 dimensiones \(f(x,y)=ax^{2}+by^{2}+cxy\)
  • En 3 dimensiones, \(f(x,y,z)=ax^{2}+by^{2}+cz^{2}+dxy+eyz+fxz\)

Cualquiera de los parámetros \(a,b,c,d,e,f\) puede valer 0.

¿Por qué se ven en álgebra?

Aunque son funciones, las formas cuadráticas podemos escribirlas en forma matricial. De hecho, vamos a aprender a escribirlas de tal manera que involucre a una matriz simétrica:

\[ \underbrace{\left[\begin{array}{cc} x & y\end{array}\right]}_{\overrightarrow{x}^{t}}\underbrace{\left[\begin{array}{cc} a & c/2\\ c/2 & b \end{array}\right]}_{\mathbf{A}}\underbrace{\left[\begin{array}{c} x\\ y \end{array}\right]}_{\overrightarrow{x}} \]

(comprueba, haciendo el producto matricial, que te sale la función). En tres dimensiones:

\[ \underbrace{\left[\begin{array}{ccc} x & y&z\end{array}\right]}_{\overrightarrow{x}^{t}}\underbrace{\left[\begin{array}{ccc} a & \frac{d}{2} & \frac{f}{2}\\ \frac{d}{2} & b & \frac{e}{2}\\ \frac{f}{2} & \frac{e}{2} & c \end{array}\right]}_{\mathbf{A}}\underbrace{\left[\begin{array}{c} x\\ y\\ z \end{array}\right]}_{\overrightarrow{x}}\]

Por ejemplo, \(f(x,y,z)=5x^{2}+4xy-3xz+10yz+y^{2}-z^{2}\), la escribimos como:

\[ f(x,y,z)=\left[x,y,z\right]\left[\begin{array}{ccc} 5 & 2 & -\frac{3}{2}\\ 2 & 1 & 5\\ -\frac{3}{2} & 5 & -1 \end{array}\right]\left[\begin{array}{c} x\\ y\\ z \end{array}\right] \]

Esta manera de escribir la forma cuadrática involucra a una matriz simétrica. No es la única manera de escribirla, pero si lo haces así, podrás beneficiarte de las propiedades de las matrices simétricas.

Ejercicio resuelto

Escribe matricialmente las siguientes formas cuadráticas

  1. \(Q(x_{1},x_{2},x_{3})=2x_{1}^{2}+2x_{1}x_{2}-2x_{1}x_{3}+4x_{2}^{2}-4x_{2}x_{3}+x_{3}^{2}\)

sol

\[ Q(x_{1},x_{2},x_{3})=\left[\begin{array}{ccc} x_{1} & x_{2} & x_{3}\end{array}\right]\left[\begin{array}{ccc} 2 & 1 & -1\\ 1 & 4 & -2\\ -1 & -2 & 1 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right] \] fíjate que podrías haberla escrito así \[ Q(x_{1},x_{2},x_{3})=\left[\begin{array}{ccc} x_{1} & x_{2} & x_{3}\end{array}\right]\left[\begin{array}{ccc} 2 & 2 & -2\\ 0 & 4 & -4\\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right] \] pero esta no mola, porque la matriz no es simétrica.

  1. \(Q\left(x_{1},x_{2},x_{3}\right)=-x_{1}^{2}-x_{2}^{2}-x_{3}^{2}+2x_{1}x_{2}\) \[ Q(x_{1},x_{2},x_{3})=\left[\begin{array}{ccc} x_{1} & x_{2} & x_{3}\end{array}\right]\left[\begin{array}{ccc} -1 & 1 & 0\\ 1 & -1 & 0\\ 0 & 0 & -1 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right] \]

Ahora bien, uno de los intereses de estas expresiones (que salen, por ejemplo, en Optimización Matemática) es poder saber si el signo de estas será positivo, negativo o no se puede saber: esto se denomina clasificar la forma cuadrática.

¿Cómo se clasifican las formas cuadráticas?

Sea \(f\::\mathbb{R}^{n}\rightarrow\mathbb{R}\) una forma cuadrática, entonces:

  • \(f\) es DEFINIDA POSITIVA : si \(f(x_{1},x_{2},...,x_{n}){\color{red}>0}\) para todo \(\overrightarrow{x}\neq\overrightarrow{0}.\) Ejemplo: \(f(x_{1},x_{2})=3x_{1}^{2}+x_{2}^{2}\)
  • \(f\) es SEMIDEFINIDA POSITIVA : si \(f(x_{1},x_{2},...,x_{n}){\color{red}\geq0}\) para todo \(\overrightarrow{x}\in\mathbb{R}^{n}\) Ejemplo: \(f(x_{1},x_{2})=3x_{1}^{2}\)
  • \(f\) es DEFINIDA NEGATIVA : si \(f(x_{1},x_{2},...,x_{n}){\color{red}<0}\) para todo \(\overrightarrow{x}\neq\overrightarrow{0}.\) Ejemplo: \(f(x_{1},x_{2})=-3x_{1}^{2}-x_{2}^{2}\)
  • \(f\) es SEMIDEFINIDA NEGATIVA : si \(f(x_{1},x_{2},...,x_{n}){\color{red}\leq0}\) para todo \(\overrightarrow{x}\in\mathbb{R}^{n}\) Ejemplo: \(f(x_{1},x_{2})=-x_{2}^{2}\)
  • \(f\) es INDEFINIDA : si no pertenece a ninguna de las clases anteriores. Ejemplo:\(f(x_{1},x_{2})=x_{1}^{2}-x_{2}^{2}\)

El criterio de los autovalores

Con lo que sabemos de diagonalización, podemos enseguida entender lo siguiente, sea la forma cuadrática \[ \overrightarrow{x}^{t}\mathbf{A}\overrightarrow{x} \] Como la matriz \(\mathbf{A}\) es simétrica, entonces es diagonalizable. De hecho, es diagonalizable ortogonalmente, por lo que podemos escribir \[ \mathbf{A}=\mathbf{P}\mathbf{D}\mathbf{P}^{t} \] , donde la matriz \(\mathbf{D}\) contiene los autovalores de esta. Entonces, la forma cuadrática se puede reescribir como:

\[ \overrightarrow{x}^{t}\mathbf{A}\overrightarrow{x}=\left(\mathbf{P}^{t}\overrightarrow{x}\right)^{t}\mathbf{D}\mathbf{P}^{t}\overrightarrow{x} \] si llamamos \(\mathbf{P}^{t}\overrightarrow{x}=\overrightarrow{y}\), tenemos otra manera de escribir la forma cuadrática

\[ \overrightarrow{y}^{t}\mathbf{D}\overrightarrow{y} \]

que se denomina “forma reducida” puesto que toda la información que necesitamos está contenida en la matriz diagonal \(\mathbf{D}.\)


Ejemplo:

escribe la forma reducida de la forma cuadrática \[ f(x_{1},x_{2})=3x_{1}^{2}+3x_{2}^{2}+4x_{1}x_{2} \]

Por un lado, \[ \overrightarrow{x}^{t}\mathbf{\mathrm{\left[\begin{array}{cc} 3 & 2\\ 2 & 3 \end{array}\right]}}\overrightarrow{x} \]

De esta matriz, sabemos que sus autovalores son \(\lambda_{1}=5\) y \(\lambda_{2}=1\). La forma reducida será:

\[ \overrightarrow{y}^{t}\mathbf{D}\overrightarrow{y}=\overrightarrow{y}^{t}\left[\begin{array}{cc} 5 & 0\\ 0 & 1 \end{array}\right]\overrightarrow{y}=5y_{1}^{2}+y_{2}^{2} \]

Como ves, es definida positiva. La forma reducida nos permite analizar enseguida el signo de esta-


Atendiendo a los autovalores de la matriz \(\mathbf{A}\), tenemos que

  • \(f\) es DEFINIDA POSITIVA : si todos sus autovalores son estrictamente positivos
  • \(f\) es SEMIDEFINIDA POSITIVA : si todos sus autovalores son mayores o iguales a cero
  • \(f\) es DEFINIDA NEGATIVA : si todos sus autovalores son estrictamente negativos
  • \(f\) es SEMIDEFINIDA NEGATIVA : si todos sus autovalores son negativos o iguales a cero
  • \(f\) es INDEFINIDA : si tiene autovalores positivos o negativos

Importante: de la forma reducida, también podemos obtener otra manera de escribir la forma cuadrática basada en suma de cuadrados. Esto consiste en buscar \(y_{1},y_{2}\) a través de \[ \overrightarrow{y}\mathbf{=P}^{t}\overrightarrow{x} \] esto es, tenemos que buscar la base de autovectores ortonormal.


En el ejemplo anterior, buscamos en el autoespacio \[ S_{\lambda=5}=\left\{ \overrightarrow{x}\in\mathbb{R}^{2}:\mathbf{\mathrm{\left[\begin{array}{cc} -2 & 2\\ 2 & -2 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2} \end{array}\right]=\left[\begin{array}{c} 0\\ 0 \end{array}\right]}}\right\} \] encontramos que una base es, fácilmente \(B_{\lambda=5}=\left\{ \left[\begin{array}{c} 1\\ 1 \end{array}\right]\right\}\)- Como necesitamos que tenga norma 1, entonces \(B_{\lambda=5}=\left\{ \left[\begin{array}{c} 1/\sqrt{2}\\ 1/\sqrt{2} \end{array}\right]\right\}\). Por otro lado, \[ S_{\lambda=1}=\left\{ \overrightarrow{x}\in\mathbb{R}^{2}:\mathbf{\mathrm{\left[\begin{array}{cc} 2 & 2\\ 2 & 2 \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2} \end{array}\right]=\left[\begin{array}{c} 0\\ 0 \end{array}\right]}}\right\} \] encontramos que una base es, fácilmente \(B_{\lambda=1}=\left\{ \left[\begin{array}{c} 1\\ -1 \end{array}\right]\right\}\). Como necesitamos que tenga norma 1, entonces \(B_{\lambda=1}=\left\{ \left[\begin{array}{c} 1/\sqrt{2}\\ -1/\sqrt{2} \end{array}\right]\right\}\). Entonces, \[ \overrightarrow{y}\mathbf{=P}^{t}\overrightarrow{x}=\left[\begin{array}{cc} 1/\sqrt{2} & 1/\sqrt{2}\\ 1/\sqrt{2} & -1/\sqrt{2} \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2} \end{array}\right]=\left[\begin{array}{c} \frac{x_{1}+x_{2}}{\sqrt{2}}\\ \frac{x_{1}-x_{2}}{\sqrt{2}} \end{array}\right] \] con lo que \[ \overrightarrow{y}^{t}\mathbf{D}\overrightarrow{y}=\left[\begin{array}{cc} \frac{x_{1}+x_{2}}{\sqrt{2}} & \frac{x_{1}-x_{2}}{\sqrt{2}}\end{array}\right]\left[\begin{array}{cc} 5 & 0\\ 0 & 1 \end{array}\right]\left[\begin{array}{c} \frac{x_{1}+x_{2}}{\sqrt{2}}\\ \frac{x_{1}-x_{2}}{\sqrt{2}} \end{array}\right]=\frac{5}{2}\left(x_{1}+x_{2}\right)^{2}+\frac{1}{2}\left(x_{1}-x_{2}\right)^{2} \]

Puedes comprobar que, haciendo las cuentas, obtienes la forma cuadrática original.


El criterio de Sylverster

Otro criterio es el de Sylvester. Para ello, tenemos que definir los menores principales de una matriz. Por ejemplo, en la matriz

\[ A=\left[\begin{array}{ccccc} a_{\text{11}} & a_{12} & a_{13} & ... & a_{14}\\ a_{21} & a_{22} & a_{23} & ... & a_{24}\\ a_{31} & a_{32} & a_{33} & ... & a_{34}\\ ... & ... & ... & ... & ...\\ a_{n1} & a_{n2} & a_{n3} & ... & a_{nn} \end{array}\right] \]

Los menores principales son:

\(D_{1}=a_{11}\)

\(D_{2}=\left|\begin{array}{cc} a_{11} & a_{12}\\ a_{21} & a_{22} \end{array}\right|\)

\(D_{3}=\left|\begin{array}{ccc} a_{\text{11}} & a_{12} & a_{13}\\ a_{21} & a_{22} & a_{23}\\ a_{31} & a_{32} & a_{33} \end{array}\right|\)

\(D_{n}=\left|A\right|\)

Diremos que:

  • \(f\) es DEFINIDA POSITIVA : si todos los menores principales son POSITIVOS, esto es \(D_1>0\),\(D_2>0\),….,\(D_n>0\).
  • \(f\) es DEFINIDA NEGATIVA : si los menores principales alternan signo empezando por negativo (NEGATIVO, POSITIVO, NEGATIVO, ….), esto es, \(D_1<0\), \(D_2>0\), \(D_3<0\),….,\((-1)^nD_n<0\).
  • \(f\) es SEMIDEFINIDA POSITIVA : si todos los menores principales son POSITIVOS (\(D_1>0\),\(D_2>0\),….,\(D_{n-1}>0\).), pero el determinante es cero (\(D_{n}=0)\)
  • \(f\) es SEMIDEFINIDA NEGATIVA : si los menores principales alternan signo empezando por negativo (NEGATIVO, POSITIVO, NEGATIVO, ….), (\(D_1<0\), \(D_2>0\), \(D_3<0\),….,\((-1)^{n-1}D_{n-1}<0\).) pero el determinante es cero (\(D_{n}=0)\)
  • \(f\) es INDEFINIDA : cualquier caso contrario a estos (es decir, te sale un menor negativo cuando no debería).

Ojo Si algún menor, que no sea el determinante, te sale 0, podría no ser concluyente y sería mejor utilizar el criterio de los autovalores.

Ejercicio completo

Sea la matriz \[ \mathbf{A}=\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & a & -1\\ 1 & -1 & 1 \end{array}\right) \]

  1. Halla el conjunto de valores de \(a\) para los cuales es diagonalizable

sol Para cualquier \(a\in\mathbb{R}\), puesto que la matriz \(\mathbf{A}\) es simétrica.

  1. Clasifica la forma cuadrática asociada a la matriz \(\mathbf{A}\) en función del parámetro \(a\)

sol Podemos hacerlo mediante el cálculo de los menores principales, que llamaremos \(D_{i}\). Entonces, \[ D_{1}=a_{11}=1 \]

\[ D_{2}=\left|\begin{array}{cc} 1 & -1\\ -1 & a \end{array}\right|=a-1 \]

Y, por otro lado, \(D_{3}\), que es el determinante de la matriz (y que sabemos que es \(0\), porque la primera y tercera fila son iguales). Por lo tanto, sabemos que si \(D_{2}>0\), entonces será semidefinida positiva (puesto que el primer menor sería positivo, el segundo también y el determinante sería nulo). En cualquier otro caso, sería indefinida. Para que \(D_{2}>0\Rightarrow a>1\)

  1. Escribe la forma cuadrática asociada a la matriz \(A\)

sol La forma cuadrática consiste en \[ \left[\begin{array}{ccc} x & y & z\end{array}\right]\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & a & -1\\ 1 & -1 & 1 \end{array}\right)\left[\begin{array}{c} x\\ y\\ z \end{array}\right] \] pero este producto es muy fácil de hacer sin necesidad de ir paso a paso. Recuerda que los elementos de la diagonal principal son los coeficientes de los cuadrados de las variables: \[ x^{2}-ay^{2}+z^{2} \] y, por otro lado, los elementos cruzados hay que multiplicarlos por 2. Entonces, \[ -2xy+2xz-2yz \] Por lo que: \[ \left[\begin{array}{ccc} x & y & z\end{array}\right]\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & a & -1\\ 1 & -1 & 1 \end{array}\right)\left[\begin{array}{c} x\\ y\\ z \end{array}\right]=x^{2}-ay^{2}+z^{2}-2xy+2xz-2yz \]

  1. Halla la expresión reducida (o como suma/diferencia de cuadrados) para la forma cuadrática con matriz \(\mathbf{A}\) y dado que \(a=1.\)

Aquí nos piden que aprovechemos las propiedades de las matrices simétricas (toda forma cuadr?tica se puede escribir mediante una matriz simétrica, como te hemos contado). Lo que necesitaremos es escribir \(\mathbf{A}=\mathbf{PD}\mathbf{P}^{t}\) donde \(\mathbf{P}\) tiene que estar compuesto de vectores ortogonales y con norma 1. Vamos a ello:

Busquemos los autovalores de la matriz \(\mathbf{A}=\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & 1 & -1\\ 1 & -1 & 1 \end{array}\right)\). El determinante es cero, por lo que-al menos- un autovalor tiene que ser 0 (ya que el determinante de \(\mathbf{A}\) es igual al producto de sus autovalores). Podemos averiguar la multiplicidad algebráica del autovalor 0. Para ello, lo hacemos vía la multiplicidad geométrica. Como la matriz sim?trica siempre es diagonalizable, ambas multiplicidades han de coincidir. Deberemos fijarnos en el rango de \(\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & 1 & -1\\ 1 & -1 & 1 \end{array}\right)-0\mathbf{I}\), es decir, el rango de \(\mathbf{A}\). Como sólo tiene una fila linealmente independiente (es fácil de ver: si no, escalona la matriz) el rango es 1, y la dimensión del autoespacio será 2. Esto implica que la multiplicidad algebráica deberá ser 2 y, por tanto, los autovalores de la matriz serán:

\[ \sigma(\mathbf{A})=\left\{ 0,0,3\right\} . \]

Ya sabemos que los autovectores asociados al autovalor \(0\) y al autovalor \(3\) ser?n perpendiculares. Trabajemos ahora en obtener la matriz \(\mathbf{P}.\) \[ S_{\lambda=0}=\left\{ \overrightarrow{x}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} 1 & -1 & 1\\ -1 & 1 & -1\\ 1 & -1 & 1 \end{array}\right)\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\left[\begin{array}{c} 0\\ 0\\ 0 \end{array}\right]\right\} \] de tal forma, que la solución es \[ x_{1}=x_{2}-x_{3} \] y una base de autovectores será:

\[ B_{\lambda=0}=\left\{ \left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 0\\ 1 \end{array}\right]\right\} \] no olvides que necesitaremos que la matriz \(\mathbf{P}\) contenga vectores ortogonales (producto escalar 0) con norma 1. Y los autovectores asociados al mismo autovalor no tienen por qué ser ortogonales. Este es el caso: debemos ortogonalizarlos. Para ello, deberemos buscar vectores que cumplan:

\[ \begin{cases} x_{1}=x_{2}-x_{3}\\ \left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]\cdot\left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right]=0\Rightarrow & x_{1}+x_{2}=0 \end{cases} \]

(es decir, todos los vectores del subespacio deben cumplir con la ecuación cartesiana y, elegimos un vector que ya está en el subespacio y buscamos otro que sea perpendicular al elegido). Resolvemos el sistema \[ \begin{cases} x_{1}-x_{2}+x_{3}=0\\ x_{1}+x_{2}=0 \end{cases} \] haciendo \(x_{3}=\lambda\), tenemos que \[ \begin{cases} x_{1}-x_{2}=-\lambda\\ x_{1}+x_{2}=0 \end{cases} \] por lo que \[ 2x_{1}=-\lambda\Rightarrow x_{1}=-\lambda/2 \]

Entonces, \(x_{2}=\lambda/2\). Una solución es, por tanto, \[ \left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\left[\begin{array}{c} -1\\ 1\\ 2 \end{array}\right] \] que cumple con las condiciones. Entonces, \[ B_{\lambda=0}=\left\{ \left[\begin{array}{c} 1\\ 1\\ 0 \end{array}\right],\left[\begin{array}{c} -1\\ 1\\ 2 \end{array}\right]\right\} \] y, si la normalizamos, tenemos que \[ B_{\lambda=0}=\left\{ \left[\begin{array}{c} \frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}}\\ 0 \end{array}\right],\left[\begin{array}{c} \frac{-1}{\sqrt{6}}\\ \frac{1}{\sqrt{6}}\\ \frac{2}{\sqrt{6}} \end{array}\right]\right\} \] y ya son vectores perpendiculares y con norma 1. Ahora nos queda el otro vector (asociado al autovalor \(\lambda=3).\) De este vector ya sabemos que va a ser perpendicular a los otros dos calculados. Bien! S?lo tenemos que conseguir que tenga norma 1.

\[ S_{\lambda=3}=\left\{ \overrightarrow{x}\in\mathbb{R}^{3}:\left(\begin{array}{ccc} -2 & -1 & 1\\ -1 & -2 & -1\\ 1 & -1 & -2 \end{array}\right)\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\left[\begin{array}{c} 0\\ 0\\ 0 \end{array}\right]\right\} \] puedes escalonar la matriz, de tal forma que

\(\left(\begin{array}{ccc} -2 & -1 & 1\\ -1 & -2 & -1\\ 1 & -1 & -2 \end{array}\right)\rightarrow\left(\begin{array}{ccc} 1 & -1 & -2\\ -1 & -2 & -1\\ -2 & -1 & 1 \end{array}\right)\rightarrow\left(\begin{array}{ccc} 1 & -1 & -2\\ 0 & -3 & -3\\ -2 & -1 & 1 \end{array}\right)\rightarrow\left(\begin{array}{ccc} 1 & -1 & -2\\ 0 & -3 & -3\\ 0 & -3 & -3 \end{array}\right)\) Por lo que del sistema

\(\left(\begin{array}{ccc} -2 & -1 & 1\\ 0 & -3 & -3 \end{array}\right)\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]=\left[\begin{array}{c} 0\\ 0\\ 0 \end{array}\right]\) tenemos que \[ x_{2}=-x_{3} \] \[ -2x_{1}=-2x_{3}\Rightarrow x_{1}=x_{3} \] entonces, \[ B_{\lambda=3}=\left\{ \left[\begin{array}{c} 1\\ -1\\ 1 \end{array}\right]\right\} \] que es ortogonal a los dos autovectores calculados antriormente y que, para que tenga norma 1, tenemos que

\[ B_{\lambda=3}=\left\{ \left[\begin{array}{c} \frac{1}{\sqrt{3}}\\ \frac{-1}{\sqrt{3}}\\ \frac{1}{\sqrt{3}} \end{array}\right]\right\} \] finalmente, ya tenemos la matriz \(\mathbf{P}\): \[ P=\left[\begin{array}{ccc} \frac{1}{\sqrt{2}} & \frac{-1}{\sqrt{6}} & \frac{1}{\sqrt{3}}\\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{6}} & \frac{-1}{\sqrt{3}}\\ 0 & \frac{2}{\sqrt{6}} & \frac{1}{\sqrt{3}} \end{array}\right] \] y, finalmente, la forma cuadr?tica se puede escribir como \[ \left(\mathbf{P}^{t}\overrightarrow{x}\right)^{t}\mathbf{D}\mathbf{P}^{t}\overrightarrow{x} \] que, a su vez, \[ \left(\mathbf{P}^{t}\overrightarrow{x}\right)^{t}\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 3 \end{array}\right)\mathbf{P}^{t}\overrightarrow{x} \] donde \[ \left(\left[\begin{array}{ccc} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} & 0\\ \frac{-1}{\sqrt{6}} & \frac{1}{\sqrt{6}} & \frac{2}{\sqrt{6}}\\ \frac{1}{\sqrt{3}} & \frac{-1}{\sqrt{3}} & \frac{1}{\sqrt{3}} \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]\right)^{t}\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 3 \end{array}\right)\left[\begin{array}{ccc} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} & 0\\ \frac{-1}{\sqrt{6}} & \frac{1}{\sqrt{6}} & \frac{2}{\sqrt{6}}\\ \frac{1}{\sqrt{3}} & \frac{-1}{\sqrt{3}} & \frac{1}{\sqrt{3}} \end{array}\right]\left[\begin{array}{c} x_{1}\\ x_{2}\\ x_{3} \end{array}\right]= \]

\[ \left(\left[\begin{array}{c} \frac{x_{1}+x_{2}}{\sqrt{2}}\\ \frac{-x_{1}+x_{2}+2x_{3}}{\sqrt{6}}\\ \frac{x_{1}-x_{2}+x_{3}}{\sqrt{3}} \end{array}\right]\right)^{t}\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 3 \end{array}\right)\left[\begin{array}{c} \frac{x_{1}+x_{2}}{\sqrt{2}}\\ \frac{-x_{1}+x_{2}+2x_{3}}{\sqrt{6}}\\ \frac{x_{1}-x_{2}+x_{3}}{\sqrt{3}} \end{array}\right]= \]

\[ \left[\begin{array}{ccc} \frac{x_{1}+x_{2}}{\sqrt{2}} & \frac{-x_{1}+x_{2}+2x_{3}}{\sqrt{6}} & \frac{x_{1}-x_{2}+x_{3}}{\sqrt{3}}\end{array}\right]\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 3 \end{array}\right)\left[\begin{array}{c} \frac{x_{1}+x_{2}}{\sqrt{2}}\\ \frac{-x_{1}+x_{2}+2x_{3}}{\sqrt{6}}\\ \frac{x_{1}-x_{2}+x_{3}}{\sqrt{3}} \end{array}\right]=\left(x_{1}-x_{2}+x_{3}\right)^{2} \]