Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Tema 1: Matrices
1.1.1 Matrices.
1.1.2 Operaciones con matrices.
1.1.3 Matriz Traspuesta. Matriz traspuesta conjugada.
1.6. Determinantes.
1.6.1 Determinantes.
1.6.2 Cálculo de determinantes.
1.6.3 Interpretación geométrica del determinante de una matriz.
1.6.4 Algunas aplicaciones de los determinantes.
1
1.1. GENERALIDADES SOBRE MATRICES.
Aunque el uso de tablas para representar datos de características comunes es antiguo, estando
documentado desde la época egipcia y babilónica y también en la matemática china se encuentran
ejemplos de cuadrados mágicos con una antigüedad superior a los dos mil años, el concepto de
matriz como tal no fué introducido hasta mediados del siglo XIX por el matemático inglés James
J. Sylvester. Pero desde entonces, la Teoría de Matrices se ha extendido de forma prodigiosa y
ha encontrado aplicaciones en numerosas áreas. Las matrices se han convertido en herramienta
cotidiana en innumerables campos de la ciencia y de la técnica, desde la Mecánica Cuántica hasta la
Estadística pasando por la Física Atómica, la Economía, la Teoría de Grafos, las Redes Eléctricas,
el Cálculo de Estructuras, la Mecánica de Fluidos, etc. Ello se debe a la gran cantidad de modelos y
aplicaciones de naturaleza lineal que se pueden representar con una matriz. Citemos, por ejemplo,
los sistemas de ecuaciones lineales, las aplicaciones lineales, el producto escalar, las matrices de
rigidez y elasticidad en Cálculo de Estructuras, la matriz jacobiana y la matriz hessiana en Cálculo,
las matrices de incidencia y de adyacencia de un grafo, etc.
Las matrices constituyen una herramienta adecuada para tratar de un modo sistemático compli-
cados cálculos numéricos y algebraicos que deben manejar un gran número de datos, tanto de un
modo simbólico como programando algoritmos en el ordenador. El estudio del problema lineal de
mínimos cuadrados, la reducción de superficies cuádricas o la resolución de sistemas de ecuacio-
nes diferenciales son algunas de las aplicaciones que veremos en la propia asignatura Matemáticas
II donde las matrices juegan un papel fundamental.
1.1.1 Matrices.
En todo el documento K denota indistintamente al conjunto de los números reales R o al de los
números complejos C.
Definición 1. Se llama matriz de tamaño m × n con entradas en K a una colección de mn elementos
de K distribuidos ordenadamente en m filas y en n columnas de la siguiente forma
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. .. . .
..
. . . .
am1 am2 . . . amn
2
Se dice que A es una matriz real si todas sus entradas son números reales. Análogamente, se dice
que A es una matriz compleja si las entradas de A son números complejos. Es evidente que toda
matriz real es también una matriz compleja, pero el recíproco no es cierto.
Ejemplo 3. !
−1 0 1
A= es una matriz real 2 × 3, lo que podemos escribir A = (ai j ) ∈ M2×3 (R), y, por
5 2 −3
ejemplo, la entrada (2, 1) de A es a21 = 5.
1 − 3i −1 2 − i
B = 0 2i 1 + 2i es una matriz compleja 3 × 3, lo que podemos escribir B = (bi j ) ∈
−2 1 + i 0
M3×3 (C), y, por ejemplo, la entrada (3, 2) de B es b32 = 1 + i.
Las matrices C y D siguientes no son iguales, ya que no son matrices del mismo tamaño.
! 2 −1 1/2
2 −1 1/2
C= D = −1 4 1 .
−1 4 1
0 0 0
Las matrices E y F siguientes son iguales si, y sólo si, p = −2 y q = −3.
1 3 −2 1 3 p
E = 2 −2 −1 F = 2 −2 −1 .
0 5 1 0 2−q 1
Definición 4. Una matriz de tamaño 1 × n se llama matriz fila y una matriz de tamaño m × 1 se
llama matriz columna.
Así, dada una matriz A = (ai j ) ∈ Mm×n (K), podemos considerar la matriz 1 × n Ai = (ai1 . . . ain ) a
la que llamaremos matriz fila i-ésima de A, para cada i = 1, 2, . . . , m. También podemos considerar
a1 j
la matriz m × 1 A j = ... a la que llamaremos matriz columna j-ésima de A, para cada
am j
j = 1, 2, . . . , n.
Nótese que una matriz columna m × 1 con entradas en K se puede identificar con un vector de Km .
Teniendo en cuenta estas definiciones, podemos expresar la matriz A de distintas formas según nos
A1
interese A = A1 . . . An , o bien, A = ... .
Am
Definición 5. A la matriz de tamaño m × n que tiene todas sus entradas nulas la llamaremos matriz
nula de tamaño m × n y la denotaremos por Om×n , o simplemente O si no hace falta especificar su
tamaño.
Definición 6. Una matriz de tamaño m × n se dice que es cuadrada si m = n, es decir, si tiene el
mismo número de filas que de columnas.
En una matriz cuadrada A = (ai j ) ∈ Mn×n (K), se llama diagonal principal al conjunto de
entradas {a11 , a22 , . . . , ann }.
3
Definición 7. Una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es triangular superior si
ai j = 0 siempre que i > j, 1 ≤ i, j ≤ n, es decir, si todas las entradas por debajo de la diagonal
principal son nulas.
Análogamente, una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es triangular inferior si
ai j = 0 siempre que i < j, 1 ≤ i, j ≤ n, es decir, si todas las entradas por encima de la diagonal
principal son nulas.
Definición 8. Una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es diagonal si ai j = 0
siempre que i , j, 1 ≤ i, j ≤ n y escribiremos abreviadamente A = diag(a11 , a22 , . . . , ann ).
Observa que una matriz diagonal es también una matriz triangular superior y triangular inferior.
La matriz diagonal más importante es la matriz identidad. Se llama matriz identidad n × n a
la matriz diagonal que tiene todos sus entradas diagonales iguales a 1 y la denotaremos por In×n , o
simplemente I si no hace falta especificar su tamaño.
Ejemplo 9.
1 −3 −1
A = 0 −3 1 es una matriz triangular superior cuya diagonal principal es {1, −3, 4}.
0 0 4
−2 0 0 0
2 −1 0 0
B = es una matriz triangular inferior cuya diagonal principal es {−2, −1, 0, −1}.
1 −1 0 0
3 1 5 −1
1 0 0 !
0 0
I3×3 = 0 1 0 es la matriz identidad 3 × 3 y O2×2 = es la matriz nula 2 × 2. Estas dos
0 0
0 0 1
matrices son diagonales, triangulares superiores y también triangulares inferiores.
Definición 10. Dada una matriz A ∈ Mm×n (K), se llama submatriz de A a toda matriz que se obtiene
eliminando de A ciertas filas y/o columnas.
Dada una matriz A = (ai j ) ∈ Mm×n (K), Ai es una submatriz 1 × n de A, para cada i = 1, 2, . . . , m, y
A j es una submatriz m × 1 de A, para cada j = 1, 2, . . . , n.
Si consideramos matrices cuadradas, dada una matriz A ∈ Mn×n (K), se llama submatriz prin-
cipal de A a toda matriz que se obtiene eliminando de A ciertas filas y las mismas columnas.
! 1 − 3i −1 2 − i
−1 0 1
Ejemplo 11. Consideremos de nuevo las matrices A = y B = 0 2i 1 + 2i
5 2 −3
−2 1 + i 0
del ejemplo 3. Podemos escribir
! ! !
1 2 3 1 −1 2 0 3 1
A = A A A , siendo A = , A = yA =
5 2 −3
o bien, !
A1
A= , siendo A1 = −1 0 1 y A2 = 5 2 −3
A2
4
!
0 1
La matriz P = es una submatriz 2 × 2 de A (que se obtiene eliminando la primera
2 −3
columna) y la matriz Q = 2 es una submatriz 1 × 1 de A (que se obtiene eliminando la fila 1a y
las columnas 1a y 3a ).
! !
1 − 3i −1 1 − 3i 2 − i
Las matrices R = ,S = y T = 2i son submatrices principales
0 2i −2 0
de B y se obtienen eliminando la 3 fila y la 3 columna para la matriz R; la 2a fila y la 2a columna
a a
• Elemento neutro: La matriz nula Om×n es el elemento neutro de la suma de matrices, ya que
A + Om×n = A = Om×n + A, ∀A ∈ Mm×n (K)
• Elemento opuesto: ∀ A = (ai j ) ∈ Mm×n (K) existe −A = (−ai j ) ∈ Mm×n (K) tal que
A + (−A) = Om×n = (−A) + A.
Observa que si A = diag(a11 , a22 , . . . , ann ) y B = diag(b11 , b22 , . . . , bnn ) son dos matrices diagonales,
entonces A + B = diag(a11 + b11 , a22 + b22 , . . . , ann + bnn ) es otra matriz diagonal. Análogamente,
la suma de dos matrices triangulares inferiores es otra matriz triangular inferior. Y la suma de dos
matrices triangulares superiores es otra matriz triangular superior.
5
Definición 14. Dada una matriz A = (ai j ) ∈ Mm×n (K) y un escalar α ∈ K, se define el producto de
α por A como la matriz αA = (αai j ) ∈ Mm×n (K).
3 −1
Ejemplo 15. Si se considera la matriz A = 0 1 ∈ M3×2 (C) y α = 1 − i ∈ C, entonces
−2 2
3 − 3i −1 + i
αA = 0 1 − i ∈ M3×2 (C).
−2 + 2i 2 − 2i
Propiedades.
• Asociativa mixta:
(αβ)A = α(βA), ∀A ∈ Mm×n (K), ∀α, β ∈ K.
∗ Producto de matrices
Para calcular la entrada (i, j) del producto de dos matrices A y B tomaremos la fila i-ésima de A y
la columna j-ésima de B e iremos multiplicando entrada a entrada y sumando (de hecho, cuando
las matrices son reales se trata del producto escalar de los dos vectores (ver tema de espacios
euclídeos)). Por tanto, es necesario que el número de entradas de la fila i-ésima de A y el número de
entradas de la columna j-ésima de B coincidan. Es decir, para poder multiplicar las matrices A y B
necesitamos que el número de columnas de A coincida con el número de filas de B.
Definición 16. Si A = (ai j ) ∈ Mm×n (K) y B = (bi j ) ∈ Mn×p (K), se define el producto de A y B
n
X
como la matriz A · B = (ci j ) ∈ Mm×p (K), siendo ci j = aik bk j = ai1 b1 j + ai2 b2 j + · · · + ain bn j .
k=1
La definición del producto de matrices puede parecer, de momento, artificiosa, pero nos va a per-
mitir escribir un sistema de ecuaciones lineales como el producto de la matriz de coeficientes del
sistema por el vector de incógnitas igual al vector de términos independientes (ver sección 1.4).
6
2 3 −1 1 4
Ejemplo 17. Si consideramos las matrices A = ∈ M2×3 (R) y B = −1 2 ∈
5 7 1
0 6
M3×2 (R), entonces
! !
2 · 1 + 3 · (−1) + (−1) · 0 2 · 4 + 3 · 2 + (−1) · 6 −1 8
A·B= = ∈ M2×2 (R).
5 · 1 + 7 · (−1) + 1 · 0 5·4+7·2+1·6 −2 40
22 31 3
En este caso, también podemos calcular B · A y resulta B · A = 8 11 3 ∈ M3×3 (R).
30 42 6
! !
1 1 1 1
Análogamente, si se consideran las matrices C = yD= , entonces
1 1 −1 −1
! !
0 0 2 2
C·D= = O2×2 y D·C =
0 0 −2 −2
• La matriz identidad es el elemento neutro del producto de matrices, tanto por la izquierda
como por la derecha, aunque hay que considerar la matriz identidad del tamaño adecuado,
es decir,
A · In×n = A y Im×m · A = A, ∀A ∈ Mm×n (K).
Observa que si A = diag(a11 , a22 , . . . , ann ) y B = diag(b11 , b22 , . . . , bnn ) son dos matrices diagonales,
entonces A· B = diag(a11 b11 , a22 b22 , . . . , ann bnn ) es otra matriz diagonal. Análogamente, el producto
de dos matrices triangulares inferiores es otra matriz triangular inferior. Y el producto de dos
matrices triangulares superiores es otra matriz triangular superior.
7
1.1.3 Matriz Traspuesta. Matriz Traspuesta Conjugada.
Definición 19. Sea A = (ai j ) ∈ Mm×n (K).
Se llama matriz traspuesta de A a la matriz AT = (a ji ) ∈ Mn×m (K).
Se llama matriz traspuesta conjugada de A a la matriz A∗ = (a ji ) ∈ Mn×m (K).
Recordemos que si z = x + yi ∈ C, entonces su conjugado es el número complejo z = x − yi.
−3 0 !
T −3 5 −4
Ejemplo 20. Si A = 5 −1 ∈ M3×2 (R), entonces A = ∈ M2×3 (R) y
0 −1 2
−4 2
A∗ = AT . ! ! !
3 + 2i 1 T 3 + 2i −5i ∗ 3 − 2i 5i
Y si B = ∈ M2×2 (C), entonces B = yB = ∈
−5i 1 + 3i 1 1 + 3i 1 1 − 3i
M2×2 (C).
• A es simétrica ⇐⇒ AT = A
• A es antisimétrica ⇐⇒ AT = −A
• A es hermítica ⇐⇒ A∗ = A
• A es antihermítica ⇐⇒ A∗ = −A
Observa que para matrices reales los conceptos de matriz simétrica y matriz hermítica son equi-
valentes, es decir, toda matriz real simétrica es hermítica y toda matriz real hermítica es simétrica.
Esto mismo ocurre con las matrices reales antisimétricas y antihermíticas. En cambio, si las ma-
trices son complejas, los conceptos de matriz simétrica y matriz hermítica, matriz antisimétrica
8
y matriz antihermítica son distintos, ya que existen matrices simétricas que no son hermíticas,
hermíticas no simétricas, etc.
Ejemplo 23. Si consideramos las siguientes matrices
3 1 −4 0 5 −1 !
2 1 − 4i
A = 1 −1 2 , B = −5 0 7 , C= ,
1 + 4i −1
−4 2 5 1 −7 0
! ! !
−3i 5 − i i 1 + 2i 0 −1 − i
D= , E= y F=
−5 − i 0 1 + 2i −6 1+i 0
A es una matriz simétrica (y hermítica), ya que AT = A; B es una matriz antisimétrica (y antiher-
mítica), ya que BT = −B; C es una matriz hermítica, ya que C ∗ = C, y no es simétrica, ya que
C T , C; D es una matriz antihermítica, ya que D∗ = −D, y no es antisimétrica, ya que DT , −D;
E es una matriz simétrica, ya que E T = E, y no es hermítica, ya que E ∗ , E; F es una matriz
antisimétrica, ya que F T = −F, y no es antihermítica, ya que F ∗ , −F.
Observa además que una matriz antisimétrica tiene todas sus entradas diagonales nulas; una
matriz hermítica tiene todas sus entradas diagonales reales; y una matriz antihermítica tiene todas
sus entradas diagonales con parte real nula.
En esta sección vamos a transformar una matriz en su forma escalonada reducida mediante ope-
raciones elementales. Veamos primero qué entendemos por forma escalonada y forma escalonada
reducida.
1.2.1 Matrices en Forma Escalonada Por Filas.
Definición 24. Una matriz A ∈ Mm×n (K) se dice que está en forma escalonada por filas si verifica
las siguientes condiciones:
Diremos que A ∈ Mm×n (K) está en forma escalonada reducida por filas si además de estar en
forma escalonada por filas verifica:
4. la primera entrada no nula de cada fila no nula es la única entrada no nula de su columna.
A los unos que son primeras entradas no nulas de la forma escalonada reducida por filas los llama-
remos unos principales.
9
Ejemplo 25. Considerando las matrices
−1 1 5 0 2 2 1 i
0 1 −2 2 1 0 1 0 2 0 1 −1 1 1 0 −1
A = , B = 0 0 1 −1 , C = y D = 0 0 1 1 ,
0 0 −3 7 0 0 −3 4i
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 −1
A está en forma escalonada por filas pero no en forma escalonada reducida por filas; B y D están
en forma escalonada reducida por filas; y la matriz C no está en forma escalonada por filas, luego
tampoco está en forma escalonada reducida por filas.
1.2.2 Operaciones Elementales y Matrices Elementales.
Para buscar la forma escalonada y la forma escalonada reducida por filas de una matriz utiliza-
remos las operaciones siguientes, que llamaremos operaciones elementales.
Definición 26. Sea A ∈ Mm×n (K).
• Llamaremos operación elemental de tipo I sobre filas a la operación que permuta la fila
i-ésima y la fila j-ésima de A. Escribiremos abreviadamente Fi ↔ F j .
• Llamaremos operación elemental de tipo II sobre filas a la operación que multiplica la fila
i-ésima de A por un escalar α ∈ K − {0}. Escribiremos abreviadamente αFi .
• Llamaremos operación elemental de tipo III sobre filas a la operación que suma a la fila i-
ésima de A, la fila la j-ésima de A multiplicada por α ∈ K−{0}. Escribiremos abreviadamente
Fi + αF j .
Definición 27. Diremos que una matriz E ∈ Mn×n (K) es una matriz elemental si se obtiene al
aplicar una operación elemental sobre la matriz identidad In×n . La matriz elemental será del mismo
tipo que la operación elemental que se haya realizado.
1 0 0
Ejemplo 28. E1 = 0 0 1 es una matriz elemental de tipo I que se obtiene permutando las
0 1 0
filas 2 y 3 de I3×3 .
√ !
2 0 √
E2 = es una matriz elemental de tipo II que se obtiene multiplicando por 2 la fila 1
0 1
de I2×2 .
1 0 0
E3 = 0 1 0 es una matriz elemental de tipo III que se obtiene realizando la operación ele-
0 −3 1
mental de tipo III F3 + (−3)F2 a la matriz I3×3 .
1 0 2
E4 = 0 1 0 es una matriz elemental de tipo III que se obtiene realizando la operación ele-
0 0 1
mental de tipo III F1 + 2F3 a la matriz I3×3 .
Observemos que las matrices elementales de tipo I y las de tipo II son simétricas. Además, las ma-
trices elementales de tipo II son diagonales y las matrices elementales de tipo III son triangulares.
10
Realizar una operación elemental sobre las filas de una matriz A ∈ Mm×n (K) equivale a Premulti-
plicar A por la matriz elemental que resulta de aplicar dicha operación elemental sobre Im×m , como
se pone de manifiesto en el siguiente ejemplo.
a b
Ejemplo 29. Considera A = c d ∈ M3×2 (K) y la operación elemental de tipo III F3 + 2F1 , en-
e f
a b
.
tonces si se realiza esta operación sobre las filas de A se obtiene la matriz B = c d
e + 2a f + 2b
Si realizamos la operación elemental sobre las filas de I3×3 para obtener la matriz elemental E y
multiplicamos E por A se obtiene
1 0 0 a b a b
E · A = 0 1 0 c d = c d .
2 0 1 e f e + 2a f + 2b
Los dos resultados coinciden. Por tanto, es equivalente realizar la operación elemental sobre las
filas de A que premultiplicar A por la matriz elemental correspondiente.
Nota 30. Análogamente, se pueden definir operaciones elementales sobre las columnas de una
matriz A ∈ Mm×n (K) y las correspondientes matrices elementales.
Se puede comprobar que realizar una operación elemental por columnas sobre A equivale a Post-
multiplicar A por la matriz que resulta de aplicar dicha operación elemental sobre las columnas
de In×n .
De momento, nosotros sólo vamos a utilizar operaciones elementales sobre filas.
1.2.3 El Método de Gauss y el Método de Gauss-Jordan.
Dada una matriz A ∈ Mm×n (K), mediante operaciones elementales realizadas sobre sus filas (o de
forma equivalente, premultiplicando por matrices elementales) se puede transformar A en una ma-
triz que está en forma escalonada por filas o, en una matriz que está en forma escalonada reducida
por filas.
Ejemplo 31. Vamos a transformar la matriz A en una matriz en forma escalonada y en su forma
escalonada reducida por filas R.
0 2 1 4 1 5 2 1 1 5 2 1
F1 ↔F2 F3 +F1
A = 1 5 2 1 −−−−−→ 0 2 1 4 −−−−→ 0 2 1 4 →
−
−1 −3 −1 −2 −1 −3 −1 −2 0 2 1 −1
1 5 2 1
F3 −F2
−−−−→ 0 2 1 4 = B es una forma escalonada por filas de A
0 0 0 −5
Las entradas marcadas con un recuadro en B se llaman pivotes del proceso de escalonamiento.
1 5 2 1 (− 1 )F 1 5 2 1 FF1−−4F
F3
1 5 2 0 1 F 1 5 2 0
5 3 2 3 2 2
B = 0 2 1 4 −−−−−→ 0 2 1 4 −−−−−−−−→ 0 2 1 0 −−−→ 0 1 1/2 0 →
−
0 0 0 −5 0 0 0 1 0 0 0 1 0 0 0 1
11
1 0 −1/2 0
F1 −5F2
−−−−−→ 0 1 1/2 0 = R es la forma escalonada reducida por filas de A.
0 0 0 1
Las entradas marcadas con un recuadro en R son los unos principales.
Utilizando otras operaciones elementales sobre A obtenemos otra forma escalonada:
0 2 1 4 −1 −3 −1 −2 −1 −3 −1 −2
F1 ↔F3 F2 +F1
A = 1 5 2 1 −−−−−→ 1 5 2 1 −−−−→ 0 2 1 −1 →−
−1 −3 −1 −2 0 2 1 4 0 2 1 4
−1 −3 −1 −2
F3 −F2
−−−−→ 0 2 1 −1 = C es otra forma escalonada por filas de A con pivotes − 1, 2 y 5.
0 0 0 5
−1 −3 −1 −2 1 F −1 −3 −1 −2 FF1 ++2F F
3
−1 −3 −1 0
3 2 3
C = 0 2 1 −1 −−−→ 0 2 1 −1 −−−−−−−−→ 0 2 1 0 →
5
−
0 0 0 5 0 0 0 1 0 0 0 1
1 −1 −3 −1 0 −1 0 1/2 0 1 0 −1/2 0
F F1 +3F2 (−1)F1
1 1/2 0 −−−−−→ 0 1 1/2 0 −−−−→ 0 1
2
−−−→ 0
2
1/2 0 = R
0 0 0 1 0 0 0 1 0 0 0 1
Vemos con este ejemplo que a partir de una matriz A podemos obtener distintas formas escalonadas
por filas. Sin embargo, la forma escalonada reducida por filas en ambos procesos coincide.
Vamos a continuación a escribir los pasos del método que hemos seguido.
∗Método de Gauss para la obtención de una forma escalonada por filas.
Partimos de una matriz A ∈ Mm×n (K) que no esté en forma escalonada por filas. Así, A será no
nula, ya que si A fuese la matriz nula ya estaría en forma escalonada:
Paso 1 Con una operación elemental de tipo I (permutando dos filas), si fuese necesaria, llevar a
la primera fila de la matriz una fila con la primera entrada no nula. Si no hubiese ninguna,
llevar a la primera fila una fila cuya segunda entrada sea no nula. Y así sucesivamente. Esta
primera entrada no nula se llama pivote.
Paso 2 Con operaciones elementales de tipo III sobre filas (sumar a una fila un múltiplo de la fila
del pivote) hacer ceros por debajo de la entrada pivote.
Paso 3 Aplicar los Pasos 1 y 2 a la submatriz que se obtiene al eliminar la primera fila.
De esta forma, mediante operaciones elementales de tipo I y III sobre filas se obtiene una forma
escalonada por filas a partir de la matriz A. Este procedimiento se conoce como método de Gauss.
∗ Método de Gauss-Jordan para la obtención de la forma escalonada reducida de una matriz.
Partimos de una matriz A ∈ Mm×n (K) no nula que no está en forma escalonada reducida por filas:
Paso 1’ Aplicar el método de Gauss a la matriz A para obtener una forma escalonada por filas.
12
Paso 2’ Con operaciones elementales de tipo III sobre filas (sumar a una fila un múltiplo de la fila
del pivote) hacer ceros por encima de las entradas pivote. En este paso conviene hacer las
operaciones elementales empezando por el último pivote porque de esta forma se realizan
menos cálculos.
Paso 3’ Con operaciones elementales de tipo II (multiplicar la fila por el inverso del pivote) hacer
uno la entrada pivote.
De esta forma, mediante operaciones elementales de tipo I, II y III sobre filas se obtiene la forma
escalonada reducida por filas de la matriz A. Este procedimiento se conoce como método de Gauss-
Jordan.
Teorema 32. (Teorema de existencia de la forma escalonada reducida de una matriz)
Dada una matriz A ∈ Mm×n (K) existen operaciones elementales sobre filas que transforman A en
una única matriz en forma escalonada reducida por filas R.
La matriz R recibe el nombre de forma escalonada reducida de A.
Corolario 33. Si A ∈ Mm×n (K) y R es su forma escalonada reducida, entonces existen matrices
elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R.
Observa que si A es una matriz en forma escalonada reducida, entonces R = A. En particular, si A
es la matriz nula, entonces la forma escalonada reducida de A es también la matriz nula.
Observa también que, aunque la forma escalonada reducida de una matriz es única, podemos ob-
tenerla por distintos caminos (ver ejemplo 31).
Ejemplo 34. Aplica el método deGauss-Jordan para obtener la forma escalonada reducida de la
0 0 2 2 −2
0 1 2 2 −1
matriz A = .
0 5 2 −2 1
0 −1 4 2 1
Como no hay ninguna fila que tenga la primera entrada no nula, buscamos una fila que tenga la
segunda entrada no nula y hacemos que ésta sea la primera fila de la matriz.
0 0 2 2 −2 0 1 2 2 −1 0 1 2 2 −1
0 1 2 2 −1 Paso 1
0 0 2 2 −2 Pasos 2, 3 y 1 0 0 2 2 −2
A = −−−−−→ −−−−−−−−−→ →−
0 5 2 −2 1 F1 ↔F2 0 5 2 −2 1 F3 − 5F1 0 0 −8 −12 6
0 −1 4 2 1 0 −1 4 2 1 F4 + F1
0 0 6 4 0
0 1 2 2 −1 0 1 2 2 −1
Pasos 2, 3 y 1 0 0 2 2 −2 Pasos 2, 3 y 1 0 0 2 2 −2
−−−−−−−−−→ −−−−−−−−−→
F3 + 4F2 0 0 0 −4 −2 F4 − F3 0 0 0 −4 −2
1
F4 − 3F2 2
0 0 0 −2 6 0 0 0 0 7
Ya tenemos una forma escalonada, es decir, ya hemos concluido el método de Gauss, o bien el
paso 1’ del método de Gauss-Jordan. Ahora a partir de esta matriz buscamos la forma escalonada
reducida.
0 1 2 2 −1 0 1 2 2 0 0 1 2 0 0
0 0 2 2
−2 Paso 2’
0 0 2 2 0
Paso 2’
0 0 2 0 0
−−−−−−−−−−−−→ −−−−−−−−−−−−→
0 0 0 −4 −2 F1 + (1/7)F4 0 0 0 −4 0 F1 + (1/2)F3 0 0 0 −4 0
F2 + (2/7)F4 F2 + (1/2)F3
0 0 0 0 7 F + (2/7)F
0 0 0 0 7 0 0 0 0 7
3 4
13
0 1 0 0 0 0 1 0 0 0
Paso 2’ 0 0 2 0 0 Paso 3’ 0 0 1 0 0
−−−−−−−−→ −−−−−−−−−→ = R
F1 − F2 0 0 0 −4 0 (1/2)F2 0 0 0 1 0
(−1/4)F3 0 0 0 0 1
0 0 0 0 7 (1/7)F4
Definición 35. Dada una matriz A ∈ Mm×n (K) llamaremos rango de A al número de unos princi-
pales de la forma escalonada reducida de la matriz A y lo denotaremos por ρ(A).
Es evidente que ρ(Om×n ) = 0.
Además, claramente el número de unos principales de la forma escalonada reducida de A coincide
con el número de filas no nulas de una forma escalonada obtenida a partir de A. Esto significa que
para calcular el rango de A podemos aplicar el método de Gauss a la matriz A y contar el número
de filas no nulas de una forma escalonada de A.
Ejemplo 36. Si nos fijamos en la matriz del ejemplo 31 vemos que ρ(A) = 3, mientras que para la
matriz del ejemplo 34 se tiene que ρ(A) = 4.
Propiedad 37. Si A ∈ Mm×n (K), entonces ρ(A) ≤ mı́n(m, n).
14
Clasificación: Dado un sistema de ecuaciones lineales A x = b
Para resolver un sistema de ecuaciones lineales vamos a aplicar operaciones elementales para
transformarlo en otro sistema que se resuelva fácilmente. Dado un sistema de ecuaciones linea-
les A x = b, se puede comprobar que si hacemos operaciones elementales sobre las filas de la
matriz ampliada (A|b) se obtiene la matriz ampliada de un nuevo sistema que tiene las mismas
soluciones que A x = b. Podemos entonces aplicar el método de Gauss, o mejor aún, el método
de Gauss-Jordan a la matriz (A|b) para obtener su forma escalonada reducida y resolver el sistema
resultante. Veamos algunos ejemplos.
2y + z = 4
Ejemplo 38. Resuelve el sistema x + 5y + 2z = 1 .
−x − 3y − z = −2
Considerando la matriz ampliada y aplicando el método de Gauss se obtiene la siguiente forma
escalonada (ver ejemplo 31):
0 2 1 4 1 5 2 1 x + 5y + 2z = 1
Método de
(A|b) = 1 5 2 1 −−−−→ 0 2 1 4
−−−Gauss =⇒ 2y + z = 4
−1 −3 −1 −2 0 0 0 −5 0 = −5
15
−2x + y + z = 0
Ejemplo 40. Resuelve el sistema homogéneo x − 2y + z = 0 .
x + y − 2z = 0
Consideremos la matriz ampliada y apliquemos el método de Gauss-Jordan:
FF12 ↔ F3
− F1
−2 1 1 0 F + 2F 1 1 −2 0 F + F 1 1 −2 0
3 1 3 2
(A|b) = 1 −2 1 0 −−−−−−−−→ 0 −3 3 0 −−−−−−−→ 0 −3 3 0 →
−
1 1 −2 0 0 3 −3 0 0 0 0 0
1
F1 + F2
3
(−1/3)F2
1 0 −1 0 x −z = 0
x=z
−−−−−−−−→ 0 1 −1 0 =⇒ y − z = 0
=⇒ y =z
0 0 0 0 0 = 0 z∈R
Por tanto, el sistema es compatible indeterminado y las infinitas soluciones del sistema forman el
conjunto S = {x = λ, y = λ, z = λ : λ ∈ R}.
Observa que, en este caso, ρ(A) = ρ(A|b) = 2 < 3 =número de incógnitas. El número de parámetros
necesarios para escribir la solución coincide con la diferencia entre el número de incógnitas y el
rango de A.
El siguiente teorema resume las situaciones posibles.
Teorema 41. (Teorema de existencia y unicidad de soluciones de Rouché-Frobenius).
Si se considera el sistema A x = b y (A|b) es su matriz ampliada, entonces
16
Teniendo en cuenta el teorema anterior se obtiene que, independientemente del valor de α, si β = 2
entonces ρ(A) = ρ(A|b) = 2 y el sistema es compatible indeterminado, mientras que si β , 2
entonces ρ(A) = ρ(A|b) = 3 y el sistema es compatible determinado.
donde t11 , t22 , . . . , tnn son no nulos, de la última ecuación obtenemos el valor de xn
cn
tnn xn = cn =⇒ xn = .
tnn
Sustituyendo xn en la penúltima ecuación y despejando obtenemos el valor de xn−1 :
!
1 cn
tn−1,n−1 xn−1 + tn−1,n xn = cn−1 =⇒ xn−1 = cn−1 − tn−1,n
tn−1,n−1 tnn
n
1 X
y así, conocidos xn , xn−1 , . . . , xi+1 =⇒ xi = ci − ti j x j , i = n − 2, n − 3, . . . , 1.
tii j=i+1
Esta técnica es la que se usa para resolver el sistema una vez hemos aplicado el método de Gauss.
Así, si consideramos un sistema de ecuaciones lineales A · x = b compatible determinado y apli-
camos el método de Gauss a la matriz ampliada (A|b), se obtiene una matriz en forma escalonada
(T |c) tal que T es triangular superior con entradas diagonales no nulas. Finalmente aplicaremos el
método de sustitución regresiva para resolver el sistema T · x = c.
3 4 2 x 16
Ejemplo 43. Resuelve el sistema 0 1 5 y = −8 .
0 0 −3 z 9
ρ(A) = ρ(A|b) = 3, luego el sistema es compatible determinado. Aplicando el método de
sustitución regresiva obtenemos
−3z = 9 =⇒ z = −3
y + 5z = −8 =⇒ y = −8 − 5z = 7
1
3x + 4y + 2z = 16 =⇒ x = (16 − 4y − 2z) = −2
3
luego la única solución del sistema es x = −2, y = 7, z = −3.
17
∗El Método de Sustitución Progresiva.
Consideremos un sistema de ecuaciones lineales L · x = c compatible determinado, siendo L
una matriz triangular inferior n × n con entradas diagonales no nulas.
Es muy fácil resolver este tipo de sistemas usando el método de substitución progresiva, que
consiste en, dado el sistema
l11 0 . . . 0 x1 c1
l21 l22 . . . 0 x2 c2
.. .. . . .. · .. = ..
. . . . . .
ln1 ln2 . . . lnn xn cn
donde l11 , l22 , . . . , lnn son no nulos, de la primera ecuación obtenemos el valor de x1
c1
l11 x1 = c1 =⇒ x1 = .
l11
Sustituyendo x1 en la segunda ecuación y despejando obtenemos el valor de x2 :
!
1 c1
l21 x1 + l22 x2 = c2 =⇒ x2 = c2 − l21
l22 l11
i−1
1 X
y así, conocidos x1 , x2 , . . . , xi−1 =⇒ xi = ci − li j x j , i = 3, 4, . . . , n.
lii j=1
−2 0 0 x −6
Ejemplo 44. Resuelve el sistema 1 3 0 y = 0 .
−1 2 −1 z 10
ρ(A) = ρ(A|b) = 3, luego el sistema es compatible determinado. Aplicando el método de
sustitución progresiva obtenemos
−2x = −6 =⇒ x = 3
1
x + 3y = 0 =⇒ y = (−x) = −1
3
−x + 2y − z = 10 =⇒ z = −x + 2y − 10 = −15
luego la única solución del sistema es x = 3, y = −1, z = −15.
AB = In×n = BA.
18
Nota 46. Si A y B ∈ Mn×n (K), entonces se cumple que
AB = In×n ⇐⇒ BA = In×n
por lo que no es necesario comprobar que se verifican las dos igualdades para probar que B es la
inversa de A.
Los siguientes resultados se comprueban fácilmente utilizando la definición de matriz no singular.
Proposición 47. (No singularidad de la inversa y la traspuesta de una matriz no singular)
Si A ∈ Mn×n (K) es no singular, entonces se verifica
• A−1 es no singular y (A−1 )−1 = A.
• AT es no singular y (A−1 )T = (AT )−1 .
19
Teniendo en cuenta el Corolario 33, si A ∈ Mn×n (K) y R es la forma escalonada reducida de A,
existen matrices elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R. Como las matrices
elementales son no singulares y el producto de matrices no singulares es también no singular, se
tiene el siguiente criterio de no singularidad. Además, como las inversas de las matrices elemen-
tales son también matrices elementales, si A es no singular, despejando en la igualdad anterior se
obtiene una expresión de A como producto de matrices elementales.
Teorema 51. (Caracterización de la no singularidad por la forma escalonada reducida)
Si A ∈ Mn×n (K) y R es la forma escalonada reducida de A, entonces
A es no singular ⇐⇒ R = In×n .
Corolario 52. Toda matriz no singular se puede escribir como producto de matrices elementales.
1 3 0
Ejemplo 53. Descomponer la matriz A = −2 −3 −1 , si es posible, como producto de matri-
3 9 1
ces elementales.
Para que sea posible la descomposición de A como producto de matrices elementales A debe ser
una matriz no singular. Vamos a calcular su forma escalonada reducida mediante el método de
Gauss-Jordan.
1 3 0 FF2 +− 2F 3F
1
1 3 0 F + F 1 3 0
3 1 2 3
A = −2 −3 −1 −−−−−−−−→ 0 3 −1 −−−−−−−→ 0 3 0 → −
3 9 1 0 0 1 0 0 1
1
F1 − F2
1 0 0
3 F 2
1 0 0
−−−−−−−→ 0 3 0 −−−−−→ 0 1 0 = R
0 0 1 0 0 1
Luego, la forma escalonada reducida de A es R = I3×3 , lo que nos asegura que A es una matriz no
singular. Aplicando el Corolario 33, tenemos que
E5 · E4 · E3 · E2 · E1 · A = R = I3×3
siendo E1 , . . . , E5 las matrices elementales correspondientes a las operaciones elementales realiza-
das. Puesto que estas matrices son no singulares, podemos despejar la matriz A y obtenemos
A = E−1 · E−1 −1 −1 −1
2 · E 3 · E4 · E5
1
1 0 0 1 0 0 1 0 0 1 1 0 1 0 0
= −2 1 0 0 1 0 0 1 −1 0 1 0 0 3 0
0 0 1 3 0 1 0 0 1 0 0 1 0 0 1
con lo que tenemos descompuesta A como producto de matrices elementales.
Teniendo en cuenta que el rango de A es el número de unos principales de la forma escalonada
reducida de A, es evidente el siguiente resultado.
Teorema 54. (Caracterización de la no singularidad por el rango) Si A ∈ Mn×n (K), entonces
A es no singular ⇐⇒ ρ(A) = n.
20
Además, puesto que para obtener la forma escalonada reducida aplicamos operaciones elementales
sobre la matriz, es evidente que si aplicamos operaciones elementales sobre una matriz el rango no
varía. Esto es equivalente a que si E es una matriz elemental, entonces ρ(EA) = ρ(A). El Corolario
52 permite generalizar este resultado a matrices no singulares.
Proposición 55. Si A ∈ Mm×n (K) y P ∈ Mm×m (K) no singular, entonces ρ(PA) = ρ(A).
Finalmente, si tenemos en cuenta el Teorema de Rouché-Frobenius, obtenemos otro criterio de no
singularidad de matrices.
Teorema 56. (Caracterización de la no singularidad por la compatibilidad de sistemas de
ecuaciones) Si A ∈ Mn×n (K), entonces
A es no singular ⇐⇒ el sistema A x = b es compatible determinado, para cualquier b ∈ Kn
E p · . . . · E2 · E1 A = R = In×n
Este método se puede interpretar también como la resolución del sistema matricial AX = In×n
(sistemas de ecuaciones con múltiples términos independientes (cada columna de In×n ) y la misma
matriz de coeficientes).
2 1 1
Ejemplo 57. Aplica el método de Gauss-Jordan para calcular la inversa de la matriz A = 1 −1 0 .
1 1 1
2 1 1 1 0 0 1 −1 0 0 1 0 FF2 −−2F 1
1 −1 0 0 1 0
F1 ↔F2 3 F1
(A | I3×3 ) = 1 −1 0 0 1 0 −−−−−→ 2 1 1 1 0 0 −−−−−−−−→ 0 3 1 1 −2 0 →
1 1 1 0 0 1 1 1 1 0 0 1 0 2 1 0 −1 1
1 −1 0 0 1 0 1 −1 0 0 1 0
F3 − 23 F2
F2 −3F3
−−−−−→ 0 3 1 1 −2 0 −−−−−→ 0 3 0 3 −3 −3 →
0 0 1/3 −2/3 1/3 1 0 0 1/3 −2/3 1/3 1
F1 + 13 F2
1 0 0 1 0 −1 (1/3)F 3F
2
1 0 0 1 0 −1
3
−−−−−→ 0 3 0 3 −3 −3 −−−−−−−→ 0 1 0 1 −1 −1
0 0 1/3 −2/3 1/3 1 0 0 1 −2 1 3
21
1 0 −1
Por tanto, A−1 = 1 −1 −1 y se comprueba que A · A−1 = I3×3 .
−2 1 3
1.6. DETERMINANTES.
1.6.1 Determinantes.
En toda esta sección consideraremos matrices cuadradas. El determinante es una aplicación del
conjunto de las matrices cuadradas en K que a cada matriz A le asocia un escalar, que verifica
ciertas propiedades que veremos con detalle más adelante. Pero primero vamos a dar una definición
recursiva del determinante basada en los determinantes de tamaño inferior.
• Si A es una matriz 2 × 2 con entradas en K, entonces det(A) = a11 a22 − a12 a21 .
Así,
a11 a12 a13
det a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33
a31 a32 a33
Nota muy importante: La Regla de Sarrus solo sirve para calcular determinantes de matri-
ces 3 × 3.
det(A) = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) =
! ! !
a22 a23 a21 a23 a21 a22
= a11 det − a12 det + a13 det
a32 a33 a31 a33 a31 a32
22
3
X
det(A) = a11 det(A11 ) − a12 det(A12 ) + a13 det(A13 ) = (−1)1+ j a1 j det(A1 j )
j=1
Se puede demostrar que si se utiliza cualquier otra fila para desarrollar el determinante en lugar
de la primera fila, el resultado es el mismo. Y lo mismo ocurre si se utilizan columnas para el
desarrollo en lugar de filas, por lo que se verifican las siguientes igualdades.
Proposición 59. Si A = (ai j ) ∈ Mn×n (K), entonces se verifica
n
X
• det(A) = (−1)i+ j ai j det(Ai j ) (desarrollo por la fila i-ésima), para cualquier i = 1, 2, . . . , n
j=1
n
X
• det(A) = (−1)i+ j ai j det(Ai j ) (desarrollo por la columna j-ésima), para cualquier
i=1
j = 1, 2, . . . , n
Estas expresiones se conocen como fórmulas del desarrollo del determinante por adjuntos o por
cofactores, ya que se llama adjunto o cofactor de la entrada (i, j) a (−1)i+ j det(Ai j ). Así, el cálculo
del determinante de una matriz consiste en elegir una fila o una columna y sumar los productos de
cada entrada de esa fila o columna por su adjunto.
Teniendo en cuenta la definición de determinante y las expresiones anteriores, se tiene:
Proposición 60.
• Si A = (ai j ) ∈ Mn×n (K) es una matriz triangular, entonces det(A) = a11 · a22 · · · ann .
• En particular, det(In×n ) = 1.
Observa que, para minimizar el número de operaciones necesarias para calcular el determinante,
conviene elegir para desarrollar el determinante una fila o una columna que tenga pocas entradas
no nulas, a ser posible sólo una.
23
3 −7 8 9 −6
0 2 −5 7 3
Ejemplo 61. Calcula el determinante de la matriz A = 0 0 1 5 0 .
0 0 2 4 −1
0 0 0 −2 0
Desarrollando el determinante por la primera columna se tiene
2 −5 7 3
0 1 5 0
det(A) = 3 det(A11 ) − 0 det(A21 ) + 0 det(A31 ) − 0 det(A41 ) + 0 det(A51 ) = 3 det
0 2 4 −1
0 0 −2 0
Si la matriz no tiene ninguna fila ni columna con muchas entradas nulas, vamos a aplicar operacio-
nes elementales sobre las filas o las columnas de la matriz para conseguir anular entradas. Veamos
entonces qué efecto produce en el determinante hacer operaciones elementales sobre la matriz.
Proposición 62. (Efecto de las operaciones elementales sobre el determinante)
Dada una matriz A ∈ Mn×n (K) se verifican las siguientes propiedades:
1. si hacemos una operación elemental de tipo I sobre las filas o las columnas de A para obtener
la matriz B (permutamos dos filas o permutamos dos columnas), entonces det(B) = − det(A).
Como consecuencia, si una matriz tiene dos filas o dos columnas iguales entonces su deter-
minante vale cero.
2. si hacemos una operación elemental de tipo II que multiplica por α una fila o una columna
de A para obtener la matriz B, entonces det(B) = α det(A).
3. si hacemos una operación elemental de tipo III sobre las filas o las columnas de A para
obtener la matriz B (sumamos a una fila o a una columna un múltiplo de otra), entonces
det(B) = det(A).
24
• si E es una matriz elemental de tipo II que multiplica por α una fila o una columna, entonces
det(E) = α.
Estos resultados nos permiten demostrar que el determinante del producto de dos matrices es
igual al producto de sus determinantes.
Teorema 64. (Teorema de Binet). Sean A y B ∈ Mn×n (K). Entonces
Veamos el comportamiento del determinante con respecto a las otras dos operaciones con ma-
trices: suma y producto por un escalar. Con respecto a la suma, en general no se satisface que
det(A + B) coincide con det(A) + det(B), como se pone de manifiesto en el siguiente ejemplo.
! !
1 −1 −1 3
Ejemplo 65. Si consideramos las matrices A = yB= ∈ M2×2 (R) se tiene
2 2 −2 3
que !
0 2
det(A + B) = det = 0 , 7 = det(A) + det(B)
0 5
Con respecto al producto por un escalar, si observamos que αA se obtiene aplicando n operaciones
elementales de tipo II sobre la matriz A, entonces se tiene:
Proposición 66. Si A ∈ Mn×n (K), entonces det(αA) = αn det(A), con α ∈ K.
Finalmente, observemos que la definición de determinante solamente involucra sumas y produc-
tos, por lo que es posible definir determinantes de matrices cuyas entradas no sean números. Por
ejemplo, se pueden calcular determinantes de matrices cuyas entradas sean polinomios, cosa que
haremos en el tema de diagonalización de matrices cuadradas (ver ejemplo 71).
1.6.2 Cálculo de Determinantes.
Teniendo en cuenta las propiedades del determinante, si aplicando operaciones elementales
sobre las filas y las columnas de A podemos transformarla en una matriz triangular T entonces
F p · · · F2 · F1 · A · C1 · C2 · · · Cr = T
o equivalentemente, para calcular el determinante de A, cada vez que hacemos una operación
elemental debemos aplicar el efecto inverso sobre el determinante de la matriz resultante.
25
1 −1 3 0
0 1 5 4
Ejemplo 67. Calcula el determinante de la matriz A = .
−1 2 2 5
3 −1 −2 3
F3 + F1 1 −1 3 0 F3 − F2 1 −1 3 0
F4 − 3F1
0 1 5 4 F4 − 2F2
0 1 5 4
det(A) = det
= det =
0 1 5 5 0 0 0 1
0 2 −11 3 0 0 −21 −5
1 −1 3 0
F3 ↔ F4
0 1 5 4
= (−1) det = (−1)(−21) = 21
0 0 −21 −5
0 0 0 1
a − b − c 2a 2a
Ejemplo 68. Si a, b, c ∈ R tales que a + b + c , 0, calcula det 2b b−c−a 2b .
2c 2c c−a−b
a − b − c 2a 2a F1 + F2
F1 + F3
a + b + c a + b + c a + b + c
det 2b b−c−a 2b = det 2b b−c−a 2b =
2c 2c c−a−b 2c 2c c−a−b
1
F1 1 1 1
a+b+c
= (a + b + c) det 2b b − c − a 2b =
2c 2c c−a−b
C2 − C1
C3 − C1
1 0 0
3
= (a + b + c) det 2b −(a + b + c) 0 = (a + b + c)
2c 0 −(a + b + c)
Tenemos entonces dos métodos para calcular el determinante de una matriz A: aplicando el
desarrollo por adjuntos o haciendo operaciones elementales sobre A para convertirla en triangu-
lar. Para ver cuál de los dos métodos es más eficiente vamos a contar el número de operaciones
necesarias con cada uno de ellos para calcular el determinante de una matriz n × n.
Suponiendo que A no tiene entradas nulas, se puede comprobar que para calcular el determinante
n(n − 1)(4n + 1)
de A triangularizando la matriz por operaciones elementales son necesarias n−1+
3
operaciones.
Por otro lado, si llamamos xn al número de operaciones necesarias para calcular con el desarrollo
por adjuntos el determinante de una matriz n × n, se cumple la siguiente relación de recurrencia
xn = n(2 + xn−1 ) − 1, siendo x2 = 3. Se prueba fácilmente que xn > n!.
El cuadro 1 muestra el número de operaciones necesarias con los dos métodos para calcular el
determinante de matrices hasta 20 × 20. Viendo los resultados es evidente que es necesario usar
operaciones elementales para calcular el determinante de una matriz.
26
n Por operac. elementales Desarrollo por adjuntos
2 4 3
3 15 (con la Regla de Sarrus: 17) 14
4 37 63
5 74 324
6 130 1 955
7 209 13 698
8 315 109 599
9 452 986 408
10 624 9 864 099
11 835 108 505 110
12 1 089 1 302 061 343
13 1 390 16 926 797 484
14 1 742 236 975 164 803
15 2 149 3 554 627 472 074
16 2 615 56 874 039 553 215
17 3 144 966 858 672 404 688
18 3 740 17 403 456 103 284 419
19 4 407 330 665 665 962 403 998
20 5 149 6 613 313 319 248 079 999
Aunque, en la práctica, lo más eficiente es combinar los dos métodos y buscar cada vez la fila
o columna más conveniente para el desarrollo por adjuntos, aplicando si hace falta operaciones
elementales para hacer ceros en la matriz.
2 5 4 1
4 7 6 2
Ejemplo 69. Calcula el determinante de la matriz A = .
6 −2 −4 0
−6 7 7 0
2 5 4 1
0 −3 −2
F2 − 2F1 0 −3 −2 0 = (−1)5 det 6 −2 −4 =
det(A) = det
6 −2 −4 0 −6 7 7
−6 7 7 0
0 −3 −2 !
F3 + F2 3 −3 −2
= (−1) det 6 −2 −4 = (−1)(−1) · 6 det =6
5 3
0 5 3
!
2 −2
Ejercicio. Consideremos la matriz A = , tal que det(A) = 14.
3 4
!
2 −2
Si se realiza sobre A la operación 2F2 − 3F1 se obtiene det = 28,
0 14
27
!
3 2 −2
mientras que si se realiza sobre A la operación F2 − F1 se obtiene det = 14.
2 0 7
¿Por qué realizando sobre A la operación 2F2 − 3F1 el resultado del determinante es incorrecto y
3
realizando sobre A la operación F2 − F1 el resultado del determinante sí es correcto?
2
Nota muy importante. Teniendo en cuenta el ejercicio anterior, evita hacer operaciones del tipo
αFi + βF j que te llevarán a resultados incorrectos.
1.6.3 Interpretación Geométrica del Determinante de una Matriz.
La idea de determinante de una matriz cuadrada real proviene del cálculo de áreas y volúmenes y,
en general, cuando la matriz es n × n del cálculo de hipervolúmenes. Veamos el caso más sencillo,
n = 2. Consideremos la figura:
G
H C
I a22
B
2)
a2
A a12
2,
F
1
a 21)
(a
(a 11,
=
u1 = a21 a21
u2
a11 a12
O E
D
El área del paralelogramo OACB se obtiene restando al área del rectángulo OECH la suma de las
áreas de los cuatro triángulos y de los dos rectángulos dibujados en la figura.
a a a a !
11 21 12 22 a11 a12
Área OACB = (a11 +a12 )(a21 +a22 )−2 −2 −2a12 a21 = a11 a22 −a21 a12 = det
2 2 a21 a22
En ciertas situaciones el determinante puede ser negativo, con lo que el área coincide con su valor
absoluto. Por tanto, en general, si se considera el paralelogramo de vértices A(a1 , a2 ), B(b1 , b2 ),
C(c1 , c2 ), D(d1 , d2 ) entonces
4
C
3
D
2
!
b1 − a1 d1 − a1 1
Área ABCD = det
b2 − a2 d2 − a2
−2 −1 1 2 3 4 5 6
−1
B
A −2
Análogamente, se puede comprobar que el valor absoluto del determinante de una matriz 3 × 3
28
coincide con el volumen del paralelepípedo que generan los vectores columna de la matriz (o bien
los vectores fila, ya que det(A) = det(AT )).
1.6.4 Algunas Aplicaciones de los Determinantes.
Aunque los determinantes nos interesan sobre todo como herramienta teórica y evitaremos su uso
en la práctica por su alto coste computacional, vamos a ver en esta subsección algunas de sus
aplicaciones, no recomendando su utilización a no ser que se trate de ejemplos simples o con
matrices pequeñas 2 × 2 o a lo sumo 3 × 3.
∗ Criterio de no singularidad de matrices.
Teniendo en cuenta el Corolario 33, si A ∈ Mn×n (K) y R es su forma escalonada reducida,
entonces existen matrices elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R. Aplicando
los Teoremas 51 y 64 y que los determinantes de las matrices elementales son no nulos, se tiene el
siguiente resultado.
Teorema 70. (Caracterización de la no singularidad por el determinante)
Si A ∈ Mn×n (K) , entonces
A es no singular ⇐⇒ det(A) , 0.
2 − x 1 1
Ejemplo 71. Calcula los valores de x ∈ R para los que la matriz A = 1 2−x 1 es
1 1 2−x
singular.
Aplicando el teorema anterior A será singular si, y sólo si, det(A) = 0. Calculemos entonces el
determinante de A.
F1 + F2
F1 + F3
4 − x 4 − x 4 − x CC2 −− CC1 4 − x 0 0
3 1
det(A) = det 1 2−x 1 = det 1 1−x 0 = (4 − x)(1 − x)2 .
1 1 2−x 1 0 1−x
29
! !
1 −1 1 −1 1
Como ρ(A) = ρ = 2 = ρ(A|b) = ρ = número de incógnitas, el sistema es
2 3 2 3 0
compatible determinado. Aplicando la Regla de Cramer se obtiene:
! !
1 −1 1 1
det det
0 3 3 2 0 2
x1 = != x2 = ! =−
1 −1 5 1 −1 5
det det
2 3 2 3
30
Así,
−3 0 −3
adj(A) = (−1)i+ j det(Ai j ) = 0 −1 −1
3 −1 5
−3 0 3 1 0 −1
1 1
A−1 = adj(A)T = − 0 −1 −1 = 0 1/3 1/3
det(A) 3
−3 −1 5 1 1/3 −5/3
donde a(l)i j denota las nuevas entradas que se van obteniendo al aplicar las operaciones elementales.
Observemos que, puesto que A es una matriz no singular, las entradas diagonales de la matriz U
(a11 , a(2) (n)
22 , . . . , ann ) serán todas no nulas y, de hecho, son los pivotes del proceso de escalonamiento
de A.
Como las matrices elementales son no singulares, podemos despejar A en la expresión anterior
para obtener
A = E−1 −1 −1
1 · E2 · . . . · Ek · U = L · U
31
siendo L = E−1 −1 −1
1 · E2 · . . . · Ek .
Recuerda que si E es la matriz elemental de tipo III que corresponde a la operación Fi + αF j , con
i > j, entonces E es una matriz triangular inferior con entradas diagonales iguales a 1. Además,
E−1 es la matriz elemental de tipo III que corresponde a la operación Fi − αF j y, por tanto, también
es una matriz triangular inferior con entradas diagonales iguales a 1.
Así, dado que todas las operaciones elementales que realizamos para obtener la matriz U son
operaciones elementales de tipo III de la forma Fi + αF j , con i > j, entonces L = E−1 −1 −1
1 · E2 · . . . · Ek
es una matriz triangular inferior con entradas diagonales iguales a 1, por ser producto de matrices
de este tipo.
De esta forma, hemos escrito A como producto de una matriz L triangular inferior con diagonal de
unos y una matriz U triangular superior. Esta factorización es conocida como factorización LU de
A.
2 4 −4
Ejemplo 74. Calcula una factorización LU de la matriz no singular A = −2 −5 3 .
4 8 −5
Recuerda que tenemos que aplicar operaciones elementales de tipo III de la form Fi + αF j , con
i > j, sobre A, sin usar permutaciones de filas, para transformarla en una matriz triangular superior.
F2 + F1
2 4 −4 F − 2F 2 4 −4
3 1
A = −2 −5 3 −−−−−−−−→ 0 −1 −1 = U
4 8 −5 0 0 3
32
Una vez calculada la factorización LU de A (ver ejemplo 74), descomponemos la matriz U
como el producto D · U:
2 0 0 1 2 −2
0 1 1
U = D · U = 0 −1 0
0 0 3 0 0 1
Si A ∈ Mn×n (K) no singular, ¿qué debe suceder para que A admita factorización LU y LDU?
Bastará que en el proceso de escalonamiento descrito anteriormente (usando exclusivamente ope-
raciones elementales de tipo III de la forma Fi + αF j , con i > j) las entradas a11 , ..., a(n−1)
n−1,n−1 sean
no nulas, para que se puedan usar como pivotes para el escalonamiento.
Para saber si las entradas a11 , ..., a(n−1)
n−1,n−1 van a ser no nulas y así poder calcular una factorización
LDU de A podemos utilizar las siguientes submatrices principales.
Definición. Dada una matriz A = (ai j ) ∈ Mn×n (K), para cada k = 1, 2, . . . , n, llamaremos submatriz
principal líder de orden k y la denotaremos por A[k] a la submatriz principal de A de tamaño k × k
formada por las entradas ai j , 1 ≤ i, j ≤ k. Es decir,
a11 a12 ... a1,n−1
! a11 a12 a13
a11 a12 a21 a22 ... a2,n−1 [n]
A[1] = (a11 ), A[2] = , A[3] = a21 a22 a23 , . . . , A[n−1] = .. .. .. , A = A
a21 a22 . . ... .
a31 a32 a33
an−1,1 an−1,2 . . . an−1,n−1
Nota 77. Si las operaciones para el cálculo de la factorización LDU se hacen eligiendo siempre
como pivote el elemento diagonal y haciendo ceros por debajo de él, es muy fácil obtener la matriz
L. Basándonos en que L es el producto de las inversas de las matrices elementales de tipo III que
se han utilizado para triangular la matriz, partiendo de la matriz identidad In×n , se van sustituyendo
las entradas por debajo de la diagonal según la siguiente regla: si hacemos la operación elemental
Fi + αF j , entonces li j = −α. Si nos fijamos en el ejemplo 74, se han realizado las operaciones
elementales F2 + F1 y F3 − 2F1 para llegar a la matriz triangular superior U. Observa que l21 = −1,
l31 = 2 y el resto de entradas de L coinciden con las correspondientes de I3×3 .
33
Ejemplo 78. Calcula, si es posible, una factorización LDU de las matrices no singulares
1 2 −1 1 −1 2
A = −1 −2 0 y B = 2 3 −1 .
3 5 1 3 2 3
Teniendo en cuenta el teorema 76, para ver si A admite factorización LDU comprobaremos si las
submatrices A[1] y A[2] son no singulares.
det(A[1] ) = 1 , 0 =⇒ A[1] es no singular
!
1 2 A no admite factorización LDU.
[2]
det(A ) = det = 0 =⇒ A es singular
[2]
−1 −2
Vamos entonces a calcular la factorización LDU de B. Recuerda que sólo se pueden usar operacio-
nes elementales de tipo III sobre filas Fi + αF j , con i > j.
1 −1 2 FF2 −− 2F
3F
1
1 −1 2 F − F 1 −1 2
3 1 3 2
B = 2 3 −1 −−−−−−−−→ 0 5 −5 −−−−−−−→ 0 5 −5 = U.
3 2 3 0 5 −3 0 0 2
donde U es triangular superior con entradas diagonales iguales a uno y las entradas situadas encima
de la diagonal principal
se obtienen
a partir
de U dividiendo
cada fila por la entrada diagonal.
1 0 0 1 0 0 1 −1 2
Así, B = LDU = 2 1 0 0 5 0 0 1 −1 es una factorización LDU de B.
3 1 1 0 0 2 0 0 1
El siguiente teorema nos indica que, en este caso, la factorización LDU es única.
34
Teorema 79. (Unicidad de la factorización LDU) Si A ∈ Mn×n (K) es no singular y admite una
factorización LDU, entonces la factorización LDU es única.
Si además A es simétrica, entonces U = LT .
Ejemplo 80. Calcula, si es posible, una factorización LDU de la matriz no singular
1 4 3 0
4 12 10 −4
A = .
3 10 10 −4
0 −4 −4 −3
Teniendo en cuenta las operaciones elementales realizadas, la matriz L se obtiene fácilmente sin
1 0
0 0
4 1 0 0
realizar cálculos: L = .
3 1/2 1 0
0 1 −1 1
Como A es una matriz no singular que admite factorización LDU, por el teorema anterior, la fac-
torización LDU es única. Además, como la matriz A es simétrica tenemos que U = LT y así,
1 0 0 0 1 0 0 0 1 4 3 0
4 1 0 0 0 −4 0 0 0 1 1/2 1
T
A = LDL = es la factorización LDU de A.
3 1/2 1 0 0 0 2 0 0 0 1 −1
0 1 −1 1 0 0 0 −1 0 0 0 1
Nota. Si no exigimos que la matriz sea no singular, podemos encontrar ejemplos de matrices singu-
lares que admiten una factorización del tipo LU (como producto de una matriz triangular inferior
35
con diagonal de unos y una matriz triangular superior), pero que no admiten una factorización
del tipo LDU (como producto de una matriz triangular inferior con diagonal de unos, una matriz
diagonal y una matriz triangular superior con diagonal de unos). Por ejemplo, la matriz singular
siguiente se puede factorizar como
0 1 2 1 0 0 0 1 2
A = 0 5 6 = LU = 5 1 0 0 0 −4 ,
0 0 0 0 0 1 0 0 0
pero se comprueba que A no se puede descomponer como producto de una matriz triangular inferior
con diagonal de unos, una matriz diagonal y una matriz triangular superior con diagonal de unos.
1.7.3 Aplicación de la Factorización LDU.
En la práctica nos encontramos en ocasiones con problemas en los que tenemos que resolver varios
sistemas de ecuaciones lineales con la misma matriz de coeficientes y distintos términos indepen-
dientes. Podríamos resolverlos simultáneamente considerando el método de Gauss sobre la matriz
ampliada con todos los vectores columna de términos independientes distintos (A|b1 b2 . . . bk ), aun-
que si estamos tratando problemas grandes esto puede que no sea posible porque el ordenador no
tenga suficiente memoria para almacenar tantos datos. En otros casos lo que ocurre es que no dis-
ponemos de todos los vectores de términos independientes porque se van generando en un cierto
período de tiempo o, como ocurre en el siguiente ejemplo, cada vector es la solución del sistema
anterior. En todos estos casos será muy eficiente el uso de una factorización LDU de la matriz de
coeficientes para la resolución de los sistemas.
Ejemplo 81. La matriz A puede servir para calcular la conducción de calor no estacionaria en una
barra para la cual las temperaturas en los puntos p1 , . . . , p5 de la barra cambian con el tiempo. La
constante C de la matriz depende de la naturaleza física de la barra, de la distancia ∆x entre los
puntos de la barra y del tiempo ∆t entre mediciones sucesivas de temperatura. Supongamos que
para k = 0, 1, 2, . . . el vector tk ∈ R5 contiene las temperaturas en cada punto en el tiempo k∆t.
Si ambos extremos de la barra se mantienen a 0o , entonces se satisface la ecuación Atk+1 = tk ,
k = 0, 1, 2, . . ., siendo
(1 + 2C) −C 0 0 0
−C (1 + 2C) −C 0 0
∆x ∆x
A = 0 −C (1 + 2C) −C 0
p1 p2 p3 p4 p5
0 0 −C (1 + 2C) −C
0 0 0 −C (1 + 2C)
Suponiendo que C = 1 y t0 = (10, 12, 12, 12, 10)T , calcular las distribuciones de temperatura
t1 , t2 , t3 y t4 .
Para calcular los valores de t1 , t2 , t3 y t4 tenemos que resolver cuatro sistemas de ecuaciones que
tienen la misma matriz de coeficientes pero distintos términos independientes. Pero como la solu-
ción de cada sistema es el término independiente del siguiente sistema, estos cuatro sistemas no
se pueden resolver simultáneamente. Si utilizamos el método de Gauss o Gauss-Jordan para resol-
ver cada uno de estos sistemas repetiremos cuatro veces las mismas operaciones elementales para
escalonar la matriz A sobre cada una de las matrices ampliadas. En lugar de hacer esto, es mucho
más eficiente calcular una factorización LU o LDU de A y usarla después para resolver los cuatro
sistemas de la siguiente forma.
36
Si A = LDU, llamando y1 = Ut1 y x1 = Dy1 , se tiene que
Comenzamos resolviendo el sistema triangular inferior Lx1 = t0 por sustitución progresiva y ob-
tenemos el vector x1 , después resolvemos el sistema diagonal Dy1 = x1 para obtener el vector
y1 y finalmente resolvemos el sistema triangular superior Ut1 = y1 por sustitución regresiva para
obtener la solución del sistema At1 = t0 .
Una vez calculado t1 , utilizamos esta misma técnica para resolver el sistema At2 = t1 , usando la
factorización LDU de A que ya tenemos calculada. Por tanto, para calcular t2 resolveremos dos
sistemas triangulares y uno diagonal de muy fácil resolución. Y así sucesivamente, calcularemos
los otros vectores de distribución de temperaturas.
Si C = 1, entonces la factorización LDU de A es:
1 0 0 0 0 3 0 0 0 0 1
1 − 0 0 0
1 8 3
− 1 0 0 0 0 0 0 0 3
3 3 0 1 − 0 0
3 21 8
A = LDU = 0 − 1 0 0 0 0 0 0 8
8 8 0 0 1 − 0
8 55 21
0 0 − 1 0 0 0 0 0 21
21 21 0 0 0 1 −
21 144 55
0 0 0 − 1 0 0 0 0 0 0 0 0 1
55 55
Resolviendo los sistemas Lxi = ti−1 , Dyi = xi y Uti = yi , para i = 1, 2, 3, 4 se obtiene
x1 = (10, 15.33, 17.75, 18.76, 17.16)T y1 = (3.33, 5.75, 6.76, 7.16, 6.55)T t1 = (6.55, 9.66, 10.44, 9.66, 6.55)T
T T
x2 = (6.55, 11.84, 14.88, 15.33, 12.40) y2 = (2.18, 4.44, 5.67, 5.85, 4.74) t2 = (4.73, 7.66, 8.59, 7.66, 4.74)T
x3 = (4.73, 9.24, 12.05, 12.25, 9.42)T y3 = (1.58, 3.46, 4.59, 4.68, 3.60)T t3 = (3.60, 6.05, 6.90, 6.05, 3.60)T
x4 = (3.60, 7.25, 9.62, 9.71, 7.31)T y4 = (1.20, 2.72, 3.66, 3.71, 2.79)T t4 = (2.79, 4.77, 5.48, 4.77, 2.79)T
Vamos entonces a partir una matriz en submatrices (bloques) y trabajaremos con estos bloques
como si fuesen las entradas de la matriz.
37
1.8.1 Matrices en Bloques.
Definición 82. Dada una matriz A ∈ Mm×n (K), si trazamos p − 1 líneas horizontales entre ciertas
filas de A y q − 1 líneas verticales entre ciertas columnas de A, se tiene una partición en bloques
de A de la forma:
Λ11 Λ12 · · · Λ1q
Λ21 Λ22 · · · Λ2q
A = .. .. .. ..
. . . .
Λ p1 Λ p2 · · · Λ pq
donde cada Λi j es una submatriz de A. Por tanto, diremos que A es una matriz en bloques p × q.
Si p = q, entonces diremos que A es una matriz en bloques cuadrada.
Dada una matriz A = (Λi j ) en bloques cuadrada, diremos que
• A es diagonal en bloques si Λi j = O, para i , j, y escribiremos A = diag(Λ11 , Λ22 , . . . , Λ pp ).
• A es triangular superior en bloques si Λi j = O, para i > j
• A es triangular inferior en bloques si Λi j = O, para i < j
Si consideramos un sistema de ecuaciones lineales A · x = b, la matriz ampliada del sistema (A|b)
es un ejemplo de matriz en bloques.
1 5 0 0
3 1 0 0
Ejemplo 83. Consideremos la matriz A = 0 1 5 0 ∈ M4×5 (R).
0 2 −1 0
0 1 −1 2
Podemos considerar distintas particiones en bloques de A, por ejemplo
1 5 0 0
3 1 0 0
A = 0 1 5 0 =⇒ A es una matriz triangular inferior en bloques.
0 2 −1 0
0 1 −1 2
1 5 0 0
3 1 0 0
A = 0 1 5 0 =⇒ A es una matriz triangular superior en bloques.
0 2 −1 0
0 1 −1 2
Observa que aunque A no es una matriz cuadrada, con estas dos particiones en bloques A es una
matriz en bloques cuadrada 2 × 2.
Sin embargo, si consideramos en A la siguiente partición en bloques
1 5 0 0
3 1 0 0
A = 0 1 5 0 =⇒ A es una matriz 2 × 3 en bloques.
0 2 −1 0
0 1 −1 2
38
1.8.2 Operaciones con Matrices en Bloques.
∗ Suma de matrices en bloques.
Si A = (Λi j ) y B = (Ωi j ) son matrices en bloques p × q, donde los bloques Λi j y Ωi j son del mismo
tamaño para cada i, j con 1 ≤ i ≤ p y 1 ≤ j ≤ q, entonces
A + B = (Λi j + Ωi j )
Ejemplo 84.
1 5 0 0 −2 1 3 −1
3 1 0 0 ! 4 1 0 2 !
Λ11 Λ12 Ω11 Ω12
Si A = 0 1 5 0 =
y B = 0 0 2 1 =
Λ21 Λ22 Ω21 Ω22
0 2 −1 0
0 0 3 −2
0 1 −1 2 0 0 1 1
−1 6 3 −1
! 7 2 0 2
Λ11 + Ω11 Λ12 + Ω12
=⇒ A+B= = 0 1 7 1 .
Λ21 + Ω21 Λ22 + Ω22
0 2 2 −2
0 1 0 3
Ejemplo 85.
1 0 0 1 −1 1 2 4
0 1 0 2 1 ! 5 1
2
!
I3×3 Λ12 Ω11
Si A = 0 0 1 0 1 = y B = −1 3 0 =
O2×3 Λ22 Ω21
0 0 0 2 2 2 −1 0
0 0 0 5 −1 0 1 1
3 0 3
! 9 0 3
Ω11 + Λ12 Ω21
=⇒ A·B= = −1 4 1 .
Λ22 Ω21
4 0 2
10 −6 −1
39
1.8.3 Aplicaciones de las Matrices en Bloques.
• Cálculo de inversas.
!
P O
Si T = es una matriz en bloques diagonal y P y R son no singulares, entonces
O R
!
−1 P−1 O
T es no singular y T = .
O R−1
!
P Q
Si T = es una matriz en bloques triangular superior y P y R son no singulares,
O R
entonces !
−1 P−1 −P−1 QR−1
T es no singular y T = .
O R−1
!
P O
Análogamente, si T = es una matriz en bloques triangular inferior y P y R son no
Q R
singulares, entonces
!
−1 P−1 O
T es no singular y T = .
−R QP−1 R−1
−1
2 0 1 0 3 0 0 0
0 8 1 1 1 0 0 0
0 0 1 2 3 0 0 0
0 0 1 0 0 0 0 0
Ejemplo 86. Calcula la inversa de la matriz A = .
0 0 2
1 5 0 0 0
0 0 0
0 0 1 2 3
0 0 0 0 0 1 0 0
0 0 0 0 0 2 1 5
Si consideramos en A la siguiente partición en bloques
2 0 1 0 3 0 0 0
0 8 1 1 1 0 0 0
0 0 1 2 3 0 0 0
! !
0 0 1 0 0 0 0 0 P O −1 P−1 O
A = = =⇒ A =
0 0 2 1 5 0 0 0 O R O R−1
0 0 0 0 0 1 2 3
0 0 0 0 0 1 0 0
0 0 0 0 0 2 1 5
ya que P y R son matrices no singulares. Además, la submatriz P también puede ser dividida en
bloques de la siguiente forma:
2 0 1 0 3
0 8 1 1 1 ! !
S Q −1 S −1 −S −1 QR−1
P = 0 0 1 2 3 = =⇒ P =
O R O R−1
0 0 1 0 0
0 0 2 1 5
40
Por tanto,
1/2 0 3/14 1/7 −3/7 0 0 0
0 1/8 −1/14 −5/56 1/56 0 0 0
−1 0
S −S −1 QR−1 O 0 0 0 1 0 0 0
0 0 5/7 1/7 −3/7 0 0 0
A−1 = O R−1 O =
0 0 −1/7 −3/7 2/7 0 0 0
O O R−1 0 0 0 0 0 0 1 0
0 0 0 0 0 5/7 1/7 −3/7
0 0 0 0 0 −1/7 −3/7 2/7
• Cálculo de determinantes.
Λ11 Λ12 . . . Λ1k
O Λ22 . . . Λ2k
Si A = .. .. . . . es una matriz triangular en bloques y Λ11 , Λ22 , . . . , Λkk son
. . . ..
O O . . . Λkk
matrices cuadradas, entonces det(A) = det(Λ11 ) det(Λ22 ) · · · det(Λkk ).
1 2 3 2
5 −1 4 7
Ejemplo 87. Calcula el determinante de la matriz A = .
0 0 −2 3
0 0 1 −1
Si consideramos en A la siguiente partición en bloques
1 2 3 2 ! !
5 −1 4 7 1 2 −2 3
det(A) = det
= det det = (−11)(−1) = 11.
0 0 −2 3 5 −1 1 −1
0 0 1 −1
PROBLEMAS
Generalidades sobre matrices.
! ! 1
2 −5 1 −3
(P.1) Sean A = , B = (3 − 1 2), C = y D = 2 . Hallar (A · B + C) · D.
0 1 0 1
3
−1 0 ! 1 0 !
0 −1 −1
(P.2) Dadas las matrices A = 20 2 , B = , C = −2 −3 y D = .
1 2 1
3 −1 1 3
Calcula 2A · B + 3C y (A + C) · (3B · D).
! ! !
1 2 3 −8 5 2
(P.3) Sean A = ,B= yC = . Comprueba que AB = AC y que sin
3 6 2 3 1 −2
embargo B , C .
41
(P.4) Se dice que dos matrices A y B ∈ Mn×n (K) conmutan si AB = BA y se dice que A y B
anticonmutan si AB = −BA. ! ! !
1 1 3 1 1 1
Dadas las matrices A = ,B= yC = , comprueba si las matrices
0 −1 0 1 −2 −1
A y B conmutan o anticonmutan y si las matrices A y C conmutan o anticonmutan.
(P.5) Considera las matrices A y B ∈ Mn×n (K). Prueba si son verdaderas o falsas las siguientes
propiedades:
42
1 0 1
(P.11) Dada la matriz A = 0 1 0 , calcular An , ∀n ∈ N.
0 0 1
Ayuda: Para demostrar la expresión de An utiliza el principio de inducción matemática (ver el
documento Preliminares.pdf que encontrarás en Recursos de PoliformaT).
2 −1 0 3 0 4
(P.12) Sean A = 0 3 −2 y B = 1 −2 5 . Calcula 2A − 3BT .
1 −1 2 0 1 2
!
T T 1 2 0
(P.13) (i) Calcula AA y A A para A = y comprueba que son matrices distintas.
3 −1 4
1 + i 1 − i
(ii) Halla las matrices traspuesta y traspuesta conjugada de B = 2 1/2 y comprueba
3 + i −3 − i
que BT , B∗ .
(P.14) La traza tr(A) de una matriz cuadrada A se define como la suma de todas sus entradas
diagonales. Prueba que tr(A + C) = tr(A) + tr(C) y tr(αA) = α tr(A), ∀A, C ∈ Mn×n (K) y ∀α ∈ K.
(P.15) Estudia si las siguientes matrices son simétricas, antisimétricas, hermíticas o antiher-
míticas.
i 2 − i ! !
0 2+i 0 3+i
A = 0 3i , B= , C= ,
−2 + i 2i 3−i 2
2 4
2 3 −1 0 i 1 + 2i
D = 3 1 5 , E = −i 0 −4 .
−1 5 0 −1 − 2i 4 0
(P.16) Prueba que si A ∈ Mn×n (K) es una matriz antisimétrica, entonces las entradas diago-
nales de A son nulas.
(P.17) Prueba que si A ∈ Mn×n (K) es una matriz hermítica, entonces las entradas diagonales
de A son reales.
(P.18) Prueba que si A ∈ Mn×n (K) es una matriz antihermítica, entonces las entradas diago-
nales de A son números complejos con parte real nula.
(P.19) (i) Si A, B ∈ Mn×n (K) son simétricas, prueba que la suma A + B es una matriz simétrica.
(ii) Justifica que el producto de dos matrices simétricas no es una matriz simétrica en general.
(iii) Si A, B ∈ Mn×n (K) son simétricas, prueba que AB es simétrica si, y sólo si, A y B conmutan.
43
3 3 −1
(P.21) Expresa la matriz 0 3 2 como suma de una matriz simétrica y de otra antisi-
−1 2 2
métrica.
6 6 1
(P.22) Escribe la matriz A = 4 −4 3
7 1 2
(i) como suma de una matriz triangular superior y de una triangular inferior con las mismas
entradas diagonales
(ii) como suma de una matriz simétrica y otra antisimétrica.
0 1 0 1 0 0 1 0 0 1 0 0 0 0 1
(i) 1 0 0 (ii) 0 1 0 (iii) 0 1/3 0 (iv) 0 1 4 (v) 0 1 0
0 0 1 −2 0 1 0 0 1 0 0 1 1 0 0
Repite el ejercicio considerando operaciones elementales sobre columnas.
(P.24) Considera las siguientes parejas de matrices y encuentra en cada caso la matriz ele-
mental por la que hay que premultiplicar la primera matriz para obtener la segunda y la matriz
elemental por la que hay que premultiplicar la segunda matriz para obtener la primera:
1 3 −1 1 3 −1
(i) A1 = 0 2 −4 , A2 = 0 1 −2
0 −3 4 0 −3 4
0 5 −3 1 5 −2
(ii) B1 = 1 5 −2 , B2 = 0 5 −3
2 1 8 2 1 8
1 3 −1 5 1 3 −1 5
(iii) C1 = 0 1 −4 2 , C2 = 0 1 −4 2
0 2 −5 −1 0 0 3 −5
1 0 3 1 0 3
−2 3 −4
(iv) D1 = , D = −2 3 −4
0 5 7 0 5 7
2
3 1 2 0 1 −7
(P.25) Determina cuáles de las siguientes matrices están en forma escalonada reducida por
filas y cuáles están en forma escalonada por filas (pero no en forma escalonada reducida por
filas):
1 0 0 0 1 0 0 0 0 1 1 0 0 0
A = 0 1 0 0 , B = 0 1 1 0 , C = 0 0 1 , D = 1 0 0 ,
0 0 1 0 0 0 0 1 0 0 0 0 1 0
44
1 1 1 0 1 0 1 0 1 0 1 1 1 1
E = 0 0 0 1 , F = 0 0 1 1 , G = 0 0 0 , H = 0 0 0 ,
0 0 0 0 0 0 0 1 0 1 0 0 0 0
1 0 1 0 1 0 0 0 0 2 3 4 5
0 1 1 0
1 1 0 0 0 0 3 4 5
J = , K = , M = .
0 0 0 1 0 1 1 0 0 0 0 0 5
0 0 0 0 0 0 1 1 0 0 0 0 0
(P.26) (i) Aplica el método de Gauss para calcular una forma escalonada por filas de la matriz
1 2 3 1 3
3 2 1 1 7
A = .
0 2 4 1 1
6 3 2 9 1
(ii) Aplica el método de Gauss-Jordan para calcular la forma escalonada reducida por filas de
la matriz A. Calcula el rango de A.
0 6 13
(P.27) Considera la matriz C = 0 2 4 . Calcula cuatro matrices elementales E1 , . . . , E4
1 0 0
tales que E4 E3 E2 E1C = I3×3 .
(P.28) Calcula una forma escalonada por filas, la forma escalonada reducida y el rango de las
siguientes matrices:
1 2 3 0 1 2 0 1 2 2 −2 4
A = 4 5 6 , B = −1 0 3 , C = 1 0 3 , D = −1 3 4 ,
7 8 9 −2 −3 0 2 3 0 1 −2 −3
1 −1 1 1 0 0 1
1 2 3 4 3 6 5 9
2 1 7 0 1 1 0
E = 5 6 7 8 , F = 1 1 2 4 , G = , H = ,
0 1 2 1 0 1 0
6 7 8 7 1 −2 3 7
1 0 3 0 1 0 1
1 2 10 6 0 −3 −6 4 9
0 3 −6 6 4 −5 −1 −2
2 1 2 3
−1 3 1
J = , K = 3 −7 8 −5 8 9 , M = .
2 2 5 5 −2 −3
0 3 −1
3 −9 12 −9 6 15
−1 1 5 2 1 4 5 −9 −7
45
(
x + y + 2z = 2
x − 2y − z + 3t = 0
x − 3y − 5z = 0
(iv)
y+ z = 1 (v) (vi)
−2x + 4y + 5z − 5t = 3
2x y+ z = 3
3x − 6y − 6z + 8t = 2
+ 2z = 2
2x + y + z = a
(P.31) Prueba que el sistema de ecuaciones lineales x + y + z = b es compatible si, y
3x + y + z = c
sólo si, c − 2a + b = 0.
1 1 2 a
(P.32) Considera el sistema cuya matriz ampliada es −2 0 −1 b .
1 3 5 c
Da condiciones sobre a, b y c para que el sistema sea compatible.
2 5 −1 4 −1 −5
−6 1 3 2 4 9
(P.33) Resuelve el sistema de matriz ampliada (A|b) = .
−16 −8 8 −4 6 3
−4 6 2 6 3 5
1 −5 3 3 −3 0
1 −3 2 4 −2 0
(P.34) Resuelve el sistema de matriz ampliada (A|b) = −2 6 −4 −3 2 0 .
3 −7 5 8 −3 0
−2 8 −5 −2 3 0
(P.35) Discutir el siguiente sistema de ecuaciones en función de los parámetros a y b:
2x − ay + bz = 4
x + z = 2
x+ y+ z = 2
Matrices no singulares.
(P.37) Suponiendo que todas las matrices que intervienen son no-singulares, despeja la matriz
D en cada una las siguientes igualdades:
(i) ADB = C, (ii) ACDB = C, (iii) CADB = C, (iv) (AB)−1 AD = I, (v) A(B + D) = (B−1 )−1 .
46
2 −3 1 3 0 −1
(P.38) Si A = 4 −5 3 y B = −2 1 1 , halla una matriz X 3×3 tal que AX + B = O3×3 .
2 −2 1 −1 2 2
0 −1 0 1 2
(P.39) Halla una matriz 3 × 2 tal que X = AX + B, donde A = 0 0 −1 y B = 2 1 .
0 0 0 3 3
(P.40) Halla una matriz X tal que (AX T + C)T = B, siendo
1 1 1 ! 3 −2
2 1 −1
A = 1 1 2 , B= y C = 0 1 .
0 −2 1
1 2 3 0 1
47
Determinantes.
(P.46) Calcula el determinante de las siguientes matrices:
1 2 3 4
8 7 −3 −4 −6 7 0 −2 1 0 1 2 4
A = 1 1 2 , B = 8 −2 −5 , C = 7 5 2 , D = ,
2 3 4 5
1 1 3 −1 1 1 5 −2 6
2 0 1 2
−4 1 1 1 1
1 1 1 1 4 −2 5 1 1 −4 1 1 1
1 2 3 4 −4 1 0 −1
E = , F = , G = 1 1 −4 1 1 .
1 3 6 10 2 1 −1 1
1 1 1 −4 1
1 4 10 20 1 0 1 −2
1 1 1 1 −4
x y z
(P.47) Sabiendo que det 3 0 2 = 5, calcula sin desarrollar, los determinantes :
1 1 1
2x 2y 2z x y z x − 1 y − 1 z − 1
det 3/2 0 1 , det 3x + 3 3y 3z + 2 , det 4 1 3
1 1 1 x+1 y+1 z+1 1 1 1
48
(P.51) Sea S una matriz n × n antisimétrica. Si n es impar, prueba que det(S ) = 0.
(P.52) (i) Prueba que una matriz nilpotente es singular.
(ii) Calcula los posibles valores del determinante de una matriz idempotente.
(P.53) Sea A una matriz n × n sobre K tal que A3 = A. ¿Cuáles son los posibles valores de
det(A)?
(P.54) Sea A ∈ Mn×n (R) tal que 3A2 − 2A = On×n . Calcula los posibles valores del determinante
de A.
x 2 −1
(P.55) Calcula los valores de x para los que la matriz A = 2 x −1 es singular.
2 −1 x
−2 1 p
(P.56) Considera la matriz A = 0 −1 1 .
1 2 0
(a) Halla los valores de p para los que A es no singular.
(b) Calcula la inversa de A para p = −4 y expresa A como producto de matrices elementales.
1 0 3
(P.60) Calcula la factorización LU de la matriz no singular A = 3 1 −1 . Teniendo en
0 2 1
cuenta la factorización anterior:
49
1. Calcula det(A).
2. Calcula A−1 .
4
3. Resuelve el sistema Ax = b siendo b = 3 .
−1
(P.61) Averigua si las siguientes matrices no singulares admiten factorización LDU y en caso
afirmativo calcula dicha factorización:
1 −2 −4 −3
1 1 1 1 1 −1 2 2 0 2 −7 −7 −6
A = 1 1 −1 , B = 1 −1 −1 , C = 1 −1 2 , D = −1 2 6 4 ,
1 −1 2 1 −1 0 4 5 9
−4 −1 9 8
1 1 1 1 1 3 4 0 1 0 −1 2
0 2 1 −1 −3 −6 −7 2
E = , F = , G = 0 −3 6 −3 .
1 5 3 0
3 3 0 −4 −1 6 −9 2
1 −1 2 2 −5 −3 2 6 2 −3 2 1
(P.64) Sea la matriz cuadrada A = diag(Λ11 , Λ22 , . . . , Λkk ) diagonal en bloques. Prueba que A
es nilpotente si, y sólo si, cada bloque diagonal es nilpotente.
!−1 !
1 1 4 −1
(P.65) Sabiendo que = , calcula la inversa de las siguientes matrices
3 4 −3 1
estableciendo los bloques convenientes
3 0 0 1 1
1 1 0 0 2 0 1 1
3 4 0 ;
0 0 1 1 1
0 0 4 0 0 0 1 1
0 0 0 3 4
50
1 0 −1 1 1 0 0 0
2 −1 −2 1 1 0 0 0
0 −2 1 1 1 0 0 0
0 0 0 3 0 0 0 0
(P.66) Calcula la inversa de la matriz A = 0 0 0 0 −5 0 0 0
.
0 0 0 0 0 −1 0 1
0 0 0 0 0 −2 1 2
0 0 0 0 0 0 2 −1
−1 0 0 0 0 0 0 0
0 3 0 0 0 0 0 0
1 −1 1 2 3 0 0 0
1 −1 2 3 4 0 0 0
(P.67) Calcula la inversa de la matriz A = 1 −1 3 4 6 0 0 0
.
0 0 0 0 0 1 2 3
0 0 0 0 0 2 3 4
0 0 0 0 0 3 4 6
1 1 0 0 0 0 0 0
−1 −1 1 0 0 0 0 0
2 1 2 0 0 0 0 0
1 1 1 −2 0 0 0 0
(P.68) Halla la inversa de la matriz A = 1 1 1 0 3 0 0 0
.
0 0 0 0 0 1 1 0
0 0 0 0 0 −1 −1 1
0 0 0 0 0 2 1 2
¿Admite la matriz A descomposición LDU? Justifica tu respuesta.
1 3 −1 2 3
1 2 1 −3 4
(P.69) Calcula el determinante de A = 0 0 1 0 0 .
0 0 −2 5 0
0 0 3 2 7
1 −1 0 0 0 0
2 0 0 0 0 0
3 −1 3 4 0 0
(P.70) Calcula el determinante de A = .
2 1 1 −2 0 0
7 3 −1 4 2 5
6 −2 −3 −1 0 1
(P.71) Calcula el determinante de An siendo
−2 −1 1 1 0 0 0 0
1 3 1 2 0 0 0 0
−1 0 0 2 0 0 0 0
3 0 0 0 0 0 0 0
A = .
0 0 0 0 1 −1 −2 1
0 0 0 0 2 3 1 1
0 0 0 0 2 0 −1 0
0 0 0 0 0 0 3 0
51
CUESTIONES
(C1) Una de las siguientes matrices está en forma escalonada reducida por filas
1 0 4 0 1 −12 2 0 1 1 1 0 1
0 1 2 0 0 1 0 0 0 0 1 0 −1
(a) A =
(b) B =
(c) C =
0 0 0 1 0 0 1 0 0 0 0 1 2
0 0 0 0 0 0 0 0 0 0 0 0 1
1 0 2
(C6) La inversa de A = 0 1 0 es
0 0 1
1 0 0 1 0 0 1 0 −2
(a) B = 0 1 0 (b) C = 0 1 0 (c) D = 0 1 0
−2 0 1 2 0 1 0 0 1
(C7) Sean A, B y C ∈ Mn×n (K), tales que B(A + X T ) = C , con B no singular. Entonces:
(a) X = (CB−1 − A)T .
(b) X = C T (BT )−1 − AT .
(c) X = (BT )−1C T − AT .
52
(C9) Si A, B y C son matrices n × n, entonces
(a) det(ABC) = det(A) det(B) det(C).
(b) det(A + B) = det(A) + det(B).
(c) det(λA) = λ det(A).
λ λ λ
(C10) det λ λ λ =
λ λ λ
(a) 0 (b) λ (c) λ3
(C11) Sean A y B matrices n × n, con B no singular. Entonces, det(B−1 ABT ) =
(a) det(B)2 det(A) (b) det(A) (c) 1/ det(A)
(C12) Sea A una matriz 3 × 3 con det(A) = 5. Entonces NO es cierto que:
(a) det(2A−1 ) = 8/5.
(b) det((2A)−1 ) = 1/40.
(c) det(3A) = 125.
(C13) Sea A ∈ M3×3 (K). Supongamos que se hacen las siguientes operaciones elementales
sobre A para obtener la matriz B:
F1 ↔ F2
1
F2 F 2F
1 2 3
4 3 + 2
A −−−−−−−−→ −−−−−→ −−−−−−−−→ B = 0 1 0 ,
0 0 −6
entonces una de las siguientes afirmaciones es verdadera:
(a) det(A) = 6 (b) det(A) = 24 (c) det(A) = −6
(C14) Sea A ∈ Mn×n (K) no singular. Si A es simétrica y admite factorización LDU , entonces
(a) A = LDL−1 (b) A = LDLT (c) A = LT DL
(C15) Una de las siguientes afirmaciones es INCORRECTA:
(a) Si A es no singular, entonces A es producto de matrices elementales.
(b) Si A es no singular, entonces su forma escalonada reducida es la identidad.
(c) Si A es no singular, entonces A admite factorización LDU .
(C16) Una de las siguientes afirmaciones es correcta:
! !
I A I −A−1
(a) la inversa de es
O I O I
! −1
!
I A I A
(b) la inversa de es
O I O I
! !
I A I −A
(c) la inversa de es
O I O I
53
Tema 2: Espacios Vectoriales
2.5. Anexo.
55
2.1. GENERALIDADES SOBRE ESPACIOS VECTORIALES.
K denota a R ó C indistintamente.
V
= −→
U−−→
OV
V −
V
+ U−→
U −
−−→ U
−→
OU
O−
La definición no depende del punto O elegido. Denotaremos con ~0 al vector libre nulo. Si ~v ∈
V, al vector libre con la misma longitud, la misma dirección y sentido opuesto a ~v, lo denotaremos
mediante −~v y le llamaremos opuesto de ~v. Si ~u, ~v, w
~ ∈ V, entonces se verifica:
(1) ~u + (~v + w
~ ) = (~u + ~v) + w
~ (2) ~u + ~v = ~v + ~u
(3) ~v + ~0 = ~v = ~0 + ~v (4) ~v + (−~v) = ~0 = (−~v) + ~v.
→0
−−− U U’
O
→ =
−−OU U
2
−−→
O
U
O
56
No resulta complicado comprobar que si ~u, ~v ∈ V y α, β ∈ R, entonces se verifican las siguien-
tes propiedades:
Ejemplo II. Consideremos Mm×n (K) el conjunto de todas las matrices de tamaño m×n con entradas
en K. En el Tema 1 se definió la suma de matrices: si A = (ai j ), B = (bi j ) ∈ Mm×n (K), entonces
A + B = (ai j + bi j ) ∈ Mm×n (K). Recordemos que Om×n denotaba una matriz m × n con todas
las entradas nulas. Si A = (ai j ) ∈ Mm×n (K), entonces llamábamos matriz opuesta de A y la
denotábamos por −A, a la matriz: −A = (−ai j ) ∈ Mm×n (K). Si A, B, C ∈ Mm×n (K), entonces se
verifica:
(1) A + (B + C) = (A + B) + C (2) A + B = B + A
(3) A + Om×n = A = Om×n + A (4) A + (−A) = Om×n = (−A) + A.
Asimismo, se definió el producto de un escalar por una matriz: si A = (ai j ) ∈ Mm×n (K) y
α ∈ K, entonces αA = (αai j ) ∈ Mm×n (K). Si A, B ∈ Mm×n (K) y α, β ∈ K, entonces se cumple:
Ejemplo III. Consideremos S el conjunto de todas las sucesiones de números reales. En la asig-
natura Matemáticas I se definió la suma de sucesiones de números reales: si x = (xn )n∈N , y =
(yn )n∈N ∈ S, entonces x + y = (xn + yn )n∈N ∈ S. Recordemos que 0 denota la sucesión cuyo término
general es 0. Si x = (xn )n∈N ∈ S, entonces se llama sucesión opuesta y se denota por −x, a la
sucesión: −x = (−xn )n∈N ∈ S. Si x, y, z ∈ S, entonces se cumple:
(1) x + (y + z) = (x + y) + z (2) x + y = y + x
(3) x + 0 = x = 0 + x (4) x + (−x) = 0 = (−x) + x.
(ii) Se ha definido un modo de sumar elementos del conjunto obteniendo como resultado un
elemento del mismo conjunto.
57
(iii) Se ha definido un modo de multiplicar un número por un elemento del conjunto obteniendo
como resultado un elemento del conjunto.
(iv) Se verifica una colección de propiedades ((1)-(8)) respecto de las operaciones mencionadas
en (ii) y (iii).
Se observa que sólo las operaciones definidas y sus propiedades son relevantes, no la naturaleza
de los elementos. Este hecho motiva la definición abstracta de espacio vectorial y el desarrollo de
una teoría general.
Definición 1. Un espacio vectorial sobre K es un conjunto no vacío E junto con dos operaciones
+ : E × E −→ E ·K : K × E −→ E
(x, y) 7−→ x + y (α, x) 7−→ α ·K x
llamadas suma y producto por un escalar que verifican las siguientes condiciones:
+ Suma:
(1) Asociativa: x + (y + z) = (x + y) + z, ∀x, y, z ∈ E.
(2) Conmutativa: x + y = y + x, ∀x, y ∈ E.
(3) Existencia de elemento neutro: ∃ 0 ∈ E tal que x + 0 = x = 0 + x, ∀x ∈ E.
(4) Existencia de elemento opuesto: ∀x ∈ E ∃ −x ∈ E tal que
x + (−x) = 0 = (−x) + x.
·K Producto por un escalar:
(5) Distributiva respecto de la suma de elementos de E:
α ·K (x + y) = α ·K x + α ·K y, ∀α ∈ K, ∀x, y ∈ E.
(6) Distributiva respecto de la suma de elementos de K:
(α + β) ·K x = α ·K x + β ·K x, ∀α, β ∈ K, ∀x ∈ E.
(7) Asociativa mixta:
α ·K (β ·K x) = (αβ) ·K x, ∀α, β ∈ K, ∀x ∈ E.
(8) Existencia de elemento neutro: ∃ 1 ∈ K tal que 1 ·K x = x, ∀x ∈ E.
Los elementos de E son llamados vectores y los elementos de K reciben el nombre de escalares.
Observaciones 2. (a) El neutro de la ley suma es único y cada vector de un espacio vectorial tiene
un único vector opuesto.
(b) Queremos destacar que un espacio vectorial sobre K es un conjunto no vacío E dotado de
dos operaciones + y ·K , esto es, una terna (E, +, ·K ) que verifica determinadas propiedades, aunque
para simplificar la notación escribiremos E en lugar de (E, +, ·K ) y prescindiremos de ·K cuando rea-
licemos el producto por un escalar. Estas simplificaciones se harán siempre que se sobrentiendan
los elementos que se omiten.
58
Proposición 3. Sea E un espacio vectorial sobre K. Se verifican las siguientes afirmaciones:
(i) Productos nulos: Si x ∈ E y α ∈ K, entonces α x = 0 ⇐⇒ α = 0 ó x = 0.
(ii) Regla de signos: Si x ∈ E y α ∈ K, entonces (−α) x = −(α x) = α (−x).
(iii) Reglas de simplificación: Si x ∈ E − {0}, α, β ∈ K y α x = β x, entonces α = β.
Si x, y ∈ E, α ∈ K − {0} y α x = α y, entonces x = y.
Ejemplos 4.
(a) (V, +, ·) (ver Ejemplo I) es un ejemplo de un espacio vectorial sobre R.
(b) (Mm×n (K), +, ·) (ver Ejemplo II) es un ejemplo de un espacio vectorial sobre K. Destacar
que si n = 1, obtenemos que (Km , +, ·) es un ejemplo de un espacio vectorial sobre K y si
m = n = 1, entonces podemos afirmar que (K, +, ·) es un ejemplo de un espacio vectorial
sobre K.
(c) (S, +, ·) (ver Ejemplo III) es un ejemplo de un espacio vectorial sobre R.
(d) Consideremos Pn (K) el conjunto de todos los polinomios con coeficientes en K en la inde-
terminada x de grado menor o igual a n. Recordemos que si p(x) = a0 + a1 x + . . . + an xn ,
q(x) = b0 + b1 x + . . . + bn xn ∈ Pn (K), entonces se define la suma de p(x) y q(x) del siguiente
modo: (p+q)(x) = (a0 +b0 )+(a1 +b1 )x+. . .+(an +bn )xn . Observemos que (p+q)(x) ∈ Pn (K).
Si α ∈ K y p(x) = a0 + a1 x + . . . + an xn ∈ Pn (K), definimos el producto de un escalar α
por el polinomio p(x) como sigue: (αp)(x) = (αa0 ) + (αa1 )x + . . . + (αan )xn . Es claro que
(αp)(x) ∈ Pn (K). Se comprueba fácilmente que (Pn (K), +, ·) es un espacio vectorial sobre
K.
(e) Sean a, b ∈ R tales que a < b. Consideremos C([a, b]) el conjunto de todas las funciones
reales continuas en el intervalo cerrado [a, b]. Si f : [a, b] −→ R y g : [a, b] −→ R ∈
C([a, b]), entonces se define su suma mediante ( f + g)(x) = f (x) + g(x) para todo x ∈ [a, b].
Si α es un número real y f es una función continua en [a, b], entonces definimos el producto
del escalar α por la función f como la función α f que asigna a cada x ∈ [a, b] el número real
α( f (x)). En la asignatura Matemáticas I se estudió que f + g y α f son funciones continuas
en [a,b]. Es sencillo comprobar que (C([a, b]), +, ·) es un ejemplo de un espacio vectorial
sobre R.
59
! ! ! !
a11 0 b11 0 a11 + b11 0 αa11 0
A+B= + = y α·A= .
0 a22 0 b22 0 a22 + b22 0 αa22
Por tanto, A + B y α · A ∈ D. En la medida que los elementos de D son elementos de M2×2 (K),
las propiedades (1)-(8) de la definición de espacio vectorial se verifican también para las matrices
diagonales. Por tanto, (D, +, ·) es un espacio vectorial sobre K.
+ : F × F −→ F ·K : K × F −→ F
(x, y) 7−→ x + y (α, x) 7−→ α ·K x
Ejemplos 8.
(a) D = {A ∈ M2×2 (K) : A matriz diagonal } es un subespacio de M2×2 (K).
!
2 t
(b) Sea T el subconjunto de R formado por los elementos de la forma con t ∈ R. El
4t
!
0
vector nulo es un elemento de T , basta considerar t = 0. Elegimos ahora dos ele-
0
! !
a b
mentos de T : y con a, b ∈ R. Si los sumamos obtenemos un elemento de T :
4a 4b
! ! ! !
a b (a + b) t
+ = . Si consideramos α ∈ R y un elemento de T , entonces
4b 4b 4(a + b) 4t
60
! !
t (α t)
es fácil observar que α · = es un elemento de T . Del Teorema 6 deduci-
4t 4(α t)
( ! ) ( ! )
t x
mos que T = : t∈R = : 4x − y = 0 es un subespacio vectorial de R2 .
4t y
Geométricamente T es una recta de R2 que pasa por el origen.
( !)
2 0
De hecho, se puede afirmar que los subespacios de R son: , las rectas que pasan por
0
el origen y R2 .
(c) Consideremos un sistema de m ecuaciones lineales con n incógnitas homogéneo con coefi-
cientes en K: Ax = 0. Denotamos con S al conjunto de todas las soluciones de dicho sistema
de ecuaciones lineales, esto es, S = {x ∈ Kn : Ax = 0}. Es claro que 0 ∈ S . Tomemos
x0 , x1 ∈ S y α ∈ K, entonces
Por tanto, x0 + x1 y αx0 son soluciones del sistema de ecuaciones lineales Ax = 0 y, por
tanto, pertenecen a S . Del Teorema 6 se sigue que S es un subespacio de Kn .
(d) Sea P = {p(x) ∈ P2 (K) : p(1) = 0}. Observemos que P = {p(x) = a + bx + cx2 ∈
P2 (K)) : a + b + c = 0}. Claramente el polinomio nulo p(x) = 0 pertenece a P. Elegimos
dos polinomios de P: p(x) = a0 + a1 x + a2 x2 donde a0 + a1 + a2 = 0 y q(x) = b0 + b1 x + b2 x2
donde b0 +b1 +b2 = 0 y los sumamos: (p+q)(x) = (a0 +b0 )+(a1 +b1 )x+(a2 +b2 )x2 ∈ P2 (K).
Veamos que este polinomio pertenece a P
61
2.1.3 Operaciones con Subespacios: Intersección de Subespacios, Suma de Subespacios y Suma
Directa de Subespacios.
Proposición 10. Sea E un espacio vectorial sobre K. Si F y G son dos subespacios vectoriales de
E, entonces
F ∩ G = {x ∈ E : x ∈ F y x ∈ G}
62
es el mayor subespacio de E contenido en F y en G y es llamado subespacio intersección de F y
G.
Proposición 11. Sea E un espacio vectorial sobre K. Si F y G son dos subespacios vectoriales de
E, entonces
F + G = { h ∈ E : h = x + y con x ∈ F, y ∈ G}
es el menor subespacio de E que contiene a F y a G y es llamado suma de los subespacios F y G.
Definición 12. Sea E un espacio vectorial sobre K y sean F, G y H subespacios vectoriales de E.
Diremos que H es suma directa de F y G y escribiremos H = F ⊕ G, si todo elemento de H se
puede expresar de forma única como suma de un vector de F y otro de G.
Teorema 13. (Caracterización de suma directa)
Sea E un espacio vectorial sobre K. Si F y G son subespacios vectoriales de E, entonces
F complementa a G en R2 .
(b) Sea M2×2 (R) espacio vectorial sobre R. Consideremos los subespacios de M2×2 (R):
( ! )
a b
F = { A ∈ M2×2 (R) : A simétrica } = ∈ M2×2 (R) : b = c
c d
( ! )
a b
G = { A ∈ M2×2 (R) : A antisimétrica } = ∈ M2×2 (R) : b = −c; a = d = 0
c d
( ! )
a b
H= ∈ M2×2 (R) : a = d; c = 0 .
c d
(b.1) Calculemos F ∩ G, F + G y decidamos si la suma es o no directa.
En primer lugar estudiamos que forma tiene un elemento del subespacio F ∩ G:
! ( ) !
a b A ∈ F −→ b = c 0 0
A= ∈ F ∩ G =⇒ =⇒ A = .
c d A ∈ G −→ a = 0 = d; b = −c 0 0
( !)
0 0
En consecuencia, tenemos que F ∩ G = .
0 0
63
Para obtener F + G, comenzamos observando que F + G ⊆ M2×2 (R). Es conocido que
toda matriz cuadrada se puede expresar como suma de una matriz simétrica más otra
antisimétrica (ver Ejercicio 20(ii) Tema 1). En nuestro caso tenemos
simétrica antisimétrica
z }| {! z }| {!
1 1
A ∈ M2×2 (R) =⇒ A = (A + AT ) + (A − AT ) ∈ F + G,
2 2
64
( ! )
a b
Calculemos G+H, para ello comprobaremos que G+H = ∈ M2×2 (R) : a = d .
c d
!
a b
En efecto, tomamos ∈ G + H. Así pues, este vector se puede escribir como
c d
suma de un elemento de G más un elemento de H:
! ! !
a b 0 −β α γ
= +
c d β 0 0 α
( ! )
a b
de donde deducimos que a = d. Hemos probado que G+H ⊆ ∈ M2×2 (R) : a = d .
c d
! ( ! )
a b a b
Elegimos ahora un vector de ∈ M2×2 (R) : a = d y veamos que
c a c d
también es un vector G + H:
! ! !
a b 0 −c a b+c
= + ∈ G + H.
c a c 0 0 a
( ! )
a b
Por tanto, podemos afirmar que ∈ M2×2 (R) : a = d ⊆ G + H y, con ello,
c d
( ! )
a b
tenemos G + H = ∈ M2×2 (R) : a = d . Anteriormente, hemos comprobado
c d
( !)
0 0
que G ∩ H = , luego podemos escribir T = G ⊕ H y H es un complemento
0 0
!
0 0
de G en T . Observemos que M2×2 (R) , G ⊕ H, pues < G ⊕ H.
0 1
65
Definición 16. Sea E un espacio vectorial sobre K y A un subconjunto no vacío de E. Diremos
que un vector x ∈ E es una combinación lineal de los vectores de A si
x = α1 x1 + α2 x2 + · · · + αk xk
donde α1 , . . . , αk ∈ K y x1 , . . . , xk ∈ A (distintos).
Se llama envoltura lineal de A al conjunto formado por todas las combinaciones lineales de los
vectores de A y lo denotaremos por L(A).
Proposición 17. (Propiedades de la envoltura lineal)
Sean E un espacio vectorial sobre K y A y B dos subconjuntos no vacíos de E. Se verifican las
siguientes afirmaciones:
(1) L(A) es el menor subespacio de E que contiene a A.
(2) Si A ⊆ B, entonces L(A) ⊆ L(B).
(3) L(L(A)) = L(A).
(4) L(A ∪ B) = L(A) + L(B).
Ejemplo 18.
1 1
(a) Consideremos el subconjunto A =
x = 1
, y = 0
de R3 , entonces
1 1
L(A) = {z ∈ R3 : z = αx + βy con α, β ∈ R, x, y ∈ A} =
α + β
a
3
= z =
α
: α, β ∈ R
=
z =
b
∈ R : a = c
.
α+β c
7 2
Tomamos ahora los vectores h = 3 y w = 8 de R3 . Es claro que h ∈ L(A), pues
7 1
h = 3x + 4y. Sin embargo, w < L(A), ya que la primera y tercera componente son distintas.
(b) Consideremos un sistema de m ecuaciones lineales con n incógnitas y coeficientes en K:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .. .. .. ..
. . . . = .
am1 x1 + am2 x2 + · · · + amn xn = bm
Este sistema también puede escribirse del siguiente modo
A1 A2 An b
z }| { z
}| { z
}| { z}|{
a11 a12 a1n b1
a21 a22 a2n b2
x1 .. +x2 .. + · · · + xn .. = .. =⇒ x1 A1 + x2 A2 + · · · + xn An = b.
. . . .
am1 am2 amn bm
66
Por tanto, el sistema será compatible si b ∈ L({A1 , A2 , . . . , An }) y será incompatible si b <
L({A1 , A2 , . . . , An }).
Definición 19. Sea E un espacio vectorial sobre K y sea A un subconjunto no vacío de vectores
de E. Diremos que A es linealmente dependiente (LD) si existen vectores x1 , x2 , . . . , xk ∈ A
(distintos) y existen escalares α1 , α2 , . . . , αk ∈ K no todos nulos tales que
α1 x1 + α2 x2 + · · · + αk xk = 0.
Esto significa que al menos un vector del conjunto {x1 , x2 , . . . , xk } puede ser expresado como com-
binación lineal de los otros. Veamos esta afirmación con más detalle. Supongamos que αi , 0,
entonces
X n !
αi ,0 αj
−αi xi = α1 x1 + . . . + αi−1 xi−1 + αi+1 xi+1 + . . . + αn xn −→ xi = − x j.
j=1, j,i
αi
67
Observemos que si A es LD el vector nulo puede expresarse de diferentes formas como combi-
nación lineal de ciertos elementos de A.
Diremos que A es linealmente independiente (LI) si no es LD, es decir, si siempre que encon-
tremos
α1 x1 + α2 x2 + · · · + αk xk = 0
con α1 , . . . , αk ∈ K y x1 , . . . , xk ∈ A (distintos), entonces necesariamente
α1 = 0, α2 = 0, . . . , αk = 0.
Ahora observamos que existe una única forma de expresar el vector nulo como una combinación
lineal finita de elementos de A.
Lema 20. (Lema de la dependencia lineal) Sea E un espacio vectorial sobre K y sea A un
subconjunto no vacío de E.
1. Si A = {v1 }, entonces
A = {v1 } es LD ⇐⇒ v1 = 0.
2. Si A posee más de un elemento, entonces
Ejemplos 21.
1 1
(a) Sea R3 un espacio vectorial real. Tomamos de nuevo los vectores x1 = 1 , x2 = 0 ,
1 1
7 1
x3 = 3 y x4 = 2 de R3 . Según hemos visto anteriormente A = {x1 , x2 } es LI y
7 3
B = {x1 , x2 , x3 , x4 } es LD.
(b) Sea E un espacio vectorial sobre K. Si A es un subconjunto de E y 0 ∈ A, entonces A es
LD.
(c) Sea M2×2 (R) espacio vectorial sobre R. Consideremos el subconjunto de M2×2 (R):
( ! ! ! !)
1 −1 1 1 0 2 1 1
A= A= ,B = ,C = ,D = .
−1 1 1 1 2 0 0 0
Veamos si este conjunto de vectores es LD o LI.
! ! ! ! !
1 −1 1 1 0 2 1 1 0 0
α +β +γ +δ = (*)
−1 1 1 1 2 0 0 0 0 0
68
! !
α+β+δ=0
α + β + δ −α + β + 2γ + δ 0 0 −α + β + 2γ + δ = 0
= =⇒
−α + β + 2γ α+β 0 0
−α + β + 2γ = 0
α+β=0
resolviendo el sistema de ecuaciones lineales homogéneo se obtiene: α = γ, β = −γ y δ = 0.
Nótese que dicho sistema es compatible indeterminado. Por tanto, A es una familia LD. Si
elegimos, por ejemplo, como valor del parámetro γ = 1 y sustituimos en la combinación
lineal (*), observamos que A − B + C = O2×2 . Así B = A + C ∈ L(A − {B}) = L({A, C, D}).
(d) Sea M2×2 (R) espacio vectorial sobre R. Consideremos el subconjunto de M2×2 (R):
( ! ! !)
1 −1 0 2 1 1
B= A= ,C = ,D = .
−1 1 2 0 0 0
(iii) Si A = { x1 , . . . , xk } es LI y x ∈ E − A, entonces
A ∪ {x} es LD ⇐⇒ x ∈ L(A).
69
2.2.3 Sistema Generador de E.
!
2 a
Consideremos de nuevo R espacio vectorial sobre R. Tomamos un elemento de R2 . Es
b
claro que este vector puede escribirse como sigue:
! ! !
a 1 0
=a +b
b 0 1
! ! !
a 1 0
esto es, aparece como suma de múltiplos escalares de los vectores y . Así cualquier
b 0 1
( ! !)
2 1 0
vector de R se construye o se genera a partir del conjunto C2 = , . Por tanto, afir-
0 1
2
mamos que R = L(C2 ).
Fijamos ahora nuestra atención en Pn (R) espacio vectorial sobre R. Elegimos p(x) ∈ Pn (R) y
a ∈ R. En la asignatura Matemáticas I se presentó el desarrollo limitado de Taylor de una función
en un punto. Por tanto, podemos escribir p(x) del siguiente modo
1 00 1
p(x) = p(a) + p0 (a)(x − a) + p (a)(x − a)2 + . . . + p(n) (a)(x − a)n
2! n!
esto es, p(x) puede expresarse como suma de múltiplos escalares de los vectores 1, (x − a), (x − a)2 ,
. . . , (x − a)n . En consecuencia, cualquier polinomio de grado menor o igual a n con coeficientes
reales puede generarse a partir del conjunto A = {1, (x − a), (x − a)2 , . . . , (x − a)n }, es decir,
Pn (R) = L(A).
En ambos casos, ha sido posible construir cualquier vector del espacio como suma de múltiplos
escalares de un conjunto finito de vectores. A continuación daremos nombre a estos conjuntos de
vectores.
(b) A = {1, (x−a), (x−a)2 , . . . , (x−a)n } es un sistema generador de Pn (R), pues L(A)) = Pn (R).
Proposición 25. Sea E un espacio vectorial sobre K. Se verifican las siguientes afirmaciones:
• Si ∅ , A ⊆ E, entonces A es un sistema generador de su envoltura, L(A).
70
• Si S = {v1 , . . . , vi , . . . , v j , . . . , vn } es un sistema generador de E, entonces también son sis-
temas generadores los siguientes conjuntos:
El objetivo de esta sección es demostrar que en todo espacio vectorial sobre K no nulo finita-
mente generado se puede encontrar un subconjunto de n vectores, de modo que cualquier vector
de dicho espacio se puede expresar de forma única como combinación lineal de ellos. Este hecho
nos permitirá representar los vectores de un espacio vectorial “abstracto” como vectores de Kn .
2.3.1 Base de un Espacio Vectorial Finitamente Generado.
Si A = {x1 , . . . , xn } es un sistema generador finito de un espacio vectorial E sobre K no nulo,
sabemos que cualquier vector de E se puede expresar como combinación lineal de los elementos
de A. Veamos qué condición debemos imponer a un sistema generador para garantizar la unicidad
a la hora de escribir un vector como combinación lineal de los elementos de A. Tomamos x ∈ E
y supongamos que x se puede expresar como combinación lineal de los elementos de A de dos
formas:
x = α1 x1 + . . . + αn xn
x = β1 x1 + . . . + βn xn .
Si restamos ambas expresiones, obtenemos 0 = (α1 − β1 )x1 + . . . + (αn − βn )xn . En consecuencia, la
condición que debemos imponer para garantizar la unicidad, equivale a la condición que debemos
imponer para que el vector 0 se pueda expresar de forma única como combinación lineal de los
vectores de A. Por tanto, la condición que estamos buscando es que A sea LI.
x = α1 x1 + . . . + αn xn .
71
Ejemplos 28.
( ! !)
1 0
(a) C2 = , es una base de R2 , pues C2 es sistema generador de R2 y LI. En gene-
0 1
1 0 0
0 1
n)
0
ral, podemos afirmar que Cn =
.
.
,
.
.
, . . .,
.
.
es una base de Kn , llamada base
.
. .
0 0
1
canónica de Kn .
(b) Es fácil comprobar que {1, x, x2 , . . . , xn } es una base de Pn (R) y es llamada base canónica de
Pn (R).
1 0 . . . 0 0 1 . . . 0 0 0 . . . 0
0 0 . . . 0 0 0 . . . 0 nm) 0 0 . . . 0
(c) Es sencillo comprobar que .. .. . . .. , .. .. . . .. , . . ., .. .. . . .. es
. . . . . . . . . . . .
0 0 . . . 0 0 0 . . . 0
0 0 ... 1
una base de Mm×n (K) y se le llama base canónica de Mm×n (K).
Teorema 29. Si E es un espacio vectorial sobre K no nulo el cual está generado por m elementos,
entonces cualquier subconjunto de E con m + 1 o más vectores es LD.
Observación 30. Como consecuencia del teorema anterior, podemos deducir que si E es un es-
pacio vectorial sobre K no nulo de modo que E = L({y1 , . . . , ym }) y C = {x1 , . . . , xk } ⊂ E es LI,
entonces k ≤ m.
Teorema 31. (Teorema de existencia de base) Sea E un espacio vectorial sobre K no nulo finita-
mente generado. Si A = {x1 , . . . , xn } es un sistema generador de E, entonces ∃ B ⊆ A tal que B
es base de E.
Teorema 32. (Teorema de prolongación a una base) Sea E un espacio vectorial sobre K no nulo
finitamente generado. Si A es LI, entonces existe una base B de E tal que A ⊆ B.
Consecuencia 33. A partir de la Consecuencia 27 y del teorema anterior se deduce una forma
sencilla de construir complementos a un subespacio de un espacio vectorial. Veámoslo: sea E
un espacio vectorial sobre K no nulo finitamente generado y H un subespacio de E. Si A =
{x1 , . . . , xk } es una base de H, entonces por el Teorema 32 podemos hallar xk+1 , . . . , xn vectores de
E de modo que {x1 , . . . , xk , xk+1 , . . . , xn } es una base de E. Por tanto, obtenemos que
72
Ejemplos 34.
(a) Consideremos P2 (R) espacio vectorial sobre R y
Hemos obtenido que A es LD, pues existen combinaciones lineales de {p1 (x), p2 (x), p3 (x)}
igualadas al vector 0 con no todos los escalares nulos. Así por ejemplo tomando como valor
del parámetro α3 = 1 y sustituyendo en la combinación lineal (*), podemos expresar p3 (x)
en función de los otros dos vectores: p3 (x) = 2p1 (x) − p2 (x).
H = L({p1 (x), p2 (x), p3 (x)}) = L({p1 (x), p2 (x), 2p1 (x) − p2 (x)}) = L({p1 (x), p2 (x)}).
Del Teorema 29 deducimos que M2×2 (R) no posee conjuntos LI con más de cuatro vectores.
Determinemos ahora la envoltura lineal de A:
( ! ! ! ) ( ! )
1 1 0 1 1 0 α+δ α+β
L(A) = α +β +δ : α, β, δ ∈ K = : α, β, δ ∈ K .
0 0 0 1 0 0 0 β
!
0 0
Observemos que D = no pertenece a L(A), luego A no es un sistema generador
1 0
de M2×2 (R). Ahora por la Proposición 22 (iii) podemos afirmar que {A, B, C, D} es LI.
Como no existen conjuntos LI con más de 4 vectores en M2×2 (R), entonces M2×2 (R) =
L({A, B, C, D}). En consecuencia, tenemos que B = {A, B, C, D} es un sistema generador de
M2×2 (R) y es LI, por tanto B es una base de M2×2 (R). Observemos que hemos añadido un
vector al subconjunto A para conseguir una base B de M2×2 (R): B = A ∪ {D}.
73
2.3.2 Dimensión de un Espacio Vectorial Finitamente Generado.
Teorema 35. (Teorema de la cardinalidad de la base)
Sea E un espacio vectorial sobre K no nulo finitamente generado. Si A = {x1 , . . . , xn } y B =
{y1 , . . . , ym } son dos bases de E, entonces n = m.
Conclusión 36. Todas las bases de un espacio vectorial E sobre K no nulo finitamente generado
poseen el mismo número de elementos.
Definición 37. Sea E un espacio vectorial sobre K no nulo finitamente generado. Llamaremos
dimensión de E y escribiremos dimK E, al número de elementos de una base cualquiera de E.
Por convenio, la dimensión del espacio nulo es cero.
Ejemplo 38.
(a) dimK Kn = n (ver Ejemplo 28).
Si conocemos la dimensión del espacio vectorial, el siguiente resultado nos permitirá reducir
el trabajo necesario para justificar que un conjunto es una base de dicho espacio vectorial.
Teorema 39. Si E es un espacio vectorial sobre K de dimensión n, entonces se verifica:
(i) Si A = {x1 , . . . , xn } ⊂ E es LI, entonces A es base de E.
x = α1 x1 + . . . + αn xn
74
α1
α2
se le llama coordenadas de x respecto de la base A y escribiremos [x]A = .. .
.
αn
Ejemplos 42.
(a) Consideremos P2 (R) espacio vectorial real y las bases ordenadas de P2 (R):
p(x) = 2 − 5 x + x2 = α · 1 + β · (x − 2) + γ · (x − 2)2 =
α − 2β + 4γ = 2
2
= α + β(x − 2) + γ(x − 4x + 4) = =⇒
β − 4γ = −5 =⇒
= (α − 2β + 4γ) + (β − 4γ)x + γ · x2 γ=1
−4
=⇒ [p(x)]A = −1 .
1
(b) Consideremos H = L({p1 (x), p2 (x)}) subespacio de P2 (R). Según demostramos en el Ejem-
plo 34(a) B = {p1 (x), p2 (x)} es una base de H y dimR H = 2. Calculemos las coordenadas
de q(x) = 4x ∈ H respecto de la base B de H:
( !
4x = α(1 + x2 ) + β(1 − 2x + x2 ) α+β=0 2
=⇒ =⇒ [q(x)]B = .
= (α + β) + (−2β)x + (α + β)x2 −2β = 4 −2
Ahora bien q(x) = 4x es un vector de P2 (R) y, por tanto, también se puede expresar de forma
única como combinación lineal de cualquier base de P2 (R). Consideremos, por ejemplo, la
2
base canónica de P2 (R): C = {1, x, x }. Las coordenadas de q(x) respecto de la base C son:
0
[q(x)]C = 4 .
0
Observa que el número de componentes de las coordenadas de un vector respecto de una base
de un espacio vectorial depende de la dimensión del mismo. Por esta razón las coordenadas
de q(x) respecto de B tienen dos componentes (dimR H = 2) y las coordenadas de q(x)
respecto de C tienen tres componentes (dimR P2 (R) = 3).
75
2.4. APLICACIÓN: POLINOMIO INTERPOLADOR DE LAGRANGE.
Tiempo, s Temperatura, F
0.0 0.0
1.0 20.0
2.0 60.0
3.0 68.0
4.0 77.0
5.0 110.0
Supongamos que estamos interesados en conocer la temperatura correspondiente a los 4.2 se-
gundos.
Desconocemos la función que describe “la temperatura” de la culata del motor, sólo disponemos
de la tabla de datos. Para dar una respuesta al problema sería interesante disponer de una curva que
pasase por los puntos recogidos en la tabla e interpretarla como la función que describe el com-
portamiento de la temperatura que estamos estudiando. De este modo podríamos dar una solución
aproximada al problema planteado. Las funciones polinómicas disfrutan de buenas propiedades,
pues son funciones continuas, derivables, integrables y fácilmente evaluables. Así nos pregunta-
mos si es posible encontrar un polinomio que pase por todos los puntos.
Consideramos la combinación lineal de L0 (x), L1 (x), . . . , Ln (x) donde los coeficientes son ω0 , ω1 , . . . , ωn
76
Observemos que L(x) es un polinomio de grado menor o igual que n y que verifica:
n
X
L(z j ) = ωk Lk (z j ) = ω j L j (z j ) = ω j , 0 ≤ j ≤ n.
k=0
Se puede probar, utilizando el Teorema Fundamental del Álgebra (Matemáticas I), que el poli-
nomio L(x) es el único polinomio de Pn (R) tal que L(zi ) = ωi , 0 ≤ i ≤ n. Dicho polinomio recibe
el nombre de polinomio interpolador de Lagrange.
entonces
Ejemplo 44. Construye el polinomio interpolador de Lagrange que pasa por los puntos: (0, 1),
(1, 3) y (−1, −1).
Apuntamos que z0 = 0, z1 = 1, z2 = −1 y ω0 = 1, ω1 = 3 y ω2 = −1. Comenzamos
determinando L0 (x), L1 (x) y L2 (x):
77
Ahora podemos resolver el problema inicial planteado:
Ejemplo 45. Consideremos el siguiente conjunto de medidas tomadas de una culata de cilindro de
un nuevo motor que está siendo probado para un posible uso en un coche de carreras:
Tiempo, s Temperatura, F
0.0 0.0
1.0 20.0
2.0 60.0
3.0 68.0
4.0 77.0
5.0 110.0
Supongamos que estamos interesados en conocer la temperatura correspondiente a los 4.2 se-
gundos.
Construiremos el polinomio interpolador de Lagrange correspondiente a dichos puntos. Pre-
viamente calcularemos los polinomios L0 (x), L1 (x), . . . , L5 (x):
(x − 1)(x − 2)(x − 3)(x − 4)(x − 5) x(x − 2)(x − 3)(x − 4)(x − 5)
L0 (x) = ; L1 (x) =
(0 − 1)(0 − 2)(0 − 3)(0 − 4)(0 − 5) (1 − 0)(1 − 2)(1 − 3)(1 − 4)(1 − 5)
x(x − 1)(x − 3)(x − 4)(x − 5) x(x − 1)(x − 2)(x − 4)(x − 5)
L2 (x) = ; L3 (x) =
(2 − 0)(2 − 1)(2 − 3)(2 − 4)(2 − 5) (3 − 0)(3 − 1)(3 − 2)(3 − 4)(3 − 5)
x(x − 1)(x − 2)(x − 3)(x − 5) x(x − 1)(x − 2)(x − 3)(x − 4)
L4 (x) = ; L5 (x) =
(4 − 0)(4 − 1)(4 − 2)(4 − 3)(4 − 5) (5 − 0)(5 − 1)(5 − 2)(5 − 3)(5 − 4)
El polinomio interpolador de Lagrange es:
78
1
=− (19x5 − 275x4 + 1383x3 − 2749x2 + 1142x).
24
Observa, en este caso, que para la construcción de L(x) no es necesario calcular L0 (x), pues ω0 = 0.
Si admitimos que la función polinómica L(x) describe el problema que estamos analizando,
entonces la estimación que estamos buscando es L(4.2) = 82.1901.
2.5. ANEXO.
79
Método práctico.
Para comprobar si un conjunto de vectores C = {v1 , . . . , vk } de un espacio vectorial E, es LI o
LD, se siguen los siguientes pasos:
2. Construir una matriz A cuyas columnas sean las coordenadas de los vectores de C respecto
de la base A.
3. Aplicar el método de Gauss para obtener una forma escalonada por filas de A.
4. Calcular ρ(A).
Ejemplo 46.
! ( ! !)
1 2 1 1 2 0
Consideremos los conjuntos de M2×2 (R) : H = A = ,B = ,C =
3 4 −1 1 5 3
( ! ! !)
1 2 1 1 −1 1
yG= A= ,B = ,D = . Decide si estos conjuntos son o no
3 4 −1 1 9 5
son LI.
Las coordenadas de los vectores de H respecto de la base canónica C de M2×2 (R) son:
1 1 2
2 1
, [C] = 0 .
[A]C = , [B]C =
−1 5
C
3
4 1 3
Construimos la matriz H haciendo coincidir las columnas con las coordenadas obtenidas:
1 1 2
2 1 0
H = .
3 −1 5
4 1 3
80
Las coordenadas de los vectores de G respecto de la base canónica C de M2×2 (R) son:
1 1 −1
2 1
[A]C = , [B]C = , [D]C = 1 .
3 −1 9
4 1 5
Construimos la matriz G haciendo coincidir las columnas con las coordenadas obtenidas:
1 1 −1
2 1 1
G = .
3 −1 9
4 1 5
81
Obtención de las ecuaciones implícitas de un subespacio vectorial.
Sea E un espacio vectorial sobre K de dimensión n y F un subespacio de E de dimensión
k. Se puede describir el subespacio F como el conjunto de soluciones de un sistema de ecua-
ciones lineales homogéneo de n − k ecuaciones con n incógnitas. Tales ecuaciones son llamadas
ecuaciones implícitas de F. Para su obtención utilizaremos la interpretación vectorial de un sis-
tema de ecuaciones lineales (ver Ejemplo 18 (b)). Consideramos B = {e1 , . . . , en } una base de E,
A = {v1 , . . . , vk } una base de F y v un vector de F. Calculemos las coordenadas de v1 , . . . , vk y v
respecto de la base B:
a11 a12 a1k x1
a21 a22 a2k x2
[v1 ]B = .. , [v2 ]B = .. , . . . , [vk ]B = .. y [v]B = .. .
. . . .
an1 an2 ank xn
Construimos una matriz haciendo coincidir sus columnas con tales coordenadas:
a11 a12 . . . a1k x1
a21 a22 . . . a2k x2
.. .. .. .. .. .
. . . . .
an1 an2 . . . ank xn
Como v es combinación lineal de los vectores de A, una forma escalonada por filas de la matriz
anterior tiene n − k filas nulas.
t11 t12 . . . t1k−1 t1k α11 x1 + α12 x2 + . . . + α1n xn
0 t22 . . . t2k−1 t2k α21 x1 + α22 x2 + . . . + α2n xn
.. .. .. .. .. ..
. . . . . .
0 0 . . . 0 tkk αk1 x1 + αk2 x2 + . . . + αkn xn .
0 0 ... 0 0 αk+11 x1 + αk+12 x2 + . . . + αk+1n xn
.. .. .. .. .. ..
. . . . . .
0 0 ... 0 0 αn1 x1 + αn2 x2 + . . . + αnn xn
Por tanto, aparece el sistema de ecuaciones lineales homogéneo de n − k ecuaciones con n
incógnitas
αk+11 x1 + αk+12 x2 + . . . + αk+1n xn = 0
.. .. ..
.
. . .
αn1 x1 + αn2 x2 + . . . + αnn xn = 0
αk+11 x1 + αk+12 x2 + . . . + αk+1n xn = 0
.. .. ..
En definitiva, F =
v = x e
1 1 + . . . + x e
n n ∈ E : . . . .
αn1 x1 + αn2 x2 + . . . + αnn xn = 0
En la práctica conocer las ecuaciones implícitas resulta útil en la obtención del subespacio
intersección de dos subespacios, pues si F y G son dos subespacios de E
82
ecuaciones implícitas de F
F = {v ∈ E : ecuaciones implícitas de F }
=⇒ F∩G =
u∈E: +
.
G = {w ∈ E : ecuaciones implícitas de G }
ecuaciones implícitas de G
Ejemplo 47.
( ! !)! ( ! )
1 2 2 2 a b
F=L , y G= ∈ M2×2 (R) : a + b = 0, c = 0 .
−1 1 0 1 c d
Obtener F ∩ G.
Como las ecuaciones implícitas de G vienen dadas en el enunciado, ( sólo necesitamos
! obtener
!)
1 2 2 2
las ecuaciones implícitas de F. Es sencillo probar que A = v1 = , v2 =
−1 1 0 1
!
a b
es una base de F y, por tanto, dimR F = 2. Sea v = ∈ F. Las coordenadas de los
c d
vectores A y de v respecto de la base canónica C de M2×2 (R) son:
1 2 a
2 2
[v1 ]C = , [v2 ]C = , [v]C = b .
−1 0 c
1 1 d
Una forma escalonada por filas de la matriz que resulta de hacer coincidir las columnas con
las coordenadas anteriores es:
1 2 a 1 2 a 1 2 a
2 2 b F −2F ;F +F ;F −F 0 −2 b − 2a F ↔F 0 −1 d − a
2 1 −→3 1 4 1 −→ 2 4
−1 0 c 0 2 c + a 0 2 c + a
1 1 d 0 −1 d − a 0 −2 b − 2a
1 2 a
F3 +2F2 ;F4 −2F2
0 −1 d − a
−→ .
0 0 c + 2d − a
0 0 b − 2d
( ! )
a b
En consecuencia, F = ∈ M2×2 (R) : c + 2d − a = 0, b − 2d = 0 . Ahora podemos
c d
obtener F ∩ G:
! implícitas F implícitas G
( !)
z }| { z }| {
a b 0 0
F ∩G = ∈ M2×2 (R) :c + 2d − a = 0, b − 2d = 0, a + b = 0, c = 0 = .
c d
0 0
83
PROBLEMAS
Espacio vectorial sobre K. Subespacios vectoriales.
(P.1) Sea E un espacio vectorial sobre K. Demuestra que para todo α, β ∈ K y para todo
x, y ∈ E se verifican las siguientes afirmaciones:
2. Si αx = αy con α , 0, entonces x = y.
3. Si αx = βx con x , 0, entonces α = β.
(P.2) Considera C el conjunto de los números complejos junto con las operaciones + y ·R :
+: C×C −→ C ·R : R × C −→ C
(a + ib, c + id) 7−→ (a + c) + i(b + d) (α, a + ib) 7−→ (αa) + i(αb)
(P.5) Considera M2×2 (R) espacio vectorial sobre R. Determina si los siguientes subconjuntos
de M2×2 (R) son subespacios vectoriales:
( ! ) ( ! )
a b a a+1
H1 = : a, b, c ∈ R H2 = : a∈R
−b c 0 0
( ! ) ( ! )
a b 0 b
H3 = ∈ M2×2 (R) : a d − b c = 0 H4 = : a, b ∈ R
c d a 0
( ! ! ) ( ! )
a b a b 0 a2
H5 = ∈ M2×2 (R) : tr =0 H6 = : a∈R .
c d c d 0 0
(P.6) Decide cuáles de los siguientes subconjuntos de P3 (R) son subespacios vectoriales:
H = {a + x2 : a ∈ R} F = {ax2 + (b − a) : a, b ∈ R}
G = {p(x) ∈ P3 (R) : p(0) = 0} J = {p(x) ∈ P3 (R) : p(0) = 1}.
84
(P.7) Considera R3 espacio vectorial sobre R y los subespacios vectoriales de R3 :
x
x
3 3
V1 =
y
∈ R : 3x + 2y − z = 0
y V2 =
y
∈ R : −4x − y + z = 0
.
z
z
1. F ∩ G es un subespacio de E .
2. F ∪ G es un subespacio de E ⇐⇒ F ⊆ G ó G ⊆ F .
3. F + G es un subespacio de E .
(P.9) Sea E un espacio vectorial sobre K. Decide si son verdaderas o falsas las siguientes
afirmaciones:
1. Si F ⊆ E y 0 ∈ F , entonces F es un subespacio de E .
2. Si F es un subespacio de E , entonces 0 ∈ F .
(P.13) Determina si los siguientes subconjuntos de R3 son LI o LD, en caso de ser LD expresa
un vector de dicho conjunto como combinación lineal del resto de vectores:
85
1 2 0
1
3 11
−3 ,
1.
−2 2.
,
−2 , 1
0 , −6 .
3
0
0 7 4 12
1 2 p
(P.14) 1. Estudia la independencia lineal de A =
2 , 6 , 2
⊂ R3 para los distintos
3 9
4
valores de p real.
1 1 1 2
2. Demuestra que B =
2 , 3 , 3
, 3
⊂ R3 es LD y expresa un elemento de B
3 5 6
4
como combinación lineal del resto de vectores de B.
(P.15) Sea M2×2 (R) espacio vectorial sobre R. Determina si los siguientes subconjuntos de
M2×2 (R) son LI:
( ! ! !) ( ! ! !)
1 2 0 1 1 −2 1 1 3 3 2 2
1. , , 2. , , .
2 0 3 0 −2 −1 1 2 3 2 2 0
1 1 1
2 2
(P.16) Halla todos los elementos a ∈ R de modo que
1
,
a + 1 , a + 1 sea un
1 a + 1 2a
subconjunto LI de R3 .
1 1 1 1
(P.17) Considera los vectores de R : u = 2 , v = 3 , w = 1 y z = 0 . Comprueba
3
1 2 0 0
que w ∈ L({u, v}) y que z < L({u, v}). ¿Cuál de los siguientes subconjuntos de R3 es LI
{u, v, w} ó {u, v, z}? .
a
(P.18) Considera R3 espacio vectorial sobre R. Halla la condición para que el vector b ∈ R3
c
1 2 −3
pertenezca a L v1 =
−2 , v
2 = −1 , v =
3 0
. ¿{v1 , v2 , v3 } es un sistema gene-
1 3 −5
rador de R3 ?
(P.19) Considera P2 (R) espacio vectorial sobre R. Demuestra que L({1, x}) = L({2 + 3x, x}).
1 1 1 3
(P.20) En R3 se consideran los vectores u = 2 , v = 3 , x = 1 e y = 8 . Prueba
1 2 0 5
que L({u, v}) = L({x, y}).
(P.21) Considera el vector p(x) = 1 − 2x + x2 de P3 (R) y los subespacios vectoriales de P3 (R):
H = L({1+ x2 , −x+ x2 , 3−2x}) y K = L({1+ x2 , −x+ x2 , −2−2x}). ¿Pertenece p(x) al subespacio
H ? ¿Pertenece p(x) al subespacio K ?
!
4 3
(P.22) Determina si la matriz pertenece al subespacio de M2×2 (R) generado por las
1 −2
86
! ! !
3 4 0 2 0 2
matrices , y .
1 2 −1/3 4 6 1
(P.23) Considera el espacio vectorial P3 (R) sobre R.
1. Estudia si el subconjunto {p1 (x) = 1 + 3x + 5x2 , p2 (x) = −1 + 2x2 , p3 (x) = 3 + 3x + x2 } es o
no linealmente independiente.
2. Sean q1 (x) = 1 + x2 , q2 (x) = 1 − x2 y U el subespacio generado por ellos. ¿Pertenecen los
polinomios r(x) = 1 + x y p(x) = 1 + 5x2 al subespacio U ?
(P.24) Sea E un espacio vectorial sobre K. Si el subconjunto de vectores {v1 , v2 , . . . , vn } de E
es LI, prueba que el subconjunto de vectores {v1 , v1 + v2 , . . . , v1 + v2 + · · · + vn } de E es también
LI.
(P.25) Si {v1 , v2 } es un subconjunto de Rn LI y A ∈ Mn×n (R) es no singular, demuestra que
{u1 = Av1 , u2 = Av2 } es también LI.
(P.26) Sea E espacio vectorial sobre K. Estudia si son verdaderas o falsas las siguientes
afirmaciones:
(P.28) Obtén un sistema generador para cada uno de los siguientes subespacios:
( )
x
Z 1
3
1. F =
y ∈ R : x + z = 0
; 2. G = p ∈ P3 (R) : p(x) dx = 0 ;
z
0
( ! )
a+b a−b
3. H = : a, b ∈ R ; 4. J = {A = (ai j ) ∈ M2×2 (R) : 3a12 + a21 = 0}.
0 3b
87
Bases y dimensión de un espacio vectorial.
1 0 2
−1
1
1
4
(P.30) Considera el subconjunto de R : B = v 1 =
, v2 =
, v3 =
.
2
0
4
−1 1 1
(1) ¿B es una base de F = L({v1 , v2 , v3 })? En caso negativo, obtén una base de F contenida
en B.
(2) ¿B es una base de R4 ? En caso negativo, obtén una base de R4 a partir de los elementos
que necesites de B.
(P.31) Justifica si los siguientes subconjuntos son o no bases de los espacios vectoriales co-
rrespondientes. En caso negativo, obtén una base de dichos espacios vectoriales a partir de
los elementos que necesites tales conjuntos.
1. A = {x2 − x, x2 + x, 1} ⊂ P2 (R).
( ! ! ! !)
1 −1 −1 0 1 1 4 1
2. B = , , , ⊂ M2×2 (R).
0 6 3 1 −1 2 −5 9
1
0
¿Pertenece el vector v =
−1 a tales subespacios? En caso afirmativo, calcula las coorde-
2
nadas de v respecto de una base de dicho subespacio.
(P.33) En el espacio vectorial P2 (R) consideramos los vectores v1 = x2 + x + 1, v2 = 2x + 1,
v3 = x2 − 3x + 1 y v4 = 2x2 + 1.
2. Halla una base y la dimensión del subespacio generado por los vectores v1 , v2 , v3 y v4 .
88
1 1 2
(P.35) Considera los subespacios vectoriales de R : F = L
3 0 ,
−1 y G = L 1 ,
−1
0 0
−2
0
.
1
1. Halla una base y la dimensión de F + G.
2. Halla una base y la dimensión de F ∩ G. ¿Es F + G una suma directa?
89
1. Calcula una base y la dimensión de F y G.
R4 = F ⊕ H1 y R4 = F ⊕ H2 .
Interpolación polinómica.
(P.43) Calcula el polinomio de Lagrange que pasa por los puntos: (2, 0), (−2, 0), (0, 4) y (−1, 6).
(P.44) Calcula el polinomio de Lagrange que pasa por los puntos: (1, −3), (0, −1), (−1, −9) y
(2, 9).
(P.45) Calcula el polinomio de Lagrange que pasa por los puntos: (1, 0), (−1, 2), (0, 3) y (2, 1).
(P.46) Realiza los siguientes apartados:
Y3
(x − zi )
1. Construye los polinomios Li (x) = para los puntos (−1, 1), (1, 0), (2, 1) y (3, 2).
i=0
(zk − zi )
i,k
90
2. Calcula las coordenadas de polinomio interpolador de Lagrange que pasa por los pun-
tos del apartado 1 respecto de la base A = {L0 (x), L1 (x), L2 (x), L3 (x)} de P3 (R).
Velocidad (100pies/seg) 0 2 4 6 8 10
Fuerza (100lb) 0 2.9 14.8 39.6 74.3 119
Halla el polinomio interpolador para estos datos y estima la fuerza sobre el proyectil cuando
éste viaja a 750pies/seg.
(P.49) Se mide la caída de voltaje V a través de un resistor para cierto número de valores
distintos de corriente i. Los resultados son
i 0.25 0.75 1.25 1.5 2.0
V -0.45 -0.6 0.7 1.88 6.0
Utiliza interpolación polinómica para estimar la caída del voltaje para i=1.15.
(P.50) Se realiza un experimento para determinar la elongación porcentual de un material con-
ductor de electricidad como función de la temperatura. Los datos que resultan se presentan
en la siguiente tabla. Estima la elongación porcentual para una temperatura de 400o C.
CUESTIONES
91
(C2) Sea E un espacio vectorial sobre K y F un subconjunto no vacío de E . Una de las
siguientes afirmaciones es FALSA:
(a) Si x ∈ F y x ∈ L(F − {x}), entonces F es LD.
(b) Si 0 < F , entonces F es un conjunto linealmente independiente.
(c) Si 0 ∈ F , entonces existen escalares α1 , . . . , αk ∈ K no todos nulos y vectores x1 , . . . xk ∈ F
distintos tales que α1 x1 + . . . + αk xk = 0.
92
(C8) Si A y B son dos subconjuntos no vacíos de un espacio vectorial E sobre K, entonces
es INCORRECTO que:
(a) L(A ∪ B) = L(A) + L(B).
(b) L(A) = A.
(c) L(L(A) + L(B)) = L(A) + L(B).
(C12) Sea E un espacio vectorial sobre K de dimensión finita. Una de las siguientes afirma-
ciones es FALSA:
(a) Si A es una base de E , entonces todo subconjunto no vacío de A es LI.
(b) Si A es una base de E , entonces todo subconjunto B de E tal que A ⊆ B es sistema
generador de E .
(c) Todo subconjunto de E que contenga más de n vectores es un sistema generador de E .
93
(C15) Considera E un espacio vectorial sobre K de dimensión 3. Si A = {v1 , v2 , v3 } es una
base de E , entonces es FALSO que:
(a) {v1 , v2 + αv1 , v3 } es base de E , ∀α ∈ K.
(b) {v1 , αv2 , v3 } es base de E , ∀α ∈ K.
(c) {v1 , v3 , v2 } es sistema generador.
(C16) Sea E un espacio vectorial sobre K de dimensión n y sea A = {x1 , . . . , xn } una base de
E . Una de las siguientes afirmaciones es verdadera:
(a) si x ∈ L({x1 , . . . , xk }), entonces {x1 , . . . , xk , x} es linealmente independiente.
(b) F = L({x1 , . . . , xk }) tiene dimensión k, con k ≤ n.
(c) Todo vector x ∈ E se puede expresar como x = α1 x1 + · · · + αn xn y x = β1 x1 + · · · + βn xn con
αi , βi ∈ K con αi , βi , esto es, x se puede expresar como combinación lineal de la base A de
dos formas distintas.
(C18) Considera el espacio vectorial real P2 (R) y el vector p(x) = 1 + 2x. Una de las siguientes
afirmaciones es correcta:
(a) Las coordenadas de p(x) respecto de la base canónica B = {1, x, x2 } de P2 (R) son
[p(x)]B = (0, 2, 1)T .
(b) Las coordenadas de p(x) respecto de la base A = {1, 1 + x, 1 + x + x2 } de P2 (R) son
[p(x)]A = (−1, 2, 0)T
(c) Las coordenadas de p(x) respecto de la base C = {1, 1 + x, 1 + x2 } de P2 (R) son [p(x)]C =
(−1, 1, 1)T .
94
Tema 3: Aplicaciones Lineales
3.3.1 Construcción de la matriz asociada a una aplicación lineal. Matrices cambio de base.
3.3.2 Construcción de una aplicación lineal a partir de una matriz.
95
Este tema está dedicado al estudio de las aplicaciones entre espacios vectoriales que
respetan la estructura vectorial, esto es, que transforman una combinación lineal de vectores
en la combinación lineal de sus imágenes. Son muchos los ejemplos de diferente naturaleza de
este tipo de aplicaciones. Citemos por ejemplo: el producto de una matriz A ∈ Mm×n (K) por
cualquier matriz columna X ∈ Mn×1 (K), la aplicación que calcula la derivada de una función
derivable de variable real, la aplicación que calcula la integral de una función integrable en
[a, b], etc. El estudio de las aplicaciones lineales, como así se denominan a tales aplicaciones,
está justificado por la condición de linealidad asociada a gran parte de modelos matemáticos
claves en muchos problemas de ingeniería.
Ejemplos 2.
(4) Consideremos T : M3×3 (K) −→ K definida por T (A) = tr(A) = a11 + a22 + a33 ,
∀A = (aij ) ∈ M3×3 (K). Veamos si T es una aplicación lineal:
(a) T (A + B) = tr(A + B) = (a11 + b11 ) + (a22 + b22 ) + (a33 + b33 ) = (a11 + a22 + a33 ) +
(b11 + b22 + b33 ) = tr(A) + tr(B) = T (A) + T (B), ∀A, B ∈ M3×3 (K).
(b) T (αA) = tr(αA) = (αa11 ) + (αa22 ) + (αa33 ) = α(a11 + a22 + a33 ) = α tr(A) =
αT (A), ∀A ∈ M3×3 (K), ∀α ∈ K.
96
Por tanto, T es una aplicación lineal.
x x+y x
(5) T : R −→ R definida por T
2 2
= 2 ,∀ ∈ R2 .
y y y
1
No es una aplicación lineal, pues si consideramos, por ejemplo, el vector u = y
1
el escalar α = 2, tenemos que
1 4 4 2 1
T (αu) = T 2 = 6= =2 = 2T = αT (u).
1 4 2 1 1
97
Por tanto, T es una aplicación lineal. Geométricamente, esta aplicación supone una
rotación en R2 de centro el origen y ángulo de π/4 en sentido contrario a las agujas
del reloj.
Definiciones 3.
Clasificación de aplicaciones lineales: Sean E y F dos espacios vectoriales sobre K.
(1) T (0) = 0.
En definitiva las aplicaciones lineales verifican que la imagen de una combinación lineal
de vectores resulta ser una combinación lineal de las imágenes de estos vectores.
98
Observación 5.
• La Propiedad 4.(1) establece una condición necesaria para que una aplicación sea lineal,
pero no es suficiente (ver Ejemplo 2.(5)). Dicha propiedad se puede emplear para
determinar de forma rápida la no linealidad de algunas aplicaciones. Por ejemplo, si
consideramos la aplicación T : Mn×n (K) −→ Mn×n (K) dada por T (A) = A + In×n
∀A ∈ Mn×n (K), podemos concluir que no es una aplicación lineal, pues T (On×n ) =
In×n 6= On×n .
• Si T : E −→ F es una aplicación lineal, B = {x1 , . . . , xn } es una base ordenada de E y
conocemos T (xi ), ∀i ∈ {1, . . . , n}, entonces la Propiedad 4.(3) nos permite determinar
dicha aplicación lineal. En efecto, si x ∈ E,
N(T ) = { x ∈ E : T (x) = 0 }.
99
• Se llama imagen de T al conjunto de vectores de F que son imagen mediante T de
algún vector de E
o, equivalentemente,
Si T es una aplicación lineal, las dimensiones de los subespacios N(T ) e Im(T ) están
relacionadas como muestra el próximo teorema.
Teorema 9. (Teorema de las dimensiones) Si T : E −→ F es una aplicación lineal y E
y F son espacios vectoriales sobre K de dimensión finita, entonces
Ejemplos 10.
Halla el núcleo e imagen de las siguientes aplicaciones lineales. Calcula la dimensión
de tales subespacios.
(1) T : P2 (R) −→ P2 (R) definida por T (a0 +a1 x+a2 x2 ) = a0 +(a2 +3a1 )x+(a1 +a0 )x2 ,
∀a0 + a1 x + a2 x2 ∈ P2 (R).
2 2
N(T ) = {a0 + a1 x + a2 x ∈ P2 (R) : T (a0 + a1 x + a2 x ) = 0} =
= {a0 + a1 x + a2 x2 ∈ P2 (R) : a0 = 0, a2 + 3a1 = 0, a1 + a0 = 0} =
= {a0 + a1 x + a2 x2 ∈ P2 (R) : a0 = a1 = a2 = 0} = {0} −→ dimR N(T ) = 0.
100
Utilizando el Teorema de las dimensiones obtenemos que dimK Im(T ) = 3. Como
Im(T ) ⊆ P2 (R) y dimR P2 (R) = 3, tenemos que Im(T ) = P2 (R).
a a
a − b 3a − 3b
(2) G : C −→ M2×2 (C) dada por G
3
b = ,∀ b ∈ C3 .
2a + 5b 0
c c
a a a
0 0 a−b=0
N (G) = b ∈ C3 : G b = = b ∈ C3 : =
0 0 2a + 5b = 0
c c c
a 0 0
= b ∈C :a=b=0 =
3 0 :c∈C =L 0 .
c c 1
Por el Teorema de las dimensiones sabemos que dimR Im(H) = dimR R2 −dimR N(H) =
2 − 0 = 2. Consideremos la base canónica de R2 y calculemos el subespacio Im(H):
1 1
1 0
2
Im(H) = H(R ) = L H ,H =L 2 , 0 .
0 1
0 0
101
0
Observa que Im(H) 6= R3 , pues 0 ∈
/ Im(H) .
1
Conocer los subespacios núcleo e imagen de una aplicación lineal nos permitirá determinar
el carácter inyectivo y suprayectivo de dicha aplicación lineal.
Proposición 11. (Primera caracterización de inyectividad y suprayectividad)
Sea T : E −→ F una aplicación lineal. Se verifican las siguientes afirmaciones:
(1) T es inyectiva ⇐⇒ N(T ) = {0}
(2) T es suprayectiva ⇐⇒ Im(T ) = F .
Ejemplos 12.
Clasifica las aplicaciones que aparecen en el Ejemplo 10.
(1) Como N(T ) = {0}, T es inyectiva (monomorfismo). Además, T es suprayectiva (epi-
morfismo), ya que Im(T ) = P2 (R). En consecuencia, T es un endomorfismo biyectivo
(automorfismo).
0 0
(2) G no es inyectiva, pues N(G) = L 0 6= 0 . Como Im(G) 6=
1 0
M2×2 (C), concluimos que T no es suprayectiva.
0
(3) H es una aplicación inyectiva, pues N(H) = . Como Im(H) 6= R3 , se
0
sigue que H no es suprayectiva.
102
3.3. MATRICES Y APLICACIONES LINEALES.
En este apartado construiremos matrices a partir de aplicaciones lineales y recíprocamen-
te, obtendremos aplicaciones lineales a partir de matrices. Esta relación entre el concepto
de matriz y el de aplicación lineal será una útil herramienta, pues permitirá resolver un
determinado problema algebraico desde el punto de vista matricial o desde el prisma de las
aplicaciones lineales, según convenga, con el fin de proporcionar una respuesta más sencilla
del mismo.
Definición 15. Sean E y F espacios vectoriales sobre K con dimK E = n y con dimK F = m,
respectivamente. Consideremos T : E −→ F una aplicación lineal, A = {x1 , . . . , xn } una
base ordenada de E y B = {y1 , . . . , ym } una base ordenada de F . Observemos que T (xi ) ∈ F
∀i ∈ {1, . . . , n}, luego este vector se puede expresar como combinación lineal de la base B
(de forma única):
a1i
a2i
T (xi ) = a1i y1 + a2i y2 + . . . + ami ym −→ [T (xi )]B = .. .
.
ami
La matriz m × n sobre K que construimos haciendo coincidir la columna i-ésima con las
coordenadas de T (xi ) respecto de B, ∀i ∈ {1, . . . , n}, es llamada matriz asociada a T respecto
de A y B y escribiremos TAB :
a11 a12 . . . a1n
a21 a22 . . . a2n
TAB = .. .. . . .. ∈ Mm×n (K).
. . . .
am1 am2 . . . amn
103
TAB [x]A = [T (x)]B
Observemos que la matriz (IdE )AB transforma las coordenadas del vector x ∈ E en la base
A en las coordenadas del vector x en la base B. La matriz (IdE )AB es llamada matriz cambio
de base de A a B.
Ejemplos 18.
(1) Considera la aplicación lineal T : P3 (R) −→ P2 (R) definida por T (p(x)) = p0 (x) ,
∀p(x) ∈ P3 (R) y las bases canónicas de P3 (R) y de P2 (R), esto es, B1 = {1, x, x2 , x3 }
y B2 = {1, x, x2 }, respectivamente. Calcula TB1 B2 y consigue a partir de ella las coor-
denadas de T (7 + 3x + 6x2 + 9x3 ) en la base B2 .
Calculemos en primer lugar TB1 B2 . Para ello debemos obtener las imágenes que T
proporciona a los elementos de B1 y calcular las coordenadas de tales vectores respecto
de la base B2 .
0
2
T (1) = 0 = 0 · 1 + 0 · x + 0 · x → [T (1)]B2 = 0
0
1
2
T (x) = 1 = 1 · 1 + 0 · x + 0 · x → [T (x)]B2 = 0
0
0
2 2 2
T (x ) = 2 · x = 0 · 1 + 2 · x + 0 · x → [T (x )]B2 = 2
0
0
T (x3 ) = 3 · x2 = 0 · 1 + 0 · x + 3 · x2 → [T (x3 )]B2 = 0
3
0 1 0 0
Así, la matriz asociada a T respecto de B1 y B2 es TB1 B2 = 0 0 2 0 ∈ M3×4 (R).
0 0 0 3
104
Para obtener las coordenadas de T (7 + 3x + 6x2 + 9x3 ) respecto B2 a partir de TB1 B2 ,
utilizaremos que TB1 B2 [p(x)]B1 = [T (p(x))]B2 , ∀p(x) ∈ P3 (R).
7
3
Las coordenadas de p(x) = 7 + 3x + 6x2 + 9x3 respecto de B1 son: [p(x)]B1 =
6 .
9
Por tanto, obtenemos que
7
0 1 0 0 3
3
[T (p(x))]B2 = TB1 B2 [p(x)]B1 = 0 0 2 0
6 = 12 = [p0 (x)]B2 .
0 0 0 3 27
9
105
0 1 1 1 −4
0 0 0 0
T = 0 = −4 1 + 4 1 + 0 0 → T = 4
0 1 0 1
−4 1 0 0 C 0
1 1 1 1 2
0 1 0 1
T = 5 =2 1 +3 1 −4 0 → T = 3 .
2 0 2 0
2 1 0 0 C −4
1 0 0 1 0 0 0 0
I11 = , I12 = , I21 = y I22 =
0 0 0 0 1 0 0 1
1
1 0 1 0 1 0 0
Id = = 1I11 + 0I12 + 0I21 + 0I22 → Id =
0
0 0 0 0 0 0 B
0
106
0
0 1 0 1 0 1 1
Id = = 0I11 + 1I12 + 1I21 + 0I22 → Id =
1
1 0 1 0 1 0 B
0
0
0 0 0 0 0 0 0
Id = = 0I11 + 0I12 + 0I21 + 1I22 → Id =
0
0 1 0 1 0 1 B
1
0
0 1 0 1 0 1 1
Id = = 0I11 + 1I12 + 2I21 + 0I22 → Id =
.
2 0 2 0 2 0 B
2
0
Calculemos IdDC .
1 1 1 1 1 1 0
Id 0 = 0 = 0 1 + 0 1 + 1 0 → Id 0 = 0
0 0 1 0 0 0 C
1
0 0 1 1 1 0 0
Id 1 = 1 = 0 1 + 1 1 − 1 0 → Id 1 = 1
0 0 1 0 0 0 C
−1
0 0 1 1 1 0 1
Id 0 = 0 = 1 1 − 1 1 + 0 0 → Id 0 = −1 .
1 1 1 0 0 1 C
0
1 0 0 0
0 0 1 1 1 0 0
0 1 0 1
3. IdDC TBD IdAB = 0 1 −1 0 1 2 0
0
=
1 0 2
1 −1 0 0 0 1 −4
0 0 1 0
0 1 −4 2
= 0 2 4 3 = TAC .
1 −2 0 −4
107
3.3.2 Construcción de una Aplicación Lineal a partir de una Matriz.
Ejemplo 20.
1 2
1 0
Consideremos la matriz A = 0 2 ∈ M3×2 (K), B = , la base
0 1
1 1
1 1 1
canónica de R2 y C = 0 , −1 , 0 base ordenada de R3 . Constru-
0 0 −1
yamos la única aplicación lineal T : R2 −→ R3 tal que TBC = A.
Sabemos que una aplicación lineal queda determinada cuando conocemos como actúa
sobre los elementos de una base ordenada del espacio vectorial inicial. Así pues asig-
naremos la imagen que T proporciona a cada vector de la base ordenada B de modo
que la matriz asociada a T respecto de las bases ordenadas B y C sea precisamente la
matriz A.
1 1 1 2
1
T = 1 0 + 0 −1 + 1 0 = 0
0
0 0 −1 −1
1 1 1 5
0
T = 2 0 + 2 −1 + 1 0 = −2 .
1
0 0 −1 −1
108
2a + 5b
a a
En definitiva tenemos que T = −2b , ∀ ∈ R2 .
b b
−a − b
Por tanto, dimK Im(T ) =número de columnas LI de A. Según vimos en el Tema 2, este
número coincide con ρ(A). En consecuencia,
109
Ejemplos 22.
110
estas aplicaciones lineales con respecto a las matrices asociadas de las aplicaciones lineales
que las han originado.
Veamos el siguiente ejemplo:
Ejemplos 23.
c c
1 0 0
yA= 0 , 1 , 0 la base canónica de R3 , B = {1, x, x2 } la base ca-
0 0 1
1 0 0 1 0 0 0 0
nónica de P2 (R) y C = , , , la base canónica
0 0 0 0 1 0 0 1
de M2×2 (R).
1. Calcula TAB , HAB , (T + 2H)AB y TAB + 2HAB . ¿Hay alguna relación entre ellas?
2. Calcula GBC , (G ◦ T )AC y GBC TAB . ¿Hay alguna relación entre ellas?
111
1 0 0 1 1 0
0 1 1 0
1 −4 0 −30 1
GBC TAB =
0 0 2 1 = .
0 0 0 0 0
0 8 0
1 1 1 1 11 1
(λ T )AC = λ TAC
112
Teorema 25. (Caracterización de isomorfismo mediante la aplicación inversa)
Sean E, F dos espacios vectoriales sobre K de dimensión n y sea T : E −→ F una aplicación
lineal. Se verifica:
∃! S : F −→ E aplicación lineal tal que
T es isomorfismo ⇐⇒
S ◦ T = IdE y T ◦ S = IdF .
Nota 27. Sean E, F dos espacios vectoriales sobre K de dimensión n. Si la aplicación lineal
T : E −→ F es un isomorfismo, A es una base ordenada de E y C es una base ordenada de
F , entonces
(T −1 )CA = (TAC )−1 .
En particular, si A y C son bases ordenadas de E y consideramos el automorfismo IdE ,
entonces
(IdE )AC es no singular y (IdE )CA = ((IdE )AC )−1 .
Ejemplo 28.
1 0 5
HAB = 0 0 0 .
0 1 2
113
3.4.3 Caracterización de Matrices que Representan a una misma Apli-
cación Lineal.
Nuestro próximo objetivo consiste en estudiar si las matrices asociadas a una misma
aplicación lineal están o no relacionadas.
Sean E un espacio vectorial sobre K de dimK E = n, F un espacio vectorial sobre K de
dimK F = m y T : E −→ F una aplicación lineal. Consideramos A y C bases ordenadas de
E y, B y D bases ordenadas de F .
Las aplicaciones lineales T y IdF ◦T ◦ IdE coinciden, pues tienen el mismo conjunto inicial
E, el mismo conjunto final F y el mismo criterio de asignación. Por tanto, las matrices
asociadas respecto de las bases ordenadas C de E y D de F son iguales, TCD = (IdF ◦T ◦
IdE )CD . Utilizando la Proposición 24, tenemos que TCD se puede conseguir a través del
siguiente producto de matrices:
La relación entre matrices que representan a la misma aplicación lineal viene dada en
términos de equivalencia de matrices.
Teorema 31. (Caracterización de matrices equivalentes) Consideremos E un espacio
vectorial sobre K de dimK E = n y F un espacio vectorial sobre K de dimK F = m. Si A y
B ∈ Mm×n (K), entonces se verifica:
A y B representan a la misma aplicación lineal T : E −→ F , respecto de parejas de bases
ordenadas de E y F (A = TAB , B = TCD ) si, y sólo si A es equivalente a B.
114
PROBLEMAS
(P.1) Estudia cuáles de las siguientes aplicaciones son lineales. En caso afirmativo, calcula el
núcleo e imagen de tales aplicaciones lineales y clasifícalas.
115
(P.5) Considera la aplicación lineal T : R3 −→ R4 que verifica
siendo B = {e1 , e2 , e3 } una base de R3 y C = {v1 , v2 , v3 , v4 } una base de R4 . Calcula una base
y la dimensión de N(T ) y de Im(T ).
(P.6) Sea T : R3 −→ R2 la aplicación lineal definida por:
x x
x+y
T y =
, ∀ y ∈ R3 .
x+z
z z
116
a+d
a b c
3. Sea G : M2×3 (R) −→ R3 la aplicación lineal tal que G = b + e .
d e f
c+f
Calcula (G ◦ T ) y la matriz asociada a la composición (G ◦ T ), (G ◦ T )CD , siendo C y D,
las bases canónicas de P3 (R) y R3 , respectivamente.
3. Sea G : M2×2 (R) −→ M2×2 (R) la aplicación lineal tal que G(A) = −AT . Calcula GBB ,
siendo B la base canónica de M2×2 (R). ¿Es G un automorfismo?
t t
2. Calcula TAB y (G AC ,
◦ T ) siendoAy C las
bases
canónicas
de M2×2 (R) y R2 , respectiva-
1 1 1 1
1 1 1 0
mente, y B = 1 , 1 , 0 , 0
base de R4 . Obtén las coordenadas
1 0 0 0
1 1
de T respecto de la base B.
2 2
117
a b 2a − 2d b
(P.13) Sea T el endomorfismo sobre M2×2 (R) dado por T = ,
c d 0 2a − 2d
a b
∀ ∈ M2×2 (R).
c d
(donde A y C son dos bases ordenadas de E y D y H son dos bases ordenadas de F ). Halla los
valores de a y de λ para los que T y S son isomorfismos.
(P.16) Considera la aplicación lineal T : P2 (R) −→ M2×2 (R) definida del siguiente modo:
p(1) p0 (1)
T (p(x)) = , ∀p(x) ∈ P2 (R).
0 p00 (0)
3.
Calcula la matriz
cambio
de baseIdCA , siendo
C la base canónica de M2×2 (R) y A =
1 0 0 1 1 0 0 0
, , , otra base de M2×2 (R). Calcula también
1 0 1 0 0 1 0 1
1 2
las coordenadas de la matriz respecto de la base A.
2 1
4. Calcula TDA , siendo D la base canónica de P2 (R) y A la base del apartado anterior.
118
(P.17) Sea T : P2 (R) −→ P2 (R) definida por:
d a+b d
(1) Calcula una base y la dimensión de los subespacios imagen y núcleo de T y clasifica la
aplicación lineal.
119
CUESTIONES
1 0 0
120
Uno de los siguientes vectores pertenece a Im(T ) :
1 1 −1 −1 0 0
(a) (b) (c) .
3 0 −2 0 0 1
(C7) Sea T : M2×2 (R) −→ R5 una aplicación lineal. Una de las siguientes afirmaciones es
verdadera:
(a) T no es suprayectiva.
(b) dimR Im(T ) = 3, entonces T es inyectiva.
(c) dimR N(T ) = 2, entonces dimR Im(T ) = 3 .
0 1 1
(C8) Sean T : R3 −→ R3 un endomorfismo y B la base canónica de R3 . Si TBB = 0 1 1 ,
0 0 0
entonces una de las siguientes afirmaciones es verdadera:
(a) dimR N(T ) = 1 y dimR Im(T ) = 2.
(b) dimR N(T ) = 2 y dimR Im(T ) = 1.
(c) dimR N(T ) = 0 y dimR Im(T ) = 3.
(C10) Sea T : C2 −→ C3 una aplicación lineal. Una de las siguientes afirmaciones es verdadera:
(a) Si A es una base de C2 y B es una base de C3 , entonces la matriz asociada TAB es una
matriz de tamaño 2 × 3.
(b) Si v1 , v2 ∈ C2 y α1 , α2 ∈ C, entonces T (α1 v1 + α2 v2 ) = α1 T (v1 ) + α2 T (v2 ).
(c) 2 = dimC N(T ) + dimC Im(T ).
121
(b) (S + T )AC = SAC + TAC y (S ◦ T )AC = SBC TAB .
(c) (S + T )AC = SAC + TAC y (S ◦ T )AC = TBC SAB .
(C14) Sea T : P2 (R) −→ M2×2 (R) una aplicación lineal definida por:
2 a + b + c 2b
T (a + bx + cx ) = , ∀a + bx + cx2 ∈ P2 (R),
−a + b − c 0
122
verdadera:
(a) G ◦ T es biyectiva. (b) T + G es biyectiva. (c) T y G son biyectivas.
123
Tema 4: Espacios Euclídeos
4.2. Ortogonalidad.
4.3. Aplicaciones.
125
4.1. GENERALIDADES SOBRE ESPACIOS EUCLÍDEOS.
(4) (x|x) ≥ 0, ∀x ∈ E.
(5) (x|x) = 0 ⇐⇒ x = 0.
Observación 2.
• Si K = C, la condición (3) no puede ser sustituida por la expresión (x|y) = (y|x), ∀x, y ∈
E, pues en tal caso las condiciones serían incompatibles. En efecto, por las condiciones
(4) y (5) si 0 6= x ∈ E, entonces (x|x) > 0. Si cambiamos la condición (3) por la
expresión anterior y tomamos el vector y = ix con 0 6= x ∈ E, entonces tendríamos
(y|y) = i(x|ix) = i(ix|x) = i2 (x|x) = −(x|x) < 0, lo que nos conduce a contradicción.
126
• (x|0) = (0|x) = 0, ∀x ∈ E.
• (x|x) ∈ R, ∀x ∈ E.
(·|·) : F × F −→ K
(u, v) −→ (u|v)
Ejemplos 5.
(u|v) = α1 β1 + . . . + αn βn
(v|u) = β1 α1 + . . . + βn αn = β1 α1 + . . . + βn αn = α1 β1 + . . . + αn βn = (u|v).
127
En consecuencia, (u|v) = (v|u), ∀u, v ∈ E.
(5) Sea u ∈ E. Las coordenadas de este vector respecto de la base A son [u]A =
(α1 . . . αn )T .
(u|v) = α1 β1 + . . . + αn βn , ∀u, v ∈ E
(x|y) = x1 y1 + x2 y2 + . . . + xn yn
(x|y) = x1 y1 + x2 y2 + . . . + xn yn
128
Consideramos Pn (R) y la base canónica de Pn (R), B = {1, x, . . . , xn }. Si p(x) =
a0 + a1 x + . . . + an xn , q(x) = b0 + b1 x + . . . + bn xn ∈ Pn (R), entonces la asignación
(p(x)|q(x)) = a0 b0 + a1 b1 + . . . + an bn
(p(x)|q(x)) = a0 b0 + a1 b1 + . . . + an bn
(A|B) = a11 b11 + a12 b12 + . . . + a1n b1n + a21 b21 + a2n b2n + . . . + an1 bn1 + . . . + ann bnn
(A|B) = a11 b11 + a12 b12 + . . . + a1n b1n + a21 b21 + a2n b2n + . . . + an1 bn1 + . . . + ann bnn
(b) Sea V el espacio vectorial de los vectores libres del plano. Si ~u, ~v ∈ V , entonces la
asignación (~u|~v ) = |~u||~v | cos(~u, ~v ) (producto de sus módulos por el coseno del ángulo
que forman) verifica las 5 condiciones del producto escalar.
129
A continuación obtendremos la expresión matricial de un producto escalar definido en
un espacio vectorial de dimensión finita, gracias a las propiedades y a las condiciones del
producto escalar.
130
De este modo el producto escalar de dos vectores x e y ∈ Rn , se indentifica con el
producto matricial de una matriz fila xT por una matriz columna y.
Ejemplos 8.
1 1 1
(1) Consideremos A = v1 =
1 , v2 =
1 , v3 = 0 una base de R3 y el
1 0 0
producto escalar estándar de R3 . Calcula la matriz del producto escalar respecto de la
base A.
Como estamos trabajando en un espacio vectorial real, la matriz del producto escalar
es simétrica. Por tanto, sólo necesitamos calcular:
(v1 |v1 ) = 3, (v1 |v2 ) = 2, (v1 |v3 ) = 1, (v2 |v2 ) = 2, (v2 |v3 ) = 1 y (v3 |v3 ) = 1.
1 0 0
(2) Consideremos la base canónica de R3 : B = 0 , 1 , 0 . Si la matriz
0 0 1
2 1 −1
del producto escalar respecto de la base B es 1 1 0 , obtén el producto
−1 0 2
escalar correspondiente.
x1 y1
Sean x = x2 , y = y2 ∈ R3 . Utilizando la expresión matricial del producto
x3 y3
escalar respecto de B
2 1 −1 y 1
(x|y) = x1 x2 x3 1 1 0 y2 = 2x1 y1 + x1 y2 − x1 y3 + x2 y1 + x2 y2 −
−1 0 2 y3
x3 y1 + 2x3 y3
Así obtenemos
131
4.1.2 Norma de un Vector. Ángulo entre dos Vectores (K = R).
Sea V el conjunto de los vectores libres del plano. Consideremos el vector libre del plano
~x. Elegimos el origen O = (0, 0)T y el representante de clase OX~ del vector libre ~x, donde
X = (x1 , x2 ) .
T
x2
−→X
O
O x1
Definición 10. Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido
sobre E. Diremos que el vector x ∈ E es unitario si k x k= 1.
Ejemplo 11.
Considera el espacio vectorial P2 (R) dotado con los siguientes productos escalares:
(p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 .
132
Si p(x) = 1 + 4x + x2 , calcula k p(x) k respecto de ambos productos escalares.
Consecuencia 12. La norma de un vector depende del producto escalar empleado como se
pone de manifiesto en el ejemplo anterior. Por tanto, es necesario indicar con que producto
escalar estamos trabajando.
Consideremos de nuevo V el espacio vectorial de los vectores libres del plano y el producto
escalar presentado en Ejemplo 5 (b). A continuación recordaremos algunas igualdades y
desigualdades fundamentales de este espacio euclídeo:
1. |~v | ≥ 0 ∀~v ∈ V .
2. |~v | = 0 ⇐⇒ ~v = 0.
3. |αv|
~ = |α| |~v | ∀~v ∈ V, ∀α ∈ R.
4. La ley del paralelogramo: |~u + ~v |2 + |~u − ~v |2 = 2 |~u|2 + |~v |2 ∀~u, ~v ∈ V .
−−→V
V O
−→U +
− O
OU→
−→
− −−→
O−V
OV
U
−→
OU
O
133
5. Desigualdad de Cauchy-Schwarz: |(~u|~v )| ≤ |~u||~v | ∀~u, ~v ∈ V .
Por todos es conocido que la función coseno es acotada: −1 ≤ cos(x) ≤ 1 ∀x ∈ R.
De aquí podemos deducir que el valor absoluto del producto escalar de dos vectores es
menor o igual que el producto de los módulos, esto es,
V
U−−→
+ −−→
V
UV
OU→
−
−→ U
OU
Utilizando las propiedades y las condiciones del producto escalar es posible obtener gene-
ralizaciones de las propiedades estudiadas anteriormente en un espacio euclídeo cualquiera:
Proposición 13. (Propiedades del módulo de un vector)
Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Se verifica:
1. k x k ≥ 0 ∀x ∈ E.
2. k x k = 0 ⇐⇒ x = 0.
3. k αx k = | α | · k x k ∀x ∈ E, ∀α ∈ K.
4. k x + y k2 + k x − y k2 = 2 k x k2 + 2 k y k2 ∀x, y ∈ E (ley del paralelogramo).
5. | (x|y) | ≤k x k k y k ∀x, y ∈ E (desigualdad de Cauchy-Schwarz ).
6. k x + y k ≤ k x k + k y k ∀x, y ∈ E (desigualdad triangular ).
134
1
1. Si 0 6= x ∈ E, entonces x es un vector unitario.
kxk
2. Si x, y ∈ E, entonces | (x|y) | =k x k k y k⇐⇒ {x, y} es LD .
3. Si x, y ∈ E, entonces k x + y k =k x k + k y k ⇐⇒ y = 0 ó x = λy con y 6= 0 y
λ ∈ [0, ∞).
Ejemplo 15.
(1) (p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 ;
Z 1
(2) (p(x)|q(x))2 = p(x)q(x)dx;
0
Consideremos V el espacio vectorial de los vectores libres del plano y el producto escalar
presentado en Ejemplo 5 (b). Si ~u y ~v son dos vectores no nulos de V , entonces se tiene:
(~u|~v ) = |~u||~v | cos(~u, ~v ) y de aquí
(~u|~v ) (~u|~v )
cos(~u, ~v ) = =⇒ −1 ≤ cos(~u, ~v ) = ≤ 1.
|~u||~v | |~u||~v |
Esta expresión nos permite relacionar el ángulo que forman los vectores ~u y ~v con el producto
escalar de dichos vectores.
¿De qué modo podemos definir el ángulo entre dos vectores de un espacio euclídeo
cualquiera? Si trabajamos con un espacio vectorial real E, (·|·) es un producto escalar en E y
x e y son dos vectores no nulos de E, entonces utilizando la desigualdad de Cauchy-Schwarz
(x|y)
obtenemos que −1 ≤ ≤ 1. Por otra parte, la función coseno es biyectiva en el
k x kk y k
(x|y)
intervalo [0, π], por tanto, es posible hallar un único θ ∈ [0, π] tal que cos(θ) = .
k x kk y k
135
Teniendo como referente el espacio vectorial V y los argumentos desarrollados en E parece
natural presentar la siguiente definición.
Definición 16. Sea E un espacio vectorial real y (·|·) un producto escalar definido sobre
E. Si x, y ∈ E son vectores no nulos, entonces llamaremos ángulo entre los vectores x e y
al número θ ∈ [0, π] que verifique
(x|y)
cos(θ) = .
kxk kyk
Observación 17. La definición de ángulo depende del producto escalar utilizado, tal y
como ocurría con la norma de un vector.
Ejemplo 18.
Consideremos el producto escalar estándar de M2×2 (R):
(A|B) = a11 b11 + a12 b12 + a21 b21 + a22 b22 ∀A = (aij ), B = (bij ) ∈ M2×2 (R).
1 1 1 1
Calculemos el ángulo que forman A = yB= . Para ello necesita-
1 1 1 0
mos calcular: (A|B), k A k y k B k.
√
(A|B) = 3, (A|A) = 4, k A k= 2, (B|B) = 3 y k B k= 3.
4.2. ORTOGONALIDAD.
Sea V el espacio de los vectores libres del plano dotado con el producto escalar (·|·)
presentado en el Ejemplo 5 (b). Recordemos que dos vectores ~u y ~v de V se dicen ortogonales
si el ángulo entre ellos es recto. En tal caso, se sigue que
(~u|~v ) = |~u||~v | cos(~u, ~v ) = |~u||~v | cos(π/2) = 0, esto es, (~u|~v ) = 0.
Tomaremos esta última relación para definir en un espacio euclídeo cualquiera el concepto
de ortogonalidad.
Definición 19. Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido
sobre E. Se dice que x e y ∈ E son ortogonales si (x|y) = 0. Escribiremos x ⊥ y.
Definiciones 20. Sean E un espacio vectorial sobre K, (·|·) un producto escalar definido
sobre E y S un subconjunto no vacío de E.
136
• Diremos que S es ortogonal si (x|y) = 0, ∀x, y ∈ S, con x 6= y.
2. x ⊥ 0 ∀ x ∈ E.
3. Si x ∈ E y x ⊥ x , entonces x = 0.
5. Si x, h, z ∈ E, x ⊥ h y x ⊥ z, entonces x ⊥ (h + z).
137
2. Si B = {x1 , . . . , xn } es una base ortonormal de E y x ∈ E, entonces la matriz del
producto escalar respecto de B es In×n y x = (x|x1 )x1 + . . . + (x|xn )xn .
Ejemplos 24.
(1) Consideremos el espacio vectorial real M2×2 (R) dotado con el producto escalar (A|B) =
a11 b11 + a12 b12 + a21 b21 + a22 b22 . Veamos si los siguientes pares de matrices son o no
ortogonales:
1 2 0 1 1 1 0 1
(a) A = yB= (b) C = yD= .
3 1 −1 1 1 1 1 1
Para ello calculamos: (A|B) = 0 y (C|D) = 3. Por tanto, A es ortogonal a B y, con ello,
{A, B} es un conjunto ortogonal. De la Proposición 22 deducimos que dicho conjunto
es LI. Sin embargo, C no es ortogonal a D y el conjunto {C, D} es LI, este ejemplo
pone de manifiesto que el recíproco de la Proposición 22 no es cierta, en general.
(2) Consideremos el espacio vectorial real P2 (R) dotado con los productos escalares definidos
en el Ejemplo 11:
Z 1
(1) (p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 ; (2) (p(x)|q(x))2 = p(x)q(x)dx;
0
Observemos que si utilizamos la condición (3) del producto escalar sólo es necesario
calcular:
Por tanto, la base canónica es ortonormal con respecto al producto escalar (·|·)1 , pues
los vectores que forman parte de ella son ortogonales dos a dos y k 1 k=k x k=k x2 k= 1.
Nótese que en este caso la matriz del producto escalar (·|·)1 respecto de la base B es
I3×3 .
1 1 1 1 1
(1|1)2 = 1, (1|x)2 = , (1|x2 )2 = , (x|x)2 = , (x|x2 )2 = y (x2 |x2 )2 = .
2 3 3 4 5
Por tanto, B no es ortogonal con respecto al producto escalar (·|·)2 , pues (1|x)2 6= 0. En
1 1/2 1/3
este caso, la matriz del producto escalar (·|·)2 respecto a la base B, 1/2 1/3 1/4 ,
1/3 1/4 1/5
no es diagonal.
138
(3) Consideremos el espacio vectorial
R3 dotado
con
el producto
escalar estándar.
De-
1 −1 −1
mostraremos que el conjunto A = v1 =
1 , v2 =
1 , v3 = 1 es
0 2 −1
2
una base ortogonal y calcularemos las coordenadas del vector v = 1 en la base
−3
A.
Observación 25. De nuevo el concepto de ortogonalidad depende del producto escalar que
se utilice, como se pone de manifiesto con el ejemplo anterior (2).
139
U
−→
O
U −−0→
UU
−−→ −−→
O 0 U’ OV V
OU
→
− −→ − 0 −−→ − 00 −−→
u = [OU ] → u = [OU 0 ] →
u = [U 0 U ]
1
La longitud del vector ~u 0
es |~u| cos(~u, ~v ) y posee la dirección del vector unitario ~v ,
|~v |
luego la proyección ortogonal de ~u sobre ~v es
La distancia entre los vectores ~u y ~v se define como el módulo del vector diferencia:
d(~u, ~v ) = |~u − ~v |.
−
→
w 1
−
→
w2
→
−
F
La fuerza F~ debida a la gravedad tira del coche hacia abajo por la rampa y contra la
rampa. Estas fuerzas w~1 y w~2 son ortogonales y se conocen como componentes vectoriales
de F~
F~ =w~1 +w~2
140
De nuevo, teniendo presente lo expuesto en el espacio vectorial V de los vectores libres
del plano podemos presentar las siguientes definiciones:
Definiciones 26. Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto
escalar definido sobre E.
(x|y)
proyy (x) = y.
(y|y)
d(x, y) =k x − y k .
d(x, F ) = min{k x − v k: v ∈ F }.
Observaciones 27.
(ii) De nuevo las distancias y proyecciones dependen del producto escalar utilizado.
1. (x − proyF (x) | v) = 0 ∀v ∈ F .
141
Ejemplo 29.
Considera
el espacio
euclídeo
R con
4
elproducto escalar estándar y el subespacio
−1
1 1
1 1 1
F = L
0 , 2 , −1 .
0 0 3
1
−1
1. Calcula la proyección ortogonal del vector v =
0 sobre F .
1
2. Calcula la distancia de v a F .
142
4.2.3 Construcción de Bases Ortonormales. Método de Ortogonali-
zación de Gram-Schmidt.
Hemos visto anteriormente que en un espacio euclídeo resulta de gran utilidad disponer
de una base ortonormal. Por ejemplo, la matriz del producto escalar respecto de dicha base
será la matriz identidad In×n y, en consecuencia, la expresión analítica del producto escalar
es la más sencilla posible. Esta simplicidad se transmite a las fórmulas que proporcionan
longitudes y ángulos. Además, trabajando con este tipo de bases el cálculo de coordenadas
respecto de las mismas queda reducido al cálculo de determinados productos escalares. La
pregunta que debemos plantearnos es ¿existen bases ortonormales en un espacio euclídeo? y
si existen ¿cómo podemos calcularlas?
A continuación abordaremos la cuestión sobre una situación particular. Consideremos el
espacio vectorial V de los vectores libres del plano dotado con el producto escalar introducido
en el Ejemplo 5 (b). Sea {~v1 , ~v2 } una base de V y supongamos que (~v1 |~v2 ) 6= 0. Nuestro
objetivo es construir una base ortogonal de V partiendo de la base {~v1 , ~v2 } de V . Fijamos el
(~v2 |~v1 )
vector ~v1 , en 4.2.2 vimos que la proyección ortogonal de ~v2 sobre ~v1 , proy~v1 (~v2 ) = ~v1 ,
(~v1 |~v1 )
era el único vector de V de modo que ~v2 − proy~v1 (~v2 ) es ortogonal a ~v1 .
→
−
v2 − proy− →
−
−v 2
→ v1 ( v2 )
→
O →
−
v1
143
x1 = y1
(y2 |x1 )
x2 = y2 − x1
(x1 |x1 )
..
.
(yi |x1 ) (yi |xi−1 )
xi = yi − x1 − · · · − xi−1
(x1 |x1 ) (xi−1 |xi−1)
..
.
(yn |x1 ) (yn |xn−1 )
xn = yn − x1 − · · · − xn−1
(x1 |x1 ) (xn−1 |xn−1)
En definitiva, el método de ortogonalización de Gram-Schmidt permite obtener una base
ortogonal a partir de una base cualquiera del espacio euclídeo.
Si además, pretendemos hallar una base ortonormal de E deberemos considerar:
1 1 1
x1 , x2 , . . . , xn .
k x1 k k x2 k k xn k
Ejemplo 31.
Calcula
una base
ortonormal
de R
3
con el producto escalar estándar a partir de la base
1 2 0
A = −1 , 0 , 1 .
0 −1 2
Aplicando el método de ortogonalización de Gram-Schmidt obtenemos:
1
x1 = y1 = −1
0
2 1 1
(y2 |x1 ) 2
x2 = y2 − x1 = 0 − −1 = 1
(x1 |x1 ) 2
−1 0 −1
0 1 1 1
(y3 |x1 ) (y3 |x2 ) 1 1 5
x3 = y3 − x1 − x2 = 1 + −1 + 1 = 1
(x1 |x1 ) (x2 |x2 ) 2 3 6
2 0 −1 2
1 1 1 1
Podemos considerar, por simplicidad, 1 y así, −1 , 1 , 1
2 0 −1 2
forma una base ortogonal de R3 con el producto escalar estándar. Para obtener una
base ortonormal multiplicaremos cada vector por el inverso de su norma:
1 1 1 1
1 1
B= √ −1 , √ 1 ,√ 1 .
2 3 6
0 −1 2
Por tanto, B es una base ortonormal de R3 con el producto escalar estándar.
144
4.2.4 Ortogonal de un Subespacio. Descomposiciones Ortogonales.
Es conocido que el vector nulo de un espacio euclídeo E es ortogonal a todo vector del
espacio E. En particular, el vector nulo es ortogonal a todos los vectores de un subespacio
F de E. Nos preguntamos si existen más vectores de E que sean ortogonales a todo vector
de F y, en tal caso, como se puede obtener el conjunto formado por tales vectores.
Definición 32. Sea E un espacio vectorial sobre K y sea (·|·) un producto escalar definido
sobre E. Si F es un subespacio de E, se llama ortogonal de F al conjunto
F ⊥ = {x ∈ E | (x|y) = 0, ∀y ∈ F }.
Observación 33. Sea E un espacio vectorial sobre K de dimensión n y sea (·|·) un producto
escalar definido sobre E. Si F es un subespacio de E y {v1 , v2 , . . . , vr } es una base de F ,
entonces
F ⊥ = {x ∈ E | (x|vi ) = 0, 1 ≤ i ≤ r}.
Ejemplo 34.
Considera
elespacio euclídeo R con
4
el producto escalar estándar y el subespacio
x
y
F = ∈ R : x + y = z + t . Calcula el ortogonal de F , F ⊥ .
4
z
t
x
x
y y
F = ∈R : x+y =z+t =
4
∈ R : x = −y + z + t =
4
z
z
t t
−y + z + t
−1 1 1
1 0 0
y
=
z : y, z, t ∈ R = L 0 , 1 , 0 .
t 0 0 1
−1 1 1
1 0 0
Por tanto, A =
0 , 1 , 0 es un sistema generador de F . Además
0 0 1
A es LI, pues:
−1 1 1 0
1 0 0 0
α1
0 + α2 1 + α3 0 = 0 =⇒ α1 = α2 = α3 = 0.
0 0 1 0
145
En consecuencia, A es una base del subespacio F .
Ahora podemos obtener F ⊥ :
x x −1 x 1 x 1
0
F⊥ = y ∈ R4 : y 1 = 0, y 0 = 0, y = 0 =
z z 0 z 1 z 0
t t 0 t 0 t 1
x
y 4
= z ∈ R : −x + y = 0, x + z = 0, x + t = 0 =
t
x
1
= x : x ∈ R = L 1 .
−x −1
−x −1
Observemos
que F ⊥ es un subespacio de R4 . Además, es sencillo comprobar que
1
1
−1 6∈ F , pues no cumple la ecuación x + y = z + t. Por tanto,
−1
−1 1 1 1
0 0 1
1
, 1 , 0 , −1 es LI y dimR R = 4, de aquí se sigue
4
H=
0
0 0 1 −1
que H es una base de R4 . Finalmente, obtenemos:
−1 1 1
1
1 0 0 1 ⊥
R = L(H) = L
4
, ,
1 0 + L −1 = F + F
0
0 0 1 −1
0
0
Nótese que F ∩ F ⊥ = 0 . Por tanto, se tiene R = F ⊕ F .
4 ⊥
0
• F ⊥ es un subespacio de E.
146
• Si dimK E = n, entonces F ⊕ F ⊥ = E, es decir, E = F + F ⊥ y F ∩ F ⊥ = {0}.
(1) F ⊆ G =⇒ G⊥ ⊆ F ⊥ (2) (F ⊥ )⊥ = F
(3) (F + G)⊥ = F ⊥ ∩ G⊥ (4) (F ∩ G)⊥ = F ⊥ + G⊥ .
Como consecuencia del Teorema 35 es posible obtener una base ortonormal de un espacio
euclídeo de dimensión finita a partir de un conjunto ortonormal de vectores cualquiera.
Teorema 37. (Teorema de prolongación a una base ortonormal)
Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto escalar definido
sobre E. Si A = {x1 , . . . , xk } es un conjunto ortonormal de E, entonces existe B =
{xk+1 , . . . , xn } ⊂ E tal que A ∪ B es base ortonormal de E.
Ejemplo 38.
Considera
elespacio euclídeo R con
4
el producto escalar estándar y el subespacio
x
y
F = z
∈R : x+y =z+t .
4
t
147
1 −1 1/2 1
(y2 |x1 ) 0 1 1 1/2 1 1
x2 = y2 − x1 =
1 + 2 0 = 1 = 2 2
(x1 |x1 )
0 0 0 0
1
1
tomaremos
2 por simplicidad.
0
1 −1 1 1
(y3 |x1 ) (y3 |x2 ) 0 1 1 1 1 1 1
x3 = y3 − x1 − x2 =
0 + 2 0 − 6 2 = 3 −1
(x1 |x1 ) (x2 |x2 )
1 0 0 3
1
1
tomaremos
−1 por simplicidad.
3
−1 1 1
1 1
1
Así,
0 , 2 , −1 es una base ortogonal de F . Para conseguir una
0 0 3
base ortonormal, multiplicamos cada vector por el inverso de su norma:
−1 1 1
1 1 1 1 1
1
B= √
0 , √6 2 , 2√3 −1 es una base ortonormal de F.
2
0 0 3
1
1
1
1
(2) En el Ejemplo 34 calculamos F ⊥ = L
−1
. Por tanto,
−1
−1 −1
1
1
1 es una base
es una base ortogonal de F ⊥ y dimR F ⊥ = 1. Además, C =
2 −1
−1
ortonormal de F ⊥ .
Por el Teorema 35, tenemos que F ⊕ F ⊥ = R4 . Para obtener una base ortonormal de
R4 solo hay que unir una base ortonormal de F y una base ortonormal de F ⊥ . Así,
−1 1 1 1
1
1 1 1 1 1 1 1
B∪C = √ , √ , √ ,
0 2 −1 2 −1
2
6 2 3
0 0 3 −1
es una base ortonormal de R4 que se obtiene completando la base ortonormal de F .
148
4.3. APLICACIONES.
y1 = b11 x1
y2 = b12 x1 + b22 x2
..
.
yn = b1n x1 + b2n x2 + . . . + bnn xn
con bij ∈ K, i, j ∈ {1, . . . , n} y bii un número real positivo, ∀i ∈ {1, . . . , n}. Despejando
por sustitución progresiva expresamos los elementos de A como combinación lineal de los
elementos de B:
x1 = r11 y1
x2 = r12 y1 + r22 y2
..
.
xn = r1n y1 + r2n y2 + . . . + rnn yn
con rij ∈ K, i, j ∈ {1, . . . , n} y de nuevo rii es un número real positivo, ∀i ∈ {1, . . . , n}.
Estas ecuaciones pueden ser escritas del siguiente modo
r11 r12 . . . r1n
0 r22 . . . r2n
A = (x1 x2 . . . xn ) = (y1 y2 . . . yn ) .. .. .. .. = QR.
. . . .
0 0 . . . rnn
En definitiva, si A ∈ Mm×n (K) con ρ(A) = n, entonces puede factorizarse como producto
de dos matrices: A = QR, siendo Q ∈ Mm×n (K) cuyas columnas forman un conjunto
ortonormal de Km y R ∈ Mn×n (K) matriz triangular superior con entradas diagonales
positivas.
Debido a la construcción de la matriz Q podemos deducir que Q posee la siguiente
propiedad: Q∗ Q = In×n . En la práctica este hecho puede ser utilizado para obtener la
149
matriz R, ya que si Q es conocida
Ejemplo 40.
1 1 2
Realiza la factorización QR de la matriz A = 1 2 3 ∈ M3×3 (R).
1 1 1
La matriz A es no singular, pues det(A) 6= 0. Enconsecuencia,
podemos
afirmar
que
1 1 2
el rango de A es 3 y que el conjunto A = x1 = 1 , x2 = 2 , x3 = 3
1 1 1
es una base de R3 . Si utilizamos el producto escalar estándar, entonces A no es una
base ortogonal, pues (x1 |x2 ) = 4 6= 0. A continuación aplicamos el método de Gram-
Schmidt a la base A:
1 −1 1
1 1
C = h1 = 1 , h2 = 2 , h3 = 0 .
3 2
1 −1 −1
150
√ √ √ √
√ 3 6 √ 6 2
x1 = 3y1 , x2 = 4 y1 + y2 , x3 = 2 3y1 + y2 + y3 .
3 3 2 2
√ √ √ √ √ √
1/√3 −1/√ 6 1/ 2 3 4/
√ 3 √ 2 3
Por tanto, A = QR = 1/√3 2/ √6 0√ 0 6/3 √6/2 .
1/ 3 −1/ 6 −1/ 2 0 0 2/2
Nótese que Q es una matriz ortogonal, pues
√ √ √ √ √ √
1/ √3 1/√3 1/ √3 1/√3 −1/√ 6 1/ 2 1 0 0
QT Q = −1/√ 6 2/ 6 −1/√6 1/√3 2/ √6 0√ = 0 1 0 .
1/ 2 0 −1/ 2 1/ 3 −1/ 6 −1/ 2 0 0 1
Otra forma de calcular R una vez conocida Q es utilizando que QT Q = I3×3 , así R = QT A.
Por tanto,
√ √ √ √ √ √
1/ √3 1/√3 1/ √3 1 1 2 3 4/
√ 3 √ 3
2
T
R=Q A= −1/√ 6 2/ 6 −1/√6 1 2 3 = 0 6/3 √6/2 .
1/ 2 0 −1/ 2 1 1 1 0 0 2/2
Flexión viga
151
Estamos interesados en conocer la deformación previsible al aplicar 0, 65 KiloNewtons.
La deformación de la viga depende linealmente de la fuerza aplicada, por lo que los datos
recogidos en la tabla deben verificar la ecuación de una recta y = mx+n, donde x representa
a la fuerza aplicada e y la deformación sufrida. Disponemos de un sistema de ocho ecuaciones
lineales con dos incógnitas.
m 0+ n = 0 0 1 0
m 0, 1 + n = 0, 11 0, 1 1 0, 11
m 0, 2 + n = 0, 22 0, 2 1 0, 22
m 0, 3 + n = 0, 26 0, 3 1 m 0, 26
=⇒ =
m 0, 4 + n = 0, 43 0, 4 1 n 0, 43
| {z }
m 0, 5 + n = 0, 47 0, 5 1 0, 47
x
m 0, 6 + n = 0, 69 0, 6 1 0, 69
m 0, 7 + n = 0, 69 0, 7 1 0, 69
| {z } | {z }
A b
En ausencia de errores en las mediciones este sistema debería ser compatible y se resolvería
aplicando, por ejemplo, el método de Gauss. Ahora bien, si calculamos el rango de A y de la
matriz ampliada (A|b) obtenemos: ρ(A) = 2 < ρ(A|b) = 3. Por tanto, se trata de un sistema
incompatible. Sin embargo, necesitamos dar una respuesta al problema planteado. Por tanto,
debemos buscar una “solución” aproximada al sistema de ecuaciones lineales incompatible
cometiendo el menor error posible.
Descripción del Problema Lineal de los Mínimos Cuadrados.
Consideremos el espacio euclídeo Rm con el producto escalar estándar.
Supongamos que Ax = b es un sistema de ecuaciones lineales incompatible, donde A ∈
Mm×n (R), x ∈ Rn y b ∈ Rm .
Pretendemos abordar el cálculo de soluciones aproximadas de un sistema incompatible
de modo que el error cometido sea mínimo. En definitiva buscamos vectores x0 ∈ Rn tal que
la distancia del vector b al vector Ax0 : d(b, Ax0 ) =k b − Ax0 k sea mínima. Así Ax0 puede
ser interpretado como una aproximación a b. Nótese que para sistemas compatibles, si x0
es solución del sistema Ax = b, entonces la distancia entre Ax0 y b es cero.
Definición 41. Dado Ax = b un sistema de m ecuaciones lineales con n incógnitas. Se llama
problema lineal de mínimos cuadrados (PLMC) asociado al sistema Ax = b, al problema de
hallar aquellos vectores x0 ∈ Rn tales que minimicen
k b − Ax0 k2 .
El término mínimos cuadrados surge del hecho que k b−Ax0 k2 es una suma de cuadrados.
152
Dada una matriz A ∈ Mm×n (R), denotaremos por
N(A) = {x ∈ R | Ax = 0} Núcleo de A
n
Definición 43. Sea Ax = b un sistema de ecuaciones lineales con A ∈ Mm×n (R). Llamare-
mos ecuaciones normales asociadas al sistema Ax = b a
AT Ax = AT b.
Nótese que la matriz de coeficientes de las ecuaciones normales es una matriz simétrica
de tamaño n × n. Además, la proposición anterior nos permite afirmar que las ecua-
ciones normales siempre tienen solución, pues AT b ∈ Im(AT ) = Im(AT A) y, con ello,
ρ(AT A|AT b) = ρ(AT A). Por otra parte, si tenemos en cuenta que Rm = Im(A) ⊕ Im(A)⊥ ,
entonces b puede expresarse de forma única como sigue: b = b1 + b2 con b1 ∈ Im(A) y
b2 ∈ Im(A)⊥ . En consecuencia, utilizando que Ax − b1 y b2 son vectores ortogonales y el
Teorema de Pitágoras, tenemos que k Ax − b k2 =k Ax − b1 k2 + k b2 k2 . Observemos
que k b2 k2 es una cantidad fija, si pretendemos minimizar k Ax − b k2 , lo conseguiremos
minimizando k Ax − b1 k2 .
Veamos la relación existente entre una solución de las ecuaciones normales asociadas al
sistema Ax = b y una solución al problema lineal de los mínimos cuadrados asociados al
sistema Ax = b.
x0 es solución del AT Ax = AT b ⇐⇒ AT Ax0 = AT b
⇐⇒ Ax0 − b ∈ N(AT )
⇐⇒ Ax0 − b = (Ax0 − b1 ) − b2 ∈ Im(A)⊥
⇐⇒ Ax0 − b1 ∈ Im(A)⊥
⇐⇒ Ax0 − b1 ∈ Im(A)⊥ ∩ Im(A) = {0}
⇐⇒ k Ax0 − b k2 =k b2 k2
⇐⇒ x0 es solución del PLMC asociado a Ax = b .
En definitiva el resultado anterior garantiza que siempre es posible conseguir una solu-
ción “aproximada” con error lo más pequeño posible para un sistema de ecuaciones lineales
incompatible. Así podemos enunciar el siguiente teorema:
153
Teorema 44. Sea Ax = b un sistema de ecuaciones lineales con A ∈ Mm×n (R). El
problema lineal de los mínimos cuadrados asociado al sistema Ax = b siempre tiene solución.
La solución o soluciones al problema lineal de los mínimos asociado al sistema Ax = b son
exactamente la solución o soluciones de las ecuaciones normales asociadas al sistema Ax = b.
Además, la solución es única si, y sólo si, N(A) = {0} si, y sólo si ρ(A) = n.
Definición 45. Si x0 es una solución al problema lineal de los mínimos cuadrados asociado
al sistema Ax = b, se llama error cuadrático a k Ax0 − b k2 .
x0 = (AT A)−1 AT b = A+ b.
Pretendemos encontrar una recta y = m x + n que pasa por los puntos recogidos en la
tabla:
154
m 0+ n = 0 0 1 0
m 0, 1 + n = 0, 11
0, 1 1 0, 11
m 0, 2 + n = 0, 22 0, 2 1 0, 22
m 0, 3 + n = 0, 26 0, 3 1 m 0, 26
=⇒
0, 4 1
=
m 0, 4 + n = 0, 43 n
| {z } 0, 43
m 0, 5 + n = 0, 47 0, 5 1 0, 47
x
m 0, 6 + n = 0, 69 0, 6 1 0, 69
m 0, 7 + n = 0, 69 0, 7 1 0, 69
| {z } | {z }
A b
Observemos que ρ(A) = 2 < ρ(A|b) = 3. Por tanto, se trata de un sistema incompa-
tible. Calculemos las ecuaciones normales: AT Ax = AT b.
1, 4000 2, 8000 m 1, 4370
=
2, 8000 8, 000 n 2, 8700
y = 1, 0298 x − 0, 0017
155
Cuando los datos no están cercanos a ninguna recta es posible aplicar el método del
problema lineal de los mínimos cuadrados realizando ajustes con otro tipo de curvas.
156
Observemos que ZEB + ZBA 6= ZEA . Realizamos una compensación con correcciones
ε1 , ε2 y ε3 tales que
Luego,
ε1 + ε2 − ε3 = −0.04
Análogamente, tenemos que ZEB + ZBC 6= ZEC . Realizamos una nueva compensación
y tenemos que
157
El sistema anterior tiene infinitas soluciones ya que el rango de la matriz AT A es igual
a 2. Buscamos la solución del sistema inicial que tenga norma mínima (esto es, tal
que ε21 + ε22 + ε23 + ε24 + ε25 sea mínimo), luego consideramos una solución del sistema
de ecuaciones normales que pertenezca al subespacio Im(AT ), subespacio vectorial
generado por las filas de la matriz A, es decir,
ε1 1 1 α+β
ε2 1 0 α
ε3 = α −1 + β 0 = −α
ε4 0 1 β
ε5 0 −1 −β
tal que
2 1 −1 1 −1 α+β −0.09
1 −1 0
1 0 α −0.04
−1 −1 0
1 0 −α = 0.04
1 0 0 1 −1 β −0.05
−1 0 0 −1 1 −β 0.05
Ejemplo 52. Calcula la solución del problema lineal de los mínimos cuadrados asociada al
sistema Ax = b con
158
1 3 5 3
1 1
0 5
A=
1 yb= .
1 2 7
1 3 3 −3
En primer lugar calcularemos la factorización
QRdeA, pues
ρ(A) = 3. Aplicamos
1 3 5
1 1 0
el método de Gram-Schmidt a A = , , y, obtenemos una base
1 1 2
1 3 3
1 1 1
−1
1 −1
ortogonal de L(A): B =
1 , −1 , 1 . Por tanto, utilizando que todos
1 1 −1
1/2 1/2 1/2
1/2 −1/2 −1/2
los vectores tienen norma 2, la matriz Q es: Q = 1/2 −1/2
. Obtengamos ahora
1/2
1/2 1/2 −1/2
1 3 5
1/2 1/2 1/2 1/2 2 4 5
1 1 0
la matriz R: R = QT A = 1/2 −1/2 −1/2 1/2 1 1 2 = 0 2 3 . En
1/2 −1/2 1/2 −1/2 0 0 2
1 3 3
consecuencia,
1/2 1/2 1/2
1/2 −1/2 −1/2 2 4 5
A = QR = 1/2 −1/2
0 2 3 .
1/2
0 0 2
1/2 1/2 −1/2
Conocidas Q y R, calculamos la solución al problema lineal de los mínimos cuadrados
asociado al sistema Ax = b resolviendo el sistema Rx = QT b, esto es
2 4 5 x 6 x 10
0 2 3 y = −6 =⇒ y = −6 .
0 0 2 z 4 z 2
PROBLEMAS
159
(P.2) Comprueba que la aplicación (·|·) : R2 × R2 −→ R definida por
y1 z1
(y|z) = 3y1 z1 − 2y1 z2 − 2y2 z1 + 2y2 z2 , ∀y = ,z = ∈ R2
y2 z2
(P.6) Sea E un espacio euclídeo sobre C y sean a y b dos vectores de E. Prueba que
(2) α2 k a k2 =k αa k2 , ∀α ∈ R y ∀a ∈ E.
160
(P.11) Considera P2 (R) con el producto escalar (p|q) = a0 b0 + a1 b1 + a2 b2 ∀p(x) = a0 + a1 x +
a2 x2 , q(x) = b0 + b1 x + b2 x2 ∈ P2 (R). Si p(x) = 1 + 2x − x2 y q(x) = 2 − 3x2 ∈ P2 (R) , calcula
k p k, k q k y el coseno del ángulo formado por p e q.
(P.12) En un espacio euclídeo real E se consideran dos vectores unitarios u y v que forman un
ángulo de 60 grados. Calcula k 2u + v k.
(P.13) En un espacio euclídeo real E se consideran dos vectores u y v. Si k u k= 2 y k v k= 7,
calcula (u − 4v|u + 4v).
(P.14) Sean E un espacio euclídeo y x e y dos vectores de E.
1. Si z =k x k2 y − (y|x)x, demuestra que k z k2 =k x k2 (k x k2 k y k2 −|(x|y)|2 ).
2. Demuestra que |(x|y)| ≤k x kk y k (desigualdad de Cauchy-Schwarz).
3. Comprueba que |(x|y)| =k x kk y k si, y sólo si x e y son proporcionales.
(P.16) Probar que si u y v son dos vectores de un espacio euclídeo real tales que k u k=k v k,
entonces u + v y u − v son ortogonales.
∗
(P.17) Considera el espacio euclídeo M2×2 (C) con el producto escalar (A|B) = tr(B A),
i i
∀A, B ∈ M2×2 (C). Calcula k A k, k B k y la distancia entre A y B, siendo A = y
2 0
2 i
B= . ¿Es {A, B} un conjunto ortogonal?
−i 2
(P.18) Considera el espacio
euclídeo
R3 con el producto escalar
estándar.
Calcula la proyección
1 x
ortogonal del vector v = 2 de R sobre el subespacio F =
3 y ∈R :x+y+z =0 .
3
3 z
x
(P.19) Calcula una base ortogonal de F = y ∈ R3 : 2x + y − z = 0 con el producto
z
1
escalar estándar de R3 . Calcula la proyección ortogonal de v = 0 ∈ R3 sobre F .
1
(P.20) Considera el espacio R con el producto escalar estándar.
euclídeo
4
Calcula la proyección
1
a
1
b
ortogonal del vector v = de R 4
sobre el subespacio F = ∈ R 4
: a, b ∈ R .
1
b
−1 a
161
(P.21) Considera el espacio euclídeo M2×2 (R) con el producto escalar (A|B) = tr(B T A),
∀A, B ∈ M2×2 (R).
2 −1 1 −1
1. Calcula la proyección ortogonal del vector A = sobre el el vector B = .
1 1 1 1
3 −2 1 0 0 1
2. Calcula la proyección de C = sobre el subespacio F = L , .
1 1 1 1 1 1
(P.25) Sea E un espacio vectorial euclídeo sobre K de dimensión finita. Decide si son verdaderas
o falsas las siguientes afirmaciones:
1. Todo conjunto LI de E es ortogonal.
2. Todo conjunto ortonormal es LI.
3. Todo conjunto ortogonal que no contenga al vector cero es ortonormal.
4. La proyección ortogonal de y sobre v coincide con la proyección ortogonal de y sobre αv,
con α ∈ K, α 6= 0.
162
1. (x − p | v) = 0 ∀v ∈ F.
2. k x − p k≤k x − v k ∀v ∈ F .
(P.27) Considera
el espacio R con
vectorial
3
el producto
escalar
estándar,
ortonormaliza
las bases
1 1 1 1 1 0
de R3 : B = 1 , −1 , 1 , C = 1 , 0 , 1 y
1 1 −1
1 1 1
2 1 −1
D = 1 , −1 , 1 .
−1 1 1
(P.28) Considera el espacio vectorial M2×2 (R) con el producto escalar (A|B) = tr(B T A),
∀A, B ∈ M2×2 (R). Ortonormaliza los subconjuntos de M2×2 (R):
−1 1 2 −1
1. , .
1 0 1 1
2 1 1 3 −1 0
2. , , .
1 0 −1 1 0 1
(P.29) Considera el espacio euclídeoZ P2 (R) dotado con el producto escalar
1
(p|q) = p(x)q(x) dx, ∀p, q ∈ P2 (R) .
0
Ortonormaliza los subconjuntos de P2 (R):
1. {1 − x2 , 1 + 2x2 }
2. {1 + x, x + x2 , 1 + x2 }.
(P.30) Sea el espacio vectorial R3 . Considera los producto escalares definidos en R3 : (·|·)1 el
producto escalar estándar y el producto escalar (·|·)2 :
a x a x
b y = ax + (a + b)(x + y) + (a + b + c)(x + y + z), ∀ b , y ∈ R3 .
c z 2
c z
a
Calcula el subespacio ortogonal a F = b ∈ R : a + b + c = 0 respecto de cada uno
3
c
de los dos productos escalares definidos.
x
y
(P.31) Considera H = ∈ R : x + y = 0, x − y + 2z = 0 subespacio de R4 con el
4
z
t
producto escalar estándar. Construye una base ortonormal A de H y una base ortonormal B de
H ⊥ . ¿A ∪ B es una base ortonormal de R4 ? Justifica tu respuesta.
163
(P.32) Calcula una base y la dimensión de F ∩ G y (F ∩ G)⊥ , siendo:
x
x
y y x−y+z =0
F = ∈ R4 : x − y = 0 y G= ∈ R4 : .
z
z t=0
t t
x
y
Si U = z
∈ R : x + y + z = 0 , calcula una base ortonormal de R4 que contenga una
4
t
base ortonormal de U .
(P.34) Considera
el espacio C2 dotado con el producto escalar estándar. Transforma
vectorial
−1 + i 2
la base A = , de C2 en una base ortonormal de C2 .
1 1−i
Z 1
(P.35) Considera el espacio vectorial P2 (R) dotado con el producto escalar (p | q) = p(x)q(x)dx.
−1
3 2 1
1. Prueba que A = 1, x, x − (polinomios de Legendre) es una base ortogonal de
2 2
P2 (R).
2. Consigue una base ortonormal de P2 (R) a partir de A.
3. Si F = L({1 + x + x2 }) es un subespacio de P2 (R), calcula una base y la dimensión del
subespacio ortogonal de F , F ⊥ .
(P.36) Considera
el espacio
vectorial
R4 dotado con el producto escalar estándar.
1 1
1 1
Si W = L
−1 , 1 un subespacio R , entonces:
4
2 −2
1. halla una base ortonormal de W ;
2. calcula el subespacio ortogonal de W , W ⊥ ;
3. halla una base ortonormal de W ⊥ ;
4. obtén una base ortonormal de R4 que contenga una base de W ;
1
0
5. calcula la proyección ortogonal de ⊥
0 sobre W y sobre W ¿Qué se obtiene al sumar
0
las dos proyecciones?
164
(P.37) Considera el espacio vectorial M2×2 (R) dotado con el producto escalar
(A | B) = tr(B T A) y el subespacio de M2×2 (R)
a + b −b
V = | a, b, c ∈ R
−c a − b
2. Obtener una matriz triangular superior con entradas diagonales positivas R tal que A = QR.
1 0 0
1 1 0
(P.40) Calcular la factorización QR de la matriz A =
1
∈ M4×3 (R).
1 1
1 1 1
1 1 0
(P.41) Calcular la factorización QR de la matriz A = 0 −1 1 ∈ M3×3 (R).
1 0 −1
(P.42) Halla la recta que mejor ajusta a las siguientes mediciones:
(i) (0, 1.2), (1, 2.4) y (2, 3.6).
(P.43) Dados los puntos (−1, −2), (1, 0), (2, 1) y (3, 0), halla la recta y la parábola que mejor
ajustan por el método de los mínimos cuadrados. Calcula el error cuadrático.
(P.44) La siguiente tabla indica la estatura media en centímetros para niños de 0, 1, 2, 3 y 4
semestres de vida:
x 0 1 2 3 4
y 50 66, 5 75 81 86, 5
165
Ajusta una recta. Calcula el error cuadrático.
(P.45) Un objeto se suspende en un túnel de viento y se mide la fuerza para varios niveles de
velocidad del viento. Los datos obtenidos están tabulados en la siguiente tabla:
v, m/s 10 20 30 40 50 60 70 80
F, N 25 70 380 550 610 1120 830 1450
Obtén la recta que mejor ajusta a estos datos.
(P.46) En el laboratorio de electricidad los estudiantes de la materia de circuitos eléctricos
intentan encontrar una relación entre la variación de una resistencia con su temperatura. Las
mediciones han sido recogidas en la siguiente tabla:
T ◦C 20.22 32.65 52 73.3 95.6
R (omhs) 765 826 872 941 1032.3
1. Representa los datos de la tabla para conjeturar que la relación entre la resistencia y la
temperatura es lineal: es decir, R = m T + b. Ajusta esos datos utilizando el método de los
mínimos cuadrados para determinar m y b.
2. Estima la resistencia que corresponde a una temperatura de 90◦ C.
(P.47) Un objeto se deja caer desde un acantilado y se registra su posición, s, desde ese
nivel(considerando positiva la dirección hacia abajo), y resultan los datos de la tabla siguiente:
t 1 2 3 4
s 4.85 19.55 44.04 78.35
donde t, el tiempo, se mide en segundos y s en metros. Realiza un ajuste por mínimos cuadrados
a un polinomio de segundo grado para estimar s(t) en cualquier instante t. Escribe el resultado
final redondeando a una cifra decimal.
(P.48) Desde los puntos A, B, C y D se miden experimentalmente los siguientes ángulos:
ν1 = 51o , ν2 = 73o , ν3 = 18o , ν4 = 40o , ν5 = 60o y ν6 = 119o . Hallar las correcciones εi , con
i = 1, ..., 6, por el método de mínimos cuadrados que compensen las medidas observadas.
166
aplicar el método de mínimos cuadrados para obtener la solución con error cuadrático mínimo
que tiene a su vez norma mínima.
(P.50) Calcular la solucíón del sistema:
ε1 + ε2 − ε4 + 3 =0
ε2 + ε3 − ε5 − 2 =0
ε1 + ε 2 + ε3 − ε6 − 1 = 0
que tiene norma mínima.
CUESTIONES
(C4) Sea E un espacio euclídeo sobre K de dimensión finita y sean x, y ∈ E vectores no nulos
tales que y = 3x. Una de las siguientes afirmaciones es verdadera:
(a) |(x|y)| <k x k · k y k.
(b) |(x|y)| >k x k · k y k.
(c) |(x|y)| =k x k · k y k.
(C5) Sea E un espacio euclídeo sobre K de dimensión finita. Una de las siguientes afirmaciones
es verdadera:
(a) Si x, y ∈ E tal que |(x|y)| <k x k · k y k, entonces {x, y} es una base de F = L({x, y}).
(b) Si x, y ∈ E tal que |(x|y)| =k x k · k y k, entonces x es ortogonal a y.
(c) La desigualdad de Cauchy-Schwarz afirma |(x|y)| >k x k · k y k ∀x, y ∈ E.
167
(C6) Si E es un espacio euclídeo sobre K de dimensión n, entonces una de las siguientes
afirmaciones es verdadera:
(a) k x + y k2 =k x k2 + k y k2 , ∀x, y ∈ E.
(b) Si x, y ∈ E, entonces k x + y k2 + k x − y k2 = 2 k x k2 +2 k y k2 ⇔ x ⊥ y.
(c) Si x, y ∈ E − {0} y x ⊥ y, entonces |(x|y)| <k x k · k y k.
(C11) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es cierta:
(a) La norma de un vector de E no depende del producto escalar definido en E.
(b) Si los vectores de la base B = {v1 , . . . , vn } verifican k vi k= 1, ∀i ∈ {1, . . . , n}, entonces
B es una base ortonormal.
(c) El método de ortogonalización de Gram-Schmidt garantiza la existencia de bases ortogonales.
168
(c) Si (y|xi ) = 0, ∀i ∈ {1, . . . , k}, entonces y ∈ F ⊥ .
(C13) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es verdadera:
(a) Si A = {x1 , . . . , xn } es un subconjunto ortogonal de E, entonces A es una base de E.
(b) Si U es un subespacio vectorial de E, v ∈ E y B = {w1 , . . . , wk } es una base ortonormal
de U , entonces la proyección ortogonal de v sobre U es (v|w1 )w1 + . . . + (v|wk )wk .
(c) Si C = {y1 , . . . , yn } es una base ortogonal de E, entonces D = {k y1 k y1 , . . . , k yn k yn }
es una base ortonormal de E.
(C14) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es verdadera:
(a) Si F y G son dos subespacios vectoriales de E, entonces (F + G)⊥ = F ⊥ + G⊥ .
(b) Si F es un subespacio vectorial de E, entonces E = F ⊥ ⊕ (F ⊥ )⊥ .
(c) Si F y G son dos subespacios vectoriales de E tales que F ⊆ G, entonces F ⊥ ⊆ G⊥ .
(C15) Sean A ∈ Mm×n (R) y Ax = b un sistema de ecuaciones lineales. Una de las siguientes
afirmaciones es cierta:
(a) Si ρ(A) = n, entonces det(A+ ) 6= 0.
(b) Si ρ(A) < n, entonces la solución a las ecuaciones normales asociadas al sistema Ax = b es
única.
(c) Si ρ(A) = n, entonces ρ(A+ ) = n.
169
(b) Si x0 es la única solución al PLMC asociado al sistema de ecuaciones lineales Ax = b,
entonces ρ(AT A) = n
(c) Si x0 es la única solución al PLMC asociado al sistema de ecuaciones lineales Ax = b,
entonces x0 = (AT A)−1 b.
170
Tema 5: Diagonalización de Matrices Cuadradas
171
5.1. DIAGONALIZACIÓN DE MATRICES CUADRADAS.
En la sección 3.4.3. del tema de aplicaciones lineales vimos que dos matrices asociadas a una
misma aplicación lineal respecto de parejas de bases distintas son matrices equivalentes, es decir,
A y B ∈ Mm×n (K) representan a la aplicación lineal T : E −→ F respecto de parejas de bases
ordenadas A y C de E y B y D de F ( A = T AB y B = T CD ), si y sólo si, existen P ∈ Mm×m (K) y
Q ∈ Mn×n (K) no singulares tales que B = PAQ.
Si T es un endomorfismo, se tiene que A y B ∈ Mn×n (K) representan al endomorfismo T : E −→ E
respecto de parejas de bases ordenadas A y B de E ( A = T BB y B = T AA ), si y sólo si, existe
P ∈ Mn×n (K) no singular tal que B = PAP−1 . Las matrices que cumplen esta relación se dice que
son matrices similares.
Puesto que las matrices más simples son las matrices diagonales, nos preguntamos si es posible
encontrar una base A de E tal que la matriz asociada al endomorfismo T respecto de esta base sea
una matriz diagonal D. Si esta base existe y consideramos A la matriz asociada al endomorfismo
T respecto de la base canónica B, entonces las matrices A = T BB y D = T AA son similares. Éste
será el objetivo de este tema: dada una matriz A ∈ Mn×n (K) ver si es posible encontrar una matriz
P ∈ Mn×n (K) no singular y una matriz D ∈ Mn×n (K) diagonal tales que A = PDP−1 .
Este tema es uno de los de mayor aplicación del Álgebra Lineal. La diagonalización de matrices se
usa en varias áreas de las Matemáticas, en Física, en Mecánica, en Ingeniería eléctrica y nuclear,
en Teoría de estructuras, en Hidrodinámica y Aerodinámica, en Genética, en Economía, etc. Pen-
semos, por ejemplo, en el tensor de inercia estudiado en Física: al calcular los ejes principales del
tensor de inercia se está diagonalizando una matriz real simétrica de tamaño 3 × 3.
5.1.1. Valores y Vectores Propios de una Matriz. El Polinomio Característico de una Matriz
Cuadrada.
Dada una matriz A ∈ Mn×n (K) queremos encontrar, si es posible, una matriz P ∈ Mn×n (K)
no singular y una matriz D ∈ Mn×n (K) diagonal tales que A = PDP−1 . Supongamos que P es
una matriz cuyas columnas son los vectores v1 , v2 , . . . , vn ∈ Kn y que D = diag(α1 , α2 , . . . , αn ).
Imponiendo que A y D sean similares, se obtiene que
A = PDP−1 =⇒ AP = PD =⇒ A v1 v2 . . . vn = v1 v2 . . . vn diag(α1 , α2 , . . . , αn )
=⇒ Av1 Av2 . . . Avn = α1 v1 α2 v2 . . . αn vn =⇒ Avi = αi vi , 1 ≤ i ≤ n.
Tenemos entonces que buscar vectores v que verifiquen que Av = αv, con α ∈ K, es decir, vectores
v de forma que el vector Av resulte ser proporcional a v. Esto nos conduce a la siguiente definición.
Definición 1. Sea A ∈ Mn×n (K). Diremos que α ∈ K es un valor propio o autovalor de A si existe
x ∈ Kn no nulo tal que Ax = αx.
En tal caso, al vector x se le llama vector propio o autovector de A asociado a α.
Al conjunto formado por los valores propios de A se le llama espectro de A y lo denotaremos por
σ(A).
172
En muchos textos de física y de ingeniería a los valores propios se les llama valores principales y
a los vectores propios se les llama direcciones principales.
! !
2 2 2
Ejemplo 2. Considera la matriz A = ∈ M2×2 (R). Comprueba que v = yu =
2 −1 1
!
1
son vectores propios de A.
−2
Si calculamos el producto de A por el vector v, se
tiene
! ! ! Au = −2u 4
2 2 2 6
Av = = = 3v
2 −1 1 3 Av = 3v
3
luego, 3 es un valor propio de A y v es un vector 2
propio de A asociado a 3.
1 v
Análogamente, multiplicando A por el vector u
se obtiene
! ! ! −2 −1 1 2 3 4 5 6
2 2 1 −2 −1
Au = = = −2u u
2 −1 −2 4 −2
173
Por tanto, el espectro de A es σ(A) = {0, 2}, es decir, los valores propios de A son 0 y 2, con
MA(0) = 1, MA(2) = 1.
Como ejemplos de matrices cuyo polinomio característico se calcula fácilmente podemos en-
contrar las matrices triangulares y, en particular, las matrices diagonales. Claramente, si A es una
matriz diagonal, A = diag(a11 , . . . , ann ), entonces
Análogamente, si A es una matriz triangular, entonces dA (λ) = det(A−λIn×n ) = (a11 −λ) · · · (ann −λ)
y σ(A) = {a11 , . . . , ann }.
Como consecuencia de que el determinante de una matriz coincide con el de su traspuesta, se
obtiene que A y AT tiene el mismo polinomio característico.
Proposición 6. Si A ∈ Mn×n (K), entonces dAT (λ) = dA (λ).
Por tanto, A y AT tienen los mismos valores propios (con las mismas multiplicidades algebraicas).
Por otra parte, si x es un vector propio de A podemos plantearnos si será vector propio de A2 , o
en general de Ak , con k ∈ N. Y si lo es, ¿a qué valor propio está asociado?
Sea A ∈ Mn×n (K) y sean α un valor propio de A y x un vector propio de A asociado a α. Entonces,
Además, se puede probar que la traza de una matriz coincide con la suma de sus valores propios
y el determinante coincide con el producto de sus valores propios.
Proposición 9. Si A ∈ Mn×n (K) y σ(A) = {α1 , . . . , αn }, entonces
tr(A) = α1 + · · · + αn y det(A) = α1 · · · αn .
174
5 4 3
Ejemplo 10. Calcula los valores propios de la matriz A = −1 0 −3 y los valores propios
1 −2 1
de la matriz B = A3 − 2A2 − 11A + 12I3×3 .
¿Son no singulares las matrices A y B? En caso afirmativo, calcula los valores propios de la matriz
inversa.
Calculamos el polinomio característico de A:
5 − λ 4 3 F + F 5 − λ 4 3 C − C
2 1 1 2
dA (λ) = det(A − λI3×3 ) = det −1 −λ −3 = det 4 − λ 4 − λ 0 =
1 −2 1 − λ 1 −2 1 − λ
1 − λ 4 3
= det 0 4−λ 0 = (4 − λ)[(1 − λ)2 − 9] = (4 − λ)(1 − λ + 3)(1 − λ − 3) =
3 −2 1 − λ
= (4 − λ)2 (−2 − λ)
Luego σ(A) = {4, 4, −2}, es decir, los valores propios de A son 4 y −2, con MA(4) = 2 y MA(−2) =
1. Se comprueba que tr(A) = 6 = 4 + 4 + (−2) y det(A) = −32 = 4 · 4 · (−2).
Si consideramos el polinomio p(λ) = λ3 − 2λ2 − 11λ + 12, entonces B = p(A) y aplicando el
Teorema de Frobenius se obtiene
Podemos plantearnos si existe alguna relación entre los valores propios o entre los polinomios
característicos de dos matrices similares.
Si A y B son matrices similares, entonces existe una matriz P no singular tal que B = PAP−1 . Si
calculamos el polinomio característico de B se tiene que
dB (λ) = det(B−λI) = det(PAP−1 −λI) = det(PAP−1 −λPIP−1 ) = det(P) det(A−λI) det(P−1 ) = dA (λ)
Proposición 11. Sean A, B ∈ Mn×n (K). Si A y B son matrices similares, entonces A y B tienen el
mismo polinomio característico y, como consecuencia, A y B tienen los mismos valores propios.
Veamos cómo calcular los vectores propios de una matriz. Si x es un vector propio de A aso-
ciado a α, x debe ser una solución no nula del sistema homogéneo (A − αIn×n )x = 0, o equiva-
lentemente, x debe ser un vector no nulo de N(A − αIn×n ). Así, una vez calculados los valores
propios, para calcular los vectores propios asociados a cada uno de ellos, resolveremos el sistema
homogéneo (A − αIn×n )x = 0, para cada valor propio α. Como N(A − αIn×n ) es un subespacio de
Kn , introducimos la siguiente definición.
175
Definición 12. Si A ∈ Mn×n (K) y α es un valor propio de A, se llama subespacio propio o autoes-
pacio asociado a α al subespacio que contiene todos los vectores propios de A asociados a α junto
con el vector 0:
n = dimK Kn = dimK N(A − αIn×n ) + dimK Im(A − αIn×n ) = MG(α) + ρ(A − αIn×n )
de donde se deduce una fórmula para calcular la multiplicidad geométrica de α sin tener que
calcular los vectores propios:
MG(α) = n − ρ(A − αIn×n ). (2)
Además, se verifica la siguiente relación entre las multiplicidades algebraica y geométrica.
176
Teorema 15. (Relación entre la multiplicidad geométrica y la multiplicidad algebraica)
Si A ∈ Mn×n (K) y α es un valor propio de A, entonces MG(α) ≤ MA(α).
177
Si A es una matriz n × n con n valores propios distintos en K, verificará la condición (i) y,
además, 1 ≤ MG(α) ≤ MA(α) = 1, luego también verifica la condición (ii). Se tiene entonces el
siguiente corolario.
Corolario 21. Sea A una matriz n × n con entradas en K.
Si A tiene n valores propios distintos en K, entonces A es diagonalizable en K.
Resumamos los pasos que hay que seguir para diagonalizar (si es posible) una matriz.
? Método práctico para diagonalizar (si es posible) una matriz cuadrada.
Dada una matriz A n × n con entradas en K.
Paso 2 Calcula los valores propios de A (los ceros en K de dA (λ)) y sus multiplicidades algebrai-
cas.
Si dA (λ) no tiene n ceros en K, entonces A NO es diagonalizable en K.
Si dA (λ) tiene n ceros en K ( no necesariamente distintos), entonces ir al Paso 3
Paso 3 Calcula la multiplicidad geométrica de cada valor propio: MG(α) = n − ρ(A − αIn×n ), para
cada α ∈ σ(A).
Si MG(α) , MA(α), para algún valor propio de A, entonces A NO es diagonalizable en K.
Si MG(α) = MA(α), para cada valor propio de A, entonces A es diagonalizable en K. Seguir
con los Pasos 4 y 5.
Paso 4 Si A es diagonalizable en K, calcula una base de cada subespacio propio E(α), resolviendo
el sistema homogéneo (A − αIn×n )x = 0, para cada α ∈ σ(A).
Nota 22. El orden de las columnas de P debe corresponder con el orden de los valores propios en
la diagonal de D, es decir, la columna i-ésima de P debe ser un vector propio asociado al valor
propio que ocupa la entrada i-ésima en la diagonal de D, para i = 1, 2, . . . , n.
Veamos algunos ejemplos.
Ejemplo 23. Estudia si cada una de las siguientes matrices es o no diagonalizable en R y en C y,
en caso afirmativo, diagonalízala.
5 4 3 ! 2 2 1
0 1
A = −1 0 −3 , B = , C = 1 3 1
−1 0
1 −2 1 1 2 2
178
En el Ejemplo 10 hemos visto que dA (λ) = (4 − λ)2 (−2 − λ), luego el polinomio característico es
producto de factores lineales en R[λ] y en C[λ]. Además, en el Ejemplo 13 hemos calculado los
subespacios propios asociados a los valores propios de A, obteniéndose que
1
E(4) = L −1
y MG(4) = 1 , 2 = MA(4)
1
−1
E(−2) = L 1
y MG(−2) = 1 = MA(−2)
1
Como la multiplicidad algebraica del valor propio 4 no coincide con la multiplicidad geométrica,
A NO es diagonalizable en R, ni tampoco en C.
Veamos qué ocurre con la matriz B. Calculemos en primer lugar su polinomio característico.
!
−λ 1
dB (λ) = det(B − λI2×2 ) = det = λ2 + 1 = (λ − i)(λ + i)
−1 −λ
Si consideramos B como una matriz real, como el polinomio característico de B no tiene 2 ceros
reales, entonces B NO es diagonalizable en R.
Sin embargo, si consideramos B como matriz compleja, los valores propios de B son i y −i con
MA(i) = 1 y MA(−i) = 1. Como B tiene todos sus valores propios distintos en C, B es diagonali-
zable en C.
Calculemos la matriz P ∈ M2×2 (C) no singular y la matriz diagonal D tales que B = PDP−1 .
Para ello debemos calcular una base de cada uno de los dos subespacios propios de B y unir las
dos bases. Así, para obtener el subespacio propio asociado a i resolvemos el sistema homogéneo
(B − iI2×2 )x = 0: ! ! !
−i 1 x 0
= =⇒ y = ix
−1 −i y 0
( ! ) ( !)!
x 1
Por tanto, E(i) = : x∈C =L .
ix i
Análogamente, para obtener el subespacio propio asociado a −i resolvemos el sistema homogéneo
(B + iI2×2 )x = 0: ! ! !
i 1 x 0
= =⇒ x = iy
−1 i y 0
( ! ) ( !)!
iy i
Por tanto, E(−i) = : y∈C =L .
y 1
( ! !)
1 i
Así, A = , es una base de C2 formada por vectores propios de B. Si B denota la base
i 1
canónica de C2 , entonces
! !
1 i i 0
P = IdAB = , D= y PDP−1 = B.
i 1 0 −i
179
En el caso de la matriz C, si calculamos el polinomio característico se obtiene
2 − λ 2 1 F − F 2 − λ 2 1 C2 + C3
3 2
dC (λ) = det(C − λI3×3 ) = det 1 3−λ 1 = det 1 3−λ 1 =
1 2 2−λ 0 λ−1 1−λ
2 − λ 3 1
= det 1 4−λ 1 = (1 − λ)[(2 − λ)(4 − λ) − 3] = (1 − λ)2 (5 − λ)
0 0 1−λ
180
2 0 0
Ejemplo 24. Estudia para qué valores de los parámetros a y b la matriz A = 0 1 a − 4 es
3 0 b
diagonalizable en R.
Calculemos en primer lugar el polinomio característico de A:
2 − λ 0 0
dA (λ) = det(A − λI3×3 ) = det 0 1−λ a−4 = (2 − λ)(1 − λ)(b − λ)
3 0 b−λ
Nota 25. Una de las aplicaciones inmediatas de la diagonalización es al cálculo de las potencias de
una matriz, ya que si A ∈ Mn×n (K) es diagonalizable, entonces existen P ∈ Mn×n (K) no singular y
D = diag(α1 , . . . , αn ) ∈ Mn×n (K) diagonal tales que A = PDP−1 y entonces, para cualquier k ∈ N,
se tiene que
181
5.1.3 Resolución de la Ecuación Matricial f (X) = A.
Dada A ∈ Mn×n (C) y f (λ) un polinomio con coeficientes en C no constante, queremos ver si
existe matriz X tal que f (X) = A.
Vamos a dar soluciones a este problema en el caso en que A sea una matriz diagonalizable.
Así, si A es diagonalizable, entonces existe P no singular tal que A = PDP−1 , siendo
D = diag(α1 , α2 , . . . , αn )
f (X) = c0 I + c1 X + c2 X 2 + · · · + ck X k =
= c0 PIP−1 +c1 P diag(β1 , β2 , ..., βn )P−1 +c2 P diag(β21 , β22 , ..., β2n )P−1 +· · ·+ck P diag(βk1 , βk2 , ..., βkn )P−1 =
= P diag( f (β1 ), f (β2 ), ..., f (βn ))P−1
y de aquí,
f (X) = A = P diag(α1 , α2 , ..., αn )P−1 =⇒ f (βi ) = αi , 1 ≤ i ≤ n.
Por tanto, si elegimos β1 , β2 , . . . , βn ∈ C tales que f (βi ) = αi , 1 ≤ i ≤ n y definimos
X = P diag(β1 , β2 , . . . , βn )P−1
Para calcular una raíz cuadrada de C no tenemos más que resolver la ecuación x2 = αi para cada
uno de los valores propios αi de C. En este caso,
√
x2 = 5 =⇒ x = ± 5
√
2
=⇒ R = P diag( 5, 1, 1)P−1
x = 1 =⇒ x = ±1
182
(ii) Para encontrar una matriz X que resuelva la ecuación matricial, procedemos como en el caso
anterior, pero ahora debemos resolver la ecuación x2 − x − 1 = αi para cada uno de los valores
propios αi de C.
)
x2 − x − 1 = 5 =⇒ x2 − x − 6 = 0 =⇒ x = 3 ó x = −2
=⇒ X = P diag(3, 2, 2)P−1
x2 − x − 1 = 1 =⇒ x2 − x − 2 = 0 =⇒ x = 2 ó x = −1
y así, la matriz X es una solución de la ecuación matricial. Otras posibles soluciones son, por
ejemplo, X2 = P diag(3, 2, −1)P−1 ó X3 = P diag(−2, −1, 2)P−1 . También en este caso podemos
encontrar ocho soluciones distintas para la ecuación matricial.
Otra aplicación interesante de la diagonalización son las llamadas cadenas de Markov. Se trata
de un modelo matemático que se usa para describir un proceso que se realiza varias veces de la
misma manera y cuyo resultado en cada realización depende linealmente de la realización inmedia-
tamente anterior del proceso. Las cadenas de Markov se usan para describir una amplia variedad
de situaciones en Biología, Estadística, Economía, Química, Ingeniería, Física, etc.
Por ejemplo, supongamos que en una zona geográfica, los habitantes realizan sus compras en
una de las dos cadenas de alimentación existentes A y B. Considerando un determinado período
de tiempo, observamos que por diferentes razones como el precio, la calidad, la publicidad . . . ,
algunos de los habitantes deciden cambiar de cadena.
Deseamos construir un modelo matemático que represente la variación mensual del mercado. Para
ello se sabe que la proporción de clientes de la cadena A que sigue comprando mensualmente en
la misma cadena es 8/10, mientras que la proporción de clientes que sigue comprando mensual-
mente en la cadena B es 7/10. Como hipótesis general suponemos que el número total de clientes
permanece constante.
Si denotamos por x0 e y0 la proporción de clientes de las cadenas A y B, respectivamente, en el
mes inicial, y x1 e y1 representan la proporción de clientes de las cadenas A y B, respectivamente,
en el mes siguiente, podemos plantear las siguientes ecuaciones
x1 = 0.8x0 + 0.3y0
y1 = 0.2x0 + 0.7y0
183
Se tiene entonces que el porcentaje de clientes que compra en cada una de las cadenas en el k-
ésimo mes depende linealmente del porcentaje de clientes que compraron en las cadenas en el mes
anterior y la dependencia es siempre la misma para cualquier k y viene dada por la matriz M. Ade-
más la matriz M es una matriz con todas sus entradas no negativas y las entradas de cada columna
suman 1. Los vectores zk también tienen sus entradas no negativas y suman 1. Este problema es un
ejemplo de cadena de Markov de 2 estados (comprar en la cadena A y comprar en la cadena B).
Definición 27. Diremos que z ∈ Rn es un vector estocástico o vector de probabilidad si sus com-
ponentes son no negativas y suman 1.
Diremos que M ∈ Mn×n (R) es una matriz estocástica si todas las entradas de M son no nega-
tivas y la suma de las entradas de cada columna vale 1, es decir, una matriz cuyas columnas son
vectores estocásticos.
Definición 28. Se llama cadena de Markov a un proceso en el que los estados del proceso en un
instante dependen linealmente de los estados en el instante inmediatamente anterior, es decir,
zk = Mzk−1 , k = 1, 2, . . .
Como M tiene los dos valores propios distintos es diagonalizable. Calculemos los subespacios
propios asociados a los valores propios de M.
• Para α = 1
! ! ! ! ( !)!
x −0.2 0.3 x 0 3
(M − I) = = =⇒ E(1) = L u1 =
y 0.2 −0.3 y 0 2
• Para α = 0.5
! ! ! ! ( !)!
x 0.3 0.3 x 0 −1
(M − 0.5I) = = =⇒ E(0.5) = L u2 =
y 0.2 0.2 y 0 1
Por tanto,
184
! ! !−1
−1 3 −1 1 0 3 −1
M = PDP =
2 1 0 0.5 2 1
(ii) Todos los valores propios de M tiene módulo menor o igual que 1.
(iii) Existe un vector propio de M asociado a 1 con todas sus entradas no negativas.
Una vez diagonalizada la matriz, podemos calcular fácilmente las potencias de M y, se tiene
entonces
Si hacemos que k tienda a infinito, podemos ver lo que sucederá a largo plazo. Teniendo en cuenta
además que z0 es un vector estocástico (x0 + y0 = 1), se tiene
3
!
1 3 5
z∞ = lı́m zk = (x0 + y0 ) =
k→∞ 5 2 2
5
Como conclusión podemos afirmar que, a largo plazo, 3/5 del número de clientes comprará en la
cadena de alimentación A y 2/5 del número de clientes comprará en la cadena de alimentación B.
Observemos que el vector z∞ es proporcional al vector u1 y, por tanto, es también un vector propio
de M asociado a 1, por tanto, Mz∞ = z∞ . Este vector se conoce como vector estacionario. Además,
en este caso, el vector estacionario no depende del vector de estados inicial considerado.
Definición 30. Dada una cadena de Markov con vectores de estados zk ∈ Rn , k = 0, 1, 2, . . . y
matriz de transición M ∈ Mn×n (R), llamaremos vector estacionario de la cadena de Markov al
límite cuando k tiende a infinito ( si existe) de los vectores de estados zk y lo denotaremos por z∞ .
Un vector estacionario de una cadena de Markov es un vector estocástico tal que Mz∞ = z∞ , esto es,
es un vector estocástico que es un vector propio de M asociado a 1. El Teorema 29 (iii) nos asegura
la existencia de vectores propios estocásticos asociados a 1 para toda matriz estocástica. Pero
185
no toda cadena de Markov tiene vector estacionario, como podemos comprobar con el siguiente
ejemplo.
!
0 1
Ejemplo 31. Si consideramos la cadena de Markov definida por la matriz estocástica M =
1 0
!
1/3
tomando como vector de estados inicial z0 = , entonces
2/3
!
2/3
z1 = z3 = z5 = . . . = z2k−1 =
1/3
! , k∈N
1/3
z2 = z4 = z6 = . . . = z2k =
2/3
y no existe el límite de los vectores zk cuando k tiende a infinito. Por tanto, la cadena de Markov
no tiene vector estacionario. Esto mismo ocurre! si cambiamos el vector inicial z0 por otro vector
1/2
estocástico, salvo que elijamos z0 = , ya que en este caso la cadena está formada por la
1/2
sucesión de vectores contante zk = z0 , para todo k ∈ N.
La siguiente definición introduce un tipo de matrices estocásticas para las que tenemos asegu-
rada la existencia de un vector estacionario en la cadena de Markov correspondiente, independien-
temente del vector inicial de estados considerado.
Definición 32. Diremos que una matriz M ∈ Mn×n (R) estocástica es regular si existe r ∈ N tal que
M r tiene todas las entradas estrictamente positivas.
Teorema 33. Si M ∈ Mn×n (R) es una matriz estocástica regular, entonces existe un único vector
estocástico q tal que Mq = q.
Además, si z0 es un vector de estados inicial cualquiera y zk = Mzk−1 , para k = 1, 2, . . . , entonces
la cadena de Markov converge al vector estacionario q cuando k −→ ∞, independientemente del
vector inicial z0 elegido.
Aunque no siempre es necesario que la matriz M sea regular para que la cadena de Markov
converja para cualquier vector inicial z0 , como muestra el siguiente ejemplo.
!
1/2 0
Ejemplo 34. Considera la cadena de Markov definida por la matriz de transición M = ,
1/2 1
tomando un vector de estados inicial cualquiera z0 .
M es una matriz triangular inferior, luego todas sus potencias son también matrices triangulares
inferiores y, por tanto, M no es regular. Diagonaliza la! matriz M y comprueba que el límite de zk
0
cuando k −→ ∞ existe y es el vector estacionario .
1
Los valores propios de M son 1 y 1/2. Como M tiene 2 valores propios distintos es diagonalizable.
Calculamos el subespacio propio asociado a cada uno de los valores propios de M.
• Para α = 1/2
! ! ! ! ( !)!
x 0 0 x 0 1
(M − (1/2)I) = = =⇒ E(1/2) = L
y 1/2 1/2 y 0 −1
186
• Para α = 1
! ! ! ! ( !)!
x −1/2 0 x 0 0
(M − I) = = =⇒ E(1) = L
y 1/2 0 y 0 1
Por tanto,
! ! !−1
−1 1 0 1/2 0 1 0
M = PDP =
−1 1 0 1 −1 1
Así,
Las matrices simétricas reales y hermíticas surgen en las aplicaciones con mayor frecuencia que
otros tipos de matrices. Por ejemplo, el tensor de inercia estudiado en Física, la matriz de tensiones
que aparece en Teoría de Estructuras o la matriz de rigidez que surge en problemas de Ingeniería
mecánica son matrices simétricas reales; las matrices de Pauli que aparecen en Mecánica cuántica
son matrices hermíticas. Vamos a ocuparnos de forma especial de la diagonalización de este tipo de
matrices. La diagonalización de las matrices simétricas reales nos dará la herramienta fundamental
para la reducción de las formas cuadráticas y las superficies cuádricas en el próximo tema.
Para entender mejor qué va a ocurrir al diagonalizar estas matrices vamos a estudiar el siguiente
ejemplo.
!
0 −i
Ejemplo 36. Diagonaliza la matriz hermítica A = ∈ M2×2 (C).
i 0
Calculemos en primer lugar su polinomio característico.
!
−λ −i
dA (λ) = det(A − λI2×2 ) = det = λ2 − 1 = (λ − 1)(λ + 1)
i −λ
187
Por tanto, los valores propios de A son 1 y −1 con MA(1) = 1 y MA(−1) = 1. Como A tiene todos
sus valores propios distintos en C, A es diagonalizable en C. Observamos que todos los valores
propios de A son reales.
Para obtener el subespacio propio asociado a 1 resolvemos el sistema homogéneo (A − I2×2 )x = 0:
! ! !
−1 −i x 0
= =⇒ y = ix
i −1 y 0
( ! ) ( !)!
x 1
Por tanto, E(1) = : x∈C =L .
ix i
Análogamente, para obtener el subespacio propio asociado a −1 resolvemos el sistema homogéneo
(A + I2×2 )x = 0: ! ! !
1 −i x 0
= =⇒ x = iy
i 1 y 0
( ! ) ( !)!
iy i
Por tanto, E(−1) = : y∈C =L .
y 1
( ! !)
1 i
Así, C = u1 = , u2 = es una base de C2 formada por vectores propios de A. Pero ade-
i 1
más, en este caso, la base es ortogonal con respecto al producto escalar estándar de C2 , ya que el
producto escalar de los vectores u1 y u2 es cero:
! !!
1 i
(u1 |u2 ) = = 1 · i + i · 1 = −i + i = 0
i 1
Cualquier vector no nulo proporcional a u1 es un vector propio de A asociado a 1 y cualquier vector
no nulo proporcional a u2 es un vector propio de A asociado a −1. Así, multiplicando cada vector
por el inverso de su módulo podemos obtener a partir de C una base ortonormal de C2 formada por
vectores propios de A.
( ! !)
1 1 1 i
A = v1 = √ , v2 = √ base ortonormal de C2
2 i 2 1
y, por tanto, P−1 = P∗ . Recordemos que a las matrices que verifican esta propiedad se les llama
matrices unitarias.
Todas las observaciones que hemos anotado en el ejemplo anterior se van a cumplir para cual-
quier matriz hermítica. Se tienen los siguientes resultados trabajando con el producto escalar es-
tándar.
188
Teorema 37. Sea A ∈ Mn×n (C). Si A es una matriz hermítica, entonces
(i) Todos los valores propios de A son reales.
(ii) Los vectores propios asociados a valores propios distintos son ortogonales.
(iii) Existe una base ortonormal de Cn formada por vectores propios de A, o equivalentemente, A
es diagonalizable en C con respecto a una base ortonormal.
Por tanto, si A es una matriz hermítica, entonces es diagonalizable y podemos encontrar una
base ortonormal A de Cn formada por vectores propios de A. Si consideramos la base canónica B
de Cn y llamamos P a la matriz de cambio de base de A a B, entonces P = IdAB es una matriz
unitaria y se verifica que A = PDP−1 = PDP∗ , siendo D la matriz diagonal que contiene los valores
propios de A que son todos reales. En resumen, se tiene el siguiente teorema.
Teorema 40. (Teorema de diagonalizabilidad de las matrices hermíticas)
Sea A ∈ Mn×n (C).
existe P ∈ Mn×n (C) unitaria tal que A = PDP∗ ,
A es hermítica ⇐⇒
siendo D una matriz diagonal real.
El problema que nos falta por resolver es cómo encontrar la base ortonormal formada por vec-
tores propios. Si A tiene todos los valores propios distintos, aplicando el Teorema 37 (ii), podremos
encontrar una base ortonormal de Cn formada por vectores propios de A simplemente tomando un
vector propio unitario asociado a cada uno de los valores propios de A.
Pero si A tuviese algún valor propio α con multiplicidad algebraica mayor que 1, debemos asegu-
rarnos que los vectores propios que tomamos asociados a α sean ortonormales. Para ello, basta con
que apliquemos el método de ortogonalización de Gram-Schmidt a la base del subespacio propio
de A asociado a α, lo que nos proporcionará una base ortogonal del subespacio propio y, por tanto,
vectores propios ortogonales asociados a α.
Uniendo una base ortonomal de cada uno de los subespacios propios asociados a los valores pro-
pios de A obtendremos una base ortonormal de Cn formada por vectores propios de A. Y con esta
base construímos la matriz P unitaria.
En el caso real, para matrices simétricas reales se obtienen resultados totalmente análogos.
Simplemente hay que trasladar los resultados de C a R y tener en cuenta que las matrices unitarias
reales se llaman matrices ortogonales.
189
Teorema 41. Sea A ∈ Mn×n (R). Si A es una matriz simétrica, entonces
(i) A tiene n valores propios (no necesariamente distintos).
(ii) Los vectores propios asociados a valores propios distintos son ortogonales.
(iii) Existe una base ortonormal de Rn formada por vectores propios de A, o equivalentemente, A
es diagonalizable en R con respecto a una base ortonormal.
Definición 42. Sea P ∈ Mn×n (R). Diremos que P es una matriz ortogonal si PPT = PT P = In×n .
Proposición 43. (Propiedades de las matrices ortogonales)
Sea P ∈ Mn×n (R). Si P es una matriz ortogonal, entonces se verifica que
• P es no singular y P−1 = PT .
• Las columnas de P forman una base ortonormal de Rn .
• Las filas de P forman una base ortonormal de Rn .
• k Px k=k x k, ∀x ∈ Rn , es decir, las matrices ortogonales conservan las longitudes.
Nota 44. Para que una matriz n × n real sea ortogonal, sus filas y/o sus columnas deben ser vectores
ortonormales de Rn con el producto escalar estándar. Si solamente son vectores ortogonales pero
no son unitarios, entonces PPT , In×n y PT P , In×n , y por tanto, P NO es ortogonal.
Volviendo a la diagonalización, se tiene como consecuencia que, si A es una matriz simétrica
real, entonces es diagonalizable y podemos encontrar una base ortonormal A de Rn formada por
vectores propios de A. Si consideramos la base canónica B de Rn y llamamos P a la matriz de
cambio de base de A a B, entonces P = IdAB es una matriz ortogonal y se verifica que A =
PDP−1 = PDPT , siendo D la matriz diagonal que contiene los valores propios. Resumiendo se
tiene el siguiente teorema.
Teorema 45. (Teorema de la diagonalizabilidad de las matrices simétricas reales)
Sea A ∈ Mn×n (R).
existe P ∈ Mn×n (R) ortogonal tal que A = PDPT ,
A es simétrica ⇐⇒
siendo D una matriz diagonal.
Veamos un último ejemplo.
3 2 4
Ejemplo 46. Diagonaliza la matriz real simétrica A = 2 0 2 con respecto a una base orto-
4 2 3
normal.
Si calculamos el polinomio característico se obtiene
3 − λ 2 4 F − F 3 − λ 2 4 C1 + C3
3 1
dA (λ) = det(A − λI3×3 ) = det 2 −λ 2 = det 2 −λ 2 =
4 2 3−λ 1 + λ 0 −1 − λ
7 − λ 2 4
= (−1 − λ)[(7 − λ)(−λ) − 8] = (−1 − λ)2 (8 − λ)
= det 4 −λ 2
0 0 −1 − λ
190
Por tanto, los valores propios de A son −1 y 8, con MA(−1) = 2 y MA(8) = 1. Si calculamos
sus multiplicidades geométricas, comprobaremos que A es diagonalizable, aunque esto no sería
necesario ya que al ser una matriz real simétrica sabemos que será diagonalizable.
191
2 1 −4
1 1 1
Así, A =
1
, √
−2
, √
−2
es una base ortonormal de R3 formada por vectores pro-
3 2
5 0
45 5
pios de A. Si B denota la base canónica de R3 , entonces
√ √
2/3 1/ 5 −4/ 45
8 0 0
√ √
P = IdAB = 1/3 −2/ 5 −2/ 45 es ortogonal, D = 0 −1 0 y PDPT = A.
√
2/3 0 5/ 45 0 0 −1
Nota 47. Una matriz simétrica compleja no podemos asegurar que es diagonalizable.
!
1 i
Por ejemplo, A = es una matriz simétrica compleja no nula y σ(A) = {0, 0}. Si A
i −1
fuese diagonalizable, entonces A = P diag(0, 0)P−1 debería ser nula. Por tanto, A no es diagonali-
zable.
PROBLEMAS
Diagonalización de matrices cuadradas.
(P.1) Estudia si α es un valor propio de la matriz A en cada uno de los siguientes casos:
! !
3 2 7 3
(i) si α = 2 y A = ; (ii) si α = −3 y A = ;
3 8 3 −1
3 0 −1
(iii) si α = 4 y A = 2 3 1 .
−3 4 5
(P.2) Estudia si v es un vector propio de la matriz A en cada uno de los siguientes casos, y si
lo es, encuentra el valor propio al que está asociado:
! ! 4 3 7 9
1 −3 1
(i) si v = yA= ; (ii) si v = −3 y A = −4 −5 1 ;
4 −3 8
1 2 4 4
1 3 6 7
(iii) si v = −2 y A = 3 3 7 .
1 5 6 5
(P.3) Sean A y B ∈ Mn×n (K). Prueba que si v es un vector propio de A asociado a λ y v es un
vector propio de B asociado a µ, entonces v es vector propio de A + B asociado a λ + µ y v es
vector propio de A · B asociado a λ · µ.
(P.4) Halla el polinomio característico y los valores propios de las matrices:
√
4 −5 −2 3 2 2 0
√
A = −5 4 −2 y B = 2 2 5 0 .
−2 −2 −8 0 0 2
192
−2 4 1 1
0 1 0 0
(P.5) Halla el polinomio característico y los valores propios de A = .
0 0 1 0
−1 0 −1 0
(P.6) Calcula los valores propios de la matriz B = A3 − 8A2 + 18A − 12I3×3 , siendo
3 1 −1
A = 3 5 −3 .
3 3 −1
1 0 −2 5
Calcula sus multiplicidades algebraica y geométrica y halla una base del subespacio propio
asociado a 1.
(P.9) Calcula el polinomio característico y los valores y vectores propios de las matrices
5 −7 −3 1 2 −1 !
i 1
A = 4 −6 −3 , B = 1 0 1 , C =
2 −i
−1 1 1 4 −4 5
(P.10) Estudia si cada una de las matrices del problema (P.9) es o no diagonalizable en R y en
C y, en caso afirmativo, diagonalízala.
(P.11) Estudia si cada una de las siguientes matrices es o no diagonalizable en R y en C y, en
caso afirmativo, diagonalízala.
4 0 1 3 1 0 1 −2 0 4 2 1
A = 2 3 2 , B = 0 3 0 , C = −2 1 0 , E = −2 0 −1
1 0 4 0 0 4 0 0 −1 −1 −1 1
1 0 0 0 0
0 1 0 0 0
(P.12) Dada la matriz A = 0 0 1 0 0 ,
0 0 0 1 1
0 0 0 1 1
1. Calcula el polinomio característico y los valores propios de A. ¿Es A no singular?
193
3. En caso de ser diagonalizable obtén una matriz no singular P y una matriz diagonal D
tales que A = PDP−1 .
1 1 1 1
1 1 −1 −1
(P.13) Se considera la matriz A = .
1 −1 1 −1
1 −1 −1 1
1. Diagonaliza la matriz A y determina una matriz no singular P tal que A = PDP−1 donde
D es una matriz diagonal.
2. Diagonaliza A2 y A−1 .
0 −2 −3
(P.14) Calcula Ak siendo A = 1 3 3 ∈ M3×3 (R), con k ∈ N.
0 0 1
(P.15) Prueba que si A es una matriz n × n diagonalizable y si sus valores propios son 0 y 1,
entonces A es idempotente.
(P.16 ) Estudiar para qué valores de los parámetros a y b la matriz A es diagonalizable.
a b 0
A = 0 1 0 .
0 0 2
(P.17) Estudia para qué valores de los parámetros a y b la siguiente matriz es diagonalizable
5 0 0
0 −1 a .
3 0 b
2 0 0
(P.18) Estudia para qué valores de a y b es diagonalizable la matriz A = 0 a b y
1 0 −1
diagonalízala en los casos en que sea posible.
9 5 −4
(P.19)(i) Halla una raíz cuadrada de la matriz A = −8 −4 4 .
2 2 0
!
2 1 2
(ii) Halla una matriz X tal que 4X − 5X + 3I2×2 = B, siendo B = .
−1 4
0 1 0
(P.20) Halla una raíz cúbica de la matriz A = −1 0 0 .
0 0 8
5 1 −1
(P.21) Encontrar una matriz X tal que X 2 − 8I3×3 = A, siendo A = 2 4 −2 .
1 −1 3
194
Aplicación: Cadenas de Markov.
(P.22) Un estudio acerca de los hábitos de fumar en un grupo de personas muestra que la
probabilidad de que un fumador continúe fumando un año después es de 65 %, mientras que
la probabilidad de que un no fumador continúe sin fumar es de 85 %. Supongamos que estas
probabilidades se mantienen a largo plazo. Si cuando comenzó el estudio en el año 1990 el
70 % de los miembros del grupo eran fumadores y el 30 % eran no fumadores. ¿Cuáles son
los porcentajes de fumadores y no fumadores dentro del grupo de estudio en 1991, en 1992
y en 1994? ¿Cuáles serán los porcentajes de fumadores y no fumadores dentro del grupo de
estudio a largo plazo?
(P.23) Supogamos que en un país la evolución de las migraciones internas a lo largo de un
cierto periodo de tiempo ha sido la siguiente:
(P.24) En la actualidad hay tres planes de inversión, A, B y C , disponibles para los empleados
de una empresa. Un empleado sólo puede usar un plan a la vez, y puede cambiar de uno
a otro sólo al final de cada año. La probabilidad de que alguien en el plan A continúe con él
es del 20 %; de que elija el plan B es 50 % y de que elija el plan C es 50 %. La matriz M de
probabilidades de transición del proceso de Markov es la siguiente:
0.2 0.5 0.5
M = 0.2 0.5 0
0.6 0 0.5
Demuestra que M es regular y calcula el vector estacionario. ¿A largo plazo, cuál es el plan
más popular y cuál es el plan menos popular?
195
(P.25) Dos compañías ofrecen televisión por cable a una ciudad con 100000 viviendas. El
cambio anual en la suscripción viene dado en el siguiente diagrama.
20 %
8 AZ l Bf
70 % , 80 %
9
15 %
10 % 15 %
15 % 5%
z
NY
70 %
Inicialmente la compañía A tiene 15000 suscriptores, la compañía B 20000, y hay 65000 vi-
viendas sin suscripción (N ). Calcula cuántos suscriptores tendrá cada compañía después de
2, 3 y 5 años. ¿Cuántos suscriptores tendrá cada compañía a largo plazo?
(P.28) Sea A ∈ Mn×n (C) una matriz unitaria. Prueba que los valores propios de A son números
complejos de módulo 1.
(P.29) (a) Sea A ∈ Mn×n (R). Si A es una matriz ortogonal, ¿cuáles son los posibles valores del
determinante de A?
(b) Si A y B ∈ Mn×n (R) son matrices ortogonales, prueba que AB es también una matriz
ortogonal.
(P.30) Sea A ∈ Mn×n (R).
(i) Prueba que si A es ortogonal y α es un valor propio de A, entonces 1/α es también valor
propio de de A.
196
(ii) Prueba que si A es ortogonal y x es un vector propio de A asociado a α, entonces x es
vector propio de AT asociado a 1/α.
(P.31) Diagonaliza las siguientes matrices con respecto a una base ortonormal de vectores
propios:
! 5 −3i 0
1 i
A= , B = 3i 5 0 .
−i 1
0 0 2
(P.32) Diagonaliza las siguientes matrices con respecto a una base ortonormal de vectores
propios:
0 2 1 1 1 1 2 3 0
A = 2 0 1 , B = 1 0 0 , C = 3 5 −1 .
1 1 1 1 0 0 0 −1 2
2 0 0
(P.33) (a) Considera la matriz A = 0 3 −1 ∈ M3×3 (R). Diagonaliza la matriz A respecto
0 −1 3
de una base ortonormal de vectores propios de A.
(b) Calcula una matriz X ∈ M3×3 (R) tal que X 2 − X + 2I3×3 = A.
1 2 2
(P.34) Encuentra una matriz real simétrica X tal que X 2 −5X+5I3×3 = A, siendo A = 2 1 2 .
2 2 1
1 2 1
(P.35) (a) Diagonaliza la matriz A = 2 0 2 respecto de una base ortonormal de vectores
1 2 1
propios y obtén una matriz P tal que A = PDPT .
(b) Calcula una solución de la ecuación matricial −X 2 − 4X = A.
0 1 2
(P.36) (a) Diagonaliza la matriz A = 1 1 1 respecto de una base ortonormal de vectores
2 1 0
propios y obtén una matriz P tal que A = PDPT .
(b) Calcula los valores propios de la matriz B = A2 − 4A + 3I3×3 .
CUESTIONES
3 1 1
(C1) Dada la matriz A = 1 3 1 ∈ M3×3 (R), uno de los siguientes vectores es un vector
1 1 3
propio de la matriz A asociado al valor propio 2:
1 1 1
(a) u = 1 (b) v = 1 (c) w = 1 .
1 0 −2
197
(C2) Sean x, y vectores propios de una matriz A asociados al mismo valor propio. Entonces,
(a) x + y también es vector propio de A.
(b) x + y no es vector propio de A, pues {x, y, x + y} es LD.
(c) x + y también es vector propio de A si x + y , 0.
(C4) Una de las siguientes afirmaciones es correcta: sea A una matriz n×n compleja. Entonces
(a) A es no singular si, y sólo si, algún valor propio de A es nulo.
(b) A y AT pueden tener distinto polinomio característico.
(c) la traza de A es la suma de sus valores propios.
(C7) Sea A una matriz 3 × 3 tal que σ(A) = {1, 2, −2}. Entonces,
(a) ρ(A) = 1 + 2 + (−2) = 1
(b) ρ(A − I3×3 ) = 1
(c) ρ(A) = 3.
(C8) Sea A una matriz n × n. Sólo una de las siguientes afirmaciones es correcta:
(a) si A es no singular, entonces A es diagonalizable.
(b) si A es no singular, entonces A es similar a la matriz identidad In×n .
(c) si A es diagonalizable, entonces An es diagonalizable, ∀n ∈ N.
(C9) Sean A ∈ Mn×n (K) y v un vector propio de A asociado a α. Una de las siguientes afirma-
ciones es FALSA:
(a) Si β ∈ K \ {0}, entonces βv es un vector propio de A asociado a α.
(b) Si w es un vector propio de A asociado a β, con β , α, entonces v y w son vectores
ortogonales.
198
(c) Si w es un vector propio de A asociado a β, con β , α, entonces {v, w} es LI.
2 1 0
(C10) Sea A = −1 0 0 ∈ M3×3 (R). Una de las siguientes afirmaciones es verdadera:
0 0 1
(a) σ(A) = {2, 0, 1}
(b) MG(1) = 2
(c) A es diagonalizable.
(C11) Sea A una matriz 3 × 3 tal que dA (λ) = (−1)3 (λ − 3)2 (λ − 5), entonces
(a) si dimK E(3) = 2, entonces A es diagonalizable.
(b) si ρ(A − 3I3×3 ) = 2, entonces A es diagonalizable.
(c) si u y v son vectores propios asociados a 3 y w es vector propio asociado a 5, entonces
{u, v, w} es L.I. y A es diagonalizable.
(C15) Sea M ∈ Mn×n (R) la matriz de transición de una cadena de Markov. Una de las siguien-
tes afirmaciones es verdadera:
(a) Todos los valores propios de M son positivos.
199
(b) M es no singular.
(c) 1 ∈ σ(M).
(C19) Sea A una matriz real n × n. Entonces, una de las siguientes afirmaciones es FALSA:
(a) Si A es ortogonal, entonces (A−1 )T = A.
(b) Si A es ortogonal y si α es un valor propio de A, entonces 1/α también es un valor propio
de A.
(c) Si A es ortogonal, entonces A es diagonalizable.
200
Tema 6: Formas Cuadráticas.
201
6.1. GENERALIDADES SOBRE FORMAS CUADRÁTICAS.
6.1.1 Formas Cuadráticas. Reducción de Formas Cuadráticas.
Comenzamos el tema presentando una de las aplicaciones más frecuentes del Álgebra
Lineal, las denominadas formas cuadráticas. Aparecen en Ingeniería (en criterios de diseño y
optimización y en el procesamiento de señales); en Física (como energías potencial y cinética);
en Economía (como funciones de ganancia), en Cálculo (en el proceso de determinar máximos
y mínimos locales de campos escalares); en Estadística (en elipsoides de confianza), entre
otros. Este nuevo concepto está estrechamente relacionado con las matrices reales simétricas
y con las matrices ortogonales. Según vimos en el Tema 5 las primeras son diagonalizables
respecto de una base ortonormal de vectores propios asociados a valores propios reales, y las
segundas conservan las longitudes y los ángulos.
Definición 1. Una función Q : Rn −→ R es llamada forma cuadrática en Rn si para cada
base B = {v1 , . . . , vn } de Rn existe A = (aij ) ∈ Mn×n (R) tal que
n X
X n
Q(x) = Q(x1 v1 + . . . + xn vn ) = aij xi xj = X T AX, ∀x ∈ Rn ,
i=1 j=1
x1
x2
siendo X = [x]B = .. .
.
xn
Diremos que A es la matriz de la forma cuadrática Q respecto de la base B.
Una forma cuadrática en Rn , puede ser interpretada como un polinomio en las variables
x1 , x2 , . . ., xn con coeficientes reales en el que cada término tiene grado 2.
Nota 2. (I) Sin pérdida de generalidad podemos suponer que la matriz de la forma
cuadrática Q para una base B es una matriz real simétrica. En efecto, del hecho que Q(x) =
X T AX es un escalar, con X = [x]B , tenemos que Q(x) = Q(x)T = (X T AX)T = X T AT X.
Por tanto, se verifica
2Q(x) = X T AX + X T AT X = X T (A + AT )X
y así
1
Q(x) = X T
(A + A ) X, ∀x ∈ Rn .
T
2
1
Observemos que la matriz (A+AT ) es simétrica (ver Ejercicio 20(ii) Tema 1). Consecuente-
2
mente, siempre podemos encontrar una matriz simétrica para describir la forma cuadrática
respecto de una base B. A partir de ahora, trabajaremos con la matriz de la forma cuadrática
Q que sea simétrica.
(II) Si consideramos el espacio vectorial real Rn dotado con el producto escalar estándar
y B una base de Rn , entonces podemos describir la forma cuadrática a través del producto
escalar del siguiente modo:
Q(x) = X T AX = (X|AX), ∀x ∈ Rn , con X = [x]B .
202
Ejemplos 3.
x1
x2
(1) Consideremos Rn dotado con el producto escalar estándar. Si A = In×n , x = .. ∈
.
xn
R y B es la base canónica de R , entonces x = X = [x]B y
n n
a 11 a 12 a 13 x 1
Q(x) = xT Ax = x1 x2 x3 a12 a22 a23 x2 =
a13 a23 a33 x3
Ejemplos 4.
x1
(1) Obtén la matriz de la forma cuadrática Q en R3 dada por Q x2 = x22 + 2x1 x3
x3
x1
∀ x2 ∈ R3 , respecto de la base canónica B de R3 .
x3
203
Según lo expuesto en el Ejemplo 3(3) la matriz
simétrica
de la forma cuadrática Q
0 0 1
respecto de base canónica B de R es: C =
3 0 1 0 .
1 0 0
Este hecho es debido a que la matriz que define la forma cuadrática respecto de la base fijada
es una matriz diagonal. Sin embargo, la forma cuadrática Q respecto de la base canónica B
aparece como un polinomio en las variables x1 , x2 y x3 con términos cruzados:
Esta expresión es más complicada que la de H, nos preguntamos si sería posible encontrar
otra base C de R3 de forma que la expresión de la forma cuadrática Q respecto de C fuese lo
más sencilla posible, esto es, fuese una suma de cuadrados. La matriz A que representa la
forma cuadrática Q respecto de la base canónica B es una matriz real simétrica y, por tanto,
es diagonalizable respecto de una base ortonormal A de R3 formada por vectores propios
de A o, equivalentemente, existe una matriz P ortogonal tal que P T AP = D donde D es
una matriz diagonal real. En efecto, el espectro de A es: σ(A) = {1, 4, 7} y los subespacios
propios asociados
a los valores
propios de Ason:
2 1 2
E(1) = L −2 , E(4) = L 2 y E(7) = L 1 .
−1 −2 2
204
1 2 1 2
1 1
Por tanto, A = −2 , 2 , 1 es una base ortonormal de R3
3 3 3
−1 −2 2
formada por vectores propios de A. Como la base canónica B y la base A son bases ortonor-
males de R3 , la matriz cambio de base P = IdAB es una matriz ortogonal. Así D = P T AP ,
siendo
1 0 0 2 −2 −1 4 2 2 2 1 2
1 1
D= 0 4 0 = 1 2 −2 2 3 0 −2 2 1 = P T AP.
3 3
0 0 7 2 1 2 2 0 5 −1 −2 2
Q(x) = X T AX = (P Y )T AP Y = Y T (P T AP )Y = Y T DY =
1 0 0 y1
= y1 y2 y3 0 4 0 y2 = y12 + 4y22 + 7y32 .
0 0 7 y3
Por tanto, ha sido posible encontrar una base A de R3 de modo que la matriz que
representa la forma cuadrática Q respecto de dicha base es una matriz diagonal real y la
expresión de la forma cuadrática respecto de la citada base aparece como una suma de
cuadrados (se ha logrado eliminar los términos cruzados). Este hecho es un caso particular
del resultado que presentamos a continuación.
205
6.1.2 Formas Cuadráticas Definidas. Matrices Definidas.
Las imágenes que una forma cuadrática Q proporciona a los vectores de Rn son números
reales y en R tenemos una relación de orden. Estos hechos nos permiten dar las siguientes
definiciones con las que conseguiremos clasificar a las formas cuadráticas en función del signo
de sus imágenes. Dado que la forma cuadrática nula transforma todos los vectores de Rn en
cero, excluimos este caso de la clasificación. Recordemos que en la asignatura Matemáticas
I, la clasificación de las formas cuadráticas jugó un papel destacado en la determinación de
la condición suficiente para que un punto crítico de un campo escalar fuese un extremo local.
Definición 8. Sea Q una forma cuadrática no nula en Rn . Diremos que Q es
• definida positiva si Q(x) > 0, ∀x ∈ Rn − {0};
Como la matriz que representa a una forma cuadrática es una matriz simétrica real,
podemos a su vez obtener las siguientes definiciones:
Definición 9. Diremos que la matriz simétrica A ∈ Mn×n (R) no nula es definida posi-
tiva, definida negativa, semidefinida positiva, semidefinida negativa o indefinida si lo es,
respectivamente, la forma cuadrática Q asociada a la matriz A respecto de la base canónica
de Rn .
Ejemplos 10.
Clasifica las siguientes formas cuadráticas:
x x
x x
(1) Q = 7x2 +8y 2 , ∀ ∈ R2 , (2) Q y = −3x2 −y 2 −7z 2 , ∀ y ∈ R3 ,
y y
z z
x x
x x
(3) Q = 4x2 +y 2 +4xy, ∀ ∈ R2 , (4) Q y = 3x2 +y 2 −5z 2 , ∀ y ∈ R3 ,
y y
z z
x x
(5) Q = −x2 − y 2 − 2xy, ∀ ∈ R2 .
y y
206
(2) Es sencillo comprobar que −3x2 −y 2 −7z 2 = 0 si, y sólo
si x = y
=z =0. Por
x x 0
tanto, Q es definida negativa, pues Q y
< 0, ∀ y ∈ R − 0 . Del
3
z z 0
mismo modo la matriz de la forma cuadrática respecto de la base canónica de R :
3
−3 0 0
A= 0 −1 0 es una matriz definida negativa.
0 0 −7
x
(3) Observemos que 4x +y +4xy = (2x+y) . Por tanto, Q
2 2 2
= 4x2 +y 2 +4xy ≥ 0,
y
x 1
∀ ∈ R y existe, por ejemplo, el vector no nulo
2
∈ R2 de modo que
y −2
1
Q = 0. En consecuencia, Q es una forma cuadrática semidefinida positiva. La
−2
4 2
matriz de la forma cuadrática respecto de la base canónica de R : A = 2
es
2 1
una matriz semidefinida positiva.
1 0
(4) Q es indefinida, pues es posible encontrar dos vectores de R3 : 0 y 0 de
0 1
1 0
modo que Q 0 = 3 > 0 y Q 0 = −5 < 0. La matriz de la forma cuadrática
0 1
3 0 0
respecto de la base canónica de R3 : A = 0 1 0 es una matriz indefinida.
0 0 −5
x x
(5) Como Q 2 2
= −x − y − 2xy = −(x + y) ≤ 0, ∀ 2
∈ R2 y existe, por
y y
1 1
ejemplo, el vector no nulo ∈ R tal que Q
2
= 0, podemos afirmar que
−1 −1
Q es una forma cuadrática semidefinida negativa.
Así lamatriz de la forma cuadrática
−1 −1
respecto de la base canónica de R2 : A = es una matriz semidefinida
−1 −1
negativa.
En el ejemplo anterior las formas cuadráticas (1), (2) y (4) han sido fáciles de clasificar,
ya que aparecían como suma de cuadrados. Las formas cuadráticas (3) y (5) han podido
ser interpretadas como desarrollos de un binomio al cuadrado y, por tanto, ha sido sencillo
determinar su naturaleza. Sin embargo, abordar el problema de la clasificación de una forma
cuadrática en general, puede ser complicado a partir de la definición. Ahora bien, dado
que una matriz real simétrica es diagonalizable respecto de una base ortonormal de vectores
propios asociados a valores propios reales, el signo de tales valores propios jugará un papel
determinante en la clasificación.
207
Teorema 11. (Caracterización de matrices definidas mediante los valores propios)
Sea A ∈ Mn×n (R) simétrica no nula.
1. A es definida positiva ⇐⇒ todos los valores propios son positivos.
Ejemplo 12.
Las matrices simétricas reales definidas también pueden caracterizarse por el signo del
determinante de ciertas submatrices principales (ver Tema 1).
Teorema 13. (Caracterización de matrices definidas mediante determinantes de
submatrices principales)
Sea A ∈ Mn×n (R) simétrica no nula.
1. A es definida positiva ⇐⇒ det(A[k] ) > 0, ∀k ∈ {1, . . . , n}.
208
Ejemplo 14.
Con esta información es suficiente para concluir que C es una matriz indefinida, pues
tiene una submatriz principal de tamaño par con determinante negativo o dos de
tamaño impar cuyo determinante posee diferente signo.
209
det(A) = det(A[n] ) > 0, y que A admite factorización LDU, ya que det(A[k] ) > 0, ∀k ∈
{1, . . . , n − 1}. Debido al Teorema 72 del Tema 1 esta factorización es única y L = U T .
Además, se puede comprobar que los pivotes del proceso de escalonamiento π1 , π2 , . . . , πn
de la matriz A son positivos. Observemos que:
A = LDU = L diag(π1 , . . . , πn )LT =
√ √ √ √
= L (diag( π1 , . . . , πn ) diag( π1 , . . . , πn )) LT =
√ √ √ √
= (L diag( π1 , . . . , πn )) diag( π1 , . . . , πn )T LT =
√ √ √ √
= (L diag( π1 , . . . , πn )) (L diag( π1 , . . . , πn ))T =
= ∆∆T .
√ √
Notemos que ∆ = L diag( π1 , . . . , πn ) es una matriz triangular inferior con entradas diago-
nales positivas. Por tanto, hemos factorizado la matriz A como el producto de una matriz
triangular inferior con entradas diagonales positivas por su traspuesta: A = ∆∆T . Esta
factorización es conocida como factorización de Cholevski.
2 −1 1
Ejemplo 15. Estudia si la matriz A = −1 1 0 es definida positiva y, en caso
1 0 3
afirmativo, calcula la factorización de Cholevski de A.
Veamos si A es definida positiva:
[1]
[2] 2 −1
det(A ) = det 2 = 2 > 0, det(A ) = det = 1 > 0, det(A[3] ) = det(A) = 2 > 0.
−1 1
210
√ √ √ √
√2 √0 0 2 −√ 2/2 √2/2
= −√ 2/2 √2/2 √0 0 2/2 √2/2 = ∆∆T .
2/2 2/2 2 0 0 2
Por tanto, la factorización de Cholevski es:
√ √ √ √
√ 2 √ 0 0 2 −
√ 2/2 √ 2/2
A = ∆∆T = −√ 2/2 √2/2 √0 0 2/2 √2/2 .
2/2 2/2 2 0 0 2
Presentamos a continuación las expresiones más sencillas que una superficie cuádrica S de Rn
puede tener respecto de un sistema de referencia (O, B).
r
X
αi x2i + e = 0 (I)
i=1
211
(II) Si la expresión de una superficie cuádrica S de Rn respecto de un sistema de referencia (O, B)
es
r
X
αi x2i − M xr+1 = 0 con M > 0 (II)
i=1
x2 y 2
• − 2 =1 hipérbola.
a2 b
x2 y 2
• + 2 =1 elipse.
a2 b
x2 y 2
• − 2 =0 par de rectas que se cortan.
a2 b
• x2 = a2 y parábola.
212
Superficies cuádricas en R3
x2 y 2 z 2 x2 y 2 z 2 x2 y 2 z 2
− − 2 + 2 =1 + 2 − 2 =1 + 2 + 2 =1
a2 b c a2 b c a2 b c
hiperboloide de dos hojas. hiperboloide de una hoja. elipsoide.
x2 y 2 z 2 x2 y 2 x2 y 2
+ 2 − 2 =0 − 2 =1 + 2 =1
a2 b c a2 b a2 b
cono. cilindro hiperbólico. cilindro elíptico.
x2 = a2 y x2 y 2 x2 y 2
− + 2 =z + 2 =z
a2 b a2 b
cilindro parabólico. paraboloide hiperbólico. paraboloide elíptico.
a2 z 2 − b2 y 2 = 0 z 2 − a2 = 0 z2 = 0
planos que se cortan. planos paralelos. plano doble.
213
Método práctico para la reducción y clasificación de superficies cuádricas en Rn
Consideremos el espacio vectorial Rn dotado con el producto escalar estándar.
Si la expresión de la superficie cuádrica S = {x ∈ Rn : Q(x) + L(x) + c = 0} respecto de un
sistema de referencia (O, B), formado por el origen O y la base canónica B de Rn (base ortonormal),
no coincide con las expresiones dadas en (I) o en (II), entonces nuestro objetivo será encontrar un
sistema de referencia (Õ, B̃), respecto del cual la superficie cuádrica adquiera una expresión del tipo
(I) o del tipo (II) que nos permita obtener su clasificación. Para conseguir tal fin seguiremos los
siguientes pasos:
respecto del sistema de referencia (O, B), siendo O el origen y B = {e1 , . . . , en } la base
canónica de Rn :
X T AX + bT X + c = 0,
donde X = [x]B . Para simplificar la forma cuadrática Q que aparece en S, aplicamos el
Teorema 6 que nos garantiza la existencia de una transformación ortogonal X = P Y , siendo
P = IdAB con A base ortonormal de Rn formada por vectores propios de A, B base canónica
de Rn (base ortonormal) e Y = [x]A , mediante la cual la forma cuadrática Q aparece como
suma de variables al cuadrado, permitiendo de este modo eliminar los términos cruzados. Geo-
métricamente esta transformación se corresponde con una rotación de los ejes coordenados:
X=P Y
X T AX + bT X + c = 0 =⇒ Y T (P T AP )Y + bT P Y + c = 0.
Si α1 , α2 , . . . , αr son los valores propios no nulos de A, se puede suponer sin pérdida de genera-
lidad que α1 ≥ α2 ≥ . . . ≥ αr , entonces P T AP = D = diag(α 1 , . . . , αr , 0, . . . , 0). Realizamos
el producto matricial bT P = dT = d1 d2 . . . dn . Así la expresión de la superficie
cuádrica respecto del sistema de referencia (O, A) queda en los siguientes términos:
r
X n
X
T T
Y DY + d Y + c = 0 =⇒ αi yi2 + di yi + c = 0.
i=1 i=1
di di d2i d2i di 2 d2
αi yi2 2
+ di yi = αi yi + 2 2
yi = αi yi + 2 yi + 2 − 2 = αi yi + − i ,
2αi 2αi 4αi 4αi 2αi 4αi
1 ≤ i ≤ r.
r n r n r
!
X X X di 2 X X d2i
αi yi2 + di yi + c = αi yi + + di yi + c− = 0.
2αi 4αi
i=1 i=1 i=1 i=r+1 i=1
214
Si llamamos
d1
z1 = y1 +
2α1
.. .. ..
. . .
dr
zr = yr +
2αr
zr+1 = yr+1
.. .. ..
. . .
zn = yn
r
X n
X r
X d2i
αi zi2 + di zi + e = 0, siendo e = c − .
4αi
i=1 i=r+1 i=1
w1 = z 1
.. .. ..
. . .
wr = z r
n
X w1 z1
1
−→ ... = P1 ..
wr+1 = − di zi
M .
i=r+1
wn zn
wr+2 = cr+11 z1 + . . . + cr+1n zn
.. .. ..
. . .
wn = cn1 z1 + . . . + cnn zn
215
donde M y el resto de entradas de la matriz P1 se eligen de modo que esta matriz sea
n
ortogonal. En particular, como las filas de P1 entendidas
q como vectores de R deben formar
una base ortonormal de Rn , la constante M es: M = d2r+1 + . . . + d2n . Esta transformación
convierte la base ortonormal A en una base ortonormal C y después de aplicarla obtenemos
que la expresión de la superficie cuádrica S respecto del sistema de referencia (O1 , C) es:
r
X
αi wi2 − M wr+1 + e = 0 con M > 0.
i=1
Geométricamente esta transformación se corresponde con una rotación de los ejes coor-
denados.
En este punto podemos distinguir dos situaciones:
t 1 = w1
.. .. ..
. . .
tr = wr
tr+1 = wr+1 − e/M
tr+2 = wr+2
.. .. ..
. . .
t n = wn
Ejemplo 18. Clasifica la cónica que respecto del sistema de referencia (O, B), siendo O el origen
y B la base canónica de R2 tiene la siguiente expresión: x2 + 4xy + y 2 + 3x + y − 1 = 0.
216
La expresión matricial de la cónica respecto del sistema de referencia (O, B) es
1 2 x x
x y + 3 1 − 1 = 0.
2 1 y y
T T x
De forma abreviada, escribimos X AX + b X − 1 = 0 donde X = [x]B = con x ∈ R2 ,
y
1 2
A= matriz real simétrica y bT = 3 1 .
2 1
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R2 formada
por vectores propios de A, B base canónica de R2 (base ortonormal) e Y =
0
x
[x]A = , mediante la cual la forma cuadrática aparecerá como suma de variables al cuadrado.
y0
Comenzamos calculando la base A.
X T AX + bT X − 1 = (P Y )T A(P Y ) + bT (P Y ) − 1 = Y T (P T AP )Y + (bT P )Y − 1 = 0
217
y obtenemos la expresión de la cónica en el nuevo sistema de referencia (O, A):
0
T T 0 0
3 0 x √ √ x0
Y DY + b P Y − 1 = 0 −→ x y + 2 2 − 2 −1=0
0 −1 y0 y0
√ √
3(x0 )2 − (y 0 )2 + 2 2x0 − 2y 0 − 1 = 0.
Geométricamente, lo que hemos hecho ha sido girar los ejes de coordenados un ángulo de π/4
en sentido contrario a la agujas del reloj, ya que
√ √
1/√2 −1/√2 cos(π/4) − sin(π/4)
P = IdAB = =
1/ 2 1/ 2 sin(π/4) cos(π/4)
(esta matriz es llamada matriz de giro). Así los nuevos ejes coordenados son: x + y = 0, x − y = 0.
218
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del sistema
de referencia (O1 , A) queda de la siguiente forma:
7
3(x00 )2 − (y 00 )2 = .
6
Se trata de una superficie cuádrica centrada no degenerada propia, llamada hipérbola.
Geométricamente, en este paso hemos realizado una traslación que nos ha permitido establecer
la forma estándar de la cónica. Se trata de una hipérbola cuyo centro es (1/6, −5/6) y los ejes de
la hipérbola son x + y = −2/3 y x − y = 1.
Ejemplos 19. Clasifica las siguientes superficies cuádricas de R3 que respecto del sistema de
referencia (O, B), siendo O el origen y B la base canónica de R3 , tienen las siguientes expresiones:
13
(1) 3x2 + 6y 2 + 3z 2 − 4xy − 2xz + 4yz + x − z − = 0.
16
La expresión matricial de la superficie cuádrica respecto del sistema de referencia (O, B) es
3 −2 −1 x x
x y z −2 6 2 y + 1 0 −1 y − 13 = 0.
16
−1 2 3 z z
x
13
De forma abreviada, escribimos X T AX + bT X − = 0 donde X = [x]B = y con
16
z
3 −2 −1
x ∈ R3 , A = −2 6 2 y bT = 1 0 −1 .
−1 2 3
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R3 formada 3
0 por vectores propios de A, B base canónica de R (base ortonormal) e
x
Y = [x]A = y 0 , mediante la cual la forma cuadrática aparece como suma de variables
z0
al cuadrado. Comenzamos obteniendo A.
219
dA (λ) = (2 − λ)2 (8 − λ), luego σ(A) = {8, 2, 2}.
Los subespacios propios asociados a 8 y 2 son:
1 1 1
E(8) = L −2 → A1 = √ −2 es una base ortonormal de E(8).
6
−1 −1
1 1 1 1
1
1
E(2) = L
0 , 1 → A2 = √ 0 , √ 1 es una
2 3
1 −1 1 −1
base ortonormal de E(2).
Por tanto,
1 1 1 1
1 1
A = A1 ∪ A2 = √ −2 , √ 0 , √ 1
6 2 3
−1 1 −1
3
es una base ortonormal
√ de R√ formada
√ por vectores propios de A. Así A = P DP T con
1/√6 1/ 2 1/√3 8 0 0
P = IdAB = −2/√6 0√ 1/√3 matriz ortogonal y D = 0 2 0 matriz
−1/ 6 1/ 2 −1/ 3 0 0 2
diagonal.
Realizamos la transformación ortogonal X = P Y , esto es, [x]B = IdAB [x]A :
13 13 13
X T AX + bT X − = (P Y )T A(P Y ) + bT (P Y ) − = Y T (P T AP )Y + (bT P )Y − =0
16 16 16
y obtenemos la expresión de la superficie cuádrica en el nuevo sistema de referencia (O, A):
13
Y T DY + bT P Y − = 0.
16
0
8 0 0 x x0
2 2
0 0 0
x y z 0 2 0 y 0
+ √ 0 √ y 0 − 13 = 0
6 3 16
0 0 2 z0 z0
Así, la expresión de la superficie cuádrica es:
2 2 13
8(x0 )2 + 2(y 0 )2 + 2(z 0 )2 + √ x0 + √ z 0 − = 0.
6 3 16
Paso 2. Eliminar algunos términos lineales.
Las variables x0 y z 0 están repetidas en la forma cuadrática y en la forma lineal. Realizamos
las siguientes completaciones de cuadrados:
2
0 2 2 0 0 2 1 0 0 2 1 0 1 1 0 1
8(x ) + √ x = 8 (x ) + 2 √ x = 8 (x ) + 2 √ x + − =8 x + √ −
6 8 6 8 6 384 384 8 6
1
48 2
0 2 2 0 0 2 1 0 0 2 1 0 1 1 0 1 1
2(z ) + √ z = 2 (z ) + 2 √ z = 2 (z ) + 2 √ z + − =2 z + √ −
3 2 3 2 3 12 12 2 3 6
Así tenemos
2 2
2 2 13 1 1 1 1 13
0 = 8(x0 )2 +2(y 0 )2 +2(z 0 )2 + √ x0 + √ z 0 − = 8 x0 + √ − +2 z 0 + √ − − .
6 3 16 8 6 48 2 3 6 16
220
Si llamamos
1
x00 = x0 + √
8 6
y 00 = y 0
1
z 00 = z 0 + √
2 3
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del
sistema de referencia (O1 , A) queda de la siguiente forma:
√ √ 13 √
(2) 4x2 + y 2 + z 2 − 4xy − 4xz + 2yz − 30x + 30y + =0 30z +
3
La expresión matricial de la superficie cuádrica respecto del sistema de referencia (O, B) es
4 −2 −2 x √ √ √ x
−2 13
x y z 1 1 y + − 30 30 30 y + = 0.
3
−2 1 1 z z
x
13
De forma abreviada, X T AX + bT X + = 0, donde X = [x]B = y con x ∈ R3 ,
3
z
4 −2 −2 √ √ √
A = −2 1 1 y bT = − 30 30 30 .
−2 1 1
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R3 formada 3
0 por vectores propios de A, B base canónica de R (base ortonormal) e
x
Y = [x]A = y 0 , mediante la cual la forma cuadrática aparece como suma de variables
z0
al cuadrado. Comenzamos obteniendo A.
dA (λ) = (6 − λ)λ2 , luego σ(A) = {6, 0, 0}.
Los subespacios propiosasociados a 6y 0 son:
−2 1 −2
E(6) = L 1 → A1 = √ 1 es una base ortonormal de E(6)
6
1 1
1 2 1 1
1
2
E(0) = L 0 , 5 → A2 = √ 0 , √ 5 es una
5 30
2 −1 2 −1
base ortonormal de E(0).
221
Por tanto,
1 −2 1 2
1 1
A = A1 ∪ A 2 = √ 1 , √ 0 , √ 5
6 5 30
1 2 −1
√ √ 13
6(x0 )2 + 4 5x0 + 6y 0 + 2z 0 + = 0.
3
Paso 2. Eliminar algunos términos lineales.
La variable x0 está repetida en la forma cuadrática y en la forma lineal. Realizamos la siguiente
completación de cuadrados:
√ ! √ ! √ !2
√ 5 5 5 5 5 10
6(x0 )2 + 4 5x0 = 6 (x0 )2 + 2 x0 = 6 (x0 )2 + 2 x0 + − = 6 x0 + −
3 3 9 9 3 3
Así tenemos
√ !2
0 2
√ 0
√ 0 013 0 5 10 √ 0 13
0 = 6(x ) + 4 5x + 6y + 2z + =6 x + − + 6y + 2z 0 + .
3 3 3 3
Si llamamos √
00 0 5
x = x +
3
y 00 = y 0
z 00 = z 0
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del
sistema de referencia (O1 , A) queda de la siguiente forma:
√ 10 13 √
6(x00 )2 + 6y 00 + 2z 00 − + = 0 −→ 6(x00 )2 + 6y 00 + 2z 00 + 1 = 0.
3 3
222
Paso 3. Simplificar forma lineal.
En
√ este caso necesitamos realizar una transformación ortogonal que nos permita escribir
000
6y 00 + 2z 00 = −M y con M > 0, esto lo conseguimos con:
√ !2 √
6 2 2 √ 2 6
1= − + − −→ M = 10, a = 0, b = √ y c = −√ .
M M 10 10
1 0
√ √ 0
√
Con esta elección la matriz 0 − 6/
√ 10 −2/
√ √10
es una matriz ortogonal.
0 2/ 10 − 6/ 10
Esta transformación ortogonal transforma la base ortonormal A en la base ortonormal C. La
expresión de la superficie cuádrica respecto del sistema de referencia (O1 , C) es
√
6(x000 )2 − 10y 000 + 1 = 0.
√
6(x̃)2 = 10ỹ.
223
PROBLEMAS
(P.1) Encuentra la matriz de las siguientes formas cuadráticas en R2 , R3 y R4 respecto de las bases
canónicas correspondientes:
2. 8x21 − 5x22 .
(P.2) Calcula la forma cuadrática Q(x) = xT Ax respecto de la base canónica en los siguientes casos:
x1 2 3
1. x = yA= .
x2 3 1
x1 4 3 0
2. x = x2 y A = 3 2 1 .
x3 0 1 1
(P.3) Realiza una transformación ortogonal para que las siguientes formas cuadráticas estén expresadas
como suma de cuadrados:
x2 + ay 2 + az 2 + 2yz.
224
(P.6) Sea A ∈ Mn×n (R) simétrica. Demuestra que A es definida positiva si, y sólo si, existe una matriz
∆ triangular inferior con entradas diagonales positivas tal que A = ∆∆T (factorización de Cholevski).
(P.7) Obtén la factorización de Cholevski de las matrices definidas positivas de (P.4).
1 1 2 0
1 2 4 0 0 2 2
(P.8) Considera A =
2 4 10 0 y B =
2 0 2 matrices reales simétricas. Determina
2 2 0
0 0 0 2
si A y B admiten factorización de Cholevski. En caso afirmativo calcúlala.
(P.9) Estudia si las siguientes matrices admiten o no factorización de Cholevski y, en caso afirmativo,
calcula dicha factorización.
0 2 7 1 2 0
1. A = 2 4 3 2. B = 2 6 1 .
7 3 1 0 1 3
1 1 2
(P.10) Justifica si la matriz A = 1 5 −2 ∈ M3×3 (R) es definida positiva y, en caso afirmativo,
2 −2 17
calcula su factorización de Cholevski.
(P.11) Justifica si las siguientes matrices son definidas positivas. En caso afirmativo, calcula la factori-
zación de Cholevski.
5 −2 0 2 −2 4
1. A = −2 1 0 2. B = −2 3 −4 .
0 0 3 4 −4 12
(P.12) Considera B ∈ Mn×n (R). Si B es no singular, prueba que B T B es definida positiva.
(P.13) Sea A ∈ Mn×n (R) simétrica. Si la forma cuadrática X T AX es definida positiva, prueba que la
forma cuadrática X T A−1 X es definida positiva.
(P.14) Decide si las siguientes sentencias son verdaderas o falsas. Justifica tu respuesta. En todas ellas
A es una matriz simétrica real de tamaño n × n.
1. Si A tiene todas sus entradas positivas, entonces A es una matriz definida positiva.
(P.15) Reduce y clasifica las siguientes superficies cuádricas de R3 , especificando las transformaciones
que realices:
3
1. x2 + y 2 + z 2 + 2xy + 2xz + 2yz − 3x − 3y + 3z − = 0.
4
2. 2x2 + 5y 2 + 2z 2 + 6xy − 2yz + 3x − 2y − z + 14 = 0.
225
5. x2 + 2xy + 2xz + 2y − 2z − 2 = 0.
CUESTIONES
(C1) La expresión matricial respecto del sistema de referencia (O, B), siendo O el origen de R3 y B la
base canónica de R3 ,
3 0 0 x x
x y z 0 2 1 y + 4 2 −5 y + 7 = 0
0 1 2 z z
corresponde a la superficie cuádrica:
1
(a) 3x2 + 2y 2 + 2z 2 + yz + 4x + 2y − 5z + 7 = 0.
2
(b) 3x2 + 2y 2 + 2z 2 + yz + 4x + 2y − 5z + 7 = 0.
(c) 3x2 + 2y 2 + 2z 2 + 2yz + 4x + 2y − 5z + 7 = 0.
226
(C2) Una de las siguientes expresiones representa matricialmente, respecto del sistema de referencia
3 3 3 2
2 2
√ R y B la base canónica de R , a la superficie cuádrica de R : 5x + 4xy −
(O, B) siendo O el origen de
y − 8xz − 5z + 2yz − 7 2x − 3y + 2z + 4 = 0:
5 2 −4 x √ x
(a) x y z −2 −1 1 y + −7 2 −3 2 y + 4 = 0.
4 −1 −5 z z
5 2 −4 x √ x
(b) x y z 2 −1 1 y + −7 2 −3 2 y + 4 = 0.
−4 1 −5 z z
5 2 1 x √ x
(c) x y z 2 −1 −4 y + −7 2 −3 2 y + 4 = 0.
1 −4 −5 z z
(C3) Considera la forma cuadrática F (x, y) = x2 + 4xy + y 2 . Una de las siguientes afirmaciones es
verdadera:
(a) La superficie cuádrica F (x, y) = 1 es una elipse.
(b) La superficie cuádrica F (x, y) = 1 es una hipérbola.
(c) La superficie cuádrica F (x, y) = 1 es una parábola.
(C8) Sean A y B ∈ Mn×n (R) simétricas. Una de las siguientes afirmaciones es verdadera:
(a) Si A es una matriz definida positiva y A es similar a B, entonces B es definida positiva.
(b) Si A es una matriz definida positiva y ρ(A) = ρ(B), entonces B es definida positiva.
(c) Si A es una matriz definida positiva y B = f (A) con f (λ) ∈ R[λ], entonces B = f (A) es una
matriz definida positiva.
(C9) Sea A una matriz real simétrica n × n. Una de las siguientes afirmaciones es verdadera:
(a) Si A es definida negativa, entonces det(A[k] ) < 0 ∀k ∈ {1, . . . , n}.
(b) Si A es definida negativa, entonces A3 es definida negativa.
(c) Si A es definida negativa, entonces todas las entradas de A son negativas.
227
(C10) Sea A una matriz real simétrica n × n. Una de las siguientes afirmaciones es verdadera:
(a) Si A es definida negativa, entonces Ak es definida negativa ∀k ∈ N.
(b) Si A es indefinida, entonces Ak es indefinida ∀k ∈ N.
(c) Si A es semidefinida positiva, entonces Ak es semidefinida positiva ∀k ∈ N.
(C11) Sea A una matriz real simétrica n × n con valores propios α1 , . . . , αr 6= 0 y αr+1 = . . . = αn = 0.
Una de las siguientes afirmaciones es FALSA:
(a) B ∈ Mn×n (R) simétrica representa la misma forma cuadrática que A respecto de bases ortonormales
distintas si, y sólo si, existe una matriz ortogonal P ∈ Mn×n (R) tal que A = P BP T .
(b) existe una transformación ortogonal que transforma X T AX en α1 y12 + . . . + αr yr2 .
(c) ρ(A) > r.
(C14) Sea A una matriz real simétrica 3 × 3 tal que σ(A) = {1, −2, 4}. Una de las siguientes matrices
admite factorización de Cholevski:
(a) B = A − A2 , (b) C = A−1 , (c) D = A2 + 2I3×3 .
(C16) Sea A ∈ M3×3 (R) una matriz simétrica y P ∈ M3×3 (R) una matriz ortogonal. Una de las
siguientes afirmaciones es verdadera:
2 0 0
(a) Si A = P 0 8 0 P T , entonces X T AX = 1 es un elipsoide.
0 0 0
2 0 0
(b) Si A = P 0 8 0 P T , entonces X T AX = 1 es un hiperboloide de una hoja.
0 0 −1
2 0 0
(c) Si A = P 0 −8 0 P T , entonces X T AX = 1 es un cilindro parabólico.
0 0 0
(C17) Sea A ∈ Mn×n (R) una matriz simétrica. Entonces A es una matriz definida positiva si, y sólo si
(a) existe una matriz triangular inferior ∆ con entradas diagonales no negativas tal que A = ∆∆T .
(b) existe una matriz triangular inferior ∆ con entradas diagonales positivas tal que A = ∆∆T .
(c) existe una matriz diagonal ∆ con entradas diagonales positivas tal que A = ∆∆T .
228
Tema 7: Forma Canónica de Jordan de una Matriz Cuadrada
229
7.1. VECTORES PROPIOS GENERALIZADOS. CADENAS DE JORDAN.
Ya hemos visto que no todas las matrices son diagonalizables. Incluyendo estos casos no diagona-
lizables, dada A ∈ Mn×n (C), vamos a tratar de encontrar una matriz J similar a A que sea “casi”
diagonal. Veremos que esto siempre es posible y a la matriz J la llamaremos forma canónica de
Jordan de A. Esta matriz J será una matriz diagonal en bloques.
Otro problema será encontrar una base para poder construir la matriz no singular P y que se veri-
fique que A = PJP−1 . Esto nos llevará a la búsqueda de las llamadas cadenas de Jordan.
Es más fácil tratar este tema sobre matrices complejas, así que, a la hora de buscar la forma ca-
nónica de Jordan de una matriz, consideraremos todas las matrices complejas, aunque todas sus
entradas sean números reales.
!
3 1
Consideremos, por ejemplo, la matriz A = ∈ M2×2 (C), cuyo polinomio característico es
−1 1
dA (λ) = (λ − 2)2 . Por tanto, σ(A) = {2} y MA(2) = 2.
Si calculamos la multiplicidad geométrica de 2, se tiene
!
1 1
MG(2) = 2 − ρ(A − 2I2×2 ) = 2 − ρ = 2 − 1 = 1 , MA(2)
−1 −1
Como queremos que A = PJP−1 , es decir, que A y J sean similares, los valores
! propios de A y J
2 1
deben ser iguales, de donde obtenemos que a = 2 y entonces J = .
0 2
Veamos qué deben cumplir las columnas de P. Si P contiene en sus columnas los vectores v1 y v2 ,
tenemos que
2 1 ! (
Av1 = 2v1
(
(A − 2I2×2 )v1 = 0
AP = PJ =⇒ A v1 v2 = v1 v2 =⇒ =⇒
0 2 Av2 = 2v2 + v1 (A − 2I2×2 )v2 = v1
Por tanto, debemos elegir un vector v2 tal que v2 ∈ N((A − 2I2×2 )2 ) y v2 < N(A − 2I2×2 ). A un vector
de este tipo lo llamaremos vector propio generalizado de orden 2.
230
A continuación introducimos la definición de vector propio generalizado de orden k.
Definición 1. Sean A ∈ Mn×n (C) , b un vector no nulo de Cn y α ∈ C un escalar. Diremos que
b es un vector propio generalizado de orden k de A asociado a α si b ∈ N((A − αIn×n )k ), pero
b < N((A − αIn×n )k−1 ), es decir,
0 1 1 1 0
(A + I3×3 )3 b3 = 0 0 −1 0 = 0 .
0 0 0 0 0
Por tanto, b3 es un vector propio generalizado de orden 3 de A asociado a −1. Observemos que b1
es un vector propio de A asociado a −1.
Veamos cómo a partir de un vector propio generalizado de orden k podemos generar una cadena
de vectores.
231
Definición 4. Sea bk un vector propio generalizado de orden k de A ∈ Mn×n (C) asociado a α. A
partir de bk se definen los vectores {bk−1 , bk−2 , . . . , b1 } de la siguiente forma:
(A − αIn×n )bk = bk−1
Ab1 = αb1
(A − αIn×n )bk−1 = bk−2
Ab2 = αb2 + b1
..
. ⇐⇒ Ab3 = αb3 + b2
..
(A − αIn×n )b2 = b1
.
(A − αIn×n )b1 = 0 Abk = αbk + bk−1
A la cadena de vectores {bk , bk−1 , . . . , b2 , b1 } así definida se le llama cadena de Jordan de longitud
k de A asociada a α, de forma abreviada CDJ(k).
Al vector b1 se le llama vector terminal de la cadena de Jordan.
Nota 5. (1) El vector terminal de una cadena de Jordan de A asociada a α es siempre un vector
propio de A asociado a α. Sin embargo, no todo vector propio de A asociado a α es vector terminal
de cadenas de Jordan de longitud mayor que 1, como se verá en el Ejemplo 23.
(2) En una cadena de Jordan {bk , bk−1 , . . . , b2 , b1 } de A asociada a α, cada vector bi es un vector
propio generalizado de orden i de A asociado a α, para i = 1, 2, . . . , k.
Ejemplo
6. Repasando los cálculos realizados en el Ejemplo 3 para comprobar
que el vector b3 =
0 −1 1 1
2 es un vector propio generalizado de orden 3 de la matriz A = 0 −1 −1 asociado al
−1 0 0 −1
valor propio −1, obtenemos que
1 1
b2 = (A + I)b3 = 1 , b1 = (A + I)b2 = (A + I) b3 = 0 , (A + I)b1 = (A + I)3 b3 = 0.
2
0 0
232
La unión de cadenas de Jordan en orden inverso nos va a proporcionar la base que necesitamos
para construir la matriz P no singular, tal que A = PJP−1 . Pero para saber qué estructura tiene
la matriz J y cuántas cadenas de Jordan y de qué longitud son necesarias para formar la base, es
conveniente conocer primero el polinomio mínimo de la matriz A.
Veamos primero qué entendemos por polinomio anulador de una matriz cuadrada.
Definición 9. Sea A ∈ Mn×n (K). Diremos que un polinomio f (λ) ∈ K[λ] no nulo es un polinomio
anulador de A si f (A) = On×n .
!
1 0
Ejemplo 10. Dada la matriz A = , comprueba que el polinomio f (λ) = λ3 + 2λ2 − λ − 2
1 −1
es un polinomio anulador de A.
! ! ! ! !
3 2 1 0 1 0 1 0 1 0 0 0
f (A) = A + 2A − A − 2I2×2 = +2 − −2 =
1 −1 0 1 1 −1 0 1 0 0
Dada una matriz A n × n con entradas en K, veamos que siempre existe al menos un polinomio
anulador de A.
Sabemos que Mn×n (K) es un espacio vectorial de dimensión n2 , por lo que n2 + 1 matrices n × n
formarán un conjunto linealmente dependiente.
2
Así, {A0 = In×n , A, A2 , . . . , An } es un conjunto LD. Por tanto, existen a0 , a1 , a2 , . . . , an2 ∈ K no
todos nulos tales que
2
a0 In×n + a1 A + a2 A2 + · · · + an2 An = On×n
2
de donde se deduce que el polinomio f (λ) = a0 + a1 λ + a2 λ2 + · · · + an2 λn es un polinomio anulador
de A.
El siguiente teorema nos muestra otro polinomio anulador de A, pero en este caso de grado n.
Teorema 11. (Teorema de Cayley-Hamilton) El polinomio característico de A ∈ Mn×n (K) es un
polinomio anulador de A, es decir, dA (A) = On×n .
Existen entonces distintos polinomios anuladores de una matriz A. De hecho, si f (λ) es un
polinomio anulador de A y q(λ) es otro polinomio cualquiera es evidente que ( f · q)(λ) es también
un polinomio anulador de A. Vamos entonces a buscar entre los polinomios anuladores de A los
que sean de menor grado y, entre éstos, aquel polinomio que sea mónico (con coeficiente director
igual a 1).
Definición 12. Sea A ∈ Mn×n (K). Llamaremos polinomio mínimo de A al único polinomio mónico
de grado mínimo que anula la matriz A. Lo denotaremos mediante mA (λ).
Veamos qué propiedades verifica el polinomio mínimo de una matriz.
233
Proposición 13. (Propiedades del polinomio mínimo) Si A ∈ Mn×n (K), entonces:
(1) El polinomio mínimo de A divide a cualquier polinomio anulador de A.
En particular, mA (λ) divide a dA (λ).
(2.a) Si A ∈ Mn×n (C), entonces los factores lineales distintos de mA (λ) y de dA (λ) coinciden.
(2.b) Si A ∈ Mn×n (R), entonces los factores irreducibles distintos de mA (λ) y de dA (λ) coinciden.
Teniendo en cuenta estas propiedades, parece deducirse que el polinomio mínimo será el pro-
ducto de los factores lineales (o irreducibles) distintos del polinomio característico. El siguiente
ejemplo muestra que esto no siempre es cierto.
2 0 0
Ejemplo 14. Sea la matriz triangular superior A = 1 2 0 , cuyo polinomio característico es
0 0 5
dA (λ) = (2 − λ)2 (5 − λ). Comprueba que el polinomio f (λ) = (λ − 2)(λ − 5) no es el polinomio
mínimo de A porque no es anulador de A.
0 0 0 −3 0 0 0 0 0
f (A) = (A − 2I3×3 )(A − 5I3×3 ) = 1 0 0 1 −3 0 = −3 0 0 , O3×3
0 0 3 0 0 0 0 0 0
2. Construir todos los polinomios con las siguientes propiedades: mónico, divisor de dA (λ) y
que contenga todos los factores irreducibles en K[λ] distintos de dA (λ).
3. Encontrar entre ellos el polinomio de menor grado que anula a la matriz. Ese polinomio será
el polinomio mínimo de A: mA (λ).
2 −2 0 −1
2 0 0 0 2 0 1
Ejemplo 15. Calcula el polinomio mínimo de las matrices A = 1 2 0 y B = .
0 0 2 0
0 0 5
0 0 0 2
Como la matriz A es triangular inferior, dA (λ) = (2 − λ)2 (5 − λ). Construímos los polinomios
mónicos, divisores de dA (λ) y que contienen todos los factores lineales distintos de dA (λ). Tenemos
entonces dos posibles polinomios:
234
Comprobamos cuál de los dos es el polinomio anulador de A de menor grado. En el Ejemplo 14
hemos comprobado que m1 (λ) = (λ − 2)(λ − 5) no es un polinomio anulador de A.
Por el Teorema de Cayley-Hamilton, el polinomio m2 (λ) = −dA (λ) es un polinomio anulador de A,
así que éste es el polinomio mínimo de A. Por tanto, mA (λ) = (λ − 2)2 (λ − 5).
En el caso de la matriz B, al ser una matriz triangular superior dB (λ) = (2 − λ)4 . Construímos los
polinomios mónicos, divisores de dB (λ) y que contienen todos los factores lineales distintos de
dB (λ). Tenemos entonces cuatro posibles polinomios:
Una vez obtenido el polinomio mínimo de la matriz, el siguiente teorema nos asegura la existencia
y unicidad de la forma canónica de Jordan para cualquier matriz cuadrada compleja. Además,
muestra la estructura de esta matriz.
Teorema 16. (Teorema de Jordan) Sea A ∈ Mn×n (C). Supongamos que
dA (λ) = (−1)n (λ − α1 )n1 (λ − α2 )n2 · · · (λ − αk )nk
mA (λ) = (λ − α1 )m1 (λ − α2 )m2 · · · (λ − αk )mk
son los polinomios característico y mínimo de A, respectivamente, y sea B la base canónica de Cn ,
entonces existe una base A de Cn tal que la matriz P = IdAB no singular verifica que P−1 AP = J
es una matriz en bloques diagonal, donde cada bloque diagonal Ji j es de la forma
αi 1 0 ··· 0 0
0 αi 1 ··· 0
0
.. .. .. .. ..
Ji j = . . . ··· . . bloque o caja de Jordan
0 0 0 ··· αi 1
0 0 0 ··· 0 αi
235
(ii) el número de bloques de Jordan asociados al valor propio αi coincide con MG(αi )
(iii) la suma de los tamaños de los bloques asociados a αi coincide con MA(αi )
(iv) el número de bloques de cada posible tamaño viene determinado únicamente por la matriz A.
(3) La matriz P no singular, tal que A = PJP−1 , contiene en sus columnas las coordenadas de
los vectores de la base A con respecto a la base B.
236
Luego los valores propios de A son 4 y −2, con MA(4) = 2 y MA(−2) = 1. Si calculamos sus
multiplicidades geométricas:
Luego, en este caso, no necesitamos calcular el polinomio mínimo de A para saber cómo es la
forma canónica de Jordan de A. Como ya sabemos que tenemos un bloque de Jordan asociado a
cada valor propio, entonces la forma canónica de Jordan de A es la matriz
−2 0 0
J = 0 4 1
0 0 4
237
T
Luego, para cada valor de z ∈ C, el vector b2 = 1 + z −z z es un vector propio generalizado
de orden 2 tal que {b2 , b1 } forman una cadena de Jordan de longitud 2 de A asociada a 4. Si
T
tomamos por ejemplo z = 0, entonces b2 = 1 0 0 .
La base A de C3 formada por cadenas de Jordan de A en orden inverso será A = {v1 , b1 , b2 }. Por
tanto,
−1 1 1
P = IdAB = 1 −1 0 es no singular y PJP−1 = A.
1 1 0
2 −2 0 −1
0 2 0 1
Ejemplo 22. Reduce a la forma canónica de Jordan la matriz A = ∈ M (C).
4×4
0 0 2 0
0 0 0 2
Claramente, dA (λ) = (2 − λ)4 , luego 2 es valor propio de A con MA(2) = 4. Si calculamos su
multiplicidad geométrica:
0 −2 0 −1
0 0 0 1
MG(2) = 4 − ρ(A − 2I4×4 ) = 4 − ρ = 4 − 2 = 2 −→ hay 2 bloques de Jordan
0 0 0 0 asociados a 2
0 0 0 0
La suma de los tamaños de los dos bloques de Jordan asociados a 2 debe coincidir con MA(2) = 4,
así que tenemos dos posibilidades: un bloque 3 × 3 y un bloque 1 × 1, o bien, dos bloques 2 × 2.
Para saber cuál de las dos posibilidades es la correcta debemos calcular el polinomio mínimo de
A. En el Ejemplo 15 hemos obtenido que el polinomio mínimo de A es mA (λ) = (λ − 2)3 . Esto
significa que debe haber al menos un bloque de Jordan 3 × 3 asociado a 2 y el resto de los bloques
de Jordan asociados a 2 son de tamaño menor o igual que 3. Por tanto, tenemos un bloque 3 × 3 y
un bloque 1 × 1 y la forma canónica de Jordan de A es la matriz
2 1 0 0
0 2 1 0
J =
0 0 2 0
0 0 0 2
Teniendo en cuenta la estructura de la matriz J, necesitamos una cadena de Jordan de longitud 3 y
una cadena de Jordan de longitud 1 asociadas a 2 para formar la base de C4 y construir la matriz P
no singular tal que A = PJP−1 . Comencemos calculando los vectores propios de A asociados a 2,
resolviendo el sistema homogéneo (A − 2I4×4 )x = 0.
0 −2 0 −1 x 0 (
0 0 0 1 y 0
= =⇒ y = 0
0 0 0 0 z 0 t=0
0 0 0 0 t 0
x
1 0
0
0 0
Por tanto, E(2) = : x, z ∈ C = L
v1 = , u1 =
.
z
0 1
0 0 0
238
Busquemos un vector v2 ∈ C4 tal que (A − 2I4×4 )v2 = v1 :
0 −2 0 −1 x 1
0 0 0 1 y 0 y = −1
= =⇒
2
0 0 0 0 z 0
t=0
0 0 0 0 t 0
T
Luego, v2 = x −1/2 z 0 es un vector propio generalizado de orden 2 tal que {v2 , v1 }
forman una CDJ(2) asociada a 2, para cada x, z ∈ C. Tomando, por ejemplo x = z = 0, tenemos
T
v2 = 0 −1/2 0 0 .
Busquemos un vector v3 ∈ C4 tal que (A − 2I4×4 )v3 = v2 :
0 −2 0 −1 x 0 1
0 0 0 1 y −1/2
y=
=⇒ 4
0 0 0 0 z = 0
1
t=−
0 0 0 0 t 0 2
T
Luego, v3 = x 1/4 z −1/2 es un vector propio generalizado de orden 3 tal que {v3 , v2 , v1 }
forman una CDJ(3) asociada a 2, para cada x, z ∈ C. Tomando, por ejemplo x = z = 0, v3 =
T
0 1/4 0 −1/2 y ya tenemos la cadena de Jordan de longitud 3 que necesitamos. La otra
cadena de Jordan de longitud 1 que necesitamos puede ser, por ejemplo, {u1 }.
Por tanto, la base A de C4 formada por cadenas de Jordan de A en orden inverso será A =
{v1 , v2 , v3 , u1 }. Así,
1 0 0 0
0 − 1 1
0
2 4
P = IdAB = es no singular y PJP−1 = A.
0 0 0 1
1
0 0 − 0
2
Recordemos que no todo vector propio de A es vector terminal de cadenas de Jordan de longitud
mayor que 1. El siguiente ejemplo pone de manifiesto este hecho y qué hacer en estos casos.
0 1 0 1
0 1 0 0
Ejemplo 23. Reduce a la forma canónica de Jordan la matriz A = ∈ M4×4 (C).
−1 1 1 1
−1 1 0 2
Calculamos el polinomio característico de A
−λ 1 0 1
0 1 − λ −λ 0 1
0 0 = (1 − λ) det −1 1 − λ
dA (λ) = det 1 =
−1 1 1 − λ 1 −1 0 2−λ
−1 1 0 2−λ
= (1 − λ)2 ((−λ)(2 − λ) + 1) = (1 − λ)4
239
luego σ(A) = {1}, MA(1) = 4. Si calculamos la multiplicidad geométrica de 1
−1 1 0 1
0 0 0 0
MG(1) = 4 − ρ(A − I4×4 ) = 4 − ρ = 4 − 1 = 3 , MA(4)
−1 1 0 1
−1 1 0 1
Como MG(1) = 3, ya sabemos que la forma canónica de Jordan de A debe tener 3 bloques de
Jordan asociados a 1. Además, la suma de los tamaños de estos 3 bloques debe coincidir con
MA(1) = 4. Por tanto, J tendrá un bloque 2 × 2 y dos bloques 1 × 1 asociados a 1, es decir,
1 1 0 0
0 1 0 0
J =
0 0 1 0
0 0 0 1
Por tanto, no existen cadenas de Jordan de longitud mayor que 1 cuyo vector terminal sea u1 .
Busquemos ahora una CDJ(2) cuyo vector terminal sea v1 , es decir, busquemos v2 ∈ C4 tal que
(A − I4×4 )v2 = v1 , entonces
−1 1 0 1 x 1
0 0 0 0 y 0
−1 1 0 1 z = 0 =⇒ Sistema Incompatible
−1 1 0 1 t 1
240
Tampoco existen cadenas de Jordan de longitud mayor que 1 cuyo vector terminal sea v1 . Y pode-
mos comprobar que esto mismo ocurre si buscamos una CDJ(2) cuyo vector terminal es w1 . Tene-
mos entonces que usar un vector propio genérico, en función de parámetros, y averiguar qué deben
T
cumplir los parámetros para que el sistema sea compatible. Si tomamos b1 = α + β α γ β ,
entonces
−1 1 0 1 x α + β
0 0 0 0 y α −x + y + t = α + β
= =⇒
0 = α
−1 1 0 1 z γ
−x + y + t = γ
−1 1 0 1 t β
Por tanto, para que el sistema sea compatible debemos elegir α = 0 y γ = β, lo que implica que
T T
b1 = β 0 β β , con β ∈ C − {0}. Si tomamos β = 1, entonces b1 = 1 0 1 1 y
resolvemos el sistema para buscar un vector b2 :
−1 1 0 1 x 1
0 0 0 0 y 0
−1 1 0 1 z = 1 =⇒ −x + y + t = 1 =⇒ x = y + t − 1
−1 1 0 1 t 1
T
de donde b2 = y + t − 1 y z t , con y, z, t ∈ C. Si elegimos y = z = t = 0, entonces
T
b2 = −1 0 0 0 y así, {b2 , b1 } es una CDJ(2) asociada a 1.
4
La base A de C formada por cadenas de Jordan de A en orden inverso será A = {b1 , b2 , u1 , v1 }.
Por tanto,
1 −1 1 1
0 0 1 0
P = IdAB = es no singular y PJP−1 = A
1 0 0 0
1 0 0 1
Otro tipo de problemas que nos podemos plantear es encontrar las posibles formas canónicas
de Jordan de una matriz que verifica ciertas condiciones.
Ejemplo 24. Halla las posibles formas canónicas de Jordan de una matriz A ∈ M5×5 (C) tal que
dA (λ) = (3 − λ)4 (1 − λ), en función del polinomio mínimo.
Recordemos que, por el Teorema de Jordan, si mi es la multiplicidad del valor propio αi como
cero del polinomio mínimo mA (λ), entonces existe al menos un bloque de Jordan asociado a αi de
tamaño mi y el resto de los bloques asociados a αi son de tamaño menor o igual que mi . Además,
el número de bloques de Jordan asociados al valor propio αi coincide con MG(αi ) y la suma de los
tamaños de los bloques asociados a αi coincide con MA(αi ).
Claramente, como 1 es un valor propio con MA(1) tendremos un único bloque 1 × 1 asociado a
1. Pero para el valor propio 3 se tienen distintas posibilidades. Teniendo en cuenta los posibles
polinomios mínimos, se tienen las siguientes posibles formas canónicas de Jordan de A:
241
• Si mA (λ) = (λ − 3)2 (λ − 1), entonces al menos hay un bloque 2 × 2 asociado a 3 y el resto de
los bloques asociados a 3 son de tamaño menor o igual que 2. Luego se tienen dos posibles
formas canónicas de Jordan de A:
3 1 0 0 0 3 1 0 0 0
0 3 0 0 0 0 3 0 0 0
J = 0 0 3 1 0 o bien, J = 0 0 3 0 0
0 0 0 3 0 0 0 0 3 0
0 0 0 0 1 0 0 0 0 1
Si MG(3) = 2 Si MG(3) = 3
Una ecuación diferencial es una igualdad que relaciona una función y sus derivadas.
Por ejemplo,
y0 + y = 7x
y00 − y0 + 3(cos x)y = 0
y000 + y00 y − log x = exp x2
son ecuaciones diferenciales. La derivada de mayor orden que aparece en la ecuación determina el
orden de ésta. Así, las tres ecuaciones anteriores son, respectivamente, de primer, segundo y tercer
orden.
Un sistema de ecuaciones diferenciales es un conjunto de ecuaciones que involucran diversas
funciones y sus derivadas.
242
Aquí nos vamos a ocupar únicamente de las ecuaciones y sistemas del tipo lineal.
donde f y g son funciones continuas en un intervalo I de la recta real (que puede ser todo R). Por
ejemplo, la primera ecuación de los ejemplos anteriores es lineal, puesto que podemos escribirla
como y0 = −y + 7x.
Una solución de la ecuación (1) es una función y, derivable en I, que verifica la ecuación. Por
ejemplo, la función y = 7x − 7 es una solución de la ecuación y0 = −y + 7x, porque
y = 7x − 7 ⇒ −y + 7x = −7x + 7 + 7x = 7 = y0
Ahora bien, ésta no es la única solución de la ecuación, porque cualquiera de las siguientes funcio-
nes también satisface la ecuación:
3
y = 7x − 7 + e−x , y = 7x − 7 + 4e−x , y = 7x − 7 − e−x
2
En realidad, el conjunto de todas las soluciones de esta ecuación es
S = y = 7x − 7 + Ce−x : C ∈ R
243
Corolario 27. Si además g(x) = 0, entonces la solución general de la ecuación diferencial lineal
homogénea y0 = ky, con k ∈ C, es y = Cekx , siendo C ∈ R una constante arbitraria.
Utilizaremos estos resultados para el estudio de los sistemas de ecuaciones diferenciales lineales.
Ejemplo 28. Calcula la solución de la ecuación
y0 = −2y + 2x
Resolviendo la integral por partes, tomando u = t y dv = 2e2t dt, se obtiene que la única solución
de la ecuación es Z x !
x
y = e−2x 1 + te2t 0 − e2t dt
0
1 1
= e−2x + x − + e−2x
2 2
3 −2x 1
= e +x−
2 2
Resolviendo la integral por partes, tomando u = x y dv = 2e2x dx, se obtiene que la solución general
de la ecuación es Z !
y = e−2x C + xe2x − e2x dx
!
1
= e−2x C + xe2x − e2x
2
1
= Ce−2x + x −
2
244
(a) C0 (I) es el conjunto de todas las funciones continuas en el intervalo I.
(b) C1 (I) es el conjunto de todas las funciones derivables con derivada continua en el intervalo I.
De las propiedades conocidas del cálculo se deduce que estos dos conjuntos tienen estructura
de espacio vectorial, pero no son de dimensión finita.
A la ecuación diferencial lineal homogénea con coeficiente constante y0 = ky, con k ∈ C, le
asociaremos una aplicación lineal.
Proposición 30. La aplicación Φ: C1 (I) −→ C0 (I) es lineal
0
y { Φ(y) = y − ky
y el conjunto de todas las soluciones de la ecuación y0 = ky es el núcleo de Φ, N(Φ).
Corolario 31. El conjunto de todas las soluciones de la ecuación homogénea y0 = ky es un espacio
vectorial de dimensión 1.
Además, si y es una solución particular de la ecuación completa, y0 = ky+g(x), entonces la solución
general de la ecuación completa es y + N(Φ).
Comprobemos este corolario en el caso del Ejemplo 29:
Un sistema lineal de ecuaciones diferenciales lineales de primer orden es el que tiene esta
forma:
y01 = f11 (x)y1 + f12 (x)y2 + · · · + f1n (x)yn + g1 (x)
y02 = f21 (x)y1 + f22 (x)y2 + · · · + f2n (x)yn + g2 (x)
...
y0n = fn1 (x)y1 + fn2 (x)y2 + · · · + fnn (x)yn + gn (x)
donde todas las funciones fi j y gi son continuas en un intervalo I de la recta real.
Escribiremos el sistema, en forma matricial, como
Por analogía con los sistemas de ecuaciones algebraicas, a este sistema de ecuaciones le podemos
asociar el sistema homogéneo
y0 = F(x)y (5)
Si la matriz de coeficientes F(x) es constante, decimos que se trata de un sistema de ecuaciones
diferenciales lineales homogéneo con coeficientes constantes y escribiremos y0 = Ay, siendo A ∈
Mn×n (C).
245
Por ejemplo,
y01 = 4y1 − y2
y02 = 2y1 + y2
es un sistema de dos ecuaciones de primer orden homogéneo con coeficientes constantes. Este
sistema puede escribirse, en forma matricial, como
!
0 4 −1
y = y
2 1
Centraremos nuestro estudio en este tipo de sistemas. El teorema más importante es el siguiente:
Teorema 32. (Existencia y unicidad)
Si x0 ∈ I, y0 ∈ Rn y A ∈ Mn×n (C), entonces el sistema de ecuaciones diferenciales y0 = Ay tiene
una única solución que cumple las condiciones iniciales y(x0 ) = y0 .
En primer lugar estudiaremos muy brevemente la estructura algebraica del conjunto de solu-
ciones y, a continuación, aprenderemos a resolver sistemas de ecuaciones diferenciales lineales
homogéneos con coeficientes constantes.
De modo análogo al caso de la ecuación lineal de primer orden homogénea, se obtiene la
siguiente proposición.
Proposición 33. El conjunto de todas las soluciones del sistema de ecuaciones diferenciales linea-
les homogéneo de n ecuaciones y0 = Ay es un espacio vectorial de dimensión n.
Por lo tanto, la solución general se puede expresar en la forma
y = C1 y1 + C2 y2 + · · · + Cn yn (6)
A = PJP−1
y0 = PJP−1 y
o bien,
P−1 y0 = JP−1 y
Si llamamos z = P−1 y tendremos
z0 = Jz
que es otro sistema lineal con coeficientes constantes, pero al ser J una matriz triangular se puede
resolver ecuación a ecuación por un proceso análogo al de sustitución regresiva. En el caso ideal
246
en que la matriz A es diagonalizable, ni siquiera es necesaria esta sustitución regresiva. Veamos un
par de ejemplos, uno en el que la matriz es diagonalizable y otro en el que no lo es.
Ejemplo 34. Calcula la solución general del sistema
!
4 −1
0
y = y
2 1
!
4 −1
Los valores propios de la matriz A = son λ1 = 2 y λ2 = 3, de modo que la matriz es
2 1
diagonalizable. Calculando los vectores propios correspondientes llegamos a la factorización
! ! ! !
4 −1 1 1 2 0 −1 1
=
2 1 2 1 0 3 2 −1
| {z } | {z } | {z } | {z }
A P D P−1
247
!
8 −9
En este caso la matriz A = no es diagonalizable. Calculando su forma canónica de Jordan,
4 −4
la podemos factorizar como
! ! ! !−1
8 −9 3 2 2 1 3 2
=
4 −4 2 1 0 2 2 1
| {z } | {z } | {z } | {z }
A P J P−1
es decir,
z01 = 2z1 + z2
z02 = 2z2
Ahora podemos resolver la segunda ecuación (en la que no interviene z1 )
z02 = z2 ⇐⇒ z2 = C2 e2x
y sustituyendo el resultado en la primera ecuación, obtenemos la ecuación z01 = 2z1 + C2 e2x , que
resolvemos aplicando el Corolario 26
Z !
2x 2x −2x
z1 = e C1 + C2 e e dx
Z !
2x
z1 = e C1 + C2 dx
Observaciones:
1. Para resolver el sistema homogéneo y0 = Ay, con A = PJP−1 no necesitamos hallar explíci-
tamente la inversa de P.
248
Por ejemplo, si la forma canónica de Jordan de la matriz A es
α1 0 0 0 0
0 α1 0 0 0
J = 0 0 α2 1 0
0 0 0 α2 1
0 0 0 0 α2
donde {u1 , v1 , b1 , b2 , b3 } es una base formada por cadenas de Jordan en orden inverso.
PROBLEMAS
Vectores propios generalizados. Cadenas de Jordan.
(P.1) Comprueba
que el vector
(0, 0, 0, 1)T es un vector propio generalizado de orden 2 de la
1 1 0 0
0 1 0 0
matriz A =
0 0 1 1 .
0 0 0 1
(P.2) Comprueba
que el vector (2, 0, 1)T es un vector propio generalizado de orden 3 de la
0 1 0
matriz A = 0 0 1 .
0 0 0
(P.3) Sea α ∈ σ(A). Si u es un vector propio generalizado de A de orden k y v es un vector
propio generalizado de A de orden p, con p < k asociados a α, prueba que entonces u + v es
un vector propio generalizado de A de orden k.
(P.4) Halla cadenas de Jordan de longitud 2 y de longitud 3, si existen, para las matrices:
! −1 0 0 0
1 1 0 1 1 0 0 −1 0 1
3 1
A = 0 1 0 , B = 0 1 1 , C = , E =
2 2 0 0 −1 0
1 2 −1 0 0 1
3 0 0 −1
249
(P.7) Si el polinomio mínimo de una matriz 3 × 3 es λ3 + 2λ2 − 4λ − 8, ¿cuál es su polinomio
característico?
(P.8) ¿Cuál es el polinomio mínimo de la matriz βIn×n , con β ∈ C? Justifica tu respuesta.
(P.9) Calcula el polinomio mínimo de las matrices
3 1 −1 −1 5 0 0 2
0 0 2 0 −1 1 0
2 0 1 4 5 −1 4
A = 1 0 −1 , B = 1 1 0 , C = , D = .
1 1 1 0 8 4 1 8
0 1 1 −1 0 1
0 0 0 2 −2 0 0 1
(P.11) Calcula el polinomio característico y el polinomio mínimo de la matriz A = (ai j ), tal que
ai j = 2, para i, j = 1, 2, 3, 4. ¿La matriz A es diagonalizable? Justifica la respuesta.
Forma canónica de Jordan de una matriz cuadrada.
5 0 0
(P.12) Reduce a la forma canónica de Jordan la matriz A = −2 5 2 , obteniendo una
3 0 5
matriz P tal que A = PJA P−1 .
0 0 −1
(P.13) Reduce la matriz A = 0 −1 0 a su forma canónica de Jordan J , indicando la
1 0 −2
matriz P tal que A = PJP−1 .
−1 −1 0
(P.14) Reduce la matriz A = 0 −2 1 a la forma canónica de Jordan y calcula una
1 −1 −3
matriz no singular P tal que A = PJP−1 .
2 1 0
(P.15) Reduce la matriz A = 1 −1 −1 a su forma canónica de Jordan y encuentra una
0 1 2
matriz P no singular tal que A = PJP−1 .
(P.16) Reduce a la forma canónica de Jordan las siguientes matrices:
2 0 0 1 0
3 1 −1 −1 0 −4 0 −1 3 1 0 0 0
0 2 0 0 1
2 0 1 0 2 0 0 0 3 0 0
A = , B =
, C = , E = 0 0 2 0 0 ,
1 1 1 0 0 0 0 0 0 0 2 1
0 0 0 2 0
0 0 0 2 4 8 −12 4 0 0 1 2
0 0 0 0 1
250
5 0 0 2 2 0 0 0 5 0 1 −1
4 5 −1 4 1 2 0 0
F = , G = , H = 0 5 0 0 .
8 4 1 8 1 −1 2 0 0 −2 5 2
−2 0 0 1 4 −2 −1 2 0 3 0 5
1 1 0 0
0 1 1 0
(P.17) Reduce la matriz A = a su forma canónica de Jordan J , indicando la
0 0 1 0
0 6 0 1
−1
matriz P tal que A = PJP .
!
a b
(P.18) Probar que si b , 0, entonces la matriz A = no es diagonalizable.
0 a
Calcular la forma canónica de Jordan de A y una matriz no singular P tal que A = PJP−1 .
Calcular An , ∀n ∈ N.
(P.19) Sea A ∈ M6×6 (C) una matriz tal que dA (λ) = (λ − 3)2 (λ − 2)4 . Escribe las posibles
formas canónicas de Jordan de A especificando en cada caso el polinomio mínimo y las
multiplicidades algebraicas y geométricas.
(P.20) Escribe todas las posibles formas canónicas de Jordan de una matriz A tal que:
(i) dA (λ) = (2 − λ)3 (7 − λ)4 y mA (λ) = (λ − 2)(λ − 7)2
(ii) dA (λ) = (4 − λ)6 , mA (λ) = (λ − 4)3 y dim(E(4)) = 3
(P.21) Escribe todas las posibles formas canónicas de Jordan de las siguientes matrices:
(P.22) (i) Si A ∈ M4×4 (C) tal que dA (λ) = (−1)4 (λ − 2)2 (λ + 1)2 , calcula todas las posibles formas
canónicas de Jordan, indicando en cada caso las multiplicidades algebraicas y geométricas.
(ii) Si A ∈ M4×4 (C) tal que dA (λ) = (−1)4 (λ − 2)2 (λ + 1)2 , MG(2) = 1 y MG(−1) = 2 ¿cuál de
los siguientes polinomios son anuladores de A?
(1) f (λ) = 3(λ + 1)3 (λ − 2)(λ + 5), (2) g(λ) = (λ + 1)(λ − 2)4 (λ − 7)
(3) h(λ) = (λ)(λ + 1)2 (λ − 2)2
(P.23) Dadas las siguientes parejas de matrices estudiar si son o no similares:
! !
1 1 1 0
1. A = y B=
1 −1 1 −1
! !
1 −1 −1 1
2. A = y B=
4 −3 0 −1
2 1 0 1 0 0
3. A = 0 2 1 y B = 0 1 1 .
0 −1 0 0 0 2
251
(P.24) (i) Construye dos matrices reales 2 × 2 con el mismo polinomio característico que no
sean similares.
(ii) Construye dos matrices reales 3×3 con el mismo polinomio mínimo que no sean similares.
y01 = − y1 − 2y2
y02 = 4y1 + 5y2
y01 = 3y1 + y2
y02 = − y1 + y2
y01 = − y3
y02 = − y2
y03 = y1 − 2y3
y01 = −y1 − y2
y02 = − 2y2 + y3
0
y3 = y1 − y2 − 3y3
252
(P.36) Resuelve el sistema de ecuaciones diferenciales lineales
y01 = y1 − y2 + 4y3
y02 = 3y1 + 2y2 − y3
y03 = 2y1 + y2 − y3
CUESTIONES
(C1) Una de las siguientes afirmaciones es INCORRECTA:
(a) si b es un vector propio generalizado de orden k, entonces se cumple que (A − σI)k b , 0
y (A − σI)k−1 b = 0.
(b) si b es un vector propio generalizado de orden k y si k ≤ n, entonces (A − σI)n b = 0.
(c) si b es un vector propio generalizado de orden 1, entonces b es un vector propio de A.
(C2) Si {z, y, x} es una cadena de Jordan de longitud 3 asociada al valor propio λ, entonces
(a) (A − λI)x = 0, (A − λI)y = x, (A − λI)z = x
(b) Ax = λx, Ay = λx + y, Az = λy + z
(c) Ax = λx, Ay = λy + x, Az = λz + y.
(C3) Si dA (λ) = (−1)3 λ3 + 3λ2 − λ + 2 es el polinomio característico de una matriz A, enton-
ces es FALSO que
(a) A = A3 + 3A2 + 2I3×3
(b) A es no singular y A−1 = A2 + 3A + I3×3
1
(c) A es no singular y A−1 = (−A2 − 3A + I3×3 )
2
(C4) Considera A ∈ Mn×n (C). Una de las siguientes afirmaciones es verdadera.
(a) El teorema de Cayley-Hamilton afirma que el polinomio característico de A es el único
polinomio anulador de A.
(b) Si {α1 , . . . , αn } son los valores propios de A, entonces los valores propios de B = A2 + In×n
son {α21 + 1, . . . , α2n + 1}.
(c) El polinomio característico de A divide al polinomio mínimo de A.
(C5) Sea dA (λ) = (λ − 2)4 (λ + 5)2 (λ − 1) el polinomio característico de una matriz A. Entonces,
un posible polinomio mínimo de A es
253
(a) (λ − 2)2 (λ + 5)2 (λ − 1); (b) (λ − 2)(λ + 5); (c) (λ + 5)2 (λ − 1).
(C9) Si A es una matriz tal que d(λ) = (5 − λ)4 y tal que dimC E(5) = 2, entonces sus posibles
formas canónicas de Jordan son:
5 1 0 0 5 0 0 0 5 1 0 0 5 0 0 0
0 5 0 0 0 5 1 0 0 5 0 0 0 5 1 0
(a)
(b)
(c) y
0 0 5
.
0 0 5 1 0 0 5 1 0 0 5 1
1
0 0 0 5 0 0 0 5 0 0 0 5 0 0 0 5
254
−1 0 0
(C11) Considera la matriz A = 2 −1 0 ∈ M3×3 (C). Una de las siguientes matrices es
5 0 −1
similar a A:
−1 0 0 −1 1 0 −1 1 0
(a) B = 0 −1 0 (b) C = 0 −1 0 (c) D = 0 −1 1 .
0 0 −1 0 0 −1 0 0 −1
5 1 0 0 0
0 5 1 0 0
(C12) Considera la matriz A = 0 0 5 0 0 ∈ M5×5 (C). Una de las siguientes afirmacio-
0 0 0 5 0
0 0 0 0 7
nes es verdadera:
(a) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ), MG(5) = 2 y MG(7) = 1, entonces A es
similar a B.
(b) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ) y mB (λ) = (λ − 5)3 (λ − 7), entonces A es
similar a B.
(c) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ), MA(5) = MG(5) y MA(7) = MG(7),
entonces A es similar a B.
(C13) Sea A ∈ M5×5 (R). Si dA (λ) = (−1)5 (λ2 − 1)(λ + 7)2 (λ + 1) y A es diagonalizable, entonces
el polinomio mínimo de A es
(a) mA (λ) = (λ + 1)(λ + 7)
(b) mA (λ) = (λ − 1)(λ + 1)(λ + 7)
(c) mA (λ) = (−1)5 (λ + 1)(λ + 7)
(C17) Sea A una matriz real n × n tal que A2 − 5A + 6In×n = On×n . Entonces,
255
(a) σ(A) = {3, 2}, con MA(3) = MA(2) = 1.
(b) A es R-diagonalizable.
(c) det(A) = 3 · 2 = 6.
(C19) Si A ∈ M3×3 (R) simétrica tal que σ(A) = {1, 1, −1}, entonces la forma canónica de
Jordan de A es la matriz:
1 1 0 1 1 0 1 0 0
(a) J = 0 1 1 (b) J = 0 1 0 (c) J = 0 1 0 .
0 0 −1 0 0 −1 0 0 −1
256
Bibliografía
• Bru, Rafael, Climent Coloma, Joan Josep, Mas, Josep, Urbano, Ana. Álgebra lineal.
México, Alfaomega, 2a ed. act., 2004.
• Lay, David C. Álgebra lineal y sus aplicaciones. México, Pearson Educación, 2007.
• Merino González, Luis M., Santos Aláez, Evangelina. Álgebra lineal con métodos
elementales. Madrid, Thomson, 2006.
• Pérez Carreras, Pedro. Introducción al álgebra lineal II: curso práctico. Valencia,
Universidad Politécnica de Valencia, D.L. 1994.
• Robinson, Derek J.S. A course in linear algebra with applications. Singapore, World
Scientific, 2nd ed., cop. 2006.
• Spindler, Karlheinz. Abstract algebra with applications, volume I, Vector spaces and
groups. New York, Marcel Dekker, Inc., 1994.