Está en la página 1de 192

Notas del Curso: Álgebra Lineal

Licenciatura en Actuaría

Septiembre 2020 - Febrero 2021

Carlos Jacob Rubio Barrios


Facultad de Matemáticas
Universidad Autónoma de Yucatán
Índice general

Prefacio V

1. Espacios Vectoriales 1
1.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definición de Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Propiedades elementales de un Espacio Vectorial . . . . . . . . . . . . . . 3
1.1.3. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Conjuntos linealmente independientes . . . . . . . . . . . . . . . . . . . . 12
1.2.3. Propiedades de los conjuntos linealmente independientes . . . . . . . . . 14
1.2.4. Matrices y dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.5. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.1. Definición de base de un espacio vectorial . . . . . . . . . . . . . . . . . . 19
1.3.2. Definición de dimensión de un espacio vectorial . . . . . . . . . . . . . . . 22
1.3.3. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4. Espacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.1. Bases y dimensiones de los espacios fundamentales de una matriz . . . . 29
1.4.2. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.1. Definición de suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.2. Caracterización de la suma directa . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.3. Dimensión de la suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.5. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2. Transformaciones Lineales 42
2.1. Propiedades básicas de las transformaciones lineales . . . . . . . . . . . . . . . . 42
2.1.1. Definición de transformación lineal y ejemplos . . . . . . . . . . . . . . . . 42
2.1.2. Propiedades básicas de las transformaciones lineales . . . . . . . . . . . . 44
2.1.3. Construcción de transformaciones lineales . . . . . . . . . . . . . . . . . . 46
2.1.4. El espacio vectorial de las transformaciones lineales . . . . . . . . . . . . . 47
2.1.5. El núcleo y la imagen de una transformación lineal . . . . . . . . . . . . . 50
2.1.6. El Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.1.7. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

II
ÍNDICE GENERAL

2.2. Tipos de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 56


2.2.1. Transformaciones lineales inyectivas y suprayectivas . . . . . . . . . . . . 56
2.2.2. Isomorfismo y transformaciones lineales inversas . . . . . . . . . . . . . . 57
2.2.3. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.3. Matrices y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3.1. La matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . 61
2.3.2. Matriz cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.3.3. El isomorfismo entre el espacio vectorial de las matrices y el espacio vec-
torial de las transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 67
2.3.4. Equivalencia y semejanza entre matrices asociadas a la misma transfor-
mación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.5. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

3. Producto interno y ortogonalidad 85


3.1. Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.1.1. Definición de producto interno . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.1.2. Norma de un vector y desigualdad de Cauchy-Schwarz . . . . . . . . . . 90
3.1.3. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.1. Ortogonalidad, complemento ortogonal y dependencia lineal . . . . . . . 94
3.2.2. Coeficientes de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.2.3. Bases ortonormales y el proceso de Gram-Schmidt . . . . . . . . . . . . . . 99
3.2.4. Descomposición QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.2.5. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.2.6. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

4. Teoría Espectral 117


4.1. Propiedades básicas de la teoría espectral . . . . . . . . . . . . . . . . . . . . . . . 117
4.1.1. Valores propios y vectores propios . . . . . . . . . . . . . . . . . . . . . . . 117
4.1.2. Polinomio característico y ecuación característica . . . . . . . . . . . . . . 122
4.1.3. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2.1. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3. Triangulación y Teorema de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.4. El polinomio mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.4.1. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

A. Campos 145
A.1. Definición y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
A.2. La característica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

B. Matrices 151
B.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
B.5. Multiplicación de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . . 166
B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
B.8. Forma escalonada y Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 179
B.9. Forma escalonada reducida y Método de Gauss-Jordan . . . . . . . . . . . . . . . 181
B.10. Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 183

III Prof. Carlos J. Rubio


ÍNDICE GENERAL

Bibliografía 185

Prof. Carlos J. Rubio IV Álgebra Lineal, Actuaría


Prefacio

El estudio del álgebra lineal es importante para la formación de los estudiantes de Actuaría
porque contribuye al desarrollo de habilidades matemáticas necesarias para la obtención y
resolución de modelos matemáticos aplicables en el área donde se desarrollen, como la teoría
de seguros.

Esta asignatura tiene como propósito que el estudiante adquiera la habilidad de modelar
matemáticamente fenómenos de tipo lineal, en el contexto matemático y los problemas propios
del quehacer de un actuario. También, proporciona las herramientas para resolver problemas
reales e hipotéticos que surgen en las áreas de la ciencia y la tecnología de una manera analítica,
cualitativa, numérica y gráfica.

Álgebra Lineal se relaciona con las asignaturas: Álgebra Superior I, Álgebra Superior II,
Ecuaciones Diferenciales, Investigación de Operaciones, Métodos Numéricos, Probabilidad II,
Procesos Estocásticos y Regresión Lineal, ya que contribuyen al logro de las cuatro competen-
cias de egreso.

Competencia de la asignatura. Resuelve problemas matemáticos e interdisciplinares apli-


cando la teoría de matrices, espacios vectoriales, transformaciones lineales, espacios producto
interno y teoría espectral.

Estas notas de curso están elaboradas a partir de la Planeación Didáctica del mismo y su
objetivo es que el alumno tenga el material completo y desarrollado de cada uno de los temas
de la asignatura.

Unidades y Competencias.

I. Espacios Vectoriales. Resuelve problemas relacionados con los espacios vectoriales de


manera eficiente, utilizando la definición y propiedades elementales de los espacios y subes-
pacios vectoriales.

II. Transformaciones Lineales. Aplica la definición y propiedades elementales de las trans-


formaciones lineales en el contexto de los espacios vectoriales y su relación con el álgebra ma-
tricial.

III. Producto Interno y Ortogonalidad. Resuelve problemas de aplicación en diferentes


disciplinas, a partir de la generalización de los conceptos geométricos de longitud, distancia y
perpendicularidad en el plano y en el espacio, para Rn .

IV. Teoría Espectral. Determina si una matriz es diagonalizable, utilizando la definición y


las propiedades básicas de los valores y vectores propios.

V
0. Prefacio

Prof. Carlos J. Rubio VI Álgebra Lineal, Actuaría


Capı́tulo 1
Espacios Vectoriales

En diversas ramas de las matemáticas nos topamos con conjuntos de elementos que se pue-
den operar entre ellos y multiplicar por escalares, es decir por elementos de algún campo.
Consideremos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como
resultado un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El
conjunto de soluciones de un sistema homogéneo es otro ejemplo típico. Podemos sumar dos o
más soluciones y obtenemos nuevamente una solución. De hecho cualquier combinación lineal
de soluciones es nuevamente una solución. En Cálculo, también se presentan ejemplos de tales
conjuntos, v.gr. el conjunto de todas la funciones diferenciables de R en R. Sabemos que cual-
quier combinación lineal de funciones diferenciables es nuevamente una función diferenciable.
Éstos son ejemplos de espacios vectoriales. En este capítulo nos dedicaremos al estudio de la
teoría básica acerca de los espacios vectoriales sobre un campo arbitrario, haciendo énfasis en
los espacios de dimensión finita.

1.1. Espacios vectoriales


1.1.1. Definición de Espacio Vectorial
Un espacio vectorial es una estructura algebraica que consta de un conjunto no vacío junto
con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades.
Las propiedades que posee R2 junto con las suma de vectores y la multiplicación por escalar
y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R serán
la base para la definición de espacio vectorial.

Definición 1.1.1.

Un espacio vectorial sobre un campo K (o un K-espacio vectorial) es conjunto no vacío


V junto con dos operaciones

+ : V×V → V · : K×V → V
,
( v1 , v2 ) 7 → v1 + v2 (c, v) 7→ cv

llamadas respectivamente suma y producto por escalar las cuales satisfacen los siguien-
tes ocho axiomas:

1) u + v = v + u para todos los u, v ∈ V.

1
1. Espacios Vectoriales

2) (u + v) + w = u + (v + w) para todos los u, v, w ∈ V.


3) Existe un elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V.

4) Para cada v ∈ V, existe −v ∈ V tal que v + (−v) = 0.


5) c (u + v) = cu + cv para cualquier c ∈ K y cualesquiera u, v ∈ V.
6) (c1 + c2 ) v = c1 v + c2 v para cualesquiera c1 , c2 ∈ K, v ∈ V.
7) (c1 c2 ) v = c1 (c2 v) para cualesquiera c1 , c2 ∈ K, v ∈ V.

8) El escalar 1 ∈ K cumple 1 · v = v para todo v ∈ V.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo
K escalares. Aquí la palabra “vector” no está haciendo referencia a los vectores de R2 o
R3 .
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.

Observación 1.1.2

1) Las propiedades 1-4 establecen que (V, +) es un grupo abeliano.

2) Es importante enfatizar que un espacio vectorial no es únicamente un conjunto V. Es


como dice la definición una terna (V, +, ·), donde V es un conjunto no vacío junto
con las operaciones binarias + y · que satisfacen las propiedades de espacio vectorial.
De hecho el mismo conjunto V puede ser parte de espacios vectoriales diferentes.
En general, cuando no haya peligro de confusión haremos referencia a un espacio
vectorial mencionando únicamente el conjunto V.

Ejemplo 1.1.3
En los siguientes ejemplos K es un campo arbitrario y n, m ∈ N. Los siguientes conjuntos
junto con las operaciones indicadas son K-espacios vectoriales.
a) El conjunto K n que consta de todos los vectores columna junto con las operaciones
usuales de suma de vectores y multiplicación de vector por escalar.
b) El conjunto K m×n de todas las matrices de m × n con entradas en el campo K es
un espacio vectorial respecto de la suma de matrices y la multiplicación matriz por
escalar.
c) Sea A ∈ K m×n . El conjunto de todas las soluciones del sistema homogéneo Ax = 0,
junto con las operaciones usuales de suma de vectores y multiplicación de vector por
escalar.

d) Sea K un campo. El conjunto K [t] de todos los polinomios en la variable t, junto con
las operaciones usuales de suma de polinomios y producto de polinomio por escalar
es un K-espacio vectorial.

Prof. Carlos J. Rubio 2 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Ejemplo 1.1.4
Sea V el conjunto de todas las matrices de m × n con entradas reales. Considere en V la
suma usual de matrices. Sean · : R × V → V y ·0 : Q × V → V la multiplicación usual
por escalar (En el segundo caso la multiplicación se restringe a números racionales).
Entonces (V, +, ·) y (V, +, ·0 ) son dos espacios vectoriales diferentes, ya que uno es real
y el otro es racional.

Actividad de Aprendizaje 1.1.5


Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las
operaciones:

⊕ : R+ × R+ → R+ : R × R+ → R+
, .
x⊕y = xy c x = xc

a) Pruebe que (R+ , ⊕, ) es un R-espacio vectorial.

b) ¿Cuál es el neutro aditivo en este espacio vectorial?


c) En este contexto, ¿qué significa − x?

1.1.2. Propiedades elementales de un Espacio Vectorial


En el siguiente teorema se presentan las principales propiedades de un espacio vectorial.

Teorema 1.1.6
En un K-espacio vectorial V se cumple lo siguiente:

1) Si u, v, w ∈ V son tales que v + u = w + u, entonces v = w.


2) Existe un único elemento 0 ∈ V tal que v + 0 = v para todo v ∈ V.
3) Para cada v ∈ V, existe un único elemento w ∈ V tal que v + w = 0.

4) − (−v) = v para todo v ∈ V.


5) 0 · v = 0 para todo v ∈ V.
6) (−1) v = −v para todo v ∈ V.
7) c · 0 = 0 para todo c ∈ K.

8) Si c ∈ K, v ∈ V y cv = 0, entonces c = 0 o v = 0.

Demostración. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector está familiarizado con las propiedades básicas de los grupos, puede omitir
las pruebas de 1)-4).

3 Prof. Carlos J. Rubio


1. Espacios Vectoriales

1) Si v + u = w + u, entonces (v + u) + (−u) = (w + u) + (−u). Pero (v + u) + (−u) =


v + (u + (−u)) = v + 0 = v y (w + u) + (−u) = w + (u + (−u)) = w + 0 = w. Luego,
v = w.

2) Supongamos que 0 y 00 cumplen que v + 0 = v y v + 00 = v para todo v ∈ V. Luego, en


particular 0 + 0 = 0 y 0 + 00 = 0. De aquí que 0 + 0 = 0 + 00 y por el inciso anterior, se sigue
que 0 = 00 .

3) Sea v ∈ V. Sabemos que existe −v ∈ V tal que v + (−v) = 0. Supongamos que w ∈ V


cumple que v + w = 0. Entonces v + (−v) = v + w, y por el inciso 1 se sigue que w = −v.

4) Sea v ∈ V. Sabemos que existe −v ∈ V tal que v + (−v) = 0. Pero también existe −(−v) ∈ V
tal que −v + (−(−v)) = 0. Luego, v + (−v) = −(−v) + (−v) y por el inciso 1 se sigue que
v = −(−v).

5) Escribamos 0 = 0 + 0. Entonces, para todo v ∈ V tenemos que 0 · v = (0 + 0)v = 0 · v + 0 · v,


de donde 0 = 0 · v.

6) Sea v ∈ V. Tenemos que (−1 + 1)v = (−1)v + 1 · v = (−1)v + v y también (−1 + 1)v =
0 · v = 0 según el inciso anterior. Luego, (−1)v + v = 0 y por lo tanto (−1)v = −v.

7) Escribamos 0 = 0 + 0. Entonces, para todo c ∈ K tenemos que c · 0 = c(0 + 0) = c · 0 + c · 0,


de donde c · 0 = 0.

8) Supongamos que cv = 0 con c ∈ K y v ∈ V. Si c = 0 no hay nada que demostrar. Suponga-


mos entonces que c 6= 0. Entonces existe c−1 ∈ K tal que c−1 c = 1. Luego, c−1 (cv) = c−1 · 0.
Pero, c−1 (cv) = (c−1 c)v = 1 · v = v y c−1 · 0 = 0. Por lo tanto, v = 0.

Actividad de Aprendizaje 1.1.7


Sea V un K-espacio vectorial y sea W ⊂ V tal que W 6= ∅. Demuestre que W es un
K-espacio vectorial si y solo si para cualesquiera v, w ∈ W y c ∈ K, se cumple que
v + w ∈ W y cv ∈ W.

1.1.3. Subespacios Vectoriales


Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del
espacio original sean a su vez espacios vectoriales. Por ejemplo, sea A ∈ Rm×n y consideramos
el espacio nulo de A, el cual es un subconjunto de Rn . Observemos que si x, y ∈ N ( A), es decir,
si Ax = 0 y Ay = 0, entonces A( x + y) = 0 y por tanto x + y ∈ N ( A). Además, si c ∈ R y
x ∈ N ( A), entonces cx ∈ N ( A). En notación funcional, +( N ( A) × N ( A)) ⊂ N ( A) y ·(R ×
N ( A)) ⊂ N ( A). Así, la suma usual definida en Rn × Rn cuando se restringe a N ( A) × N ( A)
define una función N ( A) × N ( A) → N ( A). De manera similar, la multiplicación por escalar
· : R × Rn → Rn define una operación binaria externa · : R × N ( A) → N ( A). Es rutinario
verificar que N ( A) junto con estas dos operaciones binarias satisfacen las condiciones de la
Definición 1.1.1 y por lo tanto N ( A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R+ × R+ de R2 no es un espacio vectorial ya que la multipli-
cación por escalar no es cerrada (por ejemplo (−1) (1, 1) ∈ / R+ × R+ ).

Prof. Carlos J. Rubio 4 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Definición 1.1.8.

Dado un espacio vectorial V, un subespacio vectorial es un subconjunto W de V tal que


W es un espacio vectorial con las operaciones de suma y producto por escalar definidas
en V.

Para determinar si un conjunto dado es un subespacio vectorial, no es necesario verificar


las ocho propiedades que definen a un espacio vectorial; de hecho basta con verificar tres con-
diciones, como lo indica el siguiente teorema.

Teorema 1.1.9
Sea W un subconjunto de un K −espacio vectorial V. Entonces W es un subespacio de V
si y solo si:

1) W 6= ∅,
2) v, w ∈ W ⇒ v + w ∈ W,
3) c ∈ K y v ∈ W ⇒ cv ∈ W.

Demostración. Si W es un subespacio de V, es claro que se verifican 1, 2 y 3 por definición.


Recíprocamente, supongamos que W satisface 1, 2 y 3. Por 1, W es no vacío, mientras que por 2
y 3, las operaciones de suma y producto por escalar están bien definidas sobre W. Además, los
axiomas 1, 2, 5, 6, 7 y 8 de la definición de espacio vectorial se verifican en W, puesto que los
vectores de W pertenecen a V. Por lo tanto, solo necesitamos demostrar que los axiomas 3 y 4
también se verifican en W. Como W es no vacío existe u ∈ W. Entonces, por 3, 0u = 0 ∈ W y
por lo tanto v + 0 = v para todo v ∈ W. Finalmente, si v ∈ W, entonces por 3, (−1)v = −v ∈ W
y v + (−v) = 0. Por lo tanto, W es un subespacio de V.
Con este teorema es fácil verificar que el conjunto:
  
x
W= ∈ R2 | ax + by = 0
y
es un subespacio de R2 (De hecho, W es el espacio nulo de la matriz A = a b ).


A partir de un conjunto dado de vectores de un espacio vectorial V, se puede construir un


subespacio como se muestra a continuación.
Sean v1 , . . . , vn vectores de un K-espacio vectorial V. El conjunto de todas las posibles com-
binaciones lineales de los vectores vi ’s se denota por hv1 , . . . , vn i o por gen (v1 , . . . , vn ) y se
llama subespacio generado por {v1 , . . . , vn }. En ocasiones se escribe h{v1 , . . . , vn }i en vez de
hv1 , . . . , vn i. En notación de conjuntos:
hv1 , . . . , vn i = {v ∈ V | v es una combinación lineal de v1 , . . . , vn }
= { c1 v1 + c2 v2 + · · · + c n v n | c1 , . . . , c n ∈ K } .
Es sencillo probar que hv1 , . . . , vn i es un subespacio de V. Primero se observa que hv1 , . . . , vn i
es no vacío pues contiene a cada uno los vi ’s que lo genera: Para cada i, 1 ≤ i ≤ n, vi =
δi1 v1 + δi2 v2 + · · · + δin vn , donde δij es la delta de Kronecker. Las otras dos condiciones se
siguen de:
n n n n n
∑ c j v j + ∑ d j v j = ∑ (c j + d j )v j , c ∑ cj vj = ∑ (cc j )v j .
j =1 j =1 j =1 j =1 j =1

5 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Ejemplo 1.1.10
     
2 −1 3
Consideremos el espacio vectorial R2 y sean v1 = , v2 = y v3 = . Es
−4 2 −6
muy fácil construir vectores que estén en el subespacio W = hv1 , v2 , v3 i. Basta elegir tres
escalares y formar la correspondiente combinación lineal. Así los vectores
   
−4 −39
= v1 + 0v2 − 2v3 , = −5v1 + 8v2 − 7v3 ,
8 78

son elementos de W. 

Por otro lado, decidir si un vector dado pertenece o no al subespacio


 generado por v1 , v2
2
y v3 , puede ser más complicado. ¿Es el vector w = un elemento de W? La pre-
−3
gunta se traduce en ¿Existen escalares c1 , c2 , c3 ∈ R tales que w = c1 v1 + c2 v2 + c3 v3 ?
Esto lleva a preguntarse si el sistema de ecuaciones lineales

2c1 − c2 + 3c3 = 2
−4c1 + 2c2 − 6c3 = −3

tiene solución. La forma escalonada reducida de la matriz aumentada [ A | b] es

1 − 12 32 0
 
.
0 0 0 1

Se concluye que el sistema de ecuaciones lineales no tiene solución y por lo tanto w ∈


/ W.

A continuación una de las principales propiedades de los subespacios generados por un


conjunto de vectores.

Teorema 1.1.11
Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el subespacio
generado por estos vectores es el menor de todos los subespacios de V que contienen a
estos.

Demostración. Previamente se probó que hv1 , . . . , vn i es subespacio de V. Sea W un subespacio


de V que contiene a {v1 , . . . , vn }. Debemos demostrar que hv1 , . . . , vn i ⊆ W. Tenemos que
c1 v1 , . . . , cn vn ∈ W, donde ci ∈ K, y también c1 v1 + · · · + cn vn ∈ W por ser W un subespacio
de V. Así, hv1 , . . . , vn i ⊆ W.

Ejemplo 1.1.12
Describamos analítica y geométricamente el subespacio de R3 generado por los vectores

Prof. Carlos J. Rubio 6 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

v1 = (1, 1, 1) T y v2 = (−1, 2, 0) T . Por definición:

W = h v1 , v2 i
= { c1 v1 + c2 v2 | c1 , c2 ∈ R}
n o
= (c1 − c2 , c1 + 2c2 , c1 )T | c1 , c2 ∈ R

Ahora bien, ( x, y, z) T ∈ W si existen escalares c1 , c2 ∈ R tales que x = c1 − c2 , y = c1 +


2c2 y z = c1 . Eliminando c1 y c2 se obtiene 2x + y = 3z. Recíprocamente, si ( x, y, z) T ∈ R3
es tal que 2x + y − 3z = 0, entonces y = −2x + 3z. Así:
       
x x −1 0
 y  = −2x + 3z = (− x )  2 + z 3 = − xv2 + z(v1 + v2 ) = zv1 + (− x + z)v2 ,
z z 0 1

y por lo tanto ( x, y, z) T ∈ W. Con esto se ha demostrado que W = {(x, y, z) T ∈ R3 |


2x + y − 3z = 0}. Note que W es el espacio nulo de la matriz 2 1 −3 .
Observe que también se puede proceder como sigue. Por definición de subespacio gene-
rado, w = ( x, y, z) T ∈ W si y solamente si existen escalares c1 , c2 tales que
 
1 1  
c
w = c1 v1 + c2 v2 = −1 2 1 = Ac.
c2
1 0

Así W está caracterizado como el conjunto de todos los w ∈ R3 para los cuales el sistema
de ecuaciones Ac = w tiene solución; en otras palabras W es el espacio columna de la
matriz A. Luego decidir si w ∈ W es equivalente a decidir si w ∈ R( A). Una forma
escalonada por renglones de [ A | w] es
 
1 −1 x
 0 3 −x + y  ,
0 0 − 32 x − 13 y + z

de donde se sigue que el sistema de ecuaciones Ac = w tiene solución si y solamente si


−2x − y + 3z = 0.
Geométricamente W es el plano que pasa por el origen determinado por los vectores v1
y v2 . 

Definición 1.1.13.

Se dice que un subespacio W de un espacio V está generado por un conjunto S, si W =


hSi. Equivalentemente, S genera W si cada w ∈ W es combinación lineal de los elementos
de S.

Ejemplo 1.1.14
El conjunto de las columnas de una matriz A genera a su espacio columna.

7 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Ejemplo 1.1.15
El espacio R3 no está generado por los vectores v1 = (−1, 2, 0) T y v2 = (1, 1, 1) T . De
hecho ( x, y, z) T ∈ hv1 , v2 i si y solamente si 2x + 3y − z = 0. Por lo tanto, (1, 2, 3) T no es
combinación lineal de los vectores de W.
Por otro lado, el conjunto {e1 , e2 , v1 , v2 } sí genera a R3 . En efecto, si b = (b1 , b2 , b3 ) T ∈ R3 ,
entonces b = (b1 − b3 )e1 + (b2 − b3 )e2 + 0v1 + b3 v2 . De hecho, b = (b1 − b3 + t)e1 + (b2 −
b3 − 2t)e2 + tv1 + b3 v2 , con t ∈ R.

Actividad de Aprendizaje 1.1.16

1) Sea B ∈ K n×n una matriz fija. Pruebe que el conjunto

W = { A ∈ K n×n | AB = BA}

es un subespacio de K n×n .
2) Sea V un K-espacio vectorial y sean U y W subespacios de V. Pruebe que U ∩ W es
un subespacio de V.
3) De un ejemplo de un K-espacio vectorial V y dos subespacios U y W de V, tales que
U ∪ W no sea un subespacio de V.
4) Sea V un K-espacio vectorial y sean U y W subespacios de V.
a) Pruebe que el conjunto

U + W = {u + w | u ∈ U, w ∈ W }

es un subespacio de V.
b) Pruebe que U + W es el menor de todos los subespacios de V que contienen a
U ∪ W.
El subespacio U + W es llamado la suma de los subespacios U y W.

5) Sea V un K-espacio vectorial y sean v1 , . . . , vn ∈ V. Pruebe que la intersección


de todos los subespacios de V que contienen a {v1 , . . . , vn } es igual al subespacio
h{v1 , . . . , vn }i.
6) Sean a1 , . . . , an vectores de Rm . Pruebe que el conjunto:
n o
W = x ∈ Rm | x T ai = 0 para i = 1, . . . , n

es un subespacio de Rm .
7) Sea V un K-espacio vectorial y sean v1 , v2 y v3 elementos de V. Suponga que v3 de-
pende linealmente de v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que
v3 = c1 v1 + c2 v2 . Pruebe que hv1 , v2 , v3 i = hv1 , v2 i.
8) Sea V un K-espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe
que hB1 i = hB2 i si y solamente si w ∈ hB1 i.

Prof. Carlos J. Rubio 8 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

1.1.4. Ejercicios de Práctica


1) Sea K un campo y sea X un conjunto no vacío. Considere el conjunto K X = { f : X → K |
f es función}. Dadas dos funciones f , g ∈ K X y c ∈ K se define la suma de funciones y la
multiplicación por escalar como sigue:

f +g: X → K cf : X → K
, .
x 7→ f (x) + g (x) x 7→ c f ( x )

Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K m×n y K ω
son K-espacios vectoriales. (Aquí K ω denota al conjunto de todas las sucesiones ( a1 , a2 , a3 , . . . )
de elementos de K).

2) Pruebe que cualquier campo es un espacio vectorial sobre sí mismo.

3) Considere el campo C de los números complejos. ¿Es R un C-espacio vectorial? Justifique


su respuesta.

4) Sean F y K campos arbitrarios tales que F ⊆ K. Pruebe que K es un F-espacio vectorial.

5) Sean V y W dos K-espacios vectoriales. Considere V × W y defina:

( v 1 , w1 ) + ( v 2 , w2 ) = ( v 1 + v 2 , w1 + w2 ) ,
c (v, w) = (cv, cw) .

Pruebe que V × W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W.

6) Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las ope-
raciones:
⊕ : R+ × R+ → R+ : R × R+ → R+
,
x⊕y = x+y−3 c x = cx − 3c + 3

¿Es (R+ , ⊕, ) un R-espacio vectorial?

7) Pruebe que R es un espacio vectorial real con las operaciones x ⊕ y = x + y − 1, c x = cx −


c + 1. ¿Cuál es el neutro aditivo en este espacio vectorial? En este contexto, ¿qué significa
− x?
8) Sea V un K-espacio vectorial, S un conjunto y f : V → S una función biyectiva. Para cada
x, y ∈ S y para cada escalar c ∈ K defina las operaciones x ⊕ y = f f −1 ( x ) + f −1 (y) y


c x = f c f −1 ( x ) . Pruebe que S junto con estas operaciones es un K-espacio vectorial.




9) Describa algebraica y geométricamente el subespacio de R3 generado por (−1, −1, 1) T y


(−1, 2, 3)T .
10) Encuentre
 un conjunto
 finito de vectores que genere el espacio nulo de la matriz A =
1 1 −1 1
2 3 2 −1. Haga lo mismo para el espacio columna y renglón de A.
0 −2 5 1

11) Sea A ∈ K m×n . Pruebe que R( A) = h A∗1 , . . . , A∗n i y que R( A T ) = A1T∗ , . . . , Am


T .


12) Sea A ∈ K m×n . Pruebe que si W es un subespacio de K n , entonces A(W ) = { Ax | x ∈ W }


es un subespacio de K m . Pruebe que si W = hv1 , . . . , vr i, entonces A(W ) = h Av1 , . . . , Avr i.

9 Prof. Carlos J. Rubio


1. Espacios Vectoriales

x
13) Sea W un subespacio no nulo de R2 . Pruebe que W = R2 o bien W = { y ∈ R2 | ax + by =
0} para algunos a, b ∈ R.

14) Sean A ∈ K m×n y B ∈ K n× p . Pruebe que el espacio columna de AB está generado por
{ AB∗1 , . . . , AB∗ p }.
       
1 1 −1 3 0 1 0 0
15) Determine si los vectores v1 = , v2 = , v3 = y v4 =
1 1 0 4 3 −1 0 1
generan a R2×2 , el espacio de las matrices cuadradas de 2 × 2.

16) a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K [t]n que consta de los
polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios
K [ t ].
b) Determine cuáles de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = −2 − t − t2 ii) p(t) = 1 − 4t + t2 iii) p(t) = 10 − 2t + 8t2 .

17) Determine si R3 está generado por los vectores v1 = (2, 3, 1) T , v2 = (3, 4, 2) T , v3 =


(0, 1, 3)T y v4 = (1, 3, −1)T .
18) Sea V un espacio vectorial. Si B1 genera a U y B2 genera a W, pruebe que B1 ∪ B2 genera a
U + W, i.e., pruebe que hB1 ∪ B2 i = hB1 i + hB2 i.

19) En R3 , considere los subespacios:


n x  o n x  o
U= y | x+y+z = 0 y V= y | 2x − y + z = 0 .
z z

a) Describa explícitamente el subespacio U ∩ V.


b) ¿Es U ∪ V un subespacio de R3 ?
c) Verifique que R3 = U + V.

20) Sean A y B matrices con entradas en un campo K, de m × n y m × p, respectivamente. Pruebe


que el espacio columna de la matriz [ A | B] es la suma de los espacios columna de A y de B.
En símbolos, pruebe que R([ A | B]) = R( A) + R( B).

21) Determine cuáles de los siguientes subconjuntos de Rn×n son subespacios.

a) Las matrices simétricas.


b) Las matrices antisimétricas.
c) Las matrices no singulares.
d) Las matrices singulares.
e) Las matrices triangulares superiores.
f) Las matrices triangulares inferiores.
g) Las matrices idempotentes (una matriz es idempotente si A2 = A).
h) Las matrices cuya traza es cero.
i) Las matrices diagonales.

22) Sea V un espacio vectorial y sea W un subespacio de V. Defina la siguiente relación en V:

v ∼ w si v − w ∈ W.

Prof. Carlos J. Rubio 10 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Pruebe que ∼ es una relación de equivalencia. Denote con [v] la clase de equivalencia de
v ∈ V. Es decir [v] = {w ∈ V | w − v ∈ W } . Sea V/W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relación. Defina en V/W las
siguientes operaciones:
[v] + [w] = [v + w] ; c [v] = [cv] .
Pruebe que estas operaciones están bien definidas y que V/W es un espacio vectorial con
estas operaciones. V/W se denomina espacio vectorial cociente.

23) Sean W1 y W2 dos K-espacios vectoriales y sea V = W1 × W2 su producto directo. Sea W =


W1 × 0 = {(w1 , 0) | w1 ∈ W1 }. Pruebe que V/W = {W1 × w2 | w2 ∈ W2 }, es decir, pruebe
que cada elemento del espacio cociente V/W es [(w1 , w2 )] = W1 × w2 = {(w10 , w2 ) | w10 ∈
W1 }.

1.2. Dependencia lineal


1.2.1. Definición
En esta sección se estudia el concepto de dependencia e independencia lineal de vectores
en un K-espacio vectorial arbitrario.

Definición 1.2.1.

Sean V un K-espacio vectorial y v1 , . . . , vn vectores de V. Se dice que un vector v ∈ V


depende linealmente de los vectores vi ’s, si v se puede escribir como una combinación
lineal de los ellos.

Observación 1.2.2
El vector 0 de V depende linealmente, aunque de manera trivial, de cualquier conjunto
de vectores, pues 0 = 0v1 + 0v2 + · · · + 0vn . Dado un subconjunto S de vectores de V,
uno está interesado en determinar si el vector cero depende linealmente, de manera no
trivial, de los vectores de S.

Considere en el plano cartesiano los siguientes subconjuntos de vectores:


    
1 2
S1 = v1 =, v2 = ,
2 4
      
7 2 −19
S2 = w 1 = , w2 = , w3 = .
−4 9 92

El vector w = (−2, 62) T depende linealmente de los vectores wi ya que w = 3w1 − 2w2 + w3 . El
vector (0, 0) también depende linealmente de los vectores de S2 , ya que 0 = 0w1 + 0w2 + 0w3 .
Observe que el vector cero de R2 se puede escribir de manera no trivial como combinación
lineal tanto de v1 y v2 como de los vectores wi :

2v1 + (−1) v2 = 0,
5w1 − 8w2 + w3 = 0.

11 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Los vectores v1 = (−8, 4, 6, −10) T , v2 = (9, 6, −12, 18) T y v3 = (41, 4, −43, 67) T de R4
satisfacen una propiedad similar, es decir, el cero es una combinación lineal no trivial de ellos:

15v1 − 14v2 + 6v3 = 0.

Un último ejemplo, ahora con vectores de R [t]3 . Considere los polinomios p1 = 2 + 3t −


5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 . En este caso, se tiene que:

15p1 − 11p2 − 3p3 + 5p4 = 0.

Ahora bien, dada una colección de vectores no siempre es posible hallar una combinación
lineal no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar
una combinación lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el
polinomio cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:
 
c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2

entonces se debe cumplir:

c1 + c2 + c3 = 0,
c2 + c3 = 0,
c3 = 0,

lo cual implica que c1 = c2 = c3 = 0.


Con estos ejemplos queda ilustrado que dado un conjunto de vectores solamente hay dos
posibilidades:

a) Es posible hallar una combinación lineal no trivial de los vectores cuyo resultado sea el
vector cero, o
b) la única combinación lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.

Actividad de Aprendizaje 1.2.3


       
2 4 0 −6
3 0 1  6
1, v2 = 1, v3 = 0 y v4 = −1 elementos de R . Pruebe que v4
Sean v1 =         4

0 2 1 −1
depende linealmente de los vectores v1 , v2 y v3 .

1.2.2. Conjuntos linealmente independientes

Definición 1.2.4.

Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto no vacío S =


{v1 , . . . , vn } de vectores de V es linealmente dependiente si existen escalares c1 , . . . , cn
no todos cero tales que c1 v1 + · · · + cn vn = 0.

Prof. Carlos J. Rubio 12 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Se dice que S es linealmente independiente si

c1 v1 + · · · + cn vn = 0 =⇒ c1 = · · · = cn = 0.

Ejemplo 1.2.5
Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } ⊂ V. Que S sea linealmen-
te dependiente es equivalente a decir que existe al menos un vector v j ∈ S que de-
pende linealmente de los otros. En efecto, suponga que existen escalares c1 , . . . , cn con
c j 6= 0 tales que c1 v1 + · · · + cn vn = 0; entonces v j = ∑i6= j (c− 1
j ci ) vi . Recíprocamen-
te, si v j depende linealmente de los otros vectores de S y v j = ∑i6= j xi vi , entonces
x1 v1 + · · · + (−1)v j + · · · + xn vn = 0 y S es linealmente dependiente.

Aunque las definiciones de dependencia e independencia lineal se expresan en términos


de conjuntos finitos de vectores, podemos extender los conceptos a conjuntos infinitos de la
siguiente manera.

Definición 1.2.6.

Un conjunto S de vectores en un espacio vectorial V es linealmente dependiente si


contiene un subconjunto finito linealmente dependiente. Un conjunto de vectores que
no es linealmente dependiente se dice que es linealmente independiente.

Ejemplo 1.2.7
Demostremos que en el espacio vectorial de todos los polinomios con coeficientes reales,
R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente.
Para ello, supongamos por contradicción, que S es linealmente dependiente. Enton-
ces, existe un subconjunto finito T de S que es linealmente dependiente, digamos T =
{tm1 , tm2 , . . . , tmr } con m1 < m2 < · · · < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr
no todos cero tales que:

cm1 tm1 + cm2 tm2 + · · · + cmr tmr = 0.

Por definición un polinomio es cero, si y solo si todos sus coeficientes son cero. Por
lo tanto, cmi = 0 para i = 1, . . . , r, lo cual es una contradicción. Así, S es linealmente
independiente. Note que esta prueba es aplicable independientemente de la naturaleza
del campo K. 

Actividad de Aprendizaje 1.2.8

1) Suponga que los vectores v1 , v2 , v3 de un espacio vectorial V son linealmente inde-


pendientes. Pruebe que los vectores w1 = v1 , w2 = v1 + v2 , w3 = v1 + v2 + v3 son

13 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Actividad de Aprendizaje 1.2.8 (Continuación)


linealmente independientes. Pruebe que el recíproco también es cierto, esto es, prue-
be que si los vectores w1 = v1 , w2 = v1 + v2 y w3 = v1 + v2 + v3 son linealmente
independientes, entonces v1 , v2 y v3 también son linealmente independientes.
2) Sea V un R-espacio vectorial y sean v1 , v2 ∈ V vectores linealmente independientes.
Pruebe que los vectores w1 = 2v1 + 5v2 y w2 = v1 + 3v2 son linealmente indepen-
dientes.

3) Suponga que los vectores v1 , . . . , vr de K n son linealmente independientes. Pruebe


que si P ∈ K n×n es invertible, entonces los vectores Pv1 , . . . , Pvr son linealmente
independientes.

1.2.3. Propiedades de los conjuntos linealmente independientes


Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundan-
cias.

Ejemplo 1.2.9
En R [t]3 el conjunto 1 + t, 1 − t + t2 es linealmente independiente. En este caso, el


polinomio 5 − t + 3t2 se puede escribir como combinación lineal de 1 + t y 1 − t + t2 de


una única forma, a saber:
 
5 − t + 3t2 = 2 (1 + t) + 3 1 − t + t2 .

Esta afirmación se verifica fácilmente planteando el sistema correspondiente y cercio-


rándose que la solución es única.
Por otro lado, se mostró anteriormente que los vectores p1 = 2 + 3t − 5t2 , p2 =
−3 + 5t − 6t2 , p3 = −19 + 7t2 y p4 = −24 + 2t + 6t2 son linealmente dependientes.
El vector p = 15 − 6t + 3t2 se puede escribir como combinación lineal de estos vectores
de al menos dos maneras, por ejemplo:

p = p1 − p2 + 2p3 − 2p4
= 9p1 − 7p2 + 0p3 + p4 .

En el siguiente teorema se generaliza el resultado del ejemplo anterior.

Teorema 1.2.10
Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un espacio vec-
torial V. La representación de cada vector v ∈ hv1 , . . . , vn i como combinación lineal de
estos vectores es única.

Prof. Carlos J. Rubio 14 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Demostración. Supongamos que v se puede escribir de dos formas distintas como combinación
lineal de v1 , v2 , . . . , vn . Es decir:

v = c1 v1 + c2 v2 + · · · + c n v n ,
v = c10 v1 + c20 v2 + · · · + c0n vn .

Entonces, (c1 − c10 )v1 + (c2 − c20 )v2 + · · · + (cn − c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci − ci0 = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = ci0 para cada i = 1, 2, . . . , n y así la representación de v es única.
En el siguiente teorema se presentan otras propiedades importantes de los conjuntos lineal-
mente independientes.

Teorema 1.2.11
Sean V un K-espacio vectorial y S un subconjunto de V.
1) Si S0 ⊆ S y S0 es linealmente dependiente, entonces S es linealmente dependiente.

2) Si S es linealmente independiente y S0 ⊆ S, entonces S0 es linealmente independien-


te.
3) Si 0 ∈ S, entonces S es linealmente dependiente.
4) {v} ⊆ V es linealmente independiente si y solo si v 6= 0.

5) Sea v ∈ V. Si S es finito y linealmente independiente, entonces S ∪ {v} es linealmente


independiente si y solo si v ∈ / h S i.

Demostración.
1) Si S0 es linealmente dependiente, entonces S0 contiene un subconjunto finito linealmente
dependiente. Como S0 ⊂ S, se sigue que S contiene un subconjunto finito linealmente de-
pendiente y por lo tanto S es linealmente dependiente.
2) Es la contrapositiva de la proposición del inciso anterior.
3) Para todo c ∈ K con c 6= 0, tenemos que c · 0 = 0. Luego, el conjunto {0} ⊂ S es linealmente
dependiente y por lo tanto S es linealmente dependiente.
4) Demostraremos, de manera equivalente, que {v} ⊂ V es linealmente dependiente si y sólo
si v = 0. Según el inciso anterior, tenemos que si v = 0, entonces {v} es linealmente de-
pendiente. Supongamos entonces que {v} es linealmente dependiente. En este caso, existe
c ∈ K, c 6= 0, tal que c · v = 0. Luego, por el Teorema 1.1.6 se sigue que v = 0.
5) Sea S = {v1 , . . . , vn } linealmente independiente y sea v ∈ V. Demostraremos, de manera
equivalente, que S ∪ {v} es linealmente dependiente si y sólo si v ∈ hSi. En efecto, si S ∪ {v}
es linealmente dependiente, entonces existen escalares no todos cero c1 , . . . , cn , c tales que
c1 v1 + · · · + cn vn + cv = 0. Si c fuera cero, se tendría c1 v1 + · · · + cn vn = 0 y por lo tanto
c1 = · · · = cn = 0, pues S es linealmente independiente. Así, c 6= 0 y por tanto v =
− cc1 v1 − cc2 v2 − · · · − ccn vn ∈ hSi. Recíprocamente, si v ∈ hSi, entonces existen escalares
c1 , . . . , cn tales que v = c1 v1 + · · · + cn vn . Luego, v − c1 v1 − · · · − cn vn = 0 y por lo tanto,
S ∪ {v} es linealmente dependiente.

15 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Ejemplo 1.2.12
     
1 0 0 0 0 1
Determine si las matrices v1 = , v2 = y v3 = son linealmente
0 0 0 1 1 0
dependientes o independientes.
Supóngase que es posible hallar escalares c1 , c2 , c3 tales que:

c1 v1 + c2 v2 + c3 v3 = 0.

Esta ecuación implica que:    


c1 c3 0 0
= ,
c3 c2 0 0
y por tanto c1 = c2 = c3 = 0. Así los vectores dados son linealmente independientes.

Ejemplo 1.2.13
       
1 0 3 1
 −1  1  −5 1
 2, v2 = −3, v3 =  12 y v4 = 0 de R
Determine si los vectores v1 =         4

4 1 10 0
son linealmente dependientes o independientes.
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:

c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.

Entonces:     
1 0 3 1 c1 0
 −1 1 −5 1  c2  0
   =  .
 2 −3 12 0 c3  0
4 1 10 0 c4 0
Al resolver el sistema se tiene:
    
1 0 3 1 c1 0
0
 1 −2 2  c2  0
  =  .
0 0 0 4  c3  0
0 0 0 0 c4 0

Luego, el sistema tiene infinidad de soluciones, por ejemplo −3v1 + 2v2 + v3 + 0v4 = 0.
Por lo tanto el conjunto de vectores dado es linealmente dependiente.

Actividad de Aprendizaje 1.2.14


Sea V un espacio vectorial. Suponga que v1 , . . . , vn son vectores linealmente indepen-
dientes de V y que v es un vector que no pertenece al subespacio generado por los
vectores v1 , . . . , vn , es decir, v ∈
/ hv1 , . . . , vn i . Pruebe que {v1 , . . . , vn , v} es linealmente
independiente.

Prof. Carlos J. Rubio 16 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

1.2.4. Matrices y dependencia lineal


Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuándo las columnas de una matriz son linealmente independientes.

Teorema 1.2.15
Sea A ∈ K m×n . Las siguientes afirmaciones son equivalentes:
1) Las columnas de A son linealmente independientes.
2) N ( A) = {0}.
3) rango ( A) = n.

Demostración. La equivalencia de 2 y 3 es un resultado visto en el curso de Álgebra Superior II.


Demostraremos solo la equivalencia de 1 y 2.
Sea A = [ A∗1 , . . . , A∗n ] y supongamos que las columnas de A son linealmente independien-
tes. Sea x = ( x1 , . . . , xn ) T ∈ N ( A). Entonces:
 
x1
0 = Ax = [ A∗1 , . . . , A∗n ]  ...  = x1 A∗1 + · · · + xn A∗n ,
 

xn

de donde se sigue que x1 = · · · = xn = 0. Es decir, x = 0. Por lo tanto, N ( A) = {0}. Recí-


procamente, supongamos que N ( A) = {0}. Sean x1 , . . . , xn escalares tales que x1 A∗1 + · · · +
xn A∗n = 0. Esta igualdad es equivalente a la igualdad Ax = 0 donde x = ( x1 , . . . , xn ) T . Lue-
go, x ∈ N ( A) y por lo tanto x = 0. De aquí que x1 = · · · = xn = 0 y así, las columnas de A son
linealmente independientes.

Una consecuencia del teorema anterior es que cualquier conjunto de n vectores en K m es


linealmente dependiente si n > m, pues el sistema Ax = 0 asociado tiene más incógnitas que
ecuaciones y por lo tanto el sistema homogéneo tiene más de una solución.

Teorema 1.2.16
Sea A ∈ K n×n . Entonces, det( A) 6= 0 si y solo si las columnas de A son linealmente
independientes.

Demostración. Tenemos que

det( A) 6= 0 ⇔ A es no singular ⇔ rango( A) = n ⇔ las columnas de A son l.i.

17 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Actividad de Aprendizaje 1.2.17

1) Sea V un K-espacio
 vectorial. Sean β = {v1 , v2 } un conjunto linealmente indepen-
a b
diente y A = ∈ K2×2 una matriz invertible. Pruebe que { av1 + cv2 , bv1 + dv2 }
c d
es linealmente independiente.

2) Sea A ∈ K m×n una matriz de rango n. Pruebe que si los vectores v1 , . . . , vr de K n


son linealmente independientes, entonces Av1 , . . . , Avr son vectores linealmente in-
dependientes de K m .
3) Determine los valores de x para que el siguiente conjunto de R3 sea linealmente in-
dependiente:      
1 1 −1
2 ,  x − 1 ,  2 .
1 −1 1

4) Sean A ∈ K m×n , β = {w1 , . . . , wr } ⊂ K n linealmente independiente y h βi ∩ N ( A) =


{0}. Pruebe que los vectores Aw1 , . . . , Awr son linealmente independientes.

1.2.5. Ejercicios de Práctica


1) Sean v1 , v2 , . . . , vm en Rn vectores no nulos tales que viT v j = 0 para i 6= j. Pruebe que
{v1 , v2 , . . . , vm } es un conjunto linealmente independiente.
2) De una interpretación geométrica al hecho de que tres vectores no nulos v1 , v2 , v3 de R3 sean
linealmente independientes.

3) Sea W el subespacio de R3 generado por los vectores v1 = (1, 2, 1) T , v2 = (3, 6, 3) T ,


v3 = (4, 2, 1) T y v4 = (11, 4, 2) T . Pruebe que el conjunto S = {v1 , v2 , v3 , v4 } es linealmen-
te dependiente y que existe un subconjunto de S que es linealmente independiente y que
genera a W.
4) Sea V un espacio vectorial. Sean v1 , v2 , . . . , vk−1 , vk vectores distintos de V. Pruebe que
{v1 , . . . , vk } es linealmente dependiente si vk ∈ hv1 , v2 , . . . , vk−1 i. Pruebe que el recíproco
no es cierto.

5) Considere
√ el campo Q ( 2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que
{1, 2} es linealmente independiente.
6) Si {v1 , . . . , vn } es un conjunto linealmente dependiente

de vectores de un espacio V y v1 6= 0,
pruebe que existe un vector v j con j ≥ 2 tal que v j ∈ {v1 , . . . , v j−1 } .
7) Considere la matriz de Vandermonde de m × n:
1 x1 x12 . . . x1n−1
 
1 x2 x 2 . . .
2 x2n−1 
Vm×n =  . ∈ Cm × n
 
 .. .. .. .. 
. . ··· . 
1 xm 2
xm ... n −1
xm
donde xi 6= x j si i 6= j. Pruebe que si n ≤ m, entonces las columnas de Vm×n son linealmente
independientes. (Sugerencia: Suponga que N (Vm×n ) 6= {0}; encuentre un polinomio f ∈
C[t] de grado a lo más n − 1 tal que f ( xi ) = 0 para i = 1, . . . , m. Proceda por cuenta propia).

Prof. Carlos J. Rubio 18 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

8) Sean v1 , . . . , vn vectores de K m . Pruebe que si n > m, entonces {v1 , . . . , vn } es un conjunto


linealmente dependiente.

9) Pruebe que las columnas de una matriz cuadrada A ∈ Cn×n diagonalmente dominante1 son
linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N ( A) =
{0}. Para ello suponga que existe x 6= 0 tal que Ax = 0 y suponga que xk es la entrada de
magnitud máxima en x, es decir, | xk | ≥ | xi | para i = 1, 2, . . . , n. Estime el valor de | akk xk |
usando la desigualdad del triángulo y llegue a una contradicción).

10) Sea V el espacio vectorial de las matrices de tamaño 2 × 2 sobre el campo finito F p con p
número primo, y sea:
S = { A ∈ V | det( A) 6= 0}.

Demuestre que S tiene p( p − 1)2 ( p + 1) elementos. (Sugerencia. Dada A ∈ V, demuestre


que det( A) = 0 si y solo si los renglones de A son linealmente dependientes. Use esto para
calcular |S|).

1.3. Bases y dimensión


1.3.1. Definición de base de un espacio vectorial

Definición 1.3.1.

Sea V un espacio vectorial. Una base β para V es un subconjunto de V linealmente


independiente tal que V = h βi.

Ejemplo 1.3.2
En el espacio vectorial R[t]3 , el conjunto
n o
p1 = 2 + 3t − 5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 , p4 = −24 + 2t + 6t2

es linealmente dependiente, en tanto que el conjunto {1 + t, 1 − t + t2 } es linealmente


independiente, pero ninguno genera al espacio vectorial R [t]3 . De hecho,

h p1 , p2 , p3 , p4 i = { a + bt + ct2 | 7a + 27b + 19c = 0}

y
h1 + t, 1 − t + t2 i = { a + bt + ct2 | a − b − 2c = 0}.
Por otro lado, los conjuntos β = {1, t, t2 } y β0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan
a R[t]3 , siendo β una base, en tanto que β0 no.

1 Una matriz A ∈ Cn×n es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene | aii | > ∑ aij .

j 6 =i

19 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Ejemplo 1.3.3

Cada uno de los conjuntos β 1 = {e1 , e2 } y β 2 = {(−1, 1) T , (−1, 0) T es una base para R2 .
Cada uno genera a R2 y es linealmente independiente. En cambio, el conjunto {(1, 1) T }
no genera a R2 . Por ejemplo, e1 no es combinación lineal de (1, 1) T .

Ejemplo 1.3.4
     
1 0 0 0 0 1
El conjunto , , no es una base para R2×2 pues aunque el con-
0 0 0 1 1 0
junto es linealmente
  independiente, este no genera al espacio. Por ejemplo, es fácil veri-
1 2
ficar que no es combinación lineal de los vectores dados. El conjunto
−2 1
       
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

sí es una base para R2×2 .

Observación 1.3.5
El que una colección de vectores genere o no genere a un espacio vectorial, no está ligado
a la dependencia lineal o independencia lineal de estos.

Teorema 1.3.6
Sea V un espacio vectorial generado por un conjunto finito de m vectores v1 , . . . , vm .
Entonces todo conjunto linealmente independiente de vectores de V es finito y además
no contiene más de m elementos.

Demostración. Demostraremos de manera equivalente que todo subconjunto S de V que con-


tiene más de m vectores es linealmente dependiente. En efecto, sea S = {w1 , w2 , . . . , wn } con
n > m, un subconjunto de V. Como {v1 , v2 , . . . , vm } genera a V, existen escalares aij tales que:

m
w1 = a11 v1 + a21 v2 + · · · + am1 vm = ∑ ai1 vi ,
i =1
m
w2 = a12 v1 + a22 v2 + · · · + am2 vm = ∑ ai2 vi ,
i =1
..
.
m
wn = a1n v1 + a2n v2 + · · · + amn vm = ∑ ain vi .
i =1

Prof. Carlos J. Rubio 20 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Por otra parte, como n > m tenemos que el rango de la matriz A = ( aij ) es a lo más m y
por lo tanto el sistema homogéneo Ax = 0 tiene solución no trivial x = ( x1 , . . . , xn ) T . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que ∑nj=1 aij x j = 0 para cada i = 1, 2, . . . , m.
Luego:
n n m
x 1 w1 + · · · + x n w n = ∑ xj wj = ∑ xj ∑ aij vi
j =1 j =1 i =1
!
n m m n
= ∑ ∑ (aij x j )vi = ∑ ∑ aij x j vi = 0,
j =1 i =1 i =1 j =1

y por lo tanto, S es linealmente dependiente.

Corolario 1.3.7
Sea V un espacio vectorial no nulo con una base finita. Entonces toda base de V es finita
y cualesquiera dos bases tienen el mismo número de elementos.

Demostración. Como V tiene una base finita, digamos β, entonces V está generado por un nú-
mero finito de elementos. Si β0 es una base de V, de acuerdo con el Teorema 1.3.6, β0 tiene que
ser finito y además | β0 | ≤ | β|. Invirtiendo los papeles de β y β0 se concluye que | β| ≤ | β0 |.

Actividad de Aprendizaje 1.3.8

1) Dado el conjunto de vectores


       
 1 0 0 0 
S = 0 , 1 , 0 , 1 ,
0 0 1 1
 

determine el valor de verdad de las siguientes proposiciones. En cada caso debe jus-
tificar.
a) S es una base de R3 .
b) S es linealmente independiente pero no genera a R3 .
c) S es un conjunto generador de R3 pero no es linealmente independiente.
d) S no es linealmente independiente ni genera a R3 .
2) Encuentre una base para el subespacio vectorial de R4 generado por el conjunto
   1       
−1 − 2 1 1 
    2     −2   


− 1  ,  1 ,   ,  1  , 1 .
2

S=   2  2  −2   2 

 2 
−1 −1 2 2 1
 

3) Determine si el conjunto
   
 −6 18 
B =  5 ,  3
5 3
 

21 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Actividad de Aprendizaje 1.3.8 (Continuación)


es o no es una base para el espacio generado por el conjunto
     
 −4 1 1 
S =  −1 ,  −1 , 9 .
−1 −1 9
 

   
1 0
 0  0
4) Los vectores v1 = 
−1 y v2 =  1 son linealmente independientes. Determine
  

2 −2
un par de vectores v3 , v4 tales que β = {v1 , v2 , v3 , v4 } sea una base para R4 .

1.3.2. Definición de dimensión de un espacio vectorial


Uno de los invariantes más importantes asociados a un espacio vectorial es su dimensión.
El Corolario 1.3.7 permite definir la dimensión de un espacio vectorial como sigue.

Definición 1.3.9.

Sea V un K-espacio vectorial. Si V tiene una base finita β, la dimensión de V es el número


de elementos en β, es decir, dim V = | β|. Si V no tiene una base finita, se dice que V es
de dimensión infinita y se escribe dim V = ∞.

Observación 1.3.10
Si V es el espacio nulo, el único conjunto generador es {0}, el cual no es linealmente
independiente y por lo tanto este espacio vectorial no tiene una base. Se conviene que su
dimensión es cero y se escribe dim V = 0.

Ejemplo 1.3.11
Las dimensiones de los espacios vectoriales K n , K m×n y K [t]n , todos sobre el campo K,
son n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n .
Para el segundo caso, sea Eij la matriz que tiene un uno en la posición (i, j) y cero en
todas las demás posiciones. Entonces el conjunto:

Eij ∈ K m×n | i = 1, . . . , m; j = 1, . . . , n ,


es una base para K m×n . Finalmente, una base para K [t]n es 1, t, . . . , tn−1 . Nos referire-


mos a estas bases como las bases canónicas.

Prof. Carlos J. Rubio 22 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Ejemplo 1.3.12
El espacio vectorial R[t] no tiene bases finitas. En efecto, si alguna base fuera finita, de
acuerdo con el Teorema 1.3.6, el conjunto S = {t j | j = 0, 1, 2, . . . , } tendría que ser
finito, lo que es falso. Así, R[t] es un espacio vectorial de dimensión infinita. Observe
que S es una base para este espacio vectorial y que los conjuntos S y N tienen la misma
cardinalidad. Por lo tanto, dim R[t] = ∞.

Corolario 1.3.13
Sea V un espacio vectorial no nulo de dimensión finita y sea n = dim V. Entonces:

1) Todo subconjunto de V con más de n vectores es linealmente dependiente.

2) Ningún subconjunto de V con menos de n vectores puede generar a V.

Demostración. El inciso 1 se sigue del Teorema 1.3.6. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el
Teorema 1.3.6 implica que n ≤ m, lo cual es una contradicción. Por lo tanto, ningún subconjunto
de V con menos de n vectores puede generar a V.

Corolario 1.3.14
Sea V un espacio vectorial de dimensión n.

1) Todo conjunto linealmente independiente con exactamente n vectores de V, es una


base para V.
2) Todo conjunto generador de V compuesto de exactamente n vectores, es una base
para V.

Demostración. 1) Sea S ⊂ V un conjunto linealmente independiente con exactamente n vec-


tores. Supongamos que S no genera a V. Entonces, existe v ∈ V tal que v 6∈ hSi. Luego,
por el Teorema 1.2.11 inciso 5, tenemos que S ∪ {v} es linealmente independiente. Como
v 6∈ hSi, se sigue que v 6∈ S y por lo tanto S ∪ {v} es un conjunto linealmente independiente
con exactamente n + 1 elementos. Pero esto no puede ser, pues dim V = n. Por lo tanto, S
genera a V y así, S es base de V.

2) Supongamos que S = {v1 , . . . , vn } ⊂ V tiene exactamente n vectores y genera a V. Si S es


linealmente dependiente, entonces existe vi ∈ S que es combinación lineal de v1 , . . . , vi−1 ,
vi+1 , . . . , vn . Como todo vector de V es combinación lineal de v1 , . . . , vn , se sigue que todo
vector de V es combinación lineal de v1 , . . . , vi−1 , vi+1 , . . . , vn . Es decir, V está generado por
n − 1 vectores. Esto es una contradicción, pues por el corolario anterior ningún conjunto con
menos de n vectores puede generar a V. Por lo tanto, S es linealmente independiente y en
consecuencia, es una base para V.

23 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Teorema 1.3.15
Sea V un espacio de dimensión finita y sea W un subespacio de V. Entonces

1) W es de dimensión finita y dim W ≤ dim V.


2) Cualquier conjunto linealmente independiente de W es parte de una base para W.
3) dim W = dim V si y solo si W = V.

Demostración. Supongamos que dim V = n.


1) El resultado es inmediato si W es nulo. Sea S una base de W. Como W es un subespacio
de V, se sigue que S es un subconjunto linealmente independiente de V. Luego, por el
Teorema 1.3.6 se sigue que S es finito y tiene a lo más n elementos.
2) Sea S un subconjunto linealmente independiente de W, entonces S tiene a lo más n elemen-
tos. Extenderemos S a una base de W como sigue. Si S genera a W, entonces S es una base
de W y terminamos. Si S no genera a W, entonces existe un vector v1 ∈ W tal que v1 6∈ hSi y
por el Teorema 1.2.11 inciso 5, el conjunto S1 = S ∪ {v1 } ⊂ W es linealmente independiente.
Si S1 genera a W terminamos. Si no, aplicamos nuevamente el Teorema 1.2.11 inciso 5, para
obtener un vector v2 ∈ W tal que S2 = S1 ∪ {v2 } ⊂ W es linealmente independiente. Con-
tinuando de esta forma, obtenemos un conjunto Sm = S ∪ {v1 , . . . , vm } ⊂ W linealmente
independiente que genera a W con a lo más dim V = n elementos. Por lo tanto, S es parte
de una base (finita) Sm de W.
3) Si W = V, es claro que dim W = dim V. Recíprocamente, si las dimensiones de W y V son
iguales, de acuerdo con el Corolario 1.3.14, cualquier base β de W tiene que ser una base
para V y por lo tanto W = h βi = V.

Observación 1.3.16

1) La parte 2 del teorema anterior dice que todo conjunto linealmente independiente de
un espacio vectorial de dimensión finita, puede extenderse a una base.
2) Si V no es de dimensión finita y W es un subespacio de V, puede suceder que
dim W = dim V y que W 6= V. (Véase el Ejercicio 9).

Ejemplo 1.3.17
Extienda el conjunto {1 + t, 1 − t} a una base para R[t]3 .
Primero advierta que {1 + t, 1 − t} es linealmente independiente (¿por qué?). Como
dim R[t]3 = 3, necesitamos un tercer vector que no sea linealmente dependiente con
los primeros dos. Podríamos proceder mediante el método de ensayo y error. También
se puede proceder como en el teorema anterior, es decir, añadiendo un vector que no
esté en el espacio generado por estos vectores. Sin embargo, en la práctica es más fácil
proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la
inclusión de la base canónica de R[t]3 , lo cual nos da:
S = {1 + t, 1 − t, 1, t, t2 }.
Ahora, S es linealmente dependiente según el Corolario 1.3.13, de modo que necesita-

Prof. Carlos J. Rubio 24 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

mos descartar algunos vectores (en este caso, dos). Debido a que 1 = 12 (1 + t) + 12 (1 − t),
el conjunto {1 + t, 1 − t, 1} es linealmente dependiente, de manera que eliminamos el
1. En forma similar, t = 21 (1 + t) − 21 (1 − t), de modo que {1 + t, 1 − t, t} también es
linelamente dependiente. Por último verificamos que {1 + t, 1 − t, t2 } es linealmente in-
dependiente (¿puede pensar en una forma rápida para sustentar esta afirmación?). Por
lo tanto, {1 + t, 1 − t, t2 } es una base para R[t]3 que extiende a {1 + t, 1 − t}.

Ejemplo 1.3.18 Función de coordenadas


Sea V un espacio vectorial de dimensión finita sobre un campo K. Una base ordenada
β = {v1 , . . . , vn } de V es una base de V en la que se considera un orden fijo y bien
definido, indicado por las posiciones relativas de los vectores en β. Por ejemplo, en el
espacio vectorial R3 las bases β 1 = {e1 , e2 , e3 } y β 2 = {e2 , e3 , e1 } son bases ordenadas
diferentes, a pesar de que se trata del mismo conjunto. Si β = {v1 , . . . , vn } es una base
ordenada de V, para cada v ∈ V existe exactamente un vector ( x1 , . . . , xn ) T ∈ K n tal
que v = x1 v1 + · · · + xn vn . Al vector ( x1 , . . . , xn ) T se le llama vector de coordenadas de
v en la base ordenada β y es denotado por [v] β . La asignación v 7→ [v] β , establece una
función [ ] β : V → K n denominada función de coordenadas.
Si V = R[t]3 y β = {1, 1 + t, 1 + t + t2 }, entonces el vector de coordenadas del polinomio
p = 3 + 2t − 5t2 en la base β es [ p] β = (1, 7, −5) T y la función de coordenadas [ ] β :
R[t]3 → R3 está definida por [ a + bt + ct2 ] β = ( a − b, b − c, c) T .

Actividad de Aprendizaje 1.3.19

1) Sea V el espacio vectorial de las matrices 2 × 2 sobre el campo K. Demuestre que V


tiene dimensión 4, encontrando una base de V que tenga cuatro elementos.
2) Con referencia al ejercicio anterior, encuentre una base { A1 , A2 , A3 , A4 } de V, de mo-
do que A2j = A j para j = 1, 2, 3, 4.

3) Sean V = R[t] y W = { a + bt + ct2 + dt3 ∈ R[t] | a + d = 0}. Verifique que W es un


subespacio vectorial de V, mostrando que W está generado por un número finito de
vectores. Calcule la dimensión de W.
  
a b 2×2
4) Sea W = ∈R | a + b − c + d = 0, a − b + c − d = 0 .
c d

a) Pruebe que W es un subespacio de R2×2 .


b) Calcule la dimensión de W.
5) Demuestre, con un contraejemplo, que la siguiente afirmación es falsa: Si W 6= {0} es
un subespacio de R4 y β es una base de R4 , entonces algún subconjunto de β es base de W.
6) Sea V un espacio vectorial. Si V está generado por un número finito de vectores,
demuestre que V es de dimensión finita.

25 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Actividad de Aprendizaje 1.3.19 (Continuación)


   
0 1 1 1
7) Extienda el conjunto linealmente independiente , a una base para
0 1 0 1
R2×2 .
8) Sea V un espacio vectorial de dimensión finita sobre un campo K y sea β =
{v1 , . . . , vn } una base de V. Pruebe que la función de coordenadas con respecto a
la base β (ver Ejemplo 1.3.18) es una función lineal biyectiva, es decir, pruebe que:

a) [v + w] β = [v] β + [w] β para cualesquiera v, w ∈ V.


b) [cv] β = c [v] β para cualquier c ∈ K y v ∈ V.
c) [v] β = 0 si y solo si v = 0.
d) Para cada x ∈ K n , existe exactamente un vector v ∈ V tal que x = [v] β .

9) Sean V = R[t] y W = {tp(t) | p(t) ∈ V }. Demuestre que W es un subespacio de V


tal que dim W = dim V y W 6= V. ¿Contradice esto el Teorema 1.3.15?

1.3.3. Ejercicios de Práctica


1) Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espa-
cios fundamentales
1 1
 
−1 1 2 − 2 −1

2 −2 1 −1

 −1 1 −1 −1 −1
1 − 21 1

 ,  −1 .
 2 −2 −1 1 2 2
1 1
1 −1 2 −2
1 −1 1 1 1

2) Determine si los siguientes vectores son linealmente independientes o linealmente depen-


dientes, en el correspondiente espacio vectorial.
    
1 2 1
 2  −1  1
a) En R , 
4
 −1 ,  1 ,  −2.
    

1 −1 −1
     
1 4 −7
b) En R3 ,  2 ,  8 , −14.
−1 −4 −7
c) En R2×2 ,
 √     −3     
1 2 1850 −10 e 2 π −4 14 1
, , , , .
2 3 5 23 5 −1 0 2 − ln 5 1

3) Sean V un K-espacio vectorial de dimensión 2 y β0 = {w1 , w2 } una base de V.

a) Si β = {v1 , 
v2 } esuna base de V y v1 = aw1 + bw2 y v2 = cw1 + dw2 , pruebe que la
a b
matriz A = es invertible.
c d

Prof. Carlos J. Rubio 26 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

 
a b
b) Suponga que A = ∈ K2×2 es una matriz invertible. Defina v1 = aw1 + cw2 y
c d
v2 = bw1 + dw2 . Pruebe que {v1 , v2 } es una base de V.
4) Sea V un K-espacio vectorial de dimensión n. Sea β = {v1 , . . . , vn } una base de V y sean
a1 , . . . , an ∈ K con a1 · · · an 6= 0. Pruebe que β0 = { a1 v1 , . . . , an vn } es una base de V.
5) Suponga que A ∈ K m×n es una matriz de rango n. Pruebe que si v1 , . . . , vr ∈ K n son vec-
tores linealmente independientes, entonces Av1 , . . . , Avr son vectores de K m linealmente
independientes.
6) Sea A ∈ K m×n . Suponga que {v1 , . . . , vs , vs+1 , . . . , vr } ⊂ K n es un conjunto de vectores li-
nealmente independiente tal que {v1 , . . . , vs } es una base para N ( A). Pruebe que el conjunto
{ Avs+1 , . . . , Avr } es linealmente independiente.
7) Sean A ∈ K m×n y W un subespacio de K n . Pruebe que si W ∩ N ( A) = {0}, entonces
dim A(W ) = dim W, donde A(W ) = { Aw | w ∈ W }.
8) Sean β = {v1 , v2 , v3 , v4 } una base para un R-espacio vectorial V y W el subespacio de V
generado por
w1 = v 1 + 4 v 2 + 3 v 3 + 2 v 4
w2 = 2 v 1 + 8 v 2 + 6 v 3 + 4 v 4
w3 = 2 v 2 + 2 v 3 + 2 v 4
w4 = 3 v1 + 10 v2 + 7 v3 + 4 v4
Determine una base para W. ¿Cuál es la dimensión de W?
9) Extienda el conjunto linealmente independiente {1 + t, 1 + t + t2 } a una base para R[t]3 .
     
1 0 0 1 0 −1
10) Extienda el conjunto linealmente independiente , , a una base
0 1 1 0 1 0
para R .
2 × 2

11) Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.
12) Sea V el espacio vectorial de todas la matrices reales de 2 × 2. Determine una base para el
subespacio W = { A ∈ V | A = − A T }.
13) Determine una base y la dimensión del espacio vectorial real V = A ∈ R3×3 | A = − A T .


14) Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K2×2 .
a) El subespacio de todas la matrices cuya traza es cero.
b) El subespacio de todas matrices simétricas.
Generalice el resultado a matrices de n × n.
15) Sea V el conjunto de los números reales. Considere V como un espacio vectorial sobre el
campo de los números racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensión finita.
16) Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V/W = 2. (Sugerencia: Si
f (t) ∈ V, por el algoritmo de la división para polinomios, f (t) = (t + 2)2 q(t) + r (t), donde
r (t) es un polinomio de grado menor que 2. Entonces f (t) − r (t) ∈ W).
Para la definición de espacio cociente, consulte el Ejercicio 22 de la Sección 1.1.

27 Prof. Carlos J. Rubio


1. Espacios Vectoriales

17) Sea V un espacio vectorial de dimensión finita y sea W un subespacio de V. Demuestre


que dim V/W = dim V − dim W. (Sugerencia: Sea {w1 , . . . , wr } una base para W y sean
wr+1 , . . . , wn ∈ V tales que {w1 , . . . , wn } es una base para V. Pruebe que {[wr+1 ], . . . , [wn ]}
es una base para V/W.)

1.4. Espacios fundamentales de una matriz


Si A es una matriz de K m×n , existen cuatro espacios fundamentales asociados a A. Dos de
estos espacios son subespacios de K n y los otros dos de K m .

Definición 1.4.1.

Sea A ∈ K m×n . Consideremos los siguientes conjuntos:

R ( A) = {b ∈ K m | ∃ x ∈ K n , b = Ax } .
N ( A) = { x ∈ K n | Ax = 0} .
  n o
N AT = y ∈ Km | AT y = 0 .
  n o
R AT = x ∈ Kn | ∃ y ∈ Km , x = AT y .

Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquier-
do y espacio renglón, respectivamente, de A. Estos cuatro conjuntos son los espacios
fundamentales de A.

Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones li-
neales. Dada una matriz A es natural preguntarnos para cuáles b’s el sistema de ecuaciones
Ax = b tiene solución. En el caso del espacio nulo, este simplemente es el conjunto de todas
las soluciones del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema
Ax = b, entonces el conjunto de todas sus soluciones se obtiene sumando a la solución parti-
cular cada elemento del espacio nulo de A. Más precisamente, la solución general del sistema
no homogéneo Ax = b, donde rango( A) = r, es de la forma:
x = x0 + x f1 h1 + · · · + x f n−r hn−r , con x f1 , . . . , x f n−r escalares,
donde x0 es una solución particular del sistema Ax = b y x f1 h1 + · · · + x f n−r hn−r es la solución
general del sistema Ax = 0.
Más adelante veremos que cada vector de Rn se puede escribir de manera única como un vector
del espacio nulo de A más un vector del espacio renglón de A. Una situación similar sucede en
Rm .

Actividad de Aprendizaje 1.4.2

1) Determine los espacios fundamentales de la matriz


 
1 2 4 3
.
0 0 1 3

2) Sea A ∈ R3×3 no singular. Determine los espacios fundamentales de A.


3) Sean A y B matrices de m × n y P una matriz invertible tal que A = PB. Demuestre
que:

Prof. Carlos J. Rubio 28 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Actividad de Aprendizaje 1.4.2 (Continuación)

a) R( A T ) = R( B T ).
b) N ( A) = N ( B).

1.4.1. Bases y dimensiones de los espacios fundamentales de una matriz


El siguiente teorema nos dice cómo determinar bases para los espacios fundamentales de
una matriz A y cuáles son las dimensiones de cada uno de dichos espacios.

Teorema 1.4.3
Sea A ∈ Rm×n una matriz de rango r y sea P una matriz no singular tal que PA = U,
donde U es una forma escalonada de A. Sean H = {h1 , . . . , hn−r } el conjunto de las hi ’s
que aparecen en la solución general del sistema Ax = 0. Entonces:

i) Las columnas básicas de A forman una base para R ( A). Además R( A) = N ( P2 )


donde P2 está formado por los últimos m − r renglones de P.
ii) R( A T ) = R(U T ) y las r columnas diferentes de cero de U T forman una base para
R AT .

iii) N ( A T ) = R( P2T ) y las últimas m − r columnas de P2T forman una base para N A T .


iv) El conjunto H es una base para N ( A).

Además:

dim R( A) = dim R( A T ) = r, dim N ( A T ) = m − r, dim N ( A) = n − r.

n o
Demostración. i) Demostraremos que el conjunto β = A∗ f1 , . . . , A∗ f r es una base para el
espacio columna de A, donde A∗ f1 , . . . , A∗ f r son las columnas básicas A. Cada columna
de A pertenece al espacio columna de A puesto que Ae j = A∗ j . En particular β ⊆ R ( A)
y por lo tanto h βi ⊆ R ( A). Por otro lado, si b ∈ R ( A), entonces existe x = ( x1 , . . . , xn ) T
tal que Ax = b. Luego, b = x1 A∗1 + · · · + xn A∗n . Es decir, todo elemento de R( A) es
combinación lineal de las columnas de A. Como toda columna no básica de A se puede
escribir como combinación lineal de las columnas básicas de A, de sigue que b también es
combinación lineal de las columnas básicas de A. De aquí que R( A) ⊆ h βi y así R( A) =
h βi. Esto prueba que β es un conjunto que genera al espacio columna de A. Por otro lado,
si β no fuera linealmente independiente, entonces algún elemento de β sería combinación
lineal del resto de las columnas de A, y este elemento no sería columna básica de A,
lo cual es una contradicción. Luego β es linealmente independiente. Así, las columnas
básicas de A constituyen una base para el espacio columna de A y dim R ( A) = r.
Veamos que R( A) = N ( P2 ), donde P2 está formado por los últimos m − r renglones de
P. Ahora bien, y ∈ R( A) si y solamente si el sistema de ecuaciones lineales Ax = y tiene
solución; esto último sucede si y solamente si al reducir [ A | y] nunca aparece un renglón
de la forma 0 0 · · · 0 | α con α 6= 0. Al completar el proceso de reducción se tiene
PAx = Py, es decir Ux = Py. Comparando las últimas m − r entradas en cada lado de la
igualdad se tiene que Ax = y tiene solución si y solamente si P2 y = 0.

29 Prof. Carlos J. Rubio


1. Espacios Vectoriales

ii) Usando el hecho de que rango( A) = rango( A T ) y lo demostrado en el inciso anterior tene-
mos que:
dim R( A T ) = rango( A T ) = rango( A) = dim R( A) = r.
A continuación se prueba que R A T = R U T . En efecto, si y ∈ R A T , entonces
  
T T
y = A T z para algún z. Como A T = P−1 U = U T P−1 , entonces y = U T x, donde
T
x = P−1 z y por lo tanto y ∈ R U T . Recíprocamente, si y ∈ R(U T ), entonces y =


U T z para algún z. Luego, y = ( PA) T z = A T P T z = A T x, donde x = P T z, y de aquí




y ∈ R ( A T ).
Si b ∈ R(U T ), entonces existen escalares x1 , . . . , xm tales que x1 U1T∗ + · · · + xm Um
T = b.

Luego, cada elemento de R(U ) es combinación lineal de todas las columnas de U T y
T

por lo tanto, es combinación de las r columnas diferentes de cero de U T . Es decir, las r


columnas diferentes de cero de U T generan al espacio renglón de A, y de acuerdo con el
Corolario 1.3.14 (2), estos r vectores constituyen una base.
iii) Escribamos las matrices P, P−1 y U en forma de bloques. Es decir:
   
P1 −1
 U1
P= , P = Q1 Q2 , U= ,
P2 0
donde P1 tiene tamaño r × m, P2 tiene tamaño (m − r ) × m, Q1 tiene tamaño m × r, Q2
tiene tamaño m × (m − r ) y U1 tiene tamaño r × n. Como det P T = det ( P) 6= 0, los
renglones de P son linealmente independientes. En particular los m − r renglones de P2
son linealmente independientes. Es claro que estos m − r vectores generan a R( P2T ), y por
lo tanto constituyen una base para R( P2T ). Demostraremos que N A T = R P2T y esto
 

concluirá la prueba. Se tiene


 
 U1
A = P −1 U = Q 1 Q 2 = Q1 U1 ⇒ A T = U1T Q1T
0
 
 P1
I = P −1 P = Q 1 Q 2 = Q1 P1 + Q2 P2 ⇒ I = P1T Q1T + P2T Q2T
P2
Sea y ∈ N A T ; entonces A T y = 0 o equivalentemente U1T Q1T y = 0, de tal manera que


Q1T y ∈ N (U1T ) Pero N U1T = {0}, pues rango(U1T ) = rango(U1 ) = r. Luego Q1T y = 0.


Ahora bien
y = Iy = P1T Q1T y + P2T Q2T = P2T Q2T y = P2T ( Q2T y)
cy queda probado que y ∈ R( P2T ).
Para demostrar la otra inclusión sea y ∈ R P2T . Entonces y = P2T x para algún x. Observe


que
       
P1 U1 P1 A U1
PA = U ⇒ A= ⇒ = ⇒ P2 A = 0
P2 0 P2 A 0
Así que A T y = A T P2T x = ( P2 A) T x = 0T x = 0 y queda probado que y ∈ N ( A T ). y
R( P2T ) ⊆ N ( A T ). Por lo tanto, N ( A T ) = R( P2T ) y dim N ( A T ) = m − r.
iv) Haciendo B = A T en el inciso anterior, tenemos que:
 
dim N ( A) = dim N B T = n − rango ( B) = n − rango( B T ) = n − r.

Como H es un conjunto generador de N ( A) y tiene exactamente n − r elementos, del


Corolario 1.3.14 (2) se sigue que H es una base para N ( A) y así dim N ( A) = n − r.

Prof. Carlos J. Rubio 30 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Ejemplo 1.4.4
 
1 2 2 3
Calcular bases para N ( A), R( A), N ( A T ) y R( A T ), si A = 2 4 1 3.
3 6 1 4
Usando el Teorema 1.4.3, primero se calcula una matriz invertible P tal que PA = U,
donde U en este caso es la forma escalonada reducida de A.
   
1 2 2 3 1 0 0 1 2 0 1 0 −1 1  
U1 P1
[A | I] =  2 4 1 3 0 1 0  →  0 0 1 1 0 3 −2  = .
0 P2
3 6 1 4 0 0 1 0 0 0 0 1 −5 3

Una base para el espacio columna de A son las columnas 1 y 3 de A. También se tiene
que R( A) = N ( P2 ). Así R( A) = h A∗1 , A∗3 i = {y ∈ R3 | y1 − 5y2 + 3y3 = 0}. Una base
para el espacio renglón de A la constituyen los vectores 1 y 2 de U. Una base para el
espacio nulo izquierdo de A es {(1, −5, 3) T }. Finalmente, una base para el espacio nulo
de A es el conjunto de generadores de N ( A):
D E
N ( A) = { x ∈ R4 | x1 = −2x2 − x4 , x3 = − x4 } = (−2, 1, 0, 0) T , (−1, 0, −1, 1) T .

Actividad de Aprendizaje 1.4.5

1) Encuentre bases para cada uno de los cuatro espacios fundamentales asociados a la
matriz
    
1 −2 0 4 2 1 0 0 1 −2 0 4 2
A= 2 −4 1 13 7  =  2 1 0   0 0 1 5 3 .
4 −8 1 21 11 4 1 1 0 0 0 0 0

2) Encuentre bases para los espacios fundamentales asociados a la matriz:


 
1 2 0 2 1
A = 0 0 1 3 3 .
0 0 0 0 0

1.4.2. Ejercicios de Práctica


1) Sea β = {v1 , . . . , vn } una base ordenada del K-espacio vectorial V.
a) Pruebe que si el subconjunto {w1 , . . . , wm } de V es linealmente independiente, entonces
también el conjunto {[w1 ] β , . . . [wm ] β } es linealmente independiente.
b) Suponga que los vectores X1 , . . . , Xn de K n son linealmente dependientes; sean w1 , . . . , wm
vectores de V tales que [wi ] β = Xi . Pruebe que {w1 , . . . , wm } es linealmente dependiente.
c) Sea W un subespacio de V de dimensión d. Pruebe que la imagen de W bajo la función
vector de coordenadas es un subespacio de K n de dimensión d.
2) Considere las siguientes bases de R2 :
       
1 2 0 1 1
B= , , B = , .
3 5 0 1

31 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Encuentre una matriz P ∈ R2×2 tal que [v]B = P[v]B 0 para todo v ∈ R2 .
3) Considere
  C2 como
 espacio
 vectorial real, es decir, la multiplicación por escalar está dada
z1 cz1
por c · = , donde c es un número real. Calcule la dimensión de este espacio
z2 cz2
vectorial.
4) Sea V un espacio vectorial complejo de dimensión n ≥ 1. Como el conjunto de los núme-
ros reales es un subconjunto de los números complejos, V se puede considerar un espacio
vectorial real (vea el ejercicio anterior). Pruebe que V es de dimensión finita y calcule su
dimensión.
5) Sea V el subespacio de R2×2 formado por las matrices anti-simétricas. ¿Cuál es la dimensión
de V? Encuentre una base para V.
6) Sea K un subcampo del campo de los números complejos. Si K es de dimensión finita como
Q-espacio vectorial y α ∈ K, pruebe que α satisface un polinomio con coeficientes raciona-
les.
7) Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
por (t − 1)2 . Pruebe que W es un subespacio de V y que V/W es un espacio de dimensión
finita. Además, pruebe que la dimensión de V/W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la división para polinomios).

1.5. Suma directa


1.5.1. Definición de suma directa
En esta sección se presentarán algunos resultados concernientes a sumas e intersección de
subespacios.
A partir de los subespacios U y W de un espacio V, se construyen los subespacios intersec-
ción y suma. La intersección es la intersección conjuntista

U ∩ W = {v ∈ V | v ∈ U, v ∈ W }.

La suma es el conjunto

U + W = {u + w ∈ V | u ∈ U, w ∈ W } .

Teorema 1.5.1
Si U y W son subespacios de un espacio vectorial V, entonces U ∩ W y U + W son subes-
pacios de V. Además, U ∩ W es el subespacio más grande contenido en U y en W. La
suma de U y W es el subespacio más pequeño que contiene a U ∪ W .

Demostración. Que la intersección y la suma son subespacios se deduce inmediatamente del


Teorema 1.1.9 y las respectivas definiciones. Si S es un subespacio de V de contenido en U y W,
claramente S está contenido en su intersección. Sea ahora S un subespacio de V que contiene a
U y a W. Dado u + w ∈ U + W, como u ∈ U y w ∈ W, se tiene que u, w ∈ S y como S es un
subespacio u + w ∈ S. Así, U + W ⊂ S.

Prof. Carlos J. Rubio 32 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Ejemplo 1.5.2
Sean U y W los subespacios de R2 generados por u = (1, 1) T y w = (−1, 2) T , respec-
tivamente. Si v ∈ U ∩ W, entonces v = a(1, 1) T = b(−1, 2) T . Esto conduce al sistema
a + b = 0 y a − 2b = 0 cuya única solución es a = b = 0. Luego U ∩ W = {0}. Por otro
lado, cada elemento de U + W es de la forma au + bw, es decir U + W = hu, wi; dado
que u y w son linealmente independientes se sigue que forman una base para R2 y se
tiene R2 = U + W.

Ejemplo 1.5.3
Ahora se describe la intersección y la suma de los subespacios U = {( x, y, z) T ∈ R3 |
x + y + z = 0} y W = {( x, y, z) T ∈ R3 | 2x − y + z = 0}. Dado que U y W son planos
distintos, su intersección debe ser una recta. Es claro que U ∩ W es el conjunto solución
del sistema homogéneo formado por las ecuaciones que definen a los subespacios. Re-
solviendo el sistema se tiene que U ∩ W = (−2, −1, 3) T . Para describir el espacio suma

es útil tener bases de U y W:


*   + *   +
−1 −1 1 0
U =  1 ,  0 = h u1 , u2 i , W =  2  ,  1  = h w1 , w2 i .
0 1 0 1

Luego U + W = { a1 u1 + a2 u2 + b1 w1 + b2 w2 | a1 , a2 , b1 , b2 ∈ R}. Llevando la matriz A =


[u1 , u2 , w1 , w2 ] a su forma escalonada reducida, obtenemos que w2 = (−1/3)u1 + u2 +
(2/3)w1 y, por lo tanto, u1 , u2 , w1 es linealmente independiente. Luego, R3 = U + W.

Cuando U y W son subespacios de dimensión finita, entonces también lo será la suma de


ellos (aún cuando V no sea de dimensión finita).

Teorema 1.5.4
Sean U y W dos subespacios de dimensión finita de un espacio vectorial V. Entonces,
U + W es de dimensión finita y:

dim (U + W ) = dim U + dim W − dim (U ∩ W ) .

Demostración. Tenemos que U ∩ W es subespacio tanto de U como de W. Supongamos que


dim U = m, dim W = n y dim(U ∩ W ) = r. Supongamos, además que {v1 , . . . , vr } es una base
para U ∩ W. Extendamos este conjunto linealmente independiente en U y en W, a una base de
U y a una base de W:

{ v1 , . . . , v r , u1 , . . . , u m −r } base para U,
{ v 1 , . . . , v r , w1 , . . . , w n − r } base para W.

Sea β = {v1 , . . . , vr , u1 , . . . , um−r , w1 , . . . , wn−r }. Notemos que β tiene m + n − r elementos.


Luego, bastará demostrar que β es base para U + W. Como el conjunto {vi , u j } genera a U y el

33 Prof. Carlos J. Rubio


1. Espacios Vectoriales

conjunto {vi , wk } genera a W, la unión β = {vi , u j , wk } generará a U + W. Por lo tanto, basta


demostrar que β es linealmente independiente. Supongamos que:

a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r + c1 w1 + · · · + cn−r wn−r = 0,

donde ai , b j y ck son escalares. Sea:

v = a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r .

De la primera igualdad, tenemos también que:

v = − c 1 w1 − · · · − c n − r w n − r .

Como {vi , u j } ⊆ U, la segunda igualdad implica que v ∈ U; y como {wk } ⊆ W, la tercera


igualdad implica que v ∈ W. Así, v ∈ U ∩ W. Ahora bien, {vi } es base para U ∩ W, por lo que
existen escalares d1 , . . . , dr tales que v = d1 v1 + · · · + dr vr . Usando esta relación junto con la
tercera igualdad, tenemos que:

d1 v1 + · · · + dr vr + c1 w1 + · · · + cn−r wn−r = 0.

Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aquí que
la última igualdad implique que c1 = · · · = cn−r = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:

a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r = 0.

Pero {vi , u j } es una base para U y por lo tanto es linealmente independiente. Luego, a1 =
· · · = ar = 0 y b1 = · · · = bm−r = 0. Por lo tanto, β es linealmente independiente y es base para
U + W.

Ejemplo 1.5.5

Considere nuevamente los subespacios U = {( x y z) T ∈ R3 | x + y + z = 0} y W =


{( x y z)T ∈ R3 | 2x − y + z = 0} del Ejemplo 1.5.3. La dimensión de U + W es 3, lo cual
es consistente con el Teorema 1.5.4, ya que dim U = dim W = 2 y dim U ∩ W = 1.
Dado que R3 = U + W, todo vector de R3 se puede escribir como la suma de un vector
de U y uno de W. Sin embargo, esta representación no es única, ya que:
         
−6 −3 −3 −1 −5
 0 =  2 +  −2 =  3 +  −3 .
5 1 4 −2 7

Ejemplo 1.5.6
Considere ahora los subespacios

U = {( x, y, z) T ∈ R3 | x + y + z = 0, x − y + z = 0}
W = {( x, y, z) T ∈ R3 | x − y − z = 0, x − y + z = 0}

Un cálculo sencillo muestra que U está generado por u1 = (−1, 0, 1) T y W por w1 =


(1, 1, 0)T . Cada vector v ∈ U + W se escribe de la forma u + w, con u ∈ U y w ∈ W. Más

Prof. Carlos J. Rubio 34 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

aún, esa representación es única, pues si v = au1 + bw1 = a0 u1 + b0 w1 , se obtiene que


( a − a0 )u1 + (b − b0 )w1 = 0. Como los vectores u1 y w1 son linealmente independientes
se concluye que a = a0 y b = b0 . Observe que la independencia lineal de u1 y w1 también
implica que U ∩ W = {0} y por tanto, la dimensión de U + W es 2.

Definición 1.5.7.

Sean U y W subespacios de un espacio vectorial V. Se dice que V 0 es la suma directa


(interna) de los subespacios U y W si V 0 = U + W y cada vector v ∈ V 0 se escribe en
forma única como unLelemento de U más uno de W. Cuando V 0 es suma directa de U y
W se escribe V 0 = U W.

Por ejemplo, la suma de los subespacios del Ejemplo 1.5.5 no es directa, en tanto que la
suma de los subespacios del Ejemplo 1.5.2 sí lo es.

Actividad de Aprendizaje 1.5.8

1) Sea β = {v1 , v2 , v3 , v4 } una base para el R-espacio vectorial V. Sea U el subespacio


generado por los vectores v1 − v4 y v2 − v3 ; sea W el subespacio generado por los
vectores v1 + v4 y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa,
pruébelo. En caso contrario, explique por qué la suma no es directa.
2) Sea β = {v1 , v2 , v3 , v4 , v5 } una base para el R-espacio vectorial V. Sea U el subespacio
generado por los vectores v1 − v2 y −v3 + v4 ; sea W el subespacio de generado por los
vectores v1 + v4 y v2 + v3 . ¿Es la suma de U y W directa? Si la respuesta es afirmativa,
pruébelo. En caso contrario, explique por qué la suma no es directa.

1.5.2. Caracterización de la suma directa

Teorema 1.5.9
L
Sea V un espacio vectorial y sean U, W subespacios de V. Entonces V = U W si y solo
si V = U + W y U ∩ W = {0} .

L
Demostración. (⇒) : Supongamos que V = U W. Entonces, en particular V = U + W. Sea
v ∈ U ∩ W. Tenemos que v ∈ U y v ∈ W. Luego, v ∈ V y:

v = v + 0, con v ∈ U, 0 ∈ W,
v = 0 + v, con 0 ∈ U, v ∈ W.

Como tal suma para v debe ser única, tenemos que v = 0 y así U ∩ W = {0}.
(⇐) : Supongamos que V = U + W y U ∩ W = {0}. Sea v ∈ V. Dado que V = U + W,

35 Prof. Carlos J. Rubio


1. Espacios Vectoriales

existen u ∈ U y w ∈ W tales que v = u + w. Debemos probar que esta suma es única. Para ello,
supongamos que v = u0 + w0 , donde u0 ∈ U y w0 ∈ W. Entonces, u + w = u0 + w0 y por lo tanto
u − u0 = w0 − w. Como U y W son subespacios de V, tenemos que u − u0 ∈ U y w − w0 ∈ W,
de modo que u − u0 ∈ U ∩ W y w0 − w ∈ U ∩ W. Como U ∩ W = {0}, tenemos que u − u0 = 0
y w − wL 0 = 0, es decir, u = u0 y w = w0 . De este modo, tal suma para v ∈ V es única y así
V = U W.

Ejemplo 1.5.10
R3 = he1 , e2 i h e3 i .
L

Actividad de Aprendizaje 1.5.11

1) Considere los siguientes subespacios de R4 :


n o
W1 = x ∈ R4 : x1 + x2 + x3 + x4 = 0
n o
W2 = x ∈ R4 : x1 = x2 = x3 = x4 .

Pruebe que R4 = W1 ⊕ W2 , i.e. pruebe que R4 = W1 + W2 y W1 ∩ W2 = {0}.


2) Sea W un subespacio de Rn y sea:
n o
W ⊥ = v ∈ Rn | v T w = 0 para todo w ∈ W .

Pruebe que W ⊥ es un subespacio de Rn y que la suma de W y W ⊥ es directa. Al


subespacio W ⊥ se le denomina complemento ortogonal de W.

3) Calcule el complemento ortogonal del subespacio W = { x ∈ R2 | x1 = x2 }.

1.5.3. Dimensión de la suma directa

Corolario 1.5.12
Si U y W son subespacios de dimensión finita de un espacio vectorial V y la suma de U
y W es directa, se tiene
 M 
dim U W = dim U + dim W.

Demostración. Sea V 0 = U W. De acuerdo con el Teorema 1.5.9 tenemos que V 0 = U + W


L

y U ∩ W = {0}. Luego, dim(U ∩ W ) = 0 y según el Teorema 1.5.4 tenemos que dim(V 0 ) =


dim U + dim W − dim(U ∩ W ), es decir, dim(V 0 ) = dim U + dim W.

Prof. Carlos J. Rubio 36 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

Ejemplo 1.5.13
 
1 2 1 1
Considere la matriz A = −2 −4 0 4. Verifique que R3 = R ( A) N A T y
L 

1 2 2 4
R =R A
4 T
L
N ( A) .
Un cálculo sencillo muestra que:
       1 
1 1
R ( A) = −2 , 0 , N AT = 1/4 .
1 2 −1/2
*( !  )+ *( ! !)+
  1 0 2 −2
R AT = 2
, 01 , N ( A) = −1 , 0
.
0 0 3
−2 3 0 −1

Observe que los espacios columna y nulo izquierdo de A son ortogonalesa . También
lo son los espacios renglón y nulo de A. Es fácil probar que si dos subespacios de Rn
son ortogonales, entonces su suma es directa (se deja esta afirmación como ejercicio). En
consecuencia, la suma de R ( A) y N A T es directa y también lo es la suma de R A T y


N ( A) . Como la dimensión del subespacio R ( A) + N A T es 3, igual a la dimensión de




R3 , entonces R3 = R ( A) + N A T = R ( A) N A T . Análogamente se verifica que


 L 

R4 = R A T
L
N ( A) .
a Dos subespacios U y W de Rn son ortogonales si u T w = 0 para toda u ∈ U y toda w ∈ W. Si U y W son
ortogonales se escribe U ⊥W.

El siguiente teorema se puede considerar como una versión del teorema fundamental del
Álgebra Lineal.

Teorema 1.5.14
Si A ∈ Rm×n , entonces:

Rm = R ( A ) N ( A T ).
M

Rn = R ( A T )
M
N ( A ).

Demostración. Demostraremos primero que N A T ∩ R ( A) = {0} . En efecto, si x ∈ N A T ∩


 

R ( A) , entonces A T x = 0 y x = Az para algún z. Luego:


   
x T x = ( Az) T x = z T A T x = z T A T x = z T 0 = 0,

de donde x = 0; y queda probado que la suma de R( A) y N ( A T ) es directa. De acuerdo con el


Corolario 1.5.12 y el Teorema 1.4.3 se tiene que

N ( A T )) = dim R( A) + dim N ( A T ) = m = dim Rm .


M
dim( R( A)

Como R( A) N ( A T ) es un subespacio de Rm de dimensión m se concluye que estos espacios


L

son iguales y que probada que la primera igualdad.


La primera igualdad es válida para cualquier matriz A. Aplicando el resultado a la matriz
A T que tiene n renglones, queda probada la segunda igualdad.

37 Prof. Carlos J. Rubio


1. Espacios Vectoriales

Actividad de Aprendizaje 1.5.15

1) Sean U y W subespacios diferentes de un espacio vectorial V. Suponga que dim U =


dim W = 4 y dim V = 6. Calcule todos los posibles valores para la dimensión del
subespacio U ∩ W.
2) Sean U y W subespacios de un espacio vectorial V cuya dimensión es 10. Suponga
que dim U = 5 y dim W = 6. Pruebe que la suma de U y W no es directa.

1.5.4. Rango de un producto de matrices

Teorema 1.5.16 Rango de un producto de matrices


Si A ∈ K m×n y B ∈ K n× p , entonces:

rango( AB) = rango( B) − dim( N ( A) ∩ R ( B)).

Demostración. Sea β = { x1 , . . . , xs } una base para N ( A) ∩ R( B). Claramente, N ( A) ∩ R( B) ⊆


R( B). Supongamos que dim R( B) = s + t y extendamos la base β a una base para R( B),
digamos β0 = { x1 , . . . , xs , z1 , . . . , zt }. Demostraremos que dim R( AB) = t, mostrando que
β00 = { Az1 , . . . , Azt } es una base para R( AB). En efecto, si b ∈ R( AB), entonces b = ABy
para algún y. Pero By ∈ R( B) implica que By = ∑is=1 ci xi + ∑it=1 di zi para algunos escalares
ci , di . Luego:
!
s t s t t
b=A ∑ ci xi + ∑ di zi = ∑ ci Axi + ∑ di Azi = ∑ di Azi ,
i =1 i =1 i =1 i =1 i =1

ya que β ⊂ N ( A) ∩ R( B) ⊆ N ( A). Así, β00 genera a R( AB).


Supongamos ahora que existen escalares α1 , . . . , αt tales que:
!
t t
0= ∑ αi Azi = A ∑ αi zi .
i =1 i =1

Entonces, α1 z1 + · · · + αt zt ∈ N ( A) ∩ R( B), de modo que existen escalares β 1 , . . . , β s tales que


∑it=1 αi zi = ∑sj=1 β j x j , es decir, ∑it=1 αi zi − ∑sj=1 β j x j = 0. Como S0 es un conjunto linealmente
independiente, resulta que αi = 0 y β j = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s. Así,
β00 es linealmente independiente. Por lo tanto, β00 es una base para R( AB), de modo que t =
dim R( AB) = rango( AB) y de aquí se sigue que:

rango( B) = dim R( B) = s + t = dim( N ( A) ∩ R( B)) + rango( AB).

A continuación una aplicación del teorema anterior.

Teorema 1.5.17
Si A ∈ Rm×n , entonces:

Prof. Carlos J. Rubio 38 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

1) rango A T A = rango ( A) = rango AA T .


 

2) R A T A = R A T y R AA T = R ( A) .
  

3) N A T A = N ( A) y N AA T = N A T .
  

Demostración. 1) De acuerdo con el Teorema 1.5.14, la suma de los espacios columna y nulo
izquierdo es directa, es decir, N ( A T ) ∩ R( A) = {0}. Aplicando la fórmula para el rango de
un producto tenemos que:

rango( A T A) = rango( A) − dim( N ( A T ) ∩ R( A)) = rango( A).


Intercambiamos los papeles de A y A T , se tiene que:

rango( AA T ) = rango( A T ) = rango( A).

2) Es fácil probar que R( AB) ⊆ R( A) (se deja de ejercicio al lector). Luego, R( A T A) ⊆ R( A T ).


Por otra parte, de acuerdo con el inciso anterior tenemos que:

dim R( A T A) = rango( A T A) = rango( A) = rango( A T ) = dim R( A T ),


de donde se sigue que R( A T A) = R( A T ). Intercambiando los papeles de A y A T se obtiene
que R( AA T ) = R( A).
3) Es fácil probar que N ( B) ⊆ N ( AB) (se deja de ejercicio al lector). Luego, N ( A) ⊆ N ( A T A).
Aplicando el inciso 1, tenemos que:

dim N ( A) = n − rango( A) = n − rango( A T A) = dim N ( A T A),


de donde se sigue que N ( A) = N ( A T A). Intercambiando los papeles de A y A T obtenemos
que N ( AA T ) = N ( A T ).
Se termina el capítulo señalando que es posible hablar de la suma y suma directa de más de
dos subespacios. Vea el Ejercicio 19.

Actividad de Aprendizaje 1.5.18

1) Sean A y B matrices de m × n y n × p. Pruebe que


a) rango( AB) ≤ mı́n{rango( A), rango( B)}.
b) rango( A) + rango( B) − n ≤ rango( AB).
2) Si A y B son matrices tales que AB y BA están definidas, ¿es cierto que rango( AB) =
rango( BA)?
3) Sean A de m × n y B de n × p. Pruebe que
a) rango( AB) = rango( A) − dim N ( B T ) ∩ R( A T ).
b) dim N ( AB) = dim N ( B) + dim R( B) ∩ N ( A).
c) rango( AB) = rango( A) y R( AB) = R( A) si rango( B) = n.
d) rango( AB) = rango( B) y N ( AB) = N ( B) si rango( A) = n.

39 Prof. Carlos J. Rubio


1. Espacios Vectoriales

1.5.5. Ejercicios de Práctica


1) Pruebe que rango ( A + B) ≤ rango ( A) + rango ( B) .
2) Sean A ∈ K m×n y B ∈ K m× p . Pruebe que rango([ A | B]) = rango( A) + rango( B) −
rango( R( A) ∩ R( B)) (Sugerencia: Vea el Ejercicio 20).
3) Sea A una matriz cuadrada. Pruebe que las siguientes afirmaciones son equivalentes:
a) N ( A) = N ( A2 )
b) R( A) = R( A2 )
c) R( A) ∩ N ( A) = {0}.
4) Sea m > n y sea A ∈ Rm×n . ¿Cuál de las siguientes afirmaciones es verdadera?
a) Rn = R ( A) ⊕ N A T .


b) Rn = R A T ⊕ N A T .
 

c) Rn = R ( A) ⊕ N ( A).
d) Rn = R A T ⊕ N ( A).


5) Sea {v1 , v2 , v3 , v4 , v5 } una base para un R-espacio vectorial V. Sea U el subespacio de V


generado por −v1 + v2 y −v1 + v3 ; sea W el subespacio generado por v1 + 2v2 y −v1 + 2v3 .
¿Es la suma de U y W directa? Si la respuesta es afirmativa, pruébelo. En caso contrario,
explique por qué la suma no es directa.
6) Demuestre que si P es una matriz invertible de m × m, entonces
rango( PA) = rango( A),
para cualquier matriz A de m × n.
7) Calcule el complemento ortogonal del subespacio W = { x ∈ R3 | x1 + x2 + x3 = 0}.
8) Calcule el complemento ortogonal del espacio columna de la matriz:
 
1 2 1 1
A =  −2 −4 0 4 .
1 2 2 4
⊥
9) Sea A ∈ Rm×n . Pruebe que N A T ⊂ R ( A)⊥ y R ( A) ⊂ N A T .


10) Pruebe que si U y W son subespacios ortogonales de Rn , entonces la suma de U y W es


directa.
11) Pruebe que los espacios nulo y renglón de una matriz A ∈ Rm×n , son ortogonales. Pruebe
que también lo son los espacios columna y nulo izquierdo de A.
12) Sean W1 y W2 subespacios de un espacio vectorial V. Si dim V = 12, dim W1 = 6 y dim W2 =
8, entonces el valor más pequeño que puede tener dim W1 ∩ W2 es: (a) 0, (b) 2, (c) −2, (d) 6,
(e) 8. Justifique su respuesta.
13) Sea V el espacio de todas las funciones continuas de R en R. Sean W1 el subespacio de V
que consiste de las funciones pares y W2 el subespacio de V que consiste de las funciones
impares:
W1 = { f ∈ V : f ( x ) = f (− x ) , ∀ x ∈ R} ,
W2 = { g ∈ V : g ( x ) = − g (− x ) , ∀ x ∈ R} .
Pruebe que V es la suma directa de W1 y W2 .

Prof. Carlos J. Rubio 40 Álgebra Lineal, Actuaría


1. Espacios Vectoriales

14) Sea K un campo y sea V el espacio vectorial K n×n , es decir, el espacio vectorial de todas las
matrices cuadradas de n × n sobre el campo K. Sean W1 y W2 los subespacios de V formados
por las matrices simétricas y antisimétricas, respectivamente.

a) Si K es un subcampo del campo de los números complejos, pruebe que V = W1 ⊕ W2 .


b) Más general, pruebe que si K es un campo de característica distinta de 2, entonces V =
W1 ⊕ W2 .
c) ¿Es cierto el resultado si la característica del campo es 2?
   
1 −1 −1 2
15) Considere el sistema de ecuaciones Ax = b, donde A = yb= .
−1 1 1 3

a) Verifique que el sistema Ax = b es inconsistente.


b) Verifique que el sistema de ecuaciones lineales A T Ax = A T b es consistente y encuentre
todas sus soluciones.
 
−1
c) Muestre que el sistema de ecuaciones lineales Ax = c es consistente, donde c = .
−2
T T
Muestre también que los sistemas Ax = c y A Ax = A c tienen exactamente las mismas
soluciones.

16) Muestre
 que
 los dos sistemas
 de ecuaciones lineales Ax = b y A T Ax = A T b, donde A =
1 −1 −1
 −1 0 y b = −2, tienen solución única. Verifique que en ambos casos la solución
1 1 5
es x = ( A T A)−1 A T b.
17) Sean A ∈ Rm×n y b ∈ Rm .
a) Pruebe que el sistema de ecuaciones lineales A T Ax = A T b siempre es consistente, aun
cuando Ax = b no sea un sistema de ecuaciones lineales consistente.
b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el
de A T Ax = A T b es el mismo.
c) Pruebe que A T Ax = A T b tiene solución única si y solo rango( A) = n.
18) Sean V1 , V2 , V3 subespacios vectoriales de un espacio V y sea V = V1 + V2 + V3 . Suponga
que V2 ∩ V1 = {0} y V3 ∩ (V1 + V2 ) = {0}. Pruebe que cada v ∈ V es escribe de manera
única como v = v1 + v2 + v3 , donde vi ∈ Vi (1 ≤ i ≤ 3).
19) Sean V1 , . . . , Vk una colección de subespacios de un espacio vectorial V y β i una base para
Vi . Sea V = V1 + · · · + Vk . Pruebe que las siguientes afirmaciones son equivalentes:
a) Vj ∩ (V1 + · · · + Vj−1 ) = {0} para cada j = 2, . . . , k.
b) Cada v ∈ V se escribe en forma única como v = v1 + · · · + vk , donde vi ∈ Vi .
c) β = β 1 ∪ · · · ∪ β k con β i ∩ β j = ∅ es una base para V.
Si se cumple cualquiera de las afirmaciones anteriores se dice que la suma V = V1 + · · · + Vk
es directa y se escribe V = V1 ⊕ · · · ⊕ Vk .
20) Sean V1 , V2 , V3 subespacios de dimensión finita de un espacio V, tales que su suma es directa.
Pruebe que dim(V1 + V2 + V3 ) = dim V1 + dim V2 + dim V3 .

41 Prof. Carlos J. Rubio


Capı́tulo 2
Transformaciones Lineales

En este capítulo se estudia el concepto de transformación lineal. Esta herramienta será útil
para establecer cuándo dos espacios vectoriales son esencialmente iguales, es decir, tienen exac-
tamente la misma estructura algebraica. Se mostrará que en esencia un espacio vectorial de di-
mension finita sobre un campo K es un K n para algún n, y que una transformación lineal entre
dos espacios vectoriales de dimensión finita se corresponde con una matriz.
El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga
una estructura simple, conduce al estudio de los valores y vectores propios, los cuales serán
estudiados en un capítulo posterior. También se estudiará la relación que guardan las matrices
asociadas a la misma transformación lineal.

2.1. Propiedades básicas de las transformaciones lineales


2.1.1. Definición de transformación lineal y ejemplos
Empezamos la sección con la definición de transformación lineal.

Definición 2.1.1.

Sean V y W dos espacios vectoriales sobre un mismo campo K.

1) Una función T : V → W es una transformación lineal si

T (u + v) = T (u) + T (v) y T (cv) = cT (v)

para cualquier c ∈ K y cualesquiera u, v ∈ V.


2) Un operador lineal sobre V es una transformación lineal de V en sí mismo.

Aplicación lineal o función lineal son sinónimos de transformación lineal.

La definición de transformación lineal se puede reescribir como sigue. La función T : V →


W es lineal si y solamente si
T (cu + v) = cT (u) + T (v) (*)

42
2. Transformaciones Lineales

para cualesquiera u, v ∈ V y c ∈ K. En efecto, si T es lineal, entonces T (cu + v) = T (cu) +


T (v) = cT (u) + T (v). Recíprocamente, si cumple (*), entonces

T ( u + v ) = T (1 · u + v ) = 1 · T ( u ) + T ( v ) = T ( u ) + T ( v )
T (cv) = T (cv + 0) = cT (v) + T (0) = cT (v).

La última igualdad es consecuencia de que T (0) = 0 ( T (0) = T (1 · 0 + 0) = 1T (0) + T (0) =


T (0) + T (0)).
Veamos algunos ejemplos.

Ejemplo 2.1.2

1) La función 0 : V → W definida por 0(v) = 0 que mapea todos los elementos del
espacio vectorial V al elemento cero del espacio W, es claramente una función lineal,
llamada por razones obvias la transformación cero.

2) La función 1V : V → V dada por 1V (v) = v es un operador lineal denominado ope-


rador identidad sobre V.
3) (La transformación lineal inducida por una matriz) Si A ∈ K m×n , la función
TA : K n → K m dada por TA ( x ) = Ax es lineal. De las propiedades de las matrices
se tiene:

TA ( x + y) = A( x + y) = Ax + Ay = TA ( x ) + TA (y),
TA (cx ) = A(cx ) = cAx = cTA ( x ).
 
1 1 −1
Cuando A es una matriz cuadrada, TA es un operador lineal. Si A = ,
1 −1 1
la transformación lineal inducida por A está dada por:
 
x  
x+y−z
TA y =
  .
x−y+z
z

4) La función T : R[t]2 → R[t] dada por T ( a + bt) = ( a + 1) + bt no es lineal. Por ejem-


plo, T (2(1 + t)) = T (2 + 2t) = 3 + 2t y 2T (1 + t) = 2(2 + t) = 4 + 2t, así que
T (2(1 + t)) 6= 2T (1 + t).
5) Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = RR ,
entonces la función D : V → W dada por D ( f ) = f 0 es una transformación lineal.
6) Si V = C (R) es Rel espacio de todas las funciones continuas de R en R, entonces la
x
función T ( f ) = 0 f (t) dt es una función lineal.
7) Si V es un K -espacio vectorial de dimensión finita e igual a n > 0, y β es una base
para V, la función de coordenadas:

[ ]β : V → Kn

es lineal. Además es una biyección.


8) La función F : K m×n → K n×m dada por F ( A) = A T es una función lineal.

43 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Actividad de Aprendizaje 2.1.3

1) Sea V un K-espacio vectorial de dimensión finita y sea β una base para V. Pruebe que
la función de coordenadas [ ] β : V → K n es una función lineal biyectiva.

2) Considere los vectores v1 = (1, −1) T , v2 = (2, −1) T , v3 = (−3, 2) T , w1 = (1, 0) T ,


w2 = (0, 1) T y w3 = (1, 1) T . ¿Existe una función lineal F : R2 → R2 tal que F (vi ) =
wi ? Si existe, descríbala explícitamente. En caso contrario, pruebe que no existe.
 
1  
4
3) Encuentre una transformación lineal T : R3 → R2 tal que T −1 = y
−2
1
 
1  
1
T 1 =
  . Nota: Debe escribir a T en forma explícita, es decir, debe encon-
−3
0
 
x1
trar una fórmula para T  x2  en términos de x1 , x2 y x3 . Justifique su respuesta.
x3

2.1.2. Propiedades básicas de las transformaciones lineales

Teorema 2.1.4
Si T : V → W es una transformación lineal, entonces:
1) T (0) = 0.
2) T (−v) = − T (v) para todo v ∈ V.

Demostración. 1) Como 0 + 0 = 0, tenemos que T (0 + 0) = T (0). Es decir, T (0) + T (0) = T (0)


ya que T es lineal. Por lo tanto, T (0) = 0.

2) Para cada v ∈ V sabemos que existe −v ∈ V tal que v + (−v) = 0. Luego, T (v + (−v)) =
T (0). Como T (0) = 0 y T (v + (−v)) = T (v) + T (−v), tenemos que T (v) + T (−v) = 0. Por
lo tanto, T (−v) = − T (v).

Observación 2.1.5
Una propiedad clave de las transformaciones lineales es que estas están determinadas
por su acción en los elementos de una base. Si β = {v1 , . . . , vn } es una base para V,
entonces es suficiente conocer el valor de T (vi ) para cada vi ∈ β, para conocer la acción
de T en un elemento arbitrario v ∈ V. En efecto, si v ∈ V, entonces v se escribe en forma
única v = x1 v1 + · · · + xn vn . Luego

T ( v ) = T ( x1 v1 + · · · + x n v n ) = x1 T ( v1 ) + · · · + x n T ( v n ).

Prof. Carlos J. Rubio 44 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Ejemplo 2.1.6
Suponga que T : R2 → R[t]3 es una función lineal tal que

T (v1 ) = 1 + 2t − t2 , T (v2 ) = 3 + 5t2 ,

donde v1 = (1, 1) T y v2 = (1, −1) T . A partir de esta información, es posible cono-


cer el valor de T en cualquier elemento del dominio. Por ejemplo, para calcular T (v)
donde v = (5, 1) T , se escribe v como combinación lineal de los elementos de la base
β = {v1 , v2 }. Dado que v = 3v1 + 2v2 , usando la linealidad de T

T (v) = T (3v1 + 2v2 ) = 3T (v1 ) + 2T (v2 ) = 3(1 + 2t − t2 ) + 2(3 + 5t2 ) = 9 + 6t + 7t2 .

También es posible encontrar una fórmula explícita para T. Para esto se calcula el vector
de coordenadas de v = ( x, y) T ∈ R2 con respecto a la base β. De hecho,

x−y
 
x x+y
v= = v1 + v2 = c1 v1 + c2 v2 .
y 2 2

Usando nuevamente la linealidad de T, tenemos que

T (v) = T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 ) = c1 (1 + 2t − t2 ) + c2 (3 + 5t2 )


= 2x − y + ( x + y) t + (2x − 3y) t2 .

Ejemplo 2.1.7
 
4 −2
Sea T : R2 → R2 la función lineal inducida por la matriz A = . La base
1 3
canónica {e1 , e2 } para R2 es transformada en los vectores w1 = T (e1 ) = (4, 1) T y
w2 = T (e2 ) = (−2, 3) T . El cuadrado unitario se transforma en el paralelogramo de-
terminado por los vectores w1 y w2 (Vea la Figura 2.1):

T ( c 1 e1 + c 2 e2 ) = c 1 T ( e1 ) + c 2 T ( e2 ) , 0 ≤ c1 , c2 ≤ 1.

El círculo unitario se transforma en la elipse cuya ecuación es 13 x2 + 8 xy + 5 y2 = 49.

y
T (e2 ) = (−2, 3)
e2

T (e1 ) = (4, 1)
x x
e1

Figura 2.1: La función lineal T ( x, y) = (4x − 2y, x + 3y) transforma el cuadrado unitario
determinado por los vectores e1 y e2 en el paralelogramo determinado por w1 =
T ( e1 ) y w2 = T ( e2 )

45 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Actividad de Aprendizaje 2.1.8


Sea T : V → W una transformación lineal y sean v1 , . . . , vn ∈ V y w1 , . . . , wn ∈ W tales
que T (vi ) = wi para cada i.
a) Si w1 , . . . , wn son linealmente independientes, pruebe que los vectores v1 , . . . , vn son
linealmente independientes.
b) Si los vectores v1 , . . . , vn son linealmente independientes, ¿es cierto que w1 , . . . , wn
son linealmente independientes? Si su respuesta es afirmativa, pruébelo. En caso con-
trario, de un contrajemplo.

2.1.3. Construcción de transformaciones lineales


El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de di-
mensión finita.

Teorema 2.1.9
Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de dimensión
finita y que β = {v1 , . . . , vn } es una base de V. Sean w1 , . . . , wn elementos arbitrarios de
W. Entonces existe una única transformación lineal T : V → W tal que T (vi ) = wi para
i = 1, . . . , n.

Demostración. Dado v ∈ V, sea [v] β = ( x1 , . . . , xn ) T ∈ K n . Definimos:

n
T (v) = ∑ x i wi .
i =1

Veamos que T es una función lineal. Sean u, v ∈ V y c ∈ K. Supongamos que [u] β = ( x1 , . . . , xn ) T


y [v] β = (y1 , . . . , yn ) T . Luego [u + v] β = ( x1 + y1 , . . . , xn + yn ) T y [cu] β = (cx1 , . . . , cxn ) T . Así

n n n n
T (u + v) = ∑ ( x i + y i ) wi = ∑ ( x i wi + y i wi ) = ∑ x i wi + ∑ y i wi = T ( u ) + T ( v ),
i =1 i =1 i =1 i =1
n n n
T (cu) = ∑ (cxi )wi = ∑ c(xi wi ) = c ∑ xi wi = cT (u).
i =1 i =1 i =1

Supongamos ahora que T 0 : V → W es una transformación lineal tal que T 0 (vi ) = wi para
i = 1, . . . , n. Sea v ∈ V y escribamos v = ∑in=1 xi vi . Como T 0 es lineal se tiene

T 0 ( x1 v1 + · · · + x n v n ) = T 0 ( x1 v1 ) + · · · + T 0 ( x n v n ) = x1 T 0 ( v1 ) + · · · + x n T 0 ( v n )
= x 1 w1 + · · · x n w n = T ( v )

Como T 0 (v) = T (v) todo v ∈ V se concluye que T = T 0 .

Prof. Carlos J. Rubio 46 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Ejemplo 2.1.10
Para calcular la única transformación lineal T : R[t]3 → R2 tal que T (v1 ) = −e1 , T (v2 ) =
2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 , se procede como
sigue. Como el conjunto β = {v1 , v2 , v3 } es una base para R[t]3 , es posible aplicar el
teorema anterior. Sea v = a + bt + ct2 ∈ R[t]3 . El primer paso consiste en calcular [v] β .
Al hacerlo se obtiene que:  
a−b
[v] β =  b − c  .
c
Entonces la función pedida se define como:
       
−1 2 1 − a + 3b − c
T ( a + bt + ct2 ) = ( a − b) + (b − c) +c = .
0 1 3 b + 2c

Un sencillo cálculo muestra que, en efecto, T tiene la acción deseada sobre los elementos
de la base.

Actividad de Aprendizaje 2.1.11

1) Considere R[t]3 con la base β = {1 − t + t2 , 1, 1 − t} = {v1 , v2 , v3 }. Calcule la única


transformación lineal T : R[t]3 → R3 tal que T (v1 ) = w1 , T (v2 ) = w2 y T (v3 ) = w3 ,
donde
     
2 1 3
a) w1 = 2 , w2 = −2 , w3 = 0.
1 2 3
     
1 1 1
b) w1 =  1 , w2 =  0 , w3 =  2.
−1 −1 −5

2) Describa explícitamente una transformación lineal de R3 en R3 cuya imagen sea el


espacio generado por los vectores (1 0 − 1) T y (1 2 2) T .

2.1.4. El espacio vectorial de las transformaciones lineales


Sean V y W K-espacios vectoriales. Si F : V → W y T : V → W son dos funciones lineales,
es posible construir nuevas funciones a partir de F y T por adición y multiplicación por escalar.
La suma de F y T es la función

F + T : V → W, ( F + T )(v) = F (v) + T (v).

Del mismo modo, si c ∈ K, la multiplicación por escalar es la función

cF : V → W, (cF )(v) = cF (v).

47 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Ejemplo 2.1.12
Considere las transformaciones lineales F, T : R[t]2 → R2 dadas por
   
2a + b a+b
F ( a + bt) = , T ( a + bt) = .
a−b a − 2b

La suma F + T : R[t]2 → R2 de F y T está dada por


 
3a + 2b
( F + T )( a + bt) = F ( a + bt) + T ( a + bt) = .
2a − 3b

La multiplicación por escalar de F por c = 8 es la función 8F : R[t]2 → R2 , dada por


 
16a + 8b
(8F )( a + bt) = 8F ( a + bt) = .
8a − 8b

El conjunto de todas las transformaciones lineales T : V → W, denotado por L(V, W ) tiene


una estructura natural de espacio vectorial.

Teorema 2.1.13
Sean V y W K-espacios vectoriales. Si F, T ∈ L(V, W ) y c es un escalar, entonces F + T,
cF ∈ L(V, W ) Más aún, L(V, W ) junto con estas operaciones es un K-espacio vectorial.

Demostración. Supóngase que F, T son transformaciones lineales. Sean v1 , v2 ∈ V y sean c, α


escalares. Entonces

( F + T )(αv1 + v2 ) = F (αv1 + v2 ) + T (αv1 + v2 )


= αF (v1 ) + F (v2 ) + αT (v1 ) + T (v2 )
= α( F (v1 ) + T (v1 )) + ( F (v2 ) + T (v2 ))
= α( F + T )(v1 ) + ( F + T )(v2 ).

Esto prueba que F + T es lineal. En forma análoga,

(cF )(αv1 + v2 ) = cF (αv1 + v2 )


= c(αF (v1 ) + F (v2 ))
= cαF (v1 ) + cF (v2 )
= α(cF )(v1 ) + (cF )(v2 ),

prueba que cF es una transformación lineal.


Para probar que L(V, W ) junto con estas operaciones es un espacio vectorial, se debe veri-
ficar directamente cada una de las condiciones de la Definición 1.1.1. Los detalles se dejan al
lector.

Prof. Carlos J. Rubio 48 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Teorema 2.1.14
Sean U, V y W K-espacios vectoriales. Si T : U → V y F : V → W son transformaciones
lineales, entonces la función F ◦ T : U → W definida por ( F ◦ T )(u) = F ( T (u)) es lineal.
T F
U V W

F◦T

Demostración. Sean u1 , u2 ∈ U y sea c un escalar. Entonces


( F ◦ T ) (cu1 + u2 ) = F ( T (cu1 + u2 ))
= F (cT (u1 ) + T (u2 ))
= cF ( T (u1 )) + F ( T (u2 ))
= c ( F ◦ T ) ( u1 ) + ( F ◦ T ) ( u2 ) .
Si V = W, en vez de escribir L(V, V ) se escribe L(V ). El siguiente teorema presenta las
propiedades básicas de la composición en L(V ).

Teorema 2.1.15
Sean T1 , T2 y F operadores lineales sobre un espacio V, es decir T1 , T2 , F ∈ L(V ). Sea c
un escalar. Entonces:

a) 1V ◦ F = F = F ◦ 1V .
b) F ◦ ( T1 + T2 ) = F ◦ T1 + F ◦ T2 ; ( T1 + T2 ) ◦ F = T1 ◦ F + T2 ◦ F.
c) c ( F ◦ T1 ) = (cF ) ◦ T1 = F ◦ (cT1 ).

Demostración. (a) Es fácil y se deja al lector.


(b) Sea u ∈ U.
[ F ◦ ( T1 + T2 )](u) = F (( T1 + T2 )(u))
= F ( T1 (u) + T2 (u))
= F ( T1 (u)) + F ( T2 (u))
= ( F ◦ T1 )(u) + ( F ◦ T2 )(u)
= ( F ◦ T1 + F ◦ T2 )(u).
Así F ◦ ( T1 + T2 ) = F ◦ T1 + F ◦ T2 .
(c) Se deja al lector.

Observación 2.1.16
De los resultados anteriores se sigue que, L(V ) junto con las operaciones de suma y
composición es un anillo con unitario. Todavía más, dado que L(V ) es un anillo con
unitario, que además es un K-espacio vectorial que satisface c( F ◦ T ) = (cF ) ◦ T = F ◦
(cT ), se tiene que L(V ) es un ejemplo muy particular de una K-álgebra.

49 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Actividad de Aprendizaje 2.1.17


Sean β = {v1 , v2 , v3 } y β0 = {w1 , w2 } bases para los K-espacios vectoriales V y W,
respectivamente. Para cada par (i, j) con 1 ≤ i ≤ 2, 1 ≤ j ≤ 3, sea Eij : V → W la única
transformación lineal tal que

Eij (vk ) = δkj wi , para k = 1, 2, 3,

donde δij es la delta de Kronecker. Así por ejemplo, E11 es la única transformación lineal
tal que E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0.
Pruebe que dim L(V, W ) = 3 · 2 mostrando que la colección { Eij : 1 ≤ i ≤ 2, 1 ≤ j ≤ 3}
es una base de L(V, W ).

2.1.5. El núcleo y la imagen de una transformación lineal

Definición 2.1.18.

Asociada a una transformación lineal T : V → W están los conjuntos:

ker( T ) = {v ∈ V | T (v) = 0} ,
Im( T ) = {w ∈ W | ∃v ∈ V, w = T (v)} = { T (v) | v ∈ V } .

El primer conjunto es el núcleo o kernel de T. El segundo es la imagen o rango de T.

Estos subconjuntos son subespacios de V y de W, respectivamente. La prueba de esta afir-


mación es sencilla y se deja de ejercicio al lector.

Ejemplo 2.1.19
Calculemos el núcleo y la imagen de la transformación lineal T : R [t]3 → R2 dada por:
 
2 − a + 3b − c
T ( a + bt + ct ) = .
b + 2c

En este caso:
n o
ker( T ) = a + bt + ct2 ∈ R [t]3 | − a + 3b − c = 0 y b + 2c = 0
n o
= a + bt + ct2 ∈ R [t]3 | a = −7c y b = −2c
n o
= −7c − 2ct + ct2 | c ∈ R
D E
= −7 − 2t + t2

y
  
x
Im( T ) = ∈ R | x = − a + 3b − c y y = b + 2c para algunos a, b, c ∈ R = R2 .
2
y

Observe que dim R[t]3 = dim ker T + dim Im T.

Prof. Carlos J. Rubio 50 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Ejemplo 2.1.20
Si A es una matriz m × n y TA es la transformación lineal inducida por A, entonces:

ker( TA ) = N ( A) y Im( TA ) = R ( A) .

Es decir, los subespacios núcleo e imagen de la transformación lineal inducida por A son
los espacios nulo y columna de A, respectivamente.

Actividad de Aprendizaje 2.1.21

1) Sea T : V → W una transformación lineal. Demuestre que ker( T ) es un subespacio


de V y que Im( T ) es un subespacio de W.

2) Demuestre que una transformación lineal T es inyectiva si y solo si ker( T ) = {0}.


 
a−b
3) Sea T : R[t]3 → R2 la transformación lineal dada por T ( a + bt + ct2 ) = .
b+c
a) ¿Cuáles de los siguientes vectores están en el núcleo de T?
(i) 1 + t (ii) t − t2 (iii) 1 + t − t2 .

  de los siguientes vectores estánenla imagen de T?


b) ¿Cuáles  
0 1 0
(i) (ii) (iii) .
0 0 1

4) Considere el espacio vectorial R [t]3 con la base β = 1, 1 − t, 1 − t + t2 .




a) Construya la única transformación lineal T : R [t]3 → R2×2 tal que


      
1 −1 1 1 1 3

T (1) = , T (1 − t ) = , T 1 − t + t2 = .
1 1 1 −1 1 −3

b) Calcule el núcleo de la transformación lineal construida en el inciso a).

2.1.6. El Teorema de la dimensión

Definición 2.1.22.

Sea T : V → W una transformación lineal. El rango de T es la dimensión de la imagen


de T y se denota por rango( T ). La nulidad de T es la dimensión del núcleo de T y se
denota por nulidad( T ).

Teorema 2.1.23 Teorema de la dimensión


Si V es un espacio vectorial de dimensión finita y T : V → W es una transformación
lineal, entonces dim(V ) = rango( T ) + nulidad( T ).

51 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Demostración. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker( T ) (de ma-
nera que nulidad( T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, pode-
mos extenderlo a una base para V, digamos β = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que
el conjunto:
β0 = { T (vk+1 ), . . . , T (vn )}
es una base para Im( T ).
Claramente β0 ⊂ Im( T ). Sea T (v) ∈ Im( T ) con v ∈ V. Como β es base para V, existen escalares
c1 , . . . , cn tales que:
v = c 1 v 1 + · · · + c k v k + c k +1 v k +1 + · · · + c n v n .
Como v1 , . . . , vk ∈ ker( T ), tenemos que T (v1 ) = · · · = T (vk ) = 0, de modo que:

T ( v ) = T ( c 1 v 1 + · · · + c k v k + c k +1 v k +1 + · · · + c n v n )
= c 1 T ( v 1 ) + · · · + c k T ( v k ) + c k +1 T ( v k +1 ) + · · · + c n T ( v n )
= c k +1 T ( v k +1 ) + · · · + c n T ( v n ),

lo cual demuestra que Im( T ) está generada por β0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + · · · + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + · · · + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + · · · + dn vn ∈
ker( T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:

d k +1 v k +1 + · · · + d n v n = d 1 v 1 + · · · + d k v k ,

pues {v1 , . . . , vk } es base para ker( T ). Luego:

d1 v1 + · · · + dk vk − dk+1 vk+1 − · · · − dn vn = 0,

y la independencia lineal de β obliga a que d1 = · · · = dn = 0. En particular, dk+1 = · · · =


dn = 0 y por lo tanto β0 es linealmente independiente. Así, β0 es base para Im( T ). Luego,
rango( T ) = n − k y por lo tanto:

rango( T ) + nulidad( T ) = k + (n − k) = n = dim(V ),

como se quería.

Ejemplo 2.1.24
Calculemos el rango y la nulidad de la transformación lineal T : R[t]3 → R[t]4 definida
por T ( p(t)) = tp(t).
Tenemos que T ( a + bt + ct2 ) = at + bt2 + ct3 . Luego:

ker( T ) = { a + bt + ct2 | T ( a + bt + ct2 ) = 0}


= { a + bt + ct2 | at + bt2 + ct3 = 0}
= { a + bt + ct2 | a = b = c = 0}
= {0},

de manera que nulidad( T ) = 0 y por el Teorema de la dimensión, tenemos que


rango( T ) = dim(R[t]3 ) − nulidad( T ) = 3 − 0 = 3.

Prof. Carlos J. Rubio 52 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Note que hubiera sido más fácil hallar primero el rango de T, debido a que se ve fácilmente
que {t, t2 , t3 } es una base para la imagen de T. Aunque, por lo regular, una de las dos (el rango
o la nulidad de una transformación lineal) es más fácil de calcular, el Teorema de la dimensión
puede ser utilizado para hallar la otra.

Actividad de Aprendizaje 2.1.25


 
a
1) Sea T : R2 → R[t]3 la función definida por T = a + at + at2 .
b
a) Demuestre que T es lineal.
b) Determine ker( T ).
c) Determine la nulidad de T.
d) Determine el rango de T.
2) Sea T : R3 → R2 una función lineal y suprayectiva tal que T (v0 ) = 0, donde v0 =
(1, 1, 1)T . Encuentre el núcleo de T de forma explícita.
3) Sean V y W espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 } y
β0 = {w1 , w2 } bases para V y W, respectivamente y T : V → W la única transfor-
mación lineal tal que T (v1 ) = −w1 + w2 , T (v2 ) = w1 − w2 y T (v3 ) = −w1 + w2 .
Encuentre un conjunto generador para el núcleo de T. Nota: El conjunto generador
debe estar expresado en términos de la base β.

2.1.7. Ejercicios de Práctica


1) Determine cuáles de las siguientes transformaciones son lineales.
x x
a) T : R3 → R3 , T y = 0 .
z z
x y
b) T : R → R , T y = z .
3 3
z x
x x
c) T : R → R , T y =
3 3 y .
z
 1 
x +3y−1
d) T : R2 → R2 , T yx = 2x−y+4 .


  
e) T : R2 → R2 , T yx = −yx .
  
f) T : R2 → R2 , T yx = −yx .

2) Pruebe que para cada i, (1 ≤ i ≤ n), la función T : Rn → R dada por T ( x ) = xi es lineal.


 
1
3) Defina una transformación lineal T : R → R tal que T
2 3 = e1 + 2e2 + 3e3 , donde
2
e1 , e2 , e3 son los vectores unitarios de R .
3

4) Sea V un espacio vectorial real de dimensión 3 y sea β = {v1 , v2 , v3 } una base para V.
Suponga que f : V → R es una transformación lineal tal que

f (v1 − v2 ) = 5, f (v2 − v3 ) = 3, f (v1 + v3 ) = 4.

De una fórmula en términos de la base β para calcular f (v) para cualquier v ∈ V.

53 Prof. Carlos J. Rubio


2. Transformaciones Lineales

5) Pruebe que la función T : K [t]3 → K3×3 dada por:


 
a0 a1 a2
T ( a0 + a1 t + a2 t2 ) =  0 a0 a1  ,
0 0 a0
es una transformación lineal inyectiva.
6) Sea K un campo arbitrario y sea α ∈ K. Pruebe que la función evaluación evα : K [t] → K
dada por evα ( a0 + a1 t + · · · + an tn ) = a0 + a1 α + · · · + an αn es una transformación lineal.
7) Pruebe que la función traza tr : K n×n → K dada por tr( A) = ∑in=1 aii es lineal.
8) Sea A ∈ K m×n . Pruebe que la función T : K n×r → K m×r dada por T ( X ) = AX es una
transformación lineal.
9) Sea A ∈ K n×n . ¿Es la función T : K n×n → K dada por T ( X ) = tr( AX ) una transformación
lineal? (Sugerencia: Vea el Teorema 2.1.14.)
10) Pruebe que la función T : K [t] → K [t] dada por T ( p(t)) = tp(t) es un operador lineal.
11) Sea V un K-espacio vectorial y sea T : V × V → K una función bilineal, es decir una función
que satisface lo siguiente:
T ( u1 + u2 , v ) = T ( u1 , v ) + T ( u2 , v ),
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ),
T (cu, v) = cT (u, v) = T (u, cv),
para cualesquiera u1 , u2 , v1 , v2 , u, v ∈ V y para cualquier c ∈ K. Sean v, w ∈ V tales que
T (v, w) = 0 = T (w, v) y T (v, v) = T (w, w) = 1. Pruebe que los vectores v y w son lineal-
mente independientes.
12) Podemos encajar R2enR3 en formas diferentes. La forma usual de hacer   esto es mediante
  x   x
x x
la función 7→  y . Otra forma es mediante la función 7→  y . Considere los
y y
0 1
 
x
puntos de R2 como tercias del tipo  y . Para cada una de las siguientes matrices:
1
   
cos θ − sen θ 0 −1 0 0
Rθ = sen θ cos θ 0 , Px =  0 1 0 ,
0 0 1 0 0 1
   
1 0 0 1 0 a
Py = 0 −1 0 , τ(a,b) = 0 1 b  ,
0 0 1 0 0 1
considere la correspondiente transformación lineal inducida (véase el Ejemplo 2.1.2,
 aparta-
 x
do 3). Analice el efecto de aplicar la transformación lineal a un vector de la forma y . Este
1
tipo de matrices son útiles en gráficas por computadora.
13) Sea W el espacio vectorial real de todas las matrices simétricas de 2 × 2. Defina una trans-
formación lineal T : W → R[t]3 mediante:
 
a b
T = ( a − b ) + ( b − c ) t + ( c − a ) t2 .
b c
Encuentre el rango y la nulidad de T.

Prof. Carlos J. Rubio 54 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

14) Encuentre el rango y la nulidad de las siguientes transformaciones lineales:


a) T : R3×3 → R3×3 definida por T ( A) = A − A T para cada A ∈ R3×3 .
b) T : R[t]3 → R definida por T ( p(t)) = p0 (0) para cada p(t) ∈ R[t]3 . (Nota: p0 (t) denota
la derivada de p(t) con respecto a t).
 
1 2 0 2
15) Calcule el núcleo de la transformación lineal inducida por la matriz A = .
0 0 1 3

16) Calcule el núcleo de la transformación lineal F : R4 → R2 dada por:


 
T x + 2y + 2w
F x, y, z, w = .
z + 3w

17) Sean V y W espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y β0 =


{w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transformación
lineal tal que

T (v1 ) = w1 + 2w2 − w3
T (v2 ) = 3w1 + 6w2 − 3w3
T (v3 ) = 3w1 + 9w2 + 3w3
T (v4 ) = 2w1 + 5w2

Calcule bases para el núcleo y la imagen de T.


18) Sean T : V → W una función lineal y v1 , . . . , vr vectores de V linealmente independientes.
Si hv1 , . . . , vr i ∩ ker T = {0}, pruebe que { T (v1 ), . . . , T (vr )} es linealmente independiente.
19) Sean U, V y W espacios vectoriales sobre el campo K, y sean T1 : V → U y T2 : U → W
funciones lineales. Demuestre que ker( T1 ) ⊆ ker( T2 ◦ T1 ) y Im( T2 ◦ T1 ) ⊆ Im( T2 ).
20) Sea T : V → V un operador lineal. Pruebe que si ker T k = ker T k+1 para algún k, entonces
ker T k = ker T k+ N para todo N ≥ 1.
21) Sea P : V → V un operador lineal idempotente, es decir, P ◦ P = P. Pruebe que V = ker P ⊕
Im P.
22) Sea V un espacio vectorial y sea T : V → V un operador lineal. Demuestre que las siguientes
condiciones son equivalentes:
a) ker T ∩ Im T = {0}.
b) Si v ∈ V y T ( T (v)) = 0, entonces T (v) = 0.
23) Sea V un espacio vectorial de dimensión finita y sea T : V → V una función lineal. Demues-
tre que si rango( T ◦ T ) = rango( T ), entonces Im( T ) ∩ ker( T ) = {0}.
24) Sean T : V → W una transformación lineal y U un subespacio de dimensión finita del espa-
cio V. Pruebe que si U ∩ ker T = {0}, entonces dim T (U ) = dim U, donde T (U ) = { T (u) |
u ∈ U }.
25) Sean U, V y W K-espacios vectoriales. Si V es de dimensión finita, B : U → V y A : V → W
son transformaciones lineales, pruebe que

dim Im( AB) = dim Im( B) − dim ker( A) ∩ Im( B).

(Nota: AB = A ◦ B).

55 Prof. Carlos J. Rubio


2. Transformaciones Lineales

2.2. Tipos de transformaciones lineales


2.2.1. Transformaciones lineales inyectivas y suprayectivas
Recordemos que una función f : A → B es inyectiva si para cualesquiera a, a0 ∈ A, f ( a) =
f ( a0 )
implica a = a0 . Si Im( f ) = B, entonces f es suprayectiva.

Ejemplo 2.2.1
La función lineal T : R[t]3 → R2 dada por T ( a + bt + ct2 ) = ( a, b) T no es inyectiva, pues
T (t2 ) = T (2t2 ).

Ejemplo 2.2.2
 
a
La función lineal T : R[t]2 → R2 definida por T ( a + bt) = es inyectiva y suprayec-
b
tiva.

El siguiente criterio es útil para determinar cuándo una transformación lineal es inyectiva.

Teorema 2.2.3
Una transformación lineal T : V → W es inyectiva si y solo si ker( T ) = {0}.

Demostración. (⇒) : Supongamos que T es inyectiva y sea v ∈ ker( T ). Entonces T (v) = 0. Sin
embargo, también sabemos que T (0) = 0 según el Teorema 2.1.4, de manera que T (v) = T (0).
Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker( T ) = {0}.
(⇐) : Supongamos ahora que ker( T ) = {0} y sean u, v ∈ V tales que T (u) = T (v). Como
T es lineal, tenemos que T (u − v) = T (u) − T (v) = 0 de donde u − v ∈ ker( T ). Pero ker( T ) =
{0}, de modo que u − v = 0. Por lo tanto, u = v y T es inyectiva.

Corolario 2.2.4
Sea dim V = dim W = n. Entonces, una transformación lineal T : V → W es inyectiva si
y solo si es suprayectiva.

Demostración. Tenemos que T es inyectiva si y solo si ker( T ) = {0} según el Teorema 2.2.3.
Luego, T es inyectiva si y solo si nulidad( T ) = 0. Por el Teorema de la dimensión, tenemos
que n = rango( T ). Por lo tanto, T es inyectiva si y solo si n = rango( T ). Como rango( T ) =
dim(Im( T )), tenemos que Im( T ) = W y por lo tanto T es suprayectiva. Así, T es inyectiva si y
solo si es suprayectiva.

Prof. Carlos J. Rubio 56 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Corolario 2.2.5
Sea T : V → W una transformación lineal inyectiva. Si S = {v1 , . . . , vk } es un conjunto
linealmente independiente en V, entonces T (S) = { T (v1 ), . . . , T (vk )} es un conjunto
linealmente independiente en W.

Demostración. Sean c1 , . . . , ck escalares tales que:


c1 T (v1 ) + · · · + ck T (vk ) = 0.
Entonces, T (c1 v1 + · · · + ck vk ) = 0 pues T es lineal. De aquí que c1 v1 + · · · + ck vk ∈ ker( T ).
Pero, ya que T es inyectiva, ker( T ) = {0} según el Teorema 2.2.3. Por consiguiente, c1 v1 +
· · · + ck vk = 0. No obstante, debido a que S es linealmente independiente, concluimos que
c1 = · · · = ck = 0. Por lo tanto, T (S) es linealmente independiente.

Corolario 2.2.6
Sea dim V = dim W = n. Entonces, una transformación lineal inyectiva T : V → W
mapea una base para V en una base para W.

Demostración. Sea β = {v1 , . . . , vn } una base para V. Como T es inyectiva, los elementos de
T ( β) son distintos entre sí. Luego, | T ( β)| = n = dim W. De acuerdo con el Corolario 1.3.14,
T ( β) será una base para W si T ( β) es linealmente independiente. Pero T ( β) es linealmente
independiente según el corolario anterior. Por lo tanto T ( β) es una base para W.

Actividad de Aprendizaje 2.2.7


 
p (0)
1) Determine si la transformación lineal T : R[t]3 → R2 definida por T ( p(t)) = ,
p (1)
es inyectiva y/o suprayectiva.
2) Pruebe que no existen funciones lineales inyectivas R3 → R2 .
3) Pruebe que no existen funciones lineales suprayectivas R2 → R3 .
4) Sea V un espacio vectorial de dimensión finita y sea T : V → V un operador lineal.
Suponga que existe un operador lineal F : V → V tal que T ◦ F = 1V . Demuestre que
T es biyectiva.
5) Sea T : V → W una transformación lineal de espacios vectoriales de dimensión finita.
a) Demuestre que si dim V < dim W, entonces T no puede ser suprayectiva.
b) Demuestre que si dim V > dim W, entonces T no puede ser inyectiva.

2.2.2. Isomorfismo y transformaciones lineales inversas


Ahora estamos en posición de describir, en términos concretos, lo que significa que dos
espacios vectoriales sean “esencialmente el mismo”.

57 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Definición 2.2.8.

Una transformación lineal T : V → W es un isomorfismo si es inyectiva y suprayectiva.


Si V y W son espacios vectoriales tales que existe un isomorfismo de V en W, entonces
decimos que V es isomorfo a W y escribimos V ∼ = W.

Ejemplo 2.2.9
 
a
La función lineal T : R[t]2 → R2
definida por T ( a + bt) = es inyectiva y suprayec-
b
tiva, así que T es un isomorfismo y los espacios R[t]2 y R son isomorfos.
2

Ejemplo 2.2.10
La función lineal T : R[t]2 → R3 dada por T ( a + bt) = ( a, b, 0) T no es un isomorfismo
pues T no es sobre. Por ejemplo, no existe a + bt en el dominio de T tal que T ( a + bt) = e3 .
Así que T no es un isomorfismo. Observe que T es inyectiva. Que T no sea un isomorfis-
mo,¿significa que R[t]2 y R3 no son isomorfos?

Teorema 2.2.11
Sea K un campo. La relación es isomorfo a es una relación de equivalencia en la clase de
todos los K-espacios vectoriales. Más precisamente, si
1) V ∼
= V para cualquier K-espacio V.
2) Si V ∼
= W, entonces W ∼
= V.
3) Si U ∼
=VyV ∼
= W, entonces U ∼
= W.

Demostración. La función lineal identidad 1V es una biyección de V a V.


Suponga que T : V → W es un isomorfismo y sea F : W → V la función inversa de T. Por
definición de inversa, F (w) = v si y solamente si T (v) = w. Sean w1 , w2 ∈ W y v1 , v2 ∈ V tales
que T (v1 ) = w1 y T (v2 ) = w2 ; por lo tanto F (w1 ) = v1 y F (w2 ) = v2 . Por la linealidad de T
se tiene w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) y T (cv1 ) = cT (v1 ) = cw1 ; de acuerdo con la
definición de función inversa,

F ( w1 + w2 ) = v 1 + v 2 = F ( w1 ) + F ( w2 ) ,
F (cw1 ) = cv1 = cF (w1 ).

Con esto queda probado que la inversa de T también es lineal, que F : W → V es un isomorfis-
mo y por lo tanto W ∼ = V.
Finalmente, si T : U → V y F : V → W son isomorfismos, de acuerdo con el Teorema 2.1.14,
FT : U → W es lineal; y dado que la composición de funciones biyectivas es nuevamente bi-
yectiva se concluye que FT es un isomorfismo con lo que queda probado que U ∼ = W.

Prof. Carlos J. Rubio 58 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Ejemplo 2.2.12

1) La función lineal T : R[t]3 → R2 dada por T ( a + bt + ct2 ) = ( a, b) T es suprayectiva;


sin embargo, no es inyectiva, pues T (t2 ) = T (2t2 ) y T no es un isomorfismo.
 
−a + b − c
2) La función lineal T : R[t]3 → R2 definida por T ( a + bt + ct2 ) = no es
a−b+c
inyectiva ni suprayectiva y en consecuencia no es un isomorfismo.
 
a+b
3) La función lineal T : R[t]2 → R2 , T ( a + bt) = es una biyección y también es
a−b
un isomorfismo entre R[t]2 y R2 .

4) Los espacios R[t]n y Rn son isomorfos. Se deja de ejercicio al lector verificar que
T ( a0 + a1 t + · · · + an−1 tn−1 ) = ( a0 , a1 , . . . , an−1 ) T es lineal biyectiva.

Teorema 2.2.13
Sean V y W dos K-espacios vectoriales de dimensión finita. Entonces, V es isomorfo a W
si y solo si dim V = dim W.

Demostración. (⇒) : Sea n = dim V. Si V es isomorfo a W, entonces existe un isomorfismo


T : V → W. Como T es inyectiva, nulidad( T ) = 0, y como T es suprayectiva, Im( T ) = W.
El Teorema de la dimensión implica entonces que rango( T ) = n, de donde dim W = n. Así,
dim V = dim W = n.
(⇐) : Supongamos ahora que dim V = dim W = n. Sea β = {v1 , . . . , vn } una base para V y
sea β0 = {w1 , . . . , wn } una base para W. Por el Teorema 2.1.9 existe una única transformación
lineal T : V → W tal que T (vi ) = wi para i = 1, . . . , n. Demostraremos que esta función es
inyectiva y suprayectiva. Sea v ∈ ker( T ). Podemos escribir v como combinación lineal de los
vectores de la base β, digamos v = c1 v1 + · · · + cn vn . Tenemos que:

0 = T ( v ) = T ( c 1 v 1 + · · · + c n v n ) = c 1 T ( v 1 ) + · · · + c n T ( v n ) = c 1 w1 + · · · + c n w n ,

de donde c1 = · · · = cn = 0 ya que β0 es linealmente independiente. Por lo tanto, v = 0


y así ker( T ) = {0}. Aplicando ahora el Teorema 2.2.3, se sigue que T es inyectiva. Como
dim V = dim W = n, T también es suprayectiva, de acuerdo con el Corolario 2.2.4. Por lo
tanto, T es un isomorfismo y V ∼
= W.

Ejemplo 2.2.14
Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 = dim R[t]n+1 .

Teorema 2.2.15
Sea V un K-espacio vectorial de dimensión finita. Entonces V es isomorfo a Kdim V .

59 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Demostración. Los K-espacios vectoriales V y Kdim V tienen la misma dimensión finita.

Actividad de Aprendizaje 2.2.16

1) Sea T : R[t]3 → R[t]3 la función lineal dada por

T ( a + bt + ct2 ) = −c + (−b + c)t + ( a + 2b − c)t2 .

Encuentre la inversa de T, si existe.

2) Pruebe que el espacio vectorial de las matrices reales simétricas de 2 × 2 es isomorfo


a R3 .
3) Considere a C como R-espacio vectorial.
a) Demuestre que C y R2 son isomorfos.
b) Demuestre que Cn y R2n son isomorfos para todo entero positivo n.

2.2.3. Ejercicios de Práctica


1) Sea T un operador lineal sobre V tal que T 2 = T, es decir, T ◦ T = T. Sea v ∈ V. Demuestre
que {v, T (v)} es linealmente dependiente si y solo si T (v) = v o T (v) = 0.

2) Sea L : R2 → R2 un operador lineal no nulo tal que L2 = L ◦ L = 0. Demuestre que existe


una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0.

3) Sea K un campo y sea T : K → K n una función lineal. Demuestre que T = 0 o T es inyectiva.


 
p (0)
4) Sea T : R [t]4 → R la función lineal dada por T ( p) =
2 . Calcule una base para el
p (1)
núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.

5) Calcule bases para el núcleo imagen de la transformación lineal T : R [t]3 → R3 definida


 y la 
a0 + a2
por T ( a0 + a1 t + a2 t2 ) = − a1 .
0
  
a b a
6) Sea T : R2×2 → R2 la función lineal dada por T = . Calcule una
c d a+b+c+d
base para el núcleo de T. ¿Es T una función suprayectiva? Justifique su respuesta.

7) Sea T : R5 → R4 una transformación lineal tal que dim ker T = 1. Encuentre la imagen de
T.

8) Sea v un vector no cero de R2 . Sea T : R2 → R2 un operador lineal tal que T (v) = 0.


Demuestre que Im T es o una línea recta o es {0}.

9) Sean W1 , W2 dos espacios vectoriales y sea V su producto directo V = W1 × W2 . Sea W =


W1 × 0 = {(w1 , 0) ∈ V | w1 ∈ W1 } . Demuestre que el espacio cociente V/W y el espacio
W2 son isomorfos. (Sugerencia: Considere la función T : W2 → V/W dada por T (w2 ) =
W1 × w2 ).
Para la definición de espacio cociente, consulte el Ejercicio 22 de la Sección 1.1.

Prof. Carlos J. Rubio 60 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

10) Demuestre que T : R[t]n+1 → R[t]n+1 definida por T ( p(t)) = p(t) + p0 (t) para cada p(t) ∈
R[t]n+1 , es un isomorfismo.

11) ¿Es la función T : R[t]n+1 → R[t]n+1 definida por T ( p(t)) = p(t − 2) para cada p(t) ∈
R[t]n+1 , un isomorfismo?

12) Sean T : U → V y F : V → W dos transformaciones lineales. Pruebe que

a) ker T ⊆ ker F ◦ T.
b) Si U y W son de dimensión finita y dim U > dim V, entonces F ◦ T : U → W no es un
isomorfismo.

13) Suponga que T : U → V y F : V → W son transformaciones lineales tales que F ◦ T es una


biyección. Pruebe que V = Im T ⊕ ker F.

14) Sea V un espacio vectorial de dimensión finita y sea T : V → W una transformación lineal.
Pruebe que V/ ker T ∼
= Im T. (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 )).
Para la definición de espacio cociente, consulte el Ejercicio 22 de la Sección 1.1.

15) Pruebe el Teorema de la dimensión usando el ejercicio anterior.

16) Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformación lineal inyectiva

V V V
θ: → × .
W1 ∩ W2 W1 W2

17) Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensión finita
n > 0. Determine la cardinalidad de V.

2.3. Matrices y transformaciones lineales


2.3.1. La matriz asociada a una transformación lineal
A cada transformación lineal es posible asignarle una matriz. Veamos un ejemplo de cómo
hacer esto. Considere los espacios vectoriales R3 y R[t]3 con las bases:
      
 1 1 1 
β = v1 =  −1 , v2 =  0 , v3 = 1 ,
2 −1 1
 

β0 = {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },

respectivamente. Sea T : R3 → R[t]3 la transformación lineal dada por:


 
x
T  y  = (y + 2z) + (y + z)t + ( x + y)t2 .
z

Sea v = (4, −1, 9) T . El objetivo de este ejemplo es escribir T (v) como combinación lineal
de los vectores de la base β0 utilizando dos procedimientos diferentes.

61 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Primer procedimiento. Calculemos directamente T (v).


 
4
T (v) = T −1 = 17 + 8t + 3t2 .
9
Queremos escribir T (v) = x1 w1 + x2 w2 + x3 w3 . Esto nos lleva a:
17 + 8t + 3t2 = x1 (1) + x2 (1 + t) + x3 (1 + t + t2 )
= ( x1 + x2 + x3 ) + ( x2 + x3 ) t + x3 t2 .
Resolviendo el sistema de ecuaciones lineales resultante, obtenemos x1 = 9, x2 = 5 y x3 = 3.
Así:
T ( v ) = 9(1) + 5(1 + t ) + 3(1 + t + t2 )
= 9w1 + 5w2 + 3w3 ,

y por lo tanto [ T (v)] β0 = (9, 5, 3) T .

Segundo procedimiento. Lo haremos en varios pasos.


(1) Escribimos cada uno de los vectores T (v1 ), T (v2 ) y T (v3 ) como combinación lineal de
los vectores de la base β0 . Es decir:

T (v1 ) = 3 + t + 0t2 = 2(1) + 1(1 + t) + 0(1 + t + t2 )


= 2w1 + w2 + 0w3
T (v2 ) = −2 − t + t2 = −(1) − 2(1 + t) + 1(1 + t + t2 )
= −w1 − 2w2 + w3
T (v3 ) = 3 + 2t + 2t2 = 1(1) + 0(1 + t) + 2(1 + t + t2 )
= w1 + 0w2 + 2w3 .
(2) Escribimos a v como combinación lineal de los vectores de la base β. Es decir:
     
1 1 1
v = 3 −1 −  0 + 2 1 = 3v1 − v2 + 2v3 .
2 −1 1
(3) En el paso (2) hallamos escalares c1 , c2 y c3 tales que v = c1 v1 + c2 v2 + c3 v3 . Por la linealidad
de T se tiene que T (v) = c1 T (v1 ) + c2 T (v2 ) + c3 T (v3 ). Combinando esto con los resultados del
paso (1), escribimos T (v) como combinación lineal de w1 , w2 y w3 . Es decir:
T (v) = 3T (v1 ) − T (v2 ) + 2T (v3 )
= 3(2w1 + w2 + 0w3 ) − (−w1 − 2w2 + w3 ) + 2(w1 + 0w2 + 2w3 )
= 9w1 + 5w2 + 3w3 .
Los dos procedimientos arrojan el mismo resultado. Sin embargo, el segundo procedimien-
to es más conveniente. Nótese que si hacemos:
 
h i 2 −1 1
A = [ T (v1 )] β0 | [ T (v2 )] β0 | [ T (v3 )] β0 = 1 −2 0 ,
0 1 2
entonces:     
2 −1 1 3 9
A [ v ] β = 1 −2 0 −1 = 5 = [ T (v)] β0 .
0 1 2 2 3

Prof. Carlos J. Rubio 62 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Teorema 2.3.1
Sean V y W dos K-espacios vectoriales de dimensión finita. Sean β = {v1 , . . . , vn } y
β0 = {w1 , . . . , wm } bases para V y W, respectivamente. Para cada transformación lineal
T : V → W existe una única matriz en K m×n , denotada por [ T ] ββ0 que satisface:

[ T ] ββ0 [v] β = [ T (v)] β0 , ∀v ∈ V.

De hecho, [ T ] ββ0 = [[ T (v1 )] β0 | . . . | [ T (vn )] β0 ] = ( aij ), donde

T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm


T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm

La matriz [ T ] ββ0 es la matriz de T en las bases β y β0 . También se dice que [ T ] ββ0 es la


matriz asociada a T en las bases β y β0 .

Demostración. Sea v ∈ V. Tenemos que v = x1 v1 + · · · + xn vn con xi escalares. Luego, [v] β =


( x1 , . . . , xn )T . Por otra parte, usando la linealidad de T tenemos que:

T ( v ) = x1 T ( v1 ) + · · · + x n T ( v n ). (2.1)

Para hallar [ T (v)] β0 debemos expresar a T (v) como combinación lineal de w1 , w2 , . . . , wm . Como
T (v1 ), T (v2 ), . . . , T (vn ) ∈ W, será suficiente expresar cada uno de estos vectores T (v j ), como
combinación lineal de los wi ’s.
Para cada j = 1, . . . , n, supongamos que:

T (v j ) = a1j w1 + a2j w2 + · · · + amj wm .

Sustituyendo cada T (v j ) en (2.1) tenemos que:

T (v) = x1 ( a11 w1 + · · · + am1 wm ) + · · · + xn ( a1n w1 + · · · + amn wm )


= ( a11 x1 + · · · + a1n xn )w1 + · · · + ( am1 x1 + · · · + amn xn )wm .

Luego:
    
a11 x1 + · · · + a1n xn a11 · · · a1n x1
.
.. . .. ..   .. 
[ T (v)] β0 =  =  ..
  
. .  . 
am1 x1 + · · · + amn xn am1 · · · amn xn
 
a11 · · · a1n
 .. .. ..  [v] .
= . . .  β
am1· · · amn
 
a11 · · · a1n
 .. .. .. , tenemos que [ T (v)] 0 = [ T ] 0 [v] . Note que [ T ] 0 =
Haciendo [ T ] ββ0 =  . . .  β ββ β ββ
am1 · · · amn
[[ T (v1 )] β0 | . . . | [ T (vn )] β0 ].

63 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Para demostrar la unicidad de [ T ] ββ0 , supongamos que B ∈ K m×n es tal que [ T (v)] β0 = B[v] β
para todo v ∈ V. Sea A = [ T ] ββ0 . Entonces, A[v] β = B[v] β para todo v ∈ V, en particular,
A[v j ] β = B[v j ] β para j = 1, . . . , n. Como [v j ] β = e j , tenemos que Ae j = Be j , es decir, la j-ésima
columna de A es igual a la j-ésima columna de B para j = 1, . . . , n, y por lo tanto A = B.

Ejemplo 2.3.2

1) Si T : R3 → R[t]3 es la transformación lineal dada por:


 
x
T  y  = (y + 2z) + (y + z)t + ( x + y)t2 ,
z

y β, β0 son como antes, entonces:


 
2 −1 1
[ T ] ββ0 = 1 −2 0 .
0 1 2

Si ahora, β 1 = {e1 , e2 , e3 } y β01 = {1, t, t2 }, entonces:


 
0 1 2
[ T ] β 1 β 0 = 0 1 1 .
1
1 1 0

Este ejemplo muestra que una transformación lineal puede tener más de una matriz
asociada. De hecho, para cualquier pareja de bases β, β0 hay una matriz asociada. Más
adelante, se describirá la relación que hay entre las matrices asociadas a la misma
transformación lineal.

2) Sean T, F : R2 → R2 las transformaciones lineales dadas por:


       
x 5x + 9y x −4x + 17y
T = , F = ,
y −x + y y − x + 6y

respectivamente. Considere las siguientes bases de R2 :


       
1 0 1 1
β= , , β0 = , ,
0 1 1 −1
       
3 2 1 1
β1 = , , β01 = ,
1 1 0 1

Entonces:
 
2 5
[ T ] ββ0 = = [ F ] β 1 β0 .
3 4 1

Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma
matriz asociada, respecto de diferentes bases.

Prof. Carlos J. Rubio 64 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

 
1 2 −3
3) Sea TA : R3 → R2 la función lineal inducida por la matriz A = . Es
2 −3 5
decir:    
x1  x
−3  1 
  
1 2 x1 + 2x2 − 3x3
TA x2 =
  x2 = .
2 −3 5 2x1 − 3x2 + 5x3
x3 x3
Si β y β0 son las bases canónicas para R3 y R2 respectivamente, entonces:
 
1 2 −3
[ TA ] ββ0 = = A.
2 −3 5

En general, si A ∈ K m×n y TA : K n → K m es la función lineal inducida por A, entonces


[ TA ] ββ0 = A, donde β y β0 son las bases canónicas de K n y K m , respectivamente. En
efecto, supongamos que β = {e1 , . . . , en } y β0 = {e10 , . . . , em
0 }. Entonces T ( e ) =
A j
Ae j = columna j de A. Luego, [ TA (e j )] β0 = Ae j y por lo tanto [ TA ] ββ0 = [ Ae1 | . . . |
Aen ] = A.
4) Sean V y W dos espacios vectoriales reales de dimensiones 3 y 2, respectivamente.
Sean β = {v1 , v2 , v3 } y β0 = {w1 , w2 } bases para V y W, respectivamente. Suponga
que T : V → W es una transformación lineal tal que:
 
−3 2 7
[ T ] ββ0 = .
−2 1 4

Si v = 2v1 + 3v2 − v3 , podemos escribir T (v) como combinación lineal de los elemen-
tos de la base β0 . Para calcular [ T (v)] β0 aplicamos el Teorema 2.3.1:
 
  2  
−3 2 7   −7
[ T (v)] β0 = [ T ] ββ0 [v] β = 3 = .
−2 1 4 −5
−1

Por lo tanto, T (v) = −7w1 − 5w2 .

Actividad de Aprendizaje 2.3.3

1) Considere la función lineal T : R[t]2 → R[t]2 dada por T ( a + bt) = ( a − b) + ( a + 2b)t.


Calcule la matriz de T respecto de las bases β = {1 + t, 1 − t} y β0 = {1 + t, 1}.
 
4a − 3b
2) Sea T : R[t]2 → R2 la función lineal dada por T ( a + bt) = . Calcule la
   − 3b

1 1
matriz de T con respecto a las bases β = {1, t} y β0 = , .
1 −1

3) Sea P : R2 → R2 la transformación lineal que a cada vector v ∈ R2 le asigna su


proyección ortogonal sobre la recta y = x, es decir, le asigna el vector v0 sobre la recta
y = x de tal manera que el vector v − v0 es perpendicular al vector v0 .

65 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Actividad de Aprendizaje 2.3.3 (Continuación)


y

x
=
y
v0

a) Calcule [ P] β , donde β es la base canónica de R2 .


 
x
b) Describa explícitamente P, es decir, determine una fórmula para P .
y

  vectoriales V = R[t]3 y W = R con las bases β = {1, t, t } y


4) Considere 2 2
 los espacios
1 1
β0 = , . Encuentre, de manera explícita, la única transformación lineal
−1 1  
1 −1 2
T : V → W tal que [ T ] ββ0 = .
−1 1 1

5) Sea {v1 , . . . , vn } una base para un espacio vectorial V y sea T : V → V una función
lineal biyectiva.
a) Pruebe que β0 = { T (v1 ), . . . , T (vn )} es una base de V.
b) Pruebe que para cualquier función lineal F : V → V se cumple que [ F ] β0 =
[ T ]− 1
β [ F]β [T ]β .

2.3.2. Matriz cambio de base


Considere las bases β = {e1 , e2 } y β0 = {e1 + e2 , e1 − e2 } del espacio vectorial R2 . Sea
1R2 : R2 → R2 el operador lineal identidad sobre R2 . Puesto que 1R2 (e1 ) = e1 = 1e1 + 0e2 y
1R2 (e2 ) = e2 = 0e1 + 1e2 , la matriz asociada al operador lineal 1R2 respecto a la base β es:
 
1 0
[1R2 ] ββ = = I.
0 1

Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 − e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) − 12 (e1 −
e2 ), de modo que:  
1/2 1/2
[1R2 ] ββ0 = .
1/2 −1/2
Si v = (7, −8) T , entonces [v] β = v. Luego:
[v] β0 = [1R2 (v)] β0 = [1R2 ] ββ0 [v] β ,
    
1/2 1/2 7 −1/2
[ v ] β0 = =
1/2 −1/2 −8 15/2

Prof. Carlos J. Rubio 66 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

   
1 1
Así, v = (−1/2) + (15/2) . Nótese que esta matriz sirve para cambiar de base.
1 −1

Definición 2.3.4.

Si V es un espacio vectorial de dimensión n, β y β0 son bases para V y 1V : V → V es la


función lineal identidad, a la matriz [1V ] ββ0 se le llama matriz cambio de base de la base
β a la base β0 .

En el caso en que β = β0 tenemos que [1V ] ββ = I, donde I es la matriz identidad de n × n.


En efecto, si β = {v1 , . . . , vn }, entonces 1V (v j ) = v j y [v j ] β = e j , de donde [1V ] ββ = [e1 | . . . |
en ] = I.

Actividad de Aprendizaje 2.3.5

1) Sea V un espacio vectorial de dimensión finita y sean β = {v1 , . . . , vn } y β0 =


{w1 , . . . , wn } bases diferentes para V. Sea T el único operador lineal sobre V tal que
T (wi ) = vi para i = 1, . . . , n. Pruebe que [1V ] ββ0 = [ T ] β = [ T ] β0 .

2) Sea V un espacio vectorial de dimensión finita, sean β y β0 bases para V, sea P la


matriz cambio de base de la base β a la base β0 y sea T : V → V un operador lineal.
Demuestre que [ T ] ββ0 = P[ T ] β .
 
2 −1
3) Sean P = y β la base canónica de R2 . Halle una base β0 de R2 de tal
−7 4
manera que P sea la matriz cambio de base de la base β a la base β0 .
4) Sean β = {v1 , . . . , vn } y β0 = {w1 , . . . , wn } bases para Rn . Sean A = [v1 | . . . | vn ] y
B = [w1 | . . . | wn ]. Demuestre que la matriz P = B−1 A es la matriz cambio de base
de la base β a la base β0 .

2.3.3. El isomorfismo entre el espacio vectorial de las matrices y el espacio


vectorial de las transformaciones lineales
Sean V y W dos K-espacios vectoriales. Como se vio antes, L(V, W ) es un K-espacio vec-
torial. En esta sección se probará que si los espacios V y W son de dimensión finita, entonces
L(V, W ) ∼= Kdim W ×dim V y L(V, W ) es de dimensión finita.

Teorema 2.3.6

1) Si A, B ∈ K m×n , y c es un escalar, entonces TA+ B = TA + TB y TcA = cTA .


2) Si A ∈ K m×n y B ∈ K n× p , entonces TAB = TA ◦ TB .

Demostración. Se deja de ejercicio al lector.

67 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Teorema 2.3.7
Para cada T ∈ L(K n , K m ) existe una única matriz A ∈ K m×n tal que T = TA .

Demostración. Sea T ∈ L(K n , K m ) y sean β, β0 las bases canónicas para K n y K m respectivamen-


te. Por el Teorema 2.3.1, la matriz A = [ T ] ββ0 es la única matriz que satisface:

T ( x ) = [ T ( x )] β0 = [ T ] ββ0 [ x ] β = Ax = TA ( x ), ∀ x ∈ K n ,

es decir, T = TA .

Teorema 2.3.8
La función ϕ : K m×n → L(K n , K m ) dada por ϕ( A) = TA es un isomorfismo de espacios
vectoriales.

Demostración. Se sigue del Teorema 2.3.6 que ϕ es lineal y del Teorema 2.3.7 que ϕ es biyectiva.

Corolario 2.3.9
dim( L(K n , K m )) = mn.

Demostración. Como la función ϕ del teorema anterior es un isomorfismo, tenemos que ker( ϕ) =
{0} y Im( ϕ) = L(K n , K m ). Luego, por el teorema de la dimensión tenemos que dim(K m×n ) =
dim(ker( ϕ)) + dim(Im( ϕ)), es decir, mn = dim( L(K n , K m )).

Teorema 2.3.10
Sea V un K-espacio vectorial de dimensión finita n > 0 y sea β una base para V. Sea W un
K-espacio vectorial de dimensión finita m > 0 y sea β0 una base para W. Si F, T : V → W
son transformaciones lineales, entonces [ F + T ] ββ0 = [ F ] ββ0 + [ T ] ββ0 y [cF ] ββ0 = c[ F ] ββ0
para todo c ∈ K.

Demostración. Sea v ∈ V. Por el Teorema 2.3.1 tenemos que:

[ F + T ] ββ0 [v] β = [( F + T )(v)] β0 = [ F (v) + T (v)] β0 = [ F (v)] β0 + [ T (v)] β0


= [ F ] ββ0 [v] β + [ T ] ββ0 [v] β = ([ F ] ββ0 + [ T ] ββ0 )([v] β ).

En particular, [ F + T ] ββ0 [v0 ] β = ([ F ] ββ0 + [ T ] ββ0 )([v0 ] β ) para todo v0 ∈ β, de modo que [ F +
T ] ββ0 = [ F ] ββ0 + [ T ] ββ0 . De manera análoga se prueba que [cF ] ββ0 = c[ F ] ββ0 para todo c ∈ K.

Prof. Carlos J. Rubio 68 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

Teorema 2.3.11
Sean V, W, β y β0 como en el Teorema 2.3.10. Para cada matriz A ∈ K m×n existe una
única transformación lineal T : V → W tal que:

A = [ T ] ββ0 .

Demostración. Sean β = {v1 , . . . , vn }, β0 = {w1 , . . . , wm } y A = ( aij ) ∈ K m×n . Por el Teore-


ma 2.1.9, existe una única transformación lineal T : V → W tal que:
T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm ,
..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm ,
 
a11 . . . a1n
 a21 . . . a2n 
es decir, tal que [ T ] ββ0 = . ..  = A.
 
 .. ..
. . 
am1 ... amn

Teorema 2.3.12
Sean V, W, β y β0 como en el Teorema 2.3.10. La función φ : L(V, W ) → K m×n dada por
φ( T ) = [ T ] ββ0 es un isomorfismo de espacios vectoriales.

Demostración. Se sigue del Teorema 2.3.10 que φ es lineal y del Teorema 2.3.11 que φ es biyecti-
va.

Corolario 2.3.13
Sean V y W dos K-espacios vectoriales de dimensión finita, con dim(V ) = n y dim(W ) =
m. Entonces, dim( L(V, W )) = mn.

Demostración. Como la función φ del teorema anterior es un isomorfismo, se tiene la fun-


ción inversa φ−1 : K m×n → L(V, W ) también es un isomorfismo. Luego, ker(φ−1 ) = {0}
y Im(φ−1 ) = L(V, W ). Aplicando el teorema de la dimensión, tenemos que dim(K m×n ) =
dim(ker(φ−1 )) + dim(Im(φ−1 )), es decir, mn = dim( L(V, W )).

Actividad de Aprendizaje 2.3.14

1) Pruebe el Teorema 2.3.6.


2) Sean V y W K-espacios vectoriales y sea f : V → W un isomorfismo. Pruebe que la
función ϕ : L(V ) → L(W ) dada por ϕ( T ) = f ◦ T ◦ f −1 es un isomorfismo.

69 Prof. Carlos J. Rubio


2. Transformaciones Lineales

2.3.4. Equivalencia y semejanza entre matrices asociadas a la misma trans-


formación lineal
Escribiremos T : (V, β) → (W, β0 ) para denotar a una transformación lineal T entre dos
espacios vectoriales V y W con bases β y β0 , respectivamente.

Teorema 2.3.15
Sean U, V y W, K-espacios vectoriales de dimensiones positivas m, n y p, con bases β, β0
y β00 , respectivamente. Si F y T son transformaciones lineales tales que:

F T
(U, β) −−−−→ (V, β0 ) −−−−→ (W, β00 )
entonces:

[ T ◦ F ] ββ00 = [ T ] β0 β00 [ F ] ββ0 .

Demostración. Sea u ∈ U. El Teorema 2.3.1 implica que:

[ T ◦ F ] ββ00 [u] β = [( T ◦ F )(u)] β00 = [ T ( F (u))] β00 = [ T ] β0 β00 [ F (u)] β0 = [ T ] β0 β00 [ F ] ββ0 [u] β .

Como esto es para todo u ∈ U, en particular [ T ◦ F ] ββ00 [u0 ] β = [ T ] β0 β00 [ F ] ββ0 [u0 ] β para todo
u0 ∈ β. Luego, [ T ◦ F ] ββ00 = [ T ] β0 β00 [ F ] ββ0 .

Corolario 2.3.16
Sea V un espacio vectorial de dimensión finita n > 0 y sean β, β0 bases para V. Entonces:

[ 1V ] − 1
ββ0 = [1V ] β0 β .

Demostración. Consideremos la transformación lineal identidad 1V tal que:


1 1
V
(V, β) −−−− → (V, β0 ) −−−−
V
→ (V, β)

Por el Teorema 2.3.15, tenemos que [1V ] ββ = [1V ] β0 β [1V ] ββ0 . Como [1V ] ββ = I, se sigue que
[ 1V ] − 1
ββ0
= [ 1V ] β 0 β .

Teorema 2.3.17
Sean V y W espacios vectoriales de dimensión finita y T : V → W una transformación
lineal.
1) Si T es invertible, entonces [ T ] ββ0 es invertible para cualesquiera bases β y β0 de V y
W, respectivamente. Además:

[ T ]− 1 −1
ββ0 = [ T ] β0 β .

Prof. Carlos J. Rubio 70 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

2) Si [ T ] ββ0 es invertible para algún par de bases β y β0 de V y W respectivamente, en-


tonces T es invertible.

Demostración. 1) Si T : V → W es invertible, entonces T es un isomorfismo de espacios vecto-


riales y por lo tanto dim(V ) = dim(W ). Supongamos que dim(V ) = n, y sean β y β0 bases
de V y W respectivamente. Sea T −1 la inversa de T. Claramente T −1 es lineal. Entonces
[ T −1 ◦ T ] ββ = [1V ] ββ = I, donde I es la matriz identidad de n × n. Como:

T T −1
(V, β) −−−−→ (W, β0 ) −−−−→ (V, β)
entonces por el Teorema 2.3.15 tenemos que:

[ T −1 ◦ T ] ββ = [ T −1 ] β0 β [ T ] ββ0 ,

y por lo tanto I = [ T −1 ] β0 β [ T ] ββ0 , es decir, [ T ] ββ0 es invertible y [ T ]− 1


ββ0
= [ T −1 ] β 0 β .

2) Supongamos que existen bases β y β0 de V y W respectivamente, tales que [ T ] ββ0 es in-


vertible. Entonces, V y W tienen la misma dimensión, digamos n. Sea A la matriz inversa
de [ T ] ββ0 . Por el Teorema 2.3.11, existe una única transformación lineal S : W → V tal que
A = [S] β0 β . Entonces, [ T ] ββ0 [S] β0 β = I, donde I es la matriz identidad de n × n. Pero por el
Teorema 2.3.15, tenemos que [ T ] ββ0 [S] β0 β = [ T ◦ S] β0 β0 , de modo que [ T ◦ S] β0 β0 = I. Se sigue
finalmente que T ◦ S = 1W , es decir, T es invertible.

Los siguientes ejemplos son aplicaciones del Teorema 2.3.17.

Ejemplo 2.3.18
 
a−b
Determine si la función lineal T : R[t]2 → R2 lineal dada por T ( a + bt) = es
a + 2b
invertible. En caso de que lo sea, halle su inversa.
Se calcula la matriz de T respecto de alguna  una
 pareja de bases.
 Se escogen las bases
1 − 1
β = {1, t} y β0 = {e1 , e2 }. Dado que T (1) = y T (t) = , se tiene que
1 2
 
1 −1
[ T ] ββ0 = .
1 2

Esta matriz es invertible ya que su determinante es 3. De hecho,


 
2/3 1/3
[ T ]− 1
ββ0 = .
−1/3 1/3

De acuerdo con el Teorema 2.3.17, dado que T es invertible se tiene que [ T −1 ] β0 β = [ T ]− 1


ββ0
.
Por lo tanto, la inversa de T es la única función T −1 : R2 → R[t]2 dada por T −1 (e1 ) =
2/3 − t/3 y T −1 (e2 ) = 1/3 + t/3. Por lo tanto,
     
−1 x −1 −1 2 t 1 t 1
T = xT (e1 ) + yT (e2 ) = x − +y + = (2x + y + (− x + y)t) .
y 3 3 3 3 3

71 Prof. Carlos J. Rubio


2. Transformaciones Lineales

La elección de las bases canónicas fue para facilitar los cálculos. Se recomienda al lector
como ejercicio verificar que se obtiene el mismo resultado si escogen las bases β = {1 +
t, 1 − t} y β0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente.

Ejemplo 2.3.19
Sea W el espacio vectorial real que consta de las matrices antisimétricas de 3 × 3, es decir:

W = { A ∈ R3 × 3 | A = − A T } .
Sea T : R[t]3 → W la transformación lineal dada por:
 
0 −a + b −b + c
T ( a + bt + ct2 ) =  a − b 0 −c .
b−c c 0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para
ello, se trabajará con las bases:

β = {1, t, t2 },
      
 0 −1 0 0 0 −1 0 0 0 
β0 = w = 1 0 0  , w2 =  0 0 0  , w3 =  0 0 − 1  ,
 1
0 0 0 1 0 0 0 1 0

de R[t]3 y W, respectivamente. Dado que T (1) = w1 , T (t) = − w1 + w2 y T ( t 2 ) =


−w2 + w3 , se tiene que:
 
1 −1 0
[ T ] ββ0 = 0 1 −1 .
0 0 1
 
1 1 1
Es fácil ver que esta matriz es invertible y que [ T ]−
ββ
1
0 = 0 1 1. Luego, la inversa
0 0 1
de T es la única función lineal T −1 : W → R[t]3 tal que:

T −1 (w1 ) = 1, T −1 (w2 ) = 1 + t, T −1 ( w3 ) = 1 + t + t 2 .

Se sigue entonces que T −1 está dada por:


 
0 − a −b
T −1  a 0 −c = T −1 ( aw1 + bw2 + cw3 )
b c 0
= a (1) + b (1 + t ) + c (1 + t + t2 )
= ( a + b + c) + (b + c)t + ct2 .
Nótese que si T : V → W es una transformación lineal tal que para algún par de bases β
y β0 de V y W respectivamente, la matriz [ T ] ββ0 no es invertible, entonces T tampoco es
invertible. En efecto, si T fuera invertible, entonces por el Teorema 2.3.17, la matriz de T
referida a cualquier par de bases sería invertible, en particular [ T ] ββ0 sería invertible, lo
que es una contradicción.

Prof. Carlos J. Rubio 72 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

A continuación veremos la relación que hay entre las matrices que representan a una misma
transformación lineal.
Definamos en K m×n una relación de equivalencia ∼ denominada equivalencia de matrices.

Definición 2.3.20.

Decimos que A es equivalente a B, denotado A ∼ B, si existen matrices invertibles P y


Q de m × m y n × n, respectivamente, tales que:

A = PBQ.

Se deja al lector probar que esta relación es una relación de equivalencia (Ejercicio 23). Se de-
nota por K m×n / ∼ el conjunto de todas las clases de equivalencia bajo esta relación. El siguiente
teorema muestra que cualesquiera dos matrices que representen a la misma transformación li-
neal son equivalentes.

Teorema 2.3.21
Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación
lineal.
1) Cualesquiera dos matrices que representan a T son equivalentes. Más precisamente,
si β y β 1 son bases para V, y β0 y β01 son bases para W, entonces:
[ T ] ββ0 = [1W ] β0 β0 [ T ] β1 β0 [1V ] ββ1 .
1 1

En otras palabras, el siguiente diagrama es conmutativo:


T
(V, β) −−−−→ (W, β0 )
 x
1V y
 1
W
(V, β 1 ) −−−−→ (W, β01 )
T

es decir, T = 1W ◦ T ◦ 1V .
2) Recíprocamente, si A y B son matrices equivalentes y A representa a T, entonces B
también representa a la transformación lineal T. Más precisamente, si A = PBQ, con
P y Q matrices invertibles y A = [ T ] ββ0 para algunas bases β de V y β0 de W, entonces
existen bases β 1 de V y β01 de W, tales que
P = [1W ] β0 β0 , B = [ T ] β 1 β0 , Q = [1V ] ββ1
1 1

T
(V, β) (W, β0 )

Q 1V 1W P A = PBQ

(V, β 1 ) (W, β01 )


T

73 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Demostración.

1) Por el Teorema 2.3.15 tenemos que:

[1W ] β0 β0 [ T ] β1 β0 = [1W ◦ T ] β1 β0 y [1W ◦ T ] β1 β0 [1V ] ββ1 = [(1W ◦ T ) ◦ 1V ] ββ0 .


1 1

Por lo tanto:

([1W ] β0 β0 [ T ] β1 β0 )[1V ] ββ1 = [(1W ◦ T ) ◦ 1V ] ββ0 = [ T ] ββ0 ,


1 1

ya que (1W ◦ T ) ◦ 1V = T.

2) Supongamos que A = [ T ] ββ0 y que A = PBQ con P = ( pij ) y Q = (qij ) matrices inverti-
bles de m × m y n × n, respectivamente. Sea β0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m,
definimos:
m
wi0 = p1i w1 + p2i w2 + · · · + pmi wm = ∑ pki wk .
k =1

Demostraremos que β01 = {w10 , . . . , wm


0 } es base de W. Supongamos que:

c1 w10 + c2 w20 + · · · + cm wm
0
= 0.

Entonces:
m m m
0 = c1 ∑ pk1 wk + c2 ∑ pk2 wk + · · · + cm ∑ pkm wk
k =1 k =1 k =1
m m m m
= ∑ ∑ ci pki wk = ∑ ∑ ci pki wk
i =1 k =1 k =1 i =1
!
m m
= ∑ ∑ ci pki wk .
k =1 i =1

Como β0 es base de W, se sigue que ∑im=1 ci pki = 0 para cada k = 1, 2, . . . , m. Es decir,


tenemos que Pc = 0 donde c = (c1 c2 · · · cm ) T . Como P es invertible, se sigue que
c = P−1 0 = 0, de modo que ci = 0 para cada i = 1, 2, . . . , m. Por lo tanto, β01 es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W. Así, P = [1W ] β0 β0 .
1

Por otro lado, sean β = {v1 , v2 , . . . , vn } y Q −1 = (qij0 ). Para cada i = 1, 2, . . . , n, definimos:

n
vi0 = q1i
0 0
v1 + q2i v2 + · · · + q0ni vn = ∑ q0ki vk ,
k =1

y como en el caso anterior, se demuestra que β 1 = {v10 , v20 , . . . , v0n } es base de V. Luego,
Q−1 = [1V ] β1 β y por el Corolario 2.3.16, se sigue que Q = [1V ]− 1
β β = [1V ] ββ 1 . 1

Luego, hemos encontrado bases β 1 y β01 de V y W, respectivamente, tales que P = [1W ] β0 β0


1
y Q = [1V ] ββ1 . Luego, por lo demostrado en 1, se tiene que

A = [ T ] ββ0 = [1W ] β0 β0 [ T ] β1 β0 [1V ] ββ1 = P[ T ] β1 β0 Q


1 1 1

Finalmente, como A = PBQ, se sigue que P[ T ] β1 β0 Q = PBQ de donde [ T ] β1 β0 = B.


1 1

Prof. Carlos J. Rubio 74 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

El teorema anterior establece que la función L(V, W ) → Kdim W ×dim V / ∼ dada por:

T 7→ clase de equivalencia de A

está bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 2.3.11 que la asignación es suprayectiva. La función no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 2.3.2,
inciso 2).

Ejemplo 2.3.22
Sea T : R[t]3 → R[t]2 la función lineal dada por

T ( a + bt + ct2 ) = ( a − b + 2c) + (− a + 2c)t.

Considere las bases β = {1, t, t2 } y β 1 = {1 + 2t, 1 + 3t, −3 − 9t − t2 } para el dominio, y


las bases β0 = {1, t} y β01 = {2 + 5t, 1 + 3t} para el contradominio. Por un lado se tiene
T (1) = 1 − t, T (t) = −1 y T (t2 ) = 2 + 2t. Por otro lado,

T (1 + 2t) = −1 − t = −2(2 + 5t) + 3(1 + 3t)


T (1 + 3t) = −2 − t = −5(2 + 5t) + 8(1 + 3t)
T (−3 − 9t − t2 ) = 4 + t = 11(2 + 5t) − 18(1 + 3t)

Por lo tanto, las matrices de T con respecto a estas bases son


   
1 −1 2 −2 −5 11
[ T ] ββ0 = , [ T ] β 1 β0 = .
−1 0 2 1 3 8 −18

Las matrices cambio de base de la base β01 a la base β0 y de la base β a la base β 1 son
 
  3 −1 0
2 1
P = [1R[t]2 ] β0 β0 = y Q = [1R[t]3 ] ββ1 = −2 1 −3 ,
1 5 3
0 0 −1

respectivamente. De acuerdo con el Teorema 2.3.21, A = PBQ; por multiplicación directa


se ve que en efecto esto es así.

Ejemplo 2.3.23
Sea T : R[t]4 → R[t]3 la transformación lineal dada por:

T ( a + bt + ct2 + dt3 ) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t2 .

Sean β y β0 las bases canónicas de R[t]4 y R[t]3 respectivamente. Entonces, T (1) = 2 +


5t + 4t2 , T (t) = 6 + 3t, T (t2 ) = 6 + 3t y T (t3 ) = 2 + 5t + 4t2 , de modo que:
 
2 6 6 2
[ T ] ββ0 = 5 3 3 5 .
4 0 0 4

75 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Si se consideran ahora las bases:

1 + t + t2 + t3 1 − t − t2 + t3 1 − t + t2 − t3 1 + t − t2 − t3
 
β1 = , , , ,
2 2 2 2
2 + 2t + t2 −2 + t + 2t2 1 − 2t + 2t2
 
β01 = , , ,
3 3 3

entonces la matriz de T referida a este par de bases es:


 
12 0 0 0
[ T ] β 1 β 0 =  0 6 0 0 .
1
0 0 0 0

Las matrices cambio de base son:


 
  1/2 1/2 1/2 1/2
2/3 −2/3 1/3 1/2 −1/2 −1/2 1/2
P = [1R[t]3 ] β01 β0 = 2/3 1/3 −2/3 y Q = [1R[t]4 ] ββ1 = .
1/2 −1/2 1/2 −1/2
1/3 2/3 2/3
1/2 1/2 −1/2 −1/2

Un cálculo directo muestra que [ T ] ββ0 = P[ T ] β1 β0 Q.


1

Defínase en K n×n una relación de equivalencia ∼ denominada semejanza de matrices. Se


dice que A es semejante a B, denotado A ∼ B, si existe una matriz invertible P tal que
A = PBP−1 . Se deja al lector verificar que en efecto la semejanza de matrices es una rela-
ción de equivalencia (Ejercicio 24). Se denota por K n×n / ∼ al conjunto de todas las clases de
equivalencia bajo esta relación.
Sea V un K-espacio vectorial de dimensión finita. Si T ∈ L(V ) y A es la matriz de T respecto
de alguna base, el siguiente teorema establece que la función L(V ) → Kdim V ×dim V / ∼ dada
por:

T 7→ clase de equivalencia de A

está bien definida.


Si T : (V, β) → (V, β) es una función lineal y se considera la misma base tanto para el
dominio como para el contradominio, en vez de escribir [ T ] ββ se escribe [ T ] β .

Corolario 2.3.24
Sea V un espacio vectorial de dimensión finita y sea T un operador lineal sobre V.
1) Cualesquiera dos matrices que representan a T son semejantes. De hecho, si β y β0
son bases para V, entonces [ T ] β = P[ T ] β0 P−1 , donde P = [1V ] β0 β .
2) Recíprocamente, si A y B son matrices semejantes y A representa a T, entonces B
también representa a la transformación lineal T. Más precisamente, si A = PBP−1 y
A = [ T ] β para alguna base β de V, entonces existe una base β0 de V tal que B = [ T ] β0

Prof. Carlos J. Rubio 76 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

T
(V, β) (V, β)

P −1 1V 1V P A = P B P −1
(V, β0 ) (V, β0 )
T

y P = [ 1V ] β 0 β . B

Demostración. Se sigue del Teorema 2.3.21.

Ejemplo 2.3.25
 
2 1
Sea T el operador lineal sobre R2 inducido por la matriz A = . Considere las
−1 3
0
bases β = {e1 , e2 } y β = {e1 + 3e3 , 2e1 + 5e3 } = {v1 , v2 }. La matriz de T en la base β es
A. Por otro lado, Tv1 = −9v1 + 7v2 y Tv2 = −19v1 + 14v2 . La matriz cambio de base de
la base β0 a la base β es P = [v1 | v2 ]. Un cálculo directo muestra que
   
1 2 −9 −19 −5 2
[ T ] β = P [ T ] β P −1 = .
3 5 7 14 3 −1

Ejemplo 2.3.26
Sea T : R[t]2 → R[t]2 la transformación lineal dada por: T ( a + bt) = ( a − b) + 2bt. Sea β0
la base de R[t]2 dada por β0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 − t. Como T (v1 ) = v1 y
T (v2 ) = 2v2 , se tiene
 
1 0
D = [ T ] β0 = .
0 2

Si A es la matriz de T en la base canónica, entonces A = PDP−1 , donde


 
1 1
P = [1R[t]2 ] β0 β =
0 −1

77 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Ejemplo 2.3.27
Sean A y P las siguientes matrices:
   
−2 1 0 0 0 −8 −2 1 0 0 0 0
 −4 4 0 0 0 −8  0 2 1 0 0 0
   
 0 0 2 0 −1 1  0 0 0 0 −1 1
A=  −1 0 0 5
 y P=
 −1
.
 0 1  0 0 1 0 0
 1 0 1 0 4 0  1 0 0 0 1 0
1 0 0 0 0 4 1 0 0 0 0 0

Sean T : R6 → R6 la transformación lineal inducida por la matriz A, y β0 = {v1 , . . . , v6 },


donde vi es la columna i de la matriz P. Como det( P) = −1 6= 0, β0 es una base de R6 .
Puesto que T (v1 ) = 2v1 , T (v2 ) = v1 + 2v2 , T (v3 ) = v2 + 2v3 T (v4 ) = 5v4 , T (v5 ) = 3v5 ,
T (v6 ) = v5 + 3v6 , la matriz de T respecto de la base β0 es
 
2 1 0 0 0 0
0 2 1 0 0 0
 
0 0 2 0 0 0
J = [ T ] β0 = 
 .
0 0 0 5 0 0

0 0 0 0 3 1
0 0 0 0 0 3

Si β es la base canónica de R6 , entonces A = PJP−1 .

Si V es un K-espacio vectorial de dimensión finita, entonces el espacio de todos los opera-


dores lineales L(V ) es isomorfo al espacio de las matrices cuadradas K n×n . Por lo tanto tiene
sentido en definir el determinante y la traza de un operador lineal T ∈ L(V ). Más precisa-
mente, si A y B son semejantes, digamos A = PBP−1 , entonces det( A) = det( PBP−1 ) =
det( P) det( B) det( P−1 ) = det( B). Recuerde que si A y B son matrices tales que AB y BA está
definido, entonces tr( AB) = tr( BA) (Teorema B.6). Luego tr( A) = tr( PBP−1 ) = tr( P−1 PB) =
tr( B). Usando esto y el Corolario 2.3.24, se definen el determinante y la traza de un operador
lineal.

Definición 2.3.28.

Sean V un espacio vectorial de dimensión finita y T un operador lineal sobre V. Sea A la


matriz de T en alguna base β.

a) El determinante de T, denotado por det( T ), es el determinante de A.


b) La traza de T, tr( T ), es la traza de A.

Ejemplo 2.3.29
Calcule el determinante y la traza del operador lineal T : R[t]2 → R[t]2 dado por T ( a +
bt) = ( a − b) + ( a + 2b)t.  
1 −1
Considérese la base β = {1, t}. La matriz de T en la base β es y por lo tanto su
1 2
determinante es 3; la traza de T es 3. Observe que si se toma la base β0 = {1 + t, 1 − t},

Prof. Carlos J. Rubio 78 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

 
3/2 1/2
entonces la matriz de T respecto a esta base es . Como era de esperarse,
−3/2 3/2
det([ T ] β0 ) = 3 = tr([ T ] β0 ).

Ejemplo 2.3.30
Hallar el determinante y la traza del operador lineal F : R2×2 → R2×2 dado por F ( A) =
3A − 2A T para toda A ∈ R2×2 .
2×2
Lo primero
 es
 seleccionar
  basepara R  . Porfacilidadse considera
una  la base canónica
1 0 0 1 0 0 0 0
β = e11 = , e12 = , e21 = , e22 = . Entonces:
0 0 0 0 1 0 0 1

F (e11 ) = e11 = 1e11 + 0e12 + 0e21 + 0e22 ,


 
0 3
F (e12 ) = = 0e11 + 3e12 − 2e21 + 0e22 ,
−2 0
 
0 −2
F (e21 ) = = 0e11 − 2e12 + 3e21 + 0e22 ,
3 0
F (e22 ) = e22 = 0e11 + 0e12 + 0e21 + 1e22 .

Se sigue que:
 
1 0 0 0
0 3 −2 0
[ F]β =  .
0 −2 3 0
0 0 0 1

Por lo tanto, det( F ) = det([ F ] β ) = 5 y tr( T ) = 8.

Observación 2.3.31
De todas las matrices que representan a una transformación lineal T, es deseable (y reco-
mendable) escoger una matriz que sea particularmente simple. En el Ejemplo 2.3.23 fue
posible escoger una pareja de bases de tal manera que la matriz asociada fuera “diago-
nal”. En el caso del operador lineal del Ejemplo 2.3.26, la matriz asociada resultó diago-
nal. En el Ejemplo 2.3.27 la matriz asociada con el operador lineal no fue diagonal, pero
sí muy cercana a una matriz diagonal.

Actividad de Aprendizaje 2.3.32

 T : R → R la transformación
1) Sea 3 2 linealdada por T ( x ) = Ax, donde A =

8 −1 1 1 −1 1
. La matriz B = es equivalente a la matriz A, de he-
3 0 1 1 2 −1

79 Prof. Carlos J. Rubio


2. Transformaciones Lineales

Actividad de Aprendizaje 2.3.32 (Continuación)


 
  1 −1 −1
3 5
cho A = PBQ, donde P = y Q = 0 1 1. Calcule bases β 1 y β01
1 2
0 0 −1
para R3 y R2 , respectivamente tales que B = [ T ] β1 β0 . Por comprobación directa ve-
1  
2 −5
rifique que efectivamente B = [ T ] β1 β0 . En caso de necesitarlo, P−1 = y
 
1 −1 3
1 1 0
Q −1 =  0 1 1.
0 0 −1
 
5 8
2) Sea T el operador lineal sobre R2 dado por T ( x ) = Ax, donde A = . La
  −3 −5
1 −1
matriz B = es semejante con la matriz A, de hecho, A = PBP−1 , donde
 0 −1
2 −3
P= . Calcule una base β0 para R2 de tal manera que B = [ T ] β0 .
−1 2

3) Sea V un espacio vectorial de dimensión finita y sea β = {v1 , v2 } una base
 para V.
2 −1
Sea T un operador lineal sobre V tal que [ T ] β = A, donde A = . La matriz
  4 3  
−41 −24 2 1
B = es semejante con A, de hecho A = PBP−1 , donde P = .
79 46 7 4
Calcule una base β0 para V de tal manera que [ T ] β0 = B. La base β0 debe expresarse
en términos de la base β.

4) Sean β = {(1, 1) T , (1, −1) T } y β0 = {1, 1 + t} bases para los espacios R y R[t]2 ,
2

3 4
respectivamente. Sea T : R2 → R[t]2 la función lineal tal que [ T ] ββ0 = = A.
2 3

a) Encuentre una función lineal F : R[t]2 → R2 tal que:


 
−1 3 −4
[ F ] β0 β = A = .
−2 3

b) Verifique que F es la inversa de la función T.

5) Considere a los números complejos C como un espacio vectorial sobre el campo de


los números reales. Sea α ∈ C y sea T : C → C el operador lineal dado por T (z) = αz.
Calcule el determinante de T.

2.3.5. Ejercicios de Práctica


1) Sea T el operador lineal sobre R[t]2 definido por:
T ( a + bt) = (18a + 30b) + (−10a − 17b)t.
Considere las bases β = {1, t} y β0 = {2 − t, −3 + 2t}. Calcule las matrices [ T ] β y [ T ] β0 .

2) Considere el espacio vectorial R [t]3 con la base β = 1 + t + t2 , 2 + 3t + t2 , 1 + 2t + t2 . Sea




T : R [t]3 → R [t]3 la función lineal derivación T ( p) = p0 . Calcule la matriz de T respecto a


la base β.

Prof. Carlos J. Rubio 80 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

 
1 1
3) Sea T el operador lineal sobre R2×2 dado por T ( A) = BA − AB, donde B = .
−1 −1
Calcule [ T ] β , la matriz de T en la base β, donde β es la base canónica de R2×2 .

4) Sea T : R [t]3 → R4 dada por T ( p) = ( p(0), p(1), p(2), p(3)) T . Encuentre la matriz de T
respecto a las bases canónicas de R [t]3 y R4 , respectivamente.
 
2x1 + 6x2 + 6x3 + 2x4
5) Sea T : R4 → R3 la transformación lineal dada por T ( x ) =  5x1 + 3x2 + 3x3 + 5x4  .
4x1 + 4x4

a) Calcule la matriz de T en las bases canónicas de R4 y R3 , respectivamente.


b) Considere las bases
        

 1 1 1 1 
 1   1   1   1  
1 − 1 −
  ,   ,   ,  1 ,
1

β1 =

 2 1 2  −1 2  1 2  −1  
1 1 −1 −1
 
      
1 2 −2 1 
0
β1 = 2 , 1  1 , 1  −2
3 3 3
1 2 2

de R4 y R3 , respectivamente. Calcule la matriz de T referida a este par de bases.

6) Sea V un K-espacio vectorial de dimensión n con una base β. Pruebe que un conjunto de vec-
tores {w1 , w2 , . . . , wr } ⊆ V es linealmente independiente si y solo si el conjunto de vectores
coordenados:
{[w1 ] β , [w2 ] β , . . . , [wr ] β } ⊆ K n
es linealmente independiente.

7) Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación


lineal. Sean β = {v1 , . . . , vn } y β0 = {w1 , . . . , wm } bases para V y W, respectivamente, y sea
A = [ T ] ββ0 . Sean v ∈ V y w ∈ W. Pruebe que:

a) v ∈ ker( T ) si y solo si [v] β ∈ N ( A).


b) w ∈ Im( T ) si y solo si [w] β0 ∈ R( A).
c) Si {h1 , . . . , hn−r } es una base del espacio nulo de A, entonces {u1 , . . . , un−r } es una base
para el núcleo de T, donde ui es tal que [ui ] β = hi para i = 1, . . . , n − r.
d) Si {y1 , . . . , yr } es una base para el espacio columna de A, entonces {w1 , . . . , wr } es una
base para la imagen de T, donde w j es tal que [w j ] β0 = y j para j = 1, . . . , r.

8) Sean β = {v1 , v2 , v3 } y β0 = {w1 , w2 } bases para R3 y R2 , respectivamente. Sea T : R3 → R2


la única transformación lineal tal que T (v1 ) = w2 y T (v2 ) = T (v3 ) = w1 − w2 . Calcule la
matriz [ T ] ββ0 .

9) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 }


y β0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única trans-
formación lineal tal que T (v1 ) = w1 − 2w2 − w3 , T (v2 ) = w2 , T (v3 ) = w1 − w2 − w3 y
T (v4 ) = −w1 + 2w2 + w3 . Utilizando la representación matricial de T, calcule bases para el
núcleo y la imagen de T. (Nota: Los vectores de estas bases deberán expresarse en términos
de los vectores de las bases β y β0 , según corresponda).

81 Prof. Carlos J. Rubio


2. Transformaciones Lineales

10) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y
β0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transforma-
ción lineal tal que

T (v1 ) = w1 + 2w2 − 3w3 , T ( v 2 ) = w2 ,


T (v3 ) = −w1 − w2 + 3w3 , T (v4 ) = 2w1 + 4w2 − 6w3 .

Calcule una base para el núcleo de T.

11) Sea T el operador lineal sobre R2×2 dado por T ( A) = 1


2 (A + A T ). Sea β la base canónica
para R2×2 . Calcule [ T ] β .

12) β = {(1, −1, 1) T , (1, 1, 0) T , (0, 1, 1) T } y β0 = {(1, 1) T , (1, −1) T } son bases de R3 y R2 ,
respectivamente. Calcule una transformación lineal T ∈ L(R3 , R2 ) tal que [ T ] ββ0 = A, don-
 
1 −1 2
de A =
3 2 4

13) Considere R2 con las bases β = {v1 , v2 } y β0 = {w1 , w2 } donde v1 = (2 1) T , v2 = (1 1) T ,


w1 = (1 1) T y w2 = (1 − 1) T . Sea T el único operador lineal sobre R2 tal que T (w1 ) = v1
y T (w2 ) = v2 . Calcule las matrices [1V ] ββ0 , [ T ] β y [ T ] β0 y compárelas. ¿Qué observa?.
14) Sean V y W dos espacios vectoriales reales de dimensiones 2 y 3, respectivamente. Sean
β = {v1 , v2 } y β0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Si T : V → W es una
transformación lineal tal que:  
2 1
[ T ] ββ0 =  1 −1
−1 3
y v = 2v1 − 3v2 , calcule T (v).
15) Sea E : Rn → Rn un operador lineal idempotente, es decir, un operador lineal tal que E2 =
E. Sean β 1 = {v1 , . . . , vr } y β 2 = {w1 , . . . , wn−r } bases para la imagen y el núcleo de E,
respectivamente. Calcule la matriz de E en la base β = β 1 ∪ β 2 de Rn . (Demuestre primero
que β es base de Rn ).
16) Sea T un operador lineal sobre R3 tal que T 3 = 0 y T 2 6= 0. Demuestre que existe una base
β para R3 tal que:  
0 0 0
[ T ] β = 1 0 0 .
0 1 0

17) Sea T : R2 → R2 una proyección (es decir, T es una transformación lineal tal que T 2 = T).
Demuestre que T = 0, o T es la transformación identidad, o existe una base β de R2 tal que:
 
1 0
[T ]β = .
0 0

18) Demuestre el Teorema 2.3.6.


19) Sea V el espacio vectorial de las matrices reales simétricas de 2 × 2. Pruebe que la función
 
  a
a b
T : V → R3 , 7→ b
b c
c

es un isomorfismo de espacios vectoriales.

Prof. Carlos J. Rubio 82 Álgebra Lineal, Actuaría


2. Transformaciones Lineales

20) Sea V el conjunto de todas las matrices complejas hermitianas de 2 × 2. Considere V como
un espacio vectorial real. Pruebe que la función
 
x1  
4
 x2  x4 + x1 x2 + ix3
R → V,  
 7 →
x3  x2 − ix3 x4 − x1
x4

es un isomorfismo de espacios vectoriales reales.


21) Sea V un K-espacio vectorial
 de dimensión 2 y sea β una base de V. Si T es un operador

a b
lineal sobre V y [ T ] β = , demuestre que:
c d

T 2 − ( a + d) T + ( ad − bc)1V = 0.

   
x −y
22) Sea T : R2 → R2 la función lineal dada por T = . Demuestre que la transforma-
y x
ción lineal T − c1R2 es un isomorfismo para todo número real c.
23) Pruebe que la equivalencia de matrices es una relación de equivalencia en el espacio vecto-
rial K m×n . Más precisamente, pruebe que:
a) A ∼ A;
b) si A ∼ B, entonces B ∼ A;
c) si A ∼ B y B ∼ C, entonces A ∼ C.
Si A ∈ K m×n , pruebe que la clase de equivalencia de A es:

{ PAQ | P, Q son matrices invertibles de m × m y n × n, respectivamente}.

24) Pruebe que la semejanza de matrices es una relación de equivalencia en el espacio vectorial
K n×n . ¿Cuál es la clase de equivalencia de una matriz A?
25) Considere el operador lineal T : R[t]2 → R[t]2 dado por T ( a + bt) = b − at. Pruebe que para
cualquier λ ∈ R, el operador lineal T − λ1V es invertible.
   
x1 x2
26) Sea T el operador lineal sobre R dado por T
2 = . Sean β una base para R2 y
  x2 − x1
a b
la matriz de T con respecto a esa base. Pruebe que bc 6= 0.
c d

27) Sea T : R2 → R2 la tansformación lineal dada por:


   
x 15x − 8y
T = .
y 28x − 15y

Encuentre una matriz que sea semejante a la matriz [ T ] β , donde β es la base canónica de R2 .
Escriba dicha matriz explícitamente.
28) Sea V un espacio vectorial real de dimensión finita y sea T un operador lineal sobre V. Si A
es la matriz que representa a T en alguna base β y se cumple la relación 8A3 − 16A2 + 5A +
3I = 0, pruebe que T es un isomorfismo.

83 Prof. Carlos J. Rubio


2. Transformaciones Lineales

29) Sea B ∈ C2×2 . Demuestre que el determinante del operador lineal T : C2×2 → C2×2 dado
por T ( A) = AB − BA, es cero.
30) Sea V un K-espacio vectorial de dimensión finita y sean S y T operadores lineales sobre V.
Demuestre que existen bases β y β0 de V tales que [S] β = [ T ] β0 si y solo si existe un operador
lineal invertible U sobre V tal que T = U ◦ S ◦ U −1 .

Prof. Carlos J. Rubio 84 Álgebra Lineal, Actuaría


Capı́tulo 3
Producto interno y ortogonalidad

En el espacio vectorial R2  existe


 una noción de perpendicularidad u ortogonalidad entre
←→ ←→
 
x1 y1
sus elementos. De hecho v1 = es ortogonal a v2 = si y solo si se tiene Ov1 ⊥ Ov2 y
x2 y2
esto último sucede si y solo si el producto de las pendientes es igual a −1. Esta última condición
se traduce en v1T v2 = x1 y1 + x2 y2 = 0. Resumiendo, tenemos que dos vectores son ortogonales
si y solo si el producto interior de ellos es cero. De esta manera la ortogonalidad de dos vectores
la podemos establecer en terminos del producto interior. Pero no solo eso, ya que también los
conceptos de magnitud o norma de un vector y distancia entre vectores se definen en términos
del producto interno:

v1 ⊥ v2 ⇐⇒ v1T v2 = 0,

kvk = v T v,
d ( v1 , v2 ) = k v1 − v2 k ,

Observe que la función “producto interno” f : R2 × R2 → R dada por:

f (v1 , v2 ) = v1T v2

satisface:

1) f (v1 , v2 ) = f (v2 , v1 ).

2) f (v1 + v2 , v3 ) = f (v1 , v3 ) + f (v2 , v3 ).

3) f (cv1 , v2 ) = c f (v1 , v2 ).

4) Si v ∈ R2 es tal que f (v, w) = 0 para todo w ∈ R2 , entonces v = 0.

5) f (v, v) ≥ 0 para todo v ∈ R2 y f (v, v) = 0 si y solo si v = 0.

En este capítulo lo que haremos será definir un producto interno en un espacio vectorial
definido sobre algún subcampo de los números complejos, como una función que satisface
propiedades análogas a las de la función producto interno (también llamado producto punto)
de R2 . Definiremos los conceptos de ortogonalidad y norma en términos de esta función y
estudiaremos las propiedades que de ella se deriven.

85
3. Producto interno y ortogonalidad

3.1. Producto interno


3.1.1. Definición de producto interno
A menos que se especifique lo contrario, K denotará al campo de los números reales o
complejos. Recordemos que un espacio vectorial es real si está definido sobre el campo de los
números reales, y complejo si está definido sobre el campo de los números complejos.

Definición 3.1.1.

Sea V un espacio vectorial real o complejo. Un producto interno sobre V es una función
h·, ·i : V × V → K que satisface las siguientes propiedades:

1) hv, wi = hw, vi,


2) hu, v + wi = hu, vi + hu, wi,
3) hv, cwi = chv, wi,

4) hv, vi > 0 si v 6= 0,
para cualesquiera u, v y w de V y cualquier escalar c.
Un espacio producto interno es un espacio real o complejo junto con un producto in-
terno definido sobre dicho espacio. Un espacio euclidiano es un espacio producto in-
terno real de dimensión finita. Un espacio unitario es un espacio producto interno com-
plejo de dimensión finita.

El prototipo de espacio euclidiano es Rn , así como el prototipo de espacio unitario es Cn .


De la definición anterior se deduce la veracidad de las siguientes afirmaciones sobre un
espacio producto interno V.
1) El producto interno separa sumas en la primera variable y saca escalares conjugados en la
primera variable. Es decir:

hu + v, wi = hw, u + vi = hw, ui + hw, vi = hw, ui + hw, vi = hu, wi + hv, wi

y hcv, wi = hw, cvi = chw, vi = chw, vi = chv, wi.


2) Para cada v ∈ V se tiene que hv, 0i = 0 = h0, vi.
3) hv, vi = 0 si y solo si v = 0.
4) Todo producto interno es no degenerado, es decir satisface la siguiente propiedad: Si w ∈ V
es tal que hv, wi = 0 para todo v ∈ V, entonces w = 0. En caso contrario, se dice que el
producto es degenerado.
5) Si K = R, se tiene que hv, wi = hw, vi para cada v, w ∈ V. En consecuencia, un producto
interno definido sobre un espacio vectorial real es una función bilineal simétrica1 , pero no
recíprocamente.
Tanto en el caso real como en el caso complejo, existen funciones h·, ·i : V × V → K que
satisfacen las propiedades 1 a 3, pero no satisfacen la propiedad 4.

1 Una función f : V × V → K es bilineal si f ( u + v, w ) = f ( u, w ) + f ( v, w ), f ( u, v + w ) = f ( u, v ) + f ( u, w ),

f (cv, w) = f (v, cw) = c f (v, w) para cualesquiera u, v, w ∈ V y c ∈ K. En otras palabras, la función es bilineal si
es lineal como función de cada variable. La función es simétrica si f (v, w) = f (w, v) para todo v, w ∈ V.

Prof. Carlos J. Rubio 86 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Definición 3.1.2.

Sea K un campo y sea V un espacio vectorial sobre K. Un producto escalar sobre V es


una función h·, ·i : V × V → K que satisface las siguientes propiedades:
1) h·, ·i es una función simétrica, es decir, hv, wi = hw, vi para todo v, w ∈ V.
2) hu + v, wi = hu, wi + hv, wi para todo u, v, w ∈ V.

3) hcv, wi = chv, wi para todo c ∈ K y v, w ∈ V.


Un producto escalar es no degenerado si satisface la siguiente condición: Si w ∈ V es tal
que hv, wi = 0 para todo v ∈ V, entonces w = 0. En caso contrario, el producto escalar
es degenerado. Un producto escalar es definido positivo si hv, vi ≥ 0 para todo v ∈ V y
hv, vi > 0 si v 6= 0.

Note que si h·, ·i es un producto escalar sobre V, entonces h·, ·i es una función bilineal
simétrica. Recíprocamente, si h·, ·i : V × V → K es una función bilineal simétrica, entonces h·, ·i
es un producto escalar. En consecuencia, un producto escalar no es otra cosa que una función
bilineal simétrica sobre V.

Definición 3.1.3.

Sea V un espacio vectorial complejo. Un producto hermitiano sobre V es una función


h·, ·i : V × V → C que satisface las siguientes propiedades:

1) hv, wi = hw, vi,


2) hu, v + wi = hu, vi + hu, wi,

3) hv, cwi = chv, wi,


para todo u, v, w ∈ V y c ∈ C. Un producto hermitiano es definido positivo si hv, vi ≥ 0
para todo v ∈ V y hv, vi > 0 si v 6= 0.

Si V es un espacio vectorial real (es decir, K = R), entonces un producto interno sobre V no
es otra cosa que un producto escalar definido positivo. Y si V es un espacio vectorial complejo
(K = C), entonces un producto interno sobre V es un producto hermitiano definido positivo. En
consecuencia, un producto interno es un producto escalar definido positivo o es un producto
hermitiano definido positivo.

Ejemplo 3.1.4
En Rn la función h·, ·i : Rn × Rn → R dada por h x, yi = x T y es un producto escalar
definido positivo, es decir es un producto interno. En efecto:
h x, yi = x T y = ( x T y)T = y T x = hy, x i,
h x + y, zi = ( x + y)T z = ( x T + y T )z = x T z + y T z = h x, zi + hy, zi,
hcx, yi = (cx )T y = (cx T )y = c( x T y) = ch x, yi.
Claramente h x, x i = ∑in=1 xi2 ≥ 0 y h x, x i > 0 si x 6= 0.

87 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Ejemplo 3.1.5
En Cn la función h·, ·i : Cn × Cn → C dada por h x, yi = x ∗ y es un producto hermitiano
definido positivo, es decir es un producto interno.

Ejemplo 3.1.6
En R[t]2 la función h·, ·i : R[t]2 × R[t]2 → R dada por:
Z 1
h p, qi = p(t)q(t)dt,
0

es un producto interno.

Ejemplo 3.1.7
La función h·, ·i : R2 × R2 → R definida por h x, yi = x1 y1 − x2 y2 , donde x = ( x1 x2 ) T ,
y = (y1 y2 ) T , es un producto escalar no degenerado que no es definido positivo. La
verificación de que es un producto escalar no degenerado se deja de ejercicio. Para ver
que no es definido positivo basta observar que x = (1 2) T 6= 0 y h x, x i = 1 · 1 − 2 · 2 < 0.
Luego, no es un producto interno.

Ejemplo 3.1.8
En R2 la función h·, ·i : R2 × R2 → R dada por h x, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 ,
donde x = ( x1 x2 ) T , y = (y1 y2 ) T , es un producto interno.

Ejemplo 3.1.9
En Rm×n la función h·, ·i : Rm×n × Rm×n → R dada por h A, Bi = tr ( A T B) es un pro-
ducto interno. Análogamente, en Cm×n la función h·, ·i : Cm×n × Cm×n → C dada por
h A, Bi = tr ( A∗ B) es un producto interno.

Ejemplo 3.1.10
Sea K = R o C. Sea V el espacio vectorial sobre K de todas las funciones continuas
f : [ a, b] → K. La función h·, ·i : V × V → K dada por:
Z b
h f , gi = f (t) g(t)dt
a

Prof. Carlos J. Rubio 88 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

es un producto interno. En efecto:


Z b Z b Z b
h g, f i = g(t) f (t)dt = g(t) f (t)dt = g(t) f (t)dt = h f , gi.
a a a

La propiedad de linealidad en la primera variable es consecuencia de que la integral es


lineal. El ser definido positivo se deduce de las propiedades de la continuidad de las
funciones. Se deja de ejercicio al lector.

Ejemplo 3.1.11
 
1 −1
Considere la matriz simétrica M = . La función h·, ·i : R2 × R2 → R definida
−1 1
por h x, yi = x T My es un producto escalar sobre R2 que es degenerado y por tanto no es
definido positivo. En efecto, que es un producto escalar es inmediato de las propiedades
de la multiplicación de matrices y del hecho que M es simétrica. Es degenerado ya que
el vector y = (1 1) T es distinto de cero y satisface que h x, yi = 0 para todo x ∈ R2 .
No es definido positivo puesto que si y = (1 1) T entonces hy, yi = 0. ¿Es este producto
escalar un producto interno?

Ejemplo 3.1.12

1 i
Considere la matriz hermitiana M = , y defina la función h·, ·i : C2 × C2 → C
−i 1
por h x, yi = x ∗ My. Este es un producto hermitiano que no es definido positivo ya que
h x, x i = 0 para x = (i − 1)T . ¿Es este producto hermitiano un producto interno?

Actividad de Aprendizaje 3.1.13

1) Pruebe que la función h·, ·i : R[t]3 × R[t]3 → R dada por h f , gi = ∑2i=0 f (i ) g(i ) es un
producto interno.

2) Sea V un espacio vectorial de dimensión finita sobre un campo K y sea β =


{v1 , . . . , vn } una base para V. Pruebe que la función h·, ·i : V × V → K dada por
hv, wi = [v] Tβ [w] β es un producto escalar no degenerado. Si K = R, entonces este
producto es definido positivo y por tanto es un producto interno.
3) Pruebe 
que la función
 h·, ·i : R2 × R2 → R dada por h x, yi = x T P T Py, donde P es la
1 1
matriz es un producto interno.
−1 −2

89 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

3.1.2. Norma de un vector y desigualdad de Cauchy-Schwarz

Definición 3.1.14.

Sea V un espacio producto interno. Se define la norma de un vector v ∈ V, denotada por


kvk, como: q
kvk = hv, vi.
La forma cuadrática determinada por el producto interno h·, ·i es la función f : V → K,
(K = R o C), dada por f (v) = kvk2 .

De acuerdo con la definición, es claro que la norma y la forma cuadrática dependen del
producto interno seleccionado.

Ejemplo 3.1.15
q
Si h·, ·i es el producto interno usual en R2 se tiene k x k = x12 + x22 . En particular, si v =

(1, 1)T , kvk = 2. La forma cuadrática correspondiente al producto interno canónico es
la función f : R2 → R dada por f ( x ) = x12 + x22 .
Si
q ahora se considera el producto interno h x, yi = 2x1 y1 + 3x2 y2 , se tiene k x k =
2 2

2x1 + 3x2 . En este caso kvk = 5; la forma cuadrática correspondiente es la función
f ( x ) = 2x12 + 3x22 .

Algunas propiedades de la norma están dadas en el siguiente teorema.

Teorema 3.1.16
Sea V un espacio producto interno y sean v, w ∈ V. Entonces:

1) kvk > 0 si v 6= 0.
2) kcvk = |c|kvk para todo escalar c.
3) kv ± wk2 = kvk2 ± 2 Rehv, wi + kwk2 .
4) (Ley del paralelogramo). kv + wk2 + kv − wk2 = 2(kvk2 + kwk2 ).

5) (Desigualdad de Cauchy-Schwarz). |hv, wi| ≤ kvkkwk.


6) (Desigualdad del triángulo). kv ± wk ≤ kvk + kwk.
7) (Identidades de polarización). Si V es un espacio producto interno real, entonces:

1 1
hv, wi = k v + w k2 − k v − w k2 .
4 4

Si V es un espacio producto interno complejo, entonces:

1
hv, wi = (kv + wk2 − kv − wk2 + i kiv + wk2 − i kiv − wk2 ).
4

Prof. Carlos J. Rubio 90 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

p
Demostración. 1) Por definición tenemos que hv, vi > 0 si v 6= 0. Luego, hv, vi > 0 si v 6= 0,
es decir, kvk > 0 si v 6= 0.
p
2) Tenemos que kcvk2 = hcv, cvi = chcv, vi = cchv, vi = |c|2 hv, vi, de donde kcvk = |c| hv, vi =
|c|kvk.
3) Aplicando las propiedades de linealidad:

k v ± w k2 = hv ± w, v ± wi = hv ± w, vi ± hv ± w, wi
= hv, vi ± hw, vi ± (hv, wi ± hw, wi)
= kvk2 ± hv, wi ± hv, wi + kwk2
= kvk2 ± 2 Rehv, wi + kwk2 .

4) De (3) tenemos que kv + wk2 = kvk2 + 2 Rehv, wi + kwk2 y kv − wk2 = kvk2 − 2 Rehv, wi +
kwk2 , de modo que kv + wk2 + kv − wk2 = 2kvk2 + 2kwk2 .
5) Es claro que si w = 0 la desigualdad es cierta. Supongamos entonces que w 6= 0. Por lo
demostrado en 1, para cualesquiera escalares s, t tenemos que:

0 ≤ ksv + twk2 = |s|2 kvk2 + 2 Re(sthv, wi) + |t|2 kwk2 .

En particular, para s = 1 y t = −hv, wi/kwk2 , tenemos que:


!
h v, w i |hv, wi|2
0 ≤ kvk2 + 2 Re − h v, w i + k w k2
k w k2 k w k4
|hv, wi|2 |hv, wi|2
= k v k2 − 2 +
k w k2 k w k2
|hv, wi| 2
= k v k2 − .
k w k2

Luego, |hv, wi|2 ≤ kvk2 kwk2 de donde |hv, wi| ≤ kvkkwk.


6) Por lo demostrado en (3), tenemos que kv + wk2 = kvk2 + 2 Rehv, wi + kwk2 . Por otro lado,
usando el hecho de que Re(z) ≤ | Re(z)| ≤ |z| para todo z ∈ C, tenemos que Rehv, wi ≤
|hv, wi| ≤ kvkkwk donde la última desigualdad se sigue de la desigualdad de Cauchy-
Schwarz. Luego:

k v + w k2 = kvk2 + 2 Rehv, wi + kwk2


≤ kvk2 + 2kvkkwk + kwk2
= (kvk + kwk)2 ,
de donde kv + wk ≤ kvk + kwk. Probar que kv − wk ≤ kvk + kwk se deja de ejercicio.
7) Si V es un espacio producto interno real, entonces hv, wi es un número real y por lo tanto
hv, wi = Rehv, wi. Luego, de 1 se sigue que kv + wk2 − kv − wk2 = 4 Rehv, wi = 4hv, wi,
y de aquí se sigue la primera identidad de polarización. Supongamos que V es un espacio
producto interno complejo. Por lo demostrado en (3), tenemos que:

i kiv + wk2 = i (kivk2 + 2 Rehiv, wi + kwk2 )


= i (|i |2 kvk2 + 2 Re(−i hv, wi) + kwk2 )
= i (kvk2 + 2 Re(−i hv, wi) + kwk2 )

91 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

−i kiv − wk2 = −i (kivk2 − 2 Rehiv, wi + kwk2 )


= −i (|i |2 kvk2 − 2 Re(−i hv, wi) + kwk2 )
= −i (kvk2 − 2 Re(−i hv, wi) + kwk2 ),

de modo que i kiv + wk2 − i kiv − wk2 = 2i Re(−i hv, wi) + 2i Re(−i hv, wi) = 4i Re(−i hv, wi) =
4i Imhv, wi, ya que Re(−i hv, wi) = Imhv, wi. Finalmente, como kv + wk2 − kv − wk2 =
4 Rehv, wi, se sigue que kv + wk2 − kv − wk2 + i kiv + wk2 − i kiv − wk2 = 4(Rehv, wi +
i Imhv, wi) = 4hv, wi.

La desigualdad de Cauchy-Schwarz se convierte en una igualdad si y solo si los vectores v


y w son linealmente dependientes. Se deja al lector la prueba de esta afirmación.
Conocida la norma se construye la forma cuadrática correspondiente. Si uno conoce la for-
ma cuadrática, las identidades de polarización determinan el producto interno del cual provie-
ne.

Ejemplo 3.1.17
Verifique que la función f : R2 → R definida por f ( x ) = 4x12 − 12x1 x2 + 10x22 es una
forma cuadrática.
Si f es una forma cuadrática, entonces debe existir un producto interno h·, ·i tal que
f ( x ) = h x, x i = k x k2 ; asumiendo que tal producto existe, éste debe satisfacer la identi-
dad de polarización

1 1 1 1
h x, yi = k x + y k2 − k x − y k2 = f ( x + y ) − f ( x − y )
4 4 4 4
= 4 x1 y1 − 6 x2 y1 − 6 x1 y2 + 10 x2 y2 .

Se deja de ejercicio verificar que h x, yi = 4 x1 y1 − 6 x2 y1 − 6 x1 y2 + 10 x2 y2 define un


producto interno en R2 cuya forma cuadrática es precisamente la función f .

Actividad de Aprendizaje 3.1.18

1) Sea V un espacio vectorial real con un producto escalar definido positivo. Sean
v1 , . . . , vn vectores no nulos tales que hvi , v j i = 0 si i 6= j. Pruebe que {v1 , . . . , vn }
es linealmente independiente.

2) Sean u y v elementos de un espacio producto interno V tales que ku + vk = 8, ku −


vk = 12 y kuk = 10. Calcule el valor de kvk.
3) Sea V un espacio producto interno. Pruebe que |hv, wi| = kvkkwk si y solo si v y w
son linealmente dependientes.
4) Sea V un espacio producto interno y sea T un operador lineal sobre V tal que
k T (v)k = kvk para todo v ∈ V. Pruebe que h T (v), T (w)i = hv, wi para todo v, w ∈ V.

Prof. Carlos J. Rubio 92 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

3.1.3. Ejercicios de Práctica


1) Sea V un espacio producto interno y sean v, w ∈ V. Pruebe que v = w si y solo si hv, ui =
hw, ui para todo u ∈ V.

2) Sean n ≥ 2 y x1 , . . . , xn ∈ R tales que xi 6= x j para i 6= j. Pruebe que la función h·, ·i : R[t]n ×


R[t]n → R dada por h f , gi = ∑in=1 f ( xi ) g( xi ) es un producto interno.

3) Sea A ∈ Rn×m , con m ≤ n tal que las columnas de A son linealmente independientes.
Demuestre que la matriz A T A es invertible.

4) Sea V un espacio complejo de dimensión finita. Sea β = {v1 , . . . , vn } una base para V.
(a) Pruebe que el producto hv, wi = [v]∗β [w] β es un producto interno sobre V.
(b) Si λ1 , . . . , λn son números positivos, pruebe que el producto hv, wi = λ1 x1 y1 + · · · +
λn x n yn , donde [v] β = ( x1 , . . . , xn ) T y [w] β = (y1 , . . . , yn ) T , es un producto interno sobre
V.

5) Sea P ∈ R2×2 una matriz invertible. Pruebe que la función h x, yi = x T P T Py define un


producto interno en R2 .

6) Pruebe que la función h·, ·i : C2 × C2 → C dada por hz, wi = z∗ P∗ Pw es un producto interno,


donde P ∈ C2×2 es una matriz invertible.

7) Sea P ∈ K n×n una matriz invertible (K = R o C como es usual). Pruebe que la función
h·, ·i : K n × K n → K dada por h x, yi = ( Px )∗ ( Py) = x ∗ P∗ Py es un producto interno.

8) Sea p : [ a, b] → K una función continua tal que p(t) > 0 para toda t ∈ [ a, b]. Pruebe que la
función h·, ·i : V × V → K dada por
Z b Z b
h f , gi = p(t) f (t) p(t) g(t)dt = p(t)2 f (t) g(t)dt,
a a

es un producto interno sobre V, donde V es el espacio de las funciones continuas de [ a, b]


en K.

9) Sea (W, h·, ·i) un espacio producto interno y sea T : V → W un isomorfismo. Pruebe que la
función h·, ·iV : V × V → K dada por hv, wiV = h T (v), T (w)i es un producto interno. Este
ejercicio generaliza los ejercicios 2, 4, 7 y 8. Para cada uno de esos ejercicios encuentre el
isomorfismo.

10) Sea V un espacio complejo de dimensión finita con un producto interno (es decir, un espa-
cio unitario) y sea β una base para V. Pruebe que existe una matriz hermitiana A tal que
hv, wi = [v]∗β A[w] β para todo v, w ∈ V.

11) Sea V un espacio real de dimensión finita con un producto interno (es decir, un espacio
euclidiano) y sea β una base de V.

a) Pruebe que existe una matriz simétrica A tal que hv, wi = [v] Tβ A[w] β .
b) Considere en R3 el producto escalar canónico y la base β = {e1 , e1 + e2 , e1 + e2 + e3 }.
Calcule una matriz A ∈ R3×3 tal que h x, yi = [ x ] Tβ A[y] β para cualesquiera x, y ∈ R3 .

12) Sea K un campo y sea V = K m×n el espacio de las matrices de m × n. Recuerde que la
función traza tr : K n×n → K está dada por tr( A) = ∑in=1 aii . Defina h A, Bi = tr( A T B) para
A, B ∈ V.

93 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

a) Pruebe que h·, ·i define un producto escalar no degenerado en V. (Recuerde que una de
las propiedades de la función traza es tr( AB) = tr( BA)).
b) Pruebe que si K = R, entonces h·, ·i define un producto interno en Rn×n .

13) Sea V el espacio de las matrices complejas de m × n. Pruebe que la operación definida por
h A, Bi = tr( A∗ B) es un producto interno sobre V.

14) Si V es un espacio producto interno complejo y w ∈ V, pruebe que la función f : V → C


dada por f (v) = hw, vi es una función lineal. Además, si w, w0 ∈ V y c es un escalar, pruebe
que f w+w0 = f w + f w0 y f cw = c f w .

15) Sea A ∈ R2×2 . Considere la función f A : R2 × R2 → R dada por f A ( x, y) = x T Ay. Pruebe


que f A es un producto interno si y solo si A es simétrica, a11 > 0, a22 > 0 y det A > 0.

16) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V de norma uno, mutuamente or-
togonales, es decir, hvi , v j i = 0 si i 6= j. Suponga que v = λ1 v1 + · · · + λn vn . Pruebe que
k v k2 = | λ1 |2 + · · · + | λ n |2 .

17) Determine si la función f : R2 → R dada por f ( x ) = 5x12 + 6x1 x2 + 2x22 es o no una forma
cuadrática.

18) Considere el espacio vectorial R2 y pruebe que la función f : R2 → R dada por f ( x ) =


( x1 − x2 )2 + 3x22 es una forma cuadrática.

19) Sea V el espacio de las funciones continuas de R en R. Sean a, b números reales. Determine
si la función ω : V → R dada por:
Z a
ω( f ) = f (t + b) f (t − b)dt
−a

es una forma cuadrática.

20) En este ejercicio, h·, ·i denota el producto interno canónico de Rn y Cn , respectivamente.


(a) Sea A ∈ Rn×n . Pruebe que h Av, wi = hv, A T wi para todos los vectores v, w ∈ Rn .
(b) Sea A ∈ Cn×n . Pruebe que h Av, wi = hv, A∗ wi para todos los vectores v, w ∈ Cn .

21) Sean V un espacio unitario y T un operador lineal sobre V tal que h T (v), wi = hv, T (w)i
para todo v, w ∈ V. Pruebe que el operador lineal 1V − iT es invertible.

22) Sea V un espacio producto interno y sea T un operador lineal sobre V. Suponga que T (v)
es un vector unitario siempre que v es unitario (un vector de norma 1 se llama unitario).
Pruebe que k T (v)k = kvk para todo v ∈ V.

23) Pruebe que (tr( A T B))2 ≤ (tr( A T A))(tr( B T B)) para cada A, B ∈ Rm×n .

3.2. Ortogonalidad
3.2.1. Ortogonalidad, complemento ortogonal y dependencia lineal
En esta sección exploraremos un poco la geometría de los espacios producto interno. En
particular lo que se refiere a la ortogonalidad entre vectores.

Prof. Carlos J. Rubio 94 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Definición 3.2.1.

Sea V un espacio producto interno. Sean v, w ∈ V. Diremos que v es ortogonal a w si


hv, wi = 0, y lo denotamos por v ⊥ w. Si S ⊂ V, diremos que S es ortogonal si para cada
v, w ∈ S con v 6= w se tiene que hv, wi = 0. S es
ortonormal si es ortogonal y kvk = 1 para todo v ∈ S.

Si hv, wi = 0, entonces hw, vi = hv, wi = 0 = 0, y en consecuencia la relación “v es ortogonal


a w” es una relación simétrica.
Note que un conjunto ortonormal no contiene al vector cero, en tanto que un conjunto
ortogonal sí puede contenerlo. Diremos que un conjunto S es ortogonal a un conjunto T si
para cada s ∈ S y t ∈ T se tiene que hs, ti = 0.

Definición 3.2.2. Complemento ortogonal

Sean V un espacio producto interno y S un subconjunto no vacío de V. El complemento


ortogonal de S es el conjunto S⊥ que consta de todos los vectores de V que son ortogo-
nales a todo vector de S. En símbolos:

S⊥ = {v ∈ V | hs, vi = 0 para todo s ∈ S}.

Note que V ⊥ = {0}. En efecto, es claro que {0} ⊂ V ⊥ . Por otro lado, si v ∈ V ⊥ , entonces
hs, vi = 0 para todo s ∈ V, en particular hv, vi = 0, lo que implica que v = 0. Así, V ⊥ = {0}. De
manera análoga se prueba que {0}⊥ = V. El complemento ortogonal de cualquier subconjunto
no vacío de V es un subespacio de V. Esto es fácil de probar y se deja al lector.

Teorema 3.2.3
Si S = {u1 , u2 , . . . , un } es un subconjunto ortogonal de vectores no nulos en un espacio
producto interno V, entonces S es linealmente independiente.

Demostración. Supongamos que 0 = α1 u1 + α2 u2 + · · · + αn un donde los αi son escalares. En-


tonces, de las propiedades del producto interno tenemos que:
0 = h u i , 0i = h u i , α1 u1 + α2 u2 + · · · + α n u n i
= α1 h u i , u1 i + · · · + α i h u i , u i i + · · · + α n h u i , u n i
= α i k u i k2 ,
de donde αi = 0 (ya que ui 6= 0) para todo i. Luego, S es linealmente independiente.

Corolario 3.2.4
Sea V un espacio producto interno de dimensión n.

a) Si {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V, entonces m ≤ n.


b) Cada conjunto ortonormal de n vectores de V es una base de V.

95 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Demostración. a) Si S = {v1 , . . . , vm } es un conjunto ortogonal de vectores no nulos de V, el


Teorema 3.2.3 implica que S es linealmente independiente, y por lo tanto m ≤ n ya que
dim V = n.

b) Si S es un conjunto ortonormal de n vectores de V, entonces 0 6∈ S. El Teorema 3.2.3 implica


que S es linealmente independiente y como dim V = n, se sigue que S es una base de V.

Ejemplo 3.2.5
Las bases canónicas de Rn y Cn son ortonormales (considerando los productos internos
canónicos). El subconjunto:

{(1, 1, 1, 1)T , (1, −1, 1, −1)T , (1, −1, −1, 1)T }

de R4 es ortogonal.

Ejemplo 3.2.6
Considere el espacio de las funciones reales continuas R π en el intervalo [−π, π ],
C ([−π, π ], R), con el producto interno dado por h f , gi = −π f (t) g(t)dt. El conjunto:
 
1 cos t sen t cos 2t sen 2t
√ , √ , √ , √ , √ ,...
2π π π π π

es ortonormal. Para verificar esto, es necesario evaluar varias integrales, entre otras:

1 π
Z
h1, f n i = √ cos(nt)dt,
π −π
1
Z π
h1, gn i = √ sen(nt)dt,
π −π
1
Z π
h f n , gm i = cos(nt) sen(mt)dt,
π −π
√ √
donde f n (t) = cos nt/ π y gn (t) = sen nt/ π. Se deja este ejercicio de Cálculo Integral
al lector.

Ejemplo 3.2.7
Sea A ∈ Rm×n . El espacio nulo de A es ortogonal a su espacio renglón. En efecto, si x ∈
N ( A), y ∈ R( A T ), entonces y = A T z para algún z. Luego, h x, yi = x T y = x T ( A T z) =
( Ax )T z = 0T z = 0.

Prof. Carlos J. Rubio 96 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Teorema 3.2.8 Pitágoras


Sea V un espacio producto interno y sean v y w vectores ortogonales de V. Entonces
k v + w k2 = k v k2 + k w k2 .

Demostración. Supongamos que hv, wi = 0. Entonces,


hv + w, v + wi = hv, vi + hv, wi + hw, vi + hw, wi = hv, vi + hw, wi,
ya que hv, wi = 0 implica que hw, vi = 0. Por lo tanto, kv + wk2 = kvk2 + kwk2 .
En el caso real, el recíproco del Teorema de Pitágoras también es cierto. Sin embargo, en
el caso complejo puede suceder que kv + wk2 = kvk2 + kwk2 sin que v y w sean ortogonales.
(Véase el Ejercicio 2 de la siguiente Actividad de Aprendizaje).

Actividad de Aprendizaje 3.2.9

1) Sea V un espacio producto interno.


a) Sea S un subconjunto no vacío de V. Si W es el subespacio de V generado por S,
pruebe que W ⊥ = S⊥ .
b) Si V = R2 y S = {(1, 3) T }, calcule el complemento ortogonal de S y verifique que
R2 = h S i ⊕ S ⊥ .
c) Si V = R3 y S = {(2, 2, 1) T }, calcule el complemento ortogonal de S y verifique
que R3 = hSi ⊕ S⊥ .
2) a) Pruebe que dos vectores v y w en un espacio producto interno real son ortogonales
si y solo si kv + wk2 = kvk2 + kwk2 .
b) Pruebe que (a) es falso si reemplazamos la palabra “real” por la palabra “comple-
jo”.
c) Pruebe que dos vectores v y w en un espacio producto interno complejo son orto-
gonales si y solo si kαv + βwk2 = kαvk2 + k βwk2 para cualesquiera α y β escalares.
d) Sea V un espacio producto interno real y suponga que los vectores v, w de V tienen
la misma norma, es decir, kvk = kwk. Pruebe que los vectores v − w y v + w son
ortogonales. ¿Es cierto el recíproco?
3) Se dice que dos subconjuntos {u1 , . . . , ur } y {v1 , . . . , vr } de un espacio producto in-
terno V forman un sistema biortogonal si:

1 si i = j,
h ui , v j i =
0 si i 6= j,

para i, j = 1, . . . , r. Pruebe que si {u1 , . . . , ur } y {v1 , . . . , vr } es un sistema biortogonal,


entonces cada conjunto es un conjunto de vectores linealmente independiente.
4) Sean A = {u1 , . . . , ur } y B = {v1 , . . . , vr } un sistema biortogonal en un espacio pro-
ducto interno V. Suponga que A es una base para V. Pruebe que
r
k v k2 = ∑ hv, ui i hv, vi i (3.1)
i =1

para cualquier v ∈ V.

97 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

3.2.2. Coeficientes de Fourier


Una de las ventajas que tienen las bases ortogonales sobre las bases arbitrarias, es que los
cálculos donde intervienen coordenadas son más simples. Por ejemplo, con respecto a una base
general β = {v1 , . . . , vn }, si v = α1 v1 + · · · + αn vn , entonces [v] β = (α1 . . . αn ) T y para hallar
los αi se necesita resolver un sistema de ecuaciones de n × n. Pero si β es una base ortogonal
u ortonormal, no hay que resolver un sistema, sino solamente efectuar unos pocos productos
internos como lo afirma el siguiente teorema.

Teorema 3.2.10 Expansión de Fourier


Si v1 , . . . , vn son vectores ortogonales no nulos de un espacio producto interno V y v ∈
hv1 , . . . , vn i, entonces:
n hv , vi
j
v=∑ v.
j =1
hv j , v j i j

En particular, si v1 , . . . , vn son vectores ortonormales, entonces:


n
v= ∑ hv j , viv j .
j =1

Demostración. Sea v = α1 v1 + · · · + αn vn . Entonces, para cada i = 1, 2, . . . , n, tenemos que:


n
h v i , v i = h v i , α1 v1 + · · · + α n v n i = ∑ α j h v i , v j i = α i h v i , v i i,
j =1

de donde αi = hvi , vi/hvi , vi i. En particular, si v1 , . . . , vn son ortonormales, entonces αi =


h v i , v i.

Los coeficientes hv j , vi/hv j , v j i del teorema anterior, son los coeficientes de Fourier de v.

Ejemplo 3.2.11

Determinar la expansión de Fourier de x = (−1, 2, 1) T con respecto al producto interno


usual de R3 y la base ortonormal:
 
1 T 1 T 1 T
u1 = √ (1, −1, 0) , u2 = √ (1, 1, 1) , u3 = √ (−1, −1, 2) .
2 3 6

Como la base es ortonormal, uiT ui = 1 para i = 1, 2, 3. Por tanto, los coeficientes de


Fourier de x son:
3√ 2√ 1√
α1 = u1T x = − 2, α2 = u2T x = 3, α3 = u3T x = − 6.
2 3 6
La expansión de Fourier es v = α1 u1 + α2 u2 + α3 u3 .

Prof. Carlos J. Rubio 98 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Ejemplo 3.2.12
Considere el producto interno canónico en C2 . Los vectores v1 = (−1 − i, −2 + i ) T y
v2 = (13 − 6i, 1 + 9i ) T constituyen una base ortogonal de C2 . Los coeficientes de Fourier
de v = (2 + 3i, 1 + i ) T con respecto a esta base son

6 + 4i 18 + 43i
c1 = − , c2 = .
7 287

Actividad de Aprendizaje 3.2.13

1) Sea V un espacio producto interno y sea {v1 , . . . , vn } un conjunto ortonormal de vec-


tores de V. Pruebe que si v ∈ hv1 , . . . , vn i, entonces kvk2 = |hv1 , vi|2 + · · · + |hvn , vi|2 .
2) Sea V un espacio producto interno y sea β = {v1 , . . . , vn } una base ortonormal
de V. Pruebe que para cualesquiera vectores v, w de V se tiene que hv, wi =
∑nk=1 hvk , vihvk , wi.
3) Sea V un espacio producto interno de dimensión finita. Sea β = {v1 , v2 } un conjunto
ortonormal. Suponga que para todo v ∈ V se tiene kvk2 = |hv1 , vi|2 + |hv2 , vi|2 .
Pruebe que β es una base para V. Generalice el resultado.

3.2.3. Bases ortonormales y el proceso de Gram-Schmidt


El tema principal de esta sección será el proceso de ortogonalización de Gram-Schmidt. Este
proceso proporciona un método para construir una base ortogonal para un espacio producto
interno de dimensión finita, a partir de una base cualquiera. Ilustremos este proceso con un par
de ejemplos.

Ejemplo 3.2.14
Dada una base {v1 , v2 } del espacio producto interno V, calcular una base ortogonal para
V a partir de esta base.

Solución. La idea es cambiar uno de los vectores, digamos v2 por un vector v20 tal que v20 ⊥ v1
y que el espacio generado por {v1 , v2 } sea el mismo que el generado por {v1 , v20 }. De esta mane-
ra tendremos que V = h{v1 , v2 }i = h{v1 , v20 }i y como v1 y v20 son linealmente independientes,
entonces {v1 , v20 } es una base de V de vectores ortogonales.
Para que se cumpla la condición h{v1 , v2 }i = h{v1 , v20 }i, debemos tener que v20 = c1 v1 +
c2 v2 para algunos escalares c1 y c2 . Como se busca que v20 ⊥ v1 , entonces:
0 = hv1 , v20 i = hv1 , c1 v1 + c2 v2 i = c1 hv1 , v1 i + c2 hv1 , v2 i.
Este es un sistema homogéneo de una ecuación lineal con dos incógnitas, y por tanto tiene
infinitas soluciones. Para obtener una solución particular, hagamos c2 = 1. Entonces, c1 = −c
donde c = hv1 , v2 i/hv1 , v1 i. Así, v20 = v2 − cv1 . El vector v20 así construido es ortogonal a v1 .
Note que este vector es diferente de cero, en virtud de que v1 y v2 son linealmente indepen-
dientes. Geométricamente, la forma de construir v20 es proyectar v2 ortogonalmente sobre v1 y
considerar v2 − cv1 , donde cv1 es la proyección ortogonal de v2 sobre v1 .

99 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

v2

v2 − cv1 v2 − cv1

v1
cv1

Figura 3.1: c es la componente de v2 a lo largo de v1 .

Hagamos v10 = v1 . Veamos ahora que los subespacios h{v1 , v2 }i y h{v10 , v20 }i coinciden. Es
claro que v10 , v20 ∈ h{v1 , v2 }i y en consecuencia h{v10 , v20 }i ⊂ h{v1 , v2 }i = V. Como los vecto-
res v10 y v20 son linealmente independientes según el Teorema 3.2.3, se sigue que h{v10 , v20 }i =
h{v1 , v2 }i. De esta manera, hemos construido una base ortogonal para el espacio producto in-
terno V a partir de una base cualquiera.
En el ejemplo anterior, el escalar c = hv1 , v2 i/hv1 , v1 i es tal que v2 − cv1 es ortogonal a v1 .
Este escalar es único. En efecto, si c0 es un escalar tal que v2 − c0 v1 es ortogonal a v1 , entonces
0 = hv1 , v2 − c0 v1 i = hv1 , v2 i − c0 hv1 , v1 i, de donde c0 = hv1 , v2 i/hv1 , v1 i = c.

Definición 3.2.15.

Sea V un espacio producto interno. Sean v1 , v2 ∈ V con v1 6= 0. El único escalar c tal que
v2 − cv1 es ortogonal a v1 , es la componente de v2 a lo largo de v1 (Figura 3.1).

Ejemplo 3.2.16
Con el producto canónico de R2 , los vectores v1 = (1, 2) T y v2 = (−3, 9) no son ortogo-
nales. La componente de Fourier de v2 a lo largo de v1 es c = v1T v2 /v1T v1 = 15/5 = 3.
Luego el vector v20 = v2 − cv1 = (−6, 3) T es ortogonal a v1 .

Ejemplo 3.2.17
Considere el producto
 interno
 canónico en C2 . De acuerdo
 con la definición, la compo-
1 − 2i −1 − i
nente de v2 = a lo largo de v1 = es c = v1∗ v/v1∗ v1 = (7 + i )/7. Un
−2 + 2i −2 + i  
0 1 13 − 6i
cálculo sencillo muestra que el vector v2 = v2 − cv1 = 7 es ortogonal a v1 .
1 + 9i

Ejemplo 3.2.18
Dada una base {v1 , v2 , v3 } del espacio producto interno V, calcular una base ortogonal
para V a partir de esta base.

Prof. Carlos J. Rubio 100 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Solución. Hagamos v10 = v1 y v20 = v2 − c1 v1 , donde c1 es la componente de v2 a lo largo de


v1 , esto es, c1 = hv1 , v2 i/hv1 , v1 i. De acuerdo con el ejemplo anterior, v10 y v20 son ortogonales
y h{v1 , v2 }i = h{v10 , v20 }i. Lo que pretendemos ahora es encontrar un vector v30 que sea orto-
gonal a v10 y v20 y que h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i. Como v10 es combinación lineal de v1 (de
hecho v10 = v1 ), y v20 es combinación lineal de v1 y v2 , entonces v3 6∈ h{v10 , v20 }i, ya que en caso
contrario v3 sería combinación lineal de v1 y v2 lo cual no puede ser porque v1 , v2 , v3 son li-
nealmente independientes. Por lo tanto, los vectores v10 , v20 , v3 son linealmente independientes,
y en consecuencia h{v10 , v20 , v3 }i = h{v1 , v2 , v3 }i. Será suficiente entonces hallar un vector v30
que sea ortogonal tanto a v10 como a v20 y tal que h{v10 , v20 , v3 }i = h{v10 , v20 , v30 }i. Tenemos así tres
condiciones que se deben satisfacer: que v30 sea combinación lineal de v10 , v20 y v3 , y que v30 ⊥ v10 ,
v30 ⊥ v20 . Estas condiciones se traducen en v30 = αv10 + βv20 + γv3 , hv10 , v30 i = 0 y hv20 , v30 i = 0.
Sustituyendo v30 en estas últimas dos igualdades, tenemos que αhv10 , v10 i + γhv10 , v3 i = 0 y
βhv20 , v20 i + γhv20 , v3 i = 0. Tenemos entonces un sistema homogéneo de dos ecuaciones con
3 incógnitas, el cual sabemos tiene infinitas soluciones. Resolviendo el sistema obtenemos:

hv10 , v3 i hv20 , v3 i
α = −γ , β = −γ .
hv10 , v10 i hv20 , v20 i

Tomando γ = 1 obtenemos una solución particular y por lo tanto:

hv20 , v3 i hv10 , v3 i
v30 = v3 − c20 v20 − c10 v10 , c20 = , c10 = .
hv20 , v20 i hv10 , v10 i

Note que el vector v30 definido de esta manera no es cero, ya que los vectores v10 , v20 y v3 son
linealmente independientes. También es importante hacer notar que el vector c20 v20 + c30 v30 donde
ci0 es la componente de v3 a lo largo de vi0 , es la proyección ortogonal de v3 sobre el subespacio de
V generado por v20 y v30 . Como los vectores v10 , v20 , v30 son ortogonales y no nulos, el Teorema 3.2.3
implica que son linealmente independientes, y como v10 , v20 , v30 ∈ h{v10 , v20 , v30 }i, tenemos que
h{v10 , v20 , v30 }i = h{v10 , v20 , v3 }i.
Resumiendo, dada la base {v1 , v2 , v3 } del espacio producto interno V, se definen los vecto-
res v10 , v20 , v30 como sigue:

v10 = v1 ,
hv10 , v2 i 0
v20 = v2 − v ,
hv10 , v10 i 1
hv20 , v3 i 0 hv10 , v3 i 0
v30 = v3 − v − v .
hv20 , v20 i 2 hv10 , v10 i 1

Estos vectores son ortogonales no nulos y h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i.
El procedimiento que se presentó en los dos ejemplos para construir una base ortogonal a partir
de una base dada, se puede generalizar. Note que este procedimiento consiste en esencia, en la
aplicación repetida de una operación geométrica básica denominada proyección ortogonal.

Teorema 3.2.19 Proceso de Gram-Schmidt


Todo espacio producto interno V de dimensión finita, tiene una base ortogonal.

Demostración. Supongamos que dim V = n. La prueba la haremos por inducción en n. Si n =


1 no hay nada que demostrar. Supongamos que el resultado es cierto para todo espacio de
dimensión menor que n y sea β = {v1 , . . . , vn } una base para V. Como el subespacio S de V

101 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

generado por {v1 , . . . , vn−1 } tiene dimensión n − 1, tenemos que S tiene una base ortogonal,
digamos {v10 , . . . , v0n−1 }. Sea:
n −1 h v 0 , v i
n
v0n = vn − ∑ i0 0 vi0 .
i =1
h v i ii
, v
Demostraremos que β0 = {v10 , . . . , v0n } es una base ortogonal para V. Claramente β0 genera
a V. Notemos que los vectores v10 , . . . , v0n−1 son ortogonales y no nulos, ya que forman una
base ortogonal para S. Además, v0n es no nulo ya que si v0n = 0, entonces vn sería combinación
lineal de los vectores v10 , . . . , v0n−1 y en consecuencia, vn sería combinación lineal de los vectores
v1 , . . . , vn−1 lo cual contradice que β sea una base para V. Basta demostrar entonces que v0n es
ortogonal con v0j para j = 1, . . . , n − 1. En efecto:
* +
n −1 h v 0 , v i
n
hv0j , v0n i = v0j , vn − ∑ i0 0 vi0
i =1
h vi , vi i
n −1 hvi0 , vn i 0 0
= hv0j , vn i − ∑ hv , v i
hvi0 , vi0 i j i
i =1
hv0j , vn i
= hv0j , vn i − 0 0 hv0j , v0j i
hv j , v j i
= hv0j , vn i − hv0j , vn i
= 0,
ya que en la sumatoria de la segunda igualdad, hv0j , vi0 i = 0 si i 6= j. En consecuencia, β0 es
un conjunto ortogonal de vectores no nulos y por el Teorema 3.2.3 también es linealmente
independiente. Por lo tanto, β0 es una base ortogonal para V.

Corolario 3.2.20
Todo espacio producto interno de dimensión finita tiene una base ortonormal.

Demostración. Sea {v1 , . . . , vn } una base para el espacio producto interno de dimensión finita
V. Por el Teorema
 0 3.2.19, existen vectores ortogonales v10 , . . . , v0n que forman una base para V.
0 0 0

Por lo tanto, v1 /kv1 k, . . . , vn /kvn k es una base ortonormal para V.

Ejemplo 3.2.21
Calcule
 bases ortogonales
 para los subespacios nulo y renglón de la matriz A =
1 3 3 2
 2 6 9 5.
−1 −3 3 0

Solución. De acuerdo con las técnicas desarrolladas en la sección 1.4 para el cálculo de los
subespacios fundamentales de una matriz, tenemos:
D E
N ( A) = { x ∈ R4 | Ax = 0} = (−3, 1, 0, 0) T , (3, 0, 1, −3) T ,
D E
R( A T ) = { x ∈ R4 | x = A T y para algún y ∈ R3 } = (1, 3, 3, 2) T , (0, 0, 3, 1) T .

Prof. Carlos J. Rubio 102 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

Aplicando el proceso de Gram-Schmidt a v1 = (−3 1 0 0) T y v2 = (3 0 1 − 3) T ,


obtenemos:

v10 = v1 ,
    
3 −3 3
h v 0 , v2 i  0 −9  1 1 
 9
v20 = v2 − 10 0 v10 = 

 1 − 10  0 = 10  10 .
  
h v1 , v1 i
−3 0 −30

Luego, una base ortogonal para N ( A) es {(−3 1 0 0) T , (3 9 10 − 30) T }. Para


calcular una base ortogonal para el espacio columna de A, hacemos lo mismo a los vectores
w1 = (1 3 3 2) T y w2 = (0 0 3 1) T , y obtenemos:

w10 = w1 ,
 
−11
hw10 , w2 i 1 
−33 .
w20 = w2 −

=
hw10 , w10 i 23  36
1

El conjunto {(1, 3, 3, 2) T , (−11, −33, 36, 1) T } es una base ortogonal para el espacio ren-
glón de A.
Observe que los vectores v10 , v20 , w10 , w20 son ortogonales no nulos y por lo tanto forman una
base de R4 . L
Como consecuencia de esto tenemos que R4 es suma directa de N ( A) y R( A T ):
R4 = N ( A) R( A T ).

Actividad de Aprendizaje 3.2.22

1) Considere C3 con el producto interno canónico. Calcule una base ortonormal para el
subespacio h{(−1, 0, i ) T , (3, −1, 1 − i ) T }i de C3 .
2) Sea V un espacio producto interno de dimensión finita y sea β = {v1 , . . . , vn } una
base ortonormal para V. Sea T un operador lineal sobre V y sea A = ( aij ) la matriz
de T en la base β. Pruebe que aij = hvi , T (v j )i.

3.2.4. Descomposición QR
El proceso de Gram-Schmidt puede producir conjuntos ortonormales normalizando los vec-
tores que se van obteniendo durante el proceso. Este es el proceso de Gram-Schmidt modifi-
cado. Para el siguiente teorema K = R o C. Sea A ∈ K m×n una matriz cuyas columnas son
linealmente independientes. La aplicación del proceso de Gram-Schmidt modificado a las co-
lumnas de A produce una factorización denominada descomposición QR.

Teorema 3.2.23 Descomposición QR


Cada matriz A ∈ K m×n cuyas columnas son linealmente independientes, se puede fac-
torizar como A = QR donde Q es una matriz cuyas columnas constituyen una base
ortonormal para el espacio columna de A y R es una matriz triangular superior tal que
los elementos de su diagonal principal son positivos.

103 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Demostración. Sean a1 , . . . , an las columnas de A. Tenemos que β = { a1 , . . . , an } es base para


R( A). Considerando en K n el producto interno usual (h x, yi = x T y o h x, yi = x ∗ y dependiendo
de si K = R o K = C), aplicamos el proceso de Gram-Schmidt a la base β, normalizando los
vectores que se van obteniendo durante el proceso, obteniendo los vectores ortonormales:

a1
q1 = , ν1 = k a1 k,
ν1
a2 − h q1 , a2 i q1
q2 = , ν2 = k a2 − hq1 , a2 iq1 k,
ν2
a3 − h q2 , a3 i q2 − h q1 , a3 i q1
q3 = , ν3 = k a3 − hq2 , a3 iq2 − hq1 , a3 iq1 k,
ν3
.. ..
. .
an − ∑nj=−11 hq j , an iq j

n −1
qn = , νn = an − ∑ hq j , an iq j .

νn j =1

Luego, los vectores q1 , q2 , . . . , qn constituyen una base ortonormal para el espacio columna de
A.
Tenemos entonces que:

a1 = ν1 q1 ,
a2 = ν2 q2 + hq1 , a2 iq1 ,
a3 = ν3 q3 + hq2 , a3 iq2 + hq1 , a3 iq1 ,
..
.
n −1
an = νn qn + ∑ hq j , an iq j ,
j =1
 
ν1 h q1 , a2 i · · · h q1 , a n i
 0 ν2 · · · h q2 , a n i 
es decir, A = QR donde Q = [q1 | . . . | qn ] y R =  . Además, la
 
.. .. .. ..
 . . . . 
0 0 ··· νn
matriz R es invertible ya que det R = ν1 ν2 · · · νn y νi > 0 para i = 1, 2, . . . , n.

A continuación se muestra cómo usar la factorización QR para resolver sistemas de ecua-


ciones lineales determinados.

Teorema 3.2.24
Sean A ∈ Rm×n de rango n y A = QR una factorización QR de A. Suponga que Ax = b
es consistente. Entonces x0 es la solución de Ax = b si y solamente si x0 es la solución
del sistema triangular

Rx = Q T b (3.2)

Demostración. Como las columnas de Q son ortonormales se tiene Q T Q = In×n . Como R es


invertible, también lo es su transpuesta. El sistema de ecuaciones Ax = b se reescribe como

Prof. Carlos J. Rubio 104 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

QRx = b; multiplicando por Q T ambos lados de la ecuación y usando que Q T Q = I se obtiene


Rx = Q T b. Esto muestra que si x0 es solución de Ax = b, también es solución del sistema
triangular (3.2).
Suponga ahora que x0 es solución del sistema triangular; como R es invertible, x0 = R−1 Q T b.
Como b ∈ R( A) y R( A) = R( Q), se tiene que b = Qz para algún z. Luego

Ax0 = A( R−1 Q T b) = Q( RR−1 )( Q T Q)z = Qz = b,


lo que prueba que x0 es la solución del sistema.
En el caso complejo, el sistema Ax = b es equivalente al sistema Rx = Q∗ b. Los sistemas
resultantes se resuelven usando sustitución hacia atrás.
Observación 3.2.25
Es importante notar que aunque el sistema de ecuaciones Ax = b sea inconsistente, el
sistema Rx = Q T b siempre tiene una solución, pero esa solución no será solución del
sistema original.

Ejemplo 3.2.26
Usando
 una descomposición
   resuelva el sistema Ax = b, donde A =
QR
1 2 5 25
 1 −2 −9   −41 
 1 −2 −3  y b =  −11 .
   

1 2 −1 −5
Observando que las columnas de A son linealmente independientes, encontraremos la
factorización QR de A. Calculando tenemos que:
     
1 1 1
1 1   , ν1 = 2, q2 = 1  −1  , ν2 = 4, q3 = 1  −1  , ν3 = 6.
   
q1 = 
2  1  2  −1  2  1 
1 1 −1
 1 1 1 
2 2 2
 
1 2 0 −4

2 − 12 − 21 
 y R =  0
Luego, A = QR donde Q =  1 4 8 . El sistema

2 − 12 1
2

0 0 6
1 1
2 2 − 21
original es equivalente al sistema Rx = Q T b, es decir:
    
2 0 −4 x1 −16
0 4 8  x2  =  36 .
0 0 6 x3 30

Usando sustitución hacia atrás se obtiene la solución x1 = 2, x2 = −1 y x3 = 5. Como


A tiene rango 3, se sigue del Teorema 3.2.24 que ésta es la única solución al sistema de
ecuaciones.
Si ahora b = (24, 0, 24, 24) T , la solución del sistema Rx = Q T b es x0 = (22, −1, 2) T , pero
Ax0 = (30, 6, 18, 18) T 6= b, de tal manera que x0 no es solución del sistema Ax = b. Se
deja al lector verificar que el sistema Ax = b es inconsistente.

105 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Actividad de Aprendizaje 3.2.27

1) Calcule una factorización QR de las siguientes matrices:


       
2 4 1 2 1 1 1 0 2
 2 7  , 0 1 ,  −2 1 , 0 1 1 .
1 5 1 4 2 1 1 2 0

2) Sea Q ∈ Rm×n tal que las columnas de Q son ortonormales. Demuestre que Q T Q =
In .

3.2.5. Proyección ortogonal

Definición 3.2.28.

Sean W un subespacio de un espacio producto interno V y v ∈ V. Un vector w0 ∈ W es


una proyección ortogonal de v sobre W si v − w0 ∈ W ⊥ .

Teorema 3.2.29
Sea V un espacio producto interno. Sea W un subespacio de V y sea v ∈ V.

1) Si existe una proyección ortogonal de v sobre W, ésta es única.


2) Si W es de dimensión finita y {v1 , . . . , vn } es una base ortogonal de W, entonces:
n
hvk , vi
w0 = ∑ h
v
vk , vk i k
k =1

es la (única) proyección ortogonal de v sobre W.

Demostración. 1) Supongamos que w0 , w1 ∈ W son proyecciones ortogonales de v sobre W.


Entonces:

h w0 − w1 , w0 − w1 i = h w0 − v + v − w1 , w0 − w1 i
= hw0 − v, w0 − w1 i + hv − w1 , w0 − w1 i
= 0,

ya que hw0 − v, w0 − w1 i = hv − w1 , w0 − w1 i = 0. Por lo tanto, w0 − w1 = 0 y así w0 = w1 .

2) Demostraremos que hv − w0 , wi = 0 para todo w ∈ W. Sea w ∈ W. Como {v1 , . . . , vn } es


hv j ,wi
base ortogonal de W, por el Teorema 3.2.10 tenemos que w = ∑nj=1 v
hv j ,v j i j
= ∑ y j v j . Sea

Prof. Carlos J. Rubio 106 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad






x j = v j , v / v j , v j . Note que x j v j , v j = v, v j . Entonces:

hv − w0 , wi = hv, wi − hw0 , wi
* + * +
n n n
= v, ∑ y j v j − ∑ xi vi , ∑ y j v j
j =1 i =1 j =1
n n n
∑ yj v, v j − ∑ ∑ xi y j



= vi , v j
j =1 i =1 j =1
n n
∑ yj ∑ xj yj



= v, v j − vj, vj
j =1 j =1
n n
∑ yj ∑ yj



= v, v j − v, v j = 0.
j =1 j =1

Esto prueba que v − w0 ∈ W ⊥ y el teorema queda probado.

Si cada vector v ∈ V tiene una proyección ortogonal sobre W, llamaremos proyección ortogo-
nal sobre W a la función P : V → V que a cada v ∈ V le asigna su proyección ortogonal sobre
W.

Ejemplo 3.2.30
Sean V el espacio R2 con el producto interno usual y W el subespacio que consiste de
todos los vectores ( x, y) T ∈ R2 tales que x − 2y = 0. Para calcular la proyección ortogo-
nal de v = (1, 3) T sobre el subespacio W, procederemos como sigue. Geométricamente,
la proyección ortogonal será la intersección de W con la recta que es perpendicular a W
que pasa por v: y − 3 = −2( x − 1). La intersección de estas rectas es w0 = (2, 1) T .
y

v = (1, 3)
3

v − w0 ∈ W ⊥
W : x − 2y = 0

1 w0 = (2, 1)

1 2
x

Se observa que el complemento ortogonal de W es la recta y = −2x y que v − w0 =


(−1, 2)T ∈ W ⊥ .

Ejemplo 3.2.31
Sea V = R3 con el producto interno usual y sea W el plano x − y + z = 0. Para calcular la
proyección ortogonal del vector v = (2, −1, 3) T sobre el subespacio W, se deberá calcular
la intersección del plano x − y + z = 0 con la recta perpendicular a ese plano y que pasa

107 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

por v. Dado que  


x
x − y + z = (1, −1, 1)  y  ,
z
W está formado por todos los vectores perpendiculares a la recta determinada por el
vector (1, −1, 1) T . La ecuación paramétrica de esta recta es v + t(1, −1, 1) T = (2 + t, −1 −
t, 3 + t) T . La intersección de la recta y el plano es el punto w0 que satisface (2 + t) − (−1 −
t) + (3 + t) = 0; luego t = −2 y w0 = (0, 1, 1) T satisface que v − w0 ∈ W ⊥ .

Ejemplo 3.2.32
Sean V, W y v como en el Ejemplo 3.2.30. Calculemos w0 usando el Teorema 3.2.29. El
vector v1 = (2, 1) T es una base ortogonal para W, así que
 
h v1 , v i 5 2
w0 = v = v = .
h v1 , v1 i 1 5 1 1

Ejemplo 3.2.33
Sean V = R3 , W el plano x − y + z y v = (2, −1, 3) T (Vea el Ejemplo 3.2.31). Se tiene
*   + *    +
1 −1 1 −1
W =  1  ,  0  = w1 =  1  , w2 =  1 
0 1 0 2

El segundo conjunto de generadores es ortogonal y se calcula usando el proceso de Gram


- Schmidt. De acuerdo con el Teorema 3.2.36, la proyección ortogonal de v sobre W es
 
0
h w1 , v i h w2 , v i 1 3
w0 = w1 + w2 = w1 + w2 =  1 
h w1 , w1 i h w2 , w2 i 2 6
1

que coincide con el resultado obtenido en el Ejemplo 3.2.31.

Ejemplo 3.2.34
Continuemos con el Ejemplo 3.2.30. Usando el Teorema 3.2.29, se calcula la proyección
ortogonal sobre W de cualquier v = ( a, b) T ∈ V. Como v1 = (2, 1) T es una base ortogo-
nal de W,
   
h v1 , v i 2a + b 2 1 2(2a + b)
Pv = v = = .
h v1 , v1 i 1 5 1 5 2a + b

Se observa que la proyección ortogonal P es una función lineal cuyo núcleo es el com-
plemento ortogonal de W. Un cálculo sencillo muestra que P es una función lineal idem-

Prof. Carlos J. Rubio 108 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

potente, es decir, que P2 = P. También se observa que P(v) = v si v ∈ W.

Ejemplo 3.2.35
Consideremos el espacio producto interno V = R4 y sea W el subespacio de V generado
por los vectores v1 = (1, 1, 0, 0) T y v2 = (0, 0, 1, 1) T . Calcule la proyección ortogonal
sobre W.

Solución. Observe que {v1 , v2 } es una base ortogonal para W. Calculemos para cada v ∈ R4
su proyección ortogonal sobre W, que de acuerdo al Teorema 3.2.29 existe porque W es de
dimensión finita. Sea v = ( x1 , x2 , x3 , x4 ) T . Entonces:

h v1 , v i h v2 , v i
P(v) = v + v
h v1 , v1 i 1 h v2 , v2 i 2
x + x2 x3 + x4
= 1 v1 + v2
2 2
1
= ( x1 + x2 x1 + x2 x3 + x4 x3 + x4 ) T .
2
Note que en este caso, P resultó ser una función lineal. Esto siempre es así y lo probaremos
más adelante.

Teorema 3.2.36
Sean V un espacio producto interno y W un subespacio de V de dimensión finita. En-
tonces:
W⊥.
M
V=W

Demostración. Como la suma de subespacios es un subespacio, tenemos que W + W ⊥ ⊂ V.


Luego, basta demostrar que V ⊂ W + W ⊥ y que W ∩ W ⊥ = {0}. Sea v ∈ V. Como W es
de dimensión finita, existe w0 ∈ W tal que w0 es la proyección ortogonal de v sobre W según
el Teorema 3.2.29. Entonces, el mismo teorema implica que v − w0 ∈ W ⊥ y claramente v =
w0 + (v − w0 ). Así, V ⊂ W + W ⊥ y por lo tanto V = W + W ⊥ . Ahora, si v ∈ W ∩ W ⊥ ,
entonces v ∈ W y v ∈ W ⊥ , de modo que hv, vi = 0. Luego, v = 0 y así W ∩ W ⊥ ⊂ {0}. Como
0 ∈ W ∩ W ⊥ , se sigue que W ∩ W ⊥ = {0} y por lo tanto, la suma W + W ⊥ es directa.
Note que no es necesario que V sea de dimensión finita. Sin embargo, es importante hacer
notar que el teorema puede no ser cierto en caso de que el subespacio W no sea de dimensión
finita. (Véase el Ejercicio 30).

Corolario 3.2.37
Sea V un espacio producto interno de dimensión finita. Sea W un subespacio de V. En-
tonces:

1) dim V = dim W + dim W ⊥ .

109 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

2) (W ⊥ )⊥ = W.

Demostración. 1) Como L
V tiene dimensión finita, entonces W tambén y según el Teorema 3.2.36
tenemos que V = W W ⊥ . Se sigue entonces que dim V = dim W + dim W ⊥ .
2) Demostraremos primero que W ⊂ (W ⊥ )⊥ . Sean w ∈ W y s ∈ W ⊥ . Entonces, hs, ui = 0
para todo u ∈ W, en particular hs, wi = 0, de modo que w ∈ (W ⊥ )⊥ . Así, W ⊂ (W ⊥ )⊥ . De-
mostraremos que dim W = dim(W ⊥ )⊥ . Como V tiene dimensión finita y W, W ⊥ son subes-
pacios de V, por lo demostrado en 1 se sigue que dim V = dim W + dim W ⊥ y dim V =
dim W ⊥ + dim(W ⊥ )⊥ , es decir dim W + dim W ⊥ = dim W ⊥ + dim(W ⊥ )⊥ . De aquí se si-
gue que dim W = dim(W ⊥ )⊥ y por lo tanto, W = (W ⊥ )⊥ .

Teorema 3.2.38
Si W es un subespacio de dimensión finita de un espacio producto interno V, entonces:
1) La proyección ortogonal de V sobre W siempre existe y es una función lineal idem-
potente cuyo núcleo es W ⊥ .

2) Si P es la proyección ortogonal de V sobre W, entonces 1V − P es la proyección orto-


gonal de V sobre W ⊥ . Además 1V − P es una función lineal idempotente cuyo núcleo
es W.

Demostración. 1) Como W es un subespacio de V de dimensión finita, la proyección ortogonal


de V sobre W existe por el Teorema 3.2.29. Sea P dicha proyección ortogonal. Demostra-
remos que P es idempotente, es decir P2 = P. Sea v ∈ V. Tenemos que P(v) es la mejor
aproximación a v que está en W. En particular, P(v) = v cuando v ∈ W. Luego, como
P(v) ∈ W, entonces P( P(v)) = P(v) y así P es idempotente. Veamos que P es lineal. Sean
v, v0 ∈ V y c un escalar arbitrario. Por el Teorema 3.2.29 tenemos que v − P(v) ∈ W ⊥ y
v0 − P(v0 ) ∈ W ⊥ . Luego:

c(v − P(v)) + (v0 − P(v0 )) = (cv + v0 ) − (cP(v) + P(v0 )) ∈ W ⊥

por ser W ⊥ un subespacio de V. Como cP(v) + P(v0 ) ∈ W (porque P(v), P(v0 ) ∈ W y


W es subespacio de V), por el Teorema 3.2.29 se sigue que cP(v) + P(v0 ) es la proyección
ortogonal de cv + v0 , es decir P(cv + v0 ) = cP(v) + P(v0 ). Por lo tanto, P es lineal.
Veamos que ker( P) = W ⊥ . Sea v ∈ ker( P). Entonces P(v) = 0 y por el Teorema 3.2.29 se
sigue que v − 0 ∈ W ⊥ , es decir v ∈ W ⊥ . Así, ker( P) ⊂ W ⊥ . Recíprocamente, si v ∈ W ⊥ ,
entonces v − 0 ∈ W ⊥ y por el Teorema 3.2.29 tenemos que P(v) = 0. Es decir, v ∈ ker( P).
Luego, W ⊥ ⊂ ker( P) y por lo tanto, ker( P) = W ⊥ .
2) Sea P la proyección ortogonal de V sobre W. Sea v ∈ V. Según el Teorema 3.2.29, demos-
traremos que 1V − P es la proyección ortogonal de V sobre W ⊥ demostrando que (1V −
P)(v) ∈ W ⊥ y que v − (1V − P)(v) ∈ (W ⊥ )⊥ . Tenemos que (1V − P)(v) = 1V (v) − P(v) =
v − P(v) y como P es la proyección ortogonal de V sobre W, entonces v − P(v) ∈ W ⊥ . Así,
(1V − P)(v) ∈ W ⊥ . Por otro lado, v − (1V − P)(v) = v − 1V (v) + P(v) = v − v + P(v) =
P(v) ∈ W (ya que P es la proyección ortogonal de V sobre W). Como W ⊂ (W ⊥ )⊥ , se sigue

Prof. Carlos J. Rubio 110 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

que v − (1V − P)(v) ∈ (W ⊥ )⊥ . Ahora, 1V − P es una suma de lineales, pues 1V es lineal y P


es lineal por lo demostrado en 1. Luego, 1V − P es lineal.
Por otra parte, (1V − P)2 = (1V − P)(1V − P) = 1V − 2P + P2 ya que 1V y P conmutan. Pero
P2 = P por lo demostrado en 1. Luego, (1V − P)2 = 1V − 2P + P = 1V − P y así 1V − P es
idempotente.
Por último, w ∈ ker(1V − P) si y sólo si (1V − P)(w) = 0 si y sólo si w − P(w) = 0 si y sólo
si w = P(w) si y sólo si w ∈ W.

Teorema 3.2.39 Desigualdad de Bessel


Sea {v1 , . . . , vn } un conjunto ortogonal de vectores no nulos de un espacio producto
interno V. Si v ∈ V, entonces:
n
|hvk , vi|2
∑ hvk , vk i
≤ k v k2 .
k =1

Demostración. Sea W = hv1 , v2 , . . . , vn i y sea P : V → V la proyección ortogonal de V sobre


W (P existe porque W es de dimensión finita y es única por el Teorema 3.2.29). Por el Teore-
ma 3.2.29, tenemos que si v ∈ V entonces:
n
P(v) = ∑ xk vk ,
k =1

donde xk = hvk , vi/hvk , vk i. Como kvk2 = kv − P(v) + P(v)k2 = kv − P(v)k2 + k P(v)k2 (¿por
qué?), se sigue que k P(v)k2 ≤ kvk2 . Pero:
* +
n n
k P(v)k2 = h P(v), P(v)i = ∑ xk vk , ∑ x j v j
k =1 j =1
* + !
n n n n
= ∑ x̄k vk , ∑ x j v j = ∑ x̄k ∑ x j hvk , v j i
k =1 j =1 k =1 j =1
n n
= ∑ x̄k xk hvk , vk i = ∑ |xk |2 hvk , vk i
k =1 k =1
n n
|hvk , vi|2 |hvk , vi|2
= ∑ 4
k v k k 2
= ∑ ,
k =1
kvk k k =1
hvk , vk i
n
|hvk , vi|2
de modo que ∑ hvk , vk i
≤ k v k2 .
k =1

Actividad de Aprendizaje 3.2.40

1) Suponga que P ∈ Rn×n es una matriz simétrica idempotente, es decir, P T = P y


P2 = P. Pruebe que para cada x ∈ Rn , Px es la proyección ortogonal de x sobre el
espacio columna de P.

111 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Actividad de Aprendizaje 3.2.40 (Continuación)

2) Suponga que P ∈ Rn×n satisface P = P T P. Pruebe que Px es la proyección ortogonal


de x ∈ Rn sobre el espacio columna de P.
3) Encuentre una matriz P ∈ R3×3 tal que Px sea la proyección ortogonal de x sobre el
subespacio generado por el conjunto ortogonal:
   
 1 2 
S = 2 ,  −2 .
2 1
 

4) Sea W un subespacio de dimensión finita de un espacio producto interno V y sea E


la proyección ortogonal de V sobre W. Pruebe que h E(v), wi = hv, E(w)i para todo
v, w ∈ V.

5) Encuentre una base ortogonal para el subespacio:

W = { x ∈ R3 | x1 + 2x2 + x3 = 0}.

Calcule también la proyección ortogonal de R3 sobre W.

3.2.6. Ejercicios de Práctica


1) Pruebe que si u es ortogonal a v, entonces cualquier múltiplo escalar de u también es orto-
gonal a v.
2) Sean V un espacio producto interno y β = {v1 , . . . , vn } un conjunto ortonormal tal que para
todo v ∈ V se tiene kvk2 = |hv1 , vi|2 + · · · + |hvn , vi|2 . Pruebe que V es de dimensión finita
e igual a n.
3) Sea A ∈ Rm×n . Suponga que β = {q1 , . . . , qr } es una base ortonormal para el espacio co-
lumna de A. Calcule la expansión de Fourier de y ∈ R( A) con respecto a la base β y pruebe
que y = QQ T y, donde Q = [q1 , . . . , qr ].
4) Si β = {v1 , . . . , vn } es una base ortonormal para Rn , pruebe que la matriz cambio de base
de la base β a la base canónica es una matriz ortogonal. Si β = {v1 , . . . , vn } es una base
ortonormal para Cn , pruebe que la matriz cambio de base de la base β a la base canónica es
una matriz unitaria.
5) Pruebe el recíproco del ejercicio anterior. Es decir, si Q ∈ Rn×n es una matriz ortogonal,
pruebe que las columnas de Q forman una base ortonormal para Rn . Pruebe también que si
U ∈ Cn×n es una matriz unitaria, entonces las columnas de U forman una base ortonormal
para Cn .
6) Una matriz A ∈ Cn×n se dice que es normal si tiene la propiedad A∗ A = AA∗ . Pruebe que
si A es una matriz normal, entonces R( A) y N ( A) son ortogonales. (Sugerencia: recuerde las
relaciones que existen entre los espacios columna y espacios nulos de A, A∗ , A∗ A y AA∗ ).
7) Sea V un espacio producto interno de dimensión finita. Sean β = {v1 , . . . , vn } y β0 =
{w1 , . . . , wn } bases ortonormales para V. Sea P la matriz cambio de base de β a β0 . Prue-
be que en el caso real, P es una matriz ortogonal, y en el caso complejo, P es una matriz
unitaria.

Prof. Carlos J. Rubio 112 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

8) Sea V un espacio euclidiano. Sean β = {v1 , . . . , vn } y β0 = {w1 , . . . , wn } bases ortonor-


males para V. Sea T el único operador lineal sobre V tal que T (vi ) = wi . Pruebe que
h T (v), T (w)i = hv, wi para todo v, w ∈ V.
9) a) Sea A ∈ Rn×n una matriz simétrica. Suponga que v1 y v2 son vectores de Rn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .
b) Sea A ∈ Cn×n una matriz hermitiana. Suponga que v1 y v2 son vectores de Cn tales que
Avi = λi vi para algunos escalares λ1 , λ2 . Pruebe que v1 y v2 son ortogonales si λ1 6= λ2 .

10) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V. Pruebe que si v es un vector


ortogonal a cada vi , entonces v es ortogonal al subespacio generado por estos vectores.

11) a) Construya una base ortogonal de R[t]3 con respecto al producto interno:
Z 1
h f , gi = f (t) g(t)dt,
−1

mediante la aplicación del proceso de Gram Schmidt a la base {1, t, t2 }.


Los polinomios resultantes son los primeros tres polinomios de Legendre. Si dividimos cada
uno de estos polinomios entre su norma relativa al mismo producto interno, obtenemos
los polinomios de Legendre normalizados.
b) Utilice el proceso de Gram-Schmidt para calcular el cuarto polinomio de Legendre nor-
malizado.
c) Si multiplicamos el polinomio de Legendre de grado n por un escalar apropiado, obte-
nemos un polinomio Ln (t) tal que Ln (1) = 1. Encuentre L0 (t), L1 (t), L2 (t) y L3 (t).
d) Con referencia al inciso anterior, demuestre que Ln (t) satisface la relación de recurrencia:

2n − 1 n−1
Ln (t) = tLn−1 (t) − L n −2 ( t )
n n
para toda n ≥ 2.

12) Considere en R3 el producto interno h x, yi = x1 y1 + 2x2 y2 + 3x3 y3 , donde x = ( x1 , x2 , x3 ) T ,


y = (y1 , y2 , y3 ) T . Aplique el proceso de Gram-Schmidt para transformar v1 = e1 + e2 + e3 ,
v2 = e1 + e2 , v3 = e1 en una base ortogonal.

13) Pruebe que si A ∈ Rm×n es de rango n, entonces la factorización A = QR, donde Q ∈ Rm×n
tiene columnas ortogonales yR ∈ Rn×n es triangular superior con entradas positivas en la
diagonal, es única.

14) Sea V un espacio producto interno de dimensión finita. Sea W un subespacio de V de di-
mensión r. Pruebe que V es la suma directa de W y W ⊥ y que la dimensión de W ⊥ es n − r.
(Sugerencia: los casos W = {0} o W = V son inmediatos. Sea {w1 , . . . , wr } una base orto-
normal para W. Complete esta base hasta obtener una base ortonormal para V y proceda
por cuenta propia).

15) Sean S1 y S2 subconjuntos de un espacio producto interno V. Pruebe que si S1 ⊂ S2 , entonces


S2⊥ ⊂ S1⊥ .

16) Sean U y W subespacios de un espacio producto interno V. Demuestre que (U + W )⊥ =


U⊥ ∩ W ⊥.

17) Sean U y W subespacios de un espacio producto interno de dimensión finita V. Pruebe que
(U ∩ W ) ⊥ = U ⊥ + W ⊥ .

113 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

18) Sea V el espacio de las matrices Cn×n con el producto interno h A, Bi = tr( A∗ B). Calcule el
complemento ortogonal del subespacio de V de todas las matrices diagonales.
19) Si U y W son subespacios de dimensión finita de un espacio producto interno V tales que
U ⊥ = W ⊥ , pruebe que U = W.
20) Sea V el espacio de todas las matrices simétricas reales de n × n. El producto h A, Bi =
tr( AB) es un producto interno. Calcule la dimensión del complemento ortogonal del subes-
pacio W de V que consta de todas las matrices A tales que tr( A) = 0.
Z 1
21) Sea V = R[ x ]2 con el producto interno h f , gi = f ( x ) g( x )dx. Encuentre la mejor aproxi-
0
mación a f = x2 + 1 por vectores del subespacio W = h1, x i.
22) Sea A ∈ Rm×n de rango r. Suponga que las columnas de la matriz Q ∈ Rm×r forman una
base ortonormal del espacio columna de A. Pruebe que para cada y ∈ Rm , QQ T y es la
proyección ortogonal de y sobre el espacio columna de A.
23) Sea A ∈ Rm×n de rango n y A = QR una factorización QR de A. Pruebe que para cada
y ∈ Rm , QQ T y es la proyección ortogonal de y sobre el espacio columna de A.
24) Sea V el espacio producto interno que consta de R2 y el producto interno cuya forma cua-
drática está definida por k x k2 = ( x1 − x2 )2 + 2x22 . Sea E la proyección ortogonal de V sobre
el subespacio W generado por 3e1 + 4e2 . Calcule:
a) Una fórmula para E( x ).
b) La matriz de E en la base canónica de R2 .
 
1 0
c) Una base ortonormal en que E está representada por la matriz .
0 0
25) Complete las siguientes afirmaciones. En cada caso justifique su respuesta.
a) Si Ax = b es consistente y A T y = 0, entonces y es ortogonal a:
b) Si Ax = b es inconsistente y A T y = 0, entonces y no es ortogonal a:
26) Sean A ∈ Rm×n y x ∈ Rn . Pruebe que si Ax está en el espacio nulo izquierdo de A, entonces
Ax = 0.
n o
27) Si S = (1, −1, 1) T , (2, 0, 2) T , encuentre una matriz real A tal que S⊥ = N ( A).

28) Sea A ∈ Rm×n una matriz de rango n. Pruebe que para cada b ∈ Rm , A( A T A)−1 A T b es la
proyección ortogonal de b sobre el espacio columna de A.
 
1 0
29) Sea A = −1 −1 . Encuentre la proyección ortogonal de cada b ∈ R3 sobre el espacio
1 2
columna de A.
30) Considere el espacio vectorial de los polinomios con coeficientes reales en la variable t, R[t],
con el producto interno:
h p(t), q(t)i = ∑ ai bi ,
i

ti
donde p(t) = ∑i ai y q(t) = ∑i bi ti .
Sea:
S = {1 − t, t − t2 , t2 − t3 , . . . , t j − t j+1 , . . .}.
a) Demuestre que hSi 6= R[t]. (Sugerencia: 1 6∈ hSi).

Prof. Carlos J. Rubio 114 Álgebra Lineal, Actuaría


3. Producto interno y ortogonalidad

b) Demuestre que hSi⊥ = {0}. (Sugerencia: Si p(t) ∈ hSi⊥ es un polinomio de grado n,


pruebe que h p(t), tn − tn+1 i 6= 0).
c) Concluya que R[t] 6= hSi hSi⊥ .
L

31) Si V es un espacio vectorial, una proyección de V es un operador lineal E sobre V tal que
E2 = E. Suponga que V es un espacio producto interno y sea W un subespacio de V de
dimensión finita. Existen (en general) muchas proyecciones que tienen a W como imagen.
Una de éstas, P, la proyección ortogonal sobre W, tiene la propiedad de que k P(v)k ≤ kvk
para todo v ∈ V (véase la demostración de la desigualdad de Bessel). Demuestre que si E
es una proyección con imagen W tal que k E(v)k ≤ kvk para todo v ∈ V, entonces E es la
proyección ortogonal sobre W.

115 Prof. Carlos J. Rubio


3. Producto interno y ortogonalidad

Prof. Carlos J. Rubio 116 Álgebra Lineal, Actuaría


Capı́tulo 4
Teoría Espectral

En este capítulo se desarrollará la teoría de diagonalización de una matriz, estudiando sus


valores y vectores propios. Se estudiará al polinomio característico de una matriz y a su poli-
nomio mínimo.

4.1. Propiedades básicas de la teoría espectral


4.1.1. Valores propios y vectores propios

Definición 4.1.1. Valores y vectores propios de una matriz

Sea A una matriz compleja de n × n. Un número complejo λ es un valor propio de A si


existe un vector v 6= 0 tal que

Av = λv.

El vector v 6= 0 se denomina vector propio de A asociado con el valor propio λ. Un par


propio es un par (λ, v) donde v es un vector propio correspondiente al valor propio λ.
El espectro de A es el conjunto de todos sus valores propios distintos y se denota por
σ( A), es decir,

σ( A) = {λ | λ es un valor propio de A}.

Otros nombres usados para un valor propio son autovalor, valor espectral o valor carac-
terística; algunos sinónimos de vector propio son autovector, vector espectral o vector carac-
terístico. Con frecuencia se usan términos eigenvalor y eigenvector, aunque esto no es correcto
desde el punto de vista del idioma Español, pues la palabra eigen no pertenece al Español. De
hecho, eigen es una palabra alemana, que significa propio de o característico de.

Ejemplo 4.1.2
 
3 2
Considere la matriz A = . El número λ = 4 es un valor propio y v = (2, 1) es
3 −2

117
4. Teoría Espectral

un vector propio ya que


      
3 2 2 8 2
= =4 .
3 −2 1 4 1

De esta manera (4, (2, 1)) es un par propio. Hay más de un vector propio asociado con
el valor propio λ = 4, de hecho (4, 2) es otro vector propio. De hecho, si c 6= 0, entonces
cv es un vector propio, pues A(cv) = c( Av) = c(λv) = λ(cv).

Ejemplo 4.1.3
 
0 1 1
Considere ahora la matriz A = 1 0 1. Los números λ1 = 2 y λ2 = −1 son valores
1 1 0
propios. Por un lado,
      
0 1 1 1 2 1
1 0 1 1 = 2 = 2 1 .
1 1 0 1 2 1

Esto muestra que 2 es un valor propio. Por otro lado,


      
0 1 1 3 −3 3
1 0 1 −5 =  5 = (−1) −5 .
1 1 0 2 −2 2

Se deja al lector verificar que (7, 3, −10) también es un vector propio asociado al valor
propio λ = −1.

Ejemplo 4.1.4
Sean v1 = (2, 3) y v2 = (−1, 4) vectores propios de A correspondientes a λ1 = −2 y
λ2 = 5. Determine el valor de A(2v1 − 7v2 ) y A(6v2 ).
Solución. Se tiene que Av1 = −2v1 y Av2 = 5v2 . Por lo tanto,

A(2v1 − 7v2 ) = 2Av1 − 7Av2 = 2(−2v1 ) − 7(5v2 ) = (27, −152);


A(6v2 ) = 6Av2 = 6(5v2 ) = 30v2 = (−30, 120).

Actividad de Aprendizaje 4.1.5

1) Determine cuáles de los vectores v1 = (−2, −1), v2 = (1, 0) y v3 = (3, 1) son vectores

Prof. Carlos J. Rubio 118 Álgebra Lineal, Actuaría


4. Teoría Espectral

Actividad de Aprendizaje 4.1.5 (Continuación)


 
−21 48
propios de A = .
−8 19
 
−17 −10
2) Se sabe que λ = 3 es un valor propio de A = . Encuentre un vector
30 18
propio de A correspondiente a λ = 3.
3) Si v1 , v2 son vectores propios de una matriz A correspondientes al valor propio λ.
Sean a, b números tales que av1 + bv2 6= 0. Verifique que av1 + bv2 es un vector propio
de A.

Para calcular los valores propios de una matriz se requiere del siguiente resultado.

Teorema 4.1.6
Sea A un matriz. Las siguientes afirmaciones sobre el número λ son equivalentes.

1) λ es un valor propio de A.
2) N ( A − λI ) 6= {0}.
3) A − λI no es invertible.

4) det( A − λI ) = 0.

Demostración.

λ ∈ σ ( A) ⇐⇒ ∃ v 6= 0, Av = λv
⇐⇒ ∃ v 6= 0, Av − λv = 0
⇐⇒ ∃ v 6= 0, Av − λIv = 0
⇐⇒ ∃ v 6= 0, ( A − λI )v = 0
⇐⇒ N ( A − λI ) 6= {0}
⇐⇒ A − λI no es invertible
⇐⇒ det( A − λI ) = 0.

Luego, λ es un valor propio de la matriz A si y solamente si λ es una solución de la ecuación


det( A − λI ) = 0.

Ejemplo 4.1.7
Calcule todos los valores propios de la matriz del Ejemplo 4.1.3.
Solución. Se debe resolver la ecuación

−λ 1 1

p(λ) = det( A − λI ) = 1 −λ 1 = 0.
1 1 −λ

119 Prof. Carlos J. Rubio


4. Teoría Espectral

El desarrollo del determinante nos lleva a que p(λ) = −λ3 + 3λ + 2 = −(λ + 1)2 (λ − 2).
Los únicos valores que satisfacen det( A − λI ) = 0 son λ = 2 y λ = −1. El valor λ = −1
aparece repetido dos veces.

Teorema 4.1.8
Sea A una matriz de n × n. Entonces:
1) p(λ) = det( A − λI ) es un polinomio de grado n en la variable λ.
2) El coeficiente de λn es (−1)n .

3) El coeficiente de λn−1 es (−1)n−1 tr( A).


4) El término constante de p(λ) es det( A).

Demostración. Sea A = ( aij ) y B = A − λI = ( aij − λδij ). Observe que si σ ∈ Sn es tal que


σ (i ) = i para n − 1 valores de i, entonces σ (i ) = i para todo i. En consecuencia, si σ no es la
permutación identidad, existen al menos dos índices i1 , i2 tales que σ (i1 ) 6= i1 y σ(i2 ) 6= i2 y
b1σ(1) · · · bnσ(n) tiene a lo más n − 2 factores de la forma aii − λ.
Por otro lado, ∏in=1 (λ − aii ) = λn − s1 λn−1 + · · · + (−1)n sn , donde s1 , . . . , sn son los poli-
nomios simétricos elementales evaluados en a11 , . . . , ann 1 . Entonces:

det( A − λI ) = (−1)n (λ − a11 )(λ − a22 ) · · · (λ − ann ) + ∑ e(σ)b1σ(1) · · · bnσ(n)


σ ∈Sn ,σ 6=1

= (−1)n (λn − ( a11 + · · · + ann )λn−1 + · · · + (−1)n sn )


+ polinomios en λ de grado a lo más n − 2
= (−1)n λn + (−1)n−1 tr( A)λn−1 + polinomios en λ de grado a lo más n − 2.

De aquí se sigue 1, 2 y 3. Finalmente, el término constante de p(λ) es p(0) = det( A − 0I ) =


det( A).

Ejemplo 4.1.9
Sea A una matriz de 2 × 2 tal que tr( A) = −5 y det( A) = −84. Calcule los valores
propios de A.

1 Para cada j, (1 ≤ j ≤ n ), el polinomio simétrico elemental s ( t , . . . , t ) en las variables t , . . . , t es la suma de los


j 1 n 1 n
productos de las ti ’s tomadas de j en j. De esta manera
s1 ( t1 , . . . , t n ) = t1 + · · · + t n
s 2 ( t 1 , . . . , t n ) = t 1 t 2 + t 1 t 3 + · · · + t 2 t 3 + · · · + t n −1 t n ,
······
s n ( t1 , . . . , t n ) = t1 · · · t n .

Prof. Carlos J. Rubio 120 Álgebra Lineal, Actuaría


4. Teoría Espectral

Solución. Por un lado, de acuerdo con 4.1.6, λ es un valor propio si y solamente si λ


es una raíz del p(λ) = det( A − λI ). Por otro lado, de acuerdo con 4.1.8, p(λ) es un
polinomio de grado dos en la variable λ, el coeficiente de λ2 = (−1)2 = 1, el coeficiente
de λ2−1 = (−1)2−1 tr( A) = 5; el término constante de p(λ) es det( A) = −5. Luego el
polinomio característico de A es

p(λ) = λ2 + 5λ − 84 = (λ − 7)(λ + 12).

Los valores propios de A son λ = 7 y λ = −12. 

Ejemplo 4.1.10
Sea A una matriz de 4 × 4 cuyos valores propios son λ1 = 3, λ2 = −1, λ3 = −1 y λ4 = 2.
Calcule la traza y el determinante de A.
Solución. De acuerdo con 4.1.8, p(λ) es polinomio de grado cuatro cuyo coeficiente
principal es (−1)4 , el coeficiente de λ3 es (−1)3 tr( A) y el término constante es det A.
Por lo tanto,

p(λ) = λ4 − tr( A)λ3 + a2 λ2 + a1 λ + det( A).

Por otro lado, como p(λ) se factoriza como sigue

p(λ) = (λ − λ1 )(λ − λ2 )(λ − λ3 )(λ − λ4 ).

Se tiene la igualdad:

λ4 − tr( A)λ3 + a2 λ2 + a1 λ + det( A) = (λ − λ1 )(λ − λ2 )(λ − λ3 )(λ − λ4 ).

De acuerdo con las fórmulas de Vieta,

− tr( A) = −(λ1 + λ2 + λ3 + λ4 ) = −(3 − 1 − 1 + 2) = −3,


det( A) = (−1)4 λ1 λ2 λ3 λ4 = (3)(−1)(−1)(2) = 6.

La traza de A es 3 y el determinante de A es 6. 

Teorema 4.1.11
Si A es una matriz de n × n y λ1 , . . . , λn son todos los valores propios de A, entonces

det A = λ1 λ2 · · · λn ,
tr( A) = λ1 + λ2 + · · · + λn .

121 Prof. Carlos J. Rubio


4. Teoría Espectral

Demostración. De acuerdo con el Teorema 4.1.8,

p(λ) = (−1)n λn + (−1)n−1 tr( A) + a2 λn−2 + · · · + a1 λ + det( A)


= (−1)n (λn − tr( A)λn−1 + (−1)n an−2 λn−2 + · · · + (−1)n a1 λ + (−1)n det( A))
= (−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn )

Se tiene entonces la igualdad

λn − tr( A)λn−1 + (−1)n an−2 λn−2 + · · · + (−1)n a1 λ + (−1)n det( A)


= (λ − λ1 )(λ − λ2 ) · · · (λ − λn )

Recordando las fórmulas de Vieta se concluye que

− tr( A) = −(λ1 + λ2 + · · · + λn ,
(−1) det( A) = (−1)n λ1 λ2 · · · λn ,
n

De lo anterior se sigue el resultado.

4.1.2. Polinomio característico y ecuación característica

Definición 4.1.12. Polinomio y ecuación característica

Sea A una matriz de n × n. El polinomio característico de A es

p A (λ) = det( A − λI ).

La ecuación característica de A es

det( A − λI ) = 0.

La multiplicidad algebraica de un valor propio es el número de veces que éste aparece


como raíz del polinomio característico.
El espacio propio de A correspondiente a λ es

Eλ = N ( A − λI ) = { x : Ax = λx } .

La multiplicidad geométrica de λ es la dimensión del espacio propio:

Multiplicidad geométrica = dim N ( A − λI ).

Observación 4.1.13
Note que el espacio propio es un subespacio (es un espacio nulo) y que todos los vectores
de N ( A − λI ), exceptuando al vector cero, son vectores propios de A que corresponden
al mismo valor propio.

Prof. Carlos J. Rubio 122 Álgebra Lineal, Actuaría


4. Teoría Espectral

Ejemplo 4.1.14
 
5 3
Considere la matriz A = .
−6 −4
1) Calcule los valores propios.
2) Determine la multiplicidad algebraica de cada valor propio.

3) Calcule una base para cada espacio propio.


4) Determine la multiplicidad geométrica de cada valor propio.
Solución. Primero se calcula el polinomio característico:

5 − λ 3
p A (λ) = det( A − λI ) = = λ2 − λ − 2 = (λ − 2)(λ + 1).
−6 −4 − λ

Los valores propios de A se obtienen determinando las raíces de la ecuación característi-


ca p A (λ) = 0, las cuales resultan ser λ = 2 y λ = −1. Cada valor propio tiene multiplici-
dad algebraica uno. Los vectores propios asociados con λ = 2 y λ = −1 son los vectores
distintos de cero de N ( A − 2I ) y N ( A + I ), respectivamente. El cálculo de los vectores
propios se reduce a resolver los sistemas homogéneos ( A − 2I ) x = 0 y ( A + I ) x = 0.
Para λ = 2 se tiene
   
3 3 FERR 1 1
A − 2I = −−−→ =⇒ x1 + x2 = 0. =⇒ x1 = − x2
−6 −6 0 0
   
−1
N ( A − 2I ) = c :c∈R .
1

Los vectores propios que corresponden a 2 son de la forma c(−1, 1), con c 6= 0 y una base
para N ( A − 2I ) es (−1, 1). La multiplicidad algebraica de λ = 2 es dim N ( A − 2I ) = 1.
De manera similar, para λ = −1:

3 FERR 1 21
   
6 1 1
A+I = −−−→ =⇒ x1 + x2 = 0. =⇒ x1 = − x2
−6 −3 0 0 2 2
  1 
−2
N( A + I) = c :c∈R .
1

Una base para N ( A + I ) es (−1/2, 1). La multiplicidad geométrica de λ = −1 es uno.


Toda la información relevante se resume en la siguiente tabla.

λ mult. alg. base Eλ mult. geom.


2 1 {(−1, 1)} 1
−1 1 {(− 12 , 1)} 1

123 Prof. Carlos J. Rubio


4. Teoría Espectral

Ejemplo 4.1.15
 
1 −1 1
Calcule todos los valores propios de la matriz A = −1 1 2. Determine las mul-
2 2 −1
tiplicidades algebraica y geométrica de los valores propios.
Solución. El polinomio característico de A es

1 − λ −1 1
2 = −λ3 + λ2 + 8λ − 12

p A (λ) = det( A − λI ) = −1 1−λ
2 2 −1 − λ

En consecuencia la ecuación característica es

−(λ3 − λ2 − 8λ + 12) = 0.

Como esta ecuación tiene coeficientes enteros, para encontrar las soluciones racionales, si
las tiene, se puede aplicar el teorema de las raíces racionales. Las posibles raíces serían los
divisores de 12, es decir, ±1, ±2, ±3, ±4, ±6, ±12. Como p A (2) = 0, se sigue que λ = 2
es un valor propio; se sigue que p A (λ) = −(λ − 2)(λ2 + λ − 6) = −(λ − 2)2 (λ + 3).
Todos los valores propios de A son λ = 2 y λ = −3. Como λ = 2 aparece dos veces
como raíz del polinomio característico, su multiplicidad algebraica es 2.
Para λ = 2 se tiene
   
−1 −1 1 1 1 0
FERR x + x2 = 0
A − 2I = −1 −1 2 −−−→ 0 0 1 =⇒ 1
x3 = 0
2 2 −3 0 0 0

El espacio propio de λ = 2 es N ( A − 2I ) = h(−1, 1, 0)i y por lo tanto la multiplicidad


geométrica de λ = 2 es 1.
De manera similar, para λ = −3 se tiene

1 0 25
   
4 −1 1
FERR x + 2x = 0
A + 3I = −1 4 2 −−−→ 0 1 35  =⇒ 1 35 3
x2 + 5 x3 = 0
2 2 2 0 0 0

Se tiene entonces que N ( A + 3I ) = (− 25 , − 35 , 1 y la multiplicidad geométrica de λ =



−3 es 1. La siguiente tabla resume esta información.

λ mult. alg. base Eλ mult. geom.


2 2 {(−1, 1, 0)} 1
−3 1 {(2, 3, −5)} 1

Ejemplo 4.1.16
Calcule las multiplicidades algebraica y geométrica de cada valor propio de la matriz

Prof. Carlos J. Rubio 124 Álgebra Lineal, Actuaría


4. Teoría Espectral

 
2 1 0 0
0 2 0 0
0 0 2 1.
 

0 0 0 2
Solución. Se procede primero a calcular los valores propios de A resolviendo le ecua-
ción característica

2 − λ 1 0 0

0 2−λ 0 0
0 = = (2 − λ )4
0 0 2−λ 1
0 0 0 2 − λ

El único valor propio de A es λ = 2. Para calcular la multiplicidad geométrica, es nece-


sario calcular la dimensión del espacio propio N ( A − 2I ).
   
0 1 0 0 0 1 0 0
 → 0 0 0 1 =⇒ x2 = 0
0 0 0 0  
0 0 0 1 −
A − 2I =  0 0 0 0 x4 = 0
0 0 0 0 0 0 0 0
        

 x1 
 
 1 0 

0 0 0
      
N ( A − 2I ) =   : x1 , x3 ∈ C = x1   + x3   : x1 , x3 ∈ C .
x 0 1
 3
         
  
 
0 0 0
 

Como dim N ( A − 2I ) = 2, se tiene que la multiplicidad geométrica de λ = 2 es 2. 

Ejemplo 4.1.17
Sea A una matriz de 3 × 3 tal que tr( A) = 3, det( A) = −40 y Av = 2v para cierto vector
0 6= v. Encuentre todos los valores propios de A.
Solución. El polinomio característico es

p(λ) = −λ3 + tr( A)λ2 + a1 λ + det( A) = −λ3 + 3λ2 + a1 λ − 40.

Como λ = 2 es un valor propio se tiene p(2) = 0, es decir −(23 ) + 3(2)2 + 2a1 − 40 = 0.


Luego 2a1 = 36 así que a1 = 18. Por lo tanto p(λ) = −λ3 + 3λ2 + 18λ − 40. Como λ = 2
es una raíz,

p(λ)/(λ − 2) = −λ2 + λ + 20 = −(λ − 5)(λ + 4).

Las otras dos raíces son λ = 5 y λ = −4. 

Ejemplo 4.1.18
 
0 −1
El polinomio característico de la matriz A = es λ2 + 1. Si uno se restringe
1 0

125 Prof. Carlos J. Rubio


4. Teoría Espectral

a trabajar con números reales, se concluiría que esta matriz no tiene valores propios
(reales) ni vectores propios (reales). Si consideramos números complejos, entonces los
valores propios de A son i y −i. Un cálculo sencillo muestra que N ( A − iI ) = {c(i, 1) :
c ∈ C} y N ( A + iI ) = {c(i, −1) : c ∈ C}.

Teorema 4.1.19
Toda matriz compleja A ∈ Cn×n tiene exactamente n valores propios. Cada valor propio
tiene al menos un vector propio.

Demostración. Sea p A (λ) el polinomio característico de A. De acuerdo con el teorema funda-


mental del álgebra, todo polinomio sobre C tiene exactamente n raíces (contando las multipli-
cidades). Luego, el polinomio p A tiene exactamente n raíces, es decir, A tiene n valores propios.
Por cada valor propio λ, la matriz A − λI no es invertible, por lo que existe al menos un vector
x 6= 0 tal que ( A − λI ) x = 0.

Actividad de Aprendizaje 4.1.20

1) Para cada cada una de las siguientes matrices, calcule los valores propios, bases pa-
ra los espacios propios y las multiplicidades algebraica y geométrica de cada valor
propio.

 
  2 0 0
1 2 
, −1 4 0 .
5 −2
−3 6 2

2) Sea P una matriz invertible y suponga que A y B son matrices tales que A = PBP−1 .
Pruebe que A y B tienen exactamente el mismo polinomio característico.
3) Pruebe que λ = 0 es un valor propio de la matriz A si y sólo si A no es invertible.

4) Pruebe que si A es una matriz idempotente y λ es un valor propio de A, entonces


λ = 0 o 1.

Teorema 4.1.21
Sea A ∈ Cn×n . La multiplicidad geométrica de un valor propio de A es menor o igual
que su multiplicidad algebraica.

Prof. Carlos J. Rubio 126 Álgebra Lineal, Actuaría


4. Teoría Espectral

Demostración. Sean λ0 un valor propio de A, r = dim Eλ0 = dim( N ( A − λ0 In )) y β 0 =


{v1 , . . . , vr } una base para Eλ0 . Sean vr+1 , . . . , vn vectores en Cn de tal manera que β = {v1 , . . . , vn }
es una base para Cn . Se tiene que Avi = λ0 vi para i = 1, . . . , r. La matriz del operador TA en la
base β es de la forma
 
λ0 Ir B
[ TA ] β = ,
0 C

donde B ∈ K r×(n−r) y C ∈ K (n−r)×(n−r) . En consecuencia, la matriz [ TA ] β − λ0 In es una matriz


triangular superior por bloques. Luego,
 
(λ0 − λ) Ir B
det([ TA ] β − λIn ) = det
0 C − λIn−r
= det((λ0 − λ) Ir ) det(C − λIn−r )
= (λ0 − λ)r det(C − λIn−r ),
donde det(C − λIn−r ) es un polinomio en λ.
Por otra parte, si consideramos la base canónica de Cn , e = {e1 , . . . , en }, tenemos que [ TA ]e = A.
Luego, las matrices A y [ TA ] β son semejantes y, por el Ejercicio 2 de la Actividad de Aprendizaje
4.1.20, tales matrices tienen el mismo polinomio característico. Luego, (λ0 − λ)r det(C − λIn−r )
es el polinomio característico de A y, es claro que la multiplicidad algebraica de λ0 es al menos
r, la multiplicidad geométrica de λ0 .

Actividad de Aprendizaje 4.1.22

1) Sea A una matriz 6 × 6 cuya ecuación característica es λ2 (λ − 1) (λ − 2)3 = 0. ¿Cuá-


les son las posibles dimensiones para los espacios propios de A?
2) Sea {v1 , . . . , vn } una base ortonormal para Rn y sean λ1 , . . . , λn escalares. Defina A =
λ1 v1 v1T + · · · + λn vn vnT . Pruebe que A es una matriz simétrica, σ ( A) = {λ1 , . . . , λn }
y que vi es un vector propio de A asociado a λi (1 ≤ i ≤ n) .
3) Sean A y B matrices de n × n. Demuestre que AB y BA tienen los mismos valores
propios.

4.1.3. Ejercicios de Práctica


 
0 3
1) Determine los valores de c y d de tal manera que los valores propios de A = sean 2
c d
y 6.
2) Sean x1 = (1, 0) y x2 = (1, 1) tales que Ax1 = 2x1 y Ax2 = 5x2 . Encuentre A explícitamente.
3) Sea A una matriz real de 2 × 2.
a) Pruebe que si A es simétrica, entonces sus valores propios son reales.
b) Pruebe que si A es anti-simétrica, entonces sus valores propios son imaginarios puros.
4) Sea V el espacio de todos los polinomios reales de grado menor o igual que 2. Sea T el
operador lineal sobre V dado por T ( a + bt + ct2 ) = (3a − 2b) + (−2a + 3b)t + (5c)t2 . Calcule
el polinomio característico de T, σ( T ), sus espacios propios y las multiplicidades algebraica
y geométrica de cada valor propio.

127 Prof. Carlos J. Rubio


4. Teoría Espectral

5) Sea V un espacio real de dimensión 3 y sea A : V → V un operador lineal. Suponga que


tr( A) = 2, det( A) = −6 y Av = v para cierto vector 0 6= v ∈ V. Encuentre todos los valores
propios de A.
6) Sea f : Rn×n → Rn×n el operador lineal definido por f ( A) = A T . Verifique que 1 y −1 son
valores propios de f . Encuentre bases para los espacios propios E1 y para E−1 .
7) Sea T el operador lineal sobre R [t]n dado por T ( f ) = f 00 . Encuentre los valores propios, los
vectores propios y los espacios propios de T.
8) Sea A ∈ Rm×m y sea F : Rm×n → Rm×n el operador lineal dado por F ( B) = AB. Pruebe que
si λ es un valor propio del operador F, entonces λ es un valor propio de A.
9) Sea T ∈ K n×n una matriz triangular. Calcule el espectro de T.
10) Sea A una matriz cuadrada. Pruebe que σ ( A) = σ A T . ¿Tienen A y A T los mismos espa-


cios propios?
11) Sea λ un valor propio de una matriz A, y k un escalar. Pruebe que:
a) kλ es un valor propio de la matriz kA.
b) Si r es un entero positivo, entonces λr es un valor propio de la matriz Ar .
c) Si A es invertible, entonces λ−1 es un valor propio de A−1 .
d) λ + k es un valor propio de la matriz A + kI.
Si T es un operador lineal sobre un espacio de dimensión finita y λ es un valor propio de T,
¿siguen siendo válidos los resultados a)-d)?
12) Sea K un campo y f (t) = a0 + a1 t + · · · + am tm . Si A ∈ K n×n , f ( A) representa a la matriz
obtenida sustituyendo ti por Ai , es decir f ( A) = a0 I + a1 A + · · · + am Am . Pruebe que si λ
es un valor propio de A asociado al vector propio x, entonces f (λ) es un valor propio de
f ( A) asociado al vector propio x.
13) Sea A ∈ Cn×n . ¿Cómo se relacionan los valores propios de A y de Ā?
14) Una matriz cuadrada A se denomina nilpotente si An = 0 para algún entero positivo n.
Pruebe que si A ∈ Cn×n es una matriz nilpotente, entonces σ ( A) = {0} .
15) Sea A ∈ Rn×n . Si n es par y det A < 0, pruebe que A tiene al menos dos valores propios
reales.
16) Sea V un espacio real de dimensión 4 y sea T  sobre V. Suponga que la
un operador lineal
3 3 0 1
 −1 −1 0 −1
matriz de T en la base β = {v1 , v2 , v3 , v4 } es 
 . Calcule el espectro de T
1 2 1 1
2 4 0 3
y los espacios propios asociados con cada valor propio.
17) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea v = 6v1 + 2v2 + 5v3 ∈ V y x = (2 11 − 7) T ∈ R3 . Suponga que
T (v) = v, que U = {u ∈ V | [u] Tβ x = 0} es un espacio propio y, que la traza de la matriz de
T en la base β es 5. Calcule el espectro de T y la matriz de T en la base β.
18) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea w1 = 4v1 + v2 − v3 ∈ V y x = (1, −2, 1) T ∈ R3 . Suponga que
T (w1 ) = w1 , que U = {u ∈ V | [u] Tβ x = 0} es un espacio propio y, que la traza de la matriz
de T en la base β es −1. Calcule el espectro de T y la matriz de T en la base β.

Prof. Carlos J. Rubio 128 Álgebra Lineal, Actuaría


4. Teoría Espectral

19) Si A ∈ Cn×n , y λ1 , λ2 , . . . , λn , son todos los valores propios de A incluyendo multiplicida-


des, demuestre que:

tr( A) = λ1 + · · · + λn , det( A) = λ1 · · · λn .

20) Calcule el espectro de una matriz compleja de 2 × 2 cuya traza y determinante son 8 y 12,
respectivamente.

21) Encuentre det A si el polinomio característico de A es:

a) p (λ) = −λ3 + 2λ2 + λ + 5.


b) p (λ) = λ4 − λ3 + 7.

22) Sea V el espacio de las funciones continuas de R en R. Sea T el operador lineal sobre V
definido por: Z x
T ( f ( x )) = f (t)dt.
0

Demuestre que T no tiene valores propios.

23) Demuestre que no existe ninguna matriz de 7 × 7 con entradas números reales no negativos,
cuyos valores propios (contando multiplicidades) sean 6, −5, −5, 1, 1, 1, 1.

4.2. Diagonalización
En diferentes áreas de las Matemáticas, Física, Ingeniería o incluso Biología, el análisis de un
determinado problema puede requerir calcular las potencias de una cierta matriz y determinar
si éstas convergen
 a un límite.
 Cuando la matriz nes diagonal,
 este problema es muy sencillo. Por
λ1 0 λ 0
ejemplo si D = , entonces D n = 1 para todo entero positivo n. Si A no es
0 λ2 0 λ2n
diagonal, pero puede escribir en términos de una matriz diagonal, por ejemplo A = PDP−1 ,
 se 
1 1
donde P = , entonces:
1 2

2 λ1n − λ2n −λ1n + λ2n


 
n n −1
A = PD P =
2 λ1n − 2 λ2n −λ1n + 2 λ2n

Si las sucesiones {λ1n } y {λ2n } de números convergen, digamos lı́m λ1n = 1 y lı́m λ2n = 0, en-
n→∞ n→∞
tonces  
2 −1
lı́m An = .
n→∞ 2 −1

Definición 4.2.1.

Se dice que una matriz A es diagonalizable si A es semejante a una matriz diagonal.


En otras palabras, A es diagonalizable si existe una matriz invertible P y una matriz
diagonal D tal que

A = PDP−1 .

Se dice que P diagonaliza a la matriz A.

129 Prof. Carlos J. Rubio


4. Teoría Espectral

La diagonalización de una matriz está directamente relacionado con los valores y vectores
propios. El siguiente ejemplo ilustra la relación entre una matriz diagonalizable y sus valores
y vectores propios.

Ejemplo 4.2.2 Una matriz diagonalizable


 
1 −2
La matriz A = es diagonalizable ya que A es semejante a una matriz diagonal:
0 −1
     
1 −2 1 1 1 0 1 −1
= = PDP−1 .
0 −1 0 1 0 −1 0 1

La matriz que diagonaliza no necesariamente es única:

0 21 − 12
     
1 −2 2 3 1 −1
= 1 = P1 DP1 .
0 −1 0 3 0 −1 0 3

Observe que las columnas de la matriz P son vectores propios de A:


         
1 −2 1 1 1 −2 −1 1
= y = (−1) .
0 −1 0 0 0 −1 −1 1

Se deja al lector verificar que las columnas de P1 también son vectores propios de A.

A continuación se presenta un ejemplo que ilustra que el problema de decidir si una matriz
es diagonalizable o no, conduce a encontrar los valores y vectores propios de A.

Ejemplo 4.2.3
 
−7 −15
Determine si es posible diagonalizar a la matriz A = .
6 12
 
a b
Solución. La matriz A es diagonalizable si existe una matriz invertible P = y
  c d
λ1 0
una matriz diagonal D = tal que A = PDP−1 . Equivalentemente AP = PD:
0 λ2
         
−7 −15 a b a b λ1 0 −7a − 15c −7b − 15d aλ1 bλ2
= =⇒ =
6 12 c d c d 0 λ2 6a + 12c 6b + 12d cλ1 dλ2

Esto da lugar a dos sistemas de ecuaciones:

−7a − 15c = aλ1 −7b − 15d = bλ2


y .
6a + 12c = cλ1 6b + 12d = dλ2

De manera equivalente,
         
−7 −15 a a −7 −15 b b
= λ1 y = λ2 .
6 12 c c 6 12 d d

Las columnas de P tienen que ser vectores propios y los elementos en la diagonal de D
deben ser valores propios. El polinomio característico de A es λ2 − 5λ + 6, por lo que los

Prof. Carlos J. Rubio 130 Álgebra Lineal, Actuaría


4. Teoría Espectral

valores propios de A son λ1 = 2 y λ2 = 3. Al calcular los espacios propios, se descubre


que N ( A − 2I ) = h(5, −3)i y N ( A − 3I ) = h(3, −2)i. Entonces
     
−7 −15 5 3 2 0 2 3
= .
6 12 −3 −2 0 3 −3 −5

En particular, esta matriz es diagonalizable. 

A continuación se generalizan las ideas anteriores.

Definición 4.2.4.

Un conjunto completo de vectores propios para una matriz A ∈ K n×n es un conjunto de


n vectores propios linealmente independientes. Una matriz A es defectuosa o deficiente
si no tiene un conjunto completo de vectores propios.

No todas las matrices tiene un conjunto completo de vectores propios.

Ejemplo 4.2.5 Matriz defectuosa


 
0 1
La matriz A = no posee un conjunto completo de vectores propios. El único
0 0
valor propio de A es λ = 0 ya que su polinomio característico es p(λ) = λ2 . El espacio
propio N ( A − 0I ) = N ( A) está generado por el vector (1, 0). Por lo tanto, no hay forma
de encontrar dos vectores propios que sean linealmente independientes.

Teorema 4.2.6

1) Una matriz A de n × n es diagonalizable si y solamente si A posee un conjunto com-


pleto de vectores propios.
2) Si {v1 , . . . , vn } es un conjunto completo de vectores propios, y λ1 , . . . , λn son los co-
rrespondientes valores propios, entonces
 
λ1
A = P
 ..  −1
 P , donde P = [v1 , . . . , vn ]
.
λn

Demostración. Suponga que A es diagonalizable. Entonces existen una matriz invertible P =


[v1 , . . . , vn ] y una matriz diagonal D = [λ1 e1 , . . . , λn en ] (donde ei es el vector unitario estándar)
tales que A = PDP−1 . Luego, AP = PD, es decir
[ Av1 , . . . , Avn ] = [ P(λ1 e1 ), . . . , P(λn en )]
= [λ1 Pe1 , . . . , λn Pen ]
= [ λ1 v1 , . . . , λ n v n ].

131 Prof. Carlos J. Rubio


4. Teoría Espectral

Luego, Avi = λi vi para i = 1, . . . , n. Como P es invertible, sus columnas son linealmente


independientes (en particular ninguna columna es el vector cero), por lo que las columnas de
P son vectores propios y hay n de ellos.
Recíprocamente, suponga que {v1 , . . . , vn } es un conjunto completo de vectores propios,
es decir, los n vectores propios son linealmente independientes. Sea λi tal que Avi = λi vi .
Se forma P = [v1 , . . . , vn ] y D = [λ1 e1 , . . . , λn en ]. Entonces, P es invertible, D es diagonal y
AP = PD, es decir A = PDP−1 .

Ejemplo 4.2.7 Una matriz diagonalizable


 
2 2 −6
Demuestre que la matriz A =  2 −1 −3 es diagonalizable.
−2 −1 1
Solución. Veamos si A tiene un conjunto completo de vectores propios. El polinomio
característico de A es p(λ) = (λ + 2)2 (λ − 6). Los espacios propios son

E−2 = N ( A + 2I ) = h(1, −2, 0), (0, 3, 1)i = hv1 , v2 i


E6 = N ( A − 6I ) = h(−2, −1, 1)i = hv3 i .
 
1 0 −2
Se forma la matriz P = [v1 , v2 , v3 ] = −2 3 −1. Como det P = 8 6= 0, las columnas
0 1 1
de P son linealmente independientes, así que A es diagonalizable pues  tiene un conjunto

−2 0 0
completo de vectores propios. De hecho, A = PDP−1 , donde D =  0 −2 0. 
0 0 6

Ejemplo 4.2.8 Una matriz no diagonalizable


 
3 3 0 1
 −1 −1 0 −1
Demuestre que la matriz A = 
 1
 no es diagonalizable.
2 1 1
2 4 0 3
Solución. El polinomio característico de A es p(λ) = det( A − λI ) = λ4 − 6λ3 + 13λ2 −
12λ + 4. Las raíces enteras, si las tiene, tienen que dividir a 4 (Teorema de las raíces
racionales). Se tiene que p(λ) = (λ − 1)2 (λ − 2)2 . Por lo tanto, los valores propios de A
son λ = 1 y λ = 2. Se tiene

E1 = N ( A − I ) = h(0, 0, 1, 0), (1, −1, 0, 1)i y E2 = N ( A − 2I ) = h(1, −1, 1, 2i .

Como dim E1 = 2, en E1 a lo más se pueden encontrar dos vectores linealmente inde-


pendientes. Por otro lado, en E2 a lo más se puede encontrar un vector linealmente inde-
pendiente. El máximo número de vectores linealmente independientes que será posible
encontrar es tres, que no alcanza para tener un conjunto completo de vectores propios.
Por lo tanto, A no es diagonalizable. 

En algunas ocasiones es suficiente calcular el espectro de una matriz para determinar si es


diagonalizable. El siguiente teorema establece un resultado en ese sentido.

Prof. Carlos J. Rubio 132 Álgebra Lineal, Actuaría


4. Teoría Espectral

Teorema 4.2.9
Sea {λ1 , . . . , λr } un conjunto de valores propios distintos de A ∈ Cn×n (note que r ≤ n).
1) Si {(λ1 , v1 ), . . . , (λr , vr )} es un conjunto de pares propios de A, entonces {v1 , . . . , vr }
es un conjunto linealmente independiente.

2) Si Bi es una base del espacio propio N ( A − λi I ), entonces B = B1 ∪ · · · ∪ Br es un


conjunto linealmente independiente.

Demostración. Primero haremos el caso r = 2. Supongamos que a1 v1 + a2 v2 = 0. Multiplicando


por A, obtenemos que

0 = A · 0 = A( a1 v1 + a2 v2 ) = a1 Av1 + a2 Av2 = a1 λ1 v1 + a2 λ2 v2 .

Por otro lado, tenemos que

0 = λ1 (0) = λ1 ( a1 v1 + a2 v2 ) = a1 λ1 v1 + a2 λ1 v2 .

Restando una ecuación a la otra se obtiene a2 (λ2 − λ1 )v2 = 0. Como λ1 6= λ2 y v2 6= 0 se sigue


que a2 = 0. Luego, a1 v1 = 0, de donde a1 = 0 o v1 = 0. Como v1 6= 0, se sigue que a1 = 0.
Esto prueba la independencia lineal de v1 y v2 . El argumento se extiende fácilmente a cualquier
número de vectores.

Ejemplo 4.2.10
Sea A una matriz de 3 × 3 cuyo espectro es {1, −1, 2}. Entonces A es diagonalizable, ya
que si {(1, v1 ), (−1, v2 ), (2, v3 )} es un conjunto de pares propios, entonces {v1 , v2 , v3 } es
linealmente independiente, es decir, es un conjunto completo de vectores propios.

Se generaliza la idea.

Ejemplo 4.2.11
Pruebe que si A es de n × n y tiene n valores propios distintos, entonces A es diagonali-
zable.
Solución. Suponga que λ1 , . . . , λn son los valores propios distintos de A y sea
{(λ1 , v1 ), . . . , (λn , vn )} un conjunto de pares propios de A. Entonces, {v1 , . . . , vn } es un
conjunto linealmente independiente por el teorema anterior, esto es, es un conjunto com-
pleto de vectores propios de A. 

Actividad de Aprendizaje 4.2.12

1) Determine cuáles de las siguientes matrices reales son diagonalizables. Si la matriz es

133 Prof. Carlos J. Rubio


4. Teoría Espectral

Actividad de Aprendizaje 4.2.12 (Continuación)

diagonalizable, factorícela en la forma PDP−1 , donde D es una matriz diagonal.


 
  −2 −2 0 0
  −3 −1 −1 
−2 −2  −5 1 0 0
, 1 1 −1 ,  .
−5 1  0 0 2 −1
1 −1 1
0 0 5 −2

2) Sea {v1 , . . . , vn } una base ortonormal para Cn y sean λ1 , . . . , λn números complejos.


Defina A = λ1 v1 v1∗ + · · · + λn vn v∗n . Pruebe que A es diagonalizable.

3) Determine para qué valores de α ∈ R la matriz A es diagonalizable.


 
1 + α −α α
A = 2 + α − α α − 1 .
2 −1 0

4.2.1. Ejercicios de Práctica


1) Considere la matriz:
 
2 −3 3 −3 3
0 2 0 0 1
 
0
A= −1 3 0 1.
0 −4 4 −1 4
0 0 0 0 3

Calcule todos los valores propios y todos los espacios propios de A. Determine si A es
diagonalizable. En caso de que lo sea, encuentre su descomposición espectral.
 
1 2
2) Sea A = . Calcule An para todo entero positivo n. (Sugerencia: Factorice A).
2 1

3) Suponga que A es diagonalizable. ¿Es diagonalizable A T ?


 
a b
4) Sea A = ∈ R2×2 . Demuestre que:
c d

a) A es diagonalizable si ( a − d)2 + 4bc > 0


b) A no es diagonalizable si ( a − d)2 + 4bc < 0
¿Qué se puede decir de A si ( a − d)2 + 4bc = 0?
5) Pruebe que si A es una matriz diagonalizable cuyos valores propios son 1 y −1, entonces
A−1 = A.
6) Pruebe que si A es nilpotente y diagonalizable, entonces A es la matriz cero.
7) Suponga que A es una matriz diagonalizable y que A = PDP−1 . Pruebe que las columnas
de P que corresponden a valores propios nulos forman una base para el espacio nulo de A
y concluya que el rango de una matriz diagonalizable es igual al número de valores propios
distintos de cero.

Prof. Carlos J. Rubio 134 Álgebra Lineal, Actuaría


4. Teoría Espectral

4.3. Triangulación y Teorema de Schur

Definición 4.3.1.

Una matriz A ∈ K n×n es triangulable si existe una matriz invertible P ∈ K n×n tal que
PAP−1 es una matriz triangular (superior o inferior).

Ejemplo 4.3.2
Toda matriz diagonalizable es triangulable.

A continuación, listamos algunas definiciones que serán de utilidad en esta sección.


1) Una matriz U ∈ Cn×n es unitaria si U ∗ U = I. Una matriz A ∈ Rn×n es ortogonal si
A T A = I.
2) Sean A, B ∈ Cn×n . A es unitariamente semejante a B si existe una matriz unitaria U tal que
A = UBU −1 = UBU ∗ .
3) Sean A, B ∈ Rn×n . A es ortogonalmente semejante a B si existe una matriz ortogonal V tal
que A = VBV −1 = VBV T .
El siguiente teorema establece que cada matriz compleja es unitariamente triangulable, es
decir, es unitariamente semejante a una matriz triangular superior.

Teorema 4.3.3 Schur


Cada matriz A ∈ Cn×n es unitariamente semejante a una matriz triangular superior T.
Los elementos en la diagonal principal de T son los valores propios de A.

Demostración. La demostración la haremos por inducción en el tamaño de A. Para n = 1 es


inmediato el resultado. Supongamos que el resultado es cierto para una matriz compleja de ta-
maño (n − 1) × (n − 1) y consideremos una matriz compleja A de tamaño n × n. Sean λ1 , . . . , λn
los valores propios de A (no necesariamente distintos). Sea v1 un vector propio correspondien-
te al valor propio λ1 . Supongamos que v1 tiene norma 1 (en caso contrario, lo normalizamos).
Completamos v1 a una base ortonormal {v1 , w2 , . . . , wn } de Cn usando Gram-Schmidt. Sea U1
la matriz cuya primera columna es v1 , segunda columna es w2 y n-ésima columna es wn . Escri-
bimos U1 = [v1 |w2 | . . . |wn ]. Tenemos que U1 es unitaria, pues sus columnas son ortonormales.
Entonces:
 
λ1 ?
U1∗ AU1 = U1∗ [ Av1 | Aw2 | . . . | Awn ] = ,
0 A1
 
λ1 ?
donde A1 es una matriz de tamaño (n − 1) × (n − 1). De aquí que las matrices A y
0 A1
son semejantes y por lo tanto, tienen los mismos valores propios. Aplicando el Teorema ??
tenemos que
 
∗ λ1 − λ ?
det (U1 AU1 − λIn ) = det = (λ1 − λ) det( A1 − λIn−1 ),
0 A1 − λIn−1

135 Prof. Carlos J. Rubio


4. Teoría Espectral

de donde se sigue que λ2 , . . . , λn son valores propios de A1 . Aplicando la hipótesis de induc-


ción a la matriz A1 , tenemos que existe una matriz unitaria U2 de tamaño (n − 1) × (n − 1) tal
que U2∗ A1 U2 = T1 es una matriz triangular superior con elementos en la diagonal λ2 , . . . , λn .
Definimos:  
1 0
V2 = .
0 U2
Es fácil verificar que V2 es unitaria, pues V2 V2∗ = I. Como el producto de matrices unitarias es
unitaria (ejercicio para el lector), se sigue que la matriz U1 V2 es unitaria. Luego:
     
1 0 λ1 ? 1 0 λ1 0
V2∗ (U1∗ AU1 )V2 = = ,
0 U2∗ 0 A1 0 U2 0 T1
 
λ1 0
es decir, W ∗ AW = T donde W = U1 V2 es unitaria y T = es triangular superior
0 T1
con elementos en la diagonal iguales a los valores propios de A. Esto completa la inducción y
termina la demostración.

Una matriz cuadrada real es ortogonalmente triangulable si es ortogonalmente semejante


a una matriz real triangular. El siguiente corolario es un caso especial del teorema anterior.

Corolario 4.3.4 Schur


Si A ∈ Rn×n y sus valores propios son reales, entonces A es ortogonalmente semejante
a una matriz triangular superior real S. Además los elementos de la diagonal principal
de S son los valores propios de A.

Demostración. Sea λ un valor propio de A, el cual por hipótesis es real. Sea v ∈ Cn , v 6= 0,


tal que Av = λv. Escribamos v = v1 + iv2 con v1 , v2 ∈ Rn . Se tiene entonces la ecuación
Av1 + iAv2 = λv1 + iλv2 . Dado que λ es real, se tienen las igualdades Av1 = λv1 y Av2 = λv2 .
Como v 6= 0, entonces v1 6= 0 o v2 6= 0, y por lo tanto, al menos uno de ellos es un vector propio
real de A. Por lo tanto, en cada paso en la prueba del Teorema 4.3.3, se pueden escoger vectores
reales.

Ejemplo 4.3.5
 
13 −9
Hallar una descomposición de Schur de la matriz A = .
16 −11

Solución. El polinomio característico es λ2 − 2λ + 1 = (λ − 1)2 , así que


el espectro de A es
σ ( A) = {1}. El espacio propio correspondiente es E1 = N ( A − I ) = (3, 4) T ; como (3, 4) T

no tiene norma uno, se toma el vector propio normalizado v = (3/5, 4/5) T y se extiende a la
 {(3/5, 4/5) , (4/5, −3/5) } de R . Finalmente se forma
base ortonormal T T 2
  la matriz
 ortogonal
3 4 1 25
P = 15 y se obtiene la matriz real triangular superior P T AP = . 
4 −5 0 1

Prof. Carlos J. Rubio 136 Álgebra Lineal, Actuaría


4. Teoría Espectral

Actividad de Aprendizaje 4.3.6

1) Sea A ∈ C3×3 una matriz cuyo espectro es σ ( A) = {0}.

a) Pruebe que si A es triangular superior, entonces A es nilpotente.


b) Pruebe que A es nilpotente.
2) Suponga que A ∈ C3×3 tiene exactamente un valor propio. Sea p su polinomio carac-
terístico.

a) Si A es triangular superior, pruebe que p( A) = 0.


b) Pruebe que p( A) = 0.
3) a) Si A es hermitiana, pruebe que todos sus valores propios son reales.
b) Si A es anti-hermitiana, pruebe que todos sus valores propios son imaginarios
puros.

4) Sea A ∈ C2×2 una matriz unitaria compleja. Pruebe que cada valor propio de A se
puede expresar como eiθ = cos θ + i sen θ para algún θ ∈ R, es decir, cada valor
propio es de norma 1. Generalice el resultado.
5) Encuentre una descomposición de Schur de cada una de las siguientes matrices:
 
5 4 −4  
 4 5 2 1+i
4 ,
 .
1−i 3
−4 4 5

4.4. El polinomio mínimo


Sea f (t) = a0 + a1 + · · · + an tn un polinomio con coeficientes en un campo K y sea A ∈
K n×n .Se define f ( A) como sigue:

f ( A ) = a0 A0 + a1 A + · · · + a n A n ,

donde A0 = In y Ak es el producto de A consigo mismo k veces: Ak = Ak−1 A para k ≥ 1.

Definición 4.4.1.

Se dice que un polinomio f ∈ K [t] es un polinomio anulador de A si f ( A) = 0. El


anulador de A es el conjunto

Anul A = { f ∈ K [t] | f ( A) = 0}.

137 Prof. Carlos J. Rubio


4. Teoría Espectral

Ejemplo 4.4.2
 
2 −3
Sean A = y f (t) = −1 + 2t − 3t2 + t3 . Entonces:
1 4

= − I + 2A − 3A2 + A3
f ( A)
       
1 0 2 −3 1 −18 −16 −75
= − +2 −3 +
0 1 1 4 6 13 25 34
 
−16 −27
= .
9 2
   
1 0 2 −3
/ Anul A . Si g(t) = 11 − 6t + t2 , entonces g( A) = 11
Luego, f ∈ −6 +
    0 1 1 4
1 −18 0 0
= y g ∈ Anul A .
6 13 0 0

Del ejemplo anterior se observa que, en general, hay más de un elemento en el conjunto
Anul A .

Proposición 4.4.3
Sea A ∈ K n×n . El anulador Anul A es un ideal propio en el anillo de los polinomios K [t].
Más precisamente,
a) 0 ∈ Anul A
b) Si f , g ∈ Anul A , entonces f + g ∈ Anul A .

c) Si f ∈ K [t] y g ∈ Anul A , entonces f g ∈ Anul A .


d) 1 ∈
/ Anul A .

Demostración. La prueba es directa de la definición y se deja de ejercicio al lector.

Teorema 4.4.4
Sea A ∈ K n×n . Hay exactamente un polinomio mónico no constante de grado mínimo
que anula a A.

Demostración. Primero se mostrará que el anulador Anul A contiene al menos un polinomio de


2
grado positivo. Dado que K n×n es dimensión n2 , se sigue que el conjunto { A0 , A1 , A2 , . . . , An }
es linealmente dependiente y por lo tanto, existen escalares no todos iguales a cero a0 , a1 , . . . , an2 ,
2
tales que a0 A0 + a1 A + · · · + an2 An = 0. Luego, el polinomio no nulo f (t) = a0 + a1 t + · · · +
2
an2 tn anula a A. Además de ser no nulo, f no es constante; si lo fuera, se tendría que ai = 0
para i ≥ 1 y se tendría que 0 = f ( A) = a0 A0 lo que implicaría que a0 = 0, lo que contradi-
ría que algún ai debe ser distinto de cero. Por lo tanto, se ha demostrado que Anul A contiene

Prof. Carlos J. Rubio 138 Álgebra Lineal, Actuaría


4. Teoría Espectral

al menos un polinomio polinomio no nulo y no constante. El principio del buen orden ga-
rantiza la existencia en Anul A de un polinomio no nulo y no constante de grado mínimo. Si
f (t) = a0 + a1 t + · · · + am tm es un polinomio en Anul A de grado mínimo y am 6= 0, entonces
a− 1
m f ( t ) es un polinomio mónico del mismo grado que f ( t ) que también anula a A. En con-
clusión, existen polinomios mónicos de grado mínimo que anulan a A. Denotaremos con ∂ f al
grado del polinomio f (t).
Sean ahora, m(t) y p(t) dos polinomios mónicos en Anul A de grado mínimo. Por el algorit-
mo de la división, existen polinomios q(t) y r (t) tales que p(t) = m(t)q(t) + r (t) donde r = 0 o
∂r < ∂m. Como m(t) ∈ Anul A , tenemos que m(t)q(t) ∈ Anul A y como p(t) ∈ Anul A , tenemos
que r (t) = p(t) − m(t)q(t) ∈ Anul A . Luego, no es posible que ∂r < ∂m, pues p(t) es un poli-
nomio de grado mínimo. Entonces, r (t) = 0 y p(t) = m(t)q(t). Como deg p = deg m, se sigue
que deg q = 0. Esto implica que q(t) es un polinomio constante. Comparando los coeficientes
en la igualdad p(t) = m(t)q(t), se sigue que q(t) = 1 (ya que m(t) y p(t) son mónicos y q(t) es
constante).
Estamos ya en condiciones de definir el polinomio mínimo de una matriz.

Definición 4.4.5. Polinomio mínimo

Sea A ∈ K n×n . El polinomio mínimo de A es el único polinomio m(t) que satisface las
siguientes condiciones:
1) m(t) es un polinomio mónico.

2) m( A) = 0.
3) Si f (t) es un polinomio no nulo tal que f ( A) = 0, entonces ∂m ≤ ∂ f .

Teorema 4.4.6
Si A, B ∈ K n×n son matrices semejantes, entonces el polinomio mínimo de A coincide
con el polinomio mínimo de B.

Demostración. Se deja de ejercicio al lector.

Teorema 4.4.7
Sea A ∈ K n×n . El polinomio mínimo y el polinomio característico de A tienen exacta-
mente las mismas raíces, salvo multiplicidades.

Demostración. Sean m(t) y p(t) los polinomios mínimo y característico de A, respectivamente.


Como λ es raíz de p(t) si y sólo si λ es valor propio de A, basta demostrar que m(λ) = 0 si y
sólo si existe x 6= 0 en K n tal que ( A − λI ) x = 0.
Supongamos que m(λ) = 0. Entonces m(t) = (t − λ)q(t) para algún polinomio q(t). Como
∂q < ∂m, tenemos que q( A) 6= 0 (en caso contrario, m no sería el polinomio mínimo). Dado
que q( A) no es la matriz cero, existe z 6= 0 en K n tal que q( A)z 6= 0. Sea x = q( A)z. Ya que
0 = m( A) = ( A − λI )q( A), se sigue que 0 = ( A − λI )q( A)z = ( A − λI ) x.

139 Prof. Carlos J. Rubio


4. Teoría Espectral

Recíprocamente, sea λ raíz de p(t) y sea x 6= 0 en K n tal que Ax = λx. Si m(t) = a0 + a1 t +


· · · + an−1 tn−1 + tn , se tiene

m ( A ) x = ( a 0 + a 1 A + · · · + a n −1 A n −1 + A n ) x
= a0 x + a1 Ax + · · · + an−1 An−1 x + An x
= a0 x + a1 λx + · · · + an−1 λn−1 x + λn x
= m(λ) x.

Como m( A) = 0, se tiene que 0 = m( A) x = m(λ) x; dado que x 6= 0, entonces m(λ) = 0, con


lo que queda probado que λ es raíz del polinomio mínimo.

Corolario 4.4.8
Sean A ∈ Cn×n , λ ∈ C y m(t) el polinomio mínimo de A. Entonces, t − λ es factor de
m(t) si y sólo si λ es un valor propio de A.

Demostración. Si t − λ es factor de m(t), entonces por el Teorema 4.4.7, t − λ también es un


factor del polinomio característico de A, y por lo tanto, λ es un valor propio de A.
Recíprocamente, supongamos que λ es un valor propio de A, y sea v un vector propio
asociado a λ. Por el algoritmo de la división en C[t], podemos escribir m(t) = q(t)(t − λ) + c
con q(t) ∈ C[t] y c ∈ C. Luego:

0 = (m( A))v = q( A)( A − λI )v + cv = cv.

Como v 6= 0, debemos tener que c = 0, y por lo tanto t − λ es factor de m(t).

En la búsqueda del polinomio mínimo, es útil trabajar con el polinomio característico.

Teorema 4.4.9 Hamilton-Cayley


Si A ∈ Cn×n y p(t) es el polinomio característico de A, entonces p( A) = 0.

Demostración. Supongamos que σ ( A) = {λ1 , . . . , λr } y que mi es la multiplicidad algebraica de


λi para i = 1, . . . , r. Por el Teorema de Schur, existe una matriz unitaria U tal que U ∗ AU = T
es triangular superior. Podemos suponer que:
   
T1 ? ... ? λi ? ... ?
0 T2 ... ?  0 λi . . . ? 
U ∗ AU = T =  . ..  , donde Ti =  .
   
.. .. .. . . ..
 .. . . .  .. . . .
0 0 ... Tr 0 0 . . . λi

es de tamaño mi × mi . (En caso de que las columnas de T no estén ordenadas de esta manera,
podemos elegir una matriz permutación P que las ordene en la forma deseada). De aquí vemos

Prof. Carlos J. Rubio 140 Álgebra Lineal, Actuaría


4. Teoría Espectral

que el polinomio característico de A es p(t) = (t − λ1 )m1 (t − λ2 )m2 · · · (t − λr )mr . Así que


p( A) = ∏ri=1 ( A − λi I )mi . Dado que UU ∗ se tiene

U ∗ ( A − λ i I ) m i U = (U ∗ ( A − λ i I )U ) (U ∗ ( A − λ i I )U ) · · · (U ∗ ( A − λ i I )U )
= (U ∗ AU − λi I ) (U ∗ AU − λi I ) · · · (U ∗ AU − λi I )
= ( T − λi I )( T − λi I ) · · · ( T − λi I )
= ( T − λ i I ) mi .

Como consecuencia se tiene que

U ∗ p ( A )U = U ∗ ( A − λ 1 I ) m1 ( A − λ 2 I ) m2 · · · ( A − λ r I ) mr U
= (U ∗ ( A − λ1 I )m1 U )(U ∗ ( A − λ2 I )m2 U )U ∗ · · · U (U ∗ ( A − λr I )mr U )
= ( T − λ 1 I ) m1 ( T − λ 2 I ) m2 · · · ( T − λ r I ) mr .

Usando el hecho de que si una matriz B de k × k tiene ceros en la diagonal y debajo de la


diagonal, entonces Bk = 0, tenemos que ( Ti − λi Ii )mi = 0 donde Ii es la matriz identidad de
tamaño mi × mi . Luego, la matriz ( T − λi I )mi tiene la forma:
 
? ... ? ... ?
.. . .. 
. ..

 .
( T − λ i I ) mi
 
= 
 0 . . . ? 
 ←− i − ésimo renglón de bloques
 . .
. . .. 


?

donde I es la matriz identidad de tamaño n × n. Luego ( T − λ1 I )m1 ( T − λ2 I )m2 · · · ( T − λr I )mr =


0 y por lo tanto, p( A) = 0.

Corolario 4.4.10
Sea A ∈ Cn×n . Si f (t) ∈ C[t] es un polinomio tal que f ( A) = 0, entonces el polinomio
mínimo de A divide a f (t). En particular, el polinomio mínimo de A divide al polinomio
característico de A.

Demostración. Sea m(t) el polinomio mínimo de A. Por el algoritmo de la división en C[t],


existen polinomios q(t) y r (t) tales que f (t) = m(t)q(t) + r (t) con r = 0 o ∂r < ∂m. Como
f ( A) = m( A) = 0, tenemos que r ( A) = 0. Luego, de la definición de polinomio mínimo,
debemos tener que r = 0, y por lo tanto m(t) divide a f (t). Si p(t) es el polinomio característico
de A, entonces por el Teorema de Hamilton-Cayley, tenemos que p( A) = 0, y por lo tanto, m(t)
divide a p(t).

Ejemplo 4.4.11
 
2 0 0
Calcular el polinomio mínimo m(t) de la matriz A = 0 4 0.
1 0 2

141 Prof. Carlos J. Rubio


4. Teoría Espectral

Solución. El polinomio característico de A es p(t) = −(t − 2)2 (t − 4). Puesto que m(t) y
p(t) tienen exactamente las mismas raíces y m(t) divide a p(t), los candidatos a ser poli-
nomio mínimo de A son (t − 2)( 2
t − 4) y (t− 2) (t − 4). Al evaluar en la matriz A se ob-
0 0 0
tiene que ( A − 2I )( A − 4I ) =  0 0 0 y que ( A − 2I )2 ( A − 4I ) = 0. Por lo tanto,
−2 0 0
2
m ( t ) = ( t − 2) ( t − 4). 

Ejemplo 4.4.12
 
2 0 0
Calcular el polinomio mínimo de la matriz A =  0 2 0 .
1 0 4

Solución. El polinomio característico de A es −(t − 2)2 (t − 4). En virtud del Teorema 4.4.7, los
candidatos a polinomio mínimo son (t − 2)(t − 4), (t − 2)2 (t − 4). Se observa que ( A − 2I )( A −
4I ) = 0, y de donde se concluye que el polinomio mínimo de A es (t − 2)(t − 4). 

Corolario 4.4.13
Una matriz A ∈ Cn×n es diagonalizable si y solo si su polinomio mínimo es un producto
de factores lineales distintos.

Demostración. (⇒) : Si A es diagonalizable, entonces Cn tiene una base de vectores propios de


A, digamos β = { x1 , . . . , xn }. Sean λ1 , . . . , λk todos los valores propios distintos de A. Entonces,
para cada j = 1, . . . , n existe 1 ≤ i ≤ k tal que ( A − λi I ) x j = 0, donde I es la matriz identidad de
tamaño n × n. Como ( A − λi I )( A − λ j I ) = ( A − λ j I )( A − λi I ) para cualesquiera i, j, tenemos
que:
( A − λ1 I ) · · · ( A − λ k I ) x j = 0
para todos los vectores x j de la base β, y en consecuencia:

( A − λ1 I ) · · · ( A − λ k I )

es la matriz cero (¿por qué?). Por lo tanto, el polinomio ξ (t) = (t − λ1 ) · · · (t − λk ) anula a A, de


donde se sigue que el polinomio mínimo de A divide al polinomio ξ (t). Finalmente, aplicando
el Corolario 4.4 tenemos que para cada i = 1, . . . , k, el polinomio t − λi es factor del polinomio
mínimo de A, de modo que ξ (t) también divide al polinomio mínimo de A. Como ξ (t) y el
polinomio mínimo de A son polinomios mónicos, se sigue que ξ (t) es el polinomio mínimo de
A.
(⇐) : Queda fuera del alcance de este curso.

Actividad de Aprendizaje 4.4.14

1) Sea A ∈ K n×n . Pruebe que Anul A = Anul AT y que el polinomio mínimo de A y A T


es el mismo.

Prof. Carlos J. Rubio 142 Álgebra Lineal, Actuaría


4. Teoría Espectral

Actividad de Aprendizaje 4.4.14 (Continuación)


2) Sean a, b y c elementos de un campo K y sea A la matriz:
 
0 0 c
1 0 b .
0 1 a

Pruebe que el polinomio mínimo de A es t3 − at2 − bt − c.


3) Calcule el polinomio mínimo de las siguientes matrices
 
  λ 1
  3 1 0  .. .. 
2 1  . . 
,  0 3 1 ,   .
0 2  . .

0 0 3  . 1
λ n×n

4.4.1. Ejercicios de Práctica


1) Calcule el polinomio mínimo de la matriz identidad.
2) Calcule el polinomio mínimo de una matriz idempotente distinta de la matriz identidad.
3) Determine el polinomio mínimo de
 
−2 1 0 0
 0 −2 0 0 
 .
 0 0 −5 −2
0 0 6 2

4) Calcule el polinomio mínimo de las siguientes matrices


     
9 1 2 1 0 0 1 0 0
 −4 4 −2  , 0 1 0 , 0 3 0 .
4 1 7 1 0 3 1 0 1

5) Sea A la matriz real de 4 × 4:  


1 1 0 0
 −1 −1 0 0
 .
 −2 −2 2 1
1 1 −1 0
Demuestre que el polinomio característico de A es t2 (t − 1)2 y que éste es también el poli-
nomio mínimo de A.
6) ¿Es la matriz del ejercicio anterior, semejante sobre C, a una matriz diagonal?
7) Determine el polinomio mínimo de la matriz:
 
5 −4 4
A = 12 −11 12 .
4 −4 5
¿Es A diagonalizable?

143 Prof. Carlos J. Rubio


4. Teoría Espectral

8) Encuentre una matriz de 3 × 3 cuyo polinomio mínimo sea t2 .


   
x x
9) Sea T el operador sobre R definido por T
2 = . Demuestre que T es lineal. ¿Cuál es
y 0
el polinomio mínimo de T?

10) Sean A y B matrices de n × n sobre el campo K. Por un ejercicio de una sección anterior,
se sabe que las matrices AB y BA tienen los mismos valores propios. ¿Tienen también el
mismo polinomio característico? ¿Tienen también el mismo polinomio mínimo?

Prof. Carlos J. Rubio 144 Álgebra Lineal, Actuaría


Apéndice A
Campos

En este Apéndice se da la definición de campo, algunos ejemplos y las propiedades básicas


comunes a los campos. También se establece la definición de característica de un campo.

A.1. Definición y propiedades básicas

145
A. Campos

Definición A.1.1.

Un campo K es un conjunto con dos operaciones + y ·

+: K × K → K ·: K × K → K
( x, y) 7→ x + y, ( x, y) 7→ x · y
llamadas respectivamente suma y multiplicación las cuales satisfacen:
1) (K, +) es un grupo abeliano. Es decir,
a) La suma es conmutativa: x + y = y + x para todo x, y ∈ K.
b) La suma es asociativa: ( x + y) + z = x + (y + z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la suma: Existe un elemento 0 ∈ K tal que x + 0 =
x para todo x ∈ K.
d) Existen los inversos aditivos: Dado x ∈ K, existe un y ∈ K tal que x + y = 0.
2) (K − {0}, ·) es un grupo abeliano:
a) La multiplicación es conmutativa: x · y = y · x para todo x, y ∈ K.
b) La multiplicación es asociativa: ( x · y) · z = x · (y · z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la multiplicación: Existe un elemento 1 ∈ K tal que
x · 1 = x para todo x ∈ K.
d) Existen los inversos multiplicativos: Dado x ∈ K \ {0}, existe un y ∈ K tal que
x·y = 1
3) La multiplicación se distribuye sobre la suma: x · (y + z) = x · y + x · z para todo
x, y, z ∈ K.
Los elementos de K se denominan escalares.

Tanto el neutro aditivo como el multiplicativo son únicos. Por ejemplo, si 0 y 00 son dos
neutros aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x · y. También
los inversos aditivo y multiplicativo son únicos. Si y, y0 dos inversos aditivos para el elemento
x, se tiene y = y + 0 = y + ( x + y0 ) = (y + x ) + y0 = 0 + y0 = y0 . El inverso aditivo de x ∈ K se
denota por − x. El inverso multiplicativo de x ∈ K se denota por x −1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos
de un campo K, escribiremos x − y en vez de x + (−y), También se acostumbra escribir yx en vez
de xy−1 . Si 0 6= x ∈ K, y n es un entero positivo, nx denota la suma x + · · · + x (n sumandos)
y x n denota el producto a · · · a (n factores). Si n es negativo, nx denota (−n)(− x ) y x n denota
( x −1 )−n . Finalmente, 0x = 0 y x0 = 1.

Ejemplo A.1.2
El anillo de los enteros Z no es campo. Por ejemplo, no existe ningún entero y tal que
3y = 1.

Prof. Carlos J. Rubio 146 Álgebra Lineal, Actuaría


A. Campos

Ejemplo A.1.3
Con las operaciones usuales de suma y multiplicación de números complejos, cada uno
de los siguientes subconjuntos de C es un campo:
1) Los números racionales Q.
2) Los números reales R.
3) Los números complejos C.
√ √
4) El conjunto Q( 2) = { a + b 2 | a, b ∈ Q}.
Probablemente
√ los tres primeros ejemplos son familiares al lector. Veamos que K =
Q( 2) es un campo. K es cerrado bajo la suma y la multiplicación:
√ √ √
( a + b 2) + (c + d 2) = ( a + c) + (b + d) 2,
√ √ √
( a + b 2)(c + d 2) = ( ac + 2bd) + ( ad + bc) 2.

√ √
+ b 2 ∈ K es − a − b 2 y pertenece a K. El inverso multiplicativo
√ aditivo de a√
El inverso
de a + b 2 ∈ K, a + b 2 6= 0, también es un elemento de K:
√ √
1 1 a−b 2 a−b 2 a b √
√ = √ √ = 2 2
= 2 2
− 2 2
2.
a+b 2 a+b 2a−b 2 a − 2b a − 2b a − 2b

De√ un número racional que no es un cuadrado perfecto en Q, el conjunto


hecho si D es √

Q( D ) = { a + b D | a, b ∈ Q} ⊆ C es un campo. De esta manera, Q(i ), Q( −2) son
ejemplos de campos.

Ejemplo A.1.4
Sea p > 0 un número primo. El conjunto F p = {0, 1, . . . , p − 1} de los enteros módulo p
es un campo con las operaciones de suma y multiplicación módulo p, es decir, a + b = c
en F p si a + b ≡ c mód p y ab = c en F p si ab ≡ c mód p. Si p = 5, F p = {0, 1, 2, 3, 4} y

+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1

147 Prof. Carlos J. Rubio


A. Campos

Ejemplo A.1.5
Sea F = {0, 1, α, β} junto con las operaciones de suma y multiplicación dadas por

+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α

Se deja al lector comprobar que F es un campo.

Ejemplo A.1.6
Sea K un campo y t una variable. Sea K [t] conjunto de todos los polinomios en la variable
t con coeficientes en K. El conjunto
 
a(t)
K (t) = | a ( t ), b ( t ) ∈ K [ t ], b ( t ) 6 = 0
b(t)

es un campo con la suma y multiplicación dadas por

a(t) c(t) a(t)d(t) + b(t)c(t)


+ = ,
b(t) d(t) b(t)d(t)
a(t) c(t) a(t)c(t)
= .
b(t) d(t) b(t)d(t)

Este campo se denomina el campo de las funciones racionales.

Las propiedades básicas de los campos se resumen en la siguiente proposición.

Proposición A.1.7
Si K es un campo, entonces:
a) Si K es un campo, son válidas las leyes de cancelación para la suma y la multipli-
cación:
i) Si x + y = x + z, entonces y = z.
ii) Si xy = xz, con x 6= 0, entonces y = z.
b) −(− x ) = x.
c) Si x 6= 0, ( x −1 )−1 = x.

d) 0a = 0.
e) Si xy = 0, entonces x = 0 o y = 0.
f) (− x )y = −( xy) = x (−y).
g) (− x )(−y) = xy.

Prof. Carlos J. Rubio 148 Álgebra Lineal, Actuaría


A. Campos

Demostración. Si x, y, z ∈ K y x + y = x + z, entonces:

y = y + 0 = y + ( x + (− x )) = (y + x ) + (− x )
= (y + x ) + (− x ) = y + ( x + (− x )) = z + 0 = z.
La segunda parte del inciso a) es similar. Como:

(− x ) + x = 0 = (− x ) + (−(− x )),
se sigue que x = −(− x ). La prueba de c) es similar. Observe que:

0 + 0a = 0a = (0 + 0) a = 0a + 0a.

Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:

0 = x −1 0 = x −1 ( xy) = ( xx −1 )y = 1y = y.

Esto prueba e). Para probar g), note que:

(− x )y + xy = ((− x ) + x )y = 0y = 0.
Luego −( xy) = (− x )y. De manera análoga se prueba que −( xy) = x (−y). La prueba del inciso
g) se deja al lector.

A.2. La característica de un campo


Si K es un campo, es posible sumar 1 consigo mismo un número finito de veces y obtener 0.
Por ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo
de los números complejos ni en ningún subcampo de él.

Definición A.2.1.

La característica car(K ) de un campo K es el menor entero positivo p tal que p · 1 = 0 si


tal p existe, y 0 en cualquier otro caso.

Los campos Q, R, C tienen característica cero. El campo F5 tiene característica 5.

Proposición A.2.2
La característica de cualquier campo es 0 o es un número primo p.

Demostración. Sea n = car(K ). Supongamos que n 6= 0 y tampoco es un número primo. Escri-


bamos n = ab con 1 < a, b < n. Por definición de característica a · 1 6= 0 y b · 1 6= 0. Por otro
lado:

· · + 1})(1| + ·{z
( a · 1)(b · 1) = (1| + ·{z · · + 1}) = (1| + ·{z
· · + 1}) = ( ab) · 1 = n · 1 = 0.
a veces b veces ab veces

Esto es una contradicción, pues en un campo, el producto de cualesquiera dos elementos dis-
tintos de cero no es cero. Luego n = 0, o n es un número primo.

149 Prof. Carlos J. Rubio


A. Campos

Ejemplo A.2.3
El campo del ejemplo A.1.5 es un campo de característica 2.

Prof. Carlos J. Rubio 150 Álgebra Lineal, Actuaría


Apéndice B
Matrices

En este capítulo se introduce la definición de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicación). Se probará que el conjunto de todas las matrices del
mismo tamaño junto con la suma es un grupo abeliano; también se probará que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada, matriz
diagonal, matriz identidad, matriz triangular superior o inferior, etc). También se introducen
los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz in-
vertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas están
divididas en bloques. Al final del capítulo se estudia brevemente a las matrices elementales y
a las operaciones elementales de matrices.
A menos que se diga lo contrario, a lo largo de este capítulo, K siempre denotará un campo
arbitrario.

B.1. Definiciones básicas

En esta sección se introduce la definición de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.

Definición B.1.1.

Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de (tamaño) m × n


con entradas en K, es un arreglo rectangular de mn elementos de K ordenados en m
renglones (filas) horizontales y n columnas verticales encerrados entre paréntesis o entre
corchetes:

151
B. Matrices

columna j

 
a11 a12 . . . a1j . . . a1n
 

 a21 a22 . . . a2j . . . a2n 

 
 .. .. . . . .. .. 

. . . .. . .

A=
 
ai1 ai2 . . . aij . . . ain renglón i
 
 
 
.. .. .. .. . . .
 
. ..
 
 . . . . 
am1 am2 . . . amj . . . amn
 

El i-ésimo renglón de A es:



Ai∗ = ai1 ai2 · · · aij · · · ain , (1 ≤ i ≤ m ).

La j-ésima columna de A es:


 
a1j
 a2j 
A∗ j =  . , (1 ≤ j ≤ n ).
 
 .. 
anj

La colección de todas las matrices de m × n se denota por K m×n . Cuando la matriz tiene
una sola columna se llama vector columna y vector renglón si sólo tiene un renglón. Se
denotará con K n al conjunto de todos los vectores columna, es decir K n = K n×1 .

Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = ( aij ) para indicar que el elemento en la entrada (i, j) es aij . Si [ A]ij denota al elemento de A
en la posición (i, j), escribimos A = ([ A]ij ). Si A∗1 , . . . , A∗n son las columnas de A, escribimos:

A = [ A ∗1 | . . . | A ∗ n ].

También se puede escribir:


 
A 1∗
A =  ...  ,
 

Am∗
donde A1∗ , . . . , Am∗ son los renglones de A.

Ejemplo B.1.2
Sea K el campo de los números complejos. Las siguientes son matrices de 2 × 3, 2 × 2,
1 × 3 y 3 × 1, respectivamente.
 
    10
3 −2 √ i 1 3 
A= , B= , C = 1 −1 3 , D = 1 − i  .
7 −1 −2 1 + 2i 3
3i

Prof. Carlos J. Rubio 152 Álgebra Lineal, Actuaría


B. Matrices

La matriz C es un vector renglón, en tanto que D es un vector columna. El primer renglón


y la segunda columna de A son
 
 −2
A 1∗ = 3 −2 i , A ∗2 = .
−1

respectivamente. El elemento que está en la posición (2, 1) de la matriz B es 1 + 2i y se


escribe:

[ B]21 = 1 + 2i o también b21 = 1 + 2i.

La delta de Kronecker δij está definida como sigue:


(
1 si i = j,
δij =
0 si i 6= j.

Este símbolo es útil para definir por ejemplo a la matriz de 3 × 3 que en las posiciones (i, i ) es
igual a 1 y es igual a 0 en cualquier otra posición:
   
δ11 δ12 δ13 1 0 0
I = (δij )3×3 = δ21 δ22 δ23  = 0 1 0 .
δ31 δ32 δ33 0 0 1

Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.

Definición B.1.3.

1) Una matriz A de m × n es cuadrada si m = n, y decimos que A es una matriz cuadrada


de orden n. Los elementos a11 , a22 , . . . , ann forman la diagonal principal de A.
2) Una matriz cuadrada D = (dij ) ∈ K n×n es una matriz diagonal si dij = 0 para i 6= j.
Si D es una matriz diagonal, se escribe D = diag(d11 , . . . , dnn ).

3) La matriz identidad de n × n denotada por In (o simplemente I) es la matriz I = (δij ),


donde δij es la delta de Kronecker.
4) Una matriz cuadrada U es triangular superior si [U ]ij = 0 cuando i > j, esto es, si todas
las entradas debajo de la diagonal principal son cero.
5) Una matriz cuadrada L es triangular inferior si [ L]ij = 0 cuando i < j, esto es, si todas
las entradas arriba de la diagonal principal son cero.
6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula
y se denota con el símbolo 0.

153 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.1.4
Sea K el campo de los números reales. Las matrices:
 
  0 0 0
3 √0
D1 = , D2 = 0 −1 0 ,
0 2
0 0 −4

son matrices diagonales. Note que una matriz diagonal, es simultánenamente una matriz
triangular inferior y superior. Las siguientes matrices son triangulares.
   
3 −1 7 3 0 0
U = 0 −1 4 , L = 2 −1 0 .
0 0 2 1 1 1

La primera es triangular superior y la segunda triangular inferior. Finalmente, las si-


guientes matrices son ejemplos de matrices identidad:
 
  1 0 0
1 0 
, 0 1 0 .
0 1
0 0 1

B.2. El espacio vectorial de las matrices


Las matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convier-
ten al conjunto de todas las matrices de m × n es lo que se conoce como un espacio vectorial.

Definición B.2.1. Suma de matrices

Sean A, B ∈ K m×n . La suma de A y B denotada por A + B se obtiene sumando las


correspondientes entradas de A y B:

[ A + B]ij = [ A]ij + [ B]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.

Si A = ( aij ), B = (bij ) y C = A + B, también se escribe cij = aij + bij .

Observación B.2.2
Si las matrices A y B son de diferente tamaño, la suma no está definida.

Ejemplo B.2.3
Sea K = F5 . Si A, B ∈ K2×3 son las matrices:
   
2 1 4 3 2 2
A= , B= ,
1 0 3 3 1 2

Prof. Carlos J. Rubio 154 Álgebra Lineal, Actuaría


B. Matrices

entonces:  
0 3 1
A+B = .
4 1 0

El inverso aditivo de A, es la matriz denotada por − A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = ( aij ), entonces
− A = (− aij ). Esto permite definir la sustracción de la manera usual. Si A y B son matrices del
mismo tamaño, la diferencia A − B se define como la matriz A − B = A + (− B).

Ejemplo B.2.4
   
1 0 1 −1 0 −1
Si A =  1 −2 −2, entonces − A = −1 2 2.
−1 −1 − 12 1 1 1
2

Definición B.2.5.

Dos matrices A y B son iguales si y solo si A y B son del mismo tamaño y aij = bij para
todo i, j.

El siguiente teorema presenta la propiedades básicas de la suma de matrices.

Teorema B.2.6
El conjunto K m×n de todas las matrices de m × n junto con la suma de matrices es un
grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B ∈ K m×n .
b) La suma es asociativa, es decir, A + ( B + C ) = ( A + B) + C, para A, B, C ∈ K m×n .

c) La matriz 0 es el neutro aditivo para la suma: A + 0 = A para cualquier matriz A.


d) Existencia de los inversos aditivos: A + (− A) = 0 para A ∈ K m×n .

Demostración. Escribamos A = ( aij ), B = (bij ) y C = (cij ).


Los elementos en las posiciones (i, j) de las matrices A + B y B + A son aij + bij y bij + aij ,
respectivamente. Como aij + bij = bij + aij , entonces las matrices A + B y B + A son iguales.
Esto prueba el inciso a).
Los elementos en las posiciones (i, j) de las matrices A + ( B + C ) y ( A + B) + C son aij +
(bij + cij ) y ( aij + bij ) + cij , respectivamente. Como

aij + (bij + cij ) = ( aij + bij ) + cij ,


se sigue que las matrices A + ( B + C ) y ( A + B) + C son iguales.
Para el inciso c) basta observar que aij + 0 = aij para para cualquier par (i, j).
Finalmente, para cada (i, j) se tiene que aij + (− aij ) = 0 así que A + (− A) = 0.

155 Prof. Carlos J. Rubio


B. Matrices

A continuación se define la multiplicación de una matriz por un escalar.

Definición B.2.7. Multiplicación por escalar

Sean c un escalar y A ∈ K m×n una matriz. La multiplicación de c por A, denotada por


cA está dada por [cA]ij = c[ A]ij para 1 ≤ i ≤ m, 1 ≤ j ≤ n.

Ejemplo B.2.8
 
−1
3 4
Si A = , entonces:
−1 3 −5
     
6 −2 8 −3 1 −4 0 0 0
2A = , −1A = , 0A = .
−2 6 −10 1 −3 5 0 0 0

Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
     
0 0 0 3·0 3·0 3·0 0 0 0
3 = = .
0 0 0 3·0 3·0 3·0 0 0 0

Las propiedades de la multiplicación por escalar se resumen en el siguiente teorema.

Teorema B.2.9
Sean A, B matrices del mismo tamaño y sean c1 , c2 escalares.
a) c( A + B) = cA + cB.

b) (c1 + c2 ) A = c1 A + c2 A.
c) c1 (c2 A) = (c1 c2 ) A.
d) 1 · A = A.

e) (−1) A = − A.
f) 0A = 0.
g) c0 = 0.

Demostración. Usaremos la notación [ A]ij para denotar al elemento en la posición (i, j) de la


matriz A. Las pruebas se siguen directamente de la definición. Por un lado, el elemento en la
posición (i, j) de la matriz c( A + B) es, de acuerdo con la definición, c[ A + B]ij ; por otro lado,
el elemento en la posición (i, j) de la matriz A + B es [ A]ij + [ B]ij . Entonces

[c( A + B)]ij = c[ A + B]ij = c([ A]ij + [ B]ij ) = c[ A]ij + c[ B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .

Prof. Carlos J. Rubio 156 Álgebra Lineal, Actuaría


B. Matrices

Esto prueba el inciso a). El inciso b) se prueba como sigue:


[(c1 + c2 ) A]ij = (c1 + c2 )[ A]ij = c1 [ A]ij + c2 [ A]ij = [c1 A]ij + [c2 A]ij .
Las demás pruebas se dejan al lector.

Observación B.2.10
El Teorema B.2 junto con las propiedades a)-d) del Teorema B.2 muestran que el conjunto
de las matrices de m × n junto con la suma de matrices y la multiplicación por escalar es
un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian en los cursos
de Álgebra Lineal.

B.3. El anillo de las matrices cuadradas


Las matrices se pueden multiplicar cuando estas tienen las dimensiones adecuadas.

Definición B.3.1.

Sean A ∈ K m×n y B ∈ K n×r . El producto de A por B (también llamado multiplicación)


denotado por AB es la matriz C de tamaño m × r cuyas entradas están dadas por
n
[ AB]ij = ∑ [ A]ik [ B]kj , 1 ≤ i ≤ m, 1 ≤ j ≤ r.
k =1

Si C = AB y se usa la notación A = ( aij ) y B = (bij ), entonces


n
cij = ∑ aik bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ r.
k =1

Note que para poder efectuar la multiplicación de A y B en ese orden, es necesario que el
número de columnas de A sea igual al número de renglones de B. De otra manera el producto
no está definido. Por ejemplo, si
 
  b11 b12 b13 b14
a11 a12 a13
A= y B = b21 b22 b23 b24 
a21 a22 a23
b31 b32 b33 b34
el producto de A y B existe ya que el número de columnas de A coincide con el número de
renglones de B y AB será una matriz de 2 × 4. Las entradas (1, 1), (1, 2) y (2, 3) de la matriz AB
son
3
[ AB]11 = ∑ a1k bk1 = a11 b11 + a12 b21 + a13 b31 ,
k =1
3
[ AB]12 = ∑ a1k bk2 = a11 b12 + a12 b22 + a13 b32 ,
k =1
3
[ AB]23 = ∑ a2k bk3 = a21 b13 + a22 b23 + a23 b33 .
k =1

157 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.3.2
Sea K el campo de los números racionales. Si
 
  1 −2 0 1
0 −2 1
A= y B =  −1 1 0 2 ,
1 1 5
1 6 −7 1

entonces
 
3 4 −7 −3
AB = .
5 29 −35 8

Observamos que el producto AB está definido, pero no BA, pues el número de columnas
de B con coincide con el número de renglones de A. Aún cuando estén definidos AB y
BA, estos no necesariamente son iguales:
 
 3
1 −1 = −1,
4
   
3  3 −3
1 −1 = .
4 4 −4

Cuando el producto de dos matrices da como resultado una matriz de 1 × 1, usualmente


no escriben los paréntesis ya que la matriz se identifica con el escalar.
Aun cuando A y B sean ambos del mismo tamaño, no necesariamente AB = BA. Si
ahora,
       
1 1 −1 1 −2 2 0 0
A= ,B= =⇒ AB = , BA = .
1 1 −1 1 −2 2 0 0

También es importante mencionar que las leyes de cancelación no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:
       
1 4 1 1 5 5 2 3 1 1
= = .
3 1 1 1 4 4 4 0 1 1

Observación B.3.3
Es importante recalcar lo discutido en el ejemplo anterior.

1) El producto de matrices no es conmutativo.


2) En general no es cierto que si A 6= 0 y B 6= 0 y AB está definido, entonces AB 6= 0.
3) Las leyes de la cancelación no son aplicables al producto de matrices, i.e., AC = BC o
CA = CB con C 6= 0 no necesariamente implica que A = B.

Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc.
Haremos la convención de que A0 = I y A1 = A. Para n ≥ 0, definimos An+1 = A · An .
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.

Prof. Carlos J. Rubio 158 Álgebra Lineal, Actuaría


B. Matrices

Teorema B.3.4

a) El producto de matrices es asociativo: A( BC ) = ( AB)C.


b) El producto de matrices se distribuye con respecto a la suma:

A( B + C ) = AB + AC, Ley distributiva izquierda,


( A + B)C = AC + BC Ley distributiva derecha.

c) Si A es de m × n, entonces AIn×n = Im×m A = A, donde Im×m e In×n denotan a las


matrices identidad de m × m y n × n, respectivamente.
d) c( AB) = ( aA) B = A(cB).
e) A0 = 0, 0A = 0.

f) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:

Am An = Am+n , ( Am )n = Amn .

Demostración. Haremos algunas pruebas. Las demás se dejan de ejercicio al lector.


a) Supongamos que A ∈ K m×n , B ∈ K n×r y C ∈ K r×s . Entonces:
!
n n r
[ A( BC )]ij = ∑ [ A]ik [ BC]kj = ∑ [ A]ik ∑ [ B]k` [C]` j
i =1 i =1 `=1
n r r n
= ∑ ∑ [ A]ik [ B]k` [C]` j = ∑ ∑ [ A]ik [ B]k` [C]` j
i =1 `=1 `=1 i =1
!
r n r
= ∑ ∑ [ A]ik [ B]k` [C ]` j = ∑ [ AB]i` [C]` j
`=1 i =1 `=1
= [( AB)C ]ij .

Como para cualquier (i, j) se tiene la igualdad se concluye que A( BC ) = ( AB)C.


b) Supongamos ahora que A ∈ K m×n y B, C ∈ K n×r . Entonces
n n
[ A( B + C )]ij = ∑ [ A]ik [ B + C]kj = ∑ [ A]ik ([ B]kj + [C]kj )
k =1 k =1
n n n
= ∑ ([ A]ik [ B]kj + [ A]ik [C]kj ) = ∑ [ A]ik [ B]kj + ∑ [ A]ik [C]kj .
k =1 k =1 k =1

Luego A( B + C ) = AB + AC.
c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de
m × n e I es de n × n. Recordando que [ I ]kj = 0 si k 6= j e [ I ]kj = 1 cuando k = j, se tiene

n
[ AI ]ij = ∑ [ A]ik [ I ]kj = [ A]ij .
k =1

De manera análoga se muestra que I A = A.

159 Prof. Carlos J. Rubio


B. Matrices

d) Veamos que cAB = (cA) B:


n n n
[cAB]ij = c[ AB]ij = c ∑ [ A]ik [ B]kj = ∑ (c[ A]ik )[ B]kj = ∑ [cA]ik [ B]kj
k =1 k =1 k =1
= [(cA) B]ij .

Teorema B.3.5 El anillo de las matrices cuadradas


El conjunto K n×n de las matrices cuadradas de n × n junto con las operaciones de suma
y producto de matrices es un anillo con unitario.

Demostración. Que K n×n es un anillo con elemento unitario se sigue del Teorema B.2 y de los
incisos a), b) y c) del Teorema B.3.

Observación B.3.6

Si n > 1, en general K n×n no es conmutativo. El siguiente ejemplo ilustra que puede


suceder AB 6= BA.
         
1 0 0 1 0 1 0 1 1 0 0 0
= , = .
0 0 0 0 0 0 0 0 0 0 0 0

Terminamos la sección con algunas definiciones de matrices que tienen propiedades parti-
culares.

Definición B.3.7.

a) Una matriz cuadrada A es nilpotente si Ak = 0 para algún entero positivo k.


b) Una matriz cuadrada A es idempotente si A2 = A.

Ejemplo B.3.8
 
0 −1 2
La matriz A = 0 0 1 es nilpotente ya que
0 0 0
   
0 0 −1 0 0 0
A2 = 0 0 0 A3 = 0 0 0 .
0 0 0 0 0 0

Prof. Carlos J. Rubio 160 Álgebra Lineal, Actuaría


B. Matrices

Ejemplo B.3.9
 
1 1
La matriz A = es idempotente, ya que:
0 0
    
2 1 1 1 1 1 1
A = = .
0 0 0 0 0 0

B.4. La transpuesta de una matriz

Definición B.4.1.

Si A ∈ K m×n , la transpuesta de A es la matriz A T de n × m dada por:

[ A T ]ij = [ A] ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.

Ejemplo B.4.2
Sea K el campo de los números complejos. Considere las matrices:
 
3 − 2i −5 6  
1 −1 5
A =  1+i 2 7 , B = .
8 −3 2
1 + 2i 2 − 3i 1

Entonces:

[ A T ]11 = 3 − 2i, [ A T ]12 = 1 + i, [ B T ]31 = 5.

Las transpuestas de A y B son:


   
3 − 2i 1 + i 1 + 2i 1 8
A T =  −5 2 2 − 3i  , B T =  −1 −3 ,
6 7 1 5 2

respectivamente.

Ejemplo B.4.3
 
  −2 −1
−2 −1 1
Si A = , entonces A T = −1 1.
−1 1 −4
1 −4

161 Prof. Carlos J. Rubio


B. Matrices

an es un vector renglón, entonces x T se convierte en un vector columna:



Si x = a1 ...
 
a1
x T =  ...  .
 

an

Recíprocamente, si x es un vector columna, x T es un vector renglón.


De acuerdo con la definición, las entradas en cada renglón de A T son las correspondientes
entradas en la columna de A, es decir, si A = [ A∗1 | . . . | A∗n ], entonces:

A∗T1
 

A T =  ...  .
 

A∗Tn
 
A 1∗
Si A =  ... , entonces A T = [ A1T∗ | . . . | Am
T ]. En cualquier caso, si A = ( a ), entonces A T =
 
∗ ij
Am∗
( a ji ), es decir
 
a11 a21 ··· am1
 a12 a22 ··· am2 
AT =  . ..  .
 
.. ..
 .. . . . 
a1n a2n · · · amn

Las propiedades básicas de la transpuesta son las siguientes.

Teorema B.4.4

a) ( A T ) T = A.
b) ( A + B) T = A T + B T .
c) (cA) T = cA T .

d) ( AB) T = B T A T .

Demostración. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A ∈ K m×n y B ∈ K n×r . Para cualquier 1 ≤ i ≤ m y 1 ≤ j ≤ r,
n n
[( AB)T ]ij = [ AB] ji = ∑ [ A] jk [ B]ki = ∑ [ AT ]kj [ BT ]ik
k =1 k =1
n
= ∑ [ BT ]ik [ AT ]kj = [ BT AT ]ij .
k =1

Esto prueba el inciso d).

Prof. Carlos J. Rubio 162 Álgebra Lineal, Actuaría


B. Matrices

Definición B.4.5.

Una matriz cuadrada A es simétrica si A = A T . Se dice que es antisimétrica si A = − A T .

Ejemplo B.4.6
Las matrices A y B a continuación
   
7 2 −1 1 − 2i 3 − 4i 5−i
A =  2 −2 1 , B = 3 − 4i 1+i 3i  .
−1 1 −3 5−i 3i −3

son simétricas; la matriz


 
0 −10 13
C =  10 0 −1 .
−13 1 0

es antisimétrica.

Ejemplo B.4.7
Si A es una matriz de m × n, entonces A T A y AA T son matrices simétricas. En efecto:

( A T A)T = A T ( A T )T = A T A.

De manera similar se prueba que AA T es simétrica.

Definición B.4.8.

Sean x y y vectores columna del mismo tamaño, es decir, x, y ∈ K n . Entonces el producto


interno o interior de x y y es el escalar x T y, y el producto exterior de x y y es la matriz de
n × n xy T .

Ejemplo B.4.9
   
3 −1
El producto interno y externo de los vectores x = −1 yy= 5 es:
2 2
 
−1
x T y = 3 −1 2  5 = 3(−1) + (−1)5 + (2)(2) = −4,


2
   
−1 −3 15 6
xy T =  5 3 −1 2 =  1 −5 −2 ,


2 −2 10 4

163 Prof. Carlos J. Rubio


B. Matrices

respectivamente.

La siguiente definición se aplica únicamente a matrices cuyos elementos pertenecen a algún


subcampo K del campo de los números complejos. (Para fijar ideas el lector puede suponer que
K = C).

Definición B.4.10.

Sea K un subcampo del campo de los números complejos. Si A ∈ K m×n , la matriz conju-
gada de A es la matriz A de m × n dada por:

[ A]ij = [ A]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.

T
La conjugada transpuesta de A es la matriz A∗ = A = A T , i.e.,

[ A∗ ]ij = [ A] ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.

Ejemplo B.4.11
Se tiene
   
 ∗ 2 − 4i 3 2 + 4i 3
2 − 4i 1−i 2
= 1−i 3 + 4i  =  1 + i 3 − 4i  .
3 3 + 4i 0
2 0 2 0

Las propiedades básicas de la transpuesta conjugada son las siguientes.

Teorema B.4.12

a) ( A∗ )∗ = A.

b) ( A + B)∗ = A∗ + B∗ .
c) (cA)∗ = cA∗ .
d) ( AB)∗ = B∗ A∗ .

Demostración. La prueba se deja de ejercicio para el lector.

Definición B.4.13.

Una matriz cuadrada A ∈ Cn×n es hermitiana si A = A∗ . Se dice que es anti-hermitiana si


A = − A∗ .

Prof. Carlos J. Rubio 164 Álgebra Lineal, Actuaría


B. Matrices

Ejemplo B.4.14
Las siguientes matrices son hermitianas:
   
  −1 1+i 3 + 4i 1 2 3
3 2−i 1−i
, 3 2−i , 2 4 5 .
2+i 1
3 − 4i 2+i 5 3 5 2

La matriz
 
i 5−i 2+i
A =  −5 − i −3i 2 + 3i 
−2 + i −2 + 3i 4i

es una matriz antihermitiana. En efecto, se tiene


 
−i 5 − i −2 − i
T
A ∗ = A = 5 + i 3i −2 − 3i  .
2 − i 2 − 3i −4i

Por lo tanto, A = − A∗ .

Definición B.4.15.

Sea A ∈ K m×n .
1) Una inversa izquierda de A es una matriz B ∈ K n×m tal que BA = In .

2) Una inversa derecha de A es una matriz B ∈ K n×m tal que AB = Im .


3) Suponga que A es una matriz cuadrada. Una matriz B es una inversa de A si AB =
BA = I. Si A tiene una inversa, se dice que es invertible o que es no singular. En otro
caso, se dice que la matriz es no invertible o singular.

Se sigue de la definición que cuando una matriz es invertible, su inversa es única. En efecto,
supongamos que A tiene dos inversas, digamos B1 y B2 . Entonces:

B1 = B1 I = B1 ( AB) = ( B1 A) B = IB = B.

La inversa de A (cuando existe) se denota por A−1 .

Ejemplo B.4.16
Sea K el campo de los números racionales y sea A la matriz:
 
3 −1 5
A= .
−8 7 4
A tiene al menos dos inversas derechas ya que:
 7 1  4 4 
  
   
3 −1 5  13 8
13
3 = 1 0 = 3 −1 5  134
13
7 .
−8 7 4 13 13 0 1 −8 7 4 13
1
13
1
0 0 13 − 13

165 Prof. Carlos J. Rubio


B. Matrices

Del ejemplo anterior se observa que en general, no es válida la ley de la cancelación para
matrices, es decir, es posible tener XA = YA con A 6= 0 sin que esto implique que X = Y.

Teorema B.4.17
Sean A y B matrices no singulares. Entonces:
a) AB es no singular y ( AB)−1 = B−1 A−1 .
b) A−1 es no singular y ( A−1 )−1 = A.
c) A T es no singular y ( A T )−1 = ( A−1 ) T .

Demostración. a) Como A y B son ambas no singulares, existen sus respectivas inversas A−1 y
B−1 . Entonces:

( AB)( B−1 A−1 ) = A( BB−1 ) A−1 = AI A−1 = AA−1 = I.

De manera similar se muestra que ( B−1 A−1 )( AB) = I. Esto prueba que la inversa de AB es
B−1 A−1 , es decir, ( AB)−1 = B−1 A−1 .
b) Por definición AA−1 = A−1 A = I. Se sigue que A−1 es invertible y su inversa es A.
c) Se tiene que ( A−1 ) T A T = ( AA−1 ) T = I T = I. Análogamente se tiene que A T ( A−1 ) T = I.
Así, ( A T )−1 = ( A−1 ) T .

El siguiente corolario es una consecuencia inmediata del inciso a) del Teorema B.4.

Corolario B.4.18
Si A1 , . . . , An son matrices invertibles y del mismo tamaño, entonces A1 · · · An es inver-
−1
tible y ( A1 · · · An )−1 = A− 1
n · · · A1 .

Demostración. La prueba es por inducción sobre n y se deja de ejercicio.

B.5. Multiplicación de matrices en bloques


Con frecuencia es útil considerar una matriz compuesta por una o varias matrices denomi-
nadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando
cualquier combinación de columnas y renglones de A.
1 1 3 2
Por ejemplo, si A = 31 52 79 28 , las siguientes matrices son submatrices de A:
4022
     
3 5 7 2 3 5 2 3 2
, , .
4 0 2 2 4 0 2 2 2

La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo elimi-
nando los renglones primero y tercero y la tercera columna. Finalmente, la última submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.

Prof. Carlos J. Rubio 166 Álgebra Lineal, Actuaría


B. Matrices

Al introducir segmentos de recta horizontales y verticales en una matriz, podemos particio-


narla en submatrices o bloques:
 
1 1 0 0
 3 5 0 0 
 0 0 9 8 .
 

0 0 2 2

Supongamos que las matrices A y B están particionadas en submatrices como se indica a


continuación:

   
A11 A12 ... A1n B11 B12 ... B1p
 A21 A22 ... A2n   B21 B22 ... B2p 
A= . ..  , B= .
   
.. .. .. .. .. 
 .. . . .   .. . . . 
Am1 Am2 ... Amn Bn1 Bn2 ... Bnp

Supongamos que para cada tercia de enteros (i, k, j), con 1 ≤ i ≤ m, 1 ≤ k ≤ n, 1 ≤ j ≤ p,


las matrices Aik y Bkj , (1 ≤ k ≤ n) se pueden multiplicar. Entonces el producto AB está definido
y el (i, j)-ésimo bloque de AB es
n
Ai1 B1j + Ai2 B2j + · · · + Ain Bnj = ∑ Aik Bkj .
k =1

En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicación de matrices de esta forma en ocasiones resulta útil, pues simplifica
la notación.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con el manejo de
los subíndices. En lugar de hacer la prueba, ilustraremos la técnica con ejemplos.

Ejemplo B.5.1
Considere las siguientes matrices particionadas como sigue:
 
−3 4 1 7 8  
 4 5 0 1 4  A11 A12
A=  5 −1 4 0 0 
= ,
A21 A22
6 1 5 0 0
 
1 1 1
 −1 0 1   
  B11 B12
B= 0
 0 3 =

 2 −1 B21 B22
2 
1 1 −1

Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces
 
  15 −2 10
A11 B11 + A12 B21 A11 B12 + A12 B22  5 7 7 
AB = = .
A21 B11 + A22 B21 A21 B12 + A22 B22  6 5 16 
5 6 22

167 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.5.2
Si
   
3 5 3 0   1 0 2 0  
 2 1 0 3   0 1 0 3 
A= = C 3I2
, B=  = I2 D
,
 1 0 0 0  I2 0  0 0 1 0  0 I2
0 1 0 1 0 0 0 1

entonces

CI2 + 3I2 · 0 CD + 3I22


   
C CD + 3I2
AB = =
I2 + 0 · 0 I2 D + 0 · I2 I2 D
 
3 5 9 15
 2 1 4 6 
= 1 0 2
.
0 
0 1 0 3

Ejemplo B.5.3
Sean A ∈ K m×n y B ∈ K n×r . La matriz A es submatriz de sí misma, por lo que podemos
considerarla particionada en un solo bloque. Si B está particionada en columnas, B =
[ B∗1 | . . . | B∗r ], se tiene

AB = A[ B∗1 | . . . | B∗r ] = [ AB∗1 | . . . | AB∗r ].

Si ahora particionamos a la matriz A en renglones y a la matriz B en columnas, obtene-


mos que
   
A 1∗ A1∗ B∗1 A1∗ B∗2 . . . A1∗ B∗r
 A 2∗   A2∗ B∗1 A2∗ B∗2 . . . A2∗ B∗r 
AB =  .  [ B∗1 | B∗2 | . . . | B∗r ] =  .
   
.. .. .. ..
 ..   . . . . 
Am∗ Am∗ B∗1 Am∗ B∗2 ... Am∗ B∗r

Por ejemplo,
 
  1 −1 1 −1
1 −1 −7  −1
AB = A[ B∗1 | B∗2 | B∗3 | B∗4 ] = 0 1 0 
−9 1 5
6 −2 1 1
 
−40 13 −7 −8
= .
20 −1 −3 14

Al dividir la matriz se está indicando en qué orden se realizará la multiplicación. Si B está


dividida en columnas como en el ejemplo, se está indicando que se multiplicará la matriz
A por la primera columna de B para formar la primera columna de AB; después se
multiplicará la matriz A por la segunda columna de B para obtener la segunda columna
de AB, y así sucesivamente.

Prof. Carlos J. Rubio 168 Álgebra Lineal, Actuaría


B. Matrices

Ejemplo B.5.4
Si A ∈ K m×n se particiona en n columnas [ A∗1 | A∗2 | . . . | A∗n ] y x ∈ K n×1 en n renglones,
tenemos que
 
x1
 x2 
Ax = [ A∗1 , A∗2 , . . . , A∗n ]  .  = A∗1 ( x1 ) + A∗2 ( x2 ) + · · · + A∗n ( xn )
 
 .. 
xn
= x 1 A ∗1 + x 2 A ∗2 + · · · + x n A ∗ n .

Observe que A∗ j ( x j ) = x j A∗ j . El lado izquierdo de la igualdad es el producto de una


matriz de n × 1 con una matriz de 1 × 1; el lado derecho es el producto del escalar x j con
la matriz A∗ j . Felizmente en este caso se tiene la igualdad:
     
a1j a1j x j a1j
 a2j   a2j x j   a2j 
 .  (xj ) =  .  = xj  .  .
     
 ..   ..   .. 
anj anj x j anj

Por ejemplo,
 
x
−7  1 
   
1 −1 x1 − x2 − 7x3
x2 =
−9 1 5 −9x1 + x2 + 5x3
x3
     
x1 − x2 −7x3
= + +
−9x1 x2 5x3
     
1 −1 −7
= x1 + x2 + x3 .
−9 1 5

B.6. La traza de una matriz

Definición B.6.1.

La traza de una matriz A = ( aij ) ∈ K n×n se define como la suma de los elementos de la
diagonal principal de A y se denota por tr( A). Esto es,
n
tr( A) = a11 + a22 + · · · + ann = ∑ aii .
i =1

169 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.6.2
Se tiene
 
10 −29 0
tr −2 −5 8 = 10 − 5 + 15 = 20.
1 1 15

Ejemplo B.6.3
Sean A = ( aij ) una matriz de 2 × 3 y B = (bij ) una matriz de 3 × 2. Entonces AB es una
matriz de 2 × 2 y BA es una matriz de 3 × 3. De acuerdo con la definición de multiplica-
ción de matrices se tiene

[ AB]11 = a11 b11 + a12 b21 + a13 b31 , [ BA]11 = a11 b11 + a21 b12 ,
[ AB]22 = a21 b12 + a22 b22 + a23 b32 , [ BA]22 = a12 b21 + a22 b22 ,
[ BA]33 = a13 b31 + a23 b32 .

Por comparación directa se observa que tr( AB) = tr( BA).

Algunas de las propiedades de la traza se presentan en el siguiente teorema, incluyendo


una generalización del ejemplo anterior.

Teorema B.6.4

1) Para cualesquiera matrices A, B ∈ K n×n y cualquier escalar α se tiene


a) tr( A + B) = tr( A) + tr( B),
b) tr(αA) = α tr( A).
En otras palabras, la traza es una función lineal.
2) Sean A ∈ K m×n y B ∈ K n×m . Entonces

tr( AB) = tr( BA).

3) Si A es una matriz cuadrada, tr( A) = tr( A T ).

Demostración. Sean A = ( aij ), B = (bij ) y α un escalar. Entonces


n n n
tr( A + B) = ∑ (aii + bii ) = ∑ aii + ∑ bii = tr( A) + tr( B).
i =1 i =1 i =1
n n
tr(αA) = ∑ αaii = α ∑ aii = α tr( A).
i =1 i =1

Esto prueba el inciso 1).

Prof. Carlos J. Rubio 170 Álgebra Lineal, Actuaría


B. Matrices

Sean C = AB y D = BA. Entonces,


n
cij = ∑ aik bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ n,
k =1
m
dij = ∑ bik akj , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
k =1

Nótese que AB ∈ K m×m y BA ∈ K n×n . Luego,


m m n n m n
tr( AB) = ∑ cii = ∑ ∑ aik bki = ∑ ∑ bki aik = ∑ dkk = tr( BA).
i =1 i =1 k =1 k =1 i =1 k =1

Esto prueba el inciso 2).


La demostración del último apartado es inmediata ya que la diagonal principal de A y de
A T son la misma.
Por inducción se puede extender la propiedad 2) del teorema anterior. Así, si A1 , A2 , . . . , Ak
son matrices tales que los productos A1 · · · Ak y Ak A1 están definidos, entonces

tr( A1 · · · Ak ) = tr( Ak A1 · · · Ak−1 ).

En particular, se tiene

tr( A1 A2 A3 ) = tr( A3 A1 A2 ) = tr( A2 A3 A1 ).

Sin embargo, en general no es cierto que tr( A1 A2 A3 ) = tr( A2 A1 A3 ).

Ejemplo B.6.5
     
1 0 0 1 0 0
Si A = ,B = yC = , se tiene ABC = A y BAC = 0. Luego,
0 0 0 0 1 0
tr( ABC ) = 1 y tr( BAC ) = 0.

B.7. Matrices elementales


Un tema recurrente en matemáticas es descomponer un problema u objeto complicado en
problemas o elementos más sencillos. En esta sección se presenta una forma de factorizar ma-
trices en productos de matrices más sencillas, llamadas matrices elementales. Para esto se in-
troducen los conceptos de operación elemental de renglón y operación elemental de columna; estas
operaciones se aplican a los renglones y a las columnas de una matriz. Como consecuencia se
introduce el concepto de matriz elemental de renglón o de columna.
Cada operación elemental de renglón tiene su correspondiente operación elemental de co-
lumna.

Definición B.7.1.

Sea A una matriz de m × n. Una operación elemental de renglón (columna) en la matriz A,


es uno de los siguientes tres tipos de operaciones:
Tipo I. Intercambio de dos renglones (columnas) de A.

171 Prof. Carlos J. Rubio


B. Matrices

Tipo II. Reemplazo de un renglón (columna) de A por algún múltiplo escalar no nulo
de este (esta).
Tipo III. Reemplazo de un renglón (columna) de A por ese renglón (columna) más un
múltiplo escalar no nulo de otro renglón (columna).

Se utiliza la siguiente notación para indicar el tipo de operación elemental de renglón que
se aplico para pasar de la matriz A a la matriz B.

Operación Símbolo Significado del símbolo


I Rij Intercambio de los renglones i y j.
II Ri ( c ) Se multiplica por c el renglón i.
III Rij (c) Al renglón i se le suma c 6= 0 veces el renglón j.

De manera semejante, para indicar el tipo de operación elemental de columna que se usa
para pasar de la matriz A a la matriz B se tiene la siguiente notación:

Operación Símbolo Significado del símbolo


I Cij Intercambio de las columnas i y j.
II Ci (c) Se multiplica por c 6= 0 la columna i.
III Cij (c) A la columna i se le suma c veces la columna j (c 6= 0).

Ejemplo B.7.2
En cada caso, la matriz B se obtuvo de la matriz A aplicando la operación elemental de
renglón indicada.

 A   B 
3 5 8 4 4 1 7 4
R13
2 1 12 6 −−−−→ 2 1 12 6
4 1 7 4 3 5 8 4
   
−3 4 −1 R2 (3)
−3 4 −1
 −5 7 −11 −−−−→ −15 21 −33
−1 13 −4 −1 13 −4
   
−1 5 2 3
R21 (−5)
−1 5 2 3
 −3 9 5 4 −−−−→  2 −16 −5 −11
6 −7 8 10 6 −7 8 10

La matriz de la derecha se obtiene aplicando la operación elemental de columna indica-


da.
   
3 5 8 4 3 −10 8 4
C21 (−5)
2 1 12 6 −−−−→ 2 −9 12 6
4 1 7 4 4 −19 7 4

Una matriz que tiene la forma I − uv T , donde u y v son vectores columna de n × 1 tales que
vT u6= 1, se le llama matriz elemental. La condición v T u 6= 1 es para garantizar que una matriz

Prof. Carlos J. Rubio 172 Álgebra Lineal, Actuaría


B. Matrices

elemental es invertible. En efecto, si c = 1/(v T u − 1), entonces

( I − uv T )( I − cuv T ) = I − cuv T − uv T + cuv T uv T


= I − cuv T − uv T + (cv T u)uv T
= I − uv T + c(v T u − 1)uv T
= I − uv T + uv T
= I.

Así, toda matriz elemental es invertible y su inversa es nuevamente una matriz elemental:
  −1 uv T u
I − uv T = I− = I − u0 v T , u0 = , v T u0 6=1.
vT u − 1 vT u − 1
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.

Definición B.7.3.

Una matriz elemental de Tipo I, II o III es una matriz que se obtiene al aplicar a la matriz
identidad In exactamente una operación elemental de Tipo I, II o III, respectivamente. Eij
denota la matriz elemental que se obtiene al aplicar a In la operación elemental Rij , Ei (c)
denota la matriz elemental que se obtiene al aplicar a la matriz identidad la operación
elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la matriz
identidad la operación elemental Rij (c).

Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la forma
I − uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la matriz
identidad intercambiando los renglones 1 y 3. Se observa que
     
0 0 1 1 0 −1 1 
E13 = 0 1 0 = I −  0 0 0 = I −  0 1 0 −1 ,
1 0 0 −1 0 1 −1

es decir, E13 = I − (e1 − e3 )(e1 − e3 ) T , donde e1 , e2 , e3 son los vectores unitarios canónicos.
Por otro lado, observe que
     
1 0 0 0 0 0 1
E21 (c) =  c 1 0 = I + c 1 0 0 = I + c 0 0 1 0 = I + ce1 e2T .


0 0 1 0 0 0 0

Se deja de ejercicio al lector verificar que

Eij = I − (ei − e j )(ei − e j ) T , (ei − e j )T (ei − e j ) = 2;


Ei (c) = I − (1 − c)ei eiT , eiT ((1 − c)ei ) = 1 − c 6= 1 (ya que c 6= 0);
Eij (c) = I + cei e Tj , e Tj (cei ) = 0.

Observación B.7.4
Las matrices elementales Eij , Ei (c) y Eij (c) se pueden obtener de la matriz identidad
aplicando operaciones elementales de columna:

173 Prof. Carlos J. Rubio


B. Matrices

Tipo I. Eij se obtiene de la matriz identidad intercambiando las columnas i y j.


Tipo II. Ei (c) se obtiene de la matriz identidad multiplicando la columna i por el esca-
lar c.

Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la opera-
ción Cji (c), es decir, a la columna j se le suma c veces la columna i.

Ejemplo B.7.5
Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (−5) son:
     
0 0 1 1 0 0 1 0 0
E13 = 0 1 0 , E2 (3) = 0 3 0 , E21 (−5) = −5 1 0 ,
1 0 0 0 0 1 0 0 1

respectivamente. La matriz E13 se obtiene intercambiando las columnas 1 y 3 de la matriz


identidad; E2 (3) se obtiene multiplicando la columna 2 de la matriz identidad por 3; la
matriz E21 (−5) se obtiene sumando −5 veces la columna 2 a la columna 1, es decir,
aplicando a la matriz identidad la operación elemental C12 (−5).

Si escribimos In = (δij ) y Eij = (αrs ), entonces:

αrs = δrs , r 6= i, j, 1 ≤ s ≤ n,
αis = δjs , 1 ≤ s ≤ n,
α js = δis , 1 ≤ s ≤ n.

Si Ei (c) = ( β rs ), entonces:

β rs = δrs , r 6= i, 1 ≤ s ≤ n,
β is = cδis , 1 ≤ s ≤ n.

Finalmente, si Eij (c) = (γrs ), entonces:

γrs = δrs , r 6= i, 1 ≤ s ≤ n,
γis = δis + cδjs , 1 ≤ s ≤ n.

Teorema B.7.6
Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemen-
tal de renglón, entonces B = EA, donde E es la matriz elemental correspondiente a la
operación elemental de renglón aplicada a A. En símbolos

Op. de renglón R
A −−−−−−−−−→ B =⇒ B = EA

Prof. Carlos J. Rubio 174 Álgebra Lineal, Actuaría


B. Matrices

Demostración. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir


Rij
A / B . Veamos que B = Eij A. Para r 6= i, j, 1 ≤ r ≤ m, tenemos que:

m
[ Eij A]rs = ∑ δrk aks = δrr ars = ars = [ B]rs , 1 ≤ s ≤ n.
k =1

Además:
m
[ Eij A]is = ∑ δjk aks = δjj a js = a js = [ B]is , 1 ≤ s ≤ n.
k =1
m
[ Eij A] js = ∑ δik aks = δii ais = ais = [ B] js , 1 ≤ s ≤ n.
k =1

Así Br∗ = Ar∗ si r 6= i, j, Bi∗ = A j∗ y Bj∗ = Ai∗ . Esto prueba la igualdad B = Eij A. Supongamos
ahora que B se obtiene de A al aplicarle la operación elemental Rij (c). Veamos que B = Eij (c) A.
Para r 6= i, 1 ≤ r ≤ m, tenemos que:
m
[ Eij (c) A]rs = ∑ δrk aks = δrr ars = ars = [ B]rs , 1 ≤ s ≤ n.
k =1

Por otro lado:


m m m
[ Eij (c) A]is = ∑ (δik + cδjk )aks = ∑ δik aks + c ∑ δjk aks
k =1 k =1 k =1
= δii ais + cδjj a js = ais + ca js = [ B]is , 1 ≤ s ≤ n.

Luego Br∗ = Ar∗ si r 6= i, Bi∗ = Ai∗ + cA j∗ . Así, B = Eij (c) A. Se deja al lector probar que si B
se obtiene de A al aplicarle la operación elemental Ri (c), entonces B = Ei (c) A.

Teorema B.7.7
Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemental
de columna, entonces B = AE, donde E es la matriz elemental correspondiente a la
operación elemental de columna aplicada a A.

Demostración. La prueba se puede hacer de manera análoga a la prueba del Teorema B.7. Sin
embargo, no lo haremos así, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fácil verificar que E = I − vv T , donde v = ei − e j . Entonces

AE = A − Avv T = A − ( Aei − Ae j )(eiT − e Tj )


= A − ([ A]∗i − [ A]∗ j )(eiT − e Tj )
 
= A − ([ A]∗i − [ A]∗ j )eiT − ([ A]∗i − [ A]∗ j )e Tj

Así se tiene

175 Prof. Carlos J. Rubio


B. Matrices

columna i columna j

 
0 · · · a1i − a1j · · · a1j − a1i · · · 0
 
0 · · · a2i − a2j · · · a2j − a2i · · · 0 
 

AE = A− 
 
.. .. .. .. 

. ··· ··· ··· . 

 . .
 
0 · · · ami − amj · · · amj − ami · · · 0

de donde se sigue el resultado.


Si B se obtiene de A aplicando la operación Cij (c) y E es la matriz elemental correspondien-
te, entonces E = I + ce j eiT . Luego

0 · · · a1j · · · 0
 
0 · · · a2j · · · 0
AE = A + c( Ae j )eiT = A + c[ A]∗ j eiT = A + c  . ..  ,
 
..
 .. · · · . · · · .
0 · · · anj · · · 0

donde la columna j de A aparece en la columna i de la matriz ( Ae j )eiT .


Para el caso que falta, la matriz elemental correspondiente es E = I − (1 − c)ei eiT . Se deja al
lector como ejercicio completar la prueba.

Ejemplo B.7.8
Para cada matriz del Ejemplo B.7 se tiene:
    
4 1 7 4 0 0 1 3 5 8 4
2 1 12 6 = 0 1 0 2 1 12 6 ,
3 5 8 4 1 0 0 4 1 7 4
    
−3 4 −1 1 0 0 −3 4 −1
−15 21 −33 = 0 3 0 −5 7 −11 ,
−1 13 −4 0 0 1 −1 13 −4
    
−1 5 2 3 1 0 0 −1 5 2 3
 2 −16 −5 −11 = −5 1 0  −3 9 5 4 ,
6 −7 8 10 0 0 1 6 −7 8 10
 
    1 −5 0 0
3 −10 8 4 3 5 8 4 
0 1 0 0
2 −9 12 6 = 2 1 12 6 0
.
0 1 0
4 −19 7 4 4 1 7 4
0 0 0 1

Teorema B.7.9
Las matrices elementales son invertibles. Más aún:
1) Eij−1 = Eji = Eij .

2) Ei (c)−1 = Ei (1/c) con c 6= 0.

Prof. Carlos J. Rubio 176 Álgebra Lineal, Actuaría


B. Matrices

3) Eij (c)−1 = Eij (−c) con i 6= j.

Demostración. 1) Como Eji se obtiene de la matriz identidad intercambiando los renglones j e i,


Rij
tenemos que Eji −→ I y, por el Teorema B.7, se sigue que I = Eij Eji . Como Eij = Eji , resulta
que Eji Eij = I. Por lo tanto, Eij−1 = Eji = Eij .

2) Como Ei (c) se obtiene de la matriz identidad multiplicando el renglón i por c 6= 0, tenemos


Ri (1/c)
que Ei (c) −−−−→ I y, por el Teorema B.7, se sigue que Ei (1/c) Ei (c) = I. Análogamente se
demuestra que Ei (c) Ei (1/c) = I. Por lo tanto, Ei (c)−1 = Ei (1/c) si c 6= 0.

3) La prueba es similar a las anteriores y se deja de ejercicio al lector.

Teorema B.7.10
Sea A una matriz.
1) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales de renglón, es decir:

R
1 2R s R
A −−−− → A1 −−−− → A2 −−−−→ · · · −−−− → As = B,
entonces B = PA, para alguna matriz invertible P. Más precisamente, si Ei es la matriz
elemental correspondiente a la operación elemental Ri , entonces P = Es · · · E2 E1 .
2) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales de columna, es decir:
C1 C2 r C
A −−−− → C1 −−−− → A2 −−−−→ · · · −−−− → Ar = B,
entonces B = AQ, para alguna matriz invertible Q. Más precisamente, si Ei es la ma-
triz elemental correspondiente a la operación elemental Ci , entonces Q = E1 E2 · · · Er .

Demostración. Por inducción sobre s. El caso s = 1 fue probado en el Teorema B.7. Suponga
ahora que el teorema es cierto para s y suponga que B se obtiene de A al aplicar s + 1 operacio-
nes elementales. La matriz B se obtiene de la matriz As aplicando la operación elemental Rs+1 ,
así que de acuerdo con el Teorema B.7, B = Es+1 As . Ahora bien, como la matriz As se obtiene
de A aplicando las s operaciones elementales R1 , . . . , Rs , aplicando la hipótesis de inducción se
tiene que As = Es · · · E2 E1 A. Por lo tanto B = Es+1 As = Es+1 Es · · · E2 E1 A. Como las matrices
elementales son invertibles, el Corolario B.4 garantiza que la matriz P = Es+1 · · · E1 es una
matriz invertible.
La prueba de 2) es similar y se deja de ejercicio al lector.

177 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.7.11
 
2 2 2
Suponga que a la matriz A = 4 7 7 ∈ R3×3 se le aplican las operaciones
6 18 22
elementales indicadas y se obtiene la matriz B.
 
2 2 2
R21 (−2) R31 (−3) R32 (−4)
A −−−−→ A1 −−−−→ A2 −−−−→ 0 3 3 = B.
0 0 4

Entonces,
  
1 0 0 2 2 2
B = E32 (−4) E31 (−3) E21 (−2) A =  −2 1 0  4 7 7 .
5 −4 1 6 18 22

El siguiente teorema es una generalización del teorema anterior.

Teorema B.7.12
Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales, entonces B = PAQ para algunas matrices invertibles P y Q.

Demostración. Se deja de ejercicio al lector.

Ejemplo B.7.13
 
1 −2 7 38
A la matriz A = −1 2 −6 −33 se le aplican las operaciones elementales
−7 14 −45 −246
de renglón indicadas a continuación para obtener la matriz E A , la forma escalonada
reducida de A.
 
1 −2 0 3
R21 (1) R31 (7) R32 (−4) R12 (−7)
A −−−−→ A1 −−−−→ A2 −−−−→ A3 −−−−→ E A = 0 0 1 5 .
0 0 0 0

Aplicando operaciones elementales de columna a E A se obtiene


 
1 0 0 0
C23 C31 (2) C41 (−3) C42 (−5)
EA −−−− → A5 −−−−→ A6 −−−−→ A7 −−−−→ A8 = 0 1 0 0
0 0 0 0

De esta manera se tiene que

A8 = E12 (−7) E32 (−4) E31 (7) E21 (1) AE23 E13 (2) E14 (−3) E24 (−5) = PAQ,

Prof. Carlos J. Rubio 178 Álgebra Lineal, Actuaría


B. Matrices

donde
 
  1 0 2 −3
−6 −7 0 0 0 1 0
P= 1 1 0 y Q= .
0 1 0 −5
3 −4 1
0 0 0 1

B.8. Forma escalonada y Método de Gauss


Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una
forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta sección se
estudian las matrices en forma escalonada por renglones y el método de eliminación guassiana
para llevar una matriz a una forma escalonada.

Definición B.8.1. Forma escalonada por renglones

Una matriz E ∈ K m×n está en forma escalonada por renglones si se cumplen las siguientes
dos condiciones:
1) Todos los renglones que consisten únicamente de ceros, si los hay, están justo debajo
de los renglones distintos de cero.
2) La primera entrada diferente de cero en los renglones distintos de cero, está a la de-
recha de la primera entrada diferente de cero del renglón inmediato anterior.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote.

Las siguientes matrices están en forma escalonada. Los pivotes están encerrados en círculos.
       
1 4 1 2 4 1 0 0 2 4 −1 −2 2 0 0
 0 1 0 .
       
 0 0 0 2 3   0 1 2   0 0 1 −3 
       
0 0 0 0 1 0 0 3 0 0 0 0 0 0 3

Una matriz en forma escalonada por renglones se ve como sigue:


 
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
 
 
 

 0 0 0 0 ∗ ∗ ∗ ∗ ∗ 


 0 0 0 0 0 0 0 ∗ ∗ 


 0 0 0 0 0 0 0 0 0 

0 0 0 0 0 0 0 0 0

donde los pivotes son las entradas encerradas en círculos.

179 Prof. Carlos J. Rubio


B. Matrices

Método de Gauss para calcular una forma escalonada


Explicaremos con un ejemplo el Método de eliminación de Gauss para llevar una matriz a una
forma escalonada. La estrategia general consiste en fijarnos en la entrada (1, 1) de la matriz y
usarla como pivote para eliminar todas las entradas por debajo de esta posición pivotal, apli-
cando operaciones elementales de renglón. Los pivotes deben ser distintos de cero. Si el escalar
en la posición pivotal es cero, entonces se intercambia ese renglón por algún renglón debajo de
él para producir un pivote distinto de cero.

Ejemplo B.8.2
Usando el Método de eliminación de Gauss, determinemos una forma escalonada por
renglones de la matriz
 
3 1 2 −2
A =  −3 1 −2 −2 .
1 0 1 9

y escribamos PA = E, donde P es una matriz invertible y E es una matriz en forma


escalonada.
El elemento en la posición (1, 1) es distinto de cero, así que se toma como pivote este
elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones
elementales R21 (1) y R31 (−1/3):
   
3 1 2 −2 3 1 2 −2
R21 (1) R31 (−1/3)
A −−−−→ 0 2 0 −4 −−−−−−→ 0 2 0 −4 = A2
1 0 1 9 0 − 3 13
1 29
3

A continuación, nos concentramos en el segundo renglón. La primera entrada distinta


de cero está en la posición (2, 2). Así la nueva posición pivotal será la (2, 2) y el pivote
sera 2. Para introducir un cero en la posición (3, 2) se aplicará la operación elemental
E32 (1/6) a la matriz A2 . Así
 
3 1 2 −2
R32 (1/6)
A2 −−−−−→ 0 2 0 −4 = E
0 0 13 9

La matriz E es una forma escalonada por renglones de la matriz A. La matriz


 
1 0 0
P = R32 (1/6) E31 (−1/3) E21 (1) =  1 1 0
− 61 16 1

es tal que PA = E, ya que R32 (1/6) E31 (−1/3) E21 (1) A = E. Para construir P se puede
efectuar la multiplicación de las matrices involucradas. También es posible construir P
aplicando a la matriz identidad la secuencia operaciones elementales que se usaron para
obtener la matriz E.
     
1 0 0 1 0 0 1 0 0
R21 (1) R31 (−1/3) R32 (1/6)
I −−−→ 1 1 0 −−−−−−→  1 1 0 −−−−−→  1 1 0 = P.
0 0 1 − 31 0 1 − 61 16 1

Las operaciones elementales de renglón que se aplican a A son las mismas operaciones
elementales que se aplican a la matriz identidad para obtener la matriz P tal que PA = E.

Prof. Carlos J. Rubio 180 Álgebra Lineal, Actuaría


B. Matrices

Estas operaciones elementales se pueden aplicar de manera simultánea a las matrices A


e I para obtener las matrices E y P. Para esto se construye la matriz aumentada [ A | I ] y
se le aplican las operaciones elementales necesarias para construir una forma escalonada
de A. Al final del proceso se obtiene la matriz [ E | P].

   
3 1 2 −2 1 0 0 3 1 2 −2 1 0 0
R21 (1)
 −3 1 −2 −2 0 1 0  −−−−−−→  0 2 0 −4 1 1 0 
R31 (−1/3)
1 0 1 9 0 0 1 0 − 13 13 29
3 − 1
3 0 1
 
3 1 2 −2 1 0 0
R32 (1/6)
−−−−−→  0 2 0 −4 1 1 0  = [ E | P ].
0 0 13 9 − 16 16 1

Ejemplo B.8.3
Determinemos una forma escalonada de la matriz
 
0 1 3 2
A = 0 2 3 −5 .
0 −1 −4 −5

Se lleva la matriz A a una matriz que tenga ceros en las posiciones (2, 2), (3, 2) y (3, 3).
   
0 1 3 2 0 1 3 2
R21 (−2) R32 (−1/3)
A −−−−→ 0 0 −3 −9 −−−−−−→ 0 0 −3 −9 .
R31 (1)
0 0 −1 −3 0 0 0 0

B.9. Forma escalonada reducida y Método de Gauss-Jordan


En esta sección se estudia el método de eliminación de Gauss-Jordan para encontrar la
forma escalonada reducida de una matriz. Primero la definición de lo que se entiende por una
matriz en forma escalonada reducida.

Definición B.9.1. Forma escalonada reducida por renglones

Una matriz E ∈ K m×n está en la forma escalonada reducida por renglones si:
1) E está en forma escalonada.

2) La primera entrada distinta de 0 en cada renglón es 1, es decir, cada pivote es 1.


3) Cada pivote es la única entrada distinta de cero en su columna.

Una matriz en forma escalonada reducida por renglones se ve como sigue:

181 Prof. Carlos J. Rubio


B. Matrices

 
 1 0 ∗ ∗ 0 ∗ ∗ 0 ∗ 

 0 1 ∗ ∗ 0 ∗ ∗ 0 ∗ 

0 0 0 0 1 ∗ ∗ 0 ∗
 
 
 

 0 0 0 0 0 0 0 1 ∗ 


 0 0 0 0 0 0 0 0 0 

0 0 0 0 0 0 0 0 0

La técnica de eliminación de Gauss-Jordan es una variante de la eliminación gaussiana. Son


dos las características que hacen diferente el método de Gauss-Jordan del método de Gauss:

a) En cada paso del proceso, cada pivote debe convertirse en 1.

b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.

Método de Gauss-Jordan para calcular la forma escalonada reducida de una matriz


Explicaremos con un ejemplo el Método de eliminación de Gauss-Jordan para llevar una matriz
a su forma escalonada reducida por renglones.

Ejemplo B.9.2
Usando el Método de Gauss-Jordan, determinemos la forma escalonada reducida por
renglones de la matriz:
 
3 1 2 −2
A =  −3 1 −2 −2 .
1 0 1 9

Luego calcularemos una matriz invertible P de tal manera que PA = E A , donde E A es la


forma escalonada reducida de A.
Dado que la entrada (1, 1) es distinta de cero, esta será la posición pivotal inicial. Lo
primero que se hace es producir un 1 en la posición pivotal aplicando una operación
elemental de Tipo II. A continuación, las entradas que se encuentran por debajo de la
posición pivotal se convierten en ceros, mediante la aplicación de operaciones elemen-
tales de Tipo III.

1 2
1
− 32 2 − 32
   
1 3 3
1 3 3
R1 (1/3) R21 (3)
A −−−−→ −3 1 −2 −2 −−−−→ 0 2 0 −4 = A2
R31 (−1)
1 0 1 9 0 − 13 1
3
29
3

Se pasa ahora al segundo renglón. Dado que la posición (2, 2) es distinta de cero, esta
será la nueva posición pivotal. Se aplica una operación elemental de Tipo II. Posterior-
mente, se aplican operaciones elementales de Tipo III para producir ceros en las entradas
por arriba y por debajo de la posición pivotal.

1 2 2
− 23
   
1 3 3 1 0 3 0
R2 (1/2) R12 (−1/3)
A2 −−−−→ 0 1 0 −2 −−−−−−→ 0 1 0 −2 = A4
R32 (1/3) 1
0 − 31 1
3
29
3 0 0 3 9

Prof. Carlos J. Rubio 182 Álgebra Lineal, Actuaría


B. Matrices

Como siguiente paso, a la matriz A4 se le aplican operaciones elementales de los Tipos


II y III para producir un 1 en la posición (3, 3) y un cero en la posición (1, 3).

1 0 23
   
0 1 0 0 −18
R3 (3) R13 (−2/3)
A4 −−−−→ 0 1 0 −2 −−−−−−→ 0 1 0 −2 = E A .
0 0 1 27 0 0 1 27

La matriz invertible
1
− 12
 
2 −2
P = E13 (−2/3) E3 (−3) · · · E21 (3) E1 (1/3) =  1 1
0
2 2
− 12 1
2 3

es tal que PA = E A .

B.10. Algoritmo de Gauss-Jordan para calcular la inversa


Finalizamos con el algoritmo de Gauss-Jordan para calcular la inversa de una matriz cua-
drada. El algoritmo se basa en el siguiente resultado.

Teorema B.10.1
Una matriz de n × n es invertible si y solamente si su forma escalonada reducida es la
matriz identidad de orden n.

Demostración. Se sigue del Teorema ??.


Se tiene el siguiente algoritmo para el cálculo de la inversa, si existe, de una matriz cuadra-
da.
Sea A una matriz de n × n.
1) Construya la matriz aumentada [ A | I ], donde I es la matriz identidad de orden n.
2) Lleve la matriz [ A | I ] a su forma escalonada reducida [ E A | P], donde E A es la forma
escalonada reducida de A.
3) Si E A = I, entonces A es invertible y A−1 = P. En caso contrario, A no es invertible.

Observación B.10.2
Si E A = I, el Teorema B.10 implica que A es invertible. Como la matriz P se obtuvo de la
matriz identidad aplicando la secuencia de operaciones elementales que se usaron para
obtener la matriz E A = I, el Teorema B.7 implica que E A = I = P0 A y P = P0 I donde
P0 = Es Es−1 · · · E2 E1 es el producto de las matrices elementales correspondientes a las
operaciones elementales aplicadas. Luego, P = P0 y PA = I. Como P es invertible, se
sigue que A = P−1 . Por lo tanto, A también es invertible y A−1 = P.
Si E A no es la matriz identidad, entonces A no es invertible por el Teorema B.10.

183 Prof. Carlos J. Rubio


B. Matrices

Ejemplo B.10.3
Usando el algoritmo
 anterior parael cálculo de la inversa, calculemos la inversa, si existe,
2 −1 −1
de la matriz A = −1 −1 1.
−3 −2 3
Se forma la matriz aumentada [ A | I ] y se lleva a su forma escalonada reducida.

1 − 12 − 12 12 0 0 1 − 12 − 12 1
   
2 0 0
R1 (1/2) R31 (3)
[ A | I ] −−−−→  −1 −1 1 0 1 0  −−−→  0 − 32 1
2
1
2 1 0 
−3 −2 3 0 0 1 0 − 72 3
2
3
2 0 1
1 − 12 − 12 1 − 23 1
− 13
   
2 0 0 1 0 3 0
R2 (−2/3) R12 (1/2)
−−−−−→  0 1 − 3 − 13 − 23 0  −−−−−→  0 1
1 − 13 − 13 − 23 0 
R32 (7/2)
0 − 27 3
2
3
2 0 1 0 0 1
3
1
3 − 73 1
 2 1 1   
1 0 −3 3 −3 0 1 0 0 1 −5 2
R3 (3) R 13 ( 2/3 )
−−−→  0 1 − 13 − 31 − 23 0  −−−−−→  0 1 0 0 −3 1  .
R23 (1/3)
0 0 1 1 −7 3 0 0 1 1 −7 3

Dado que la forma escalonada reducida de A es la matriz identidad, se concluye que


A es invertible y su inversa aparece en el lado derecho de la segunda matriz en la línea
anterior.

Ejemplo B.10.4
Usando el algoritmo
 para elcálculo de la inversa, calculemos la inversa, si existe, de la
1 1 −1
matriz A = −2 1 −2.
−1 −1 1
Se forma la matriz aumentada [ A | I ] y se lleva a su forma escalonada reducida.
1
0 − 13 − 31
   
1 1 −1 1 0 0 1 0 3
 −2 1 −2 0 1 0  −−−−→  0 1 − 43 0 1
3 −3
2  = [ E | P ].
A
−1 −1 1 0 0 1 0 0 0 1 0 1

Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se


concluye que A no es invertible.

Prof. Carlos J. Rubio 184 Álgebra Lineal, Actuaría


Bibliografía

[1] Juan de Burgos Román. Álgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edición, 1993.

[2] José Antonio de la Peña. Álgebra Lineal Avanzada. Fondo de Cultura Económica, México,
1996.

[3] John B. Fraleigh. Álgebra Abstracta. Adison Wesley Iberoamericana, México, 1987.

[4] Stanley I. Grossman. Álgebra Lineal. McGraw-Hill Interamericana, México, quinta edición,
1996.

[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.

[6] I.N. Herstein. Álgebra Moderna. Trillas, México, 1970.

[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edición, 1996.

[8] Kenneth Hoffman y Ray Kunze. Álgebra Lineal. Prentice Hall, México, segunda edición,
1984.

[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison Wesley,
1971.

[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edición, 1997.

[11] Serge Lang. Álgebra Lineal. Fondo Educativo Iberoamericano, México, 1976.

[12] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. Wiley-
Interscience, Nueva York, segunda edición, 2007.

[13] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edición, 1998.

[14] Seymour Lipschutz. Álgebra Lineal. McGraw-Hill, México, segunda edición, 1992.

[15] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.

[16] Ben Noble y James W. Daniel. Álgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
México, tercera edición, 1989.

185
BIBLIOGRAFÍA

[17] David Poole. Álgebra Lineal: Una introducción moderna. Thomson, México, 2004.
[18] Hugo A. Rincón Mejía. Álgebra Lineal. Coordinación de Servicios Editoriales, Facultad de
Ciencias, UNAM, México, 2001.

[19] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edición, 2008.
[20] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
[21] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.

Prof. Carlos J. Rubio 186 Álgebra Lineal, Actuaría

También podría gustarte