Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Licenciatura en Actuaría
Prefacio V
1. Espacios Vectoriales 1
1.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definición de Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2. Propiedades elementales de un Espacio Vectorial . . . . . . . . . . . . . . 3
1.1.3. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Conjuntos linealmente independientes . . . . . . . . . . . . . . . . . . . . 12
1.2.3. Propiedades de los conjuntos linealmente independientes . . . . . . . . . 14
1.2.4. Matrices y dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.5. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.1. Definición de base de un espacio vectorial . . . . . . . . . . . . . . . . . . 19
1.3.2. Definición de dimensión de un espacio vectorial . . . . . . . . . . . . . . . 22
1.3.3. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4. Espacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.1. Bases y dimensiones de los espacios fundamentales de una matriz . . . . 29
1.4.2. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5. Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.1. Definición de suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.2. Caracterización de la suma directa . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.3. Dimensión de la suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . . . 38
1.5.5. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2. Transformaciones Lineales 42
2.1. Propiedades básicas de las transformaciones lineales . . . . . . . . . . . . . . . . 42
2.1.1. Definición de transformación lineal y ejemplos . . . . . . . . . . . . . . . . 42
2.1.2. Propiedades básicas de las transformaciones lineales . . . . . . . . . . . . 44
2.1.3. Construcción de transformaciones lineales . . . . . . . . . . . . . . . . . . 46
2.1.4. El espacio vectorial de las transformaciones lineales . . . . . . . . . . . . . 47
2.1.5. El núcleo y la imagen de una transformación lineal . . . . . . . . . . . . . 50
2.1.6. El Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.1.7. Ejercicios de Práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II
ÍNDICE GENERAL
A. Campos 145
A.1. Definición y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
A.2. La característica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
B. Matrices 151
B.1. Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
B.5. Multiplicación de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . . 166
B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
B.8. Forma escalonada y Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 179
B.9. Forma escalonada reducida y Método de Gauss-Jordan . . . . . . . . . . . . . . . 181
B.10. Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 183
Bibliografía 185
El estudio del álgebra lineal es importante para la formación de los estudiantes de Actuaría
porque contribuye al desarrollo de habilidades matemáticas necesarias para la obtención y
resolución de modelos matemáticos aplicables en el área donde se desarrollen, como la teoría
de seguros.
Esta asignatura tiene como propósito que el estudiante adquiera la habilidad de modelar
matemáticamente fenómenos de tipo lineal, en el contexto matemático y los problemas propios
del quehacer de un actuario. También, proporciona las herramientas para resolver problemas
reales e hipotéticos que surgen en las áreas de la ciencia y la tecnología de una manera analítica,
cualitativa, numérica y gráfica.
Álgebra Lineal se relaciona con las asignaturas: Álgebra Superior I, Álgebra Superior II,
Ecuaciones Diferenciales, Investigación de Operaciones, Métodos Numéricos, Probabilidad II,
Procesos Estocásticos y Regresión Lineal, ya que contribuyen al logro de las cuatro competen-
cias de egreso.
Estas notas de curso están elaboradas a partir de la Planeación Didáctica del mismo y su
objetivo es que el alumno tenga el material completo y desarrollado de cada uno de los temas
de la asignatura.
Unidades y Competencias.
V
0. Prefacio
En diversas ramas de las matemáticas nos topamos con conjuntos de elementos que se pue-
den operar entre ellos y multiplicar por escalares, es decir por elementos de algún campo.
Consideremos el espacio euclidiano R2 . Sabemos que la suma de dos vectores de R2 da como
resultado un vector de R2 . Lo mismo sucede si multiplicamos un vector por elemento de R. El
conjunto de soluciones de un sistema homogéneo es otro ejemplo típico. Podemos sumar dos o
más soluciones y obtenemos nuevamente una solución. De hecho cualquier combinación lineal
de soluciones es nuevamente una solución. En Cálculo, también se presentan ejemplos de tales
conjuntos, v.gr. el conjunto de todas la funciones diferenciables de R en R. Sabemos que cual-
quier combinación lineal de funciones diferenciables es nuevamente una función diferenciable.
Éstos son ejemplos de espacios vectoriales. En este capítulo nos dedicaremos al estudio de la
teoría básica acerca de los espacios vectoriales sobre un campo arbitrario, haciendo énfasis en
los espacios de dimensión finita.
Definición 1.1.1.
+ : V×V → V · : K×V → V
,
( v1 , v2 ) 7 → v1 + v2 (c, v) 7→ cv
llamadas respectivamente suma y producto por escalar las cuales satisfacen los siguien-
tes ocho axiomas:
1
1. Espacios Vectoriales
A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo
K escalares. Aquí la palabra “vector” no está haciendo referencia a los vectores de R2 o
R3 .
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.
Observación 1.1.2
Ejemplo 1.1.3
En los siguientes ejemplos K es un campo arbitrario y n, m ∈ N. Los siguientes conjuntos
junto con las operaciones indicadas son K-espacios vectoriales.
a) El conjunto K n que consta de todos los vectores columna junto con las operaciones
usuales de suma de vectores y multiplicación de vector por escalar.
b) El conjunto K m×n de todas las matrices de m × n con entradas en el campo K es
un espacio vectorial respecto de la suma de matrices y la multiplicación matriz por
escalar.
c) Sea A ∈ K m×n . El conjunto de todas las soluciones del sistema homogéneo Ax = 0,
junto con las operaciones usuales de suma de vectores y multiplicación de vector por
escalar.
d) Sea K un campo. El conjunto K [t] de todos los polinomios en la variable t, junto con
las operaciones usuales de suma de polinomios y producto de polinomio por escalar
es un K-espacio vectorial.
Ejemplo 1.1.4
Sea V el conjunto de todas las matrices de m × n con entradas reales. Considere en V la
suma usual de matrices. Sean · : R × V → V y ·0 : Q × V → V la multiplicación usual
por escalar (En el segundo caso la multiplicación se restringe a números racionales).
Entonces (V, +, ·) y (V, +, ·0 ) son dos espacios vectoriales diferentes, ya que uno es real
y el otro es racional.
⊕ : R+ × R+ → R+ : R × R+ → R+
, .
x⊕y = xy cx = xc
Teorema 1.1.6
En un K-espacio vectorial V se cumple lo siguiente:
8) Si c ∈ K, v ∈ V y cv = 0, entonces c = 0 o v = 0.
Demostración. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector está familiarizado con las propiedades básicas de los grupos, puede omitir
las pruebas de 1)-4).
4) Sea v ∈ V. Sabemos que existe −v ∈ V tal que v + (−v) = 0. Pero también existe −(−v) ∈ V
tal que −v + (−(−v)) = 0. Luego, v + (−v) = −(−v) + (−v) y por el inciso 1 se sigue que
v = −(−v).
6) Sea v ∈ V. Tenemos que (−1 + 1)v = (−1)v + 1 · v = (−1)v + v y también (−1 + 1)v =
0 · v = 0 según el inciso anterior. Luego, (−1)v + v = 0 y por lo tanto (−1)v = −v.
Definición 1.1.8.
Teorema 1.1.9
Sea W un subconjunto de un K −espacio vectorial V. Entonces W es un subespacio de V
si y solo si:
1) W 6= ∅,
2) v, w ∈ W ⇒ v + w ∈ W,
3) c ∈ K y v ∈ W ⇒ cv ∈ W.
Ejemplo 1.1.10
2 −1 3
Consideremos el espacio vectorial R2 y sean v1 = , v2 = y v3 = . Es
−4 2 −6
muy fácil construir vectores que estén en el subespacio W = hv1 , v2 , v3 i. Basta elegir tres
escalares y formar la correspondiente combinación lineal. Así los vectores
−4 −39
= v1 + 0v2 − 2v3 , = −5v1 + 8v2 − 7v3 ,
8 78
son elementos de W.
2c1 − c2 + 3c3 = 2
−4c1 + 2c2 − 6c3 = −3
1 − 12 32 0
.
0 0 0 1
Teorema 1.1.11
Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores de V. Entonces el subespacio
generado por estos vectores es el menor de todos los subespacios de V que contienen a
estos.
Ejemplo 1.1.12
Describamos analítica y geométricamente el subespacio de R3 generado por los vectores
W = h v1 , v2 i
= { c1 v1 + c2 v2 | c1 , c2 ∈ R}
n o
= (c1 − c2 , c1 + 2c2 , c1 )T | c1 , c2 ∈ R
Así W está caracterizado como el conjunto de todos los w ∈ R3 para los cuales el sistema
de ecuaciones Ac = w tiene solución; en otras palabras W es el espacio columna de la
matriz A. Luego decidir si w ∈ W es equivalente a decidir si w ∈ R( A). Una forma
escalonada por renglones de [ A | w] es
1 −1 x
0 3 −x + y ,
0 0 − 32 x − 13 y + z
Definición 1.1.13.
Ejemplo 1.1.14
El conjunto de las columnas de una matriz A genera a su espacio columna.
Ejemplo 1.1.15
El espacio R3 no está generado por los vectores v1 = (−1, 2, 0) T y v2 = (1, 1, 1) T . De
hecho ( x, y, z) T ∈ hv1 , v2 i si y solamente si 2x + 3y − z = 0. Por lo tanto, (1, 2, 3) T no es
combinación lineal de los vectores de W.
Por otro lado, el conjunto {e1 , e2 , v1 , v2 } sí genera a R3 . En efecto, si b = (b1 , b2 , b3 ) T ∈ R3 ,
entonces b = (b1 − b3 )e1 + (b2 − b3 )e2 + 0v1 + b3 v2 . De hecho, b = (b1 − b3 + t)e1 + (b2 −
b3 − 2t)e2 + tv1 + b3 v2 , con t ∈ R.
W = { A ∈ K n×n | AB = BA}
es un subespacio de K n×n .
2) Sea V un K-espacio vectorial y sean U y W subespacios de V. Pruebe que U ∩ W es
un subespacio de V.
3) De un ejemplo de un K-espacio vectorial V y dos subespacios U y W de V, tales que
U ∪ W no sea un subespacio de V.
4) Sea V un K-espacio vectorial y sean U y W subespacios de V.
a) Pruebe que el conjunto
U + W = {u + w | u ∈ U, w ∈ W }
es un subespacio de V.
b) Pruebe que U + W es el menor de todos los subespacios de V que contienen a
U ∪ W.
El subespacio U + W es llamado la suma de los subespacios U y W.
es un subespacio de Rm .
7) Sea V un K-espacio vectorial y sean v1 , v2 y v3 elementos de V. Suponga que v3 de-
pende linealmente de v1 y v2 , es decir, suponga que existen escalares c1 , c2 tales que
v3 = c1 v1 + c2 v2 . Pruebe que hv1 , v2 , v3 i = hv1 , v2 i.
8) Sea V un K-espacio vectorial y sean B1 = {v1 , . . . , vr } y B2 = {v1 , . . . , vr , w}. Pruebe
que hB1 i = hB2 i si y solamente si w ∈ hB1 i.
f +g: X → K cf : X → K
, .
x 7→ f (x) + g (x) x 7→ c f ( x )
Pruebe que K X con estas operaciones es un K-espacio vectorial. Concluya que K n , K m×n y K ω
son K-espacios vectoriales. (Aquí K ω denota al conjunto de todas las sucesiones ( a1 , a2 , a3 , . . . )
de elementos de K).
( v 1 , w1 ) + ( v 2 , w2 ) = ( v 1 + v 2 , w1 + w2 ) ,
c (v, w) = (cv, cw) .
Pruebe que V × W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W.
6) Sea R+ el conjunto de todos los números reales positivos. Considere R+ junto con las ope-
raciones:
⊕ : R+ × R+ → R+ : R × R+ → R+
,
x⊕y = x+y−3 cx = cx − 3c + 3
x
13) Sea W un subespacio no nulo de R2 . Pruebe que W = R2 o bien W = { y ∈ R2 | ax + by =
0} para algunos a, b ∈ R.
14) Sean A ∈ K m×n y B ∈ K n× p . Pruebe que el espacio columna de AB está generado por
{ AB∗1 , . . . , AB∗ p }.
1 1 −1 3 0 1 0 0
15) Determine si los vectores v1 = , v2 = , v3 = y v4 =
1 1 0 4 3 −1 0 1
generan a R2×2 , el espacio de las matrices cuadradas de 2 × 2.
16) a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K [t]n que consta de los
polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios
K [ t ].
b) Determine cuáles de los siguientes polinomios de R [t]3 pertenencen al subespacio de
R [t]3 generado por p1 (t) = t + t2 y p2 (t) = 1 + t.
i) p(t) = −2 − t − t2 ii) p(t) = 1 − 4t + t2 iii) p(t) = 10 − 2t + 8t2 .
v ∼ w si v − w ∈ W.
Pruebe que ∼ es una relación de equivalencia. Denote con [v] la clase de equivalencia de
v ∈ V. Es decir [v] = {w ∈ V | w − v ∈ W } . Sea V/W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relación. Defina en V/W las
siguientes operaciones:
[v] + [w] = [v + w] ; c [v] = [cv] .
Pruebe que estas operaciones están bien definidas y que V/W es un espacio vectorial con
estas operaciones. V/W se denomina espacio vectorial cociente.
Definición 1.2.1.
Observación 1.2.2
El vector 0 de V depende linealmente, aunque de manera trivial, de cualquier conjunto
de vectores, pues 0 = 0v1 + 0v2 + · · · + 0vn . Dado un subconjunto S de vectores de V,
uno está interesado en determinar si el vector cero depende linealmente, de manera no
trivial, de los vectores de S.
El vector w = (−2, 62) T depende linealmente de los vectores wi ya que w = 3w1 − 2w2 + w3 . El
vector (0, 0) también depende linealmente de los vectores de S2 , ya que 0 = 0w1 + 0w2 + 0w3 .
Observe que el vector cero de R2 se puede escribir de manera no trivial como combinación
lineal tanto de v1 y v2 como de los vectores wi :
2v1 + (−1) v2 = 0,
5w1 − 8w2 + w3 = 0.
Los vectores v1 = (−8, 4, 6, −10) T , v2 = (9, 6, −12, 18) T y v3 = (41, 4, −43, 67) T de R4
satisfacen una propiedad similar, es decir, el cero es una combinación lineal no trivial de ellos:
Ahora bien, dada una colección de vectores no siempre es posible hallar una combinación
lineal no trivial que de como resultado el vector cero. Por ejemplo, en R [t]3 no es posible hallar
una combinación lineal no trivial de los vectores 1, 1 + t, 1 + t + t2 que de como resultado el
polinomio cero. En efecto, si suponemos que existen c1 , c2 y c3 tales que:
c1 (1) + c2 (1 + t) + c3 1 + t + t2 = 0 + 0t + 0t2
c1 + c2 + c3 = 0,
c2 + c3 = 0,
c3 = 0,
a) Es posible hallar una combinación lineal no trivial de los vectores cuyo resultado sea el
vector cero, o
b) la única combinación lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.
0 2 1 −1
depende linealmente de los vectores v1 , v2 y v3 .
Definición 1.2.4.
c1 v1 + · · · + cn vn = 0 =⇒ c1 = · · · = cn = 0.
Ejemplo 1.2.5
Sea V un K-espacio vectorial y sea S = {v1 , . . . , vn } ⊂ V. Que S sea linealmen-
te dependiente es equivalente a decir que existe al menos un vector v j ∈ S que de-
pende linealmente de los otros. En efecto, suponga que existen escalares c1 , . . . , cn con
c j 6= 0 tales que c1 v1 + · · · + cn vn = 0; entonces v j = ∑i6= j (c− 1
j ci ) vi . Recíprocamen-
te, si v j depende linealmente de los otros vectores de S y v j = ∑i6= j xi vi , entonces
x1 v1 + · · · + (−1)v j + · · · + xn vn = 0 y S es linealmente dependiente.
Definición 1.2.6.
Ejemplo 1.2.7
Demostremos que en el espacio vectorial de todos los polinomios con coeficientes reales,
R[t], el conjunto S = {1, t, t2 , . . .} es linealmente independiente.
Para ello, supongamos por contradicción, que S es linealmente dependiente. Enton-
ces, existe un subconjunto finito T de S que es linealmente dependiente, digamos T =
{tm1 , tm2 , . . . , tmr } con m1 < m2 < · · · < mr . Entonces, existen escalares cm1 , cm2 , . . . , cmr
no todos cero tales que:
Por definición un polinomio es cero, si y solo si todos sus coeficientes son cero. Por
lo tanto, cmi = 0 para i = 1, . . . , r, lo cual es una contradicción. Así, S es linealmente
independiente. Note que esta prueba es aplicable independientemente de la naturaleza
del campo K.
Ejemplo 1.2.9
En R [t]3 el conjunto 1 + t, 1 − t + t2 es linealmente independiente. En este caso, el
p = p1 − p2 + 2p3 − 2p4
= 9p1 − 7p2 + 0p3 + p4 .
Teorema 1.2.10
Sea {v1 , . . . , vn } un conjunto linealmente independiente de vectores de un espacio vec-
torial V. La representación de cada vector v ∈ hv1 , . . . , vn i como combinación lineal de
estos vectores es única.
Demostración. Supongamos que v se puede escribir de dos formas distintas como combinación
lineal de v1 , v2 , . . . , vn . Es decir:
v = c1 v1 + c2 v2 + · · · + c n v n ,
v = c10 v1 + c20 v2 + · · · + c0n vn .
Entonces, (c1 − c10 )v1 + (c2 − c20 )v2 + · · · + (cn − c0n )vn = 0. Como los vectores v1 , v2 , . . . , vn
son linealmente independientes, se sigue que ci − ci0 = 0 para cada i = 1, 2, . . . , n. Por lo tanto
ci = ci0 para cada i = 1, 2, . . . , n y así la representación de v es única.
En el siguiente teorema se presentan otras propiedades importantes de los conjuntos lineal-
mente independientes.
Teorema 1.2.11
Sean V un K-espacio vectorial y S un subconjunto de V.
1) Si S0 ⊆ S y S0 es linealmente dependiente, entonces S es linealmente dependiente.
Demostración.
1) Si S0 es linealmente dependiente, entonces S0 contiene un subconjunto finito linealmente
dependiente. Como S0 ⊂ S, se sigue que S contiene un subconjunto finito linealmente de-
pendiente y por lo tanto S es linealmente dependiente.
2) Es la contrapositiva de la proposición del inciso anterior.
3) Para todo c ∈ K con c 6= 0, tenemos que c · 0 = 0. Luego, el conjunto {0} ⊂ S es linealmente
dependiente y por lo tanto S es linealmente dependiente.
4) Demostraremos, de manera equivalente, que {v} ⊂ V es linealmente dependiente si y sólo
si v = 0. Según el inciso anterior, tenemos que si v = 0, entonces {v} es linealmente de-
pendiente. Supongamos entonces que {v} es linealmente dependiente. En este caso, existe
c ∈ K, c 6= 0, tal que c · v = 0. Luego, por el Teorema 1.1.6 se sigue que v = 0.
5) Sea S = {v1 , . . . , vn } linealmente independiente y sea v ∈ V. Demostraremos, de manera
equivalente, que S ∪ {v} es linealmente dependiente si y sólo si v ∈ hSi. En efecto, si S ∪ {v}
es linealmente dependiente, entonces existen escalares no todos cero c1 , . . . , cn , c tales que
c1 v1 + · · · + cn vn + cv = 0. Si c fuera cero, se tendría c1 v1 + · · · + cn vn = 0 y por lo tanto
c1 = · · · = cn = 0, pues S es linealmente independiente. Así, c 6= 0 y por tanto v =
− cc1 v1 − cc2 v2 − · · · − ccn vn ∈ hSi. Recíprocamente, si v ∈ hSi, entonces existen escalares
c1 , . . . , cn tales que v = c1 v1 + · · · + cn vn . Luego, v − c1 v1 − · · · − cn vn = 0 y por lo tanto,
S ∪ {v} es linealmente dependiente.
Ejemplo 1.2.12
1 0 0 0 0 1
Determine si las matrices v1 = , v2 = y v3 = son linealmente
0 0 0 1 1 0
dependientes o independientes.
Supóngase que es posible hallar escalares c1 , c2 , c3 tales que:
c1 v1 + c2 v2 + c3 v3 = 0.
Ejemplo 1.2.13
1 0 3 1
−1 1 −5 1
2, v2 = −3, v3 = 12 y v4 = 0 de R
Determine si los vectores v1 = 4
4 1 10 0
son linealmente dependientes o independientes.
Se procede igual que antes. Supongamos que existen escalares c1 , c2 , c3 , c4 tales que:
c1 v1 + c2 v2 + c3 v3 + c4 v4 = 0.
Entonces:
1 0 3 1 c1 0
−1 1 −5 1 c2 0
= .
2 −3 12 0 c3 0
4 1 10 0 c4 0
Al resolver el sistema se tiene:
1 0 3 1 c1 0
0
1 −2 2 c2 0
= .
0 0 0 4 c3 0
0 0 0 0 c4 0
Luego, el sistema tiene infinidad de soluciones, por ejemplo −3v1 + 2v2 + v3 + 0v4 = 0.
Por lo tanto el conjunto de vectores dado es linealmente dependiente.
Teorema 1.2.15
Sea A ∈ K m×n . Las siguientes afirmaciones son equivalentes:
1) Las columnas de A son linealmente independientes.
2) N ( A) = {0}.
3) rango ( A) = n.
xn
Teorema 1.2.16
Sea A ∈ K n×n . Entonces, det( A) 6= 0 si y solo si las columnas de A son linealmente
independientes.
1) Sea V un K-espacio
vectorial. Sean β = {v1 , v2 } un conjunto linealmente indepen-
a b
diente y A = ∈ K2×2 una matriz invertible. Pruebe que { av1 + cv2 , bv1 + dv2 }
c d
es linealmente independiente.
9) Pruebe que las columnas de una matriz cuadrada A ∈ Cn×n diagonalmente dominante1 son
linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N ( A) =
{0}. Para ello suponga que existe x 6= 0 tal que Ax = 0 y suponga que xk es la entrada de
magnitud máxima en x, es decir, | xk | ≥ | xi | para i = 1, 2, . . . , n. Estime el valor de | akk xk |
usando la desigualdad del triángulo y llegue a una contradicción).
10) Sea V el espacio vectorial de las matrices de tamaño 2 × 2 sobre el campo finito F p con p
número primo, y sea:
S = { A ∈ V | det( A) 6= 0}.
Definición 1.3.1.
Ejemplo 1.3.2
En el espacio vectorial R[t]3 , el conjunto
n o
p1 = 2 + 3t − 5t2 , p2 = −3 + 5t − 6t2 , p3 = −19 + 7t2 , p4 = −24 + 2t + 6t2
y
h1 + t, 1 − t + t2 i = { a + bt + ct2 | a − b − 2c = 0}.
Por otro lado, los conjuntos β = {1, t, t2 } y β0 = {1, 1 + t, 1 + t + t2 , 4 + 2t + 5t2 } generan
a R[t]3 , siendo β una base, en tanto que β0 no.
1 Una matriz A ∈ Cn×n es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene | aii | > ∑ aij .
j 6 =i
Ejemplo 1.3.3
Cada uno de los conjuntos β 1 = {e1 , e2 } y β 2 = {(−1, 1) T , (−1, 0) T es una base para R2 .
Cada uno genera a R2 y es linealmente independiente. En cambio, el conjunto {(1, 1) T }
no genera a R2 . Por ejemplo, e1 no es combinación lineal de (1, 1) T .
Ejemplo 1.3.4
1 0 0 0 0 1
El conjunto , , no es una base para R2×2 pues aunque el con-
0 0 0 1 1 0
junto es linealmente
independiente, este no genera al espacio. Por ejemplo, es fácil veri-
1 2
ficar que no es combinación lineal de los vectores dados. El conjunto
−2 1
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
Observación 1.3.5
El que una colección de vectores genere o no genere a un espacio vectorial, no está ligado
a la dependencia lineal o independencia lineal de estos.
Teorema 1.3.6
Sea V un espacio vectorial generado por un conjunto finito de m vectores v1 , . . . , vm .
Entonces todo conjunto linealmente independiente de vectores de V es finito y además
no contiene más de m elementos.
m
w1 = a11 v1 + a21 v2 + · · · + am1 vm = ∑ ai1 vi ,
i =1
m
w2 = a12 v1 + a22 v2 + · · · + am2 vm = ∑ ai2 vi ,
i =1
..
.
m
wn = a1n v1 + a2n v2 + · · · + amn vm = ∑ ain vi .
i =1
Por otra parte, como n > m tenemos que el rango de la matriz A = ( aij ) es a lo más m y
por lo tanto el sistema homogéneo Ax = 0 tiene solución no trivial x = ( x1 , . . . , xn ) T . Es decir,
existen escalares no todos cero x1 , . . . , xn tales que ∑nj=1 aij x j = 0 para cada i = 1, 2, . . . , m.
Luego:
n n m
x 1 w1 + · · · + x n w n = ∑ xj wj = ∑ xj ∑ aij vi
j =1 j =1 i =1
!
n m m n
= ∑ ∑ (aij x j )vi = ∑ ∑ aij x j vi = 0,
j =1 i =1 i =1 j =1
Corolario 1.3.7
Sea V un espacio vectorial no nulo con una base finita. Entonces toda base de V es finita
y cualesquiera dos bases tienen el mismo número de elementos.
Demostración. Como V tiene una base finita, digamos β, entonces V está generado por un nú-
mero finito de elementos. Si β0 es una base de V, de acuerdo con el Teorema 1.3.6, β0 tiene que
ser finito y además | β0 | ≤ | β|. Invirtiendo los papeles de β y β0 se concluye que | β| ≤ | β0 |.
determine el valor de verdad de las siguientes proposiciones. En cada caso debe jus-
tificar.
a) S es una base de R3 .
b) S es linealmente independiente pero no genera a R3 .
c) S es un conjunto generador de R3 pero no es linealmente independiente.
d) S no es linealmente independiente ni genera a R3 .
2) Encuentre una base para el subespacio vectorial de R4 generado por el conjunto
1
−1 − 2 1 1
2 −2
− 1 , 1 , , 1 , 1 .
2
S= 2 2 −2 2
2
−1 −1 2 2 1
3) Determine si el conjunto
−6 18
B = 5 , 3
5 3
1 0
0 0
4) Los vectores v1 =
−1 y v2 = 1 son linealmente independientes. Determine
2 −2
un par de vectores v3 , v4 tales que β = {v1 , v2 , v3 , v4 } sea una base para R4 .
Definición 1.3.9.
Observación 1.3.10
Si V es el espacio nulo, el único conjunto generador es {0}, el cual no es linealmente
independiente y por lo tanto este espacio vectorial no tiene una base. Se conviene que su
dimensión es cero y se escribe dim V = 0.
Ejemplo 1.3.11
Las dimensiones de los espacios vectoriales K n , K m×n y K [t]n , todos sobre el campo K,
son n, mn y n, respectivamente. En efecto, el conjunto {e1 , . . . , en } es una base para K n .
Para el segundo caso, sea Eij la matriz que tiene un uno en la posición (i, j) y cero en
todas las demás posiciones. Entonces el conjunto:
Eij ∈ K m×n | i = 1, . . . , m; j = 1, . . . , n ,
es una base para K m×n . Finalmente, una base para K [t]n es 1, t, . . . , tn−1 . Nos referire-
Ejemplo 1.3.12
El espacio vectorial R[t] no tiene bases finitas. En efecto, si alguna base fuera finita, de
acuerdo con el Teorema 1.3.6, el conjunto S = {t j | j = 0, 1, 2, . . . , } tendría que ser
finito, lo que es falso. Así, R[t] es un espacio vectorial de dimensión infinita. Observe
que S es una base para este espacio vectorial y que los conjuntos S y N tienen la misma
cardinalidad. Por lo tanto, dim R[t] = ∞.
Corolario 1.3.13
Sea V un espacio vectorial no nulo de dimensión finita y sea n = dim V. Entonces:
Demostración. El inciso 1 se sigue del Teorema 1.3.6. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que hSi = V y m < n. Como dim V = n, el
Teorema 1.3.6 implica que n ≤ m, lo cual es una contradicción. Por lo tanto, ningún subconjunto
de V con menos de n vectores puede generar a V.
Corolario 1.3.14
Sea V un espacio vectorial de dimensión n.
Teorema 1.3.15
Sea V un espacio de dimensión finita y sea W un subespacio de V. Entonces
Observación 1.3.16
1) La parte 2 del teorema anterior dice que todo conjunto linealmente independiente de
un espacio vectorial de dimensión finita, puede extenderse a una base.
2) Si V no es de dimensión finita y W es un subespacio de V, puede suceder que
dim W = dim V y que W 6= V. (Véase el Ejercicio 9).
Ejemplo 1.3.17
Extienda el conjunto {1 + t, 1 − t} a una base para R[t]3 .
Primero advierta que {1 + t, 1 − t} es linealmente independiente (¿por qué?). Como
dim R[t]3 = 3, necesitamos un tercer vector que no sea linealmente dependiente con
los primeros dos. Podríamos proceder mediante el método de ensayo y error. También
se puede proceder como en el teorema anterior, es decir, añadiendo un vector que no
esté en el espacio generado por estos vectores. Sin embargo, en la práctica es más fácil
proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la
inclusión de la base canónica de R[t]3 , lo cual nos da:
S = {1 + t, 1 − t, 1, t, t2 }.
Ahora, S es linealmente dependiente según el Corolario 1.3.13, de modo que necesita-
mos descartar algunos vectores (en este caso, dos). Debido a que 1 = 12 (1 + t) + 12 (1 − t),
el conjunto {1 + t, 1 − t, 1} es linealmente dependiente, de manera que eliminamos el
1. En forma similar, t = 21 (1 + t) − 21 (1 − t), de modo que {1 + t, 1 − t, t} también es
linelamente dependiente. Por último verificamos que {1 + t, 1 − t, t2 } es linealmente in-
dependiente (¿puede pensar en una forma rápida para sustentar esta afirmación?). Por
lo tanto, {1 + t, 1 − t, t2 } es una base para R[t]3 que extiende a {1 + t, 1 − t}.
1 −1 −1
1 4 −7
b) En R3 , 2 , 8 , −14.
−1 −4 −7
c) En R2×2 ,
√ −3
1 2 1850 −10 e 2 π −4 14 1
, , , , .
2 3 5 23 5 −1 0 2 − ln 5 1
a) Si β = {v1 ,
v2 } esuna base de V y v1 = aw1 + bw2 y v2 = cw1 + dw2 , pruebe que la
a b
matriz A = es invertible.
c d
a b
b) Suponga que A = ∈ K2×2 es una matriz invertible. Defina v1 = aw1 + cw2 y
c d
v2 = bw1 + dw2 . Pruebe que {v1 , v2 } es una base de V.
4) Sea V un K-espacio vectorial de dimensión n. Sea β = {v1 , . . . , vn } una base de V y sean
a1 , . . . , an ∈ K con a1 · · · an 6= 0. Pruebe que β0 = { a1 v1 , . . . , an vn } es una base de V.
5) Suponga que A ∈ K m×n es una matriz de rango n. Pruebe que si v1 , . . . , vr ∈ K n son vec-
tores linealmente independientes, entonces Av1 , . . . , Avr son vectores de K m linealmente
independientes.
6) Sea A ∈ K m×n . Suponga que {v1 , . . . , vs , vs+1 , . . . , vr } ⊂ K n es un conjunto de vectores li-
nealmente independiente tal que {v1 , . . . , vs } es una base para N ( A). Pruebe que el conjunto
{ Avs+1 , . . . , Avr } es linealmente independiente.
7) Sean A ∈ K m×n y W un subespacio de K n . Pruebe que si W ∩ N ( A) = {0}, entonces
dim A(W ) = dim W, donde A(W ) = { Aw | w ∈ W }.
8) Sean β = {v1 , v2 , v3 , v4 } una base para un R-espacio vectorial V y W el subespacio de V
generado por
w1 = v 1 + 4 v 2 + 3 v 3 + 2 v 4
w2 = 2 v 1 + 8 v 2 + 6 v 3 + 4 v 4
w3 = 2 v 2 + 2 v 3 + 2 v 4
w4 = 3 v1 + 10 v2 + 7 v3 + 4 v4
Determine una base para W. ¿Cuál es la dimensión de W?
9) Extienda el conjunto linealmente independiente {1 + t, 1 + t + t2 } a una base para R[t]3 .
1 0 0 1 0 −1
10) Extienda el conjunto linealmente independiente , , a una base
0 1 1 0 1 0
para R .
2 × 2
11) Encuentre 3 vectores en R3 que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.
12) Sea V el espacio vectorial de todas la matrices reales de 2 × 2. Determine una base para el
subespacio W = { A ∈ V | A = − A T }.
13) Determine una base y la dimensión del espacio vectorial real V = A ∈ R3×3 | A = − A T .
14) Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K2×2 .
a) El subespacio de todas la matrices cuya traza es cero.
b) El subespacio de todas matrices simétricas.
Generalice el resultado a matrices de n × n.
15) Sea V el conjunto de los números reales. Considere V como un espacio vectorial sobre el
campo de los números racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensión finita.
16) Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)2 . Demuestre que W es un subespacio de V y que dim V/W = 2. (Sugerencia: Si
f (t) ∈ V, por el algoritmo de la división para polinomios, f (t) = (t + 2)2 q(t) + r (t), donde
r (t) es un polinomio de grado menor que 2. Entonces f (t) − r (t) ∈ W).
Para la definición de espacio cociente, consulte el Ejercicio 22 de la Sección 1.1.
Definición 1.4.1.
R ( A) = {b ∈ K m | ∃ x ∈ K n , b = Ax } .
N ( A) = { x ∈ K n | Ax = 0} .
n o
N AT = y ∈ Km | AT y = 0 .
n o
R AT = x ∈ Kn | ∃ y ∈ Km , x = AT y .
Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquier-
do y espacio renglón, respectivamente, de A. Estos cuatro conjuntos son los espacios
fundamentales de A.
Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones li-
neales. Dada una matriz A es natural preguntarnos para cuáles b’s el sistema de ecuaciones
Ax = b tiene solución. En el caso del espacio nulo, este simplemente es el conjunto de todas
las soluciones del sistema homogéneo Ax = 0. Si se conoce una solución particular del sistema
Ax = b, entonces el conjunto de todas sus soluciones se obtiene sumando a la solución parti-
cular cada elemento del espacio nulo de A. Más precisamente, la solución general del sistema
no homogéneo Ax = b, donde rango( A) = r, es de la forma:
x = x0 + x f1 h1 + · · · + x f n−r hn−r , con x f1 , . . . , x f n−r escalares,
donde x0 es una solución particular del sistema Ax = b y x f1 h1 + · · · + x f n−r hn−r es la solución
general del sistema Ax = 0.
Más adelante veremos que cada vector de Rn se puede escribir de manera única como un vector
del espacio nulo de A más un vector del espacio renglón de A. Una situación similar sucede en
Rm .
a) R( A T ) = R( B T ).
b) N ( A) = N ( B).
Teorema 1.4.3
Sea A ∈ Rm×n una matriz de rango r y sea P una matriz no singular tal que PA = U,
donde U es una forma escalonada de A. Sean H = {h1 , . . . , hn−r } el conjunto de las hi ’s
que aparecen en la solución general del sistema Ax = 0. Entonces:
iii) N ( A T ) = R( P2T ) y las últimas m − r columnas de P2T forman una base para N A T .
Además:
n o
Demostración. i) Demostraremos que el conjunto β = A∗ f1 , . . . , A∗ f r es una base para el
espacio columna de A, donde A∗ f1 , . . . , A∗ f r son las columnas básicas A. Cada columna
de A pertenece al espacio columna de A puesto que Ae j = A∗ j . En particular β ⊆ R ( A)
y por lo tanto h βi ⊆ R ( A). Por otro lado, si b ∈ R ( A), entonces existe x = ( x1 , . . . , xn ) T
tal que Ax = b. Luego, b = x1 A∗1 + · · · + xn A∗n . Es decir, todo elemento de R( A) es
combinación lineal de las columnas de A. Como toda columna no básica de A se puede
escribir como combinación lineal de las columnas básicas de A, de sigue que b también es
combinación lineal de las columnas básicas de A. De aquí que R( A) ⊆ h βi y así R( A) =
h βi. Esto prueba que β es un conjunto que genera al espacio columna de A. Por otro lado,
si β no fuera linealmente independiente, entonces algún elemento de β sería combinación
lineal del resto de las columnas de A, y este elemento no sería columna básica de A,
lo cual es una contradicción. Luego β es linealmente independiente. Así, las columnas
básicas de A constituyen una base para el espacio columna de A y dim R ( A) = r.
Veamos que R( A) = N ( P2 ), donde P2 está formado por los últimos m − r renglones de
P. Ahora bien, y ∈ R( A) si y solamente si el sistema de ecuaciones lineales Ax = y tiene
solución; esto último sucede si y solamente si al reducir [ A | y] nunca aparece un renglón
de la forma 0 0 · · · 0 | α con α 6= 0. Al completar el proceso de reducción se tiene
PAx = Py, es decir Ux = Py. Comparando las últimas m − r entradas en cada lado de la
igualdad se tiene que Ax = y tiene solución si y solamente si P2 y = 0.
ii) Usando el hecho de que rango( A) = rango( A T ) y lo demostrado en el inciso anterior tene-
mos que:
dim R( A T ) = rango( A T ) = rango( A) = dim R( A) = r.
A continuación se prueba que R A T = R U T . En efecto, si y ∈ R A T , entonces
T T
y = A T z para algún z. Como A T = P−1 U = U T P−1 , entonces y = U T x, donde
T
x = P−1 z y por lo tanto y ∈ R U T . Recíprocamente, si y ∈ R(U T ), entonces y =
y ∈ R ( A T ).
Si b ∈ R(U T ), entonces existen escalares x1 , . . . , xm tales que x1 U1T∗ + · · · + xm Um
T = b.
∗
Luego, cada elemento de R(U ) es combinación lineal de todas las columnas de U T y
T
Q1T y ∈ N (U1T ) Pero N U1T = {0}, pues rango(U1T ) = rango(U1 ) = r. Luego Q1T y = 0.
Ahora bien
y = Iy = P1T Q1T y + P2T Q2T = P2T Q2T y = P2T ( Q2T y)
cy queda probado que y ∈ R( P2T ).
Para demostrar la otra inclusión sea y ∈ R P2T . Entonces y = P2T x para algún x. Observe
que
P1 U1 P1 A U1
PA = U ⇒ A= ⇒ = ⇒ P2 A = 0
P2 0 P2 A 0
Así que A T y = A T P2T x = ( P2 A) T x = 0T x = 0 y queda probado que y ∈ N ( A T ). y
R( P2T ) ⊆ N ( A T ). Por lo tanto, N ( A T ) = R( P2T ) y dim N ( A T ) = m − r.
iv) Haciendo B = A T en el inciso anterior, tenemos que:
dim N ( A) = dim N B T = n − rango ( B) = n − rango( B T ) = n − r.
Ejemplo 1.4.4
1 2 2 3
Calcular bases para N ( A), R( A), N ( A T ) y R( A T ), si A = 2 4 1 3.
3 6 1 4
Usando el Teorema 1.4.3, primero se calcula una matriz invertible P tal que PA = U,
donde U en este caso es la forma escalonada reducida de A.
1 2 2 3 1 0 0 1 2 0 1 0 −1 1
U1 P1
[A | I] = 2 4 1 3 0 1 0 → 0 0 1 1 0 3 −2 = .
0 P2
3 6 1 4 0 0 1 0 0 0 0 1 −5 3
Una base para el espacio columna de A son las columnas 1 y 3 de A. También se tiene
que R( A) = N ( P2 ). Así R( A) = h A∗1 , A∗3 i = {y ∈ R3 | y1 − 5y2 + 3y3 = 0}. Una base
para el espacio renglón de A la constituyen los vectores 1 y 2 de U. Una base para el
espacio nulo izquierdo de A es {(1, −5, 3) T }. Finalmente, una base para el espacio nulo
de A es el conjunto de generadores de N ( A):
D E
N ( A) = { x ∈ R4 | x1 = −2x2 − x4 , x3 = − x4 } = (−2, 1, 0, 0) T , (−1, 0, −1, 1) T .
1) Encuentre bases para cada uno de los cuatro espacios fundamentales asociados a la
matriz
1 −2 0 4 2 1 0 0 1 −2 0 4 2
A= 2 −4 1 13 7 = 2 1 0 0 0 1 5 3 .
4 −8 1 21 11 4 1 1 0 0 0 0 0
Encuentre una matriz P ∈ R2×2 tal que [v]B = P[v]B 0 para todo v ∈ R2 .
3) Considere
C2 como
espacio
vectorial real, es decir, la multiplicación por escalar está dada
z1 cz1
por c · = , donde c es un número real. Calcule la dimensión de este espacio
z2 cz2
vectorial.
4) Sea V un espacio vectorial complejo de dimensión n ≥ 1. Como el conjunto de los núme-
ros reales es un subconjunto de los números complejos, V se puede considerar un espacio
vectorial real (vea el ejercicio anterior). Pruebe que V es de dimensión finita y calcule su
dimensión.
5) Sea V el subespacio de R2×2 formado por las matrices anti-simétricas. ¿Cuál es la dimensión
de V? Encuentre una base para V.
6) Sea K un subcampo del campo de los números complejos. Si K es de dimensión finita como
Q-espacio vectorial y α ∈ K, pruebe que α satisface un polinomio con coeficientes raciona-
les.
7) Sea V = R [t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
por (t − 1)2 . Pruebe que W es un subespacio de V y que V/W es un espacio de dimensión
finita. Además, pruebe que la dimensión de V/W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la división para polinomios).
U ∩ W = {v ∈ V | v ∈ U, v ∈ W }.
La suma es el conjunto
U + W = {u + w ∈ V | u ∈ U, w ∈ W } .
Teorema 1.5.1
Si U y W son subespacios de un espacio vectorial V, entonces U ∩ W y U + W son subes-
pacios de V. Además, U ∩ W es el subespacio más grande contenido en U y en W. La
suma de U y W es el subespacio más pequeño que contiene a U ∪ W .
Ejemplo 1.5.2
Sean U y W los subespacios de R2 generados por u = (1, 1) T y w = (−1, 2) T , respec-
tivamente. Si v ∈ U ∩ W, entonces v = a(1, 1) T = b(−1, 2) T . Esto conduce al sistema
a + b = 0 y a − 2b = 0 cuya única solución es a = b = 0. Luego U ∩ W = {0}. Por otro
lado, cada elemento de U + W es de la forma au + bw, es decir U + W = hu, wi; dado
que u y w son linealmente independientes se sigue que forman una base para R2 y se
tiene R2 = U + W.
Ejemplo 1.5.3
Ahora se describe la intersección y la suma de los subespacios U = {( x, y, z) T ∈ R3 |
x + y + z = 0} y W = {( x, y, z) T ∈ R3 | 2x − y + z = 0}. Dado que U y W son planos
distintos, su intersección debe ser una recta. Es claro que U ∩ W es el conjunto solución
del sistema homogéneo formado por las ecuaciones que definen a los subespacios. Re-
solviendo el sistema se tiene que U ∩ W = (−2, −1, 3) T . Para describir el espacio suma
Teorema 1.5.4
Sean U y W dos subespacios de dimensión finita de un espacio vectorial V. Entonces,
U + W es de dimensión finita y:
{ v1 , . . . , v r , u1 , . . . , u m −r } base para U,
{ v 1 , . . . , v r , w1 , . . . , w n − r } base para W.
v = a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r .
v = − c 1 w1 − · · · − c n − r w n − r .
d1 v1 + · · · + dr vr + c1 w1 + · · · + cn−r wn−r = 0.
Pero {vi , wk } es una base para W y necesariamente es linealmente independiente. De aquí que
la última igualdad implique que c1 = · · · = cn−r = 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:
a1 v1 + · · · + ar vr + b1 u1 + · · · + bm−r um−r = 0.
Pero {vi , u j } es una base para U y por lo tanto es linealmente independiente. Luego, a1 =
· · · = ar = 0 y b1 = · · · = bm−r = 0. Por lo tanto, β es linealmente independiente y es base para
U + W.
Ejemplo 1.5.5
Ejemplo 1.5.6
Considere ahora los subespacios
U = {( x, y, z) T ∈ R3 | x + y + z = 0, x − y + z = 0}
W = {( x, y, z) T ∈ R3 | x − y − z = 0, x − y + z = 0}
Definición 1.5.7.
Por ejemplo, la suma de los subespacios del Ejemplo 1.5.5 no es directa, en tanto que la
suma de los subespacios del Ejemplo 1.5.2 sí lo es.
Teorema 1.5.9
L
Sea V un espacio vectorial y sean U, W subespacios de V. Entonces V = U W si y solo
si V = U + W y U ∩ W = {0} .
L
Demostración. (⇒) : Supongamos que V = U W. Entonces, en particular V = U + W. Sea
v ∈ U ∩ W. Tenemos que v ∈ U y v ∈ W. Luego, v ∈ V y:
v = v + 0, con v ∈ U, 0 ∈ W,
v = 0 + v, con 0 ∈ U, v ∈ W.
Como tal suma para v debe ser única, tenemos que v = 0 y así U ∩ W = {0}.
(⇐) : Supongamos que V = U + W y U ∩ W = {0}. Sea v ∈ V. Dado que V = U + W,
existen u ∈ U y w ∈ W tales que v = u + w. Debemos probar que esta suma es única. Para ello,
supongamos que v = u0 + w0 , donde u0 ∈ U y w0 ∈ W. Entonces, u + w = u0 + w0 y por lo tanto
u − u0 = w0 − w. Como U y W son subespacios de V, tenemos que u − u0 ∈ U y w − w0 ∈ W,
de modo que u − u0 ∈ U ∩ W y w0 − w ∈ U ∩ W. Como U ∩ W = {0}, tenemos que u − u0 = 0
y w − wL 0 = 0, es decir, u = u0 y w = w0 . De este modo, tal suma para v ∈ V es única y así
V = U W.
Ejemplo 1.5.10
R3 = he1 , e2 i h e3 i .
L
Corolario 1.5.12
Si U y W son subespacios de dimensión finita de un espacio vectorial V y la suma de U
y W es directa, se tiene
M
dim U W = dim U + dim W.
Ejemplo 1.5.13
1 2 1 1
Considere la matriz A = −2 −4 0 4. Verifique que R3 = R ( A) N A T y
L
1 2 2 4
R =R A
4 T
L
N ( A) .
Un cálculo sencillo muestra que:
1
1 1
R ( A) = −2 , 0 , N AT = 1/4 .
1 2 −1/2
*( ! )+ *( ! !)+
1 0 2 −2
R AT = 2
, 01 , N ( A) = −1 , 0
.
0 0 3
−2 3 0 −1
Observe que los espacios columna y nulo izquierdo de A son ortogonalesa . También
lo son los espacios renglón y nulo de A. Es fácil probar que si dos subespacios de Rn
son ortogonales, entonces su suma es directa (se deja esta afirmación como ejercicio). En
consecuencia, la suma de R ( A) y N A T es directa y también lo es la suma de R A T y
R4 = R A T
L
N ( A) .
a Dos subespacios U y W de Rn son ortogonales si u T w = 0 para toda u ∈ U y toda w ∈ W. Si U y W son
ortogonales se escribe U ⊥W.
El siguiente teorema se puede considerar como una versión del teorema fundamental del
Álgebra Lineal.
Teorema 1.5.14
Si A ∈ Rm×n , entonces:
Rm = R ( A ) N ( A T ).
M
Rn = R ( A T )
M
N ( A ).
Teorema 1.5.17
Si A ∈ Rm×n , entonces:
2) R A T A = R A T y R AA T = R ( A) .
3) N A T A = N ( A) y N AA T = N A T .
Demostración. 1) De acuerdo con el Teorema 1.5.14, la suma de los espacios columna y nulo
izquierdo es directa, es decir, N ( A T ) ∩ R( A) = {0}. Aplicando la fórmula para el rango de
un producto tenemos que:
b) Rn = R A T ⊕ N A T .
c) Rn = R ( A) ⊕ N ( A).
d) Rn = R A T ⊕ N ( A).
14) Sea K un campo y sea V el espacio vectorial K n×n , es decir, el espacio vectorial de todas las
matrices cuadradas de n × n sobre el campo K. Sean W1 y W2 los subespacios de V formados
por las matrices simétricas y antisimétricas, respectivamente.
16) Muestre
que
los dos sistemas
de ecuaciones lineales Ax = b y A T Ax = A T b, donde A =
1 −1 −1
−1 0 y b = −2, tienen solución única. Verifique que en ambos casos la solución
1 1 5
es x = ( A T A)−1 A T b.
17) Sean A ∈ Rm×n y b ∈ Rm .
a) Pruebe que el sistema de ecuaciones lineales A T Ax = A T b siempre es consistente, aun
cuando Ax = b no sea un sistema de ecuaciones lineales consistente.
b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el
de A T Ax = A T b es el mismo.
c) Pruebe que A T Ax = A T b tiene solución única si y solo rango( A) = n.
18) Sean V1 , V2 , V3 subespacios vectoriales de un espacio V y sea V = V1 + V2 + V3 . Suponga
que V2 ∩ V1 = {0} y V3 ∩ (V1 + V2 ) = {0}. Pruebe que cada v ∈ V es escribe de manera
única como v = v1 + v2 + v3 , donde vi ∈ Vi (1 ≤ i ≤ 3).
19) Sean V1 , . . . , Vk una colección de subespacios de un espacio vectorial V y β i una base para
Vi . Sea V = V1 + · · · + Vk . Pruebe que las siguientes afirmaciones son equivalentes:
a) Vj ∩ (V1 + · · · + Vj−1 ) = {0} para cada j = 2, . . . , k.
b) Cada v ∈ V se escribe en forma única como v = v1 + · · · + vk , donde vi ∈ Vi .
c) β = β 1 ∪ · · · ∪ β k con β i ∩ β j = ∅ es una base para V.
Si se cumple cualquiera de las afirmaciones anteriores se dice que la suma V = V1 + · · · + Vk
es directa y se escribe V = V1 ⊕ · · · ⊕ Vk .
20) Sean V1 , V2 , V3 subespacios de dimensión finita de un espacio V, tales que su suma es directa.
Pruebe que dim(V1 + V2 + V3 ) = dim V1 + dim V2 + dim V3 .
En este capítulo se estudia el concepto de transformación lineal. Esta herramienta será útil
para establecer cuándo dos espacios vectoriales son esencialmente iguales, es decir, tienen exac-
tamente la misma estructura algebraica. Se mostrará que en esencia un espacio vectorial de di-
mension finita sobre un campo K es un K n para algún n, y que una transformación lineal entre
dos espacios vectoriales de dimensión finita se corresponde con una matriz.
El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga
una estructura simple, conduce al estudio de los valores y vectores propios, los cuales serán
estudiados en un capítulo posterior. También se estudiará la relación que guardan las matrices
asociadas a la misma transformación lineal.
Definición 2.1.1.
42
2. Transformaciones Lineales
T ( u + v ) = T (1 · u + v ) = 1 · T ( u ) + T ( v ) = T ( u ) + T ( v )
T (cv) = T (cv + 0) = cT (v) + T (0) = cT (v).
Ejemplo 2.1.2
1) La función 0 : V → W definida por 0(v) = 0 que mapea todos los elementos del
espacio vectorial V al elemento cero del espacio W, es claramente una función lineal,
llamada por razones obvias la transformación cero.
TA ( x + y) = A( x + y) = Ax + Ay = TA ( x ) + TA (y),
TA (cx ) = A(cx ) = cAx = cTA ( x ).
1 1 −1
Cuando A es una matriz cuadrada, TA es un operador lineal. Si A = ,
1 −1 1
la transformación lineal inducida por A está dada por:
x
x+y−z
TA y =
.
x−y+z
z
[ ]β : V → Kn
1) Sea V un K-espacio vectorial de dimensión finita y sea β una base para V. Pruebe que
la función de coordenadas [ ] β : V → K n es una función lineal biyectiva.
Teorema 2.1.4
Si T : V → W es una transformación lineal, entonces:
1) T (0) = 0.
2) T (−v) = − T (v) para todo v ∈ V.
2) Para cada v ∈ V sabemos que existe −v ∈ V tal que v + (−v) = 0. Luego, T (v + (−v)) =
T (0). Como T (0) = 0 y T (v + (−v)) = T (v) + T (−v), tenemos que T (v) + T (−v) = 0. Por
lo tanto, T (−v) = − T (v).
Observación 2.1.5
Una propiedad clave de las transformaciones lineales es que estas están determinadas
por su acción en los elementos de una base. Si β = {v1 , . . . , vn } es una base para V,
entonces es suficiente conocer el valor de T (vi ) para cada vi ∈ β, para conocer la acción
de T en un elemento arbitrario v ∈ V. En efecto, si v ∈ V, entonces v se escribe en forma
única v = x1 v1 + · · · + xn vn . Luego
T ( v ) = T ( x1 v1 + · · · + x n v n ) = x1 T ( v1 ) + · · · + x n T ( v n ).
Ejemplo 2.1.6
Suponga que T : R2 → R[t]3 es una función lineal tal que
También es posible encontrar una fórmula explícita para T. Para esto se calcula el vector
de coordenadas de v = ( x, y) T ∈ R2 con respecto a la base β. De hecho,
x−y
x x+y
v= = v1 + v2 = c1 v1 + c2 v2 .
y 2 2
Ejemplo 2.1.7
4 −2
Sea T : R2 → R2 la función lineal inducida por la matriz A = . La base
1 3
canónica {e1 , e2 } para R2 es transformada en los vectores w1 = T (e1 ) = (4, 1) T y
w2 = T (e2 ) = (−2, 3) T . El cuadrado unitario se transforma en el paralelogramo de-
terminado por los vectores w1 y w2 (Vea la Figura 2.1):
T ( c 1 e1 + c 2 e2 ) = c 1 T ( e1 ) + c 2 T ( e2 ) , 0 ≤ c1 , c2 ≤ 1.
y
T (e2 ) = (−2, 3)
e2
T (e1 ) = (4, 1)
x x
e1
Figura 2.1: La función lineal T ( x, y) = (4x − 2y, x + 3y) transforma el cuadrado unitario
determinado por los vectores e1 y e2 en el paralelogramo determinado por w1 =
T ( e1 ) y w2 = T ( e2 )
Teorema 2.1.9
Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de dimensión
finita y que β = {v1 , . . . , vn } es una base de V. Sean w1 , . . . , wn elementos arbitrarios de
W. Entonces existe una única transformación lineal T : V → W tal que T (vi ) = wi para
i = 1, . . . , n.
n
T (v) = ∑ x i wi .
i =1
n n n n
T (u + v) = ∑ ( x i + y i ) wi = ∑ ( x i wi + y i wi ) = ∑ x i wi + ∑ y i wi = T ( u ) + T ( v ),
i =1 i =1 i =1 i =1
n n n
T (cu) = ∑ (cxi )wi = ∑ c(xi wi ) = c ∑ xi wi = cT (u).
i =1 i =1 i =1
Supongamos ahora que T 0 : V → W es una transformación lineal tal que T 0 (vi ) = wi para
i = 1, . . . , n. Sea v ∈ V y escribamos v = ∑in=1 xi vi . Como T 0 es lineal se tiene
T 0 ( x1 v1 + · · · + x n v n ) = T 0 ( x1 v1 ) + · · · + T 0 ( x n v n ) = x1 T 0 ( v1 ) + · · · + x n T 0 ( v n )
= x 1 w1 + · · · x n w n = T ( v )
Ejemplo 2.1.10
Para calcular la única transformación lineal T : R[t]3 → R2 tal que T (v1 ) = −e1 , T (v2 ) =
2e1 + e2 y T (v3 ) = e1 + 3e2 , donde v1 = 1, v2 = 1 + t y v3 = 1 + t + t2 , se procede como
sigue. Como el conjunto β = {v1 , v2 , v3 } es una base para R[t]3 , es posible aplicar el
teorema anterior. Sea v = a + bt + ct2 ∈ R[t]3 . El primer paso consiste en calcular [v] β .
Al hacerlo se obtiene que:
a−b
[v] β = b − c .
c
Entonces la función pedida se define como:
−1 2 1 − a + 3b − c
T ( a + bt + ct2 ) = ( a − b) + (b − c) +c = .
0 1 3 b + 2c
Un sencillo cálculo muestra que, en efecto, T tiene la acción deseada sobre los elementos
de la base.
Ejemplo 2.1.12
Considere las transformaciones lineales F, T : R[t]2 → R2 dadas por
2a + b a+b
F ( a + bt) = , T ( a + bt) = .
a−b a − 2b
Teorema 2.1.13
Sean V y W K-espacios vectoriales. Si F, T ∈ L(V, W ) y c es un escalar, entonces F + T,
cF ∈ L(V, W ) Más aún, L(V, W ) junto con estas operaciones es un K-espacio vectorial.
Teorema 2.1.14
Sean U, V y W K-espacios vectoriales. Si T : U → V y F : V → W son transformaciones
lineales, entonces la función F ◦ T : U → W definida por ( F ◦ T )(u) = F ( T (u)) es lineal.
T F
U V W
F◦T
Teorema 2.1.15
Sean T1 , T2 y F operadores lineales sobre un espacio V, es decir T1 , T2 , F ∈ L(V ). Sea c
un escalar. Entonces:
a) 1V ◦ F = F = F ◦ 1V .
b) F ◦ ( T1 + T2 ) = F ◦ T1 + F ◦ T2 ; ( T1 + T2 ) ◦ F = T1 ◦ F + T2 ◦ F.
c) c ( F ◦ T1 ) = (cF ) ◦ T1 = F ◦ (cT1 ).
Observación 2.1.16
De los resultados anteriores se sigue que, L(V ) junto con las operaciones de suma y
composición es un anillo con unitario. Todavía más, dado que L(V ) es un anillo con
unitario, que además es un K-espacio vectorial que satisface c( F ◦ T ) = (cF ) ◦ T = F ◦
(cT ), se tiene que L(V ) es un ejemplo muy particular de una K-álgebra.
donde δij es la delta de Kronecker. Así por ejemplo, E11 es la única transformación lineal
tal que E11 (v1 ) = w1 , E11 (v2 ) = 0 y E11 (v3 ) = 0.
Pruebe que dim L(V, W ) = 3 · 2 mostrando que la colección { Eij : 1 ≤ i ≤ 2, 1 ≤ j ≤ 3}
es una base de L(V, W ).
Definición 2.1.18.
ker( T ) = {v ∈ V | T (v) = 0} ,
Im( T ) = {w ∈ W | ∃v ∈ V, w = T (v)} = { T (v) | v ∈ V } .
Ejemplo 2.1.19
Calculemos el núcleo y la imagen de la transformación lineal T : R [t]3 → R2 dada por:
2 − a + 3b − c
T ( a + bt + ct ) = .
b + 2c
En este caso:
n o
ker( T ) = a + bt + ct2 ∈ R [t]3 | − a + 3b − c = 0 y b + 2c = 0
n o
= a + bt + ct2 ∈ R [t]3 | a = −7c y b = −2c
n o
= −7c − 2ct + ct2 | c ∈ R
D E
= −7 − 2t + t2
y
x
Im( T ) = ∈ R | x = − a + 3b − c y y = b + 2c para algunos a, b, c ∈ R = R2 .
2
y
Ejemplo 2.1.20
Si A es una matriz m × n y TA es la transformación lineal inducida por A, entonces:
ker( TA ) = N ( A) y Im( TA ) = R ( A) .
Es decir, los subespacios núcleo e imagen de la transformación lineal inducida por A son
los espacios nulo y columna de A, respectivamente.
Definición 2.1.22.
Demostración. Supongamos que dim(V ) = n y sea {v1 , . . . , vk } una base para ker( T ) (de ma-
nera que nulidad( T ) = k). Como {v1 , . . . , vk } es un conjunto linealmente independiente, pode-
mos extenderlo a una base para V, digamos β = {v1 , . . . , vk , vk+1 , . . . , vn }. Demostraremos que
el conjunto:
β0 = { T (vk+1 ), . . . , T (vn )}
es una base para Im( T ).
Claramente β0 ⊂ Im( T ). Sea T (v) ∈ Im( T ) con v ∈ V. Como β es base para V, existen escalares
c1 , . . . , cn tales que:
v = c 1 v 1 + · · · + c k v k + c k +1 v k +1 + · · · + c n v n .
Como v1 , . . . , vk ∈ ker( T ), tenemos que T (v1 ) = · · · = T (vk ) = 0, de modo que:
T ( v ) = T ( c 1 v 1 + · · · + c k v k + c k +1 v k +1 + · · · + c n v n )
= c 1 T ( v 1 ) + · · · + c k T ( v k ) + c k +1 T ( v k +1 ) + · · · + c n T ( v n )
= c k +1 T ( v k +1 ) + · · · + c n T ( v n ),
lo cual demuestra que Im( T ) está generada por β0 . Supongamos ahora que existen escalares
dk+1 , . . . , dn tales que:
dk+1 T (vk+1 ) + · · · + dn T (vn ) = 0.
Entonces T (dk+1 vk+1 + · · · + dn vn ) = 0 (ya que T es lineal), de donde dk+1 vk+1 + · · · + dn vn ∈
ker( T ). Por lo tanto, existen escalares d1 , . . . , dk tales que:
d k +1 v k +1 + · · · + d n v n = d 1 v 1 + · · · + d k v k ,
d1 v1 + · · · + dk vk − dk+1 vk+1 − · · · − dn vn = 0,
como se quería.
Ejemplo 2.1.24
Calculemos el rango y la nulidad de la transformación lineal T : R[t]3 → R[t]4 definida
por T ( p(t)) = tp(t).
Tenemos que T ( a + bt + ct2 ) = at + bt2 + ct3 . Luego:
Note que hubiera sido más fácil hallar primero el rango de T, debido a que se ve fácilmente
que {t, t2 , t3 } es una base para la imagen de T. Aunque, por lo regular, una de las dos (el rango
o la nulidad de una transformación lineal) es más fácil de calcular, el Teorema de la dimensión
puede ser utilizado para hallar la otra.
e) T : R2 → R2 , T yx = −yx .
f) T : R2 → R2 , T yx = −yx .
4) Sea V un espacio vectorial real de dimensión 3 y sea β = {v1 , v2 , v3 } una base para V.
Suponga que f : V → R es una transformación lineal tal que
T (v1 ) = w1 + 2w2 − w3
T (v2 ) = 3w1 + 6w2 − 3w3
T (v3 ) = 3w1 + 9w2 + 3w3
T (v4 ) = 2w1 + 5w2
(Nota: AB = A ◦ B).
Ejemplo 2.2.1
La función lineal T : R[t]3 → R2 dada por T ( a + bt + ct2 ) = ( a, b) T no es inyectiva, pues
T (t2 ) = T (2t2 ).
Ejemplo 2.2.2
a
La función lineal T : R[t]2 → R2 definida por T ( a + bt) = es inyectiva y suprayec-
b
tiva.
El siguiente criterio es útil para determinar cuándo una transformación lineal es inyectiva.
Teorema 2.2.3
Una transformación lineal T : V → W es inyectiva si y solo si ker( T ) = {0}.
Demostración. (⇒) : Supongamos que T es inyectiva y sea v ∈ ker( T ). Entonces T (v) = 0. Sin
embargo, también sabemos que T (0) = 0 según el Teorema 2.1.4, de manera que T (v) = T (0).
Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker( T ) = {0}.
(⇐) : Supongamos ahora que ker( T ) = {0} y sean u, v ∈ V tales que T (u) = T (v). Como
T es lineal, tenemos que T (u − v) = T (u) − T (v) = 0 de donde u − v ∈ ker( T ). Pero ker( T ) =
{0}, de modo que u − v = 0. Por lo tanto, u = v y T es inyectiva.
Corolario 2.2.4
Sea dim V = dim W = n. Entonces, una transformación lineal T : V → W es inyectiva si
y solo si es suprayectiva.
Demostración. Tenemos que T es inyectiva si y solo si ker( T ) = {0} según el Teorema 2.2.3.
Luego, T es inyectiva si y solo si nulidad( T ) = 0. Por el Teorema de la dimensión, tenemos
que n = rango( T ). Por lo tanto, T es inyectiva si y solo si n = rango( T ). Como rango( T ) =
dim(Im( T )), tenemos que Im( T ) = W y por lo tanto T es suprayectiva. Así, T es inyectiva si y
solo si es suprayectiva.
Corolario 2.2.5
Sea T : V → W una transformación lineal inyectiva. Si S = {v1 , . . . , vk } es un conjunto
linealmente independiente en V, entonces T (S) = { T (v1 ), . . . , T (vk )} es un conjunto
linealmente independiente en W.
Corolario 2.2.6
Sea dim V = dim W = n. Entonces, una transformación lineal inyectiva T : V → W
mapea una base para V en una base para W.
Demostración. Sea β = {v1 , . . . , vn } una base para V. Como T es inyectiva, los elementos de
T ( β) son distintos entre sí. Luego, | T ( β)| = n = dim W. De acuerdo con el Corolario 1.3.14,
T ( β) será una base para W si T ( β) es linealmente independiente. Pero T ( β) es linealmente
independiente según el corolario anterior. Por lo tanto T ( β) es una base para W.
Definición 2.2.8.
Ejemplo 2.2.9
a
La función lineal T : R[t]2 → R2
definida por T ( a + bt) = es inyectiva y suprayec-
b
tiva, así que T es un isomorfismo y los espacios R[t]2 y R son isomorfos.
2
Ejemplo 2.2.10
La función lineal T : R[t]2 → R3 dada por T ( a + bt) = ( a, b, 0) T no es un isomorfismo
pues T no es sobre. Por ejemplo, no existe a + bt en el dominio de T tal que T ( a + bt) = e3 .
Así que T no es un isomorfismo. Observe que T es inyectiva. Que T no sea un isomorfis-
mo,¿significa que R[t]2 y R3 no son isomorfos?
Teorema 2.2.11
Sea K un campo. La relación es isomorfo a es una relación de equivalencia en la clase de
todos los K-espacios vectoriales. Más precisamente, si
1) V ∼
= V para cualquier K-espacio V.
2) Si V ∼
= W, entonces W ∼
= V.
3) Si U ∼
=VyV ∼
= W, entonces U ∼
= W.
F ( w1 + w2 ) = v 1 + v 2 = F ( w1 ) + F ( w2 ) ,
F (cw1 ) = cv1 = cF (w1 ).
Con esto queda probado que la inversa de T también es lineal, que F : W → V es un isomorfis-
mo y por lo tanto W ∼ = V.
Finalmente, si T : U → V y F : V → W son isomorfismos, de acuerdo con el Teorema 2.1.14,
FT : U → W es lineal; y dado que la composición de funciones biyectivas es nuevamente bi-
yectiva se concluye que FT es un isomorfismo con lo que queda probado que U ∼ = W.
Ejemplo 2.2.12
4) Los espacios R[t]n y Rn son isomorfos. Se deja de ejercicio al lector verificar que
T ( a0 + a1 t + · · · + an−1 tn−1 ) = ( a0 , a1 , . . . , an−1 ) T es lineal biyectiva.
Teorema 2.2.13
Sean V y W dos K-espacios vectoriales de dimensión finita. Entonces, V es isomorfo a W
si y solo si dim V = dim W.
0 = T ( v ) = T ( c 1 v 1 + · · · + c n v n ) = c 1 T ( v 1 ) + · · · + c n T ( v n ) = c 1 w1 + · · · + c n w n ,
Ejemplo 2.2.14
Los espacios Rn y R[t]n+1 no son isomorfos, ya que dim Rn = n 6= n + 1 = dim R[t]n+1 .
Teorema 2.2.15
Sea V un K-espacio vectorial de dimensión finita. Entonces V es isomorfo a Kdim V .
7) Sea T : R5 → R4 una transformación lineal tal que dim ker T = 1. Encuentre la imagen de
T.
10) Demuestre que T : R[t]n+1 → R[t]n+1 definida por T ( p(t)) = p(t) + p0 (t) para cada p(t) ∈
R[t]n+1 , es un isomorfismo.
11) ¿Es la función T : R[t]n+1 → R[t]n+1 definida por T ( p(t)) = p(t − 2) para cada p(t) ∈
R[t]n+1 , un isomorfismo?
a) ker T ⊆ ker F ◦ T.
b) Si U y W son de dimensión finita y dim U > dim V, entonces F ◦ T : U → W no es un
isomorfismo.
14) Sea V un espacio vectorial de dimensión finita y sea T : V → W una transformación lineal.
Pruebe que V/ ker T ∼
= Im T. (Sugerencia: Si [w1 ] = [w2 ], entonces T (w1 ) = T (w2 )).
Para la definición de espacio cociente, consulte el Ejercicio 22 de la Sección 1.1.
16) Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V. Pruebe que existe una
transformación lineal inyectiva
V V V
θ: → × .
W1 ∩ W2 W1 W2
17) Sea K un campo finito con q elementos. Sea V un K-espacio vectorial de dimensión finita
n > 0. Determine la cardinalidad de V.
β0 = {w1 = 1, w2 = 1 + t, w3 = 1 + t + t2 },
Sea v = (4, −1, 9) T . El objetivo de este ejemplo es escribir T (v) como combinación lineal
de los vectores de la base β0 utilizando dos procedimientos diferentes.
Teorema 2.3.1
Sean V y W dos K-espacios vectoriales de dimensión finita. Sean β = {v1 , . . . , vn } y
β0 = {w1 , . . . , wm } bases para V y W, respectivamente. Para cada transformación lineal
T : V → W existe una única matriz en K m×n , denotada por [ T ] ββ0 que satisface:
T ( v ) = x1 T ( v1 ) + · · · + x n T ( v n ). (2.1)
Para hallar [ T (v)] β0 debemos expresar a T (v) como combinación lineal de w1 , w2 , . . . , wm . Como
T (v1 ), T (v2 ), . . . , T (vn ) ∈ W, será suficiente expresar cada uno de estos vectores T (v j ), como
combinación lineal de los wi ’s.
Para cada j = 1, . . . , n, supongamos que:
Luego:
a11 x1 + · · · + a1n xn a11 · · · a1n x1
.
.. . .. .. ..
[ T (v)] β0 = = ..
. . .
am1 x1 + · · · + amn xn am1 · · · amn xn
a11 · · · a1n
.. .. .. [v] .
= . . . β
am1· · · amn
a11 · · · a1n
.. .. .. , tenemos que [ T (v)] 0 = [ T ] 0 [v] . Note que [ T ] 0 =
Haciendo [ T ] ββ0 = . . . β ββ β ββ
am1 · · · amn
[[ T (v1 )] β0 | . . . | [ T (vn )] β0 ].
Para demostrar la unicidad de [ T ] ββ0 , supongamos que B ∈ K m×n es tal que [ T (v)] β0 = B[v] β
para todo v ∈ V. Sea A = [ T ] ββ0 . Entonces, A[v] β = B[v] β para todo v ∈ V, en particular,
A[v j ] β = B[v j ] β para j = 1, . . . , n. Como [v j ] β = e j , tenemos que Ae j = Be j , es decir, la j-ésima
columna de A es igual a la j-ésima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplo 2.3.2
Este ejemplo muestra que una transformación lineal puede tener más de una matriz
asociada. De hecho, para cualquier pareja de bases β, β0 hay una matriz asociada. Más
adelante, se describirá la relación que hay entre las matrices asociadas a la misma
transformación lineal.
Entonces:
2 5
[ T ] ββ0 = = [ F ] β 1 β0 .
3 4 1
Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma
matriz asociada, respecto de diferentes bases.
1 2 −3
3) Sea TA : R3 → R2 la función lineal inducida por la matriz A = . Es
2 −3 5
decir:
x1 x
−3 1
1 2 x1 + 2x2 − 3x3
TA x2 =
x2 = .
2 −3 5 2x1 − 3x2 + 5x3
x3 x3
Si β y β0 son las bases canónicas para R3 y R2 respectivamente, entonces:
1 2 −3
[ TA ] ββ0 = = A.
2 −3 5
Si v = 2v1 + 3v2 − v3 , podemos escribir T (v) como combinación lineal de los elemen-
tos de la base β0 . Para calcular [ T (v)] β0 aplicamos el Teorema 2.3.1:
2
−3 2 7 −7
[ T (v)] β0 = [ T ] ββ0 [v] β = 3 = .
−2 1 4 −5
−1
x
=
y
v0
5) Sea {v1 , . . . , vn } una base para un espacio vectorial V y sea T : V → V una función
lineal biyectiva.
a) Pruebe que β0 = { T (v1 ), . . . , T (vn )} es una base de V.
b) Pruebe que para cualquier función lineal F : V → V se cumple que [ F ] β0 =
[ T ]− 1
β [ F]β [T ]β .
Por otro lado, 1R2 (e1 ) = e1 = 21 (e1 + e2 ) + 12 (e1 − e2 ) y 1R2 (e2 ) = e2 = 21 (e1 + e2 ) − 12 (e1 −
e2 ), de modo que:
1/2 1/2
[1R2 ] ββ0 = .
1/2 −1/2
Si v = (7, −8) T , entonces [v] β = v. Luego:
[v] β0 = [1R2 (v)] β0 = [1R2 ] ββ0 [v] β ,
1/2 1/2 7 −1/2
[ v ] β0 = =
1/2 −1/2 −8 15/2
1 1
Así, v = (−1/2) + (15/2) . Nótese que esta matriz sirve para cambiar de base.
1 −1
Definición 2.3.4.
Teorema 2.3.6
Teorema 2.3.7
Para cada T ∈ L(K n , K m ) existe una única matriz A ∈ K m×n tal que T = TA .
T ( x ) = [ T ( x )] β0 = [ T ] ββ0 [ x ] β = Ax = TA ( x ), ∀ x ∈ K n ,
es decir, T = TA .
Teorema 2.3.8
La función ϕ : K m×n → L(K n , K m ) dada por ϕ( A) = TA es un isomorfismo de espacios
vectoriales.
Demostración. Se sigue del Teorema 2.3.6 que ϕ es lineal y del Teorema 2.3.7 que ϕ es biyectiva.
Corolario 2.3.9
dim( L(K n , K m )) = mn.
Demostración. Como la función ϕ del teorema anterior es un isomorfismo, tenemos que ker( ϕ) =
{0} y Im( ϕ) = L(K n , K m ). Luego, por el teorema de la dimensión tenemos que dim(K m×n ) =
dim(ker( ϕ)) + dim(Im( ϕ)), es decir, mn = dim( L(K n , K m )).
Teorema 2.3.10
Sea V un K-espacio vectorial de dimensión finita n > 0 y sea β una base para V. Sea W un
K-espacio vectorial de dimensión finita m > 0 y sea β0 una base para W. Si F, T : V → W
son transformaciones lineales, entonces [ F + T ] ββ0 = [ F ] ββ0 + [ T ] ββ0 y [cF ] ββ0 = c[ F ] ββ0
para todo c ∈ K.
En particular, [ F + T ] ββ0 [v0 ] β = ([ F ] ββ0 + [ T ] ββ0 )([v0 ] β ) para todo v0 ∈ β, de modo que [ F +
T ] ββ0 = [ F ] ββ0 + [ T ] ββ0 . De manera análoga se prueba que [cF ] ββ0 = c[ F ] ββ0 para todo c ∈ K.
Teorema 2.3.11
Sean V, W, β y β0 como en el Teorema 2.3.10. Para cada matriz A ∈ K m×n existe una
única transformación lineal T : V → W tal que:
A = [ T ] ββ0 .
Teorema 2.3.12
Sean V, W, β y β0 como en el Teorema 2.3.10. La función φ : L(V, W ) → K m×n dada por
φ( T ) = [ T ] ββ0 es un isomorfismo de espacios vectoriales.
Demostración. Se sigue del Teorema 2.3.10 que φ es lineal y del Teorema 2.3.11 que φ es biyecti-
va.
Corolario 2.3.13
Sean V y W dos K-espacios vectoriales de dimensión finita, con dim(V ) = n y dim(W ) =
m. Entonces, dim( L(V, W )) = mn.
Teorema 2.3.15
Sean U, V y W, K-espacios vectoriales de dimensiones positivas m, n y p, con bases β, β0
y β00 , respectivamente. Si F y T son transformaciones lineales tales que:
F T
(U, β) −−−−→ (V, β0 ) −−−−→ (W, β00 )
entonces:
[ T ◦ F ] ββ00 [u] β = [( T ◦ F )(u)] β00 = [ T ( F (u))] β00 = [ T ] β0 β00 [ F (u)] β0 = [ T ] β0 β00 [ F ] ββ0 [u] β .
Como esto es para todo u ∈ U, en particular [ T ◦ F ] ββ00 [u0 ] β = [ T ] β0 β00 [ F ] ββ0 [u0 ] β para todo
u0 ∈ β. Luego, [ T ◦ F ] ββ00 = [ T ] β0 β00 [ F ] ββ0 .
Corolario 2.3.16
Sea V un espacio vectorial de dimensión finita n > 0 y sean β, β0 bases para V. Entonces:
[ 1V ] − 1
ββ0 = [1V ] β0 β .
Por el Teorema 2.3.15, tenemos que [1V ] ββ = [1V ] β0 β [1V ] ββ0 . Como [1V ] ββ = I, se sigue que
[ 1V ] − 1
ββ0
= [ 1V ] β 0 β .
Teorema 2.3.17
Sean V y W espacios vectoriales de dimensión finita y T : V → W una transformación
lineal.
1) Si T es invertible, entonces [ T ] ββ0 es invertible para cualesquiera bases β y β0 de V y
W, respectivamente. Además:
[ T ]− 1 −1
ββ0 = [ T ] β0 β .
T T −1
(V, β) −−−−→ (W, β0 ) −−−−→ (V, β)
entonces por el Teorema 2.3.15 tenemos que:
[ T −1 ◦ T ] ββ = [ T −1 ] β0 β [ T ] ββ0 ,
Ejemplo 2.3.18
a−b
Determine si la función lineal T : R[t]2 → R2 lineal dada por T ( a + bt) = es
a + 2b
invertible. En caso de que lo sea, halle su inversa.
Se calcula la matriz de T respecto de alguna una
pareja de bases.
Se escogen las bases
1 − 1
β = {1, t} y β0 = {e1 , e2 }. Dado que T (1) = y T (t) = , se tiene que
1 2
1 −1
[ T ] ββ0 = .
1 2
La elección de las bases canónicas fue para facilitar los cálculos. Se recomienda al lector
como ejercicio verificar que se obtiene el mismo resultado si escogen las bases β = {1 +
t, 1 − t} y β0 = {e1 + e2 , e1 } para R[t]2 y R2 , respectivamente.
Ejemplo 2.3.19
Sea W el espacio vectorial real que consta de las matrices antisimétricas de 3 × 3, es decir:
W = { A ∈ R3 × 3 | A = − A T } .
Sea T : R[t]3 → W la transformación lineal dada por:
0 −a + b −b + c
T ( a + bt + ct2 ) = a − b 0 −c .
b−c c 0
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para
ello, se trabajará con las bases:
β = {1, t, t2 },
0 −1 0 0 0 −1 0 0 0
β0 = w = 1 0 0 , w2 = 0 0 0 , w3 = 0 0 − 1 ,
1
0 0 0 1 0 0 0 1 0
T −1 (w1 ) = 1, T −1 (w2 ) = 1 + t, T −1 ( w3 ) = 1 + t + t 2 .
A continuación veremos la relación que hay entre las matrices que representan a una misma
transformación lineal.
Definamos en K m×n una relación de equivalencia ∼ denominada equivalencia de matrices.
Definición 2.3.20.
A = PBQ.
Se deja al lector probar que esta relación es una relación de equivalencia (Ejercicio 23). Se de-
nota por K m×n / ∼ el conjunto de todas las clases de equivalencia bajo esta relación. El siguiente
teorema muestra que cualesquiera dos matrices que representen a la misma transformación li-
neal son equivalentes.
Teorema 2.3.21
Sean V y W espacios vectoriales de dimensión finita y sea T : V → W una transformación
lineal.
1) Cualesquiera dos matrices que representan a T son equivalentes. Más precisamente,
si β y β 1 son bases para V, y β0 y β01 son bases para W, entonces:
[ T ] ββ0 = [1W ] β0 β0 [ T ] β1 β0 [1V ] ββ1 .
1 1
es decir, T = 1W ◦ T ◦ 1V .
2) Recíprocamente, si A y B son matrices equivalentes y A representa a T, entonces B
también representa a la transformación lineal T. Más precisamente, si A = PBQ, con
P y Q matrices invertibles y A = [ T ] ββ0 para algunas bases β de V y β0 de W, entonces
existen bases β 1 de V y β01 de W, tales que
P = [1W ] β0 β0 , B = [ T ] β 1 β0 , Q = [1V ] ββ1
1 1
T
(V, β) (W, β0 )
Q 1V 1W P A = PBQ
Demostración.
Por lo tanto:
ya que (1W ◦ T ) ◦ 1V = T.
2) Supongamos que A = [ T ] ββ0 y que A = PBQ con P = ( pij ) y Q = (qij ) matrices inverti-
bles de m × m y n × n, respectivamente. Sea β0 = {w1 , . . . , wm }. Para cada i = 1, 2, . . . , m,
definimos:
m
wi0 = p1i w1 + p2i w2 + · · · + pmi wm = ∑ pki wk .
k =1
c1 w10 + c2 w20 + · · · + cm wm
0
= 0.
Entonces:
m m m
0 = c1 ∑ pk1 wk + c2 ∑ pk2 wk + · · · + cm ∑ pkm wk
k =1 k =1 k =1
m m m m
= ∑ ∑ ci pki wk = ∑ ∑ ci pki wk
i =1 k =1 k =1 i =1
!
m m
= ∑ ∑ ci pki wk .
k =1 i =1
n
vi0 = q1i
0 0
v1 + q2i v2 + · · · + q0ni vn = ∑ q0ki vk ,
k =1
y como en el caso anterior, se demuestra que β 1 = {v10 , v20 , . . . , v0n } es base de V. Luego,
Q−1 = [1V ] β1 β y por el Corolario 2.3.16, se sigue que Q = [1V ]− 1
β β = [1V ] ββ 1 . 1
El teorema anterior establece que la función L(V, W ) → Kdim W ×dim V / ∼ dada por:
T 7→ clase de equivalencia de A
está bien definida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 2.3.11 que la asignación es suprayectiva. La función no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 2.3.2,
inciso 2).
Ejemplo 2.3.22
Sea T : R[t]3 → R[t]2 la función lineal dada por
Las matrices cambio de base de la base β01 a la base β0 y de la base β a la base β 1 son
3 −1 0
2 1
P = [1R[t]2 ] β0 β0 = y Q = [1R[t]3 ] ββ1 = −2 1 −3 ,
1 5 3
0 0 −1
Ejemplo 2.3.23
Sea T : R[t]4 → R[t]3 la transformación lineal dada por:
1 + t + t2 + t3 1 − t − t2 + t3 1 − t + t2 − t3 1 + t − t2 − t3
β1 = , , , ,
2 2 2 2
2 + 2t + t2 −2 + t + 2t2 1 − 2t + 2t2
β01 = , , ,
3 3 3
T 7→ clase de equivalencia de A
Corolario 2.3.24
Sea V un espacio vectorial de dimensión finita y sea T un operador lineal sobre V.
1) Cualesquiera dos matrices que representan a T son semejantes. De hecho, si β y β0
son bases para V, entonces [ T ] β = P[ T ] β0 P−1 , donde P = [1V ] β0 β .
2) Recíprocamente, si A y B son matrices semejantes y A representa a T, entonces B
también representa a la transformación lineal T. Más precisamente, si A = PBP−1 y
A = [ T ] β para alguna base β de V, entonces existe una base β0 de V tal que B = [ T ] β0
T
(V, β) (V, β)
P −1 1V 1V P A = P B P −1
(V, β0 ) (V, β0 )
T
y P = [ 1V ] β 0 β . B
Ejemplo 2.3.25
2 1
Sea T el operador lineal sobre R2 inducido por la matriz A = . Considere las
−1 3
0
bases β = {e1 , e2 } y β = {e1 + 3e3 , 2e1 + 5e3 } = {v1 , v2 }. La matriz de T en la base β es
A. Por otro lado, Tv1 = −9v1 + 7v2 y Tv2 = −19v1 + 14v2 . La matriz cambio de base de
la base β0 a la base β es P = [v1 | v2 ]. Un cálculo directo muestra que
1 2 −9 −19 −5 2
[ T ] β = P [ T ] β P −1 = .
3 5 7 14 3 −1
Ejemplo 2.3.26
Sea T : R[t]2 → R[t]2 la transformación lineal dada por: T ( a + bt) = ( a − b) + 2bt. Sea β0
la base de R[t]2 dada por β0 = {v1 , v2 }, donde v1 = 1 y v2 = 1 − t. Como T (v1 ) = v1 y
T (v2 ) = 2v2 , se tiene
1 0
D = [ T ] β0 = .
0 2
Ejemplo 2.3.27
Sean A y P las siguientes matrices:
−2 1 0 0 0 −8 −2 1 0 0 0 0
−4 4 0 0 0 −8 0 2 1 0 0 0
0 0 2 0 −1 1 0 0 0 0 −1 1
A= −1 0 0 5
y P=
−1
.
0 1 0 0 1 0 0
1 0 1 0 4 0 1 0 0 0 1 0
1 0 0 0 0 4 1 0 0 0 0 0
Definición 2.3.28.
Ejemplo 2.3.29
Calcule el determinante y la traza del operador lineal T : R[t]2 → R[t]2 dado por T ( a +
bt) = ( a − b) + ( a + 2b)t.
1 −1
Considérese la base β = {1, t}. La matriz de T en la base β es y por lo tanto su
1 2
determinante es 3; la traza de T es 3. Observe que si se toma la base β0 = {1 + t, 1 − t},
3/2 1/2
entonces la matriz de T respecto a esta base es . Como era de esperarse,
−3/2 3/2
det([ T ] β0 ) = 3 = tr([ T ] β0 ).
Ejemplo 2.3.30
Hallar el determinante y la traza del operador lineal F : R2×2 → R2×2 dado por F ( A) =
3A − 2A T para toda A ∈ R2×2 .
2×2
Lo primero
es
seleccionar
basepara R . Porfacilidadse considera
una la base canónica
1 0 0 1 0 0 0 0
β = e11 = , e12 = , e21 = , e22 = . Entonces:
0 0 0 0 1 0 0 1
Se sigue que:
1 0 0 0
0 3 −2 0
[ F]β = .
0 −2 3 0
0 0 0 1
Observación 2.3.31
De todas las matrices que representan a una transformación lineal T, es deseable (y reco-
mendable) escoger una matriz que sea particularmente simple. En el Ejemplo 2.3.23 fue
posible escoger una pareja de bases de tal manera que la matriz asociada fuera “diago-
nal”. En el caso del operador lineal del Ejemplo 2.3.26, la matriz asociada resultó diago-
nal. En el Ejemplo 2.3.27 la matriz asociada con el operador lineal no fue diagonal, pero
sí muy cercana a una matriz diagonal.
T : R → R la transformación
1) Sea 3 2 linealdada por T ( x ) = Ax, donde A =
8 −1 1 1 −1 1
. La matriz B = es equivalente a la matriz A, de he-
3 0 1 1 2 −1
3) Sea V un espacio vectorial de dimensión finita y sea β = {v1 , v2 } una base
para V.
2 −1
Sea T un operador lineal sobre V tal que [ T ] β = A, donde A = . La matriz
4 3
−41 −24 2 1
B = es semejante con A, de hecho A = PBP−1 , donde P = .
79 46 7 4
Calcule una base β0 para V de tal manera que [ T ] β0 = B. La base β0 debe expresarse
en términos de la base β.
4) Sean β = {(1, 1) T , (1, −1) T } y β0 = {1, 1 + t} bases para los espacios R y R[t]2 ,
2
3 4
respectivamente. Sea T : R2 → R[t]2 la función lineal tal que [ T ] ββ0 = = A.
2 3
1 1
3) Sea T el operador lineal sobre R2×2 dado por T ( A) = BA − AB, donde B = .
−1 −1
Calcule [ T ] β , la matriz de T en la base β, donde β es la base canónica de R2×2 .
4) Sea T : R [t]3 → R4 dada por T ( p) = ( p(0), p(1), p(2), p(3)) T . Encuentre la matriz de T
respecto a las bases canónicas de R [t]3 y R4 , respectivamente.
2x1 + 6x2 + 6x3 + 2x4
5) Sea T : R4 → R3 la transformación lineal dada por T ( x ) = 5x1 + 3x2 + 3x3 + 5x4 .
4x1 + 4x4
6) Sea V un K-espacio vectorial de dimensión n con una base β. Pruebe que un conjunto de vec-
tores {w1 , w2 , . . . , wr } ⊆ V es linealmente independiente si y solo si el conjunto de vectores
coordenados:
{[w1 ] β , [w2 ] β , . . . , [wr ] β } ⊆ K n
es linealmente independiente.
10) Sean V y W dos espacios vectoriales reales de dimensión finita. Sean β = {v1 , v2 , v3 , v4 } y
β0 = {w1 , w2 , w3 } bases para V y W, respectivamente. Sea T : V → W la única transforma-
ción lineal tal que
12) β = {(1, −1, 1) T , (1, 1, 0) T , (0, 1, 1) T } y β0 = {(1, 1) T , (1, −1) T } son bases de R3 y R2 ,
respectivamente. Calcule una transformación lineal T ∈ L(R3 , R2 ) tal que [ T ] ββ0 = A, don-
1 −1 2
de A =
3 2 4
17) Sea T : R2 → R2 una proyección (es decir, T es una transformación lineal tal que T 2 = T).
Demuestre que T = 0, o T es la transformación identidad, o existe una base β de R2 tal que:
1 0
[T ]β = .
0 0
20) Sea V el conjunto de todas las matrices complejas hermitianas de 2 × 2. Considere V como
un espacio vectorial real. Pruebe que la función
x1
4
x2 x4 + x1 x2 + ix3
R → V,
7 →
x3 x2 − ix3 x4 − x1
x4
T 2 − ( a + d) T + ( ad − bc)1V = 0.
x −y
22) Sea T : R2 → R2 la función lineal dada por T = . Demuestre que la transforma-
y x
ción lineal T − c1R2 es un isomorfismo para todo número real c.
23) Pruebe que la equivalencia de matrices es una relación de equivalencia en el espacio vecto-
rial K m×n . Más precisamente, pruebe que:
a) A ∼ A;
b) si A ∼ B, entonces B ∼ A;
c) si A ∼ B y B ∼ C, entonces A ∼ C.
Si A ∈ K m×n , pruebe que la clase de equivalencia de A es:
24) Pruebe que la semejanza de matrices es una relación de equivalencia en el espacio vectorial
K n×n . ¿Cuál es la clase de equivalencia de una matriz A?
25) Considere el operador lineal T : R[t]2 → R[t]2 dado por T ( a + bt) = b − at. Pruebe que para
cualquier λ ∈ R, el operador lineal T − λ1V es invertible.
x1 x2
26) Sea T el operador lineal sobre R dado por T
2 = . Sean β una base para R2 y
x2 − x1
a b
la matriz de T con respecto a esa base. Pruebe que bc 6= 0.
c d
Encuentre una matriz que sea semejante a la matriz [ T ] β , donde β es la base canónica de R2 .
Escriba dicha matriz explícitamente.
28) Sea V un espacio vectorial real de dimensión finita y sea T un operador lineal sobre V. Si A
es la matriz que representa a T en alguna base β y se cumple la relación 8A3 − 16A2 + 5A +
3I = 0, pruebe que T es un isomorfismo.
29) Sea B ∈ C2×2 . Demuestre que el determinante del operador lineal T : C2×2 → C2×2 dado
por T ( A) = AB − BA, es cero.
30) Sea V un K-espacio vectorial de dimensión finita y sean S y T operadores lineales sobre V.
Demuestre que existen bases β y β0 de V tales que [S] β = [ T ] β0 si y solo si existe un operador
lineal invertible U sobre V tal que T = U ◦ S ◦ U −1 .
v1 ⊥ v2 ⇐⇒ v1T v2 = 0,
√
kvk = v T v,
d ( v1 , v2 ) = k v1 − v2 k ,
f (v1 , v2 ) = v1T v2
satisface:
1) f (v1 , v2 ) = f (v2 , v1 ).
3) f (cv1 , v2 ) = c f (v1 , v2 ).
En este capítulo lo que haremos será definir un producto interno en un espacio vectorial
definido sobre algún subcampo de los números complejos, como una función que satisface
propiedades análogas a las de la función producto interno (también llamado producto punto)
de R2 . Definiremos los conceptos de ortogonalidad y norma en términos de esta función y
estudiaremos las propiedades que de ella se deriven.
85
3. Producto interno y ortogonalidad
Definición 3.1.1.
Sea V un espacio vectorial real o complejo. Un producto interno sobre V es una función
h·, ·i : V × V → K que satisface las siguientes propiedades:
4) hv, vi > 0 si v 6= 0,
para cualesquiera u, v y w de V y cualquier escalar c.
Un espacio producto interno es un espacio real o complejo junto con un producto in-
terno definido sobre dicho espacio. Un espacio euclidiano es un espacio producto in-
terno real de dimensión finita. Un espacio unitario es un espacio producto interno com-
plejo de dimensión finita.
f (cv, w) = f (v, cw) = c f (v, w) para cualesquiera u, v, w ∈ V y c ∈ K. En otras palabras, la función es bilineal si
es lineal como función de cada variable. La función es simétrica si f (v, w) = f (w, v) para todo v, w ∈ V.
Definición 3.1.2.
Note que si h·, ·i es un producto escalar sobre V, entonces h·, ·i es una función bilineal
simétrica. Recíprocamente, si h·, ·i : V × V → K es una función bilineal simétrica, entonces h·, ·i
es un producto escalar. En consecuencia, un producto escalar no es otra cosa que una función
bilineal simétrica sobre V.
Definición 3.1.3.
Si V es un espacio vectorial real (es decir, K = R), entonces un producto interno sobre V no
es otra cosa que un producto escalar definido positivo. Y si V es un espacio vectorial complejo
(K = C), entonces un producto interno sobre V es un producto hermitiano definido positivo. En
consecuencia, un producto interno es un producto escalar definido positivo o es un producto
hermitiano definido positivo.
Ejemplo 3.1.4
En Rn la función h·, ·i : Rn × Rn → R dada por h x, yi = x T y es un producto escalar
definido positivo, es decir es un producto interno. En efecto:
h x, yi = x T y = ( x T y)T = y T x = hy, x i,
h x + y, zi = ( x + y)T z = ( x T + y T )z = x T z + y T z = h x, zi + hy, zi,
hcx, yi = (cx )T y = (cx T )y = c( x T y) = ch x, yi.
Claramente h x, x i = ∑in=1 xi2 ≥ 0 y h x, x i > 0 si x 6= 0.
Ejemplo 3.1.5
En Cn la función h·, ·i : Cn × Cn → C dada por h x, yi = x ∗ y es un producto hermitiano
definido positivo, es decir es un producto interno.
Ejemplo 3.1.6
En R[t]2 la función h·, ·i : R[t]2 × R[t]2 → R dada por:
Z 1
h p, qi = p(t)q(t)dt,
0
es un producto interno.
Ejemplo 3.1.7
La función h·, ·i : R2 × R2 → R definida por h x, yi = x1 y1 − x2 y2 , donde x = ( x1 x2 ) T ,
y = (y1 y2 ) T , es un producto escalar no degenerado que no es definido positivo. La
verificación de que es un producto escalar no degenerado se deja de ejercicio. Para ver
que no es definido positivo basta observar que x = (1 2) T 6= 0 y h x, x i = 1 · 1 − 2 · 2 < 0.
Luego, no es un producto interno.
Ejemplo 3.1.8
En R2 la función h·, ·i : R2 × R2 → R dada por h x, yi = x1 y1 − x2 y1 − x1 y2 + 4x2 y2 ,
donde x = ( x1 x2 ) T , y = (y1 y2 ) T , es un producto interno.
Ejemplo 3.1.9
En Rm×n la función h·, ·i : Rm×n × Rm×n → R dada por h A, Bi = tr ( A T B) es un pro-
ducto interno. Análogamente, en Cm×n la función h·, ·i : Cm×n × Cm×n → C dada por
h A, Bi = tr ( A∗ B) es un producto interno.
Ejemplo 3.1.10
Sea K = R o C. Sea V el espacio vectorial sobre K de todas las funciones continuas
f : [ a, b] → K. La función h·, ·i : V × V → K dada por:
Z b
h f , gi = f (t) g(t)dt
a
Ejemplo 3.1.11
1 −1
Considere la matriz simétrica M = . La función h·, ·i : R2 × R2 → R definida
−1 1
por h x, yi = x T My es un producto escalar sobre R2 que es degenerado y por tanto no es
definido positivo. En efecto, que es un producto escalar es inmediato de las propiedades
de la multiplicación de matrices y del hecho que M es simétrica. Es degenerado ya que
el vector y = (1 1) T es distinto de cero y satisface que h x, yi = 0 para todo x ∈ R2 .
No es definido positivo puesto que si y = (1 1) T entonces hy, yi = 0. ¿Es este producto
escalar un producto interno?
Ejemplo 3.1.12
1 i
Considere la matriz hermitiana M = , y defina la función h·, ·i : C2 × C2 → C
−i 1
por h x, yi = x ∗ My. Este es un producto hermitiano que no es definido positivo ya que
h x, x i = 0 para x = (i − 1)T . ¿Es este producto hermitiano un producto interno?
1) Pruebe que la función h·, ·i : R[t]3 × R[t]3 → R dada por h f , gi = ∑2i=0 f (i ) g(i ) es un
producto interno.
Definición 3.1.14.
De acuerdo con la definición, es claro que la norma y la forma cuadrática dependen del
producto interno seleccionado.
Ejemplo 3.1.15
q
Si h·, ·i es el producto interno usual en R2 se tiene k x k = x12 + x22 . En particular, si v =
√
(1, 1)T , kvk = 2. La forma cuadrática correspondiente al producto interno canónico es
la función f : R2 → R dada por f ( x ) = x12 + x22 .
Si
q ahora se considera el producto interno h x, yi = 2x1 y1 + 3x2 y2 , se tiene k x k =
2 2
√
2x1 + 3x2 . En este caso kvk = 5; la forma cuadrática correspondiente es la función
f ( x ) = 2x12 + 3x22 .
Teorema 3.1.16
Sea V un espacio producto interno y sean v, w ∈ V. Entonces:
1) kvk > 0 si v 6= 0.
2) kcvk = |c|kvk para todo escalar c.
3) kv ± wk2 = kvk2 ± 2 Rehv, wi + kwk2 .
4) (Ley del paralelogramo). kv + wk2 + kv − wk2 = 2(kvk2 + kwk2 ).
1 1
hv, wi = k v + w k2 − k v − w k2 .
4 4
1
hv, wi = (kv + wk2 − kv − wk2 + i kiv + wk2 − i kiv − wk2 ).
4
p
Demostración. 1) Por definición tenemos que hv, vi > 0 si v 6= 0. Luego, hv, vi > 0 si v 6= 0,
es decir, kvk > 0 si v 6= 0.
p
2) Tenemos que kcvk2 = hcv, cvi = chcv, vi = cchv, vi = |c|2 hv, vi, de donde kcvk = |c| hv, vi =
|c|kvk.
3) Aplicando las propiedades de linealidad:
k v ± w k2 = hv ± w, v ± wi = hv ± w, vi ± hv ± w, wi
= hv, vi ± hw, vi ± (hv, wi ± hw, wi)
= kvk2 ± hv, wi ± hv, wi + kwk2
= kvk2 ± 2 Rehv, wi + kwk2 .
4) De (3) tenemos que kv + wk2 = kvk2 + 2 Rehv, wi + kwk2 y kv − wk2 = kvk2 − 2 Rehv, wi +
kwk2 , de modo que kv + wk2 + kv − wk2 = 2kvk2 + 2kwk2 .
5) Es claro que si w = 0 la desigualdad es cierta. Supongamos entonces que w 6= 0. Por lo
demostrado en 1, para cualesquiera escalares s, t tenemos que:
de modo que i kiv + wk2 − i kiv − wk2 = 2i Re(−i hv, wi) + 2i Re(−i hv, wi) = 4i Re(−i hv, wi) =
4i Imhv, wi, ya que Re(−i hv, wi) = Imhv, wi. Finalmente, como kv + wk2 − kv − wk2 =
4 Rehv, wi, se sigue que kv + wk2 − kv − wk2 + i kiv + wk2 − i kiv − wk2 = 4(Rehv, wi +
i Imhv, wi) = 4hv, wi.
Ejemplo 3.1.17
Verifique que la función f : R2 → R definida por f ( x ) = 4x12 − 12x1 x2 + 10x22 es una
forma cuadrática.
Si f es una forma cuadrática, entonces debe existir un producto interno h·, ·i tal que
f ( x ) = h x, x i = k x k2 ; asumiendo que tal producto existe, éste debe satisfacer la identi-
dad de polarización
1 1 1 1
h x, yi = k x + y k2 − k x − y k2 = f ( x + y ) − f ( x − y )
4 4 4 4
= 4 x1 y1 − 6 x2 y1 − 6 x1 y2 + 10 x2 y2 .
1) Sea V un espacio vectorial real con un producto escalar definido positivo. Sean
v1 , . . . , vn vectores no nulos tales que hvi , v j i = 0 si i 6= j. Pruebe que {v1 , . . . , vn }
es linealmente independiente.
3) Sea A ∈ Rn×m , con m ≤ n tal que las columnas de A son linealmente independientes.
Demuestre que la matriz A T A es invertible.
4) Sea V un espacio complejo de dimensión finita. Sea β = {v1 , . . . , vn } una base para V.
(a) Pruebe que el producto hv, wi = [v]∗β [w] β es un producto interno sobre V.
(b) Si λ1 , . . . , λn son números positivos, pruebe que el producto hv, wi = λ1 x1 y1 + · · · +
λn x n yn , donde [v] β = ( x1 , . . . , xn ) T y [w] β = (y1 , . . . , yn ) T , es un producto interno sobre
V.
7) Sea P ∈ K n×n una matriz invertible (K = R o C como es usual). Pruebe que la función
h·, ·i : K n × K n → K dada por h x, yi = ( Px )∗ ( Py) = x ∗ P∗ Py es un producto interno.
8) Sea p : [ a, b] → K una función continua tal que p(t) > 0 para toda t ∈ [ a, b]. Pruebe que la
función h·, ·i : V × V → K dada por
Z b Z b
h f , gi = p(t) f (t) p(t) g(t)dt = p(t)2 f (t) g(t)dt,
a a
9) Sea (W, h·, ·i) un espacio producto interno y sea T : V → W un isomorfismo. Pruebe que la
función h·, ·iV : V × V → K dada por hv, wiV = h T (v), T (w)i es un producto interno. Este
ejercicio generaliza los ejercicios 2, 4, 7 y 8. Para cada uno de esos ejercicios encuentre el
isomorfismo.
10) Sea V un espacio complejo de dimensión finita con un producto interno (es decir, un espa-
cio unitario) y sea β una base para V. Pruebe que existe una matriz hermitiana A tal que
hv, wi = [v]∗β A[w] β para todo v, w ∈ V.
11) Sea V un espacio real de dimensión finita con un producto interno (es decir, un espacio
euclidiano) y sea β una base de V.
a) Pruebe que existe una matriz simétrica A tal que hv, wi = [v] Tβ A[w] β .
b) Considere en R3 el producto escalar canónico y la base β = {e1 , e1 + e2 , e1 + e2 + e3 }.
Calcule una matriz A ∈ R3×3 tal que h x, yi = [ x ] Tβ A[y] β para cualesquiera x, y ∈ R3 .
12) Sea K un campo y sea V = K m×n el espacio de las matrices de m × n. Recuerde que la
función traza tr : K n×n → K está dada por tr( A) = ∑in=1 aii . Defina h A, Bi = tr( A T B) para
A, B ∈ V.
a) Pruebe que h·, ·i define un producto escalar no degenerado en V. (Recuerde que una de
las propiedades de la función traza es tr( AB) = tr( BA)).
b) Pruebe que si K = R, entonces h·, ·i define un producto interno en Rn×n .
13) Sea V el espacio de las matrices complejas de m × n. Pruebe que la operación definida por
h A, Bi = tr( A∗ B) es un producto interno sobre V.
16) Sea V un espacio producto interno y sean v1 , . . . , vn ∈ V de norma uno, mutuamente or-
togonales, es decir, hvi , v j i = 0 si i 6= j. Suponga que v = λ1 v1 + · · · + λn vn . Pruebe que
k v k2 = | λ1 |2 + · · · + | λ n |2 .
17) Determine si la función f : R2 → R dada por f ( x ) = 5x12 + 6x1 x2 + 2x22 es o no una forma
cuadrática.
19) Sea V el espacio de las funciones continuas de R en R. Sean a, b números reales. Determine
si la función ω : V → R dada por:
Z a
ω( f ) = f (t + b) f (t − b)dt
−a
21) Sean V un espacio unitario y T un operador lineal sobre V tal que h T (v), wi = hv, T (w)i
para todo v, w ∈ V. Pruebe que el operador lineal 1V − iT es invertible.
22) Sea V un espacio producto interno y sea T un operador lineal sobre V. Suponga que T (v)
es un vector unitario siempre que v es unitario (un vector de norma 1 se llama unitario).
Pruebe que k T (v)k = kvk para todo v ∈ V.
23) Pruebe que (tr( A T B))2 ≤ (tr( A T A))(tr( B T B)) para cada A, B ∈ Rm×n .
3.2. Ortogonalidad
3.2.1. Ortogonalidad, complemento ortogonal y dependencia lineal
En esta sección exploraremos un poco la geometría de los espacios producto interno. En
particular lo que se refiere a la ortogonalidad entre vectores.
Definición 3.2.1.
Note que V ⊥ = {0}. En efecto, es claro que {0} ⊂ V ⊥ . Por otro lado, si v ∈ V ⊥ , entonces
hs, vi = 0 para todo s ∈ V, en particular hv, vi = 0, lo que implica que v = 0. Así, V ⊥ = {0}. De
manera análoga se prueba que {0}⊥ = V. El complemento ortogonal de cualquier subconjunto
no vacío de V es un subespacio de V. Esto es fácil de probar y se deja al lector.
Teorema 3.2.3
Si S = {u1 , u2 , . . . , un } es un subconjunto ortogonal de vectores no nulos en un espacio
producto interno V, entonces S es linealmente independiente.
Corolario 3.2.4
Sea V un espacio producto interno de dimensión n.
Ejemplo 3.2.5
Las bases canónicas de Rn y Cn son ortonormales (considerando los productos internos
canónicos). El subconjunto:
de R4 es ortogonal.
Ejemplo 3.2.6
Considere el espacio de las funciones reales continuas R π en el intervalo [−π, π ],
C ([−π, π ], R), con el producto interno dado por h f , gi = −π f (t) g(t)dt. El conjunto:
1 cos t sen t cos 2t sen 2t
√ , √ , √ , √ , √ ,...
2π π π π π
es ortonormal. Para verificar esto, es necesario evaluar varias integrales, entre otras:
1 π
Z
h1, f n i = √ cos(nt)dt,
π −π
1
Z π
h1, gn i = √ sen(nt)dt,
π −π
1
Z π
h f n , gm i = cos(nt) sen(mt)dt,
π −π
√ √
donde f n (t) = cos nt/ π y gn (t) = sen nt/ π. Se deja este ejercicio de Cálculo Integral
al lector.
Ejemplo 3.2.7
Sea A ∈ Rm×n . El espacio nulo de A es ortogonal a su espacio renglón. En efecto, si x ∈
N ( A), y ∈ R( A T ), entonces y = A T z para algún z. Luego, h x, yi = x T y = x T ( A T z) =
( Ax )T z = 0T z = 0.
para cualquier v ∈ V.
Los coeficientes hv j , vi/hv j , v j i del teorema anterior, son los coeficientes de Fourier de v.
Ejemplo 3.2.11
Ejemplo 3.2.12
Considere el producto interno canónico en C2 . Los vectores v1 = (−1 − i, −2 + i ) T y
v2 = (13 − 6i, 1 + 9i ) T constituyen una base ortogonal de C2 . Los coeficientes de Fourier
de v = (2 + 3i, 1 + i ) T con respecto a esta base son
6 + 4i 18 + 43i
c1 = − , c2 = .
7 287
Ejemplo 3.2.14
Dada una base {v1 , v2 } del espacio producto interno V, calcular una base ortogonal para
V a partir de esta base.
Solución. La idea es cambiar uno de los vectores, digamos v2 por un vector v20 tal que v20 ⊥ v1
y que el espacio generado por {v1 , v2 } sea el mismo que el generado por {v1 , v20 }. De esta mane-
ra tendremos que V = h{v1 , v2 }i = h{v1 , v20 }i y como v1 y v20 son linealmente independientes,
entonces {v1 , v20 } es una base de V de vectores ortogonales.
Para que se cumpla la condición h{v1 , v2 }i = h{v1 , v20 }i, debemos tener que v20 = c1 v1 +
c2 v2 para algunos escalares c1 y c2 . Como se busca que v20 ⊥ v1 , entonces:
0 = hv1 , v20 i = hv1 , c1 v1 + c2 v2 i = c1 hv1 , v1 i + c2 hv1 , v2 i.
Este es un sistema homogéneo de una ecuación lineal con dos incógnitas, y por tanto tiene
infinitas soluciones. Para obtener una solución particular, hagamos c2 = 1. Entonces, c1 = −c
donde c = hv1 , v2 i/hv1 , v1 i. Así, v20 = v2 − cv1 . El vector v20 así construido es ortogonal a v1 .
Note que este vector es diferente de cero, en virtud de que v1 y v2 son linealmente indepen-
dientes. Geométricamente, la forma de construir v20 es proyectar v2 ortogonalmente sobre v1 y
considerar v2 − cv1 , donde cv1 es la proyección ortogonal de v2 sobre v1 .
v2
v2 − cv1 v2 − cv1
v1
cv1
Hagamos v10 = v1 . Veamos ahora que los subespacios h{v1 , v2 }i y h{v10 , v20 }i coinciden. Es
claro que v10 , v20 ∈ h{v1 , v2 }i y en consecuencia h{v10 , v20 }i ⊂ h{v1 , v2 }i = V. Como los vecto-
res v10 y v20 son linealmente independientes según el Teorema 3.2.3, se sigue que h{v10 , v20 }i =
h{v1 , v2 }i. De esta manera, hemos construido una base ortogonal para el espacio producto in-
terno V a partir de una base cualquiera.
En el ejemplo anterior, el escalar c = hv1 , v2 i/hv1 , v1 i es tal que v2 − cv1 es ortogonal a v1 .
Este escalar es único. En efecto, si c0 es un escalar tal que v2 − c0 v1 es ortogonal a v1 , entonces
0 = hv1 , v2 − c0 v1 i = hv1 , v2 i − c0 hv1 , v1 i, de donde c0 = hv1 , v2 i/hv1 , v1 i = c.
Definición 3.2.15.
Sea V un espacio producto interno. Sean v1 , v2 ∈ V con v1 6= 0. El único escalar c tal que
v2 − cv1 es ortogonal a v1 , es la componente de v2 a lo largo de v1 (Figura 3.1).
Ejemplo 3.2.16
Con el producto canónico de R2 , los vectores v1 = (1, 2) T y v2 = (−3, 9) no son ortogo-
nales. La componente de Fourier de v2 a lo largo de v1 es c = v1T v2 /v1T v1 = 15/5 = 3.
Luego el vector v20 = v2 − cv1 = (−6, 3) T es ortogonal a v1 .
Ejemplo 3.2.17
Considere el producto
interno
canónico en C2 . De acuerdo
con la definición, la compo-
1 − 2i −1 − i
nente de v2 = a lo largo de v1 = es c = v1∗ v/v1∗ v1 = (7 + i )/7. Un
−2 + 2i −2 + i
0 1 13 − 6i
cálculo sencillo muestra que el vector v2 = v2 − cv1 = 7 es ortogonal a v1 .
1 + 9i
Ejemplo 3.2.18
Dada una base {v1 , v2 , v3 } del espacio producto interno V, calcular una base ortogonal
para V a partir de esta base.
hv10 , v3 i hv20 , v3 i
α = −γ , β = −γ .
hv10 , v10 i hv20 , v20 i
hv20 , v3 i hv10 , v3 i
v30 = v3 − c20 v20 − c10 v10 , c20 = , c10 = .
hv20 , v20 i hv10 , v10 i
Note que el vector v30 definido de esta manera no es cero, ya que los vectores v10 , v20 y v3 son
linealmente independientes. También es importante hacer notar que el vector c20 v20 + c30 v30 donde
ci0 es la componente de v3 a lo largo de vi0 , es la proyección ortogonal de v3 sobre el subespacio de
V generado por v20 y v30 . Como los vectores v10 , v20 , v30 son ortogonales y no nulos, el Teorema 3.2.3
implica que son linealmente independientes, y como v10 , v20 , v30 ∈ h{v10 , v20 , v30 }i, tenemos que
h{v10 , v20 , v30 }i = h{v10 , v20 , v3 }i.
Resumiendo, dada la base {v1 , v2 , v3 } del espacio producto interno V, se definen los vecto-
res v10 , v20 , v30 como sigue:
v10 = v1 ,
hv10 , v2 i 0
v20 = v2 − v ,
hv10 , v10 i 1
hv20 , v3 i 0 hv10 , v3 i 0
v30 = v3 − v − v .
hv20 , v20 i 2 hv10 , v10 i 1
Estos vectores son ortogonales no nulos y h{v1 , v2 , v3 }i = h{v10 , v20 , v30 }i.
El procedimiento que se presentó en los dos ejemplos para construir una base ortogonal a partir
de una base dada, se puede generalizar. Note que este procedimiento consiste en esencia, en la
aplicación repetida de una operación geométrica básica denominada proyección ortogonal.
generado por {v1 , . . . , vn−1 } tiene dimensión n − 1, tenemos que S tiene una base ortogonal,
digamos {v10 , . . . , v0n−1 }. Sea:
n −1 h v 0 , v i
n
v0n = vn − ∑ i0 0 vi0 .
i =1
h v i ii
, v
Demostraremos que β0 = {v10 , . . . , v0n } es una base ortogonal para V. Claramente β0 genera
a V. Notemos que los vectores v10 , . . . , v0n−1 son ortogonales y no nulos, ya que forman una
base ortogonal para S. Además, v0n es no nulo ya que si v0n = 0, entonces vn sería combinación
lineal de los vectores v10 , . . . , v0n−1 y en consecuencia, vn sería combinación lineal de los vectores
v1 , . . . , vn−1 lo cual contradice que β sea una base para V. Basta demostrar entonces que v0n es
ortogonal con v0j para j = 1, . . . , n − 1. En efecto:
* +
n −1 h v 0 , v i
n
hv0j , v0n i = v0j , vn − ∑ i0 0 vi0
i =1
h vi , vi i
n −1 hvi0 , vn i 0 0
= hv0j , vn i − ∑ hv , v i
hvi0 , vi0 i j i
i =1
hv0j , vn i
= hv0j , vn i − 0 0 hv0j , v0j i
hv j , v j i
= hv0j , vn i − hv0j , vn i
= 0,
ya que en la sumatoria de la segunda igualdad, hv0j , vi0 i = 0 si i 6= j. En consecuencia, β0 es
un conjunto ortogonal de vectores no nulos y por el Teorema 3.2.3 también es linealmente
independiente. Por lo tanto, β0 es una base ortogonal para V.
Corolario 3.2.20
Todo espacio producto interno de dimensión finita tiene una base ortonormal.
Demostración. Sea {v1 , . . . , vn } una base para el espacio producto interno de dimensión finita
V. Por el Teorema
0 3.2.19, existen vectores ortogonales v10 , . . . , v0n que forman una base para V.
0 0 0
Por lo tanto, v1 /kv1 k, . . . , vn /kvn k es una base ortonormal para V.
Ejemplo 3.2.21
Calcule
bases ortogonales
para los subespacios nulo y renglón de la matriz A =
1 3 3 2
2 6 9 5.
−1 −3 3 0
Solución. De acuerdo con las técnicas desarrolladas en la sección 1.4 para el cálculo de los
subespacios fundamentales de una matriz, tenemos:
D E
N ( A) = { x ∈ R4 | Ax = 0} = (−3, 1, 0, 0) T , (3, 0, 1, −3) T ,
D E
R( A T ) = { x ∈ R4 | x = A T y para algún y ∈ R3 } = (1, 3, 3, 2) T , (0, 0, 3, 1) T .
v10 = v1 ,
3 −3 3
h v 0 , v2 i 0 −9 1 1
9
v20 = v2 − 10 0 v10 =
1 − 10 0 = 10 10 .
h v1 , v1 i
−3 0 −30
w10 = w1 ,
−11
hw10 , w2 i 1
−33 .
w20 = w2 −
=
hw10 , w10 i 23 36
1
El conjunto {(1, 3, 3, 2) T , (−11, −33, 36, 1) T } es una base ortogonal para el espacio ren-
glón de A.
Observe que los vectores v10 , v20 , w10 , w20 son ortogonales no nulos y por lo tanto forman una
base de R4 . L
Como consecuencia de esto tenemos que R4 es suma directa de N ( A) y R( A T ):
R4 = N ( A) R( A T ).
1) Considere C3 con el producto interno canónico. Calcule una base ortonormal para el
subespacio h{(−1, 0, i ) T , (3, −1, 1 − i ) T }i de C3 .
2) Sea V un espacio producto interno de dimensión finita y sea β = {v1 , . . . , vn } una
base ortonormal para V. Sea T un operador lineal sobre V y sea A = ( aij ) la matriz
de T en la base β. Pruebe que aij = hvi , T (v j )i.
3.2.4. Descomposición QR
El proceso de Gram-Schmidt puede producir conjuntos ortonormales normalizando los vec-
tores que se van obteniendo durante el proceso. Este es el proceso de Gram-Schmidt modifi-
cado. Para el siguiente teorema K = R o C. Sea A ∈ K m×n una matriz cuyas columnas son
linealmente independientes. La aplicación del proceso de Gram-Schmidt modificado a las co-
lumnas de A produce una factorización denominada descomposición QR.
a1
q1 = , ν1 = k a1 k,
ν1
a2 − h q1 , a2 i q1
q2 = , ν2 = k a2 − hq1 , a2 iq1 k,
ν2
a3 − h q2 , a3 i q2 − h q1 , a3 i q1
q3 = , ν3 = k a3 − hq2 , a3 iq2 − hq1 , a3 iq1 k,
ν3
.. ..
. .
an − ∑nj=−11 hq j , an iq j
n −1
qn = , νn =
an − ∑ hq j , an iq j
.
νn
j =1
Luego, los vectores q1 , q2 , . . . , qn constituyen una base ortonormal para el espacio columna de
A.
Tenemos entonces que:
a1 = ν1 q1 ,
a2 = ν2 q2 + hq1 , a2 iq1 ,
a3 = ν3 q3 + hq2 , a3 iq2 + hq1 , a3 iq1 ,
..
.
n −1
an = νn qn + ∑ hq j , an iq j ,
j =1
ν1 h q1 , a2 i · · · h q1 , a n i
0 ν2 · · · h q2 , a n i
es decir, A = QR donde Q = [q1 | . . . | qn ] y R = . Además, la
.. .. .. ..
. . . .
0 0 ··· νn
matriz R es invertible ya que det R = ν1 ν2 · · · νn y νi > 0 para i = 1, 2, . . . , n.
Teorema 3.2.24
Sean A ∈ Rm×n de rango n y A = QR una factorización QR de A. Suponga que Ax = b
es consistente. Entonces x0 es la solución de Ax = b si y solamente si x0 es la solución
del sistema triangular
Rx = Q T b (3.2)
Ejemplo 3.2.26
Usando
una descomposición
resuelva el sistema Ax = b, donde A =
QR
1 2 5 25
1 −2 −9 −41
1 −2 −3 y b = −11 .
1 2 −1 −5
Observando que las columnas de A son linealmente independientes, encontraremos la
factorización QR de A. Calculando tenemos que:
1 1 1
1 1 , ν1 = 2, q2 = 1 −1 , ν2 = 4, q3 = 1 −1 , ν3 = 6.
q1 =
2 1 2 −1 2 1
1 1 −1
1 1 1
2 2 2
1 2 0 −4
2 − 12 − 21
y R = 0
Luego, A = QR donde Q = 1 4 8 . El sistema
2 − 12 1
2
0 0 6
1 1
2 2 − 21
original es equivalente al sistema Rx = Q T b, es decir:
2 0 −4 x1 −16
0 4 8 x2 = 36 .
0 0 6 x3 30
2) Sea Q ∈ Rm×n tal que las columnas de Q son ortonormales. Demuestre que Q T Q =
In .
Definición 3.2.28.
Teorema 3.2.29
Sea V un espacio producto interno. Sea W un subespacio de V y sea v ∈ V.
h w0 − w1 , w0 − w1 i = h w0 − v + v − w1 , w0 − w1 i
= hw0 − v, w0 − w1 i + hv − w1 , w0 − w1 i
= 0,
x j = v j , v / v j , v j . Note que x j v j , v j = v, v j . Entonces:
hv − w0 , wi = hv, wi − hw0 , wi
* + * +
n n n
= v, ∑ y j v j − ∑ xi vi , ∑ y j v j
j =1 i =1 j =1
n n n
∑ yj v, v j − ∑ ∑ xi y j
= vi , v j
j =1 i =1 j =1
n n
∑ yj ∑ xj yj
= v, v j − vj, vj
j =1 j =1
n n
∑ yj ∑ yj
= v, v j − v, v j = 0.
j =1 j =1
Si cada vector v ∈ V tiene una proyección ortogonal sobre W, llamaremos proyección ortogo-
nal sobre W a la función P : V → V que a cada v ∈ V le asigna su proyección ortogonal sobre
W.
Ejemplo 3.2.30
Sean V el espacio R2 con el producto interno usual y W el subespacio que consiste de
todos los vectores ( x, y) T ∈ R2 tales que x − 2y = 0. Para calcular la proyección ortogo-
nal de v = (1, 3) T sobre el subespacio W, procederemos como sigue. Geométricamente,
la proyección ortogonal será la intersección de W con la recta que es perpendicular a W
que pasa por v: y − 3 = −2( x − 1). La intersección de estas rectas es w0 = (2, 1) T .
y
v = (1, 3)
3
v − w0 ∈ W ⊥
W : x − 2y = 0
1 w0 = (2, 1)
1 2
x
Ejemplo 3.2.31
Sea V = R3 con el producto interno usual y sea W el plano x − y + z = 0. Para calcular la
proyección ortogonal del vector v = (2, −1, 3) T sobre el subespacio W, se deberá calcular
la intersección del plano x − y + z = 0 con la recta perpendicular a ese plano y que pasa
Ejemplo 3.2.32
Sean V, W y v como en el Ejemplo 3.2.30. Calculemos w0 usando el Teorema 3.2.29. El
vector v1 = (2, 1) T es una base ortogonal para W, así que
h v1 , v i 5 2
w0 = v = v = .
h v1 , v1 i 1 5 1 1
Ejemplo 3.2.33
Sean V = R3 , W el plano x − y + z y v = (2, −1, 3) T (Vea el Ejemplo 3.2.31). Se tiene
* + * +
1 −1 1 −1
W = 1 , 0 = w1 = 1 , w2 = 1
0 1 0 2
Ejemplo 3.2.34
Continuemos con el Ejemplo 3.2.30. Usando el Teorema 3.2.29, se calcula la proyección
ortogonal sobre W de cualquier v = ( a, b) T ∈ V. Como v1 = (2, 1) T es una base ortogo-
nal de W,
h v1 , v i 2a + b 2 1 2(2a + b)
Pv = v = = .
h v1 , v1 i 1 5 1 5 2a + b
Se observa que la proyección ortogonal P es una función lineal cuyo núcleo es el com-
plemento ortogonal de W. Un cálculo sencillo muestra que P es una función lineal idem-
Ejemplo 3.2.35
Consideremos el espacio producto interno V = R4 y sea W el subespacio de V generado
por los vectores v1 = (1, 1, 0, 0) T y v2 = (0, 0, 1, 1) T . Calcule la proyección ortogonal
sobre W.
Solución. Observe que {v1 , v2 } es una base ortogonal para W. Calculemos para cada v ∈ R4
su proyección ortogonal sobre W, que de acuerdo al Teorema 3.2.29 existe porque W es de
dimensión finita. Sea v = ( x1 , x2 , x3 , x4 ) T . Entonces:
h v1 , v i h v2 , v i
P(v) = v + v
h v1 , v1 i 1 h v2 , v2 i 2
x + x2 x3 + x4
= 1 v1 + v2
2 2
1
= ( x1 + x2 x1 + x2 x3 + x4 x3 + x4 ) T .
2
Note que en este caso, P resultó ser una función lineal. Esto siempre es así y lo probaremos
más adelante.
Teorema 3.2.36
Sean V un espacio producto interno y W un subespacio de V de dimensión finita. En-
tonces:
W⊥.
M
V=W
Corolario 3.2.37
Sea V un espacio producto interno de dimensión finita. Sea W un subespacio de V. En-
tonces:
2) (W ⊥ )⊥ = W.
Demostración. 1) Como L
V tiene dimensión finita, entonces W tambén y según el Teorema 3.2.36
tenemos que V = W W ⊥ . Se sigue entonces que dim V = dim W + dim W ⊥ .
2) Demostraremos primero que W ⊂ (W ⊥ )⊥ . Sean w ∈ W y s ∈ W ⊥ . Entonces, hs, ui = 0
para todo u ∈ W, en particular hs, wi = 0, de modo que w ∈ (W ⊥ )⊥ . Así, W ⊂ (W ⊥ )⊥ . De-
mostraremos que dim W = dim(W ⊥ )⊥ . Como V tiene dimensión finita y W, W ⊥ son subes-
pacios de V, por lo demostrado en 1 se sigue que dim V = dim W + dim W ⊥ y dim V =
dim W ⊥ + dim(W ⊥ )⊥ , es decir dim W + dim W ⊥ = dim W ⊥ + dim(W ⊥ )⊥ . De aquí se si-
gue que dim W = dim(W ⊥ )⊥ y por lo tanto, W = (W ⊥ )⊥ .
Teorema 3.2.38
Si W es un subespacio de dimensión finita de un espacio producto interno V, entonces:
1) La proyección ortogonal de V sobre W siempre existe y es una función lineal idem-
potente cuyo núcleo es W ⊥ .
donde xk = hvk , vi/hvk , vk i. Como kvk2 = kv − P(v) + P(v)k2 = kv − P(v)k2 + k P(v)k2 (¿por
qué?), se sigue que k P(v)k2 ≤ kvk2 . Pero:
* +
n n
k P(v)k2 = h P(v), P(v)i = ∑ xk vk , ∑ x j v j
k =1 j =1
* + !
n n n n
= ∑ x̄k vk , ∑ x j v j = ∑ x̄k ∑ x j hvk , v j i
k =1 j =1 k =1 j =1
n n
= ∑ x̄k xk hvk , vk i = ∑ |xk |2 hvk , vk i
k =1 k =1
n n
|hvk , vi|2 |hvk , vi|2
= ∑ 4
k v k k 2
= ∑ ,
k =1
kvk k k =1
hvk , vk i
n
|hvk , vi|2
de modo que ∑ hvk , vk i
≤ k v k2 .
k =1
W = { x ∈ R3 | x1 + 2x2 + x3 = 0}.
11) a) Construya una base ortogonal de R[t]3 con respecto al producto interno:
Z 1
h f , gi = f (t) g(t)dt,
−1
2n − 1 n−1
Ln (t) = tLn−1 (t) − L n −2 ( t )
n n
para toda n ≥ 2.
13) Pruebe que si A ∈ Rm×n es de rango n, entonces la factorización A = QR, donde Q ∈ Rm×n
tiene columnas ortogonales yR ∈ Rn×n es triangular superior con entradas positivas en la
diagonal, es única.
14) Sea V un espacio producto interno de dimensión finita. Sea W un subespacio de V de di-
mensión r. Pruebe que V es la suma directa de W y W ⊥ y que la dimensión de W ⊥ es n − r.
(Sugerencia: los casos W = {0} o W = V son inmediatos. Sea {w1 , . . . , wr } una base orto-
normal para W. Complete esta base hasta obtener una base ortonormal para V y proceda
por cuenta propia).
17) Sean U y W subespacios de un espacio producto interno de dimensión finita V. Pruebe que
(U ∩ W ) ⊥ = U ⊥ + W ⊥ .
18) Sea V el espacio de las matrices Cn×n con el producto interno h A, Bi = tr( A∗ B). Calcule el
complemento ortogonal del subespacio de V de todas las matrices diagonales.
19) Si U y W son subespacios de dimensión finita de un espacio producto interno V tales que
U ⊥ = W ⊥ , pruebe que U = W.
20) Sea V el espacio de todas las matrices simétricas reales de n × n. El producto h A, Bi =
tr( AB) es un producto interno. Calcule la dimensión del complemento ortogonal del subes-
pacio W de V que consta de todas las matrices A tales que tr( A) = 0.
Z 1
21) Sea V = R[ x ]2 con el producto interno h f , gi = f ( x ) g( x )dx. Encuentre la mejor aproxi-
0
mación a f = x2 + 1 por vectores del subespacio W = h1, x i.
22) Sea A ∈ Rm×n de rango r. Suponga que las columnas de la matriz Q ∈ Rm×r forman una
base ortonormal del espacio columna de A. Pruebe que para cada y ∈ Rm , QQ T y es la
proyección ortogonal de y sobre el espacio columna de A.
23) Sea A ∈ Rm×n de rango n y A = QR una factorización QR de A. Pruebe que para cada
y ∈ Rm , QQ T y es la proyección ortogonal de y sobre el espacio columna de A.
24) Sea V el espacio producto interno que consta de R2 y el producto interno cuya forma cua-
drática está definida por k x k2 = ( x1 − x2 )2 + 2x22 . Sea E la proyección ortogonal de V sobre
el subespacio W generado por 3e1 + 4e2 . Calcule:
a) Una fórmula para E( x ).
b) La matriz de E en la base canónica de R2 .
1 0
c) Una base ortonormal en que E está representada por la matriz .
0 0
25) Complete las siguientes afirmaciones. En cada caso justifique su respuesta.
a) Si Ax = b es consistente y A T y = 0, entonces y es ortogonal a:
b) Si Ax = b es inconsistente y A T y = 0, entonces y no es ortogonal a:
26) Sean A ∈ Rm×n y x ∈ Rn . Pruebe que si Ax está en el espacio nulo izquierdo de A, entonces
Ax = 0.
n o
27) Si S = (1, −1, 1) T , (2, 0, 2) T , encuentre una matriz real A tal que S⊥ = N ( A).
28) Sea A ∈ Rm×n una matriz de rango n. Pruebe que para cada b ∈ Rm , A( A T A)−1 A T b es la
proyección ortogonal de b sobre el espacio columna de A.
1 0
29) Sea A = −1 −1 . Encuentre la proyección ortogonal de cada b ∈ R3 sobre el espacio
1 2
columna de A.
30) Considere el espacio vectorial de los polinomios con coeficientes reales en la variable t, R[t],
con el producto interno:
h p(t), q(t)i = ∑ ai bi ,
i
ti
donde p(t) = ∑i ai y q(t) = ∑i bi ti .
Sea:
S = {1 − t, t − t2 , t2 − t3 , . . . , t j − t j+1 , . . .}.
a) Demuestre que hSi 6= R[t]. (Sugerencia: 1 6∈ hSi).
31) Si V es un espacio vectorial, una proyección de V es un operador lineal E sobre V tal que
E2 = E. Suponga que V es un espacio producto interno y sea W un subespacio de V de
dimensión finita. Existen (en general) muchas proyecciones que tienen a W como imagen.
Una de éstas, P, la proyección ortogonal sobre W, tiene la propiedad de que k P(v)k ≤ kvk
para todo v ∈ V (véase la demostración de la desigualdad de Bessel). Demuestre que si E
es una proyección con imagen W tal que k E(v)k ≤ kvk para todo v ∈ V, entonces E es la
proyección ortogonal sobre W.
Av = λv.
Otros nombres usados para un valor propio son autovalor, valor espectral o valor carac-
terística; algunos sinónimos de vector propio son autovector, vector espectral o vector carac-
terístico. Con frecuencia se usan términos eigenvalor y eigenvector, aunque esto no es correcto
desde el punto de vista del idioma Español, pues la palabra eigen no pertenece al Español. De
hecho, eigen es una palabra alemana, que significa propio de o característico de.
Ejemplo 4.1.2
3 2
Considere la matriz A = . El número λ = 4 es un valor propio y v = (2, 1) es
3 −2
117
4. Teoría Espectral
De esta manera (4, (2, 1)) es un par propio. Hay más de un vector propio asociado con
el valor propio λ = 4, de hecho (4, 2) es otro vector propio. De hecho, si c 6= 0, entonces
cv es un vector propio, pues A(cv) = c( Av) = c(λv) = λ(cv).
Ejemplo 4.1.3
0 1 1
Considere ahora la matriz A = 1 0 1. Los números λ1 = 2 y λ2 = −1 son valores
1 1 0
propios. Por un lado,
0 1 1 1 2 1
1 0 1 1 = 2 = 2 1 .
1 1 0 1 2 1
Se deja al lector verificar que (7, 3, −10) también es un vector propio asociado al valor
propio λ = −1.
Ejemplo 4.1.4
Sean v1 = (2, 3) y v2 = (−1, 4) vectores propios de A correspondientes a λ1 = −2 y
λ2 = 5. Determine el valor de A(2v1 − 7v2 ) y A(6v2 ).
Solución. Se tiene que Av1 = −2v1 y Av2 = 5v2 . Por lo tanto,
1) Determine cuáles de los vectores v1 = (−2, −1), v2 = (1, 0) y v3 = (3, 1) son vectores
Para calcular los valores propios de una matriz se requiere del siguiente resultado.
Teorema 4.1.6
Sea A un matriz. Las siguientes afirmaciones sobre el número λ son equivalentes.
1) λ es un valor propio de A.
2) N ( A − λI ) 6= {0}.
3) A − λI no es invertible.
4) det( A − λI ) = 0.
Demostración.
λ ∈ σ ( A) ⇐⇒ ∃ v 6= 0, Av = λv
⇐⇒ ∃ v 6= 0, Av − λv = 0
⇐⇒ ∃ v 6= 0, Av − λIv = 0
⇐⇒ ∃ v 6= 0, ( A − λI )v = 0
⇐⇒ N ( A − λI ) 6= {0}
⇐⇒ A − λI no es invertible
⇐⇒ det( A − λI ) = 0.
Ejemplo 4.1.7
Calcule todos los valores propios de la matriz del Ejemplo 4.1.3.
Solución. Se debe resolver la ecuación
−λ 1 1
p(λ) = det( A − λI ) = 1 −λ 1 = 0.
1 1 −λ
El desarrollo del determinante nos lleva a que p(λ) = −λ3 + 3λ + 2 = −(λ + 1)2 (λ − 2).
Los únicos valores que satisfacen det( A − λI ) = 0 son λ = 2 y λ = −1. El valor λ = −1
aparece repetido dos veces.
Teorema 4.1.8
Sea A una matriz de n × n. Entonces:
1) p(λ) = det( A − λI ) es un polinomio de grado n en la variable λ.
2) El coeficiente de λn es (−1)n .
Ejemplo 4.1.9
Sea A una matriz de 2 × 2 tal que tr( A) = −5 y det( A) = −84. Calcule los valores
propios de A.
Ejemplo 4.1.10
Sea A una matriz de 4 × 4 cuyos valores propios son λ1 = 3, λ2 = −1, λ3 = −1 y λ4 = 2.
Calcule la traza y el determinante de A.
Solución. De acuerdo con 4.1.8, p(λ) es polinomio de grado cuatro cuyo coeficiente
principal es (−1)4 , el coeficiente de λ3 es (−1)3 tr( A) y el término constante es det A.
Por lo tanto,
Se tiene la igualdad:
La traza de A es 3 y el determinante de A es 6.
Teorema 4.1.11
Si A es una matriz de n × n y λ1 , . . . , λn son todos los valores propios de A, entonces
det A = λ1 λ2 · · · λn ,
tr( A) = λ1 + λ2 + · · · + λn .
− tr( A) = −(λ1 + λ2 + · · · + λn ,
(−1) det( A) = (−1)n λ1 λ2 · · · λn ,
n
p A (λ) = det( A − λI ).
La ecuación característica de A es
det( A − λI ) = 0.
Eλ = N ( A − λI ) = { x : Ax = λx } .
Observación 4.1.13
Note que el espacio propio es un subespacio (es un espacio nulo) y que todos los vectores
de N ( A − λI ), exceptuando al vector cero, son vectores propios de A que corresponden
al mismo valor propio.
Ejemplo 4.1.14
5 3
Considere la matriz A = .
−6 −4
1) Calcule los valores propios.
2) Determine la multiplicidad algebraica de cada valor propio.
Los vectores propios que corresponden a 2 son de la forma c(−1, 1), con c 6= 0 y una base
para N ( A − 2I ) es (−1, 1). La multiplicidad algebraica de λ = 2 es dim N ( A − 2I ) = 1.
De manera similar, para λ = −1:
3 FERR 1 21
6 1 1
A+I = −−−→ =⇒ x1 + x2 = 0. =⇒ x1 = − x2
−6 −3 0 0 2 2
1
−2
N( A + I) = c :c∈R .
1
Ejemplo 4.1.15
1 −1 1
Calcule todos los valores propios de la matriz A = −1 1 2. Determine las mul-
2 2 −1
tiplicidades algebraica y geométrica de los valores propios.
Solución. El polinomio característico de A es
1 − λ −1 1
2 = −λ3 + λ2 + 8λ − 12
p A (λ) = det( A − λI ) = −1 1−λ
2 2 −1 − λ
−(λ3 − λ2 − 8λ + 12) = 0.
Como esta ecuación tiene coeficientes enteros, para encontrar las soluciones racionales, si
las tiene, se puede aplicar el teorema de las raíces racionales. Las posibles raíces serían los
divisores de 12, es decir, ±1, ±2, ±3, ±4, ±6, ±12. Como p A (2) = 0, se sigue que λ = 2
es un valor propio; se sigue que p A (λ) = −(λ − 2)(λ2 + λ − 6) = −(λ − 2)2 (λ + 3).
Todos los valores propios de A son λ = 2 y λ = −3. Como λ = 2 aparece dos veces
como raíz del polinomio característico, su multiplicidad algebraica es 2.
Para λ = 2 se tiene
−1 −1 1 1 1 0
FERR x + x2 = 0
A − 2I = −1 −1 2 −−−→ 0 0 1 =⇒ 1
x3 = 0
2 2 −3 0 0 0
1 0 25
4 −1 1
FERR x + 2x = 0
A + 3I = −1 4 2 −−−→ 0 1 35 =⇒ 1 35 3
x2 + 5 x3 = 0
2 2 2 0 0 0
Ejemplo 4.1.16
Calcule las multiplicidades algebraica y geométrica de cada valor propio de la matriz
2 1 0 0
0 2 0 0
0 0 2 1.
0 0 0 2
Solución. Se procede primero a calcular los valores propios de A resolviendo le ecua-
ción característica
2 − λ 1 0 0
0 2−λ 0 0
0 = = (2 − λ )4
0 0 2−λ 1
0 0 0 2 − λ
Ejemplo 4.1.17
Sea A una matriz de 3 × 3 tal que tr( A) = 3, det( A) = −40 y Av = 2v para cierto vector
0 6= v. Encuentre todos los valores propios de A.
Solución. El polinomio característico es
Ejemplo 4.1.18
0 −1
El polinomio característico de la matriz A = es λ2 + 1. Si uno se restringe
1 0
a trabajar con números reales, se concluiría que esta matriz no tiene valores propios
(reales) ni vectores propios (reales). Si consideramos números complejos, entonces los
valores propios de A son i y −i. Un cálculo sencillo muestra que N ( A − iI ) = {c(i, 1) :
c ∈ C} y N ( A + iI ) = {c(i, −1) : c ∈ C}.
Teorema 4.1.19
Toda matriz compleja A ∈ Cn×n tiene exactamente n valores propios. Cada valor propio
tiene al menos un vector propio.
1) Para cada cada una de las siguientes matrices, calcule los valores propios, bases pa-
ra los espacios propios y las multiplicidades algebraica y geométrica de cada valor
propio.
2 0 0
1 2
, −1 4 0 .
5 −2
−3 6 2
2) Sea P una matriz invertible y suponga que A y B son matrices tales que A = PBP−1 .
Pruebe que A y B tienen exactamente el mismo polinomio característico.
3) Pruebe que λ = 0 es un valor propio de la matriz A si y sólo si A no es invertible.
Teorema 4.1.21
Sea A ∈ Cn×n . La multiplicidad geométrica de un valor propio de A es menor o igual
que su multiplicidad algebraica.
cios propios?
11) Sea λ un valor propio de una matriz A, y k un escalar. Pruebe que:
a) kλ es un valor propio de la matriz kA.
b) Si r es un entero positivo, entonces λr es un valor propio de la matriz Ar .
c) Si A es invertible, entonces λ−1 es un valor propio de A−1 .
d) λ + k es un valor propio de la matriz A + kI.
Si T es un operador lineal sobre un espacio de dimensión finita y λ es un valor propio de T,
¿siguen siendo válidos los resultados a)-d)?
12) Sea K un campo y f (t) = a0 + a1 t + · · · + am tm . Si A ∈ K n×n , f ( A) representa a la matriz
obtenida sustituyendo ti por Ai , es decir f ( A) = a0 I + a1 A + · · · + am Am . Pruebe que si λ
es un valor propio de A asociado al vector propio x, entonces f (λ) es un valor propio de
f ( A) asociado al vector propio x.
13) Sea A ∈ Cn×n . ¿Cómo se relacionan los valores propios de A y de Ā?
14) Una matriz cuadrada A se denomina nilpotente si An = 0 para algún entero positivo n.
Pruebe que si A ∈ Cn×n es una matriz nilpotente, entonces σ ( A) = {0} .
15) Sea A ∈ Rn×n . Si n es par y det A < 0, pruebe que A tiene al menos dos valores propios
reales.
16) Sea V un espacio real de dimensión 4 y sea T sobre V. Suponga que la
un operador lineal
3 3 0 1
−1 −1 0 −1
matriz de T en la base β = {v1 , v2 , v3 , v4 } es
. Calcule el espectro de T
1 2 1 1
2 4 0 3
y los espacios propios asociados con cada valor propio.
17) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea v = 6v1 + 2v2 + 5v3 ∈ V y x = (2 11 − 7) T ∈ R3 . Suponga que
T (v) = v, que U = {u ∈ V | [u] Tβ x = 0} es un espacio propio y, que la traza de la matriz de
T en la base β es 5. Calcule el espectro de T y la matriz de T en la base β.
18) Sea V un espacio tridimensional real y sea T un operador lineal sobre V. Sea β = {v1 , v2 , v3 }
una base para V. Sea w1 = 4v1 + v2 − v3 ∈ V y x = (1, −2, 1) T ∈ R3 . Suponga que
T (w1 ) = w1 , que U = {u ∈ V | [u] Tβ x = 0} es un espacio propio y, que la traza de la matriz
de T en la base β es −1. Calcule el espectro de T y la matriz de T en la base β.
tr( A) = λ1 + · · · + λn , det( A) = λ1 · · · λn .
20) Calcule el espectro de una matriz compleja de 2 × 2 cuya traza y determinante son 8 y 12,
respectivamente.
22) Sea V el espacio de las funciones continuas de R en R. Sea T el operador lineal sobre V
definido por: Z x
T ( f ( x )) = f (t)dt.
0
23) Demuestre que no existe ninguna matriz de 7 × 7 con entradas números reales no negativos,
cuyos valores propios (contando multiplicidades) sean 6, −5, −5, 1, 1, 1, 1.
4.2. Diagonalización
En diferentes áreas de las Matemáticas, Física, Ingeniería o incluso Biología, el análisis de un
determinado problema puede requerir calcular las potencias de una cierta matriz y determinar
si éstas convergen
a un límite.
Cuando la matriz nes diagonal,
este problema es muy sencillo. Por
λ1 0 λ 0
ejemplo si D = , entonces D n = 1 para todo entero positivo n. Si A no es
0 λ2 0 λ2n
diagonal, pero puede escribir en términos de una matriz diagonal, por ejemplo A = PDP−1 ,
se
1 1
donde P = , entonces:
1 2
Si las sucesiones {λ1n } y {λ2n } de números convergen, digamos lı́m λ1n = 1 y lı́m λ2n = 0, en-
n→∞ n→∞
tonces
2 −1
lı́m An = .
n→∞ 2 −1
Definición 4.2.1.
A = PDP−1 .
La diagonalización de una matriz está directamente relacionado con los valores y vectores
propios. El siguiente ejemplo ilustra la relación entre una matriz diagonalizable y sus valores
y vectores propios.
0 21 − 12
1 −2 2 3 1 −1
= 1 = P1 DP1 .
0 −1 0 3 0 −1 0 3
Se deja al lector verificar que las columnas de P1 también son vectores propios de A.
A continuación se presenta un ejemplo que ilustra que el problema de decidir si una matriz
es diagonalizable o no, conduce a encontrar los valores y vectores propios de A.
Ejemplo 4.2.3
−7 −15
Determine si es posible diagonalizar a la matriz A = .
6 12
a b
Solución. La matriz A es diagonalizable si existe una matriz invertible P = y
c d
λ1 0
una matriz diagonal D = tal que A = PDP−1 . Equivalentemente AP = PD:
0 λ2
−7 −15 a b a b λ1 0 −7a − 15c −7b − 15d aλ1 bλ2
= =⇒ =
6 12 c d c d 0 λ2 6a + 12c 6b + 12d cλ1 dλ2
De manera equivalente,
−7 −15 a a −7 −15 b b
= λ1 y = λ2 .
6 12 c c 6 12 d d
Las columnas de P tienen que ser vectores propios y los elementos en la diagonal de D
deben ser valores propios. El polinomio característico de A es λ2 − 5λ + 6, por lo que los
Definición 4.2.4.
Teorema 4.2.6
Teorema 4.2.9
Sea {λ1 , . . . , λr } un conjunto de valores propios distintos de A ∈ Cn×n (note que r ≤ n).
1) Si {(λ1 , v1 ), . . . , (λr , vr )} es un conjunto de pares propios de A, entonces {v1 , . . . , vr }
es un conjunto linealmente independiente.
0 = A · 0 = A( a1 v1 + a2 v2 ) = a1 Av1 + a2 Av2 = a1 λ1 v1 + a2 λ2 v2 .
0 = λ1 (0) = λ1 ( a1 v1 + a2 v2 ) = a1 λ1 v1 + a2 λ1 v2 .
Ejemplo 4.2.10
Sea A una matriz de 3 × 3 cuyo espectro es {1, −1, 2}. Entonces A es diagonalizable, ya
que si {(1, v1 ), (−1, v2 ), (2, v3 )} es un conjunto de pares propios, entonces {v1 , v2 , v3 } es
linealmente independiente, es decir, es un conjunto completo de vectores propios.
Se generaliza la idea.
Ejemplo 4.2.11
Pruebe que si A es de n × n y tiene n valores propios distintos, entonces A es diagonali-
zable.
Solución. Suponga que λ1 , . . . , λn son los valores propios distintos de A y sea
{(λ1 , v1 ), . . . , (λn , vn )} un conjunto de pares propios de A. Entonces, {v1 , . . . , vn } es un
conjunto linealmente independiente por el teorema anterior, esto es, es un conjunto com-
pleto de vectores propios de A.
Calcule todos los valores propios y todos los espacios propios de A. Determine si A es
diagonalizable. En caso de que lo sea, encuentre su descomposición espectral.
1 2
2) Sea A = . Calcule An para todo entero positivo n. (Sugerencia: Factorice A).
2 1
Definición 4.3.1.
Una matriz A ∈ K n×n es triangulable si existe una matriz invertible P ∈ K n×n tal que
PAP−1 es una matriz triangular (superior o inferior).
Ejemplo 4.3.2
Toda matriz diagonalizable es triangulable.
Ejemplo 4.3.5
13 −9
Hallar una descomposición de Schur de la matriz A = .
16 −11
no tiene norma uno, se toma el vector propio normalizado v = (3/5, 4/5) T y se extiende a la
{(3/5, 4/5) , (4/5, −3/5) } de R . Finalmente se forma
base ortonormal T T 2
la matriz
ortogonal
3 4 1 25
P = 15 y se obtiene la matriz real triangular superior P T AP = .
4 −5 0 1
4) Sea A ∈ C2×2 una matriz unitaria compleja. Pruebe que cada valor propio de A se
puede expresar como eiθ = cos θ + i sen θ para algún θ ∈ R, es decir, cada valor
propio es de norma 1. Generalice el resultado.
5) Encuentre una descomposición de Schur de cada una de las siguientes matrices:
5 4 −4
4 5 2 1+i
4 ,
.
1−i 3
−4 4 5
f ( A ) = a0 A0 + a1 A + · · · + a n A n ,
Definición 4.4.1.
Ejemplo 4.4.2
2 −3
Sean A = y f (t) = −1 + 2t − 3t2 + t3 . Entonces:
1 4
= − I + 2A − 3A2 + A3
f ( A)
1 0 2 −3 1 −18 −16 −75
= − +2 −3 +
0 1 1 4 6 13 25 34
−16 −27
= .
9 2
1 0 2 −3
/ Anul A . Si g(t) = 11 − 6t + t2 , entonces g( A) = 11
Luego, f ∈ −6 +
0 1 1 4
1 −18 0 0
= y g ∈ Anul A .
6 13 0 0
Del ejemplo anterior se observa que, en general, hay más de un elemento en el conjunto
Anul A .
Proposición 4.4.3
Sea A ∈ K n×n . El anulador Anul A es un ideal propio en el anillo de los polinomios K [t].
Más precisamente,
a) 0 ∈ Anul A
b) Si f , g ∈ Anul A , entonces f + g ∈ Anul A .
Teorema 4.4.4
Sea A ∈ K n×n . Hay exactamente un polinomio mónico no constante de grado mínimo
que anula a A.
al menos un polinomio polinomio no nulo y no constante. El principio del buen orden ga-
rantiza la existencia en Anul A de un polinomio no nulo y no constante de grado mínimo. Si
f (t) = a0 + a1 t + · · · + am tm es un polinomio en Anul A de grado mínimo y am 6= 0, entonces
a− 1
m f ( t ) es un polinomio mónico del mismo grado que f ( t ) que también anula a A. En con-
clusión, existen polinomios mónicos de grado mínimo que anulan a A. Denotaremos con ∂ f al
grado del polinomio f (t).
Sean ahora, m(t) y p(t) dos polinomios mónicos en Anul A de grado mínimo. Por el algorit-
mo de la división, existen polinomios q(t) y r (t) tales que p(t) = m(t)q(t) + r (t) donde r = 0 o
∂r < ∂m. Como m(t) ∈ Anul A , tenemos que m(t)q(t) ∈ Anul A y como p(t) ∈ Anul A , tenemos
que r (t) = p(t) − m(t)q(t) ∈ Anul A . Luego, no es posible que ∂r < ∂m, pues p(t) es un poli-
nomio de grado mínimo. Entonces, r (t) = 0 y p(t) = m(t)q(t). Como deg p = deg m, se sigue
que deg q = 0. Esto implica que q(t) es un polinomio constante. Comparando los coeficientes
en la igualdad p(t) = m(t)q(t), se sigue que q(t) = 1 (ya que m(t) y p(t) son mónicos y q(t) es
constante).
Estamos ya en condiciones de definir el polinomio mínimo de una matriz.
Sea A ∈ K n×n . El polinomio mínimo de A es el único polinomio m(t) que satisface las
siguientes condiciones:
1) m(t) es un polinomio mónico.
2) m( A) = 0.
3) Si f (t) es un polinomio no nulo tal que f ( A) = 0, entonces ∂m ≤ ∂ f .
Teorema 4.4.6
Si A, B ∈ K n×n son matrices semejantes, entonces el polinomio mínimo de A coincide
con el polinomio mínimo de B.
Teorema 4.4.7
Sea A ∈ K n×n . El polinomio mínimo y el polinomio característico de A tienen exacta-
mente las mismas raíces, salvo multiplicidades.
m ( A ) x = ( a 0 + a 1 A + · · · + a n −1 A n −1 + A n ) x
= a0 x + a1 Ax + · · · + an−1 An−1 x + An x
= a0 x + a1 λx + · · · + an−1 λn−1 x + λn x
= m(λ) x.
Corolario 4.4.8
Sean A ∈ Cn×n , λ ∈ C y m(t) el polinomio mínimo de A. Entonces, t − λ es factor de
m(t) si y sólo si λ es un valor propio de A.
es de tamaño mi × mi . (En caso de que las columnas de T no estén ordenadas de esta manera,
podemos elegir una matriz permutación P que las ordene en la forma deseada). De aquí vemos
U ∗ ( A − λ i I ) m i U = (U ∗ ( A − λ i I )U ) (U ∗ ( A − λ i I )U ) · · · (U ∗ ( A − λ i I )U )
= (U ∗ AU − λi I ) (U ∗ AU − λi I ) · · · (U ∗ AU − λi I )
= ( T − λi I )( T − λi I ) · · · ( T − λi I )
= ( T − λ i I ) mi .
U ∗ p ( A )U = U ∗ ( A − λ 1 I ) m1 ( A − λ 2 I ) m2 · · · ( A − λ r I ) mr U
= (U ∗ ( A − λ1 I )m1 U )(U ∗ ( A − λ2 I )m2 U )U ∗ · · · U (U ∗ ( A − λr I )mr U )
= ( T − λ 1 I ) m1 ( T − λ 2 I ) m2 · · · ( T − λ r I ) mr .
Corolario 4.4.10
Sea A ∈ Cn×n . Si f (t) ∈ C[t] es un polinomio tal que f ( A) = 0, entonces el polinomio
mínimo de A divide a f (t). En particular, el polinomio mínimo de A divide al polinomio
característico de A.
Ejemplo 4.4.11
2 0 0
Calcular el polinomio mínimo m(t) de la matriz A = 0 4 0.
1 0 2
Solución. El polinomio característico de A es p(t) = −(t − 2)2 (t − 4). Puesto que m(t) y
p(t) tienen exactamente las mismas raíces y m(t) divide a p(t), los candidatos a ser poli-
nomio mínimo de A son (t − 2)( 2
t − 4) y (t− 2) (t − 4). Al evaluar en la matriz A se ob-
0 0 0
tiene que ( A − 2I )( A − 4I ) = 0 0 0 y que ( A − 2I )2 ( A − 4I ) = 0. Por lo tanto,
−2 0 0
2
m ( t ) = ( t − 2) ( t − 4).
Ejemplo 4.4.12
2 0 0
Calcular el polinomio mínimo de la matriz A = 0 2 0 .
1 0 4
Solución. El polinomio característico de A es −(t − 2)2 (t − 4). En virtud del Teorema 4.4.7, los
candidatos a polinomio mínimo son (t − 2)(t − 4), (t − 2)2 (t − 4). Se observa que ( A − 2I )( A −
4I ) = 0, y de donde se concluye que el polinomio mínimo de A es (t − 2)(t − 4).
Corolario 4.4.13
Una matriz A ∈ Cn×n es diagonalizable si y solo si su polinomio mínimo es un producto
de factores lineales distintos.
( A − λ1 I ) · · · ( A − λ k I )
10) Sean A y B matrices de n × n sobre el campo K. Por un ejercicio de una sección anterior,
se sabe que las matrices AB y BA tienen los mismos valores propios. ¿Tienen también el
mismo polinomio característico? ¿Tienen también el mismo polinomio mínimo?
145
A. Campos
Definición A.1.1.
+: K × K → K ·: K × K → K
( x, y) 7→ x + y, ( x, y) 7→ x · y
llamadas respectivamente suma y multiplicación las cuales satisfacen:
1) (K, +) es un grupo abeliano. Es decir,
a) La suma es conmutativa: x + y = y + x para todo x, y ∈ K.
b) La suma es asociativa: ( x + y) + z = x + (y + z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la suma: Existe un elemento 0 ∈ K tal que x + 0 =
x para todo x ∈ K.
d) Existen los inversos aditivos: Dado x ∈ K, existe un y ∈ K tal que x + y = 0.
2) (K − {0}, ·) es un grupo abeliano:
a) La multiplicación es conmutativa: x · y = y · x para todo x, y ∈ K.
b) La multiplicación es asociativa: ( x · y) · z = x · (y · z) para todo x, y, z ∈ K.
c) Existe un elemento neutro para la multiplicación: Existe un elemento 1 ∈ K tal que
x · 1 = x para todo x ∈ K.
d) Existen los inversos multiplicativos: Dado x ∈ K \ {0}, existe un y ∈ K tal que
x·y = 1
3) La multiplicación se distribuye sobre la suma: x · (y + z) = x · y + x · z para todo
x, y, z ∈ K.
Los elementos de K se denominan escalares.
Tanto el neutro aditivo como el multiplicativo son únicos. Por ejemplo, si 0 y 00 son dos
neutros aditivos, 0 = 0 + 00 = 00 + 0 = 00 . Usualmente escribiremos xy en vez de x · y. También
los inversos aditivo y multiplicativo son únicos. Si y, y0 dos inversos aditivos para el elemento
x, se tiene y = y + 0 = y + ( x + y0 ) = (y + x ) + y0 = 0 + y0 = y0 . El inverso aditivo de x ∈ K se
denota por − x. El inverso multiplicativo de x ∈ K se denota por x −1 .
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos
de un campo K, escribiremos x − y en vez de x + (−y), También se acostumbra escribir yx en vez
de xy−1 . Si 0 6= x ∈ K, y n es un entero positivo, nx denota la suma x + · · · + x (n sumandos)
y x n denota el producto a · · · a (n factores). Si n es negativo, nx denota (−n)(− x ) y x n denota
( x −1 )−n . Finalmente, 0x = 0 y x0 = 1.
Ejemplo A.1.2
El anillo de los enteros Z no es campo. Por ejemplo, no existe ningún entero y tal que
3y = 1.
Ejemplo A.1.3
Con las operaciones usuales de suma y multiplicación de números complejos, cada uno
de los siguientes subconjuntos de C es un campo:
1) Los números racionales Q.
2) Los números reales R.
3) Los números complejos C.
√ √
4) El conjunto Q( 2) = { a + b 2 | a, b ∈ Q}.
Probablemente
√ los tres primeros ejemplos son familiares al lector. Veamos que K =
Q( 2) es un campo. K es cerrado bajo la suma y la multiplicación:
√ √ √
( a + b 2) + (c + d 2) = ( a + c) + (b + d) 2,
√ √ √
( a + b 2)(c + d 2) = ( ac + 2bd) + ( ad + bc) 2.
√ √
+ b 2 ∈ K es − a − b 2 y pertenece a K. El inverso multiplicativo
√ aditivo de a√
El inverso
de a + b 2 ∈ K, a + b 2 6= 0, también es un elemento de K:
√ √
1 1 a−b 2 a−b 2 a b √
√ = √ √ = 2 2
= 2 2
− 2 2
2.
a+b 2 a+b 2a−b 2 a − 2b a − 2b a − 2b
Ejemplo A.1.4
Sea p > 0 un número primo. El conjunto F p = {0, 1, . . . , p − 1} de los enteros módulo p
es un campo con las operaciones de suma y multiplicación módulo p, es decir, a + b = c
en F p si a + b ≡ c mód p y ab = c en F p si ab ≡ c mód p. Si p = 5, F p = {0, 1, 2, 3, 4} y
+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
Ejemplo A.1.5
Sea F = {0, 1, α, β} junto con las operaciones de suma y multiplicación dadas por
+ 0 1 α β · 0 1 α β
0 0 1 α β 0 0 0 0 0
1 1 0 β α 1 0 1 α β
α α β 0 1 α 0 α β 1
β β α 1 0 β 0 β 1 α
Ejemplo A.1.6
Sea K un campo y t una variable. Sea K [t] conjunto de todos los polinomios en la variable
t con coeficientes en K. El conjunto
a(t)
K (t) = | a ( t ), b ( t ) ∈ K [ t ], b ( t ) 6 = 0
b(t)
Proposición A.1.7
Si K es un campo, entonces:
a) Si K es un campo, son válidas las leyes de cancelación para la suma y la multipli-
cación:
i) Si x + y = x + z, entonces y = z.
ii) Si xy = xz, con x 6= 0, entonces y = z.
b) −(− x ) = x.
c) Si x 6= 0, ( x −1 )−1 = x.
d) 0a = 0.
e) Si xy = 0, entonces x = 0 o y = 0.
f) (− x )y = −( xy) = x (−y).
g) (− x )(−y) = xy.
Demostración. Si x, y, z ∈ K y x + y = x + z, entonces:
y = y + 0 = y + ( x + (− x )) = (y + x ) + (− x )
= (y + x ) + (− x ) = y + ( x + (− x )) = z + 0 = z.
La segunda parte del inciso a) es similar. Como:
(− x ) + x = 0 = (− x ) + (−(− x )),
se sigue que x = −(− x ). La prueba de c) es similar. Observe que:
0 + 0a = 0a = (0 + 0) a = 0a + 0a.
Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x 6= 0. Entonces:
0 = x −1 0 = x −1 ( xy) = ( xx −1 )y = 1y = y.
(− x )y + xy = ((− x ) + x )y = 0y = 0.
Luego −( xy) = (− x )y. De manera análoga se prueba que −( xy) = x (−y). La prueba del inciso
g) se deja al lector.
Definición A.2.1.
Proposición A.2.2
La característica de cualquier campo es 0 o es un número primo p.
· · + 1})(1| + ·{z
( a · 1)(b · 1) = (1| + ·{z · · + 1}) = (1| + ·{z
· · + 1}) = ( ab) · 1 = n · 1 = 0.
a veces b veces ab veces
Esto es una contradicción, pues en un campo, el producto de cualesquiera dos elementos dis-
tintos de cero no es cero. Luego n = 0, o n es un número primo.
Ejemplo A.2.3
El campo del ejemplo A.1.5 es un campo de característica 2.
En este capítulo se introduce la definición de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicación). Se probará que el conjunto de todas las matrices del
mismo tamaño junto con la suma es un grupo abeliano; también se probará que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Se presentan las definiciones de los diferentes tipos de matrices (matriz cuadrada, matriz
diagonal, matriz identidad, matriz triangular superior o inferior, etc). También se introducen
los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz in-
vertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas están
divididas en bloques. Al final del capítulo se estudia brevemente a las matrices elementales y
a las operaciones elementales de matrices.
A menos que se diga lo contrario, a lo largo de este capítulo, K siempre denotará un campo
arbitrario.
En esta sección se introduce la definición de matriz y las definiciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.
Definición B.1.1.
151
B. Matrices
columna j
a11 a12 . . . a1j . . . a1n
a21 a22 . . . a2j . . . a2n
.. .. . . . .. ..
. . . .. . .
A=
ai1 ai2 . . . aij . . . ain renglón i
.. .. .. .. . . .
. ..
. . . .
am1 am2 . . . amj . . . amn
La colección de todas las matrices de m × n se denota por K m×n . Cuando la matriz tiene
una sola columna se llama vector columna y vector renglón si sólo tiene un renglón. Se
denotará con K n al conjunto de todos los vectores columna, es decir K n = K n×1 .
Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = ( aij ) para indicar que el elemento en la entrada (i, j) es aij . Si [ A]ij denota al elemento de A
en la posición (i, j), escribimos A = ([ A]ij ). Si A∗1 , . . . , A∗n son las columnas de A, escribimos:
A = [ A ∗1 | . . . | A ∗ n ].
Am∗
donde A1∗ , . . . , Am∗ son los renglones de A.
Ejemplo B.1.2
Sea K el campo de los números complejos. Las siguientes son matrices de 2 × 3, 2 × 2,
1 × 3 y 3 × 1, respectivamente.
10
3 −2 √ i 1 3
A= , B= , C = 1 −1 3 , D = 1 − i .
7 −1 −2 1 + 2i 3
3i
Este símbolo es útil para definir por ejemplo a la matriz de 3 × 3 que en las posiciones (i, i ) es
igual a 1 y es igual a 0 en cualquier otra posición:
δ11 δ12 δ13 1 0 0
I = (δij )3×3 = δ21 δ22 δ23 = 0 1 0 .
δ31 δ32 δ33 0 0 1
Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.
Definición B.1.3.
Ejemplo B.1.4
Sea K el campo de los números reales. Las matrices:
0 0 0
3 √0
D1 = , D2 = 0 −1 0 ,
0 2
0 0 −4
son matrices diagonales. Note que una matriz diagonal, es simultánenamente una matriz
triangular inferior y superior. Las siguientes matrices son triangulares.
3 −1 7 3 0 0
U = 0 −1 4 , L = 2 −1 0 .
0 0 2 1 1 1
Observación B.2.2
Si las matrices A y B son de diferente tamaño, la suma no está definida.
Ejemplo B.2.3
Sea K = F5 . Si A, B ∈ K2×3 son las matrices:
2 1 4 3 2 2
A= , B= ,
1 0 3 3 1 2
entonces:
0 3 1
A+B = .
4 1 0
El inverso aditivo de A, es la matriz denotada por − A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = ( aij ), entonces
− A = (− aij ). Esto permite definir la sustracción de la manera usual. Si A y B son matrices del
mismo tamaño, la diferencia A − B se define como la matriz A − B = A + (− B).
Ejemplo B.2.4
1 0 1 −1 0 −1
Si A = 1 −2 −2, entonces − A = −1 2 2.
−1 −1 − 12 1 1 1
2
Definición B.2.5.
Dos matrices A y B son iguales si y solo si A y B son del mismo tamaño y aij = bij para
todo i, j.
Teorema B.2.6
El conjunto K m×n de todas las matrices de m × n junto con la suma de matrices es un
grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A + B = B + A, para A, B ∈ K m×n .
b) La suma es asociativa, es decir, A + ( B + C ) = ( A + B) + C, para A, B, C ∈ K m×n .
Ejemplo B.2.8
−1
3 4
Si A = , entonces:
−1 3 −5
6 −2 8 −3 1 −4 0 0 0
2A = , −1A = , 0A = .
−2 6 −10 1 −3 5 0 0 0
Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
0 0 0 3·0 3·0 3·0 0 0 0
3 = = .
0 0 0 3·0 3·0 3·0 0 0 0
Teorema B.2.9
Sean A, B matrices del mismo tamaño y sean c1 , c2 escalares.
a) c( A + B) = cA + cB.
b) (c1 + c2 ) A = c1 A + c2 A.
c) c1 (c2 A) = (c1 c2 ) A.
d) 1 · A = A.
e) (−1) A = − A.
f) 0A = 0.
g) c0 = 0.
[c( A + B)]ij = c[ A + B]ij = c([ A]ij + [ B]ij ) = c[ A]ij + c[ B]ij = [cA]ij + [cB]ij
= [cA + cB]ij .
Observación B.2.10
El Teorema B.2 junto con las propiedades a)-d) del Teorema B.2 muestran que el conjunto
de las matrices de m × n junto con la suma de matrices y la multiplicación por escalar es
un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian en los cursos
de Álgebra Lineal.
Definición B.3.1.
Note que para poder efectuar la multiplicación de A y B en ese orden, es necesario que el
número de columnas de A sea igual al número de renglones de B. De otra manera el producto
no está definido. Por ejemplo, si
b11 b12 b13 b14
a11 a12 a13
A= y B = b21 b22 b23 b24
a21 a22 a23
b31 b32 b33 b34
el producto de A y B existe ya que el número de columnas de A coincide con el número de
renglones de B y AB será una matriz de 2 × 4. Las entradas (1, 1), (1, 2) y (2, 3) de la matriz AB
son
3
[ AB]11 = ∑ a1k bk1 = a11 b11 + a12 b21 + a13 b31 ,
k =1
3
[ AB]12 = ∑ a1k bk2 = a11 b12 + a12 b22 + a13 b32 ,
k =1
3
[ AB]23 = ∑ a2k bk3 = a21 b13 + a22 b23 + a23 b33 .
k =1
Ejemplo B.3.2
Sea K el campo de los números racionales. Si
1 −2 0 1
0 −2 1
A= y B = −1 1 0 2 ,
1 1 5
1 6 −7 1
entonces
3 4 −7 −3
AB = .
5 29 −35 8
Observamos que el producto AB está definido, pero no BA, pues el número de columnas
de B con coincide con el número de renglones de A. Aún cuando estén definidos AB y
BA, estos no necesariamente son iguales:
3
1 −1 = −1,
4
3 3 −3
1 −1 = .
4 4 −4
También es importante mencionar que las leyes de cancelación no son validas cuando de
matrices se trata. Es decir, AB = AC con A 6= 0 no necesariamente implica que B = C:
1 4 1 1 5 5 2 3 1 1
= = .
3 1 1 1 4 4 4 0 1 1
Observación B.3.3
Es importante recalcar lo discutido en el ejemplo anterior.
Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A2 , AAA = A3 , etc.
Haremos la convención de que A0 = I y A1 = A. Para n ≥ 0, definimos An+1 = A · An .
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.
Teorema B.3.4
Am An = Am+n , ( Am )n = Amn .
Luego A( B + C ) = AB + AC.
c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de
m × n e I es de n × n. Recordando que [ I ]kj = 0 si k 6= j e [ I ]kj = 1 cuando k = j, se tiene
n
[ AI ]ij = ∑ [ A]ik [ I ]kj = [ A]ij .
k =1
Demostración. Que K n×n es un anillo con elemento unitario se sigue del Teorema B.2 y de los
incisos a), b) y c) del Teorema B.3.
Observación B.3.6
Terminamos la sección con algunas definiciones de matrices que tienen propiedades parti-
culares.
Definición B.3.7.
Ejemplo B.3.8
0 −1 2
La matriz A = 0 0 1 es nilpotente ya que
0 0 0
0 0 −1 0 0 0
A2 = 0 0 0 A3 = 0 0 0 .
0 0 0 0 0 0
Ejemplo B.3.9
1 1
La matriz A = es idempotente, ya que:
0 0
2 1 1 1 1 1 1
A = = .
0 0 0 0 0 0
Definición B.4.1.
[ A T ]ij = [ A] ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Ejemplo B.4.2
Sea K el campo de los números complejos. Considere las matrices:
3 − 2i −5 6
1 −1 5
A = 1+i 2 7 , B = .
8 −3 2
1 + 2i 2 − 3i 1
Entonces:
respectivamente.
Ejemplo B.4.3
−2 −1
−2 −1 1
Si A = , entonces A T = −1 1.
−1 1 −4
1 −4
an
A∗T1
A T = ... .
A∗Tn
A 1∗
Si A = ... , entonces A T = [ A1T∗ | . . . | Am
T ]. En cualquier caso, si A = ( a ), entonces A T =
∗ ij
Am∗
( a ji ), es decir
a11 a21 ··· am1
a12 a22 ··· am2
AT = . .. .
.. ..
.. . . .
a1n a2n · · · amn
Teorema B.4.4
a) ( A T ) T = A.
b) ( A + B) T = A T + B T .
c) (cA) T = cA T .
d) ( AB) T = B T A T .
Demostración. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A ∈ K m×n y B ∈ K n×r . Para cualquier 1 ≤ i ≤ m y 1 ≤ j ≤ r,
n n
[( AB)T ]ij = [ AB] ji = ∑ [ A] jk [ B]ki = ∑ [ AT ]kj [ BT ]ik
k =1 k =1
n
= ∑ [ BT ]ik [ AT ]kj = [ BT AT ]ij .
k =1
Definición B.4.5.
Ejemplo B.4.6
Las matrices A y B a continuación
7 2 −1 1 − 2i 3 − 4i 5−i
A = 2 −2 1 , B = 3 − 4i 1+i 3i .
−1 1 −3 5−i 3i −3
es antisimétrica.
Ejemplo B.4.7
Si A es una matriz de m × n, entonces A T A y AA T son matrices simétricas. En efecto:
( A T A)T = A T ( A T )T = A T A.
Definición B.4.8.
Ejemplo B.4.9
3 −1
El producto interno y externo de los vectores x = −1 yy= 5 es:
2 2
−1
x T y = 3 −1 2 5 = 3(−1) + (−1)5 + (2)(2) = −4,
2
−1 −3 15 6
xy T = 5 3 −1 2 = 1 −5 −2 ,
2 −2 10 4
respectivamente.
Definición B.4.10.
Sea K un subcampo del campo de los números complejos. Si A ∈ K m×n , la matriz conju-
gada de A es la matriz A de m × n dada por:
[ A]ij = [ A]ij , 1 ≤ i ≤ m, 1 ≤ j ≤ n.
T
La conjugada transpuesta de A es la matriz A∗ = A = A T , i.e.,
[ A∗ ]ij = [ A] ji , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Ejemplo B.4.11
Se tiene
∗ 2 − 4i 3 2 + 4i 3
2 − 4i 1−i 2
= 1−i 3 + 4i = 1 + i 3 − 4i .
3 3 + 4i 0
2 0 2 0
Teorema B.4.12
a) ( A∗ )∗ = A.
b) ( A + B)∗ = A∗ + B∗ .
c) (cA)∗ = cA∗ .
d) ( AB)∗ = B∗ A∗ .
Definición B.4.13.
Ejemplo B.4.14
Las siguientes matrices son hermitianas:
−1 1+i 3 + 4i 1 2 3
3 2−i 1−i
, 3 2−i , 2 4 5 .
2+i 1
3 − 4i 2+i 5 3 5 2
La matriz
i 5−i 2+i
A = −5 − i −3i 2 + 3i
−2 + i −2 + 3i 4i
Por lo tanto, A = − A∗ .
Definición B.4.15.
Sea A ∈ K m×n .
1) Una inversa izquierda de A es una matriz B ∈ K n×m tal que BA = In .
Se sigue de la definición que cuando una matriz es invertible, su inversa es única. En efecto,
supongamos que A tiene dos inversas, digamos B1 y B2 . Entonces:
B1 = B1 I = B1 ( AB) = ( B1 A) B = IB = B.
Ejemplo B.4.16
Sea K el campo de los números racionales y sea A la matriz:
3 −1 5
A= .
−8 7 4
A tiene al menos dos inversas derechas ya que:
7 1 4 4
3 −1 5 13 8
13
3 = 1 0 = 3 −1 5 134
13
7 .
−8 7 4 13 13 0 1 −8 7 4 13
1
13
1
0 0 13 − 13
Del ejemplo anterior se observa que en general, no es válida la ley de la cancelación para
matrices, es decir, es posible tener XA = YA con A 6= 0 sin que esto implique que X = Y.
Teorema B.4.17
Sean A y B matrices no singulares. Entonces:
a) AB es no singular y ( AB)−1 = B−1 A−1 .
b) A−1 es no singular y ( A−1 )−1 = A.
c) A T es no singular y ( A T )−1 = ( A−1 ) T .
Demostración. a) Como A y B son ambas no singulares, existen sus respectivas inversas A−1 y
B−1 . Entonces:
De manera similar se muestra que ( B−1 A−1 )( AB) = I. Esto prueba que la inversa de AB es
B−1 A−1 , es decir, ( AB)−1 = B−1 A−1 .
b) Por definición AA−1 = A−1 A = I. Se sigue que A−1 es invertible y su inversa es A.
c) Se tiene que ( A−1 ) T A T = ( AA−1 ) T = I T = I. Análogamente se tiene que A T ( A−1 ) T = I.
Así, ( A T )−1 = ( A−1 ) T .
El siguiente corolario es una consecuencia inmediata del inciso a) del Teorema B.4.
Corolario B.4.18
Si A1 , . . . , An son matrices invertibles y del mismo tamaño, entonces A1 · · · An es inver-
−1
tible y ( A1 · · · An )−1 = A− 1
n · · · A1 .
La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo elimi-
nando los renglones primero y tercero y la tercera columna. Finalmente, la última submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
0 0 2 2
A11 A12 ... A1n B11 B12 ... B1p
A21 A22 ... A2n B21 B22 ... B2p
A= . .. , B= .
.. .. .. .. ..
.. . . . .. . . .
Am1 Am2 ... Amn Bn1 Bn2 ... Bnp
En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicación de matrices de esta forma en ocasiones resulta útil, pues simplifica
la notación.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con el manejo de
los subíndices. En lugar de hacer la prueba, ilustraremos la técnica con ejemplos.
Ejemplo B.5.1
Considere las siguientes matrices particionadas como sigue:
−3 4 1 7 8
4 5 0 1 4 A11 A12
A= 5 −1 4 0 0
= ,
A21 A22
6 1 5 0 0
1 1 1
−1 0 1
B11 B12
B= 0
0 3 =
2 −1 B21 B22
2
1 1 −1
Observe que para k = 1, 2 las matrices Aik y Bkj se pueden multiplicar. Entonces
15 −2 10
A11 B11 + A12 B21 A11 B12 + A12 B22 5 7 7
AB = = .
A21 B11 + A22 B21 A21 B12 + A22 B22 6 5 16
5 6 22
Ejemplo B.5.2
Si
3 5 3 0 1 0 2 0
2 1 0 3 0 1 0 3
A= = C 3I2
, B= = I2 D
,
1 0 0 0 I2 0 0 0 1 0 0 I2
0 1 0 1 0 0 0 1
entonces
Ejemplo B.5.3
Sean A ∈ K m×n y B ∈ K n×r . La matriz A es submatriz de sí misma, por lo que podemos
considerarla particionada en un solo bloque. Si B está particionada en columnas, B =
[ B∗1 | . . . | B∗r ], se tiene
Por ejemplo,
1 −1 1 −1
1 −1 −7 −1
AB = A[ B∗1 | B∗2 | B∗3 | B∗4 ] = 0 1 0
−9 1 5
6 −2 1 1
−40 13 −7 −8
= .
20 −1 −3 14
Ejemplo B.5.4
Si A ∈ K m×n se particiona en n columnas [ A∗1 | A∗2 | . . . | A∗n ] y x ∈ K n×1 en n renglones,
tenemos que
x1
x2
Ax = [ A∗1 , A∗2 , . . . , A∗n ] . = A∗1 ( x1 ) + A∗2 ( x2 ) + · · · + A∗n ( xn )
..
xn
= x 1 A ∗1 + x 2 A ∗2 + · · · + x n A ∗ n .
Por ejemplo,
x
−7 1
1 −1 x1 − x2 − 7x3
x2 =
−9 1 5 −9x1 + x2 + 5x3
x3
x1 − x2 −7x3
= + +
−9x1 x2 5x3
1 −1 −7
= x1 + x2 + x3 .
−9 1 5
Definición B.6.1.
La traza de una matriz A = ( aij ) ∈ K n×n se define como la suma de los elementos de la
diagonal principal de A y se denota por tr( A). Esto es,
n
tr( A) = a11 + a22 + · · · + ann = ∑ aii .
i =1
Ejemplo B.6.2
Se tiene
10 −29 0
tr −2 −5 8 = 10 − 5 + 15 = 20.
1 1 15
Ejemplo B.6.3
Sean A = ( aij ) una matriz de 2 × 3 y B = (bij ) una matriz de 3 × 2. Entonces AB es una
matriz de 2 × 2 y BA es una matriz de 3 × 3. De acuerdo con la definición de multiplica-
ción de matrices se tiene
[ AB]11 = a11 b11 + a12 b21 + a13 b31 , [ BA]11 = a11 b11 + a21 b12 ,
[ AB]22 = a21 b12 + a22 b22 + a23 b32 , [ BA]22 = a12 b21 + a22 b22 ,
[ BA]33 = a13 b31 + a23 b32 .
Teorema B.6.4
En particular, se tiene
Ejemplo B.6.5
1 0 0 1 0 0
Si A = ,B = yC = , se tiene ABC = A y BAC = 0. Luego,
0 0 0 0 1 0
tr( ABC ) = 1 y tr( BAC ) = 0.
Definición B.7.1.
Tipo II. Reemplazo de un renglón (columna) de A por algún múltiplo escalar no nulo
de este (esta).
Tipo III. Reemplazo de un renglón (columna) de A por ese renglón (columna) más un
múltiplo escalar no nulo de otro renglón (columna).
Se utiliza la siguiente notación para indicar el tipo de operación elemental de renglón que
se aplico para pasar de la matriz A a la matriz B.
De manera semejante, para indicar el tipo de operación elemental de columna que se usa
para pasar de la matriz A a la matriz B se tiene la siguiente notación:
Ejemplo B.7.2
En cada caso, la matriz B se obtuvo de la matriz A aplicando la operación elemental de
renglón indicada.
A B
3 5 8 4 4 1 7 4
R13
2 1 12 6 −−−−→ 2 1 12 6
4 1 7 4 3 5 8 4
−3 4 −1 R2 (3)
−3 4 −1
−5 7 −11 −−−−→ −15 21 −33
−1 13 −4 −1 13 −4
−1 5 2 3
R21 (−5)
−1 5 2 3
−3 9 5 4 −−−−→ 2 −16 −5 −11
6 −7 8 10 6 −7 8 10
Una matriz que tiene la forma I − uv T , donde u y v son vectores columna de n × 1 tales que
vT u6= 1, se le llama matriz elemental. La condición v T u 6= 1 es para garantizar que una matriz
Así, toda matriz elemental es invertible y su inversa es nuevamente una matriz elemental:
−1 uv T u
I − uv T = I− = I − u0 v T , u0 = , v T u0 6=1.
vT u − 1 vT u − 1
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Definición B.7.3.
Una matriz elemental de Tipo I, II o III es una matriz que se obtiene al aplicar a la matriz
identidad In exactamente una operación elemental de Tipo I, II o III, respectivamente. Eij
denota la matriz elemental que se obtiene al aplicar a In la operación elemental Rij , Ei (c)
denota la matriz elemental que se obtiene al aplicar a la matriz identidad la operación
elemental Ri (c), y Eij (c) denota la matriz elemental que se obtiene al aplicar a la matriz
identidad la operación elemental Rij (c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la forma
I − uv T . Por ejemplo, considere E13 , la matriz elemental de Tipo I que se obtiene de la matriz
identidad intercambiando los renglones 1 y 3. Se observa que
0 0 1 1 0 −1 1
E13 = 0 1 0 = I − 0 0 0 = I − 0 1 0 −1 ,
1 0 0 −1 0 1 −1
es decir, E13 = I − (e1 − e3 )(e1 − e3 ) T , donde e1 , e2 , e3 son los vectores unitarios canónicos.
Por otro lado, observe que
1 0 0 0 0 0 1
E21 (c) = c 1 0 = I + c 1 0 0 = I + c 0 0 1 0 = I + ce1 e2T .
0 0 1 0 0 0 0
Observación B.7.4
Las matrices elementales Eij , Ei (c) y Eij (c) se pueden obtener de la matriz identidad
aplicando operaciones elementales de columna:
Tipo III. La matriz elemental Eij (c) se obtiene aplicando a la matriz identidad la opera-
ción Cji (c), es decir, a la columna j se le suma c veces la columna i.
Ejemplo B.7.5
Sea n = 3. Las matrices elementales E13 , E2 (3) y E21 (−5) son:
0 0 1 1 0 0 1 0 0
E13 = 0 1 0 , E2 (3) = 0 3 0 , E21 (−5) = −5 1 0 ,
1 0 0 0 0 1 0 0 1
αrs = δrs , r 6= i, j, 1 ≤ s ≤ n,
αis = δjs , 1 ≤ s ≤ n,
α js = δis , 1 ≤ s ≤ n.
Si Ei (c) = ( β rs ), entonces:
β rs = δrs , r 6= i, 1 ≤ s ≤ n,
β is = cδis , 1 ≤ s ≤ n.
γrs = δrs , r 6= i, 1 ≤ s ≤ n,
γis = δis + cδjs , 1 ≤ s ≤ n.
Teorema B.7.6
Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemen-
tal de renglón, entonces B = EA, donde E es la matriz elemental correspondiente a la
operación elemental de renglón aplicada a A. En símbolos
Op. de renglón R
A −−−−−−−−−→ B =⇒ B = EA
m
[ Eij A]rs = ∑ δrk aks = δrr ars = ars = [ B]rs , 1 ≤ s ≤ n.
k =1
Además:
m
[ Eij A]is = ∑ δjk aks = δjj a js = a js = [ B]is , 1 ≤ s ≤ n.
k =1
m
[ Eij A] js = ∑ δik aks = δii ais = ais = [ B] js , 1 ≤ s ≤ n.
k =1
Así Br∗ = Ar∗ si r 6= i, j, Bi∗ = A j∗ y Bj∗ = Ai∗ . Esto prueba la igualdad B = Eij A. Supongamos
ahora que B se obtiene de A al aplicarle la operación elemental Rij (c). Veamos que B = Eij (c) A.
Para r 6= i, 1 ≤ r ≤ m, tenemos que:
m
[ Eij (c) A]rs = ∑ δrk aks = δrr ars = ars = [ B]rs , 1 ≤ s ≤ n.
k =1
Luego Br∗ = Ar∗ si r 6= i, Bi∗ = Ai∗ + cA j∗ . Así, B = Eij (c) A. Se deja al lector probar que si B
se obtiene de A al aplicarle la operación elemental Ri (c), entonces B = Ei (c) A.
Teorema B.7.7
Sea A ∈ K m×n . Si B es la matriz que se obtiene de A al aplicarle una operación elemental
de columna, entonces B = AE, donde E es la matriz elemental correspondiente a la
operación elemental de columna aplicada a A.
Demostración. La prueba se puede hacer de manera análoga a la prueba del Teorema B.7. Sin
embargo, no lo haremos así, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fácil verificar que E = I − vv T , donde v = ei − e j . Entonces
Así se tiene
columna i columna j
0 · · · a1i − a1j · · · a1j − a1i · · · 0
0 · · · a2i − a2j · · · a2j − a2i · · · 0
AE = A−
.. .. .. ..
. ··· ··· ··· .
. .
0 · · · ami − amj · · · amj − ami · · · 0
0 · · · a1j · · · 0
0 · · · a2j · · · 0
AE = A + c( Ae j )eiT = A + c[ A]∗ j eiT = A + c . .. ,
..
.. · · · . · · · .
0 · · · anj · · · 0
Ejemplo B.7.8
Para cada matriz del Ejemplo B.7 se tiene:
4 1 7 4 0 0 1 3 5 8 4
2 1 12 6 = 0 1 0 2 1 12 6 ,
3 5 8 4 1 0 0 4 1 7 4
−3 4 −1 1 0 0 −3 4 −1
−15 21 −33 = 0 3 0 −5 7 −11 ,
−1 13 −4 0 0 1 −1 13 −4
−1 5 2 3 1 0 0 −1 5 2 3
2 −16 −5 −11 = −5 1 0 −3 9 5 4 ,
6 −7 8 10 0 0 1 6 −7 8 10
1 −5 0 0
3 −10 8 4 3 5 8 4
0 1 0 0
2 −9 12 6 = 2 1 12 6 0
.
0 1 0
4 −19 7 4 4 1 7 4
0 0 0 1
Teorema B.7.9
Las matrices elementales son invertibles. Más aún:
1) Eij−1 = Eji = Eij .
Teorema B.7.10
Sea A una matriz.
1) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales de renglón, es decir:
R
1 2R s R
A −−−− → A1 −−−− → A2 −−−−→ · · · −−−− → As = B,
entonces B = PA, para alguna matriz invertible P. Más precisamente, si Ei es la matriz
elemental correspondiente a la operación elemental Ri , entonces P = Es · · · E2 E1 .
2) Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales de columna, es decir:
C1 C2 r C
A −−−− → C1 −−−− → A2 −−−−→ · · · −−−− → Ar = B,
entonces B = AQ, para alguna matriz invertible Q. Más precisamente, si Ei es la ma-
triz elemental correspondiente a la operación elemental Ci , entonces Q = E1 E2 · · · Er .
Demostración. Por inducción sobre s. El caso s = 1 fue probado en el Teorema B.7. Suponga
ahora que el teorema es cierto para s y suponga que B se obtiene de A al aplicar s + 1 operacio-
nes elementales. La matriz B se obtiene de la matriz As aplicando la operación elemental Rs+1 ,
así que de acuerdo con el Teorema B.7, B = Es+1 As . Ahora bien, como la matriz As se obtiene
de A aplicando las s operaciones elementales R1 , . . . , Rs , aplicando la hipótesis de inducción se
tiene que As = Es · · · E2 E1 A. Por lo tanto B = Es+1 As = Es+1 Es · · · E2 E1 A. Como las matrices
elementales son invertibles, el Corolario B.4 garantiza que la matriz P = Es+1 · · · E1 es una
matriz invertible.
La prueba de 2) es similar y se deja de ejercicio al lector.
Ejemplo B.7.11
2 2 2
Suponga que a la matriz A = 4 7 7 ∈ R3×3 se le aplican las operaciones
6 18 22
elementales indicadas y se obtiene la matriz B.
2 2 2
R21 (−2) R31 (−3) R32 (−4)
A −−−−→ A1 −−−−→ A2 −−−−→ 0 3 3 = B.
0 0 4
Entonces,
1 0 0 2 2 2
B = E32 (−4) E31 (−3) E21 (−2) A = −2 1 0 4 7 7 .
5 −4 1 6 18 22
Teorema B.7.12
Si la matriz B se obtiene de la matriz A al aplicar una sucesión finita de operaciones
elementales, entonces B = PAQ para algunas matrices invertibles P y Q.
Ejemplo B.7.13
1 −2 7 38
A la matriz A = −1 2 −6 −33 se le aplican las operaciones elementales
−7 14 −45 −246
de renglón indicadas a continuación para obtener la matriz E A , la forma escalonada
reducida de A.
1 −2 0 3
R21 (1) R31 (7) R32 (−4) R12 (−7)
A −−−−→ A1 −−−−→ A2 −−−−→ A3 −−−−→ E A = 0 0 1 5 .
0 0 0 0
A8 = E12 (−7) E32 (−4) E31 (7) E21 (1) AE23 E13 (2) E14 (−3) E24 (−5) = PAQ,
donde
1 0 2 −3
−6 −7 0 0 0 1 0
P= 1 1 0 y Q= .
0 1 0 −5
3 −4 1
0 0 0 1
Una matriz E ∈ K m×n está en forma escalonada por renglones si se cumplen las siguientes
dos condiciones:
1) Todos los renglones que consisten únicamente de ceros, si los hay, están justo debajo
de los renglones distintos de cero.
2) La primera entrada diferente de cero en los renglones distintos de cero, está a la de-
recha de la primera entrada diferente de cero del renglón inmediato anterior.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote.
Las siguientes matrices están en forma escalonada. Los pivotes están encerrados en círculos.
1 4 1 2 4 1 0 0 2 4 −1 −2 2 0 0
0 1 0 .
0 0 0 2 3 0 1 2 0 0 1 −3
0 0 0 0 1 0 0 3 0 0 0 0 0 0 3
Ejemplo B.8.2
Usando el Método de eliminación de Gauss, determinemos una forma escalonada por
renglones de la matriz
3 1 2 −2
A = −3 1 −2 −2 .
1 0 1 9
es tal que PA = E, ya que R32 (1/6) E31 (−1/3) E21 (1) A = E. Para construir P se puede
efectuar la multiplicación de las matrices involucradas. También es posible construir P
aplicando a la matriz identidad la secuencia operaciones elementales que se usaron para
obtener la matriz E.
1 0 0 1 0 0 1 0 0
R21 (1) R31 (−1/3) R32 (1/6)
I −−−→ 1 1 0 −−−−−−→ 1 1 0 −−−−−→ 1 1 0 = P.
0 0 1 − 31 0 1 − 61 16 1
Las operaciones elementales de renglón que se aplican a A son las mismas operaciones
elementales que se aplican a la matriz identidad para obtener la matriz P tal que PA = E.
3 1 2 −2 1 0 0 3 1 2 −2 1 0 0
R21 (1)
−3 1 −2 −2 0 1 0 −−−−−−→ 0 2 0 −4 1 1 0
R31 (−1/3)
1 0 1 9 0 0 1 0 − 13 13 29
3 − 1
3 0 1
3 1 2 −2 1 0 0
R32 (1/6)
−−−−−→ 0 2 0 −4 1 1 0 = [ E | P ].
0 0 13 9 − 16 16 1
Ejemplo B.8.3
Determinemos una forma escalonada de la matriz
0 1 3 2
A = 0 2 3 −5 .
0 −1 −4 −5
Se lleva la matriz A a una matriz que tenga ceros en las posiciones (2, 2), (3, 2) y (3, 3).
0 1 3 2 0 1 3 2
R21 (−2) R32 (−1/3)
A −−−−→ 0 0 −3 −9 −−−−−−→ 0 0 −3 −9 .
R31 (1)
0 0 −1 −3 0 0 0 0
Una matriz E ∈ K m×n está en la forma escalonada reducida por renglones si:
1) E está en forma escalonada.
1 0 ∗ ∗ 0 ∗ ∗ 0 ∗
0 1 ∗ ∗ 0 ∗ ∗ 0 ∗
0 0 0 0 1 ∗ ∗ 0 ∗
0 0 0 0 0 0 0 1 ∗
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Ejemplo B.9.2
Usando el Método de Gauss-Jordan, determinemos la forma escalonada reducida por
renglones de la matriz:
3 1 2 −2
A = −3 1 −2 −2 .
1 0 1 9
1 2
1
− 32 2 − 32
1 3 3
1 3 3
R1 (1/3) R21 (3)
A −−−−→ −3 1 −2 −2 −−−−→ 0 2 0 −4 = A2
R31 (−1)
1 0 1 9 0 − 13 1
3
29
3
Se pasa ahora al segundo renglón. Dado que la posición (2, 2) es distinta de cero, esta
será la nueva posición pivotal. Se aplica una operación elemental de Tipo II. Posterior-
mente, se aplican operaciones elementales de Tipo III para producir ceros en las entradas
por arriba y por debajo de la posición pivotal.
1 2 2
− 23
1 3 3 1 0 3 0
R2 (1/2) R12 (−1/3)
A2 −−−−→ 0 1 0 −2 −−−−−−→ 0 1 0 −2 = A4
R32 (1/3) 1
0 − 31 1
3
29
3 0 0 3 9
1 0 23
0 1 0 0 −18
R3 (3) R13 (−2/3)
A4 −−−−→ 0 1 0 −2 −−−−−−→ 0 1 0 −2 = E A .
0 0 1 27 0 0 1 27
La matriz invertible
1
− 12
2 −2
P = E13 (−2/3) E3 (−3) · · · E21 (3) E1 (1/3) = 1 1
0
2 2
− 12 1
2 3
es tal que PA = E A .
Teorema B.10.1
Una matriz de n × n es invertible si y solamente si su forma escalonada reducida es la
matriz identidad de orden n.
Observación B.10.2
Si E A = I, el Teorema B.10 implica que A es invertible. Como la matriz P se obtuvo de la
matriz identidad aplicando la secuencia de operaciones elementales que se usaron para
obtener la matriz E A = I, el Teorema B.7 implica que E A = I = P0 A y P = P0 I donde
P0 = Es Es−1 · · · E2 E1 es el producto de las matrices elementales correspondientes a las
operaciones elementales aplicadas. Luego, P = P0 y PA = I. Como P es invertible, se
sigue que A = P−1 . Por lo tanto, A también es invertible y A−1 = P.
Si E A no es la matriz identidad, entonces A no es invertible por el Teorema B.10.
Ejemplo B.10.3
Usando el algoritmo
anterior parael cálculo de la inversa, calculemos la inversa, si existe,
2 −1 −1
de la matriz A = −1 −1 1.
−3 −2 3
Se forma la matriz aumentada [ A | I ] y se lleva a su forma escalonada reducida.
1 − 12 − 12 12 0 0 1 − 12 − 12 1
2 0 0
R1 (1/2) R31 (3)
[ A | I ] −−−−→ −1 −1 1 0 1 0 −−−→ 0 − 32 1
2
1
2 1 0
−3 −2 3 0 0 1 0 − 72 3
2
3
2 0 1
1 − 12 − 12 1 − 23 1
− 13
2 0 0 1 0 3 0
R2 (−2/3) R12 (1/2)
−−−−−→ 0 1 − 3 − 13 − 23 0 −−−−−→ 0 1
1 − 13 − 13 − 23 0
R32 (7/2)
0 − 27 3
2
3
2 0 1 0 0 1
3
1
3 − 73 1
2 1 1
1 0 −3 3 −3 0 1 0 0 1 −5 2
R3 (3) R 13 ( 2/3 )
−−−→ 0 1 − 13 − 31 − 23 0 −−−−−→ 0 1 0 0 −3 1 .
R23 (1/3)
0 0 1 1 −7 3 0 0 1 1 −7 3
Ejemplo B.10.4
Usando el algoritmo
para elcálculo de la inversa, calculemos la inversa, si existe, de la
1 1 −1
matriz A = −2 1 −2.
−1 −1 1
Se forma la matriz aumentada [ A | I ] y se lleva a su forma escalonada reducida.
1
0 − 13 − 31
1 1 −1 1 0 0 1 0 3
−2 1 −2 0 1 0 −−−−→ 0 1 − 43 0 1
3 −3
2 = [ E | P ].
A
−1 −1 1 0 0 1 0 0 0 1 0 1
[1] Juan de Burgos Román. Álgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edición, 1993.
[2] José Antonio de la Peña. Álgebra Lineal Avanzada. Fondo de Cultura Económica, México,
1996.
[3] John B. Fraleigh. Álgebra Abstracta. Adison Wesley Iberoamericana, México, 1987.
[4] Stanley I. Grossman. Álgebra Lineal. McGraw-Hill Interamericana, México, quinta edición,
1996.
[5] Darald J. Hartfiel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.
[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edición, 1996.
[8] Kenneth Hoffman y Ray Kunze. Álgebra Lineal. Prentice Hall, México, segunda edición,
1984.
[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison Wesley,
1971.
[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edición, 1997.
[11] Serge Lang. Álgebra Lineal. Fondo Educativo Iberoamericano, México, 1976.
[12] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. Wiley-
Interscience, Nueva York, segunda edición, 2007.
[13] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edición, 1998.
[14] Seymour Lipschutz. Álgebra Lineal. McGraw-Hill, México, segunda edición, 1992.
[15] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[16] Ben Noble y James W. Daniel. Álgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
México, tercera edición, 1989.
185
BIBLIOGRAFÍA
[17] David Poole. Álgebra Lineal: Una introducción moderna. Thomson, México, 2004.
[18] Hugo A. Rincón Mejía. Álgebra Lineal. Coordinación de Servicios Editoriales, Facultad de
Ciencias, UNAM, México, 2001.
[19] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edición, 2008.
[20] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
[21] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.