Está en la página 1de 137

República Bolivariana de Venezuela

Universidad Nacional Experimental Politécnica


“Antonio José de Sucre”
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y Básicos
Sección de Matemáticas

Apuntes de Álgebra Lineal

Autor: MSc. Campos S. Jorge F.


Barquisimeto, Diciembre 2017
Agradecimientos

Al Dios que habita en cada uno de nosotros y que es la fuente de todo conocimiento.
A mis padres, quienes me inculcaron los valores que me guı́an dı́a a dı́a, les agradezco las
profundas enseñanzas que me dieron y el rol tan importante que jugaron para mı́ en esta
vida.
A mi hermana Juanita, siempre tan consecuente y bondadosa conmigo.
A mi hermana Belkis, por su manera tan particular de demostrarme su amor.
A mis hermanos y hermanas, quienes siempre han estado presentes en mi vida, nombrarlos
a todos uno por uno me llevarı́a buena parte de los agradecimientos, sin embargo, todos ellos
son pilares en mi vida.
Al Supremo Creador A mis amigas, colegas y compañeras de trabajo, Marirosa Morello y Carolina Cárdenas,
Y A mis Padres quienes con su insistencia y paciencia fueron de gran ayuda para culminar este trabajo.
A mi amiga, colega y compañera de trabajo Blanca Peña quien, con sus conocimientos en
el área de Planificación, me ayudó de gran manera.
A mi amigo, colega y compañero de trabajo Ramón Vivas, por su apoyo en la elaboración
de este material.
A mi amiga y compañera de trabajo Yaritza Canelón, por siempre estar dispuesta a ayudar
en lo que pueda.
A todos mis amigos, compañeros de trabajo y colegas que de una u otra forma han sido
de ayuda.
A la UNEXPO, donde laboro, me he formado y me sigo formando profesionalmente.
A todos aquellos a quienes no nombro pero que han sido de gran ayuda, les pido disculpas
por la omisión.
A todos mis más sinceras gracias.

ii
Índice general

6. Transformaciones Lineales y Algunas Aplicaciones 172


6.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
6.2. Representación Matricial de una Transformación Lineal . . . . . . . . . . . . . 184
6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . 190
6.4. Núcleo e Imagen de una Transformación Lineal . . . . . . . . . . . . . . . . . 198
Índice general 6.5. Algunas Aplicaciones de las Transformaciones Lineales . . . . . . . . . . . . . 203

Apéndices 209

A. Campos y Números Complejos 210


A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
Introducción 1
A.2. El Campo de los Números Complejos . . . . . . . . . . . . . . . . . . . . . . . 219
1. Matrices y Sistemas de Ecuaciones Lineales 3
B. Algo más sobre Espacios Vectoriales 226
1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
1.1.1. Suma de Matrices y Multiplicación por Escalar . . . . . . . . . . . . . 8
B.2. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 B.3. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
1.1.3. Transposición o Trasposición de Matrices . . . . . . . . . . . . . . . . . 21 B.4. Bases para Espacios Vectoriales de Dimensión Infinita . . . . . . . . . . . . . . 232
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 32 C. Algo más sobre Transformaciones Lineales 236
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . 41 C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . 236
C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . 241
2. Determinantes. Regla de Cramer 54
2.1. Determinantes y sus Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 54 D. Demostraciones de Algunos Teoremas 244
2.2. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.3. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . 76 Bibliografı́a 267

3. Espacios Vectoriales. Bases y Dimensión 83


3.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3. Combinación Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . 93
3.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . 100
3.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6. Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt 122


4.1. Espacios Reales con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . 122
4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt . . . . 126
4.3. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan 146


5.1. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . 146
5.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan . . . . 159

iii iv Jorge Campos


Introducción

interno, que a su vez nos permitirá el estudio de los espacios normados, junto con las impli-
caciones que esto conlleva, como son, entre otras cosas, las bases ortormales y el proceso de
ortonormalización de Gram-Schmidt.
Capı́tulo 5: es el estudio de la diagonalización de matrices, el cual, necesariamente, requiere
del estudio de los autovalores, autovectores y autoespacios de una matriz, también se hará
Introducción un pequeño y rápido estudio de la forma canónica de Jordan de una matriz.
Capı́tulo 6: al igual que el capı́tulo 5, es bastante corto desde el punto de vista teórico, sin
embargo, en este último capı́tulo del trabajo se manejan, prácticamente, todos los conceptos
y herramientas teorico-prácticas de los cinco primeros capı́tulos, por lo tanto, desde cierto
En diversas áreas de estudio, en los distintos niveles educativos, ocurre que nos encontramos punto de vista, es un repaso del curso en sı́, la idea principal de este capı́tulo es el estudio de
con problemas en los cuáles, para su resolución, necesariamente se ve involucrada el Álgebra las transformaciones lineales que no son sino una clase particular de funciones entre espacios
Lineal, en particular en el área de ingenierı́a. La mayorı́a de estos problemas pueden ser vectoriales, acá también se estudiarán algunos problemas de aplicación que involucran las
modelados por medio de las matrices, las cuales juegan un papel prepodenrante para su tansformaciones lineales.
resolución, o bien algún método de resolución numérica basado en métodos netamente del Finalmente, al final del presente trabajo, se presentan algunos apéndices, la intención de
Álgebra Lineal. estos es profundizar sólo un poco más sobre algunos de los temas acá planteados entre los
capı́tulos 1 al 6, pero no forman parte esencial del objetivo principal del material.
A pesar de la variedad de textos existentes en el mercado que cubren el contenido teórico
del programa que se dicta en las carreras de ingenierı́a del Vicerrectorado Barquisimeto de
la UNEXPO, no se tiene un material totalmente adaptado al contenido programático que
se tiene en el Vicerrectorado, además de que pocos textos contienen las aplicaciones de las
transformaciones lineales, que son de mucha utilidad en las áreas de ingenierı́a eléctrica y
electrónica, entre otras.
El objetivo principal del presente trabajo es presentar un material que permita el estudio
del Álgebra Lineal con un enfoque hacia las carreras de ingenierı́a o bien áreas conexas, más
particularmente, dirigido a estudiantes de la UNEXPO. Para ello se hará un pasaje por la
teorı́a que nos permita tener las herramientas necesarias para resolver los problemas antes
mencionados.
A continuación haremos un resumen breve de cada uno de los capı́tulos del presente ma-
terial.
Capı́tulo 1: se darán las principales herramientas para resolver problemas en los cuales
esté involucrada la resolución de sistemas de ecuaciones lineales, para ello se estudiarán las
propiedades de las operaciones con matrices, se establecerá el vı́nculo entre las matrices
y los sistemas de ecuaciones lineales para luego presentar problemas que involucran estas
herramientas como son, entre otros, la búsqueda de la inversa de una matriz y problemas de
aplicación de los sistemas de ecuaciones lineales.
Capı́tulo 2: continúa con el esquema matricial y en esta ocasión corresponde al estudio de
los determinantes, los cuales, desde el punto de vista histórico, surgieron antes que el estudio
formal de las matrices, esta herramienta, más que todo calculista, nos permite decidir, entre
otras cosas, cuando una matriz tiene o no inversa.
Capı́tulo 3: se presentan los espacios vectoriales, que son el basamento principal del Álgebra
Lineal, pasando por los conceptos primordiales de subespacio vectorial, base y dimensión de
un espacio vectorial.
Capı́tulo 4: se estudian un tipo especı́fico de espacios vectoriales, los espacios con producto

1 2 Jorge Campos
Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada
por  
a1j
 a2j 
 
A(j) =  .. 
 . 
Capı́tulo 1 amj
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a1,1 , a2,2 , . . . , ann , forman lo que llamaremos diagonal principal de A.
Matrices y Sistemas de Ecuaciones Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
Lineales La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima
componente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m × n lo denotaremos por
Mm×n (R).
Como sabemos, cada vez es más común el uso del Álgebra Lineal en el planteamiento y
resolución de variados problemas que surgen en áreas relacionadas con la ingenierı́a, es por Observación 1.1. Podemos considerar matrices sobre un campo2 K, por ejemplo
ello que ésta juega un papel preponderante en el estudio y comprensión de los mismos. En la K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
resolución de la mayorı́a de estos problemas, las matrices sugen de manera natural, estas elementos de K. La notación para el conjunto de todas las matrices de orden m × n sobre K,
pueden aparecer de forma directa o bien como una consecuencia del estudio, planteamiento análogo al caso real, es Mm×n (K).
y modelaje de un problema especı́fico. Una de las principales causas de la aparición de las Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
matrices en la resolución de dichos problemas, son los sistemas de ecuaciones lineales ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es
y, para poder resolverlos, se necesita el uso y manejo de las operaciones elemnetales
por filas. En el presente capı́tulo estudiaremos con detalle cada uno de los conceptos antes (aij )m×n = (akr )m×n = (apq )m×n = (aji )m×n
mencionados ası́ como otros más.
A continuación
 ilustraremos algunos
 de los conceptos dados en la definición 1.1
a1,1 · · · a1j · · · a1n
1.1. Operaciones con Matrices  .. .. .. 
 . . . 
 
Definición 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un A =  ai1 · · · aij · · · ain  ← i-ésima fila de A
 . 
arreglo bidimensional de números reales dispuestos en m filas y n columnas como sigue  .. ... ... 
    am1 · · · amj · · · amn
a1,1 a1,2 · · · a1n a1,1 a1,2 · · · a1n ↑
 a2,1 a2,2 · · · a2n   a2,1 a2,2 · · · a2n 
 
  j-ésima columna de A
A = (aij )m×n =  .. .. ..  =  .. .. .. 
 . . .   . . .   
am1 am2 · · · amn am1 am2 · · · amn a1,1 a1,2 ··· a1n
 a a2,2 ··· ain 
donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado compo-  i1 
 
nente ij-ésima1 de A.
A= . .. ... ..  ← matriz cuadrada (de orden n)
 .. . . 
Para cada i ∈ {1, . . . , m} la i-ésima fila de A la denotaremos por A(i) y está dada por an1 an2 · · · ann
� �
A(i) = ai1 ai2 · · · ain �
1
diagonal principal de A
Cuando pueda haber error a confusión, usaremos una coma entre los subı́ndices, por ejemplo a2,5 en lugar
2
de a25 Para mayores detalles sobre el concepto de campo se recomienda ir al Apéndice B.

3 4 Jorge Campos
1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Ejemplo 1.1. Definición 1.2. Sea A ∈ Mn×n (R). Diremos que A = (aij )n×n es
� √ �
−2 0 5 1. Triangular superior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
1. A = 2 es una matriz real de orden 2 × 3, la componente 2, 1 de A es
4 1
3 � √ � 2. Triangular inferior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i < j.
� � 5
a2,1 = 23 , la fila 2 de A es A(2) = 23 4 1 , la columna 3 de A es A(3) =
1 3. Diagonal si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i �= j, es decir, A es
  triangular superior e inferior simultáneamente.
−1 4 0
2. B =  5 12 −3  es una matriz cuadrada real de orden 3, las componentes de la 4. Escalar si es diagonal y además existe λ ∈ R tal que aii = λ para cada i ∈ {1, . . . , n}.
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8. Observación 1.3. Cualquier matriz que sea triangular superior o inferior es llamada ma-
triz triangular.
3. La matriz In = (δij )n×n , donde, para cada i, j ∈ {1, . . . , n},
Observación 1.4. Una matriz cuadrada es triangular superior (respectivamente inferior) si
� y sólo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales
1 si i = j
δij = a cero.
0 si i �= j
Observación 1.5. Cuando A ∈ Mn×n (R) es diagonal y las componentes en la diagonal
es llamada matriz identidad de orden n, esto es,
principal son λ1 , λ2 , . . . , λn ∈ R, escribiremos A = diag(λ1 , λ2 , . . . , λn ).
 
1 0 ··· 0 Ejemplo 1.2.
 . . .. 
0 1 . .
In =  . .  1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y conse-
 .. . . . . . 0
cuentemente triangulares superior e inferior.
0 · · · 0 1 n×n  
−5 4 0 −7
La función δij , que define la componente ij de la matriz identidad, es llamada función  0 3 12 5 
2. A = 
 0 0 2
 es triangular superior.
delta de Kronecker3 . 1 
0 0 0 0
4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y para cada  
j ∈ {1, . . . , n}, es llamada matriz nula de orden m × n, es decir, −5 0 0 0
   0 4 0 0 
3. A = 
 0 −1
 es triangular inferior.
0 ··· 0 0 0 
 .. 
0/m×n =  ... . 9 13 −3 8
0 ··· 0  
m×n 6 0 0 0
 0 −3 0 0 
Cuando m = n, sólo escribiremos 0/n en lugar de 0/n×n , es decir, 4. A = 
 0
 es diagonal y podemos escribir A = diag(6, −3, −5, 0).
0 −5 0 
  0 0 0 0
0 ··· 0
 ..   
0/n =  ... . . . . 8 0 0 0
0 ··· 0  0 8 0 0 
n×n 5. A =  
 0 0 8 0  es escalar, ası́ que podemos escribir A = diag(8, 8, 8, 8).
� 0 0 0 8
3
Es llamada ası́ en honor al matemático alemán Leopold Kronecker. �

Jorge Campos 5 6 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Definición 1.3. Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual son submatrices de la matriz
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de  
2 −1 0 3 4 −5
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n ,  0 3 −1 2 7 6 
diremos que A y B son iguales si aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}. A=
 −4

8 2 −11 5 2 
7 −5 12 9 −3 0
Observación 1.6. Nótese que para que dos matrices sean iguales, en primer lugar, de-
ben ser del mismo orden. En algunos textos, cuando dos matrices no son del mismo orden, para obtener A1 se eliminaron la fila 3 y las columnas 3 y 6; para obtener A2 se eliminaron la
simplemente se dice que no son comparables. fila 1 y la columna 2; para A3 se eliminaron las dos últimas filas y las tres primeras columnas;
    para A4 ser eliminaron las columnas 3 y 4 y para la obtención de A5 se eliminó la fila 3.
� � 5 7 x 7 �
5 −1 0
Ejemplo 1.3. Si A = ; B =  0 y  y C =  0 −3 , entonces Luego veremos la utilidad de éstas matrices.
−6 8 3
−2 4 −2 4
A �= B pues ni siquiera son del mismo orden4 ; B = C si y sólo si x = 5 e y = −3.
� 1.1.1. Suma de Matrices y Multiplicación por Escalar
En este apartado definiremos dos operaciones con matrices que dotarán al conjunto
El siguiente teorema es una consecuencia directa de la definición de igualdad de matrices, Mm×n (R) de una estructura algebraica conocida como espacio vectorial , dicha estruc-
su demostración la dejamos como ejercicio. tura será tratada con detalle en el capı́tulo 3, en cierto modo, las definiciones de dichas
operaciones son “naturales” como veremos a continuación.
Teorema 1.1. Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes
Definición 1.5. Sean A, B ∈ Mm×n (R), con A = (aij )m×n y B = (bij )m×n . Definiremos
1. A = B. la matriz suma de A con B como la matriz A + B ∈ Mm×n (R) cuya ij-ésima componen-
te viene dada por aij + bij para cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n}, esto es, si
2. A(i) = B(i) para cada i ∈ {1, . . . , m}. A + B = (cij )m×n , entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Observación 1.7. Para poder sumar dos matrices éstas deben ser del mismo orden.
3. A(j) = B (j) para cada j ∈ {1, . . . , n}.    
4 −9 0 8 −3 9 5 −4
Demostración. ¡Ejercicio! Ejemplo 1.5. Si A =  −7 3 5 −12  y B =  1 −13 3 9 , entonces
1 0 −6 2 10 4 7 11
   
4 −9 0 8 −3 9 5 −4
Definición 1.4. Dada una matriz A ∈ Mm×n (R), cualquier matriz que se obtiene al eliminar
A + B =  −7 3 5 −12  +  1 −13 3 9 
ciertas filas o columnas de A, pero no todas, es llamada submatriz de A.
1 0 −6 2 10 4 7 11
   
Ejemplo 1.4. Las matrices 4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
    =  −7 + 1 3 + (−13) 5 + 3 −12 + 9  =  −6 −10 8 −3 
2 −1 3 4 0 −1 2 7 6 � � 1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13
 3 4 −5
A1 = 0 3 2 7 ; 
A2 = −4 2 −11 5 2 ; A3 = ; �
2 7 6
7 −5 9 −3 7 12 9 −3 0
Definición 1.6. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar5 ), con A = (aij )m×n .
  Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
2 −1 4 −5  
 0  2 −1 0 3 4 −5 α · A o simplemente αA cuya ij-ésima componente es αaij para cada i ∈ {1, . . . , m} y cada
3 7 6
A4 = 
 −4
 y A5 =  0 3 −1 2 7 6  j ∈ {1, . . . , n}, esto es, si αA = (bij )m×n , entonces bij = αaij para cada i ∈ {1, . . . , m} y
8 5 2 
7 −5 12 9 −3 0 cada j ∈ {1, . . . , n}.
7 −5 −3 0
5
A los elementos de un campo o cuerpo (e incluso en algunos casos también a los elementos de un anillo)
4
A partir de la observación 1.6, podrı́amos decir, simplemente, que las matrices A y B no son comparables. se les llama escalares.

Jorge Campos 7 8 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Observación 1.8. La notación de multiplicación por escalar es α · A o αA y no A · α ni 2. Hagamos A + B = E = (eij )m×n , (A + B) + C = E + C = F = (fij )m×n ,
Aα, se debe colocar primero el escalar luego la matriz. B + C = G = (gij )m×n y A + (B + C) = A + G = H = (hij )m×n . Ası́ que, para
cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n} se tiene que
Observación 1.9. Toda matriz escalar de orden n, es un múltiplo escalar de In , más aún,
se puede probar que A ∈ Mn×n (R) es una matriz escalar si y sólo si existe λ ∈ R tal que fij = eij + cij (definición de suna de matrices)
A = λIn .
= (aij + bij ) + cij (definición de suna de matrices)
Ejemplo 1.6. Sea A la matriz del ejemplo 1.5, entonces = aij + (bij + cij )
   
4 −9 0 8 2 · 4 2(−9) 2·0 2·8 = aij + gij (definición de suna de matrices)
2 · A = 2 ·  −7 3 5 −12  =  2(−7) 2·3 2 · 5 2(−12)  = hij (definición de suma de matrices)
1 0 −6 2 2·1 2 · 0 2(−6) 2·2
  De donde (A + B) + C = F = H = A + (B + C) (definición de igualdad de matrices).
8 −18 0 16
=  −14 6 10 −24  3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada
2 0 −12 4 j ∈ {1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, para cada i ∈ {1, . . . , m}
� y cada j ∈ {1, . . . , n}, tenemos que

Teorema 1.2. Sean A, B, C ∈ Mm×n (R) y α, β ∈ R cualesquiera. Entonces eij = aij + ξij (definición de suna de matrices)
= aij + 0 (definición de la matriz nula)
1. A + B = B + A (conmutatividad de la suma).
= aij
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
Por lo tanto, usando la definición de igualdad de matrices, se tiene que
3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).
4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0/m×n = D + A (opuesto aditivo). A + 0/m×n = E = A

5. α(A + B) = αA + αB (distributividad de la multiplicación por escalar respecto a la y por conmutatividad


suma matricial). A + 0/m×n = A = 0/m×n +A.

6. (α + β)A = αA + βA (distributividad de la multiplicación por escalar respecto a la suma 4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada
escalar). j ∈ {1, . . . , n}. Hagamos A + D = E = (eij )m×n . Entonces, para cada i ∈ {1, . . . , m} y
cada j ∈ {1, . . . , n}, tenemos que
7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicación por escalar).
8. 1 · A = A (neutro de la multiplicación por escalar). eij = aij + dij (definición de suna de matrices)
= aij + (−aij ) (definición de la matriz D)
Demostración. Sean A = (aij )m×n , B = (bij )m×n y C = (cij )m×n .
= 0
1. Hagamos A + B = E = (eij )m×n y B + A = F = (fij )m×n . Ası́ que, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} se tiene que Por lo tanto, usando la definición de igualdad de matrices y la definición de la matriz
nula, se tiene que A + D = E = 0/m×n , y por conmutatividad
eij = aij + bij (definición de suna de matrices)
= bij + aij A + D = 0/m×n = D + A.
= fij (definición de suma de matrices)
5. Hagamos A + B = E = (eij )m×n , α(A + B) = αE = F = (fij )m×n , αA = G = (gij )m×n ,
Luego A + B = E = F = B + A (definición de igualdad de matrices). αB = H = (hij )m×n y αA + αB = G + H = P = (pij )m×n . Entonces, para cada

Jorge Campos 9 10 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, tenemos que 8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por
escalar, se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
fij = αeij (definición de multiplicación por escalar)
= α(aij + bij ) (definición de suma de matrices) eij = 1 · aij = aij
= αaij + αbij En consecuencia, por igualdad de matrices
= gij + hij (definición de multiplicación por escalar) 1 · A = E = A.
= pij (definición de suma de matrices)

Luego, usando la definición de igualdad de matrices, se tiene que


Las propiedades 3 y 4, en el teorema 1.2, garantizan la existencia de elementos neutro
α(A + B) = F = P = αA + αB. y opuesto, respectivamente, para la suma matricial, el teorema a continuación garantiza la
unicidad de tales elementos.
6. Hagamos (α + β)A = E = (eij )m×n , αA = F = (fij )m×n , βA = G = (gij )m×n y Teorema 1.3.
αA + βA = F + G = H = (hij )m×n . En consecuencia, para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}, se tiene que 1. La matriz nula 0/m×n es la única matriz en Mm×n (R) tal que para cada A ∈ Mm×n (R)
se cumple que A + 0/m×n = A = 0/m×n +A.
eij = (α + β)aij (definición de multiplicación por escalar)
= αaij + βaij 2. Para cada matriz A ∈ Mm×n (R), existe una única matriz D ∈ Mm×n (R) tal que
A + D = 0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se de-
= fij + gij (definición de multiplicación por escalar) nota por −A.
= hij (definición de suma de matrices)
Demostración. Como ya hemos comentado antes, la parte 3 del teorema 1.2 garantiza que
De donde, al usar la definición de igualdad de matrices, obtenemos para cada A ∈ Mm×n (R) se cumple que A + 0/m×n = A = 0/m×n +A. Además, la existencia de
la matriz D, satisfaciendo la propiedad 2 en el enunciado, es garantizada por la parte 4 del
(α + β)A = E = H = αA + βA. mismo teorema. Sólo faltarı́a probar la unicidad en ambos casos.

7. Definamos las matrices βA = E = (eij )m×n , α(βA) = αE = F = (fij )m×n y 1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada matriz
(αβ)A = G = (gij )m×n . Ası́ que, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, A ∈ Mm×n (R), luego
obtenemos P = P + 0/m×n (por la parte 3 del teorema 1.2 con A = P )
fij = αeij (definición de multiplicación por escalar) = 0/m×n (por hipótesis con A = 0/m×n )
= α(βaij ) (definición de multiplicación por escalar)
2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que
= (αβ)aij
= gij (definición de multiplicación por escalar) A + D = 0/m×n = D + A (1.1)
A + E = 0/m×n = E + A (1.2)
Luego, nuevamente por igualdad de matrices, se tiene que
En consecuencia
α(βA) = F = G = (αβ)A D = D + 0/m×n (por teorema 1.2 parte 3)
y en consecuencia = D + (A + E) (por la ecuación 1.2)
β(αA) = (βα)A = (αβ)A. = (D + A) + E (por teorema 1.2 parte 2)
Por lo tanto = 0/m×n +E (por la ecuación 1.1)
α(βA) = (αβ)A = β(αA). = E (por teorema 1.2 parte 3)

Jorge Campos 11 12 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

4. Supongamos que αA = 0/m×n . Si α = 0, no hay nada que probar, supongamos entonces


que α �= 0, ası́ que
Teorema 1.4. (Ley de Cancelación)
Sean A, B, C ∈ Mm×n (R) tales que A + B = A + C. Entonces B = C. A = 1 · A (por teorema 1.2 parte 8)
Demostración. ¡Ejercicio! = (α−1 α)A
= α−1 (αA) (por teorema 1.2 parte 7)
Teorema 1.5. Sean A ∈ Mm×n (R) y α ∈ R cualesquiera. Entonces = α−1 0/m×n (por hipótesis)
= 0/m×n (por la parte 2)
1. 0 · A = 0/m×n .
2. α 0/m×n = 0/m×n . Lo cual concluye la prueba.

3. (−1)A = −A.
4. Si αA = 0/m×n , entonces α = 0 o A = 0/m×n . La unicidad de la matriz opuesta permite la siguiente definición.

Demostración. Definición 1.7. Sean A, B ∈ Mm×n (R). Definiremos A − B = A + (−B).


   
1. Sabemos que 4 −12 0 5 −10 −6
0 · A + 0/m×n = 0 · A (¿por qué?)  −6 5 −3    6 −1 11 
Ejemplo 1.7. Si A = 
 6 −1 yB= , entonces
2   4 0 5 
además
7 0 1 −2 −6 −1
0 · A = (0 + 0)A = 0 · A + 0 · A (¿por qué?)
    
ası́ que 4 −12 0 5 −10 −6
0 · A + 0 · A = 0 · A + 0/m×n  −6 5 −3    
A − B = A + (−B) =   + −  6 −1 11 
 6 −1 2    4 0 5 
y por el teorema 1.4, se tiene que 0 · A = 0/m×n .
7 0 1 −2 −6 −1
2. Por un lado      
4 −12 0 −5 10 6 −1 −2 6
α · 0/m×n = α · 0/m×n + 0/m×n (¿por qué?)  −6 5 −3     
=   +  −6 1 −11  =  −12 6 −14 
por otro lado  6 −1 2   −4 0 −5   2 −1 −3 
7 0 1 2 6 1 9 6 2
α · 0/m×n = α(0/m×n + 0/m×n ) = α · 0/m×n +α · 0/m×n (¿por qué?)
luego �
α · 0/m×n +α · 0/m×n = α · 0/m×n + 0/m×n
y nuevamente, usando el teorema 1.4, tenemos que α 0/m×n = 0/m×n . 1.1.2. Producto de Matrices
3. Basta probar que A + (−1)A = 0/m×n y, por unicidad del opuesto aditivo, obtendrı́amos A diferencia de las operaciones de suma matricial y multiplicación por escalar, el producto
el resultado. Veamos de matrices no se define de manera tan “natural”, como veremos luego, pero no por ello
deja de ser importante dicha operación.
A + (−1)A = 1 · A + (−1)A (por teorema 1.2 parte 8)
Antes de definir el concepto de producto de matrices, vamos a considerar el siguiente
= (1 + (−1))A (por teorema 1.2 parte 6) problema que nos permitirá comprender un poco el concepto que nos atañe por ahora.
= 0·A
Ejemplo 1.8. Supongamos que tres empresas, E1, E2 y E3, que compiten entre sı́, fabri-
= 0/m×n (por la parte 1)
can cinco tipos de productos, digamos P 1, P 2, P 3, P 4 y P 5. El siguiente cuadro refleja la
Luego, por unicidad de la matriz opuesta, (−1)A = −A. producción mensual de cada una de las empresas.

Jorge Campos 13 14 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Cantidad de unidades producidas de: del producto P1. Continuando de esta manera tenemos que 1150 · 1, 5 representa la cantidad
P1 P2 P3 P4 P5 de unidades de la materia prima M2 necesarias para producir 1150 unidades del producto P2
E1 1250 800 200 1100 750 (cantidad mensual del producto P2 que fabrica la empresa E3), 1000 · 2 representa la cantidad
Producido
E2 1500 650 940 980 500 de unidades de la materia prima M2 necesarias para producir 1000 unidades del producto P3
por:
E3 400 1150 1000 850 1200 (cantidad mensual del producto P3 que fabrica la empresa E3), 850·1, 5 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 850 unidades del producto P4
Cuadro 1.1: Producción Mensual de cada Empresa
(cantidad mensual del producto P4 que fabrica la empresa E3) y 1200·3 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 1200 unidades del producto P5
(cantidad mensual del producto P5 que fabrica la empresa E3).
Si queremos saber, por ejemplo, cuál es la producción mensual de la empresa E2, basta Ası́ que 400·3, 5+1150·1, 5+1000·2+850·1, 5+1200·3 representa la cantidad (mı́nima) de
mirar, en el cuadro 1.1, la fila correspondiente a dicha empresa, de lo cual resulta que la unidades de la materia prima M2 necesarias para que la empresa E3 mantenga la produccción
produción mensual de ésta es 1500 unidades del producto P1, 650 unidades del producto P2, mensual dada por el cuadro 1.1, es decir, la empresa E3 necesita un mı́nimo mensual de 10000
940 unidades del producto P3, 980 unidades del producto P4 y 500 unidades del producto P5. unidades de la materia prima M2 si quiere mantener su producción mensual acorde al cuadro
¿Cómo podrı́an interpretarse las columnas de esta tabla? 1.1.
Además, para la fabricación de cada uno de los cinco productos, se necesitan cuatro mate- Nótese que para el cálculo anterior fue necesario conocer la producción mensual de la
rias primas distintas, M 1, M 2, M 3 y M 4. El cuadro siguiente permite saber las cantidades empresa E3, información que encontramos en la fila del cuadro 1.1 correspondiente a tal
de materia prima necesarias para producir una unidad de cada uno de estos productos. empresa, y la cantidad de materia prima M2 necesaria para producir una unidad de cada uno
de los productos que fabrica dicha empresa, tal información la obtuvimos de la columna en
Cantidad de unidades de:
el cuadro 1.2 correspondiente a la materia prima M2. Al aplicar este procedimiento a cada
M1 M2 M3 M4
una de las empresas y a cada una de las materias primas, entonces obtenemos el siguiente
P1 2 3,5 1 3,5
cuadro.
P2 3 1,5 3 2,5
Producto
P3 1,5 2 2,5 4 Cantidad de unidades de:
final:
P4 0,5 1,5 5 3 M1 M2 M3 M4
P5 4 3 1,5 1,5 E1 8750 9875 10775 11600
Necesidad
Cuadro 1.2: Materia Prima Necesaria para Producir una Unidad de cada Producto E2 8850 11075 11450 14325
de:
E3 10975 10000 12400 12625

Cuadro 1.3: Materia Prima Necesaria para la Producción Mensual de cada Empresa
En este caso, si queremos producir una unidad del producto P3, por ejemplo, el cuadro 1.2,
más especı́ficamente la fila 3 de dicho cuadro, nos dice que vamos a necesitar 1, 5 unidades
de la materia prima M1, 2 unidades de la materia prima M2, 2, 5 unidades de la materia
prima M3 y 4 unidades de la materia prima M4. En este caso ¿cuál serı́a el significado de Por ejemplo, a partir del cuadro 1.3 se deduce que la empresa E1 necesita, mensualmente,
las columnas de esta tabla? un mı́nimo de 8750 unidades de la materia prima M1, 9875 unidades de la materia prima
Ahora bien, si una empresa, digamos la empresa E3, quiere saber cuál es cantidad mı́nima M2, 10775 unidades de la materia prima M3 y 11600 unidades de la materia prima M4 para
mensual necesaria de una de las materias primas, digamos materia prima M2, para mantener poder mantener la producción mensual correspondiente al cuadro 1.1. �
la producción según el cuadro 1.1, entonces es necesario hacer el siguiente cálculo
En referencia al ejemplo 1.8, si definimos las matrices
400 · 3, 5 + 1150 · 1, 5 + 1000 · 2 + 850 · 1, 5 + 1200 · 3  
  2 3,5 1 3,5
El significado de este cálculo es el siguiente, dado que mensualmente la empresa E3 produce 1250 800 200 1100 750  3 1,5 3 2,5
 
400 unidades del producto P1, según el cuadro 1.1, y a su vez, según el cuadro 1.2, cada unidad A = 1500 650 940 980 500  y B=
1,5 2 2,5 4 

del producto P1 necesita 3, 5 unidades de la materia prima M2, entonces 400·3, 5 representa la 400 1150 1000 850 1200 0,5 1,5 5 3
cantidad de unidades de materia prima M2 que se necesitan para la produción de 400 unidades 4 3 1,5 1,5

Jorge Campos 15 16 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

entonces estas matrices representan, respectivamente, los cuadros 1.1 y 1.2, es decir, la matriz Observación 1.11. Nótese que en el ejemplo anterior, el producto BA no está definido,
A representa la producción mensual de las empresas y la matriz B representa la cantidad esto nos dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos
de materias primas necesarias para la elaboración de una unidad de cada producto. Nótese productos estén definidos, AB y BA, no necesariamente son ambos del mismo orden, además,
que la matriz A tiene tantas columnas como filas tiene la matriz B, esto se debe a que las siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser
columnas, en la matriz A, representan los productos elaborados por las empresas, que es lo cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando
mismo que representan las filas en la matriz B. Ahora bien, si definimos la matriz esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan.
 
8750 9875 10775 11600 A continuación enunciaremos un teorema que expone las principales propiedades del pro-

C = 8850 11075 11450 14325 ducto de matrices
10975 10000 12400 12625
Teorema 1.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); D ∈ Mp×q (R) y α ∈ R. Entonces
entonces C representa las necesidades mensuales de materias primas para cada una de las
empresas. 1. (AB)D = A(BD) (asociatividad del producto de matrices).
Es necesario hacer notar que la cantidad de filas de C es la misma cantidad de filas de A
y la cantidad de columnas de C es la misma cantidad de columnas de B, esto se debe a que 2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
las filas de A y C representan las empresas y las columnas de B y C representan las materias
primas. 3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).
Cabe la siguiente pregunta, en términos matemáticos ¿es posible darle un significado a la
matriz C? la respuesta es sı́, esta matriz es el producto de las matrices A y B, como 4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicación
veremos a continuación. por escalar).

Definición 1.8. Sean A = (aij )m×n ∈ Mm×n (R) y B = (bjk )n×p ∈ Mn×p (R). Definiremos 5. Im A = A = AIn (neutros del producto de matrices).
el producto matricial de A por B como la matriz C = (cik )m×p ∈ Mm×p (R), denotada por
AB o A · B, tal que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que 6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p .

n
� Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1
1. Definamos AB = E = (eik )m×p ; (AB)D = ED = F = (fil )m×q ; BD = G = (gjl )n×q y
Observación 1.10. Al igual que lo observado en los comentarios hechos luego del ejemplo A(BD) = AG = H = (hil )m×q . Entonces, usando la definición de producto matricial,
1.8, es de hacer notar que, para poder definir el producto AB, la cantidad de columnas de A tenemos que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
debe coincidir con la cantidad de filas de B, además, la matriz resultante AB, tiene tantas n
filas como filas tiene la matriz A y tantas columnas como columnas tiene B. �
eik = aij bjk
 
� � 3 1 0 j=1
2 −1 0 
Ejemplo 1.9. Sean A = yB= 2 −1 −2 . Entonces
0 3 1 para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}
−4 −2 3
p

A·B
AB = � � gjl = bjk dkl
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3 k=1
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
� � � � y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3 p
� n

fil = eik dkl ; hil = aij gjl
� k=1 j=1

Jorge Campos 17 18 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Luego para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q} se tiene que De donde, por la definición de igualdad de matrices, obtenemos
p p
� n � p n p
n �
� � � � � � α(AB) = F = H = (αA)B.
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
De manera análoga se prueba que α(AB) = A(αB), ası́ que
� �
n
� p
� n
� α(AB) = (αA)B = A(αB).
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1 5. Recordemos que In = (δjk )n×n , donde

Por lo tanto, usando la definición de igualdad de matrices 1 si j = k
δjk = (1.3)
(AB)D = F = H = A(BD). 0 si j �= k
para cada j, k ∈ {1, . . . , n}.
2. Hagamos B +C = E = (ejk )n×p ; A(B +C) = AE = F = (fik )m×p ; AB = G = (gik )m×p ;
Si definimos AIn = E = (eik )m×n , entonces, para cualesquiera i ∈ {1, . . . , m} y
AC = H = (hik )m×p y AB + AC = G + H = R = (rik )m×p . Entonces, para cada
k ∈ {1, . . . , n}, obtenemos
i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
�n
�n
eik = aij δjk (definición de producto de matrices)
fik = aij ejk (definición de producto de matrices)
j=1
j=1
n = ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk

= aij (bjk + cjk ) (definición de suma de matrices) = ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
j=1 = aik
�n n
� n

= (aij bjk + aij cjk ) = aij bjk + aij cjk Por lo tanto AIn = E = A, análogamente puede probarse que Im A = A, en consecuencia
j=1 j=1 j=1 AIn = A = Im A.
= gik + hik (definición de producto de matrices)
6. ¡Ejercicio!
= rik (definición de suma de matrices)
En consecuencia, en virtud de la definición de igualdad de matrices, se tiene que
Ejercicio 1.1.1. Pruebe que si A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces
A(B + C) = F = R = AB + AC. � �
1. AB = AB (1) AB (2) · · · AB (p) (desarrollo por columnas del producto AB), es
3. Análogo a la demostración de la parte 2. decir, la k-ésima columna de AB, que es (AB)(k) , es igual a A por la k-ésima columna
4. Sean AB = E = (eik )m×p ; α(AB) = αE = F = (fik )m×p ; αA = G = (gij )m×n de B, que es AB (k) , para cada k ∈ {1, . . . , p}.
 
y (αA)B = GB = H = (hik )m×p . Entonces, para cualesquiera i ∈ {1, . . . , m} y A(1) B
k ∈ {1, . . . , p} se tiene que  A(2) B 
 
fik = αeik (definición de multiplicación por escalar) 2. AB =  ..  (desarrollo por filas del producto AB), es decir, la i-ésima fila de
 . 
�n
A(m) B
= α aij bjk (definición de producto de matrices)
AB, que es (AB)(i) , es igual a la i-ésima fila de A por B, que es A(i) B, para cada
j=1
n n i ∈ {1, . . . , m}.
� �
= α(aij bjk ) = (αaij )bjk Ejercicio 1.1.2. Dada una matriz A ∈ Mn×n (R), para k ∈ N definamos
j=1 j=1 
n
 0/n si A = 0/n y k ≥ 1

= gij bjk (definición de multiplicación por escalar) Ak = In si A �= 0/n y k = 0
 k−1
j=1
A A si A �= 0/n y k ≥ 1
= hik (definición de producto de matrices) Pruebe que Ak Ar = Ak+r para cualesquiera A ∈ Mn×n (R) y k, r ∈ Z+ .

Jorge Campos 19 20 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

1.1.3. Transposición o Trasposición de Matrices 2. Sean A + B = D = (dij )m×n ; (A + B)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ;
B T = G = (gji )n×m y AT + B T = F + G = H = (hji )n×m . Entonces, para cada
Definición 1.9. Sea A = (aij )m×n ∈ Mm×n (R). Definiremos la transpuesta o traspuesta
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
de A como la matriz AT = (bji )n×m ∈ Mn×m (R) tal que
eji = dij (definición de transpuesta)
bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
= aij + bij (definición de suma de matrices)
Ejemplo 1.10. Sea   = fji + gji (definición de transpuesta)
−2 5 0 7
= hji (definición de suma de matrices)
A= 3 0 1 −6 
−5 12 −2 9 Por lo tanto
Entonces   (A + B)T = E = H = AT + B T .
−2 3 −5
 5 0 12  3. Hagamos αA = D = (dij )m×n ; (αA)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ; y
AT = 
 0

αAT = αF = G = (gji )n×m . Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
1 −2 
7 −6 9
eji = dij (definición de transpuesta)

= αaij (definición de multiplicación por escalar)
Observación 1.12. Nótese que las filas de A “pasan” a ser las columnas de AT y las = αfji (definición de transpuesta)
columnas de A “pasan” a ser las filas de AT , más propiamente = gji (definición de multiplicación por escalar)
� �T � �(i)
A(i) = AT para cada i ∈ {1, . . . , m} Ası́ que
� � � � (αA)T = E = G = αAT .
(j) T T
A = A (j)
para cada j ∈ {1, . . . , n}
4. Sean AC = D = (dik )m×p ; (AC)T = DT = E = (eki )p×m ; C T = F = (fkj )p×n ;
Teorema 1.7. Sean A, B ∈ Mm×n (R), C ∈ Mn×p (R) y α ∈ R. Entonces AT = G = (gji )n×m y C T AT = F G = H = (hki )p×m . Entonces, para cada
� �T i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
1. AT = A (propiedad de involución de la transposición de matrices).
eki = dik (definición de transpuesta)
2. (A + B)T = AT + B T (transpuesta de la suma). �n
= aij cjk (definición de producto)
3. (αA)T = αAT (transpuesta de la multiplicación por escalar). j=1
n

4. (AC)T = C T AT (transpuesta del producto matricial).
= gji fkj (definición de transpuesta)
5. (In )T = In y (0/m×n )T = 0/n×m . j=1
�n

Demostración. Sean A = (aij )m×n ; B = (bij )m×n y C = (cjk )n×p . = fkj gji = hki (definición de producto)
j=1
��T
1. Hagamos AT = D = (dji )n×m y AT = DT = E = (eij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definición de transpuesta De donde
(AC)T = E = H = C T AT .
eij = dji = aij
5. ¡Ejercicio!
Luego
� �
T T
A = E = A.

Jorge Campos 21 22 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Definición 1.10. Sea A ∈ Mn×n (R). Diremos que 2. A es antisimétrica si y sólo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.

1. A es simétrica si AT = A. 3. Si A es antisimétrica, entonces aii = 0 para cualquiera i ∈ {1, . . . , n}.


T
2. A es antisimétrica si A = −A. Demostración. ¡Ejercicio!

Ejemplo 1.11.
A continuación definiremos una operación escalar6 sobre matrices, es bastante sencilla y se
1. In es simétrica para todo n ∈ Z+ . � usa, entre otras cosas, para conocer sobre el “buen comportamiento” computacional de una
matriz y para definir un producto interno (ver capı́tulo 4) entre matrices.
2. 0/n es simétrica y antisimétrica para todo n ∈ Z+ ¿existe alguna otra matriz que sea
simétrica y antisimétrica simultáneamente? � Definición 1.11. Dada una matriz cuadrada A ∈ Mn×n (R), se define la traza de A como
n

3. Toda matriz diagonal es una matriz simétrica. � el número real tr(A) = aii .
i=1
4. La matriz  
0 5 7 −6 El siguiente teorema resume las principales propiedades de la traza.
 −5 0 −4 8 
A=  Teorema 1.9. Sean A, B ∈ Mn×n (R), C ∈ Mm×n (R) y D ∈ Mn×m (R). Entonces
 −7 4 0 12 
6 −8 −12 0 1. tr(A + B) = tr(A) + tr(B) para cualesquiera A, B ∈ Mn×n (R).
es antisimétrica pues
2. tr(αA) = α tr(A) para cualesquiera α ∈ R y A ∈ Mn×n (R).
 
0 −5 −7 6 m �
n
  �
5 0 4 −8 3. tr(CD) = aij bji = tr(DC).
AT = 
 7 −4
 = −A
0 −12  i=1 j=1
−6 8 12 0 � �
4. tr AT = tr(A).

Demostración. ¡Ejercicio!
5. La matriz  
5 −9 3 0
 −9 2 −1 13 
A=
 3 −1

0 7 
0 13 7 −3
1.2. Operaciones Elementales por Filas
es simétrica ya que   Las operaciones elementales por filas son herramientas usadas con mucha frecuencia
5 −9 3 0 en la resolución de los sistemas de ecuaciones lineales al igual que en cálculo de la
 −9 2 −1 13  inversa de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el
AT = 
 3 −1
=A
0 7  curso, por ello deben ser manejadas con la mayor perfección posible por parte del estudiante
0 13 7 −3 que desee aprender la materia. Comencemos por definir dichas operaciones.
Denotemos por MFm (R) el conjunto formado por todas las matrices reales con m filas.

Definición 1.12. Una función f : MFm (R) → MFm (R) es llamada una operación ele-
Teorema 1.8. Sea A ∈ Mn×n (R). Entonces mental por filas (OEF) si es de uno de los siguientes tipos:
1. A es simétrica si y sólo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}. 6
Se le llama operación escalar pues el resultado es un escalar.

Jorge Campos 23 24 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

OEF Tipo 1. Si f (A) = B, entonces existen s ∈ {1, . . . , m} y α �= 0 tales que    


B(i) = A(i) para cada i ∈ {1, . . . , m}, con i �= s, y además B(s) = αA(s) , esto A(1) A(1)
 ..   .. 
es, una de las filas de A es multiplicada por un escalar no nulo y el resto de las  .   . 
filas permanecen iguales.    
 A(s−1)   A(s−1) 
   
 A(s)   A(t) 
   
 A(s+1)   A(s+1) 
 ..   .. 
    f (A) = f    =  =B
A(1) A(1)  .   . 
.. ..  A(t−1)    A(t−1) 
       
 .   .  
     A(t)   
  A(s) 
 A(s−1)   A(s−1)  
     A(t+1)   
  A(t+1) 

f (A) = f  A(s)  =  αA(s) =B  ..   .. 
     .    . 
 A(s+1)   A(s+1) 
   
 ...   ...  A(m) A(m)
A(m) A(m) Fs ↔ Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A → B.

Observación 1.13. Nótese que si A ∈ Mm×n (R) y f : MFm (R) → MFm (R) es una OEF,
Por comodidad, en lugar de escribir B = f (A), escribiremos A
Fs → αFs
→ B. entonces f (A) ∈ Mm×n (R).

Ejercicio 1.2.1. Pruebe que toda OEF f : MFm (R) → MFm (R) es una función invertible
y que su inversa f −1 : MFm (R) → MFm (R) es también una OEF del mismo tipo que f .
OEF Tipo 2. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m}, con s �= t, y α ∈ R tales
que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i �= s, y además B(s) = A(s) + αA(t) , Ejemplo 1.12. Sea  
es decir, a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, −2 4 −5
distinta de la primera, dejando el resto de las filas intactas.  6 3 4 
A=


2 −1 8 
−6 21 −15
   
A(1) A(1) Entonces
 ..   ..     
 .   . 
    −2 4 −5 2 −1 8
 A(s−1)   A(s−1)   4   6 4 

f (A) = f  A(s)
 
 =  A(s) + αA(t)

=B A=
6 3  F1 ↔ F3→  3 
     2 −1 8  (OEF 3)  −2 4 −5 
 A(s+1)   A(s+1) 
    −6 21 −15 −6 21 −15
 ...   ...     
2 −1 8 2 −1 8
1
A(m) A(m) F4 → 3 F4  6 3 4  F3 → F3 + F1  
→   →  6 3 4 =B
(OEF 1)  −2 4 −5  (OEF 2)  0 3 3 
−2 7 −5 −2 7 −5
Fs → Fs + αFt
Al igual que antes, escribiremos A → B, en lugar de escribir B = f (A). �

Observación 1.14. Se pueden aplicar más de dos operaciones por filas en un solo paso,
OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) lo único que debemos cuidar es no transformar, en el mismo paso, una fila más de
para cada i ∈ {1, . . . , m}, con i �= s e i �= t y además B(s) = A(t) y B(t) = A(s) , una vez y no transformar, en el mismo paso, una fila que va ser usada para
dicho de otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar. transformar a otra(s).

Jorge Campos 25 26 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

 
Observación 1.15. De manera análoga a como se definieron las operaciones elementales 1 0 0 7
por filas, pueden definirse operaciones elementales por columnas (OEC) sobre el con-  0 0 0 0 
 
junto MCn (R) formado por todas las matrices reales con n columnas, sin embargo, estas 3. R = 
 0 0 1 −9  es reducida por filas pero no es escalonada. �
últimas sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas  0 0 0 0 
de ecuaciones lineales ni para calcular la inversa de una matriz cuadrada, en estos últimos 0 1 0 1
dos problemas sólo usaremos las operaciones elementales por filas. Al igual que las operacio-  
nes elementales por filas, las operaciones elemnetales por columnas también son invertibles y 1 0 −5 0 8
 0 1 3 0 −1 
sus inversas son también OEC del mismo tipo que la original.  
4. F = 
 0 0 0 1 −2   es escalonada reducida por filas. �
Definición 1.13. Sea A = (aij )m×n ∈ Mm×n (R). Diremos que A es una matriz  0 0 0 0 0 
0 0 0 0 0
Escalonada
Ejercicio 1.2.2. Sea A ∈ Mm×n (R). Pruebe que:
1. Si todas las filas nulas de A, si las hay, están ubicadas en las últimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) también es no nula para 1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo
cada 1 ≤ s < i. sumo, el mı́nimo entre m y n.

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo
nula de A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera entre m y n.
componente no nula de A(i+1) , es decir, si j, k ∈ {1, . . . , n} son tales que aij �= 0;
a(i+1)k �= 0 y ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces Ejercicio 1.2.3. Pruebe que si A ∈ Mn×n (R) es una matriz escalonada, entonces A es
j < k. triangular superior.
Definición 1.14. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
Reducida por Filas (RF) existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A).
1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es Ejemplo 1.14. Consideremos las matrices A y B del ejemplo 1.12. Entonces B es equiva-
igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . . , n} lente por filas a A (¿por qué?). �
es tal que aij �= 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.
Teorema 1.10. Sean A, B, C ∈ Mm×n (R). Tenemos que
2. Si A(j) es una columna de A que tiene un pivote, la cual es llamada columna
pivote, entonces el resto de las componentes de A(j) son iguales a 0 (cero), esto 1. A es equivalente por filas a A.
es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 ≤ s < j, entonces
akj = 0 para cada k ∈ {1, . . . , m} con k �= i. 2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es


Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas si-
equivalente por filas a A.
multáneamente.
Demostración. ¡Ejercicio!
Ejemplo 1.13.

1. Para cualesquiera m, n ∈ Z+ , In y 0/m×n son escalonadas reducidas por filas. � Observación 1.16. La parte 2 del teorema 1.10, nos permite decir A y B son equivalentes
  por filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.
2 −1 3 8 3
 0 5 1 6 −4  Teorema 1.11. Toda matriz A ∈ Mm×n (R) es equivalente por filas a:

2. E =   es escalonada pero no es reducida por filas. �
0 0 0 8 −7 
0 0 0 0 0 1. Una matriz escalonada.

Jorge Campos 27 28 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

2. Una matriz reducida por filas.  


1 0 −2 0 1
3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalo-  0 1 3 0 −3 
C=
 0

nada reducida por filas (FERF) de A. 0 0 1 2 
0 0 0 0 0
Demostración. Ver apéndice D

Observación 1.17. Observe que A ∈ Mn×n (R) es equivalente por filas a In si y sólo si In Definición 1.15. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una
es la FERF de A. OEF f : MFn (R) → MFn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de
una única OEF.
Observación 1.18. Dada una matriz no nula A ∈ Mm×n (R), la cantidad de matrices es-
calonadas, que son equivalentes por filas a A, son infinitas, pero la cantidad de matrices Ejemplo 1.16.
reducidas por filas, que son equivalentes por filas a A, son, a lo sumo m!.  
1 0 0 0
El siguiente ejemplo ilustra el procedimiento a seguir para calcular la FERF de una matriz,  0 1 0 0 

1. E1 =   es elemental, pues
los pasos pueden variar en cantidad y en el orden, sin embargo, el resultado final debe ser el −5 0 1 0 
mismo sin importar los pasos previos. 0 0 0 1
   
Ejemplo 1.15. Calcular la FERF de 1 0 0 0 1 0 0 0
 0 1 0 0   0 

6 −1 −15 2 13

I4 =   F3 → F3 − 5F1  0 1 0  = E1
 0 0 1 0  →  −5 0 1 0 
 −1 0 2 −1 −3 
A=
 0 −3 −9
 0 0 0 1 0 0 0 1
0 9 

7 1 −11 3 10
 
1 0 0
Solución. 2. E2 = 0 4 0  es elemental, ya que

    0 0 1
6 −1 −15 2 13 −1 0 2 −1 −3    
 −1 0 2 −1 −3    6 −1 −15 2 13  1 0 0 1 0 0
A=  0 −3 −9 F ↔ F2  
0 9  1 →  0 −3 −9 0 9  I3 =  0 1 0  F2 → 4F2  0 4 0  = E2

7 1 −11 3 10 7 1 −11 3 10 0 0 1 0 0 1
   
1 0 −2 1 3 1 0 −2 1 3 �
 6 −1 −15 2 13  F2 → F2 − 6F1  0 −1 −3 −4 −5   
F1 → −F1   →  
1 0 0 0 0
→  0 −3 −9 0 9  F4 → F4 − 7F1  0 −3 −9 0 9 
 0 0 0 0 1 
7 1 −11 3 10 0 1 3 −4 −11  
    3. E3 =  0 0 1 0 0  es elemental, dado que
1 0 −2 1 3 1 0 −2 1 3  
 0  F3 → F3 + 3F2  0 1   0 0 0 1 0 
1 3 4 5 3 4 5
F2 → −F2   →   0 1 0 0 0
→  0 −3 −9 0 9  F 4 → F4 − F 2  0 0 0 12 24 
   
0 1 3 −4 −11 0 0 0 −8 −16 1 0 0 0 0 1 0 0 0 0
   
1 0 −2 1 3 1 0 −2 0 1  0 1 0 0 0   0 0 0 0 1 
F 1 → F 1 − F 3    
 0 1 3 4 5   0 1 3 0 −3  I5 =   F 2 ↔ F5  0 0 1  = E3
1
F3 → 12 F3   F2 → F2 − 4F3    0 0 1 0 0  →
0 0 
→ 0 0 0 1 2  →  0 0 0 1 2   0 0 0 1 0   0 0 0 1 0 
F4 → F4 + 8F3
0 0 0 −8 −16 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0
Ası́ que la FERF de A es �

Jorge Campos 29 30 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Teorema 1.12. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : MFm (R) → MFm (R) una OEF. 1.3. Sistemas de Ecuaciones Lineales
Entonces
La presente sección está muy relacionada con las OEF y las matrices, y es, quizás, junto
1. f (AB) = f (A)B. con la sección anterior, el más importante del presente capı́tulo.
� � Definición 1.16. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas,
2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
donde m, n ∈ Z+ , es un conjunto de m ecuaciones de la forma
� � � � � � �� 
f (A) = f A(1) f A(2) · · · f A(n)  a1,1 x1 + a1,2 x2 + · · · + a1n xn = b1


 a2,1 x1 + a2,2 x2 + · · · + a2n xn = b2
es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A. .. .. .. .. .. (1.4)

 . . . . .

 a x + a x + ··· + a x = b
Demostración. Ver apéndice D. m,1 1 m,2 2 mn n m

donde x1 , x2 , . . . , xn son las incógnitas del sistema (1.4) y toman valores en R; aij ∈ R son
Como una consecuencia directa de este teorema tenemos el siguiente resultado. números fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes
del sistema (1.4) y b1 , b2 , . . . , bm ∈ R son fijos y son los términos independientes del
Corolario 1.13. Si f, f1 , f2 , . . . , fr : MFm (R) → MFm (R) son OEF, y si consideramos sistema (1.4).
A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces Si b1 = b2 = · · · = bm = 0, diremos que el sistema (1.4) es homogéneo, en caso contrario
diremos que es no homogéneo.
1. f (A) = f (Im )A = EA donde E = f (Im ) es una matriz elemental. Cuando m = n, se dice que el sistema (1.4) es un sistema cuadrado.
Si hacemos
2. (f1 ◦ f2 ◦ · · · ◦ fr )(AB) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)B.      
� � a1,1 a1,2 · · · a1n b1 x1
3. ((f1 ◦ f2 ◦ · · · ◦ fr )(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr ) A(j) para cada j ∈ {1, . . . , m}.  a2,1 a2,2 · · · a2n   b2   x2 
     
A = (aij )m×n =  .. .. ..  ; b =  ..  y x =  ..  ,
 . . .  . .
Demostración. ¡Ejercicio! am1 am2 · · · amn bm xn

el sistema (1.4) equivale a la ecuación matricial Ax = b (¡verifı́quelo!), que llamaremos re-


Otra consecuencia del mismo teorema, en conjunción con el corolario anterior, es la si- presentación matricial del sistema (1.4). La matriz A es llamada matriz de coeficientes
guiente. o matriz del sistema (1.4), la matriz
 
Corolario 1.14. Sean A, B ∈ Mm×n (R) dos matrices equivalentes por filas. Entonces existen a1,1 a1,2 · · · a1n b1
matrices elementales E1 , E2 , . . . , Er ∈ Mm×m (R) tales que B = E1 E2 · · · Er A.  a2,1 a2,2 · · · a2n b2 
 
[A|b] =  .. .. .. .. 
Demostración. ¡Ejercicio!  . . . . 
am1 am2 · · · amn bm

Observación 1.19. Para las OEC, existen resultados y definiciones equivalentes a las dadas es llamada matriz ampliada del sistema (1.4), x se conoce con el nombre de matriz
para las OEF, entre estas tenemos: matrices equivalentes por columnas, matrices ele- incógnita o matriz de incógnitas del sistema (1.4) y b es conocida como matriz de
mentales (por columnas), estás últimas no difieren de las matrices elementales (por filas) términos independientes del sistema (1.4).
pues se puede probar que toda matriz elemental (por filas) es también una matriz elemental El sistema 
(por columnas) y viceversa, de allı́ la razón por la cual simplemente se les llama matrices 
 a1,1 x1 + a1,2 x2 + · · · + a1n xn = 0

 a2,1 x1 + a2,2 x2 + · · · + a2n xn = 0
elementales. Otro resultado es que si f : MCp (R) → MCp�(R) es � una OEC, A ∈ Mm×n (R) (1.5)
.. .. .. .. ..
y B ∈ Mn×p (R), entonces f (AB) = Af (B), (f (B))(j) = f B(j) para cada j ∈ {1, . . . , n} y 
 . . . . .

 a x + a x + ··· + a x = 0
f (B) = Bf (Ip ) = BE. m,1 1 m,2 2 mn n

Jorge Campos 31 32 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

es llamado sistema homogéneo asociado al sistema (1.4). las matrices incógnitas y de términos independientes del sistema son, respectivamente
Diremos que s1 , s2 , . . . , sn es una solución del sistema (1.4) si al sustituir x1 = s1 ,
 
x2 = s2 , . . . , xn =
 sn en (1.4), las igualdades son satisfechas, más propiamente hablando, x1 � �
 x2  0
s1 y
 s2  4
  x3
diremos que s =  ..  es solución del sistema (1.4) si As = b.
. 
 6x −2y +9z = 1
sn
2. −5x +12y −3z = −2
Se dice que el sistema (1.4) es 
x 6z = 6
Inconsistente si no tiene solución alguna. es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es
no homogéneo y su representación matricial es
Consistente si tiene al menos una solución, cuando tiene una única solución, se di-
    
ce que es consistente determinado, si tiene más de una solución, se dice que es 6 −2 9 x 1
consistente indeterminado.  −5 12 −3   y  =  −2 
1 0 6 z 6
Observación 1.20. En general, no haremos diferencia al referirnos al sistema y a su re-
presentación matricial. El sistema homogéneo asociado a este sistema es

Observación 1.21. Todo sistema homogéneo Ax = 0m×1 es consistente, x = 0n×1 es solu-
/ /
 6x −2y +9z = 0
−5x +12y −3z = 0
ción de éste, la cual es llamada solución trivial. 
x 6z = 0
 
x1
 x2  �
 
Observación 1.22. Es claro si A ∈ Mm×n (R) y x =  ..  ∈ Mn×1 (R), entonces
. Una pregunta que surge de manera inmediata es ¿cómo garantizar si un sistema de ecua-
xn ciones lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver
dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero
Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) antes daremos las bases teóricas que nos permitan usar dichas herramientas.

Ejemplo 1.17. Teorema 1.15. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas
de ecuaciones lineales con m ecuaciones y n incógnitas. Supongamos que las matrices [A|b]

3x1 +2x2 −6x3 = 0 y [C|d] son equivalentes por filas. Entonces ambos sistemas tienen exáctamente las mismas
1. soluciones o ninguno tiene solución.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no ho- Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces
mogéneo, su representación matricial es existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que
  (f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]
� � x1 � �
3 2 −6  x2  = 0
−1 5 −7 4 por la parte 3 del corolario 1.13
x3
(f1 ◦ f2 ◦ · · · ◦ fr )(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d
La matriz y la matriz ampliada del sistema son, respectivamente
� � � � y por la parte 2 del mismo corolario, tenemos que
3 2 −6 3 2 −6 0
y (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x
−1 5 −7 −1 5 −7 4

Jorge Campos 33 34 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales


Ası́ que, si Ax = b, entonces  x +y −2z +w = 1
4. 4x +2y +2z = −2
Cx = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x = (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d 
2y −10z +4w = 3
Además, en virtud del ejercicio 1.2.1, sabemos que f1 , f2 , . . . , fr son invertibles y que sus Solución.
inversas f1−1 , f2−1 , . . . , fr−1 son también OEF sobre MFm (R), luego, si Cx = d, entonces
1. La matriz ampliada del sistema es
 
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )(A) = C) 2 1 −1 1
 2 −1 5 5 
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
0 −1 3 2
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(Cx) (por la parte 2 del corolario 1.13)
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(d) (por hipótesis) Calculemos su FERF
= (f1 ◦ f2 ◦ · · · ◦ fr )−1 (d) (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
   1

= b (pues (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d) 2 1 −1 1 1 2
− 12 12
 2 −1 5 5  F1 → 12 F1  2 −1 5 5 
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsis- 0 −1 3 2 → 0 −1 3 2
tentes o ambos tienen la(s) misma(s) solución(es).  1 1 1
  1

1 2
− 2 2
1 2
− 12 1
2
F2 → F2 − 2F1  0 −2 
6 4 F1 → − 2 F1 1  0 1 −3 −2 
Observación 1.23. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el → → 0 −1
0 −1 3 2 3 2
sistema es o no consistente, y en caso de serlo, es sencillo calcular la(s) solución(es) de éste.  3

1
F 1 → F1 − 2 F 2 1 0 1
La idea es calcular la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.15, 2
→  0 1 −3 −2 
resolver, de manera sencilla, el sistema dado. F 3 → F3 + F2 0 0 0 0
Corolario 1.16. Sean A, C ∈ Mm×n (R) y b, d ∈ Mm×1 (R) tales que [C|d] es la FERF de La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que
[A|b]. El sistema Ax = b tiene solución si y sólo si el número de filas no nulas de [C|d] es no aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
igual al número de filas no nulas de C. � 3
x +z = 2
Demostración. ¡Ejercicio! y −3z = −2
que a su vez equivale a �
Ejemplo 1.18. Decidir cuál(es) de los siguientes sistemas son consistentes y cuál(es) no, x = −z + 32
en caso de serlo, mostrar su(s) solución(es). y = 3z − 2

 2x +y −z = 1 Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obte-
1. 2x −y +5z = 5 nemos
 3
−y +3z = 2 x = −α + ; y = 3α − 2
 2

 2x +y −z = 2 En consecuencia la solución del sistema dado viene dada por

x −2y +4z = −3
2. 3

 5x −4y +8z = −9 x = −α + ; y = 3α − 2; z = α; con α ∈ R
 2
−y +3z = 2
 o bien        3 
 x +y −2z +w = 1 x −α + 32 −1 2
3. 4x +2y +2z = −2  y  =  3α −2  = α  3  +  −2  ; con α ∈ R

2y −10z +3w = 3 z α 1 0

Jorge Campos 35 36 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

   
2. En este caso la matriz ampliada del sistema es 1 1 −2 1 1 1 1 −2 1 1
   4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 
2 1 −1 2 →
 1 −2  0 2 −10 3 3 0 2 −10 3 3
 4 −3     
 5 −4 8 −9  1 1 −2 1 1 1 0 3 −1 −2
  F 1 → F1 − F 2 
0 −1 3 2 1
F2 → − 2 F2 0 1 −5 2 3 → 0 1 −5 2 3 
→ 0 2 −10 3 3 F3 → F3 − 2F2
0 0 0 −1 −3
Vamos a calcular su FERF    
1 0 3 −1 −2 1 0 3 0 1
    F 1 → F1 + F3
2 1 −1 2 1 −2 4 −3 F3 → −F3  0 1 −5 2 3  →  0 1 −5 0 −3 
→ F2 → F2 − 2F3
 1 −2 4 −3   2 1 −1 2  0 0 0 1 3 0 0 0 1 3
  F ↔ F2  
 5 −4 8 −9  1 →  5 −4 8 −9  En consecuencia el sistema dado es equivalente al sistema
0 −1 3 2 0 −1 3 2
    
1 −2 4 −3 1 −2 4 −3  x +3z = 1
F2 → F2 − 2F1  0 5 −9 
8   0 −1 3 2  y −5z = −3
→  F ↔ F4    
F3 → F3 − 5F1  0 6 −12 6  2 → 0 6 −12 6  w = 3
0 −1 3 2 0 5 −9 8
    o equivalentemente 
1 −2 4 −3 1 0 −2 −7  x = −3z + 1
 0 F1 → F1 + 2F2
1 −3 −2  → 
 F3 → F3 − 6F2  0 1 −3 −2  y = 5z − 3
F2 → −F2  

→ 0 6 −12 6   0 0 6 18  w = 3
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
   
1 0 −2 −7 1 0 0 −1 Por lo tanto el sistema original es consistente indeterminado. Si hacemos z = α, con
 0 1 −3 −2  F1 → F1 + 2F3→  0 1 0 7  α ∈ R, tenemos que la solución del sistema es
F3 → 16 F3   F2 → F2 + 3F3  
→ 0 0 1 3   0 0 1 3         
F4 → F4 − 6F3 x −3α +1 −3 1
0 0 6 18 0 0 0 0
 y   5α −3     −3 
Luego, el sistema dado, es equivalente al sistema  =  = α 5 +  con α ∈ R
 z   α   1   0 ;
 w 3 0 3
 x = −1
y = 7
 4. Calculemos la FERF de la matriz
z = 3
 
Por lo tanto el sistema es consistente determinado y su solución es 1 1 −2 1 1
 4 2 2 0 −2 
x = −1; y = 7; z=3
0 2 −10 4 3
o bien    
x −1 que es la matriz ampliada del sistema
 y = 7     
1 1 −2 1 1 1 1 −2 1 1
z 3  4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 

3. Calculemos la FERF de la matriz ampliada del sistema que es 0 2 −10 4 3 0 2 −10 4 3
   
1 1 −2 1 1 1 1 −2 1 1
 4 2 2 0 −2  F3 → F3 + F2  0 −2 10 −4 −6 

0 2 −10 3 3 0 0 0 0 −3

Jorge Campos 37 38 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Sin necesidad de llegar a la FERF de la matriz, vemos que la última fila de esta última Es claro que, en general, en virtud del teorema 1.19, el sistema homogéneo asociado tiene
matriz equivale a la ecuación como única solución la trivial si y sólo si el sistema dado tiene solución única.
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
0 · x + 0 · y + 0 · z + 0 · w = −3    
1 −3
la cual es contradictoria, en consecuencia, el sistema original es inconsistente.  −3   5 
xp =    
 0  ; xh = α  1  ; con α ∈ R
3 0
Teorema 1.17. El sistema homogéneo Ax = 0/m×1 , con A ∈ Mm×n (R), tiene infinitas so-
luciones si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que �
ecuaciones, entonces es consistente indeterminado. Ejercicio 1.3.1. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para
Demostración. ¡Ejercicio! cada b ∈ Mm×1 (R), entonces m ≤ n.

En el ejemplo que daremos a continuación, se trata de una aplicación de los sistemas de


Teorema 1.18. Sea A ∈ Mm×n (R). Supongamos que x1 , x2 ∈ Mn×1 (R) son soluciones del ecuaciones lineales en la vida real.
sistema homogéneo Ax = 0/m×1 . Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son
también soluciones del sistema. Ejemplo 1.20. Se quiere construir una urbanización residencial, el arquitecto de la obra
debe escoger combinaciones entre tres diseños de manzanas para la obra. En el primer diseño
Demostración. ¡Ejercicio! cada manzana consta de 18 casas tipo estudio, 15 casas familiares y 3 casas de lujo. Para el
segundo diseño la distribución de las casas es de 12 tipo estudio, 24 familiares y 2 de lujo.
El tercer diseño de manzana consta de 12 casas tipo estudio, 31 casas familiares y 2 de lujo.
Teorema 1.19. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Supongamos que xp es una solución Elabore un cuadro donde indique la cantidad de casas tipo estudio, casas familiares y casas de
del sistema Ax = b. Entonces, para cada solución xg del sistema Ax = b, existe una solución lujo por cada uno de los diseños de manzana. ¿Es posible diseñar una urbanización residencial
xh de Ax = 0/m×1 tal que xg = xh + xp . que tenga exactamente 84 casas tipo estudio, 210 casas familiares y 14 casas de lujo? Elabore
Demostración. Dado que xp es solución del sistema Ax = b, tenemos que Axp = b. Sea xg y resuelva un sistema de ecuaciones lineales, el cual represente el problema planteado, para
una solución cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp . Ası́ que sustentar su respuesta. Si la respuesta es afirmativa, ¿hay más de una manera de hacerlo?
¿cuántas?.
Axh = A(xg − xp ) = Axg − Axp = b − b = 0/m×1
Solución.
es decir, xp es solución del sistema homogéneo Ax = 0/m×1 y además xg = xh + xp .
Tipo de manzana:
Diseño 1 Diseño 2 Diseño 3
Ejemplo 1.19. Para el sistema de la parte 1 del ejemplo 1.18 tenemos que Cantidad estudio 18 12 12
 3    de casas familiar 15 24 31
2
−1 tipo: de lujo 3 2 2
 
xp = −2 ; xh = α  3  ; con α ∈ R
0 1 Cuadro 1.4: Cantidad de departamentos por cada diseño de piso.

Para el sistema de la parte 2 del mismo ejemplo, se tiene que


    Veamos si es posible construir una urbanización con 84 casas tipo estudio, 210 casas fami-
−1 0 liares y 14 casas de lujo, para ello lo primero que debemos hacer es definir las incógnitas del
x p =  7  ; xh =  0  problema. Sean
3 0 x: la cantidad de manzanas en la urbanización con el diseño 1.
Nótese que en este caso xg = xp . y: la cantidad de manzanas en la urbanización con el diseño 2.

Jorge Campos 39 40 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

z: la cantidad de manzanas en la urbanización con el diseño 3. Demostración. Sea A ∈ Mn×n (R) una matriz invertible y supongamos que B, C ∈ Mn×n (R)
Ası́ que la cantidad total de casas tipo estudio está dada por 18x + 12y + 12z, la cantidad son inversas de A. Entonces
total de casas familiares viene dada por 15x + 24y + 31z y la cantidad total de casas de lujo
AB = In = BA (1.6)
es 3x + 2y + 2z. Dado que la urbanización debe tener exactamente 84 casas tipo estudio, 168
casas AC = In = CA (1.7)
 familiares y 14 casas de lujo, entonces obtenemos el sistema
 18x +12y +12z = 84 Luego
15x +24y +31z = 210
 C = CIn (por la parte 5 del teorema 1.6)
3x +2y +2z = 14
Aparte de las ecuaciones anteriores, debemos notar que x, y, z ∈ N (¿por qué?). Al resolver = C(AB) (por la ecuación 1.6)
el sistema obtenemos como solución x = 13 z − 2,y = − 32 z + 10 y dado que x, y, z ∈ N, se tiene, = (CA)B (por la parte 1 del teorema 1.6)
en primer lugar, que z = 6k con k ∈ N, de donde x = 2k − 2 ≥ 0, y = −9k + 10 ≥ 0, ası́ que = In B (por la ecuación 1.7)
k = 1 (¿por qué?) y en consecuencia el sistema obtenido tiene una única solución, a saber
= B (por la parte 5 del teorema 1.6)
x = 0, y = 1 y z = 6, es decir, la urbanización debe tener en total 7 manzanas, 1 manzana
del diseño 2 y 6 manzanas del diseño 3.
Teorema 1.21. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α �= 0. Entonces
−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa).
1.4. Inversa de una Matriz Cuadrada 2. AB es invertible y (AB) −1
= B −1 A−1 (inversa del producto matricial).
En la presente sección presentaremos un breve estudio sobre las matrices invertibles y 3. αA es invertible y (αA)−1 = α−1 A−1 (inversa del múltiplo escalar).
sus aplicaciones en la resolución de los sistemas de ecuaciones, cabe destacar que se pueden � �−1 T
definir inversas laterales de matrices no cuadradas, sin embargo, sólo estudiaremos el caso 4. AT es invertible y AT = (A−1 ) (inversa de la transpuesta).
de matrices cuadradas. Demostración.
Definición 1.17. Sea A ∈ Mn×n (R). Diremos que A es invertible o inversible si existe 1. Se deduce directamente de la definición de matriz invertible.
una matriz B ∈ Mn×n (R) tal que
2. En primer lugar
AB = In = BA
(AB)(B −1 A−1 ) = ABB −1 A−1 (teorema 1.6 parte 1)
Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.
= A(BB −1 )A−1 (teorema 1.6 parte 1)
� � � �
2 −2 2 1 = AIn A−1 (definición de matriz inversa)
Ejemplo 1.21. Si A = , entonces B = 3 es una inversa de A ya que
−3 4 2
1 = (AIn )A−1 (teorema 1.6 parte 1)
� �� � � � � � = AA−1 (teorema 1.6 parte 5)
2 −2 2 1 4−3 2−2 1 0
AB = 3 = = = I2 = In (definición de matriz inversa)
−3 4 2
1 −6 + 6 −3 + 4 0 1
Además
� �� � � � � �
2 1 2 −2 4 − 3 −4 + 4 1 0 (B −1 A−1 )(AB) = B −1 A−1 AB (teorema 1.6 parte 1)
BA = 3 = = = I2
1 −3 4 3 − 3 −3 + 4 0 1
2 = B −1 (A−1 A)B (teorema 1.6 parte 1)
� = B −1 In B (definición de matriz inversa)
= (B −1 In )B (teorema 1.6 parte 1)
Teorema 1.20. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por = B −1 B (teorema 1.6 parte 5)
A−1 . = In (definición de matriz inversa)

Jorge Campos 41 42 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Luego, por la definición 1.17, se tiene que AB es invertible, y por el teorema 1.20, y
tenemos que (AB)−1 = B −1 A−1 .
F E = f −1 (In )f (In )
3. Veamos = f −1 (f (In )) (corolario 1.13 parte 1)
= In
(αA)(α−1 A−1 ) = (α−1 (αA))A−1 (teorema 1.6 parte 4)
= ((α−1 α)A)A−1 (teorema 1.2 parte 7) Luego, E es invertible y E −1 = F , es decir, (f (In ))−1 = f −1 (In ).
= (1 · A)A−1
= AA−1 (teorema 1.2 parte 8) Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea
= In (definición de matriz inversa) ¿cómo calcular A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento, sin embargo, antes que
Análogamente, se prueba que (α−1 A−1 )(αA) = In . Nuevamente, usando la definición nada, enunciaremos un par de resultados que nos permitirán garantizar que el procedimiento
1.17 y el teorema 1.20, se tiene que αA es invertible y (αA)−1 = α−1 A−1 . empleado es válido.
El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no invertible.
4. Por un lado
Teorema 1.23. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
AT (A−1 )T = (A−1 A)T (teorema 1.7 parte 4) 1. A es invertible.
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) 2. El sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).
3. El sistema homogéneo Ax = 0/n×1 tiene como única solución la trivial.
Por otro lado
4. A es equivalente por filas a In .
(A−1 )T AT = (AA−1 )T (teorema 1.7 parte 4)
5. Existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) tales que A = E1 E2 · · · Er .
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) Demostración.

Por lo tanto,� haciendo T


uso de la definición 1.17 y del teorema 1.20, se tiene que A es (1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definición de matriz inversa, existe
�−1
invertible y AT
T
= (A−1 ) . A−1 ∈ Mn×n (R) tal que AA−1 = In = A−1 A.
Sean b ∈ Mn×1 (R) cualquiera y x0 ∈ Mn×1 (R) una solución del sistema Ax = b.
Entonces

Teorema 1.22. Toda matriz elemental es invertible y su inversa es también una matriz x0 = In x0 (teorema 1.6 parte 5)
elemental. = (A−1 A)x0 (por definición de inversa)
= A−1 (Ax0 ) (teorema 1.6 parte 1)
Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF
f : MFn (R) → MFn (R) tal que E = f (In ). El ejercicio 1.2.1 garantiza que f es inverti- = A−1 b (pues x0 es solución del sistema Ax = b)
ble y su inversa f −1 es también una OEF sobre MFn (R), ası́ que F = f −1 (In ) es una matriz
elemental, además Ası́ que el sistema Ax = b tiene como única solución x0 = A−1 b.
(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada
EF = f (In )f −1 (In )
b ∈ Mn×1 (R). Entonces el sistema homogéneo Ax = 0/n×1 tiene una única solución,
= f (f −1 (In )) (corolario 1.13 parte 1) pero sabemos que x = 0/n×1 es solución de este sistema (observación 1.21), ası́ que la
= In única solución de dicho sistema es la solución trivial.

Jorge Campos 43 44 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del
trivial. teorema 1.23, B es invertible. Además
Procederemos por reducción al absurdo. Supongamos que A no es equivalente por filas
A = AIn (teorema 1.6 parte 5)
a In . Por lo tanto, usando la observación 1.17, si CA es la FERF de A, entonces CA
debe tener alguna fila nula (¿por qué?), la cual debe estar ubicada en la última posición = A(BB −1 ) (definición de matriz inversa)
pues CA es escalonada reducida por filas, esta fila equivale a la ecuación = (AB)B −1 (teorema 1.6 parte 1)
= In B −1 (por hipótesis)
0 · x 1 + 0 · x2 + · · · + 0 · x n = 0
= B −1 (teorema 1.6 parte 5)
donde  
x1 Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema
 x2  1.21 A−1 = (B −1 )−1 = B.
 
x =  .. 
.
xn Observación 1.24. El teorema 1.24 nos permite garantizar que A−1 = B sólo con probar
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 . que AB = In o BA = In .
Definamos DA ∈ M(n−1)×n (R) la matriz que se obtiene al eliminar la última fila de Ejemplo 1.22. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
CA . Luego el sistema homogéneo Ax = 0/n×1 es equivalente al sistema homogéneo afirmativo, calcular A−1 .
DA x = 0/(n−1)×1 el cual, en virtud del teorema 1.17, tiene infinitas soluciones, de donde, � �
el sistema Ax = 0/n×1 tiene infinitas soluciones, lo cual contradice la hipótesis, por lo 2 −2
1. A =
tanto A es equivalente por filas a In . −3 4
� �
(4. ⇒ 5.) Es consecuencia directa del corolario 1.14. 2 −8
2. A =
−3 12
(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices
elementales. Dado que toda matriz elemental es invertible (teorema 1.22), y usando Solución.
recursivamente la parte 2 del teorema 1.21, se tiene que A es invertible.
1. Supongamos que A es invertible y sea
Lo cual concluye la prueba. � �
x y
B=
z w
Teorema 1.24. Sean A, B ∈ Mn×n (R). Si AB = In , entonces BA = In ; y en consecuencia
A−1 = B. tal que AB = I2 , ası́ que
Demostración. Supongamos que AB = In . Sea xh una solución del sistema homogéneo � � � � � � � �
x 1 y 0
Bx = 0/n×1 . Entonces A = y A =
z 0 w 1
Bxh = 0/n×1 . (1.8)
Luego como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de
manera simultánea considerando la siguiente matriz (dos veces) ampliada
xh = In xh (teorema 1.6 parte 5)
� �
= (AB)xh (por hipótesis) 2 −2 1 0
[A|I2 ] =
= A(Bxh ) (teorema 1.6 parte 1) −3 4 0 1
= A 0/n×1 (por ecuación 1.8) Al calcular la FERF de esta matriz, las tercera y cuarta columnas nos darán, respecti-
= 0/n×1 (teorema 1.6 parte 6) vamente, las soluciones del primer y segundo sistema, si existen, que a su vez nos darán,

Jorge Campos 45 46 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

respectivamente, las primera y segunda columnas de B, si existe. Calculemos entonces Solución.


la FERF de esta matriz.    
� � � � 2 0 3 1 1 0 0 0 1 −1 2 −2 0 0 1 0
2 −2 1 0 1 −1 12 0
[A|I2 ] = F1 → 12 F1  −1   0 
−3 4 0 1 → −3 4 0 1  1 1 3 0 1 0 0  F1 ↔ F3  −1 1 1 3 0 1 0 
� � � �  1 −1 2 −2 0 0 1 0  → 2 0 3 1 1 0 0 0 
1 −1 12 0 1 0 2 1 0 1 −1 2 0 0 0 1 0 1 −1 2 0 0 0 1
F2 → F2 + 3F1 3 F 1 → F1 + F2 3  
→ 0 1 2 1 → 0 1 2 1
1 −1 2 −2 0 0 1 0
Por lo tanto � � F 2 → F2 + F1  1 0 
2 1 →  0 0 3 1 0 1 
B= 3 F3 → F3 − 2F1  0 2 −1 5 1 0 −2 0 
2
1 0 1 −1 2 0 0 0 1
 
En consecuencia, en virtud del teorema 1.24, A es invertible y 1 −1 2 −2 0 0 1 0
� �  0 1 −1 2 0 0 0 1 
A−1 = B = 3
2 1 F 2 ↔ F4  
1 → 0 2 −1 5 1 0 −2 0 
2
0 0 3 1 0 1 1 0
 
Comparar este resultado con la matriz del ejemplo 1.22. 1 0 1 0 0 0 1 1
F 1 → F1 + F2  0 1 −1 2 0 0 0 1 
2. Como en el caso anterior, supongamos que existe →  
� � F3 → F3 + 2F2  0 0 1 1 1 0 −2 −2 
x y 0 0 3 1 0 1 1 0
B=  
z w 1 0 0 −1 −1 0 3 3
F 1 → F1 − F 3
→  0 1 0 3 1 0 −2 −1 
tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ]. F 2 → F2 + F3   0 0 1

� � � � 1 1 0 −2 −2 
2 −8 1 0 1 −4 12 0 F4 → F4 − 3F3
0 0 0 −2 −3 1 7 6
[A|I2 ] = F1 → 12 F1  
−3 12 0 1 → −3 12 0 1 1 0 0 −1 −1 0 3 3
� �
1 −1 12 0  0 1 0 3 1 0 −2 −1 
F2 → F2 + 3F1 F4 → − 12 F4  
→ 0 0 32 1 → 0 0 1 1 1 0 −2 −2 
3 1 7
La última fila de esta última matriz equivale a las ecuaciones 0 0 0 1 − 2 − 2 −3
 2
1

1 0 0 0 − 12 − 12 0
3 F 1 → F1 + F4 2
0·x+0·z = 0·y+0·w =1 →  0 1 0 0 −2 7 3 17
8 
2 F2 → F2 − 3F4   0 0 1 0 −1
2 2 
2
1
2
3
2
1 
Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible. F 3 → F3 − F 4 3 1 7
0 0 0 1 2
− 2
− 2
−3
Luego A es invertible y
   
Estos dos ejemplos, como dijimos antes, junto con los dos resultados previos, ilustran el 1
− 12 − 12 0 1 −1 −1 0
2
procedimiento general para decidir si una matriz cuadrada A es o no invertible, además, en  −7 3 17
8  1  
A−1 = 2 2 2  =  −7 3 17 16 
caso afirmativo, nos permite calcular A−1 .  −1 1 3
1  2  −1 1 3 2 
2 2 2
3
Ejemplo 1.23. Decidir si la matriz 2
− 12 − 72 −3 3 −1 −7 −6
 
2 0 3 1
 −1 1 1 3 
A=
 1 −1
 Cabe destacar que, el procedimiento empleado en el ejemplo previo, adolece de un pequeño
2 −2 
0 1 −1 2 problema que por ahora no puede ser zanjado, el hecho es que, los cálculos que se hacen sobre
la matriz identidad, son irrelevantes para decidir si A es o no invertible, pero cuando A es
es invertible o no, en caso afirmativo, calcular A−1 . invertible, estos mismos cálculos, nos permiten decir cual es la inversa de A. Lo ideal serı́a

Jorge Campos 47 48 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

saber de antemano si A es o no invertible. Más adelante haremos uso de los determinantes Solución. Según lo comentado antes del ejercicio, basta conseguir la FERF de la matriz
para garantizar este hecho, por lo momentos no tenemos alternativa alguna.  
3 1 1 2 −2 0
Teorema 1.25. Sean A, B ∈ Mn×n (R). Si AB es invertible, entonces A y B también son A =  −3 −7 −2 0 1 3 
invertibles. 2 2 1 1 4 −1

Demostración. ¡Ejercicio! que en este caso es  


1
1 0 0 − 27 1
Sugerencia: Proceder de manera análoga como en la demostración del teorema 1.24 para 2 2
A =  0 1 0 − 12 − 15 0 
probar, en primer lugar, que B es invertible. Luego usar las partes 1 y 2 del teorema 1.21 2
0 0 1 1 46 −3
para probar que A es invertible.
Como vemos, la solución existe pero no es única, si X = (xij )4×2 , entonces
 
El problema de buscar la inversa de una matriz cuadrada obedece a un problema mucho 
 x1,1 = − 12 x4,1 − 272 
 x1,2 = − 12 x4,2 +1
 
más general. Supongamos que A ∈ Mm×n (R) y B ∈ Mm×p (R) ¿es posible hallar una matriz x2,1 = 1
x
2 4,1
−215
x2,2 = 1
x
2 4,2
y
X ∈ Mn×p (R) tal que AX = B? tal problema genera p sistemas de ecuaciones lineales con m  x3,1
 = −x4,1 +46 
 x3,2 = −x4,2 −3
 
ecuaciones y n incógnitas, como los estudiados en la sección 1.3, a saber, AX (k) = B (k) con x4,1 ∈ R x4,2 ∈ R
k ∈ {1, . . . , p}, los cuales tienen en común la matriz del sistema que es A. Como sabemos, para
poder decidir sobre la consistencia o no� de cada De donde, si hacemos x4,1 = α y x4,2 = β, se tiene que
� uno de estos sistemas, basta con calcular
la FERF de cada una de las matrices A|B (k) para cada k ∈ {1, . . . , p}, por lo cual, si    1 
x1,1 x1,2 − 2 α − 27 − 12 β + 1
queremos ahorrar cálculos, basta con calcular la FERF de la matriz [A|B] y ası́ estarı́amos  x2,1   1 α − 15
2
1 
x2,2  β
resolviendo, de manera simultánea, los p sistemas o bien obtendrı́amos que la respuesta a la X =   x3,1 =   2 2 2 
x3,2  −α + 46 −β − 3 
pregunta inicial es no, es decir, al menos uno de los sistemas relacionados es inconsistente.
x4,1 x4,2 α β
Cuando el problema inicial tiene solución, ésta podrı́a ser única o bien podrı́amos concluir
que el problema tiene más de una solución para X. Nótese que en el caso de que m = n = p
     27 
y de que B = In , entonces estamos en presencia del problema de búsqueda de la inversa de − 12 0 0 − 12 −2 1
la matriz A, el cual ya fue estudiado antes, pero si m = p y B = Im , estamos en presencia del  1 
0   1   − 15 
X = α 2 + β  0 2 + 2
0 , con α, β ∈ R
problema de búsqueda de una inversa a derecha 7 de la matriz A, se puede probar que en  −1 0   0 −1   46 −3 
éste caso, necesariamente m ≤ n, además, cuando m < n, el problema es inconsistente o es 1 0 0 1 0 0
consistente indeterminado, es decir, si una matriz no cuadrada tiene inversa a derecha, dicha
matriz debe tener menos filas que columnas y tal inversa no es única. Finalmente, si m = n
y A es invertible, entonces la única solución del problema es X = A−1 B, es decir, podemos
En este ejemplo, puede comprobarse que las matrices
calcular A−1 B sin necesidad de calcular A−1 . Veamos algunos ejemplos los cuales ilustran lo
 1   
que hemos discutido previamente. −2 0 0 − 12
 1 0   0 1 
Ejemplo 1.24. Dadas las matrices X1 =  2 
 −1 0  y X2 = 
 2 
0 −1 
    1 0 0 1
3 1 1 2 −2 0
A =  −3 −7 −2 0  y B= 1 3  son soluciones de la ecuación matricial homogénea AX = 0/3×2 , más aún, toda solución de la
2 2 1 1 4 −1 ecuación homogénea AX = 0/3×2 es de la forma
Decida si existe una matriz X ∈ M4×3 (R) tal que AX = B, en caso afirmativo calcule X ¿es  1   
−2 0 0 − 12
X única?  1 0   0 1 
XH = αX1 + βX2 = α  2 +β 2 
7
Una matriz B ∈ Mn×m (R) se dice que es una inversa a derecha de A ∈ Mm×n (R) si ocurre que −1 0   0 −1 
AB = Im , en tal caso A es llamada una inversa a izquierda de B. 1 0 0 1

Jorge Campos 49 50 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

 
con α, β ∈ R. 1 0 0 0 −1 −8 12
F1 → F1 − 2F4
Además, la matriz →  0 1 0 0 −1 −18 28 
  F2 → F2 − 3F4   0

− 27
2
1 0 1 0 4 21 −34 
 − 15  F3 → F3 + 5F4
0 0 0 0 1 1 3 −5
XP =  2
 46 −3 

Por lo tanto, sı́ existe X tal que AX = B y ésta es
0 0  
−1 −8 12
es solución (particular) de la ecuación matricial AX = B.  −1 −18 28 
Por lo tanto, la solución de la ecuación matricial dada viene dada por XG = XH + XP . X=  4


21 −34
En general, dadas matrices A ∈ Mm×n (R) y B ∈ Mm×p (R), al igual que en el caso de una 1 3 −5
ecuación matricial Ax = b, donde x y b son matrices columna de órdenes adecuados, se puede
probar que si XP es una solución particular de la ecuación AX = B, entonces, para cualquier además, se concluye que A es invertible y que X = A−1 B, es decir, el problema tiene solución
solución XG de tal ecuación, existe una solución XH , de la ecuación matricial homogénea única.
asociada AX = 0/m×p , tal que XG = XH + XP .
Ejemplo 1.25. Idem para las matrices En relación
 al ejemplo
 precedente, sean las matrices 
    1 0 0 0 1 0 0 0
1 −1 −1 4 0 1 −2  0 1 0 0   −2 1 0 0 
 2 −1 −1   1 −1 
I4 =   F → F2 − 2F1    = E1
6 0  0 0 1 0  2 → 0 0 1 0 
A=  2

 y B= 
 2 −1 −1 
1 2 −3 0 0 0 1 0 0 0 1
−4 3 3 −13 0 2 −1    
1 0 0 0 1 0 0 0
Solución. Al igual que en el ejercicio precedente, calculemos la FERF de la matriz  0 1 0 0   0 1 0 0 
I4 =   
 0 0 1 0  F3 → F3 − 2F1→  −2 0 1 0  = E2

 
1 −1 −1 4 0 1 −2 0 0 0 1 0 0 0 1
 2 −1 −1    
6 1 −1 0  1 0 0 0 1 0 0 0
[A|B] =   2

1 2 −3 2 −1 −1   0 1 0 0   0 1 0 0 
−4 3 3 −13 0 2 −1 I4 =   
 0 0 1 0  F4 → F4 + 4F1→  0 0 1 0  = E3

Hagamos los 0 0 0 1 4 0 0 1
 cálculos necesarios     
1 −1 −1 4 0 1 −2 1 0 0 0 1 1 0 0
 2 −1 −1 6 1 −1 0   0 1 0 0   0 1 0 0 
[A|B] =  2
 I4 =   
 0 0 1 0  F1 → F1 + F2→  0 0 1 0  = E4

1 2 −3 2 −1 −1 
−4 3 3 −13 0 2 −1 0 0 0 1 0 0 0 1
     
1 −1 −1 4 0 1 −2 1 0 0 0 1 0 0 0
F2 → F2 − 2F1
→  0 1 1 −2 1 −3 4   0 1 0 0   0 1 0 0 
F3 → F3 − 2F1   0

 I4 =   
 0 0 1 0  F3 → F3 − 3F2→  0 −3 1 0  = E5

3 4 −11 2 −3 3
F4 → F4 + 4F1
0 −1 −1 3 0 6 −9 0 0 0 1 0 0 0 1
     
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
F 1 → F1 + F2
→  0 1 1 −2 1 −3 4   0 1 0 0   0 1 0 0 
  I4 =    
F3 → F3 − 3F2 
0 0 1 −5 −1 6 −9   0 0 1 0  F4 → F4 + F2→  0 0 1 0  = E6
F 4 → F4 + F2
0 0 0 1 1 3 −5 0 0 0 1 0 1 0 1
     
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
 0 1 0 3 2 −9 13   0 1 0 0   0 1 −1 0 
F 2 → F2 − F 3   I4 =  
 0 0 1 0  F2 → F2 − F3→  0 0
  = E7
→  0 0 1 −5 −1 6 −9  1 0 
0 0 0 1 1 3 −5 0 0 0 1 0 0 0 1

Jorge Campos 51 52 Jorge Campos


1.4. Inversa de una Matriz Cuadrada

   
1 0 0 0 1 0 0 −2
 0 1 0 0   0 1 0 0 
I4 =  
 0 0 1 0  F1 → F1 − 2F4→  0 0 1
  = E8
0 
0 0 0 1 0 0 0 1
   
1 0 0 0 1 0 0 0
 0 1 0 0   0 1 0 −3 
I4 =  
 0 0 1 0  F2 → F2 − 3F4→  0 0 1
  = E9
0 
Capı́tulo 2
0 0 0 1 0 0 0 1
   
1 0 0 0 1 0 0 0
 0 1 0 0 
I4 =  
 0 1 0 0 
  Determinantes. Regla de Cramer
 0 0 1 0  F3 → F3 + 5F4→  0 0 1 5  = E10
0 0 0 1 0 0 0 1
Entonces I4 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 A (ver el corolario 1.14), de donde se obtiene que
A−1 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 (¡verifı́quelo!). Los determinantes, cronológicamente, aparecen antes que las matrices, de allı́ el nombre
El lector puede notar que estas matrices (elementales) surgen de las OEF que le fueron que se les dió a éstas últimas, tratando de indicar que son de donde “nacen” los primeros.
aplicadas a la matriz A para obtener I4 , además, también puede verificar que E1 , E2 y E3
conmutan entre sı́ y surgen de las tres primeras OEF que le fueron aplicadas a A; E4 , E5 y E6
conmutan entre sı́ y surgen de las tres siguientes OEF que le fueron aplicadas a A; E7 surge
2.1. Determinantes y sus Propiedades
de la siguiente OEF que le fue aplicada a A y finalmente E8 , E9 y E10 conmutan entre sı́ y En esta sección trataremos los determinantes y algunas de sus propiedades, en primer lu-
surgen de las últimas tres OEF que le fueron aplicadas a A. Este procedimiento nos da una gar definiremos los determinantes de orden 2, continuando luego con los determinantes
alternativa para calcular la inversa de una matriz. Aplique este procedimiento para obterner de orden 3, para finalmente definir los determinantes de orden n.
A−1 en el caso de la matriz A del ejemplo 1.23. � �
a1,1 a1,2
Definición 2.1. Sea A = ∈ M2×2 (R). Definiremos el determinante de A,
a2,1 a2,2
como el número real
� �
� a a �
det(A) = |A| = �� 1,1 1,2 �� = a1,1 a2,2 − a1,2 a2,1
a2,1 a2,2
este tipo de determinante se suele llamar determinante de orden 2.
Observación 2.1. Vamos a convenir en que si A = [a] es una matriz real de orden 1,
entonces det(A) = |A| = a.
� �
−6 5
Ejemplo 2.1. Calcular det(A) para A =
−7 6
� �
� −6 5 �
Solución. det(A) = �� � = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6 �
� �
a1,1 a1,2
Ejercicio 2.1.1. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si
a2,1 a2,2
det(A) �= 0. � �
1 a2,2 −a1,2
Además, si A es invertible, entonces A−1 = .
det(A) −a2,1 a1,1

Jorge Campos 53 54
2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Definición 2.2. Dada la matriz Los productos generados por las flechas rojas (�) se colocan con signo positivo, los que
  son generados por las flechas azules (�) se colocan con signo negativo.
a1,1 a1,2 a1,3 Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en
A =  a2,1 a2,2 a2,3  ∈ M3×3 (R) lugar de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte
a3,1 a3,2 a3,3 superior, las dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de
Definiremos el determinante de A, denotado por det(A) o |A|, como
orden 3 y sólo es aplicable a determinantes de orden 3.
� �
� a1,1 a1,2 a1,3 � Ejemplo 2.3. Calculemos el determinante del ejemplo 2.2 usando este método.
� �
det(A) = |A| = �� a2,1 a2,2 a2,3 ��
� a3,1 a3,2 a3,3 � Solución.
� � � � � � � �
� a a � � a a � � a a � � 2 −3 −1 �
= a1,1 �� 2,2 2,3 �� − a1,2 �� 2,1 2,3 �� + a1,3 �� 2,1 2,2 � � �
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2 � � −6 1 5 � = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5
� �
� −7 0 6 �
este tipo de determinante es llamado determinante de orden 3.
2 −3 −1
−((−1)1(−7) + 5 · 0 · 2 + 6(−3)(−6))
Observación 2.2. Nótese que estamos definiendo el determinante de orden 3 en función de −6 1 5
determinantes de orden 2. � �
� 2 −3 −1 �
  � �
2 −3 −1 � −6 1 5 �� = 12 + 0 + 105 − (7 + 0 + 108) = 2

Ejemplo 2.2. Calcular det(A) para A =  −6 1 5  � −7 0 6 �
−7 0 6
Compare este resultado con el obtenido en el ejemplo 2.2.
Solución.
� �
� 2 −3 −1 � � � � � � � Antes de definir determinantes de orden n, daremos una definición previa.
� � � 1 5 � � � � �

det(A) = |A| = � −6 1 5 �� = 2 �� � − (−3) � −6 5 � + (−1) � −6 1 �
0 6 � � −7 6 � � −7 0 � Definición 2.3. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} se define la matriz
� −7 0 6 �
MijA ∈ M(n−1)×(n−1) (R) como la submatriz de A que se obtiene al eliminar la i-ésima fila
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2 y la j-ésima columna. El determinate de dicha� matriz
� es
� llamado
� el ij-ésimo menor de A
y lo denotaremos por mA A A � A�
ij , es decir, mij = det Mij = Mij .

Observación 2.4. Si en lugar de eliminar una fila y una columna de A, eliminamos r filas
Observación 2.3. Una forma muy sencilla de recordar la fórmula de determinantes de y r columnas de A, con 1 ≤ r < n, digamos las filas i1 , i2 , . . . , ir y las columnas j1 , j2 , . . . , jr ,
orden 3 es la siguiente: donde 1 ≤ i1 < i2 < · · · < ir ≤ n y 1 ≤ j1 < j2 < · · · < jr ≤ n, la submatriz de A
A
que se obtiene, la denotaremos por MIJ , donde I = {i1 , i2 , . . . , ir } y J = {j1 , j2 , . . . , jr }. El
� �
� a1,1 a1,2 a1,3 � determinante de dicha submatriz
� � �se denomina
� IJ-ésimo menor de A y es denotado por
� � � A�
� � � � mA A A
IJ , esto es, mIJ = det MIJ = MIJ .
� �
� a2,1 a2,2 a2,3 � = a1,1 a2,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3
� � Ejemplo 2.4. Consideremos la matriz
� �
� �
� �
� � − a1,3 a2,2 a3,1 − a2,3 a3,2 a1,1 − a3,3 a1,2 a2,1  
� a3,1 a3,2 a3,3 � −9 2 −1 4
  0 8 −5 7 

� �
� 
 A=



 � 1 6 3 −6 
a1,1 a1,2 a1,3 no es parte del determinante, es sólo para −4 1 0 3

� � 
 ayudar a recordar la fórmula


a2,1 a2,2 a2,3 A
Calcular M2,3 A
; M4,2 A
y M2,2 .

Jorge Campos 55 56 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Solución. Ejemplo 2.6. Calcular el determinante de la matriz


       
−9 2 4 −9 −1 4 −9 −1 4 2 0 0 0 0
A
M2,3 =  1 6 −6  ; A
M4,2 =  0 −5 7  y A
M2,2 = 1 3 −6   12 1 0 0 0 
 
−4 1 3 1 3 −6 −4 0 3 
A =  −3 0 −3 0 0 

 5 −8 7 −1 0 
−9 6 −7 0 −6

Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la Solución. Notemos primero que A es triangular inferior.
fórmula dada en la definición 2.2 puede ser escrita como
� �
� 2 0 0 0 0 �
det(A) = |A| = a1,1 mA A A � �
1,1 − a1,2 m1,2 + a1,3 m1,3 � 12 1 0 0 0 �
� �
= a1,1 (−1)1+1 mA
1,1 + a1,2 (−1)
1+2 A
m1,2 + a1,3 (−1)1+3 mA
1,3 det(A) = |A| = �� −3 0 −3 0 0 �

� A� � A� � A� � 5 −8 �
= a1,1 (−1) det M1,1 + a1,2 (−1)1+2 det M1,2
1+1
+ a1,3 (−1)1+3 det M1,3 � 7 −1 0 �
� −9 6 −7 0 −6 �
La idea es generalizar esta fórmula para una matriz A de orden n. = 2(−1)1+1 mA 1,1 + 0(−1)
1+2 A
m1,2 + 0(−1)1+3 mA 1,3 + 0(−1)
1+4 A
m14 + 0(−1)1+5 mA
15
� �
� 1 0 0 0 �
Definición 2.4. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante �
� 0 −3

� A� 0 0 ��
de orden n, como� el número real � = 2(−1)1+1 det M1,1 = 2 ��
�a1,1 a1,2 · · · a1n � � −8 7 −1 0 ��
� � � 6 −7 0 −6 �
�a2,1 a2,2 · · · a2n � � � A � �n
� � n 1+j 1+j A  � � � �
det(A) = |A| = � .. .. . . .. � = j=1 a1j (−1) det M1j = j=1 a1j (−1) m1j . � −3 0 0 �� � 0 0 0 ��
� . . . . � 1+1 �
� �
� � 
= 2 1(−1) � 7 −1 � 1+2 �
0 � + 0(−1) � −8 −1 0 ��
� an1 an2 · · · ann �
� −7 0 −6 � � 6 0 −6 �
� � � �
Ejemplo 2.5. Calcular el determinante de la matriz del ejemplo 2.4 � 0 −3 0 �� � 0 −3 0 ��
1+3 �
� �
+0(−1) � −8 7 � 1+4 �
0 � + 0(−1) � −8 7 −1 ��
Solución. � 6 −7 −6 � � 6 −7 0 �
� � � �
� −9 2 −1 � −3 0 0 ��
� 4 �� �
� 0 8 −5 7 � = 2 · 1 �� 7 −1 0 ��
det(A) = |A| = �� � � −7 0 −6 �
� 1 6 3 −6 �� � � � � �
� −4 1 0 3 � � −1 0 �� � 7 0 ��
� A� � A� � A� = 2 · 1 (−3)(−1)1+1 �� + 0(−1) 1+2 �

= (−9)(−1) det M1,1 + 2(−1)1+2 det M1,2


1+1
+ (−1)(−1)1+3 det M1,3 0 −6 � � −7 −6 �
� � � ��
� 7 −1 �
+4(−1)1+4 det M1,4 A
+0(−1) � 1+3 � �

� 8 −5



� 0 −5
� � � � � −7 0 �
� 7 � � 7 �� �� 0 8 7 �� � 0 8 −5


� � �
� −1 �
0 �
= −9 �� 6 3 −6 �� − 2 �� 1 3 −6 �� − �� 1 6 −6 �� − 4 �� 1 6 3 �
� = 2 · 1(−3) �� = 2 · 1(−3)((−1)(−6) − 0 · 0)
� 1 0 3 � � −4 0 3 � � −4 1 3 � � −4 1 0 � 0 −6 �
= −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15) = 2 · 1(−3)(−1)(−6) = −36
−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0) ¡El determinante de A es el producto de las componentes de la diagonal principal! este re-
= −1539 + 42 − 343 + 884 = −956 sultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos
luego.

Jorge Campos 57 58 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Definición 2.5. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo Demostración. Ver apéndice D.
cofactor de A como el número real CijA dado por
� �
CijA = (−1)i+j det MijA = (−1)i+j mA
ij Ejemplo 2.8. Calcular el determinante de la matriz A del ejemplo 2.2 al desarrollar el
determinante mediante la tercera fila y mediante la segunda columna.
Ejemplo 2.7. Para la matriz del ejemplo 2.4 se tiene que
Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la ter-
� � cera fila.
� −9 2 4 ��
� A� � � �
A
C2,3 = (−1) m2,3 = − det M2,3 = − �� 1 6 −6 ��
2+3 A
� 2 −3 −1 �
� −4 1 � �
3 � det(A) = |A| = � −6� 1 5 ��
= −(−162 + 4 + 48 + 96 − 54 − 6) = 74 � −7 0 6 �
� � � � � �
� −3 −1 � � � 2 −1 � � �
= −7(−1)3+1 �� + 0(−1)3+2 �� � + 6(−1)3+3 � 2 −3 �
� � 1 5 � −6 5 � � −6 1 �
� −9 −1 4 �
� A� � � = −7(−15 + 1) + 0 + 6(2 − 18) = 2
A
C4,2 = (−1)4+2 mA = det M = � 0 −5 7 �
4,2 4,2 � �
� 1 3 −6 �
Ahora desarrollemos el determinante de A mediante la segunda columna.
= −270 + 0 − 7 + 20 + 189 − 0 = −68 � �
� 2 −3 −1 �
� �
� � det(A) = |A| = �� −6 1 5 ��
� −9 −1 4 �� � −7 0 6 �
� � � � � � � � �
A
C2,2 = (−1) 2+2
= det mA �
= � 1 3 −6 �� A
M2,2 � −6 5 � � � � �
2,2
� −4 = −3(−1)1+2 �� � + 1(−1)2+2 � 2 −1 � + 0(−1)3+2 � 2 −1 �
0 3 � −7 6 � � −7 6 � � −6 5 �
= −81 + 0 − 24 + 48 − 0 + 3 = −54 = 3(−36 + 35) + (12 − 7) + 0 = 2

Haciendo uso de los cofactores, podemos escribir � �
Teorema 2.2. Si A ∈ Mn×n (R), entonces det AT = det(A).
n
� n
� n

� A�
det(A) = a1j (−1)1+j det M1j = a1j (−1)1+j mA
1j =
A
a1j C1j Demostración. ¡Ejercicio!
j=1 j=1 j=1 Sugerencia: proceder por inducción sobre n y usar el teorema 2.1
La demostración del teorema que enunciaremos a continuación escapa al objetivo del curso,
sin embargo, de él se derivan el resto de las propiedades que serán enunciadas más adelante,
Teorema 2.3. Si A = (aij )n×n ∈ Mn×n (R) es una matriz triangular (superior o inferior),
en el apéndice D se puede encontrar una demostración de éste.
entonces det(A) = a1,1 a2,2 · · · ann .
Teorema 2.1. Si A = (aij )n×n ∈ Mn×n (R), entonces
Demostración. Procedamos por inducción sobre n. Supongamos, sin perder generalidad,
n
� n
� n

i+j
� � que A es una matriz triangular superior.
1. det(A) = aij (−1) det MijA = aij (−1) i+j
mA
ij = aij CijA para cualesquiera Verifiquemos que se cumple para n = 2. Sea
j=1 j=1 j=1
� �
i ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la fila i-ésima). a1,1 a1,2
A=
n
� � � n
� n
� 0 a2,2
2. det(A) = aij (−1)i+j det MijA = aij (−1)i+j mA
ij = aij CijA para cualesquiera
i=1 i=1 i=1 Entonces
j ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la columna j-ésima). det(A) = a1,1 a2,2 − a1,2 · 0 = a1,1 a2,2

Jorge Campos 59 60 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Supongamos ahora que se cumple para n−1, esto es, supongamos que para cualquier matriz Teorema 2.5. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)
triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que y B(i) = A(i) para i �= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
det(A) = a1,1 a2,2 · · · a(n−1)(n−1) (Hipótesis Inductiva). por un escalar α, entonces el determinante de la matriz resultante es igual al determinante
Probemos ahora que se cumple para n. Sea de A multiplicado por α.
 
a1,1 a1,2 · · · a1n Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para
 0 a2,2 · · · a2n  i �= s, entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al
 
A =  .. . . . . . . ..  eliminar la fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego
 . .  A B
0 · · · 0 ann Msj = Msj para cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos Csj = (−1)s+j det(Msj B
) = (−1)s+j det(Msj
A A
) = Csj
para cada j ∈ {1, . . . , n}.
� A�
A
det(A) = 0 · Cn1 A
+ · · · + 0 · Cn(n−1) A
+ ann Cnn = ann (−1)n+n det(Mnn
A
) = ann det Mnn Ası́, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
� n
� n

Pero B A A
det(B) = bsj Csj = αasj Csj =α asj Csj = α det(A)
  j=1 j=1 j=1
a1,1 a1,2 · · · a1(n−1)
 0 a2,2 · · · a2(n−1) 
A  
Mnn =  .. .. .. .. 
 . . . . 
0 · · · 0 a(n−1)(n−1) Ejemplo 2.9. Sea  
2 −1 2
A
es decir, Mnn es una matriz triangular
� Asuperior
� de orden (n − 1), por lo tanto, usando la A=  12 −16 4 
Hipótesis Inductiva, se tiene que det Mnn = a1,1 a2,2 · · · a(n−1)(n−1) . Luego −2 0 3
det(A) = ann a1,1 a2,2 · · · a(n−1)(n−1) = a1,1 a2,2 · · · a(n−1)(n−1) ann Entonces
� � � � � �
Lo cual concluye la prueba. � 2 −1 2 � � 2 −1 2 �� � 2 −1 2 �
� � � � �

det(A) = � 12 −16 4 � � 4 · 3 4(−4) 4 · 1 � � 3 −4 1 �
� = � � = 4� �
� −2 0 3 � � −2 0 3 � � −2 0 3 �
Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del = 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
determinante, estas propiedades nos permitirán calcular el determinante de una matriz sin
hacer demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin = 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116
embargo, en virtud del teorema 2.2, se pueden enunciar propiedades análogas para columnas.

Teorema 2.4. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero. Teorema 2.6. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i �= s, entonces det(C) = det(A) + det(B), dicho de otra manera,
Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada si tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de
j ∈ {1, . . . , n}. C es igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que igual a la suma del determinante de A con el determinante de B.
n
� n

A A Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
det(A) = asj Csj = 0 · Csj =0
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i �= s, entonces csj = asj + bsj para cada
j=1 j=1
j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.

Jorge Campos 61 62 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Por lo tanto Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y la columna 2 de B


C
Csj B
= Csj A
= Csj es igual a la columna 2 de A. Además
� �
para cada j ∈ {1, . . . , n} (¿por qué?). � 2 −1 2 ��

En consecuencia det(B) = �� 4 −16 12 ��
� 3 0 −2 �
n
� n
� n
� n

det(C) = C
csj Csj = C
(asj + bsj )Csj = C
asj Csj + C
bsj Csj = 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
j=1 j=1 j=1 j=1 = 64 + 0 − 36 + 96 − 0 − 8 = 116
�n n
� = − det(A)
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1 �

Teorema 2.8. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Ejemplo 2.10. Sea A la matriz del ejemplo 2.9. Entonces
Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t
� � � � de A. Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
� 2 −1 2 �� � 4 + (−2) −1 2 �
� � � Por otro lado, dado que s �= t y según el teorema 2.7, det(B) = − det(A).
det(A) = �� �
12 −16 4 � = � � 6 + 6 −16 4 ��
� −2 0 3 � � 1 + (−3) 0 3 � Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.
� � � �
� 4 −1 2 �� �� −2 −1 2 ��

= �� 6 −16 4 �� + �� 6 −16 4 �� Ejemplo 2.12. Sea  
� 1 0 3 � � −3 0 3 � 2 −1 −2
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] A = 4 −16 12 

2 −1 −2
+[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18] Entonces A(1) = A(3) y
= −146 + 30 = −116 � �
� 2 −1 −2 �
� �
det(A) = �� 4 −16 12 ��
� � 2 −1 −2 �
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
Teorema 2.7. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i �= s e i �= t, entonces det(B) = − det(A), en otras palabras, = 64 + 8 − 24 − 64 + 24 − 8 = 0
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al

determinante de A multiplicado por −1.
Teorema 2.9. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t y
Demostración. Ver Apéndice D. A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna
otra fila de A, su determinante es igual a cero.

Ejemplo 2.11. Sea A la matriz del ejemplo 2.9 y sea Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i �= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.8, se tiene que det(B) = 0.
 
2 −1 2 Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 2.5, se
B =  4 −16 12  tiene que det(A) = α det(B) = α0 = 0.
3 0 −2

Jorge Campos 63 64 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Ejemplo 2.13. Sea   El siguiente ejemplo nos da un método para calcular el determinante de una matriz A
2 8 2 haciendo uso de las propiedades dadas en los siete teoremas precedentes, más propiamente
A =  −4 −16 1  usaremos los teoremas 2.5, 2.7 y 2.10. Como veremos, el cálculo resulta mucho más sencillo
3 12 −2 que al usar la definición.
Como se dijo en la observación 1.15, usaremos tanto OEF como operaciones elementales por
Entonces A(2) = 4A(1) , además
columnas (OEC) para el cálculo de determinantes, éstas últimas operaciones las indicaremos
� � de manera análoga a las OEF, salvo que en lugar de usar F usaremos C.
� 2 8 2 ��

det(A) = �� −4 −16 1 �� Ejemplo 2.15. Calcular el determinante de la matriz
� 3 12 −2 �  
6 −1 2 13 2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)  −1 0 −1 −3 −1 
 
= 64 − 96 + 24 + 96 − 24 − 64 = 0 A=  0 −3 0 9 0 

 7 1 3 12 3 
� 0 −2 4 1 −3

Teorema 2.10. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t, Solución.
� �
B(s) = A(s) + αA(t) y B(i) = A(i) para i �= s, entonces det(B) = det(A), dicho de otra forma, � 6 −1 2 13 2 ��

si a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, el determinante � −1 0 −1 −3 −1 �
� �
de la matriz resultante es igual al determinante de A. det(A) = �� 0 −3 0 9 0 ��
� 7 1 3 12 3 ��

Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i �= s y C(s) = αA(t) . Por � 0 −2 4 1 −3 �
lo tanto, dado que s �= t y en virtud del teorema 2.9, det(C) = 0. � �
� 6 −1 2 10 2 ��
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 2.6 �
� −1 0 −1 −3 −1 �� � �
� C4 → C4 + 3C2
= �� 0 −3 0 0 0 ��
det(B) = det(A) + det(C) = det(A) + 0 = det(A) � 7 por teorema 2.10
� 1 3 15 3 ��
� 0 −2 4 −5 −3 �
� �
� 6 2 10 2 �� �
� �
Ejemplo 2.14. Sea A la matriz del ejemplo 2.9 y sea � −1 −1 −3 −1 � desarrollando el determinante
= −3(−1)3+2 �� �
� mediante la tercera fila
  � 7 3 15 3 �
2 −1 2 � 0 4 −5 −3 �
B =  −2 −9 −10  �
� 0 −4 −8 −4 � 


−2 0 3 � � F1 → F1 + 6F2
� −1 −1 −3 −1 �
= 3 �� �  F3 → F3 + 7F2 

Ası́ que B(2) = A(2) − 7A(1) (¡verifı́quelo!). Además � 0 −4 −6 −4 � por teorema 2.10
� 0 4 −5 −3 �
� � � �
� 2 −1 2 �� � −4 −8 −4 � � �
� � � desarrollando el determinante
det(B) = � � −2 −9 −10 � = 3(−1)(−1) � −4 −6 −4 ��
2+1 �

� −2 0 3 � � 4 −5 −3 � mediante la primera columna
� � 
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2) � 0 −13 −7 � F 1 → F1 + F3
� �
= −54 + 0 − 20 − 36 − 0 − 6 = −116 �
= 3 � 0 −11 −7 � �  F 2 → F2 + F3 
� 4 −5 −3 � por teorema 2.10
= det(A) � �� �
� −13 −7 � desarrollando el determinante
� = 3 · 4(−1)3+1 �� �

−11 −7 mediante la primera columna

Jorge Campos 65 66 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

det(A) = 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168 Usando el teorema 2.10, tenemos que

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos métodos ¿cuál de los det(E) = det(In ) = 1
dos le parece más sencillo?
y
Teorema 2.11. Sea A = (aij )n×n ∈ Mn×n (R). Entonces para cualesquiera s, t ∈ {1, . . . , n} det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
con s �= t se tiene que
� n n
� Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que
A A
ask Ctk =0 y aks Ckt =0 E(s) = (In )(t) , E(t) = (In )(s) y E(i) = (In )(i) para i �= s e i �= t. De donde
k=1 k=1 (f (A))(s) = A(t) , (f (A))(t) = A(s) y (f (A))(i) = A(i) para i �= s e i �= t.
Demostración. Sea s, t ∈ {1, . . . , n} con s �= t. Definamos B = (bij )n×n tal que B(i) = A(i) Si s = t, entonces E = In y f (A) = A, ası́ que
para cada i ∈ {1, . . . , n} con i �= t y B(t) = A(s) . Ası́ que, usando el teorema 2.8, det(B) = 0.
det(E) = det(In ) = 1
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son
B A B A
iguales, por lo tanto Mtk = Mtk para cada k ∈ {1, . . . , n}, de donde Ctk = Ctk . Luego, al y
desarrollar el determinante de B mediante la fila t, se tiene que det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
n
� n

B A Si s �= t, podemos usar el teorema 2.7 y obtenemos
det(B) = btk Ctk = ask Ctk
k=1 k=1 det(E) = − det(In ) = −1
n
� n

A A y
En consecuencia ask Ctk = 0, análogamente se prueba que aks Ckt = 0.
det(EA) = det(f (A)) = − det(A) = (−1) det(A) = det(E) det(A.)
k=1 k=1

En cada caso se obtuvo que det(E) �= 0.


Teorema 2.12. Si E ∈ Mn×n (R) es una matriz elemental, entonces para cada A ∈ Mn×n (R)
se tiene que det(EA) = det(E) det(A). Además, det(E) �= 0. Corolario 2.13. Sean E1 , E2 , . . . , Er ∈ Mn×n (R) matrices elementales. Entonces, para cada
Demostración. Como E ∈ Mn×n (R) es una matriz elemental, existe una OEF A ∈ Mn×n (R), se tiene que
f : MFn (R) → MFn (R) tal que E = f (In ). Luego, usando la parte 1 del corolario 1.13, det(E1 E2 · · · Er A) = det(E1 ) det(E2 ) · · · det(Er ) det(A).
se tiene que EA = f (In )A = f (A).
Debemos proceder por casos sobre el tipo de OEF. Demostración. ¡Ejercicio!

Caso 1. f es una OEF tipo 1. Ası́ que existen s ∈ {1, . . . , n} y α �= 0 tales que
E(s) = α(In )(s) (donde (In )(s) es la fila s de In ) y para i �= s se tiene que Teorema 2.14. Si A ∈ Mn×n (R) es una matriz ERF, entonces det(A) �= 0 si y sólo si
E(i) = (In )(i) . Luego (f (A))(s) = αA(s) y para i �= s tenemos (f (A))(i) = A(i) . A = In .

Por lo tanto, según el teorema 2.5, Demostración. Sea A = (aij )n×n . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.2.3), ası́ que aij = 0 para i > j y además, en virtud del teorema 2.3, se tiene que
det(E) = α det(In ) = α · 1 = α det(A) = a1,1 a2,2 · · · ann .
Supongamos que det(A) �= 0. Luego aii �= 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para
y i > j, entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-ésima fila es
det(EA) = det(f (A)) = α det(A) = det(E) det(A). aii , y por ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii
es un pivote y por lo tanto aij = 0 para i �= j (¿por qué?). En resumen
Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s �= t, y α ∈ R tales

que E(s) = (In )(s) + α(In )(t) y E(i) = (In )(i) para i �= s. Ası́ que 1 si i = j
(f (A))(s) = A(s) + αA(t) y (f (A))(i) = A(i) para i �= s. aij =
0 si i �= j

Jorge Campos 67 68 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

Es decir, A = In . Definición 2.6. Sea A ∈ Mn×n (R). Se define la matriz adjunta de A como la matriz
Recı́procamente, si A = In , entonces det(A) = 1 �= 0. adj(A) ∈ Mn×n (R) cuya ij-ésima componente es el ji-ésimo cofactor de A para cualesquie-
ra i, j ∈ {1, . . . , n}, es decir, si adj(A) = (bij )n×n , entonces bij = CjiA para cualesquiera
i, j ∈ {1, . . . , n}.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada y nos va a permitir conocer, a priori, si una matriz es o no invertible antes de usar Observación 2.5. Si C = (CijA )n×n , es decir, si C es la matriz real cuadrada cuya
el procedimiento, ya antes expuesto, del cálculo de la inversa de una matriz. ij-ésima componente es el ij-ésimo cofactor de A para cualesquiera i, j ∈ {1, . . . , n}, en-
tonces adj(A) = C T .
Teorema 2.15. Sea A ∈ Mn×n (R). Entonces A es invertible si y sólo si det(A) �= 0.
Ejemplo 2.16. Calcular la adjunta de
Demostración. Sea B ∈ Mn×n (R) la FERF A. Entonces existen matrices elementales
E1 , E2 , . . . , Er ∈ Mn×n (R) tales que B = E1 E2 · · · Er A. Sabemos, en virtud del teorema  
2 −1 3
2.12, que det(Ei ) �= 0 para cada i ∈ {1, . . . , r}, entonces det(A) �= 0 si y sólo si det(B) �= 0; 
A= 1 0 2 
y usando el teorema 2.14 se tiene que B = In . Por lo tanto det(A) �= 0 si y sólo si la FERF 4 −1 7
de A es In , lo cual concluye la prueba.
Solución. Necesitamos calcular cada uno de los cofactores de A. Veamos
� � � �
Teorema 2.16. Sean A, B ∈ Mn×n (R). Entonces det(AB) = det(A) det(B). � 0 2 � � 1 2 �
A
C1,1 = (−1)1+1 �� � = 2; C1,2

A
= (−1)1+2 �� � = 1;
−1 7 4 7 �
Demostración. � � � �
� 1 0 �� � −1 3 �
A
C1,3 = (−1)1+3 �� = −1; C2,1 A
= (−1)2+1 �� � = 4;
Caso 1. det(A) = 0. Ası́ que, en virtud del teorema 2.15, A no es invertible. Luego, 4 −1 � −1 7 �
usando el teorema 1.25, se tiene que AB no es invertible, y nuevamente por el � � � �
� 2 3 � � 2 −1 �
teorema 2.15 se tiene que det(AB) = 0. Por lo tanto A
C2,2 = (−1)2+2 �� � = 2; C2,3 A
= (−1)2+3 �� � = −2;
4 7 � 4 −1 �
det(AB) = 0 = 0 det(B) = det(A) det(B) � � � �
� −1 3 � � 2 3 �
A
C3,1 = (−1)3+1 �� � = −2; C3,2 A
= (−1)3+2 �� � = −1;
0 2 � 1 2 �
Caso 2. det(A) �= 0. Luego A es invertible, en virtud del teorema 2.15. Ası́ que, al usar el � �
teorema 1.23, tenemos que existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) � 2 −1 �
A
C3,3 = (−1)3+3 �� � = 1;
tales que A = E1 E2 · · · Er . Luego, por el corolario 2.13 1 0 �
Ası́ que  A   
det(A) = det(E1 E2 · · · Er ) = det(E1 ) det(E2 ) · · · det(Er ) y A A
C1,1 C2,1 C3,1 2 4 −2
adj(A) =  C1,2
A A
C2,2 A 
C3,2 = 1 2 −1 
A A A
det(AB) = det(E1 E2 · · · Er B) C1,3 C2,3 C3,3 −1 −2 1
= det(E1 ) det(E2 ) · · · det(Er ) det(B) = det(A) det(B)

Teorema 2.17. Sea A ∈ Mn×n (R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostración. Hagamos adj(A) = (bjk )n×n . Ası́ que para cada j, k ∈ {1, . . . , n}, se tiene
A
2.2. Matriz Adjunta. Regla de Cramer que bjk = Ckj .
Si hacemos A adj(A) = D = (dik )n×n , entonces, para cada i, k ∈ {1, . . . , n}, tenemos que
En esta sección definiremos la adjunta de una matriz y enunciaremos la regla de Cra- n n
� �
mer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante dik = aij bjk = A
aij Ckj .
aplicación de los determinantes. j=1 j=1

Jorge Campos 69 70 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

Pero n
Consideremos la ecuación matricial Ax = b, donde A ∈ Mn×n (R). Si A es invertible,
� entonces la única solución de dicha ecuación está dada por x = A−1 b, ası́ que, una forma de
aij CijA = det(A)
j=1
hallar la solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b,
pero quizás esto es mucho más complicado y costoso (en términos de cálculos) que calcular
y según el teorema 2.11, si i �= k, entonces la FERF de la matriz [A|b].
n
� En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación
A
aij Ckj =0 anterior usando determinantes, sin necesidad de calcular la inversa de A ni la FERF de [A|b],
j=1 dicha herramienta se conoce con el nombre de la regla de Cramer .
Por lo tanto Teorema  (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R).
 2.19
� x1
det(A) si i = k  x2 
dik =  
0 si i �= k Si x =  ..  es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n},
� .
1 si i = k x
= det(A) � n�
0 si i �= k
det Abj
= det(A)δik xj = , donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j)
det(A)
donde In = (δik )n×n . En consecuencia A adj(A) = det(A)In . De manera análoga se prueba por b, esto es, � �
que adj(A)A = det(A)In , lo cual concluye la prueba. Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)
Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema
1 1
−1 1 Ax = b es x = A−1 b, pero A−1 = adj(A), ası́ que x = adj(A)b, por lo tanto, si
Teorema 2.18. Si A ∈ Mn×n (R) es invertible, entonces det(A ) = y det(A) det(A)
det(A)  
1 b1
A−1 = adj(A).  b2  1 � A
n
det(A)  
b =  .. , entonces xj = C bi para cada j ∈ {1, . . . , n}.
. det(A) i=1 ij
Demostración. Como A es invertible, entonces existe A−1 ∈ Mn×n (R) tal que
bn
AA−1 = In = A−1 A, y por el teorema 2.16
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
 
det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1. a1,1 · · · a1(j−1) b1 a1(j+1) ··· a1n
 . . . . . 
Luego  .. .. .. .. .. 
 
1  a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n 
det(A−1 ) = . b 
Aj =  ai1 ··· ai(j−1) bi ai(j+1) ··· ain 

det(A)  
Por otro lado, usando el teorema 2.17, se tiene que  a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n 
 
� �  ... ... ... ... ... 
1 1 1 an1 · · · an(j−1) bn an(j+1) · · · ann
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A) Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
De donde � Ab �
1 Ab � �
A−1 = adj(A). Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA
det(A)
Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos
n
� n

Ejercicio 2.2.1. Sea A ∈ Mn×n (R) una matriz invertible. Pruebe que adj(A) también es det(Abj ) =
Ab
Cij j bi = CijA bi
invertible y además (adj(A))−1 = adj(A−1 ). i=1 i=1

Jorge Campos 71 72 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

� � � �
En consecuencia, para cada j ∈ {1, . . . , n}, tenemos que � 1 2 −1 ��
3 � 1 3 2 −1 � � �
� � � � −1 0 2 �
� � � b� � 1 22 1 �� � 0 −1 0 2 � � �
det Abj det A2 = �� = � � = � −11 −6 1 �
xj = � 4 2 −3 ��
1 � 0 −11 −6
� 1 �





� 1 1 4
det(A) 0 11 4 � � 0 1 1 4 �
� �
� −1 0 0 �� � �
� � −6 −21 �
= �� −11 −6 −21 �� = − �� � = −(−36 + 21) = 15.
Ejemplo 2.17. Verificar que la matriz del sistema � 1 6 �
 1 1 6 �

 x +2z −w = 3

x +y +2z +w = 2 � � � �
4x +2y +2z −3w = 1 � 1 03 −1 �� � 1 0 2 −1 �� � �

 � � � 1 −1 2 �
 � � � 1 12 1 �� � 0 1 −1 2 �� � �
2y +z +4w = 1 det A3 b
= �� = �� = �� 2 −11 1 �
4 21 −3 �� 2 −11 � �
� � 0 1 � � 2 1 4 �
es invertible y usar la regla de Cramer para hallar la solución del sistema. � 0 21 4 � � 0 2 1 4 �
� �
Solución. La matriz del sistema es � 1 −1 �
2 � � �
  � � −9 −3 ��
1 0 2 −1 = �� 0 −9 −3 �� = �� = 9.
� 3 0 �
 1 1 2 1  0 3 0 �

A= 
4 2 2 −3 
0 2 1 4 � � � �
� 1 0 �2 3� 1 0 2 3 �� � �
� � � � 1 0 −1 �
� � � 1 1 �2 2� 0 −1 �� � �
hallemos su determinante
� � � � det Ab4 = �� � = � 0 1 = � 2 −6 −11 �
� 1 0 2 −1 � � 1 0 4 2 �2 1� 0 2 −6 −11 � � �
� � � 2 −1 �� �
� 1



� 1
� � � � � � 2 1 1 �
� 1 1 2 � � 0 1 � � 0 2 � � 0 0 �� � 0 2 �1 1� 0 2 1 1 �
1 0 2 � �
det(A) = �� � = �
� � 0 2 −6
� = � 2 −6 1
� �
� = � 2 −6 −3 �
� � � � 1 0 0 �� � �
� 4 2 2 −3 � � 1 � � 2 � � 2 � � −6 −9 �
1 4 1 0 �
� 0 2 1 4 � � 0 2 1 4 � = �� 2 −6 −9 �� = �� � = −18 + 9 = −9.

� � � 1 3
� −6 −3 � 2 1 3 �
= �� � = 3 �= 0.
1 0 � � � � � � �
det Ab1 −18 det Ab2 15 det Ab3 9
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer En consecuencia x = = = −6; y = = = 5; z = = = 3;
� b� det(A) 3 det(A) 3 det(A) 3
para resolverlo. En este caso la matriz de términos independientes es det A4 −9
  w= = = −3, es decir, la solución del sistema dado es:
3 det(A) 3
 2     
b= 
 1  x −6
 y   5 
1    
 z = 3 
Luego w −3
� � � �

3 0 2 −1 �� � 0 −6 −1 −13 �� � �
� � � −6 −1 −13 �
� � �
2 1 2 1 �� � 0 −3 0 −7 �� � �
det A1 b
= �� � = �
� 0 = − � −3 0 −7 �
1
� 2 2 −3 � � 0 1 −7 �� �
� 0
� Ejemplo 2.18. Una fábrica produce tres tipos de productos, mezclando para ello tres materias
� � � 1 � 1 −7 �
1 2 1 4 2 1 4 primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
� �
� −6 0 −20 �� � � materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3;
� � −6 −20 ��
= − �� −3 0 −7 �� = �� = 42 − 60 = −18. para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y
� � −3 −7 � tres de la materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan,
0 1 −7

Jorge Campos 73 74 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima −24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
3. Si este mes la fábrica cuenta con seis millones de unidades de la materia prima 1, doce −12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
millones de unidades de la materia prima 2 y seis millones de la materia prima 3 ¿cuántas
unidades de cada uno de los productos 2 y 3.
unidades de cada producto puede producir la fábrica usando el total de las materias primas?
Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es: 2.3. Determinantes de Matrices Triangulares por Blo-
x1 + x2 + 3x3 de la materia 1 ques
3x1 + 3x2 + 3x3 de la materia 2 En esta última sección estamos interesados en estudiar un poco las matrices expresadas
por bloques, las cuales nos servirán para el estudio de la forma canónica de Jordan
2x1 + 2x3 de la materia 3 (ver la sección 5.3 del capı́tulo 5), no haremos un estudio muy extenso, sólo lo necesario.
Como se quiere usar el total de las materias primas, entonces
 Definición 2.7. Sean m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ , m = m1 + m2 + · · · + mr y
 x1 +x2 +3x3 = 6 n = n1 + n2 + · · · + ns . Para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} consideremos una
3x1 +3x2 +3x3 = 12 matriz Aij ∈ Mmi ×nj (R). La matriz A ∈ Mm×n (R) dada por

2x1 +2x3 = 6  
A1,1 A1,2 · · · A1s
En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos inde-  A2,1 A2,2 · · · A2s 
pendientes son, respectivamente:  
A =  .. .. .. 
       . . . 
1 1 3 x1 6 Ar1 Ar2 · · · Ars
 
A = 3 3 3 ; x = x2   y b = 12 

2 0 2 x3 6 se dice que está expresada por bloques y para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s},
la matriz Aij es llamada submatriz o matriz bloque de A.
Veamos si podemos aplicar la regla de Cramer. Para ello calculemos el determinante de la
matriz del sistema. Ejemplo 2.19. Si definimos
� � � �
� 1 1 3 � � 1 1 3 � � �    
� � � � � � 2 −1 0 3 5 � � � �
det(A) = �� 3 3 3 �� = �� 0 0 −6 � = − � 0 −6 � = −12 �= 0. 3 −1 3 0 4
� 2 0 2 � � 2 0


� 2 2 � A1,1 =  4 2 1  ; A1,2 =  −5 2  ; A2,1 = y A2,2 = ,
2 7 −1 2 1 3
6 7 −2 9 −1
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.
entonces
� � � �
� � � 3 �� � �    
� b� � 6 1 3 � � 6 1 � −6 −6 � 2 −1 0 3 5 2 −1 0 3 5
� � �
det A1 = � 12 3 3 � = � −6 0 −6 �� = − �� � = −(−12 + 36) = −24.
� 6 0 2 � � 6 0 6 2 � � �  4 2 1 −5 2   4 2 1 −5 2 
2 � A1,1 A1,2    
A= =
 6 7 −2 9 −1  
= 6 7 −2 9 −1 

� � � � A2,1 A2,2 
� � � � � � 3 −1 3 0 4   3 −1 3 0 4 
� b� � 1 6 3 � � 1 6 3 � � −6 −6 �
7 −1 2 1 3 7 −1 2 1 3
det A2 = �� 3 12 3 �� = �� 0 −6 −6 �=�
� � −6 −4
� = 24 − 36 = −12.

� 2 6 2 � � 0 −6 −4 �
� � � � �
� � � 6 �� � �
� b� � 1 1 6 � � 1 1 � 0 −6 ��

det A3 = � 3 3 12 �� = �� 0 0 −6 �� = − �� = −12. Sean A, B ∈ Mm×n (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como en la definición
� 2 0 6 � � 2 � 2 6 � 2.7 y si para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} definimos Aij , Bij ∈ Mmi ×nj (R) de tal
0 6

Jorge Campos 75 76 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

manera que donde para cada i ∈ {1, . . . , r} y cada k ∈ {1, . . . , t} se tiene que Cik ∈ Mmi ×pk (R) está dada
    por
�s
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1s
 A2,1 A2,2 · · · A2s   B2,1 B2,2 · · · B2s  Cik = Ai1 B1k + Ai2 B2k + · · · + Ais Bsk = Aij Bjk .
   
A =  .. .. ..  y B =  .. .. ..  j=1
 . . .   . . . 
A continuación daremos el resultado en el cual estamos más interesados.
Ar1 Ar2 · · · Ars Br1 Br2 · · · Brs
Teorema 2.20. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R) tales que
entonces es claro que
� �
  B C
αA1,1 αA1,2 · · · αA1s A= /
0n×m D
 αA2,1 αA2,2 · · · αA2s 
 
1. αA =  .. .. ..  Entonces det(A) = det(B) det(D).
 . . . 
αAr1 αAr2 · · · αArs Demostración. Fijemos n y procedamos por inducción sobre m.
  Verifiquemos que se cumple para m = 1. En este caso, B = [b] con b ∈ R y
A1,1 + B1,1 A1,2 + B1,2 · · · A1s + B1s
 A2,1 + B2,1  � �
 A2,2 + B2,2 · · · A2s + B2s  b C
2. A + B =  .. .. ..  A= /
 . . .  0n×1 D
Ar1 + Br1 Ar2 + Br2 · · · Ars + Brs
Al desarrollar el determinante de A mediante la primera columna se obtiene
  � A�
AT1,1 AT2,1 · · · ATr1 A
det(A) = bC1,1 = b(−1)1+1 det M1,1 = b det(D) = det(B) det(D)
 AT1,2 AT2,2 · · · ATr2 
 
3. AT =  .. .. .. 
 . . .  (Hipótesis Inductiva) Supongamos que se cumple para m−1, es decir, si B ∈ M(m−1)×(m−1) (R),
AT1s AT2s · · · ATrs C ∈ M(m−1)×n (R) y D ∈ Mn×n (R) son tales que
� �
B C
Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el A= /
siguiente. 0n×(m−1) D
Sean A ∈ Mm×n (R) y B ∈ Mn×p (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como entonces det(A) = det(B) det(D).
en la definición 2.7 y p1 , p2 , . . . , pt ∈ Z+ son tales que p = p1 + p2 + · · · + pt y si para Probemos que se cumple para m. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R)
cada i ∈ {1, . . . , r}, cada j ∈ {1, . . . , s} y cada k ∈ {1, . . . , t} definimos Aij ∈ Mmi ×nj (R), tales que
Bjk ∈ Mnj ×pk (R) de tal manera que � �
B C
A= /
    0n×m D
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1t
 A2,1 A2,2 · · · A2s   B2,1 B2,2 · · · B2t  Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos
   
A =  .. .. ..  y B =  .. .. .. 
 . . .   . . .  m
� � �
Ar1 Ar2 · · · Ars Bs1 Bs2 · · · Bst det(A) = bi1 (−1)i+1 det Mi1A
i=1

entonces  
C1,1 C1,2 · · · C1t donde B = (bij )m×m .
 C2,1 C2,2 · · · C2t  Pero para cada i ∈ {1, . . . , m} tenemos que
 
AB =  .. .. ..  � �
 . . .  MB Ci
Mi1A = / i1
Cr1 Cr2 · · · Crt 0n×(m−1) D

Jorge Campos 77 78 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

donde la matriz Ci ∈ M(m−1)×n (R) se obtiene al eliminar la i-ésima fila de C. Demostración. ¡Ejercicio!
Y usando la hipótesis inductiva, tenemos que
� � � �
det Mi1A = det Mi1B det(D) Observación 2.6. Las matrices dadas en el teorema 2.20 y el corolario 2.21 se conocen con
el nombre de matrices triangulares superior por bloques, de manera análoga se definen
Por lo tanto las matrices triangulares inferior por bloques.
m
� m
� Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz
� � � � � �
det(A) = bi1 (−1)i+1 det Mi1B det(D) = bi1 (−1)i+1 det Mi1B det(D) triangular inferior por bloques (y viceversa), en consecuencia, el teorema 2.20 y el corolario
i=1 i=1 2.21, siguen siendo válidos para matrices triangulares inferior por bloques.
= det(B) det(D) Una matriz que sea triangular superior e inferior por bloques, simultáneamente, es llamada
matriz diagonal por bloques.
lo cual concluye la prueba.
Ejemplo 2.21. Si
 
Ejemplo 2.20. Si   4 5 −3 0 −1 0 0 0 0
2 −1 3 10 1  2 3 −1 1 2 0 0 0 0 
 −1  
 0 4 2 12 
  0 0 3 1 4 0 0 0 0 
  
A =  −4 1 2 4 6   0 0 1 2 −1 0 0 0 0 
 0  
0 0 3 5  A= 0 0 2 4 −1 0 0 0 0 
 
0 0 0 1 2  1 5 −3 4 1 7 −2 4 1 
 
entonces A puede expresarse por bloques como sigue  0 −2 8 6 −5 1 0 5 7 
 
   4 9 5 12 3 0 0 −3 6 
2 −1 3 10 1 1 −2 3 8 −6 0 0 2 −5
 −1 0 4 2 12 
 
A=  −4 1 2 4 6 
entonces
 0 0 0 3 5  � �
� 4 5 −3 0 −1 0 0 0 0 �
0 0 0 1 2 � �
� 2 3 −1 1 2 0 0 0 0 �
� �
� 0 0 3 1 4 0 0 0 0 �
Ası́ que al usar el teorema 2.20 tenemos que � �
� 0 0 1 2 −1 0 0 0 0 �
� � � �
� 2 −1 3 � � � det(A) = �� 0 0 2 4 −1 0 0 0 0 �
� �� 3 5 � �
det(A) = �� −1 0 4 �� �� �=3·1=3


� 1 5 −3 4 1 7 −2 4 1 �

� −4 1 2
1 2 � �
� 0 −2 8 6 −5 1 0 5 7 �

� 4 9 5 12 3 0 0 −3 6 �
� � �
� 1 −2 3 8 −6 0 0 2 −5 �
� �
Corolario 2.21. Sean n1 , n2 , . . . , ns ∈ Z+ , A ∈ Mn×n (R) y Aij ∈ Mni ×nj (R) para � 4 5 −3 0 −1 0 0 0 0 �
� �
i, j ∈ {1, . . . , s} con i ≤ j tales que n1 + n2 + · · · + ns = n y � 2 3 −1 1 2 0 0 0 0 �
� �
  � 0 0 3 1 4 0 0 0 0 �
A1,1 A1,2 ··· A1s � �
� 0 0 1 2 −1 0 0 0 0 �
 0/n ×n A2,2 � �
 2 1 ··· A2s 
 = �� 0 0 2 4 −1 0 0 0 0 �
A= .. .. .. ..  �
 . . . .  � 1 5 −3 4 1 7 −2 4 1 �
� �
0/ns ×n1 ··· 0/ns ×ns−1 Ass � 0 −2 8 6 −5 1 0 5 7 �
� �
� 4 9 5 12 3 0 0 −3 6 �
� �
Entonces det(A) = det(A1,1 ) det(A2,2 ) · · · det(Ass ). � 1 −2 3 8 −6 0 0 2 −5 �

Jorge Campos 79 80 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

� � � �
� 4 5 −3 0 −1 �� � � −2 1 3 0 0 0 0 0 �
� �� 7 −2 4 1 � � �
� 2 3 −1 1 2 �� � � −1 2 4 0 0 0 0 0 �
� �� 1 0 5 7 � � �
det(A) = �� 0 0 3 1 4 ��
��



� −5 0 3 0 0 0 0 0 �

� �� 0 0 −3 6 � � �
� 0 0 1 2 −1 �� � 4 7 2 6 −3 0 0 0
� � 0 0 2 −5 det(A) = �� �

0 0 2 4 −1 � −2 −6 11 5 −2 0 0 0 �
� � � �
� 45 −3 0 −1 �� � � −2 4 1 −1 3 4 1 0 �
� ��
7 −2 4 1 �� � �
� 23 −1 1 2 �� � 1 8 −6 3 7 2 −4 5 �
� ��
1 0 5 7 �� � �
= �� 00 3 1 4 �� −1 0 3 5 4 3 −1 2
��
0 0 −3 6 �� � � � �
� 00 1 2 −1 �� � −2 1 3 �� �� �� 4 1 0 ��
� ��
0 0 2 −5 � � 6 −3 ��
� 00 2 4 −1 � = �� −1 2 4 �� �� � � 2 −4 5 �
� � � 5 −2 � �� �
� �� �� �� � −5 0 3 � 3 −1 2 �
� 4 5 �� 3 1 4
7 −2 �� �� −3
�� 6 ��
= �� � � 1 2 −1 �� = (−12 − 20 + 0 + 30 − 0 + 3)(−12 + 15)(−32 + 15 + 0 − 0 + 20 − 4)
2 3 � �� ��
�1 0 � � 2 −5 �
2 4 −1 = 1 · 3(−1) = −3
= (12 − 10)(−6 + 16 − 2 − 16 + 12 + 1)(0 + 2)(15 − 12) = 2 · 5 · 2 · 3 = 60

Ejemplo 2.22. Calcular el determinante de la matriz

 
−2 1 3 0 0 0 0 0
 −1 2 4 0 0 0 0 0 
 
 −5 0 3 0 0 0 0 0 
 
 4 7 2 6 −3 0 0 0 
A=



 −2 −6 11 5 −2 0 0 0 
 −2 4 1 −1 3 4 1 0 
 
 1 8 −6 3 7 2 −4 5 
−1 0 3 5 4 3 −1 2

Solución.

� �
� −2 1 3 0 0 0 0 0 �
� �
� −1 2 4 0 0 0 0 0 �
� �
� −5 0 3 0 0 0 0 0 �
� �
� 4 7 2 6 −3 0 0 0 �
det(A) = �� �

� −2 −6 11 5 −2 0 0 0 �
� −2 4 1 −1 3 4 1 0 �
� �
� 1 8 −6 3 7 2 −4 5 �
� �
� −1 0 3 5 4 3 −1 2 �

Jorge Campos 81 82 Jorge Campos


Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ R y u, v ∈ V (distributividad


de la multiplicación por escalar respecto a la adición vectorial).

M3. (αβ) · v = α · (β ·v) = β ·(α · v) para cualesquiera α, β ∈ R y v ∈ V (asociatividad


de la multiplicación escalar y la multiplicación por escalar).

Capı́tulo 3 M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la


multiplicación por escalar).

Espacios Vectoriales. Bases y Observación 3.1. Es de hacer notar que las expresiones a la derecha de las igualdades en
M1 y M2 no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor
Dimensión jerarquı́a que la operación ·, esto es, (α · u) + v puede ser escrito como α · u + v, pero en la
expresión α · (u + v) no pueden suprimirse los paréntesis.

Observación 3.2. La definición 3.1 se puede extender considerando un campo cualquiera K


Esta es, quizás, el capı́tulo más importante de todo el curso, por lo cual pedimos sea leı́da (ver apéndices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
con mucho detenimiento, la mayor parte de las definiciones y teoremas tratados acá se usarán y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en
con bastante frecuencia en el resto del curso. este caso V es llamado espacio vectorial complejo.
En lo que resta del capı́tulo, sólo consideraremos espacios vectoriales reales, salvo que se
diga lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de
3.1. Espacios Vectoriales espacios vectoriales reales, a menos que haya error a confusión.

Definición 3.1. Un espacio vectorial real es una terna (V, +, ·) formada por un conjunto Observación 3.3. En adelante, siempre que no haya error a confusión, en lugar de escribir
no vacı́o V, cuyos elementos llamaremos vectores, y dos operaciones binarias α · v escribiremos αv.
+ : V × V −→ V, llamada adición vectorial, y · : R × V −→ V, llamada multiplica-
ción por escalar, satisfaciendo las siguientes condiciones Observación 3.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no
se tienda a confusión, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·.
A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial).
Ejemplo 3.1.
A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición
vectorial).
1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las
A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la operaciones + y · dadas como sigue
adición vectorial).
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
neutro para la adición vectorial). α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )
A4. Para cada v ∈ V existe v � ∈ V tal que v + v � = 0/V (existencia de un elemento donde α ∈ R y (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Rn , es un espacio vectorial (¡verifı́que-
opuesto para la adición vectorial). lo!).
M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V (cerradura de la multiplicación �
por escalar).
2. El conjunto Mm×n (R) junto con las operaciones + y ·, dadas en las definiciones 1.5
M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ R y v ∈ V (distributividad y 1.6 respectivamente del capı́tulo 1, es un espacio vectorial (ver el teorema 1.2 en el
de la multiplicación por escalar respecto a la adición escalar). capı́tulo 1). �

83 84 Jorge Campos
3.1. Espacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

3. Consideremos una matriz A ∈ Mm×n (R). Los conjuntos pues 4 �= 3 = 2 + 1, es decir, la adición no es cerrada en V o V no es cerrado bajo la
adición.
S = {x ∈ Mn×1 (R) : Ax = 0/m×1 }
Sin embargo, si definimos sobre V las operaciones
R = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}
(x, y) + (z, w) = (x + z, y + w − 1)
junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales
(¡pruébelo!). α · (x, y) = (αx, α(y − 1) + 1)
El espacio S es llamado espacio solución del sistema homogéneo Ax = 0m×1 / entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
o espacio nulo de A, y el espacio R es llamado el espacio imagen de A. Estos cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
espacios serán tratados formalmente y en detalle en la sección 6.3. � De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1
4. Sea n ∈ N. Definamos
y por lo tanto
Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R} (x, y) + (z, w) = (x + z, y + w − 1) ∈ V

Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la varia- cumpliéndose A0.
ble x de grado menor o igual a n incluyendo al polinomio nulo. Sobre Pn [x] consideremos (x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)
las operaciones usuales de adición de polinomios y multiplicación de un número real
por un polinomio. Entonces Pn [x], junto con estas operaciones, es un espacio vectorial por lo que A1 es satisfecha.
(¡pruébelo!).
((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)
En general, si definimos el conjunto
= ((x + z) + a, (y + w − 1) + b − 1)
P[x] = {p(x) : p(x) es un polinomio en la variable x} = (x + (z + a), y + (w + b − 1) − 1)
= (x, y) + (z + a, w + b − 1)
entonces P[x], junto con las operaciones antes mencionadas, es un espacio vectorial
(¡pruébelo!). = (x, y) + ((z, w) + (a, b))

Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado!1 (¿por qué?). ası́ que A2 se cumple.
Además, para cada n ∈ N se tiene que Pn [x] �= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por qué?) y además
(¿por qué?).
� (x, y) + (0, 1) = (x + 0, y + 1 − 1) = (x, y)
luego se satisface A3.
5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales
definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adición Si (x, y) ∈ V, entonces (−x, −y + 2) ∈ V ya que
de funciones y multiplicación de una función por un número real. Entonces F [ a , b ],
−y + 2 = −(x + 1) + 2 (¿por qué?)
junto con estas operaciones, es un espacio vectorial (¡pruébelo!). �
= −x − 1 + 2 = −x + 1
6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1} Además

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio (x, y) + (−x, −y + 2) = (x + (−x), y + (−y + 2) − 1) = (0, 1) = 0/V
vectorial ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero
en consecuencia se cumple A4.
/V
(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) ∈ Verifique que se cumple el resto de la propiedades en la definición 3.1.
1
En algunos textos, por razones de convención, el polinimio nulo tiene grado -1. ¿Qué podrı́a concluir a partir de este ejemplo? �

Jorge Campos 85 86 Jorge Campos


3.1. Espacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las opera- Definición 3.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el vector
ciones + y · definidas sobre V, es un espacio vectorial. � u − v, vector diferencia de u con v, como u − v = u + (−v).

Teorema 3.1. Los elementos 0/V y v � dados en A3 y A4, respectivamente, son los únicos Ejercicio 3.1.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v ∈ V y α1 , α2 , . . . , αn , α ∈ R
elementos de V que satisfacen dichas propiedades. cualesquiera. Pruebe que

Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, 1. (α1 + α2 + · · · + αn )v = α1 v + α2 v + · · · + αn v.
para v = 0/V ∈ V, se tiene que 2. α(v1 + v2 + · · · + vn ) = αv1 + αv2 + · · · + αvn .
0/V +x = 0/V . (3.1)
Teorema 3.2 (Ley de Cancelación). Sean V un espacio vectorial y u, v, w ∈ V tales que
Por lo tanto
u + v = u + w. Entonces v = w.
x = x + 0/V (por A3) Teorema 3.3. Sea V un espacio vectorial. Entonces
= 0/V +x (por A1)
1. α 0/V = 0/V para cada α ∈ R.
= 0/V (por 3.1)
2. 0v = 0/V para cada v ∈ V.
Lo que prueba la unicidad de 0/V .
Supongamos ahora que para algún v ∈ V existen v � , v� ∈ V tales que 3. Si αv = 0/V , entonces α = 0 o v = 0/V .
v + v � = 0/V (3.2) 4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V y, en consecuencia,
v + v� = 0/V (3.3) (−1)v = −v.

Luego Demostración.
1. Sea α ∈ R cualquiera. Entonces
v� = v� + 0/V (por A3)
= v� + (v + v � ) (por 3.2) α 0/V +α 0/V = α(0/V + 0/V ) (por M2)
= (�v + v) + v � (por A2) = α 0/V (por A3)
= (v + v�) + v � (por A1) = α 0/V + 0/V (por A3)
= 0/V +v � (por 3.3) y por la ley de cancelación (teorema 3.2) se tiene que α 0/V = 0/V .
= v � + 0/V (por A1)
2. ¡Ejercicio!
= v � (por A3)
3. Supongamos que αv = 0/V .
con lo cual se obtiene la unicidad del opuesto aditivo.
Si α = 0, no hay nada que probar, supongamos entonces que α �= 0 y probemos que
v = 0/V .
Observación 3.5. Al vector 0/V se le denomina vector nulo de V y el vector v � es llamado
Por ser α �= 0, existe α−1 ∈ R tal que α−1 α = 1 = αα−1 . Por lo tanto
opuesto (aditivo) de v y es denotado por −v.
Debido al teorema 3.1, las propiedades A3 y A4 pueden reescribirse, respectivamente, como v = 1v (por M4)
sigue = (α−1 α)v
A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y = α−1 (αv) (por M3)
unicidad del elemento neutro para la adición vectorial). = α−1 0/V (por hipótesis)
= 0/V (por la parte 1)
A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = 0/V (existencia y
unicidad del elemento opuesto para la adición vectorial). Con lo que culmina la prueba de la parte 3.

Jorge Campos 87 88 Jorge Campos


3.2. Subespacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

4. Sean α ∈ R y v ∈ V cualesquiera. Entonces 5. El conjunto C 0 [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].
αv + (−α)v = (α + (−α))v (por M1)
En efecto, es claro que C 0 [ a , b ] ⊂ F [ a , b ] (¿por qué?) y además, la función nula está
= 0v
en C 0 [ a , b ] (¿por qué?), por lo tanto C 0 [ a , b ] es un subconjunto no vacı́o de F [ a , b ].
= 0/V (por la parte 2)
Si f, g ∈ C 0 [ a , b ] y α ∈ R, entonces, por un conocido resultado del Cálculo, se tiene
Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De que f + g, αf ∈ C 0 [ a , b ], cumpliéndose A0 y M0.
manera análoga se prueba que α(−v) = −(αv). Finalmente, haciendo α = 1 y por
Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 3.1 son
M4., obtenemos
satisfechas, con lo cual se obtiene que C 0 [ a , b ] es un subespacio de F [ a , b ]. �
(−1)v = −(1v) = −v.
Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en
realidad, para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio
Observación 3.6. En virtud de las igualdades en la parte 4 del teorema 3.3, podemos escribir de este último, sólo es necesario probar que satisface las propiedades A0 y M0, como veremos
−αv en lugar de −(αv) sin error a confusión. en el siguiente teorema.

Teorema 3.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial


3.2. Subespacios Vectoriales de V si y sólo si

Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consi- 1. W �= ∅.


derando sobre ellos las operaciones + y · de V. En esta sección nos ocuparemos de dichos
espacios vectoriales, los cuales son llamados subespacios vectoriales de V. 2. u + v ∈ W para cualesquiera u, v ∈ W, es decir, W es cerrado bajo la adición vectorial
(definida sobre V).
Definición 3.3. Sea W un subconjunto no vacı́o de un espacio vectorial V. Diremos que W
es un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones 3. αv ∈ W para cualesquiera α ∈ R y v ∈ V, es decir, W es cerrado bajo la multiplicación
+ y · de V es un espacio vectorial. por escalar (definida sobre V).
Ejemplo 3.2.
Demostración. Sean V un espacio vectorial y W ⊂ V.
1. Dado un espacio vectorial V, entonces W = {0/V } es un subespacio de V, el cual es Supongamos que W es un subespacio de V. Entonces por definición 3.3 tenemos que W �= ∅
llamado espacio vectorial nulo, ası́ como también V (ver ejemplo 3.1 parte 7). Estos y además W es un espacio vectorial con las operaciones + y · definidas sobre V, por lo tanto
subespacios son llamados subespacios triviales de V. Cualquier otro subespacio de u + v, αv ∈ W para cualesquiera α ∈ R y u, v ∈ W.
V, distinto de estos dos, es llamado subespacio no trivial de V. Un subespacio de V Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
distinto de V es llamado subespacio propio de V. � Debemos probar que W, junto con las operaciones + y ·, definidas sobre V, es un espacio
vectorial. Según las hipótesis las condiciones A0 y M0 se satisfacen. Por otro lado, debido
2. Dada una matriz real A ∈ Mm×n (R). Los espacios S y R, dados en la parte 3 del a que W ⊂ V y las condiciones A1, A2, M1, M2, M3 y M4 se satisfacen para cualesquiera
ejemplo 3.1, son subespacios de Mn×1 (R) y Mm×1 (R) respectivamente. � u, v, w ∈ V y α, β ∈ R, entonces dichas condiciones se cumplen para cualesquiera u, v, w ∈ W
3. De la parte 4 del ejemplo 3.1 podemos garantizar que para cada n ∈ N se tiene que y α, β ∈ R. Ası́ que sólo resta probar que 0/V ∈ W y que −v ∈ W para cada v ∈ W.
Pn [x] es un subespacio de Pn+1 [x] y de P[x]. � Como W �= ∅, existe v0 ∈ W. Entonces, en virtud de la condición 3, 0v0 ∈ W, pero por
la parte 2 del teorema 3.3 se tiene que 0v0 = 0/V , ası́ que 0/V ∈ W y en consecuencia existe
4. Si definimos Hn [x] y Ln [x] como los subconjuntos de Pn [x], formados por todos los 0/V ∈ W tal que para cada v ∈ W se tiene que v + 0/V = v, es decir, la condición A3 se satisface
polinomios en la variable x de grado par, para el primero de estos, y de grado impar, para si sustituimos V por W. Esto último significa que 0/W = 0/V , es decir, el vector nulo en todos
el segundo de estos, ambos incluyendo al polinomio nulo, se puede probar que estos son los subespacios de V es el mismo.
subepsacios de Pn [x]. Más aún, si H[x] y L[x] son los subconjuntos de P[x], formados Finalmente, sea v ∈ W cualquiera. Entonces, por la condición 3, tenemos que (−1)v ∈ W y
por todos los polinomios en la variable x de grado par e impar, respectivamente, que dado que (−1)v = −v (por la parte 4 del teorema 3.3), se tiene que −v ∈ W y en consecuencia,
incluyen el polinomio nulo, entonces H[x] y L[x] son ambos subespacios de P[x]. � para cada v ∈ W existe −v ∈ W tal que v + (−v) = 0/V , es decir, la condición A4 se satisface

Jorge Campos 89 90 Jorge Campos


3.2. Subespacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

si sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector Ejercicio 3.2.1. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de
opuesto aditivo, de cualquier vector en un subespacio de V, es también un vector de dicho V y V es un subespacio de U, entonces W es un subespacio de U.
subespacio.
Veamos cómo se aplica el teorema 3.4 o bien su corolario (coroloario 3.5) en el siguiente
ejemplo.
Observación 3.7. Según la demostración del teorema 3.4, si W es un subespacio vectorial
de un espacio vectorial V, entonces 0/V ∈ W. Ejemplo 3.3. Pruebe que
Ası́ que para probar que un subconjunto W de un espacio vectorial V es un subespacio de W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}
éste último, lo primero que debemos probar es que 0/V ∈ W, esto, a su vez, garantiza que
W �= ∅. Si 0/V ∈ / W, entonces W no es un subespacio de V. es un subespacio de P3 [x].
El teorema 3.4 permite probar que un subconjunto de un espacio vectorial V es un subes- Solución. Es claro que W ⊂ P3 [x].
pacio de éste sólo con probar tres condiciones, sin embargo, el corolario siguiente nos permite Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x])
hacer la misma prueba con sólo verificar dos condiciones. pertenece a W ya que �
Corolario 3.5. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V 2 · 0 −0 +3 · 0 −0 = 0
si y sólo si 0 +0 −4 · 0 −2 · 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera
1. W �= ∅.
en W y α ∈ R cualquiera. Entonces
2. u + αv ∈ W para cualesquiera α ∈ R y u, v ∈ W. � �
2a1 −b1 +3c1 −d1 = 0 2a2 −b2 +3c2 −d2 = 0
Demostración. Supongamos primero que W es un subespacio vectorial de V y probemos y
a1 +b1 −4c1 −2d1 = 0 a2 +b2 −4c2 −2d2 = 0
que las condiciones 1 y 2 se cumplen. En primer lugar W �= ∅, por definición 3.3. Sean α ∈ R
En virtud del corolario 3.5, y según la observación 3.8, sólo falta probar que
y u, v ∈ W cualesquiera. Entonces, por la parte 3 del teorema 3.4, tenemos que αv ∈ W,
p(x) + αq(x) ∈ W. Pero
luego, por la parte 2 del mismo teorema, se tiene que u + αv ∈ W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio p(x) + αq(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + α(a2 + b2 x + c2 x2 + d2 x3 )
vectorial de V. Como W �= ∅, sólo debemos probar que se satisfacen las condiciones 2 y 3 del = (a1 + αa2 ) + (b1 + αb2 )x + (c1 + αc2 )x2 + (d1 + αd2 )x3
teorema 3.4.
Sean u, v ∈ W cualesquiera. Entonces u + v = u + 1v ∈ W (tomando α = 1 en la condición Además
2 de la hipótesis).
Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W 2(a1 + αa2 ) − (b1 + αb2 ) + 3(c1 + αc2 ) − (d1 + αd2 )
(tomando α = −1 y u = v en la condición 2 de la hipótesis) ası́ que αv = 0/V +αv ∈ W = 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2
(tomando u = 0/V en la condición 2 de la hipótesis). Lo cual concluye la prueba. = (2a1 − b1 + 3c1 − d1 ) + α(2a2 − b2 + 3c2 − d2 ) = 0 (¿por qué?)

y
Observación 3.8. Según la observación 3.7, la condición 1 en el teorema 3.4 y la condición
1 en el corolario 3.5, pueden ser sustituidas por la siguiente condición:
(a1 + αa2 ) + (b1 + αb2 ) − 4(c1 + αc2 ) − 2(d1 + αd2 )
1. 0/V ∈ W. = a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2
Observación 3.9. Recordemos que para probar que los conjuntos S y R, definidos en la = (a1 + b1 − 4c1 − 2d1 ) + α(a2 + b2 − 4c2 − 2d2 ) = 0 (¿por qué?)
parte 3 del ejemplo 3.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver la
Por lo tanto p(x) + αq(x) ∈ W y en consecuencia, W es un subespacio de P3 [x].
parte 2 del ejemplo 3.2), fue necesario probar que son espacios vectoriales (en realidad se
dejó como ejercicio), sin embargo, al usar el teorema 3.4 o el corolario 3.5, vemos que no es
necesario. En la sección 6.3 del capı́tulo 6 se dará una demostración de este hecho usando el Teorema 3.6. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩ W2 es
corolario 3.5. un subespacio de V.

Jorge Campos 91 92 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Demostración. Dado que W1 , W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces Entonces � � � � � � � � � �
W1 ∩ W2 ⊂ V, además, debido a la observación 3.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por a b 1 0 0 1 0 0 0 0
=a +b +c +d
lo tanto 0/V ∈ W1 ∩ W2 . c d 0 0 0 0 1 0 0 1
Sean α ∈ R y u, v ∈ W1 ∩ W2 cualesquiera. Entonces u, v ∈ W1 y u, v ∈ W2 y dado que Esta expresión es llamada combinación lineal , definamos formalmente este concepto.
W1 y W2 son subespacios de V, tenemos que u + αv ∈ W1 y u + αv ∈ W2 , por lo tanto
u + αv ∈ W1 ∩ W2 . Definición 3.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v ∈ V. Diremos que el vector v
Luego, en virtud del corolario 3.5 y la observación 3.8, tenemos que W1 ∩ W2 es un subes- es combinación lineal de los vectores v1 , v2 , . . . , vn si existen escalares α1 , α2 , . . . , αn ∈ R
pacio de V. tales que
v = α 1 v 1 + α 2 v 2 + · · · + αn v n .

Ejercicio 3.2.2. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el Observación 3.11. En la definición 3.4 se define lo que es una combinación lineal de una
conjunto cantidad finita de vectores en V, sin embargo, podemos definir combinación lineal de una
A + B = {a + b : a ∈ A y b ∈ B} cantidad infinita de vectores en V (ver apéndice B), pero nuestro interés no va más allá del
concepto dado en la definición 3.4.
Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
Ejemplo 3.4.
Ejercicio 3.2.3. Sean W1 y W2 dos subespacios de un espacio vectorial V. Supongamos
que W1 ∩ W2 = {0/V } y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores
1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada
w1 ∈ W1 y w2 ∈ W2 tales que v = w1 + w2 .
de orden 2 es combinación lineal de las matrices
Ejercicio 3.2.4. Sean W1 , W2 , . . . , Wn subespacios de un espacio vectorial V. Demuestre � � � � � � � �
1 0 0 1 0 0 0 0
que , , ,
0 0 0 0 1 0 0 1
1. W1 ∩ W2 ∩ · · · ∩ Wn es un subespacio de V.
En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos Eij ∈ Mm×n (R)
2. W1 + W2 + · · · + Wn es un subespacio de V. como aquella matriz cuya ij-ésima componente es igual a 1 y el resto es 0, entonces
toda matriz A ∈ Mm×n (R) es combinación lineal de las matrices
3. Si Wi ∩ Wj = {0/V } para cualesquiera i, j ∈ {1, . . . , n}, con i �= j, y además
V = W1 + W2 + · · · + Wn , entonces, para cada v ∈ V y para cada i ∈ {1, . . . , n}, E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn
existen únicos vectores wi ∈ Wi tales que v = w1 + w2 + · · · + wn .
(¡verifı́quelo!). �
Sugerencia: En cada caso proceda por inducción matemática sobre n, luego use el teorema
3.6 para la parte 1, el ejercicio 3.2.2 para la parte 2 y el ejercicio 3.2.3 para la parte 3. 2. Cualquier vector p(x) ∈ Pn [x] es combinación lineal de 1, x, . . . , x (¿por qué?). n

Observación 3.10. Cuando dos subespacios W1 y W2 de un espacio vectorial V cumplen 3. Cualquier vector (x1 , x2 , . . . , xn ) ∈ R es combinación lineal de los vectores de R
n n

las dos condiciones en el ejercicio 3.2.3, se dice que V es la suma directa de W1 y W2 , lo


cual se denota por V = W1 ⊕ W2 . En general, si n subespacios W1 , W2 , . . . , Wn de un espacio e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)
vectorial V satisfacen las condiciones en la parte 3 del ejercicio 3.2.4, diremos que V es la
suma directa de W1 , W2 , . . . , Wn y es denotado por V = W1 ⊕ W2 ⊕ · · · ⊕ Wn . (¡verifı́quelo!). �

Ejemplo 3.5. Determine si el vector v = (9, 5, 6) es combinación lineal o no de los vectores


3.3. Combinación Lineal y Espacio Generado v1 = (3, −2, 6) y v2 = (−1, −3, 2).

Solución. Supongamos que el vector v es combinación lineal de los vectores v1 y v2 . Entonces


Consideremos una matriz real cuadrada de orden 2
� � existen α1 , α2 ∈ R tales que v = α1 v1 + α2 v2 , es decir,
a b
c d (9, 5, 6) = α1 (3, −2, 6) + α2 (−1, −3, 2) = (3α1 − α2 , −2α1 − 3α2 , 6α1 + 2α2 )

Jorge Campos 93 94 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

de donde  Observación 3.12. En términos generales, el problema de decidir si un vector v, perte-


 3α1 −α2 = 9 neciente a un espacio vectorial V, es combinación lineal de los vectores v1 , v2 , . . . , vn ∈ V,
−2α1 −3α2 = 5 está relacionado con la resolución de un sistema de ecuaciones adecuado, como vimos en los

6α1 +2α2 = 6 ejemplos 3.5 y 3.6.
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
  Ejercicio 3.3.1. Pruebe que si A, B ∈ Mm×n (R) son equivalentes por filas, entonces cada
3 −1 9 fila de B es combinación lineal de las filas de A y viceversa.
 −2 −3 5 
6 2 6 Definición 3.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. El conjunto
Calculemos la FERF de esta matriz
      gen({v1 , v2 , . . . , vn }) =
3 −1 9 1 −4 14 1 −4 14 {w ∈ V : w = α1 v1 + α2 v2 + · · · + αn vn para algunos escalares α1 , α2 , . . . , αn ∈ R}
 −2 −3 F2 → F2 + 2F1
5  F1 → F1 + F2  −2 −3 5  →  0 −11 33 
→ F3 → F3 − 6F1
6 2 6   6 2 6   0 26 −78 es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, el conjunto
1 −4 14 1 0 2 gen({v1 , v2 , . . . , vn }) está formado por todas las combinaciones lineales de v1 , v2 , . . . , vn .
F 1 → F1 + 4F2
F2 → − 11 F2  0
1
1 −3  →  0 1 −3 
→ 0 26 −78 F3 → F3 − 26F2 Ejemplo 3.7.
0 0 0
Obteniedo α1 = 2 y α2 = −3, por lo tanto v = 2v1 − 3v2 , es decir, v es combinación lineal
1. Según la parte 1 del ejemplo 3.4 se tiene que
de v1 y v2 .
Mm×n (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })
Ejemplo 3.6. Consideremos los polinomios p(x) = −5 − 4x + 9x2 , p1 (x) = 2 − x + 2x2 ,
p2 (x) = 2 − 2x + 6x2 y p3 (x) = x − 4x2 ¿Es p combinación lineal de p1 , p2 y p3 ? y según las partes 2 y 3 del mismo ejemplo, tenemos que
Solución. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pre-
Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en }).
gunta es sı́, entonces existen α1 , α2 , α3 ∈ R tales que p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x),
para cada x ∈ R, esto es, para cada x ∈ R se tiene que �
−5 − 4x + 9x2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )
2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, −2, 6), (−1, −3, 2)}) (ver ejemplo
obteniendo el sistema de ecuaciones 3.5). �

 2α1 +2α2 = −5
−α1 −2α2 +α3 = −4 3. Del ejemplo 3.6 podemos garantizar que

2α1 +6α2 −4α3 = 9
−5 − 4x + 9x2 ∈
/ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }).
La matriz ampliada de este sistema es equivalente por filas a la matriz
  �
1 0 1 −9
 0 1 −1 1 
(¡verifı́quelo!)
2
0 0 0 −12 Ejemplo 3.8. Calcular gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }).

por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y
combinación lineal de p1 , p2 y p3 . sólo si existen escalares α1 , α2 , α3 ∈ R tales que, para cada x ∈ R,
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3
y p4 ? a + bx + cx2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )
= (2α1 + 2α2 ) + (−α1 − 2α2 + α3 )x + (2α1 + 6α2 − 4α3 )x2

Jorge Campos 95 96 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Lo que equivale a decir que el sistema de ecuaciones Por lo tanto



 2α1 +2α2 = a u + αv = (α1 v1 + α2 v2 + · · · + αn vn ) + α(β1 v1 + β2 v2 + · · · + βn vn )
−α1 −2α2 +α3 = b
 = (α1 + αβ1 )v1 + (α2 + αβ2 )v2 + · · · + (αn + αβn )vn .
2α1 +6α2 −4α3 = c
tiene al menos una solución. Ası́ que u + αv ∈ gen(S) y en consecuencia gen(S) es un subespacio de V.
Resolvamos este sistema. La matriz ampliada del sistema es
 
2 2 0 a Definición 3.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos que los vectores
 −1 −2 1 b  v1 , v2 , . . . , vn generan a V o que el conjunto S = {v1 , v2 , . . . , vn } genera a V o que S es un
2 6 −4 c conjunto generador de V si V = gen(S) = gen({v1 , v2 , . . . , vn }).
Calculemos la FERF de esta matriz Ejemplo 3.9. Por la parte 1 del ejemplo 3.7 podemos decir que:
   
2 2 0 a 1 0 1 a+b 1. Los vectores E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan al es-
 −1 −2 1 b  F1 → F1 + F2  −1 −2 1 b 
→ pacio Mm×n (R). �
2 6 −4 c 2 6 −4 c
1 0 1 a+b 2. El conjunto {1, x, . . . , xn } genera a Pn [x]. �
F 2 → F2 + F1
→  0 −2 2 a + 2b 
F3 → F3 − 2F1 3. {e1 , e2 , . . . , en } es un conjunto generador de R . n

 0 6 −6 −2a − 2b
 + c  
1 0 1 a+b 1 0 1 a+b Ejemplo 3.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo
F2 → − 12 F2  0 1 −1 − 12 a − b  F3 → F3 − 6F2  0 1 −1 − 12 a − b  3.3.
→ 0 6 −6 −2a − 2b + c →
0 0 0 a + 4b + c
Sin necesidad de calcular la FERF de la matriz, obtenemos que el sistema original tiene Solución. Sabemos que
solución si y sólo si a + 4b + c = 0.
W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}
En consecuencia
gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) = {a + bx + cx2 ∈ P2 [x] : a + 4b + c = 0}. Ası́ que a + bx + cx2 + dx3 ∈ W si y sólo si

2a −b +3c −d = 0
a +b −4c −2d = 0
Es de hacer notar que el conjunto W, hallado en el ejemplo 3.8, es un subespacio de P2 [x]
(¡pruébelo!). Este resultado no es casual, como veremos en el siguiente teorema. resolvamos este sistema homogéneo. La matriz del sistema es
Teorema 3.7. Sean V un espacio vectorial y vectores v1 , v2 , . . . , vn ∈ V. Entonces � �
2 −1 3 −1
gen({v1 , v2 , . . . , vn }) es un subespacio de V. 1 1 −4 −2
Demostración. En primer lugar hagamos S = {v1 , v2 , . . . , vn }. Por definición
gen(S) = gen({v1 , v2 , . . . , vn }) es un subconjunto de V. Además, por la parte 2 del teore- La FERF de esta matriz es
ma 3.3 y la parte 2 del ejercicio 3.1.1, � �
1 0 − 13 −1
(¡verifı́quelo!).
0/V = 0(v1 + v2 + · · · + vn ) = 0 · v1 + 0 · v2 + · · · + 0 · vn ∈ gen(S). 0 1 − 11
3
−1

Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definición de gen(S), Por lo tanto, a + bx + cx2 + dx3 ∈ W si y sólo si
existen β1 , β2 , . . . , βn , α1 , α2 , . . . , αn ∈ R tales que �
a − 13 c −d = 0
u = α1 v 1 + α 2 v 2 + · · · + α n v n y v = β1 v1 + β2 v2 + · · · + βn vn . b − 113
c −d = 0

Jorge Campos 97 98 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

o equivalentemente � 3.4. Independencia y Dependencia Lineal


1
a = 3
c +d
11 Uno de los conceptos más importantes en espacios vectoriales, y en el álgebra lineal en
b = 3
c +d
general, es el de independencia lineal , por lo que pedimos se estudie con mucho dete-
Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos
nimiento y cuidado la presente sección. Daremos una variedad de ejemplos para tratar de
a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2 ) + β(1 + x + x3 ) explicar lo mejor posible dicho concepto.
Dados un espacio vectorial V y cualesquiera vectores v1 , v2 , . . . , vn ∈ V, sabemos que el
para cada x ∈ R. Luego vector nulo 0/V = 0v1 + 0v2 + · · · + 0vn , es decir, siempre podemos escribir el vector nulo 0/V
como combinación lineal de cualquier cantidad finita de vectores en V.
W = gen({1 + 11x + 3x2 , 1 + x + x3 })
Ahora bien, en M2×3 (R), escojamos los vectores
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W. � � � � � �
1 0 −2 2 −3 −4 −4 9 8
A1 = , A2 = y A3 = .
−2 5 −3 −1 1 0 −1 7 −6
Teorema 3.8. Sean V un espacio vectorial, v1 , v2 , . . . , vn ∈ V y u ∈ gen({v1 , v2 , . . . , vn }).
Entonces
Entonces � �
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }). 0 0 0
= 2 · A1 − 3 · A2 − A3
0 0 0
Demostración. Escojamos un vector v ∈ gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces exis- � � � � � �
ten α1 , α2 , . . . , αn , α ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn + αu. 1 0 −2 2 −3 −4 −4 9 8
= 2· −3· −
Pero por hipótesis u ∈ gen({v1 , v2 , . . . , vn }), entonces existen β1 , β2 , . . . , βn ∈ R tales que −2 5 −3 −1 1 0 −1 7 −6
u = β1 v1 + β2 v2 + · · · + βn vn . En conclusión, la forma de escribir al vector nulo como combinación lineal de una cantidad
Luego finita de vectores, no necesariamente es única, cuando es ası́, estamos en presencia de vectores
v = α1 v1 + α2 v2 + · · · + αn vn + α(β1 v1 + β2 v2 + · · · + βn vn ) linealmente independientes. Tal concepto lo definiremos, formalmente, a continuación.
= (α1 + αβ1 )v1 + · · · + (αn + αβn )vn Definición 3.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos v1 , v2 , . . . , vn son
linealmente independientes (l.i.) o que {v1 , v2 , . . . , vn } es un conjunto linealmente
en consecuencia independiente (c.l.i.) si la única manera de escribir el vector nulo 0/V , como combinación
v ∈ gen({v1 , v2 , . . . , vn }) lineal de los vectores v1 , v2 , . . . , vn , es aquella en la cual todos los escalares son iguales a cero
por lo tanto (0), esto es, si α1 v1 + α2 v2 + · · · + αn vn = 0/V , entonces α1 = α2 = · · · = αn = 0.
gen({v1 , v2 , . . . , vn , u}) ⊂ gen({v1 , v2 , . . . , vn }). (3.4) Diremos que v1 , v2 , . . . , vn son linealmente dependientes (l.d.) o que {v1 , v2 , . . . , vn }
es un conjunto linealmente dependiente (c.l.d.) si v1 , v2 , . . . , vn no son linealmen-
Por otro lado, sea v ∈ gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen escalares
te independientes, es decir, existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn . Ası́ que
α1 v1 + α2 v2 + · · · + αn vn = 0/V .
v = α1 v1 + α2 v2 + · · · + αn vn = α1 v1 + α2 v2 + · · · + αn vn + 0/V
Ejemplo 3.11.
= α1 v1 + α2 v2 + · · · + αn vn + 0u
1. Según el ejemplo dado previamente a la definición 3.7, se tiene que A1 , A2 , A3 son
es decir, v ∈ gen({v1 , v2 , . . . , vn , u}), de donde linealmente dependientes. �
gen({v1 , v2 , . . . , vn }) ⊂ gen({v1 , v2 , . . . , vn , u}). (3.5) 2. No es difı́cil probar que los conjuntos
De (3.4) y (3.5) obtenemos que {1, x, . . . , xn }, {e1 , e2 , . . . , en } y
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }). {E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }
son linealmente independientes (en sus correspondientes espacios). �

Jorge Campos 99 100 Jorge Campos


3.4. Independencia y Dependencia Lineal Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

3. Dados un espacio vectorial V y v1 , v2 , . . . , vn ∈ V, entonces {v1 , v2 , . . . , vn , 0/V } es lineal- Ejemplo 3.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior ¿son
mente dependiente pues linealmente independientes?

0/V = 0v1 + 0v2 + · · · + 0vn + 1 0/V Solución. Como en el ejemplo anterior, debemos plantearnos la ecuación

es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = 0 (para todo x ∈ R) (3.6)
vector nulo, es linealmente dependiente. �
Obteniendo el sistema 
4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es lineal-  2α1 +2α2 +α4 = 0
mente independiente ya que si αv = 0/V y dado que v �= 0/V , entonces α = 0 (en virtud −α1 −2α2 −2α4 = 0

de la parte 3 del teorema 3.3). � 2α1 +6α2 +3α4 = 0
La matriz de este sistema es  
Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto 2 2 1
de vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o depen-  −1 −2 −2 
diente, debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en 2 6 3
general, a un sistema de ecuaciones homogéneo con n incógnitas, a saber, α1 , α2 , . . . , αn . Si
la solución de este sistema es única, y en consecuencia α1 = α2 = · · · = αn = 0, entonces Calculemos su FERF.
{v1 , v2 , . . . , vn } es un conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn }      
2 2 1 1 0 −1 1 0 −1
es un conjunto linealmente dependiente.  −1 −2 −2  F1 → F1 + F2  −1 −2 −2  F2 → F2 + F1→  0 −2 −3 
→ F3 → F3 − 2F1
Ejemplo 3.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) ∈ P2 [x] dados en el ejem- 2 6 3 2 6 3 0 6 5
     
plo 3.6. Decidir si estos vectores son o no linealmente independientes. 1 0 −1 1 0 −1 1 0 −1
F2 → − 12 F2  0 1 3 
F3 → F3 − 6F2  0 1 3 
F3 → − 14 F3  0 1 3 
→ 0 6 2 → 2
→ 0 2
Solución. Como se comentó antes del ejemplo, debemos estudiar la ecuación 5 0 0 −4 0 1
 
1 0 0
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = 0 (para todo x ∈ R) F 1 → F1 + F3
→  0 1 0 
F2 → F2 − 32 F3
0 0 1
Pero
De donde
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) α1 = α2 = α4 = 0.
+α3 (x − 4x2 ) + α4 (1 − 2x + 3x2 ) En consecuencia la ecuación 3.6 tiene como única solución la trivial y por lo tanto p1 (x),
= (2α1 + 2α2 + α4 ) p2 (x) y p4 (x) son linealmente independientes.
+(−α1 − 2α2 + α3 − 2α4 )x
+(2α1 + 6α2 − 4α3 + 3α4 )x2 Ejemplo 3.14. Consideremos las matrices
Obteniendo el siguiente sistema de ecuaciones homogéneo � � � � � �
5 4 3 −1 1 −1
 A1 = , A2 = y A3 = .
2 −1 1 3 −4 5
 2α1 +2α2 +α4 = 0
−α1 −2α2 +α3 −2α4 = 0 ¿Es {A1 , A2 , A3 } un conjunto linealmente independiente?

2α1 +6α2 −4α3 +3α4 = 0
Solución. Sean α1 , α2 , α3 ∈ R tales que α1 A1 + α2 A2 + α3 A3 = 0/2 . Entonces
El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 (x),
� � � �
p2 (x), p3 (x) y p4 (x) son linealmente dependientes. 5α1 + 3α2 + α3 4α1 − α2 − α3 0 0
=
2α1 + α2 − 4α3 −α1 + 3α2 + 5α3 0 0

Jorge Campos 101 102 Jorge Campos


3.4. Independencia y Dependencia Lineal Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

De donde 

 5α1 +3α2 +α3 = 0
 Teorema 3.10. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
4α1 −α2 −α3 = 0
 2α1 +α2 −4α3 = 0 dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.


−α1 +3α2 +5α3 = 0
Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente depen-
Resolvamos este sistema. La matriz del sistema es dientes si y sólo si existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
 
5 3 1
 4 −1 −1  α1 A(1) + α2 A(2) + · · · + αn A(n) = 0/m×1
 .
 2 1 −4  Por la observación 1.22
−1 3 5  
α1
Calculemos su FERF.  α2 
 
      α1 A(1) + α2 A(2) + · · · + αn A(n) = A  .. 
5 3 1 1 4 2 1 4 2  . 
 4 −1 −1   4 −1 −1  F2 → F2 − 4F1→  0 −17 −9  αn
  F → F1 − F 2   F3 → F3 − 2F1  
 2 1 −4  1 → 2 1 −4   0 −7 −8 
F 4 → F4 + F1 Ası́ que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y sólo si el sistema Ax = 0/m×1
−1 3 5 −1 3 5 0 7 7
   
1 4 2 1 4 2 tiene soluciones no triviales.
 0 7 
7   0 1 1 
F 2 ↔ F4  F → 17 F2  
→  0 −7 −8  2 →  0 −7 −8  Como consecuencia del teorema 3.10 obtenemos el siguiente corolario.
0 −17 −9 0 −17 −9
   
1 0 −2 1 0 −2 Corolario 3.11. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
F1 → F1 − 4F2
→  0 1 1   0 1 1 
F3 → F3 + 7F2   
 0 0 −1  F3 → −F3→  0 0

1. det(A) �= 0.
1 
F4 → F4 + 17F2
0 0 8 0 0 8
  2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
1 0 0
F1 → F1 + 2F3
→  0 1 0  3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
F 2 → F2 − F 3   0 0 1 

F4 → F4 − 8F3 Demostración. ¡Ejercicio!
0 0 0
Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.
Recordemos que det(A) �= 0 equivale a que A es invertible (ver teorema 2.15), por lo tanto,
Teorema 3.9. Sean V un espacio vectorial y u, v ∈ V. Los vectores u y v son linealmente el corolario 3.11 nos da dos nuevas equivalencias acerca de la inversibilidad de una matriz A.
dependientes si y sólo si existe α ∈ R tal que u = αv o v = αu. Teorema 3.12. Sean A, F ∈ Mm×n (R) tales que F es la FERF de A. Supongamos que
Demostración. Supongamos que u, v son linealmente dependientes. Entonces existen j1 , j2 , . . . , jr ∈ {1, . . . , n} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las distintas columnas pivo-
λ, β ∈ R, no ambos nulos, tales que λu + βv = 0/V . tes de F . Entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son linealmente independientes. Además, para cada
β β j ∈ {1, . . . , n}, se tiene que
Si λ �= 0, entonces u = − v. Haciendo α = − , obtenemos que u = αv.
λ λ r
Si λ = 0, entonces βv = 0/V y además, por hipótesis, β �= 0 y en consecuencia v = 0/V = 0u. �
A(j) = f1j A(j1 ) + f2j A(j2 ) + · · · + frj A(jr ) = fij A(ji ) .
Haciendo α = 0, obtenemos v = αu.
i=1
Supongamos ahora que existe α ∈ R tal que u = αv o v = αu. En consecuencia
1u + (−α)v = 0/V o αu + (−1)v = 0/V , en cualquier caso, concluimos que u y v son linealmente Demostración. Ver Apéndice D.
dependientes.

Jorge Campos 103 104 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Teorema 3.13. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un es- 2. {e1 , e2 , . . . , en } es una base de Rn . �
pacio vectorial V y u ∈ V tal que u ∈ / gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es
linealmente independiente. 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R).

Demostración. Sean α1 , α2 , . . . , αn , α ∈ R tales que
Cada una de estas bases es llamada base canónica o estándar del correspondiente es-
α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V pacio.
Si α �= 0, entonces � α � � α � � α � Ejemplo 3.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, con-
u= −
1
v1 + −
2
v2 + · · · + −
n
vn sideremos un conjunto finito cualquiera de polinomios, digamos P = {p1 (x), p2 (x), . . . , pn (x)}.
α α α Entonces para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x) + α2 p2 (x) + · · · + αn pn (x)
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde es un polinomio, a lo sumo, de grado k, donde k es el máximo entre los grados de los poli-
nomios p1 , p2 , . . . , pn , es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn
α1 v1 + α2 v2 + · · · + αn vn = 0/V es un polinomio a lo sumo de grado k. En consecuencia, el polinimio p(x) = xk+1 es tal que
p(x) ∈/ gen(P ) pero p(x) ∈ P[x], de donde gen(P ) �= P[x]. Lo cual prueba que P[x] no posee
y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.
una base finita, por lo tanto concluimos lo afirmado al principio.
En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.

Observación 3.14. Aunque en este capı́tulo no trataremos las bases infinitas (ver apéndice
B), afirmamos que una base2 para P[x] es
3.5. Bases y Dimensión
{1, x, x2 , . . . , xn , . . .}.
Según el ejemplo 3.9 y la parte 2 del ejemplo 3.11 tenemos que:
Ejemplo 3.17. Hallar una base del subespacio
1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y además es linealmente independiente. �� � �
a b
W= : −5a + 6b + 4c − 2d = 0
2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn . c d
� �
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador a b
Solución. Notemos primero que ∈ W si y sólo si −5a + 6b + 4c − 2d = 0 o bien,
de Mm×n (R) y es linealmente independiente. c d
5
si y sólo si d = − a + 3b + 2c. Ası́ que
Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios � � 2
vectoriales y dan pie a la siguiente definición. a b
∈ W si y sólo si
c d
Definición 3.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } ⊂ V es una base � � � � � � � � � �
de V si a b
=
a b
=a
1 0
+b
0 1
+c
0 0
5 5
c d c − 2 a + 3b + 2c 0 −2 0 3 1 2
1. gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.
Por lo tanto ��� � � � � ���
2. {v1 , v2 , . . . , vn } es linealmente independiente. 1 0 0 1 0 0
W = gen , ,
0 − 52 0 3 1 2
Observación 3.13. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la No es difı́cil probar que �� � � � � ��
única base de V, es el conjunto vacı́o ∅ = {} 1 0 0 1 0 0
, ,
0 − 52 0 3 1 2
Ejemplo 3.15.
2
Este tipo de base se conoce con el nombre de bases de Hamel . Todo espacio vectorial no nulo posee
1. {1, x, . . . , xn } es una base de Pn [x]. � una base de Hamel, en el apéndice B tratamos un poco sobre éste tipo de bases.

Jorge Campos 105 106 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

es linealmente independiente y, en consecuencia, es una base de W. Como β = {v1 , v2 , . . . , vn } es una base, entonces β es linealmente independiente, por lo tanto

α 1 − λ1 = α 2 − λ2 = · · · = α n − λn = 0
Ejemplo 3.18. Considere los polinomios p1 (x), p2 (x), p4 (x) ∈ P2 [x] del ejemplo 3.13. Pruebe
que β = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. es decir,
Solución. Sabemos que el conjunto β = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, α 1 = λ1 , α 2 = λ2 , . . . , α n = λn
en virtud del ejemplo 3.13, ası́ que sólo falta probar que dicho conjunto genera a P2 [x]. Sea con lo cual obtenemos la unicidad de los escalares.
p(x) = a + bx + cx2 ∈ P2 [x] cualquiera, queremos probar que, para todo x ∈ R, la ecuación
α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = p(x) tiene solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación
es equivalente al sistema de ecuaciones Nótese que hemos hallado dos bases de P2 [x], a saber la base canónica βc = {1, x, x2 }
 y la base β = {p1 (x), p2 (x), p4 (x)} del ejemplo 3.18, y ambas tienen la misma cantidad de
 2α1 +2α2 +α4 = a
−α1 −2α2 −2α4 = b (¡verifı́quelo!) vectores, en este caso tres (3), esta situación no es para nada casual, como veremos en el
 siguiente teorema.
2α1 +6α2 +3α4 = c
La matriz de este sistema es   Teorema 3.15. 4 Sean β1 = {u1 , u2 , . . . , un } y β2 = {v1 , v2 , . . . , vm } dos bases de un espacio
2 2 1 vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces
 −1 −2 −2  todas sus bases tienen la misma cantidad de elementos.
2 6 3
y por el ejemplo 3.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema Demostración. Supongamos que m < n. Dado que β2 es una base de V, entonces, para
en cuestión, tiene solución (única), lo cual concluye la prueba. cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que

uj = α1,j v1 + α2,j v2 + · · · + αmj vm


Ejemplo 3.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 3.12. En-
tonces {p1 (x), p2 (x), p3 (x), p4 (x)} no es una base de P2 [x], por ser linealmente dependiente, Sean λ1 , λ2 , . . . , λn ∈ R tales que
sin embargo es un conjunto generador de P2 [x]. El conjunto {p1 (x), p2 (x)} tampoco es una
base de P2 [x], por no ser un conjunto generador de P2 [x], pero es linealmente independiente. λ1 u1 + λ2 u2 + · · · + λn un = 0/V

Luego
La unicidad de los escalares en el ejemplo 3.18 es una regla la cual enunciaremos en el
siguiente teorema. 0/V = λ1 (α1,1 v1 + α2,1 v2 + · · · + αm1 vm ) + λ2 (α1,2 v1 + α2,2 v2 + · · · + αm2 vm )
Teorema 3.14. 3 Sea β = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para + · · · + λn (α1,n v1 + α2,n v2 + · · · + αmn vm )
cada v ∈ V existen únicos escalares α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn . = (α11 λ1 + α12 λ2 + · · · + α1n λn )v1 + (α21 λ1 + α22 λ2 + · · · + α2n λn )v2
Demostración. Sea v ∈ V un vector cualquiera. Dado que β = {v1 , v2 , . . . , vn } es una base + · · · + (αm1 λ1 + αm2 λ2 + · · · + αmn λn )vm
de V, entonces β genera a V, ası́ que la existencia de los escalares en el enunciado del teorema
está garantizada. Supongamos que existe v ∈ V y existen α1 , α2 , . . . , αn , λ1 , λ2 , . . . , λn ∈ R Pero β2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, ası́ que
tales que 
v = α1 v1 + α2 v2 + · · · + αn vn y v = λ1 v1 + λ2 v2 + · · · + λn vn 
 α11 λ1 + α12 λ2 + · · · + α1n λn = 0

 α21 λ1 + α22 λ2 + · · · + α2n λn = 0
Luego .. .. .. .. ..

 . . . . .

 α λ + α λ + ··· + α λ = 0
0/V = v − v = (α1 v1 + α2 v2 + · · · + αn vn ) − (λ1 v1 + λ2 v2 + · · · + λn vn ) m1 1 m2 2 mn n
= (α1 − λ1 )v1 + (α2 − λ2 )v2 + · · · + (αn − λn )vn . 4
En realidad, éste resultado sigue siendo válido en el caso de bases infinitas, más propiamente, dos bases
3
Existe una versión para el caso de bases infinitas. cualesquiera, infinitas o no, de un espacio vectorial, tienen el mismo cardinal.

Jorge Campos 107 108 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Este es un sistema homogéneo de ecuaciones lineales con m ecuaciones y n incógnitas que


son λ1 , λ2 , . . . , λn . Como m < n, al usar el teorema 1.17, concluimos que el sistema anterior
tiene soluciones no triviales, es decir, existen λ1 , λ2 , . . . , λn ∈ R, no todos nulos, tales que Como consecuencia del teorema 3.16 se tiene el siguiente teorema.

λ1 u1 + λ2 u2 + · · · + λn un = 0/V Teorema 3.17. Sean V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vn } ⊂ V.

es decir, β1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1. Si S genera a V, entonces S es una base de V.
β1 es una base de V. Análogamente se obtiene una contradicción si se supone que m > n. En
2. Si S es linealmente independiente, entonces S es una base de V.
consecuencia m = n.
Demostración. ¡Ejercicio!
El teorema 3.15 da pie a la siguiente definición. Sugerencia: En ambos casos suponga que S no es una base, luego, para la parte 1, use el
teorema 3.8 y, para la parte 2, use el teorema 3.13.
Definición 3.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero o di-
mensión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n
elementos, en ambos casos diremos que V tiene dimensión finita. Si V no posee una base Teorema 3.18. 5 Sea W un subespacio de un espacio vectorial de dimensión finita V. En-
finita, diremos que V tiene dimensión infinita. En todos los casos la dimensión de V se tonces dim(W) ≤ dim(V). Además, si dim(W) = dim(V), entonces W = V.
denota por dim(V).
Demostración. Sean dim(V) = n y βW una base de W. Entonces βW es linealmente inde-
Ejemplo 3.20. pendiente en W, luego βW es linealmente independiente en V (¿por qué?). Por lo tanto, por
la parte 1 el teorema 3.16, βW tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).
1. Del ejemplo 3.15 podemos garantizar que Además, si dim(W) = dim(V), entonces βW es un conjunto linealmente independiente con n
elementos. Por lo tanto βW es una base de V (¿por qué?). En consecuencia W = gen(βW ) = V.
dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y dim(Rn ) = n.


Observación 3.16. Todo espacio vectorial que contenga un subespacio de dimensión infini-
2. Si W es el subespacio de M2×2 (R) del ejemplo 3.17, entonces dim(W) = 3. Nótese que ta, es también de dimensión infinita.
en éste caso dim(W) < dim(M2×2 (R)). �
Ejemplo 3.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio
3. El espacio vectorial P[x] es un espacio de dimensión infinita (ver ejemplo 3.16). � de C 0 [ a , b ] (¿por qué?) y como P[x] tiene dimensión infinita (ver parte 3 de ejemplo 3.20),
entonces, por la observación 3.16, C 0 [ a , b ] es de dimensión infinita. Además, en este caso6
Observación 3.15. El problema de encontrar la dimensión de un espacio vectorial está dim(P[x]) < dim(C 0 [ a , b ]). �
relacionado con la búsqueda de una base de dicho espacio, como vimos en el ejemplo 3.20.
Teorema 3.19. 7 Sea S = {v1 , v2 , . . . , vm } un subconjunto de un espacio vectorial V de
Teorema 3.16. Sean v1 , v2 , . . . , vm ∈ V vectores en un espacio vectorial V de dimensión n. dimensión n.

1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m ≤ n. 1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.
2. Si {v1 , v2 , . . . , vm } genera a V, entonces m ≥ n. 2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.
Demostración. Sea β = {u1 , u2 , . . . , un } una base de V. 5
En el caso de dimensión infinita, la desigualdad sigue siendo válida, en contraste, se pueden encontrar un
espacio vectorial de dimensión infinita y un subespacio propio de éste los cuales tienen la misma dimensión
1. Suponga que m > n y haga una prueba análoga a la del teorema 3.15. (ver el ejemplo B.13).
6
La dimensión de P[x] es el cardinal de N y la dimensión de C 0 [ a , b ] es el cardinal del continuo, el cardinal
2. ¡Ejercicio! de R.
7
Existe una versión de éste teorema para el caso de dimensión infinita, tal versión se puede encontrar en
Sugerencia: Use el ejercicio 1.3.1. el apéndice B.

Jorge Campos 109 110 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Demostración. 2. En el mismo orden de ideas, en Rn , las bases ordenadas

1. Dado que S es linealmente independiente, entonces m ≤ n, según la parte 1 del teorema βc = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)}
3.16.
y
Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contie- β = {(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)}
ne a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈ / gen({v1 , v2 , . . . , vm }).
Luego {v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 3.13. son distintas, pero como bases son iguales. Al igual que en el caso de R2 , βc es llamada
base canónica ordenada o simplemente base canónica de Rn . �
Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces β = {v1 , v2 , . . . , vm , vm+1 } es una base de
V tal que S ⊂ β, por el contrario, podemos escoger vm+2 ∈ V tal que 3. En Pn [x] las siguientes bases βc = {1, x, . . . , xn } y β = {xn , . . . , x, 1} son bases orde-
vm+2 ∈ / gen({v1 , v2 , . . . , vm , vm+1 }) y, al igual que antes, se tiene que el conjunto nadas distintas, pero como bases iguales. βc es llamada base canónica ordenada o
{v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente. simplemente base canónica de Pn [x]. �
Continuamos con este proceso hasta completar un conjunto linealmente independiente 4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m},
β = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y además consideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales
S ⊂ β. a 0 (cero). La base
2. ¡Ejercicio! βc = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }
Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada,
de lo contrario, existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1 , v2 , . . . , vk−1 , vk+1 , . . . , vm }). es llamada la base canónica ordenada o simplemente base canónica de Mm×n (R).
Continuar este proceso hasta obtener la base β buscada. Las siguientes son bases ordenadas de Mm×n (R), distintas entre sı́ y distintas de βc :

a) β1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn }


b) β2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 }
c) β3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 }
3.6. Matriz de Cambio de Base
d) β4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 }
Sea V un espacio vectorial de dimensión n. Dada una base β = {v1 , v2 , . . . , vn } de V,
existen muchas formas de ordenar los vectores en β, a saber n! formas distintas, haremos una Todas estas bases son iguales como bases (no ordenadas). �
diferencia entre unas y otras definiendo lo que llamaremos base ordenada.
Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v ∈ V existen únicos escalares
Definición 3.10. Sea V un espacio vectorial de dimensión n. Una base ordenada de V α1 , α2 , . . . , αn R tales que
es una n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V. v = α 1 v 1 + α 2 v 2 + · · · + αn v n .
Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares α1 , α2 , . . . , αn son únicos y
Observación 3.17. Para no recargar mucho la notación, en lugar de escribir (v1 , v2 , . . . , vn ),
están ordenados de forma única, lo que da pie a la siguiente definición.
escribiremos {v1 , v2 , . . . , vn } y ,para no caer en confusión, diremos {v1 , v2 , . . . , vn } es una base
ordenada de V. Definición 3.11. Sea β = {v1 , v2 , . . . , vn } una base ordenada de V y sea v ∈ V. Definiremos
la matriz de coordenadas de v respecto a la base β como la única matriz
Ejemplo 3.22.
 
α1
1. En R2 , βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)}, son dos bases ordenadas distintas,  α2 
 
la primera se denomina la base canónica ordenada o simplemente base canónica [v]β =  .. 
.
de R2 . Nótese que βc y β son iguales como bases de R2 , pero distintas como bases
ordenadas. αn

� tal que v = α1 v1 + α2 v2 + · · · + αn vn .

Jorge Campos 111 112 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Ejemplo 3.23. El conjunto β = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (¡pruébelo!). 2. [αu]β = α[u]β .


Para cualquier p(x) ∈ P2 [x], encuentre [p(x)]β .
Demostración. ¡Ejercicio!
Solución. Sea p(x) = a0 + a1 x + a2 x2 , con a0 , a1 , a2 ∈ R, y sea
 
α1 Teorema 3.21. Sean β1 = {v1 , v2 , . . . , vn } y β2 = {u1 , u2 , . . . , un } bases ordenadas de un
[p(x)]β = α2  espacio vectorial V. Entonces existe una única matriz A ∈ Mn×n (R) tal que
α3
[v]β2 = A[v]β1 para cada v ∈ V (3.7)
Entonces, para cada x ∈ R, tenemos
Demostración. Para cada j ∈ {1, . . . , n} hagamos
p(x) = α1 (1 + x) + α2 (x + x2 ) + α3 (1 + x2 ) = (α1 + α3 ) + (α1 + α2 )x + (α2 + α3 )x2  
α1j
De donde se obtiene el sistema  α2j 
 
 [vj ]β2 =  .. 
 . 
 α1 +α3 = a0
α1 +α2 = a1 αnj

α2 +α3 = a2
Entonces
Resolvamos el sistema vj = α1,j u1 + α2,j u2 + · · · + αnj un
   
1 0 1 a0 1 0 1 a0 Sea v ∈ V cualquiera. Hagamos
 1 1 0 a1  F2 → F2 − F1  0 1 −1 −a0 + a1     
→ λ1 α1
0 1 1 a2 0 1 1 a2  λ2   α2 
       
1 0 1 a0 1 0 1 a0 [v]β1 =  ..  y [v]β2 =  .. 
F3 → F3 − F2  0 1 −1 −a0 + a1  F3 → 12 F3  0 1 −1 −a0 + a1  .  . 
→ → 0 0 λn αn
0 0 2 a0 − a1 + a2 1 12 a0 − 12 a1 + 12 a2
 
1 0 0 12 a0 + 12 a1 − 12 a2
F 1 → F1 − F 3 Entonces
→  0 1 0 − 12 a0 + 12 a1 + 12 a2 
F 2 → F2 + F3
0 0 1 12 a0 − 12 a1 + 12 a2
α1 u1 + α2 u2 + · · · + αn un = v = λ1 v1 + λ2 v2 + · · · + λn vn
Luego
= λ1 (α1,1 u1 + α2,1 u2 + · · · + αn1 un )
 1   
a + 12 a1 − 12 a2
2 0
a + a1 − a2 +λ2 (α1,2 u1 + α2,2 u2 + · · · + αn2 un )
1 0
p(x)]β = [a0 + a1 x + a2 x2 ]β = − 12 a0 + 12 a1 + 12 a2  = −a0 + a1 + a2  + · · · + λn (α1,n u1 + α2,n u2 + · · · + αnn un )
1 2
a0 − 12 a1 + 12 a2 a0 − a1 + a2
   2   = (α1,1 λ1 + α1,2 λ2 + · · · + α1n λn )u1
1 1 −1 a0 1 1 −1
1 1 +(α2,1 λ1 + α2,2 λ2 + · · · + α2n λn )u2
= −1 1 1   a1  = −1 1 1  [p(x)]βc
2 2 + · · · + (αn,1 λ1 + αn,2 λ2 + · · · + αnn λn )un
1 −1 1 a2 1 −1 1
Por lo tanto
      
Teorema 3.20. Sea β una base ordenada de un espacio vectorial V de dimensión n. Para α1 α1,1 λ1 + α1,2 λ2 + · · · + α1n λn α1,1 α1,2 · · · α1n λ1
 α2   α2,1 λ1 + α2,2 λ2 + · · · + α2n λn  α2,1 α2,2 · · · α2n   λ2 
cualesquiera u, v ∈ V y α ∈ R se cumple que   
 ..  = 
 
 =  ..
 
.. .. .. ..   .. 
 .   . .   . . .  . 
1. [u + v]β = [u]β + [v]β . αn αn,1 λ1 + αn,2 λ2 + · · · + αnn λn αn1 αn2 · · · αnn λn

Jorge Campos 113 114 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

De donde   Como su nombre lo indica, la matriz Mβ1 ,β2 permite calcular la matriz de coordenadas de
α1,1 α1,2 · · · α1n un vector v ∈ V, respecto a la base β2 , conociendo la matriz de coordenadas de v respecto
α2,1 α2,2 · · · α2n 
  a la base β1 . Nótese además que por su definición, la columna j-ésima de Mβ1 ,β2 , repre-
[v]β2 =  .. ... ..  [v]β1
 . .  senta la matriz de coordenadas del j-ésimo vector de β1 respecto a la base β2 , esto es, si
αn1 αn2 · · · αnn β1 = {v1 , v2 , . . . , vn }, entonces
� �
Haciendo Mβ1 ,β2 = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
 
α1,1 α1,2 · · · α1n Ejemplo 3.24. Sea β la base ordenada de P2 [x] dada en el ejemplo 3.23. Entonces, según
α2,1 α2,2 · · · α2n  � �
  el ejemplo en cuestión, tenemos que
A = [αij ]n×n =  .. .. ..  = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
 . . .   
1 1 −1
αn1 αn2 · · · αnn 1
Mβc ,β = −1 1 1  (¿por qué?)
2
obtenemos la existencia de la matriz A que satisface (3.7). 1 −1 1
Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada
donde βc es la base canónica ordenada de P2 [x]. �
por  
α1j Antes de dar algún otro ejemplo, enunciaremos un primer resultado que involucra matrices
 α2j  de transición.
(j)  
A =  ..  = [vj ]β2
 .  Teorema 3.22. Si V es un espacio vectorial de dimensión n y β1 y β2 son dos bases orde-
αnj nadas de V, entonces la matriz Mβ1 ,β2 es invertible y su inversa es Mβ2 ,β1 .
Supongamos que B ∈ Mn×n (R) es tal que
Demostración. Sea v ∈ V cualquiera. Entonces
[v]β2 = B[v]β1 para cada v ∈ V [v]β2 = Mβ1 ,β2 [v]β1 y [v]β1 = Mβ2 ,β1 [v]β2
Ası́ que, para cada j ∈ {1, . . . , n}, tenemos que Por lo tanto, si β2 = {v1 , v2 , . . . , vn } y C = Mβ1 ,β2 Mβ2 ,β1 , entonces, para cada j ∈ {1, . . . , n},
[vj ]β2 = B[vj ]β1 se tiene que

Pero In(j) = [vj ]β2 = Mβ1 ,β2 [vj ]β1 = Mβ1 ,β2 Mβ2 ,β1 [vj ]β2 = CIn(j) = C (j)
 
0
 ..  En consecuencia Mβ1 ,β2 Mβ2 ,β1 = In y por lo tanto (Mβ1 ,β2 )−1 = Mβ2 ,β1 .
.
 
0
  Ejemplo 3.25. Consideremos las siguientes bases ordenadas de R3
[vj ]β1 = In(j) = 1 −→ j-ésima fila
 
0
. β1 = {(1, −2, 0), (3, −1, 1), (0, 1, 3)}; β2 = {(0, 2, 1), (−1, 0, 1), (3, −1, 2)}
 .. 
0 y βc la base canónica.
Luego Calcular Mβ1 ,β2 , Mβc ,β2 y Mβ2 ,β1 .
A(j) = [vj ]β2 = B[vj ]β1 = BIn(j) = B (j)
Solución. Para calcular Mβ1 ,β2 debemos calcular las matrices de coordenadas de cada uno
Por lo tanto B = A. de los vectores de β1 respecto a la base β2 . Sean
     
α1,1 α1,2 α1,3
Definición 3.12. La matriz A en el teorema anterior es llamada matriz de transición o   
[(1, −2, 0)]β2 = α2,1 , [(3, −1, 1)]β2 = α2,2  
y [(0, 1, 3)]β2 = α2,3 
matriz de cambio de base de β1 a β2 y se denota por Mβ1 ,β2 . α3,1 α3,2 α3,3

Jorge Campos 115 116 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

   
Entonces 1 1 2 0 1 3 1 1 2 0 1 3
F2 ↔ F3  0 −1 3 1 3 0  F2 → −F2  0 1 −3 −1 −3 0 
(1, −2, 0) = α1,1 (0, 2, 1) + α2,1 (−1, 0, 1) + α3,1 (3, −1, 2) → →
0 −2 −5 −2 −3 −5 0 −2 −5 −2 −3 −5
 
= (−α2,1 + 3α3,1 , 2α1,1 − α3,1 , α1,1 + α2,1 + 2α3,1 ) 1 0 5 1 4 3
F 1 → F1 − F 2
→  0 1 −3 −1 −3 0 
F3 → F3 + 2F2
0 0 −11 −4 −9 −5
(3, −1, 1) = α1,2 (0, 2, 1) + α2,2 (−1, 0, 1) + α3,2 (3, −1, 2)    9 1 8

1 0 5 1 4 3 1 0 0 − 11 − 11
= (−α2,2 + 3α3,2 , 2α1,2 − α3,2 , α1,2 + α2,2 + 2α3,2 ) F1 → F1 − 5F3 11
F3 → − 111
F3  0 1 −3 −1 −3 0  →  0 1 0 1
11
6
− 11 15
11

→ 0 0 4 9 5 F2 → F2 + 3F3 4 9 5
1 11 11 11
0 0 1 11 11 11
(0, 1, 3) = α1,3 (0, 2, 1) + α2,3 (−1, 0, 1) + α3,3 (3, −1, 2) Ası́ que  9   
1 8
= (−α2,3 + 3α3,3 , 2α1,3 − α3,3 , α1,3 + α2,3 + 2α3,3 ) − 11 − 11 11 −9 −1 8
1 
Mβ1 ,β2 =  11 1 6
− 11 15 
11
= 1 −6 15 
4 9 5 11
De donde 11 11 11
4 9 5
 
 −α2,1 +3α3,1 = 1  −α2,2 +3α3,2 = 3 Calculemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
2α1,1 −α3,1 = −2 , 2α1,2 −α3,2 = −1  
  0 −1 3 1 0 0
α1,1 +α2,1 +2α3,1 = 0 α1,2 +α2,2 +2α3,2 = 1
 
[Mβ2 ,βc |Mβc ,βc ] = 2 0 −1 0 1 0 
 −α2,3 +3α3,3 = 0 1 1 2 0 0 1
y 2α1,3 −α3,3 = 1
 Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF
α1,3 +α2,3 +2α3,3 = 3
que aplicamos anteriormente (¿por qué?), y obtenemos
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
 
manera simultánea considerando la siguiente matriz tres veces ampliada 1 0 0 1 5 1
11 11 11
   0 1 0 −5 −3 6 
11 11 11
0 −1 3 1 3 0 0 0 1 2 1
− 11 2
 2 0 −1 −2 −1 1  11 11

1 1 2 0 1 3 Por lo tanto
Nótese que las tres primeras columnas de ésta matriz, son las matrices de coordenadas de  1 5 1
  
1 5 1
 = 1  −5 −3 6 
cada uno de los vectores de la base β2 respecto a la base canónica, y las tres últimas columnas, 11 11 11
Mβc ,β2 =  − 11
5 3
− 11 6
11
son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base 2 1 2 11
11
− 11 11
2 −1 2
canónica, es decir,
  Nótese que la matriz obtenida no es mas que la inversa de
0 −1 3 1 3 0
 
[Mβ2 ,βc |Mβ1 ,βc ] =  2 0 −1 −2 −1 1  0 −1 3
1 1 2 0 1 3 Mβ2 ,βc =  2 0 −1 
Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base. 1 1 2
    Finalmente (¡verifı́quelo!)
0 −1 3 1 3 0 1 1 2 0 1 3
 2 0 −1 −2 −1 1  F1 ↔ F3  2 0 −1 −2 −1 1     
→ − 15 1 3
−15 7 3
= 1 
1 1 2 0 1 3 0 −1 3 1 3 0 14 2 14
 Mβ2 ,β1 = (Mβ1 ,β2 )−1 =  5
14
− 12 13
14
5 −7 13 
1 1 2 0 1 3 3 1 5 14
3 7 5
F2 → F2 − 2F1  0 −2 −5 −2 −3 −5  14 2 14

0 −1 3 1 3 0

Jorge Campos 117 118 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Ejemplo 3.26. Sean β1 , β2 y βc como en el ejemplo 3.25. Dado cualquier (x, y, z) ∈ R3 , En el capı́tulo 1, se explicó la resolución del problema de hallar una solución a la ecuación
calcular [(x, y, z)]β2 y [(x, y, z)]β1 . matricial AX = B, donde A ∈ Mm×n (R) y B ∈ Mm×p (R) son matrices conocidas, en
  particular, cuando A es invertible, tal resolución nos permite obtener la única solución posible
x
que es X = A−1 B.
Solución. Sabemos que [(x, y, z)]βc = y  por lo tanto
Por otro lado, si consideramos tres bases ordenadas de un espacio vectorial V de dimensión
z
finita, digamos β1 , β2 y β3 , al resolver la ecuación matricial Mβ3 ,β2 X = Mβ1 ,β2 , según lo co-
    
1 5 1 x x + 5y + z mentado anteriormente, y en virtud de los teoremas 3.22 y 3.23, obtenemos que la solución a
1     1  esta ecuación está dada por X = (Mβ3 ,β2 )−1 Mβ1 ,β2 = Mβ2 ,β3 Mβ1 ,β2 = Mβ1 ,β3 , por lo tanto, sa-
[(x, y, z)]β2 = Mβc ,β2 [(x, y, z)]βc = −5 −3 6 y = −5x − 3y + 6z 
11 11 biendo que tal ecuación se resuelve al calcular la FERF de la matriz [Mβ3 ,β2 |Mβ1 ,β2 ], entonces,
2 −1 2 z 2x − y + 2z
cuando las matrices Mβ3 ,β2 y Mβ1 ,β2 son conocidas o bien fáciles de calcular, el problema se
    reduce al cálculo antes mencionado. En relación a esto último, si β2 es la base canónica de V,
−15 7 3 x + 5y + z siendo V uno de los espacios Rn , Mm×n (R) o Pn [x], entonces las matrices Mβ3 ,β2 y Mβ1 ,β2 se
1  1
[(x, y, z)]β1 = Mβ2 ,β1 [(x, y, z)]β2 = 5 −7 13   −5x − 3y + 6z  pueden calcular fácilmente, en consecuencia, dadas dos bases ordenadas β1 y β3 cualesquiera
14 11
3 7 5 2x − y + 2z de alguno de estos espacios vectoriales, el cálculo de la matriz de transición entre estas bases,
  se reduce a calcular la FERF de una matriz adecuada, a saber la matriz [Mβ3 ,β2 |Mβ1 ,β2 ].
−4x − 9y + 3z
1 
[(x, y, z)]β1 = 6x + 3y − z  Teorema 3.24. Sea β una base ordenada de un espacio vectorial V de dimensión n. Entonces
14
−2x − y + 5z {v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima
columna es [vj ]β , tiene determinante distinto de cero.
En este último ejemplo se verifica que Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean, además,
    α1 , α2 , . . . , αn ∈ R tales que
−15 7 3 1 5 1
1  1
Mβc ,β1 = Mβ2 ,β1 Mβc ,β2 = 5 −7 13    −5 −3 6  α1 v1 + α2 v2 + · · · + αn vn = 0/V .
14 11
3 7 5 2 −1 2
  Ası́ que
−4 −9 3
1 
Mβc ,β1 = 6 3 −1 
14 0/n×1 = [0/V ]β = [α1 v1 + α2 v2 + · · · + αn vn ]β = α1 [v1 ]β + α2 [v2 ]β + · · · + αn [vn ]β
−2 −1 5    
Este resultado no es casual, como se puede ver en elsiguiente teorema. α1 α1
 α2   α2 
   
Teorema 3.23. Sean β1 , β2 y β3 bases ordenadas de un espacio vectorial V de dimensión = [[v1 ]β [v2 ]β · · · [vn ]β ]  ..  = A  ..  .
 .   . 
n. Entonces
αn αn
Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2 .
 
Demostración. Sea v ∈ V cualquiera. Entonces α1
 α2 
  /
[v]β3 = Mβ2 ,β3 [v]β2 y [v]β2 = Mβ1 ,β2 [v]β1 . Pero det(A) �= 0 si y sólo si el sistema A  ..  = 0n×1 tiene como única solución la trivial,
 . 
Luego αn
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1 . es decir, si y sólo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que
Por unicidad de la matriz Mβ1 ,β3 , concluimos que dim(V) = n, equivale a que {v1 , v2 , . . . , vn } es una base de V.

Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2 .


El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimensión n, es una base para dicho espacio.

Jorge Campos 119 120 Jorge Campos


3.6. Matriz de Cambio de Base

Teorema 3.25. Sean V un espacio vectorial de dimensión n, β una base ordenada de V


{v1 , v2 , . . . , vk } ⊂ V, A ∈ Mn×k (R) la matriz cuya j-ésima columna es [vj ]β y F ∈ Mn×k (R) la
FERF de A. Si j1 , j2 , . . . , jr ∈ {1, . . . , k} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas
de F con pivotes, entonces vj1 , vj2 , . . . , vjr son linealmente independientes. Además, para cada
j ∈ {1, . . . , k}, se tiene que
r
� Capı́tulo 4
vj = f1j vj1 + f2j vj2 + · · · + frj vjr = fij vji .
i=1

Demostración. ¡Ejercicio! Espacios Reales con Producto Interno.


Sugerencia: Use el teorema 3.12.
Proceso de Gram-Schmidt

En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vec-
toriales reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones
y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren
espacios vectoriales reales.1

4.1. Espacios Reales con Producto Interno


Definición 4.1. Sea V un espacio vectorial real. Un producto interno sobre V, es una
función que asocia, a cada par de vectores u, v ∈ V, un único número real denotado por
�u , v�, u · v o uv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w ∈ V y
cada α ∈ R.

1. �u , v� = �v , u�.

2. �u + v , w� = �u , w� + �v , w�.

3. �αu , v� = α �u , v�.

4. �v , v� ≥ 0 y además �v , v� = 0 si y sólo si v = 0/V .

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio


(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a los
productos internos son producto interior, producto escalar y producto punto.

Ejemplo 4.1. Las siguientes funciones son productos internos sobre Rn


1
Para profundizar un poco más sobre espacios vectoriales que no sean reales, puede remitirse al apéndice
B.

Jorge Campos 121 122


4.1. Espacios Reales con Producto Interno Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

n
� Ejemplo 4.3. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C 0 [ a , b ],
1. �u , v� = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
la función �
i=1 b
En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1 , u2 , . . . , un ); v = (v1 , v2 , . . . , vn ) y �f , g� = f (x)g(x)dx
a
w = (w1 , w2 , . . . , wn ). Entonces
es un producto interno (mientras no se diga lo contrario, éste es el producto interno usual
n
� n
� en C 0 [ a , b ]), en efecto, sean f, g, h ∈ C 0 [ a , b ] y α ∈ R. Entonces
�u , v� = ui v i = vi ui = �v , u� .
� b � b
i=1 i=1
�f , g� = f (x)g(x)dx = g(x)f (x)dx = �g , f � .
a a
u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), ası́ que
n
� n
� n
� n
� � b � b
�u + v , w� = (ui + vi )wi = (ui wi + vi wi ) = ui w i + vi w i �f + g , h� = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
i=1 i=1 i=1 i=1 a a
� b � b
= �u , w� + �v , w� .
= f (x)h(x)dx + g(x)h(x)dx = �f , h� + �g , h� .
a a
αu = α(u1 , u2 , . . . , un ) = (αu1 , αu2 , . . . , αun ), luego � �
b b
n
� n
� �αf , g� = αf (x)g(x)dx = α f (x)g(x)dx = α �f , g� .
�αu , v� = αui vi = α ui vi = α �u , v� . a a
i=1 i=1 � b � b
�f , f � = f (x)f (x)dx = [f (x)]2 dx ≥ 0.
Finalmente n n
a a
� � Además �f , f � = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir,
�u , u� = u i ui = u2i ≥ 0.
si y sólo si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo
i=1 i=1
x ∈ [ a , b ].
Además, �u , u� = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
y sólo si u = 0/Rn . C 0 [ a , b ]. �
Este producto interno es llamado producto interno euclidiano, usual o estándar
Ejemplo 4.4. En Pn [x] las siguientes funciones son productos internos.
de Rn , salvo que se indique lo contrario, este es el producto interno que usualmente
consideraremos sobre Rn . � 1. Como Pn [x] es un subespacio de C 0 [ a , b ], entonces el producto interno definido en el
n
� ejemplo anterior, es un producto interno sobre Pn [x]. Éste producto es el producto
2. �u , v� = pi ui vi donde p1 , p2 , . . . , pn ∈ R+ son números fijos, u y v son como antes. interno usual en Pn [x] cuando a = −1 y b = 1. �
i=1
n

Este producto interno es lo que se denomina producto interno euclidiano ponde-
rado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno 2. �p , q� = p(i)q(i). En Efecto, sean p, q, r ∈ Pn [x] y α ∈ R. Entonces
i=0
euclidiano. Pruebe que esta función es un producto interno. �
n
� n

Ejemplo 4.2. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el �p , q� = p(i)q(i) = q(i)p(i) = �q , p� .
cual se conoce como producto interno euclidiano, usual o estándar, al igual que en el i=0 i=0
caso de Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos
n
� n

sobre Mm×n (R).
m � n �p + q , r� = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
� � �
�A , B� = tr AB T = aij bij i=0 i=0
�n n

i=1 j=1
= p(i)r(i) + q(i)r(i) = �p , r� + �q , r� .
donde A = (aij )m×n y B = (bij )m×n (ver definición 1.11). � i=0 i=0

Jorge Campos 123 124 Jorge Campos


4.1. Espacios Reales con Producto Interno Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

n
� n
� 5. Sea v ∈ V cualquiera. Entonces
�p , p� = p(i)p(i) = [p(i)]2 ≥ 0.
i=0 i=0
�v , 0/V � = �v , 0/V + 0/V � = �v , 0/V � + �v , 0/V � .
Además, �p , p� = 0 si y sólo si p(i) = 0 para cada i ∈ {0, . . . , n}.
Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por Ası́ que �v , 0/V � = 0 y además �0/V , v� = �v , 0/V � = 0.
qué?), es decir, �p , p� = 0 si y sólo si p es el polinomio nulo. �
6. Como �u , v� = 0 para cada v ∈ V, entonces �u , u� = 0 (tomando v = u), luego u = 0/V
n
� (¿por qué?).
3. �p , q� = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn
i=0
(¡pruébelo!). �

Teorema 4.1. Sea V un espacio con producto interno � , �. Entonces


4.2. Bases Ortonormales y Proceso de Ortonormaliza-
1. �u , v + w� = �u , v� + �u , w� para cualesquiera u, v, w ∈ V. ción de Gram-Schmidt
2. �u , αv� = α �u , v� para cualesquiera u, v ∈ V y α ∈ R. Definición 4.2. Sea � , � un producto interno sobre un espacio vectorial V y sean u, v ∈ V.
Diremos que u es ortogonal a v si �u , v� = 0, en cuyo caso escribiremos u ⊥ v.
3. �u − v , w� = �u , w� − �v , w� para cualesquiera u, v, w ∈ V.

4. �u , v − w� = �u , v� − �u , w� para cualesquiera u, v, w ∈ V. Observación 4.1. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia,


podemos escribir u y v son ortogonales en lugar de u es ortogonal a v.
5. �v , 0/V � = 0 = �0/V , v� para todo v ∈ V.
Observación 4.2. Cuando en Rn consideramos el producto interno euclidiano, entonces la
6. Si �u , v� = 0 para cada v ∈ V, entonces u = 0/V . ortogonalidad entre vectores equivale a la perpendicularidad entre vectores.

Demostración. Ejemplo 4.5.

1. Sean u, v, w ∈ V cualesquiera. Entonces 1. Sean x = (2, −1, −3) e y = (3, 3, 1). Entonces

�u , v + w� = �v + w , u� = �v , u� + �w , u� = �u , v� + �u , w� . �x , y� = (2)(3) + (−1)(3) + (−3)(1) = 6 − 3 − 3 = 0

2. Sean u, v ∈ V y α ∈ R cualesquiera. Ası́ que ası́ que x ⊥ y. �

�u , αv� = �αv , u� = α �v , u� = α �u , v� . 2. La parte 5 del teorema 4.1 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de
este mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V,
3. Sean u, v, w ∈ V cualesquiera. Luego
es el vector nulo. �
�u − v , w� = �u + (−v) , w� = �u , w� + �−v , w� = �u , w� + �(−1)v , w�
3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C 0 [ −π , π ], son ortogonales. �
= �u , w� + (−1) �v , w� = �u , w� − �v , w� .
4. En P2 [x], los polinomios p(x) = 1 + 2x y q(x) = −2 + x son ortogonales si consi-
2 2

4. Sean u, v, w ∈ V cualesquiera. Ası́ que deramos el producto interno definido en la parte 3 del ejemplo 4.4 (¡verifı́quelo!), pero
si consideramos el producto interno definido en la parte 2 del mismo ejemplo, estos
�u , v − w� = �v − w , u� = �v , u� − �w , u� = �u , v� − �u , w� . polinomios no son ortogonales (¡verifı́quelo!). �

Jorge Campos 125 126 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Definición 4.3. Sea � , � un producto interno sobre el espacio vectorial V. Definiremos la Teorema 4.2. Sea V un EPI. Entonces, para cada α ∈ R y cualesquiera u, v ∈ V, se cumple
norma, magnitud, módulo o longitud de v ∈ V (inducida por el producto interno2 ), que:
como el número real �v� dado por
� 1. �u� ≥ 0 y �u� = 0 si y sólo si u = 0/V .
�v� = �v , v�
2. �αu� = |α| · �u�.
Diremos que v ∈ V es unitario si �v� = 1.
3. �u ± v�2 = �u�2 ± 2 �u , v� + �v�2 .
Observación 4.3. Dado que �v , v� ≥ 0 para cada v ∈ V, entonces la definición anterior
está bien fundada. Demostración. ¡Ejercicio!

Observación 4.4. Cuando en Rn consideramos el producto interno euclidiano, entonces la


norma de un vector v ∈ Rn , inducida por éste, en realidad nos da la longitud del segmento Teorema 4.3. Sean u y v dos vectores unitarios en un EPI. Entonces
de recta que va desde el origen hasta el punto v.
| �u , v� | ≤ 1.
Ejemplo 4.6. Consideremos sobre R4 el producto interno euclidiano. Entonces
� � √ Demostración. Usando la parte 3 del teorema 4.2, tenemos que
�(1, 0, −3, 2)� = �(1, 0, −3, 2) , (1, 0, −3, 2)� = 12 + 02 + (−3)2 + 22 = 14.
0 ≤ �u + v�2 = �u�2 + 2 �u , v� + �v�2 = 1 + 2 �u , v� + 1 = 2[1 + �u , v�].

Ejemplo 4.7. En P2 [x] consideremos el polinomio p(x) = 3−x2 . Calcular �p� considerando: Ası́ que
�u , v� ≥ −1.
1. El producto interno definido en la parte 1 del ejemplo 4.4 con a = −1 y b = 1. Nuevamente, por la parte 3 del teorema 4.2, obtenemos
2. El producto interno definido en la parte 2 del ejemplo 4.4. 0 ≤ �u − v�2 = �u�2 − 2 �u , v� + �v�2 = 1 − 2 �u , v� + 1 = 2[1 − �u , v�]
3. El producto interno definido en la parte 3 del ejemplo 4.4.
luego
Solución. �u , v� ≤ 1.
�� �� �� ��1 En consecuencia
1 1
x5 �� | �u , v� | ≤ 1.
1. �p� = (3 − x2 )2 dx = (9 − 6x2 + x4 )dx = 9x − 2x3 +
−1 −1 5 �−1
� � �
� �
361 2
= 2 9−2+ =6 =. 2 En el teorema que enunciaremos a continuación, se dan dos propiedades muy importantes
55 5
de la norma. Haremos uso del teorema precedente para poder probar la primera de éstas.
� � √
2. �p� = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (−1)2 = 14.
Teorema 4.4. Sean u y v dos vectores en un EPI. Entonces
� √
3. �p� = 32 + 02 + (−1)2 = 10.
1. | �u , v� | ≤ �u� · �v� (Desigualdad de Cauchy-Schwarz).

2. �u + v� ≤ �u� + �v� (Desigualdad Triangular).


A continuación enunciaremos un teorema donde se dan a conocer algunas propiedades
de la norma, y que son consecuencia directa de las propiedades del producto interno, su Las igualdades se cumplen si y sólo si uno de los vectores es múltiplo escalar del otro,esto
demostración se deja como ejercicio. es, si y sólo si existe α ∈ R tal que u = αv o v = αu.
2
No toda norma es inducida o proviene de un producto interno, como puede verse en el apéndice B. Demostración.

Jorge Campos 127 128 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

1. Si u = 0/V o v = 0/V , entonces | �u , v� | = 0 = �u� · �v�. Definición 4.5. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V. Diremos que S es un con-
u v junto ortogonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i �= j. Si adicionalmente
En caso contrario, u �= 0/V �= v y por lo tanto los vectores u
�= y v� = son
�u� �v� vi es unitario para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.
unitarios, y por el teorema 4.3
| ��
u , v�� | ≤ 1. Ejemplo 4.9. Consideremos las siguientes matrices en M2×2 (R)
� � � � � �
Pero � � 1 0 0 2 0 1
u v 1 A1 = ; A2 = y A3 =
��
u , v�� = , = �u , v� . 0 0 −2 0 1 3
�u� �v� �u� · �v�
¿Es S = {A1 , A2 , A3 } un conjunto ortogonal? ¿Es S ortonormal?
1
Por lo tanto �u , v� ≤ 1, es decir, �u , v� ≤ �u� · �v�.
�u� · �v� Solución.
�A1 , A2 � = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0.
2. Por la parte 3 del teorema 4.2 tenemos que
2 2 2 �A1 , A3 � = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0.
�u + v� = �u� + 2 �u , v� + �v�
�A2 , A3 � = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0.
y por la parte 1 (desigualdad de Cauchy-Schwarz)
Ası́ que S es ortogonal. Pero
�u , v� ≤ | �u , v� | ≤ �u� · �v�. � √
�A2 � = 02 + 22 + (−2)2 + 02 = 2 2 �= 1.
Ası́ que
�u + v�2 ≤ �u�2 + 2�u� · �v� + �v�2 = (�u� + �v�)2 . Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde
Luego �u + v� ≤ �u� + �v�.
1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = √ A2 y B3 = A3 = √ A3
Se deja como ejercicio probar la última parte del teorema. �A1 � �A2 � 2 2 �A3 � 11
sı́ es un conjunto ortonormal (¡verifı́quelo!).
Definición 4.4. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo
entre u y v como el número real �(u, v) ∈ [ 0 , π ] tal que
�u , v� Teorema 4.5. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
cos(�(u, v)) = independiente.
�u� · �v�
es decir � � Demostración. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V un conjunto ortogonal de
�u , v� vectores no nulos.
�(u, v) = arc cos .
�u� · �v� Sean α1 , α2 , . . . , αk ∈ R tales que
Ejemplo 4.8. Calcular el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1). α1 v1 + α2 v2 + · · · + αk vk = 0/V .
Solución.
�u , v� = 0 · 2 + (−3)2 + 3(−1) = −9; Entonces, para cada j ∈ {1, . . . , k}, se tiene que
� √ √ � √
�u� = 02 + (−3)2 + 32 = 18 = 3 2 y �v� 22 + 22 + (−1)2 = 9 = 3. k
� k

Ası́ que 0 = �vj , 0/V � = �vj , α1 v1 + α2 v2 + · · · + αk vk � = �vj , αi vi � = αi �vj , vi �
� √ � i=1 i=1
� � � �
�u , v� −9 − 2 3π = αj �vj , vj � = αj �vj �2
�(u, v) = arc cos = arc cos √ = arc cos = .
�u� · �v� 3 2·3 2 4
y dado que vj es no nulo, entonces αj = 0. Por lo tanto S es linealmente independiente.

Jorge Campos 129 130 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Definición 4.6. Sean V un EPI y β = {v1 , v2 , . . . , vn } una base de V. Diremos que β es y


una base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respec- �� √ � � √ √ � 1
tivamente ortonormal). 3 5 � 2
� 3 5 � � 15 � �
x, √ −1 + 3x = √ x , −1 + 3x2 = x −1 + 3x2 dx = 0.
2 2 2 22 2 4 −1
Ejemplo 4.10.
1. Las bases canónicas de Rn y Mm×n (R) son bases ortonormales. � �

2. Una base ortogonal de M2×2 (R) es: Para finalizar esta sección, nos plantearemos y solucionaremos el probleorema de hallar
�� � � � � � � �� una base ortonormal para un EPI de dimensión finita3 o para un subespacio de dimensión
1 0 0 2 0 1 0 3
β= ; ; ; finita de un EPI, comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido
0 0 −2 0 1 3 3 −2
como proceso de ortonormalización de Gram-Schmidt, que nos permite encontrar
pero no es ortonormal. � tal base.
3. Una base ortonormal de P2 [x], considerando el producto interno usual (ver la parte 1 Ejemplo 4.11. En P2 [x] consideremos el producto interno usual y consideremos la base de
del ejemplo 4.4), es: P2 [x] β = {1 , x , x2 }. Calcular una base ortonormal de P2 [x] partiendo de la base β.
� � √ �
1 3 5 � � Solución. Hagamos
β= √ , x , √ −1 + 3x2 .
2 2 2 2 v1 = 1 , v2 = x y v3 = x2 .

En efecto, Entonces ��
� � � �2 � 1 √
� 1 �2 1 1
� √ � = √1 �1�2 = dx =
1
2 = 1; �v1 � = dx = 2.
� 2� 2 2 −1 2 −1
�� �2 �� �2 � �1 Sea
� 3 � 3 3 1 2 3 x3 ��
� � 1 1
� x� = �x�2 = x dx = =1 u1 = v1 = √ .
� 2 � 2 2 −1 2 3 �−1 �v1 � 2
y Ası́ que �u1 � = 1.
�√ �2 � √ �2 � 1 Ahora hagamos
� 5 � �� 5 � � � �2
� �
� √ −1 + 3x2 � = √ �−1 + 3x2 �2 = 5 −1 + 3x2 dx w2 = v2 − �v2 , u1 � u1 .
�2 2 � 2 2 8 −1
� Pero � � � 1
5 1� � 1 1 1
= 1 − 6x2 + 9x4 dx �v2 , u1 � = x, √ = √ �x , 1� = √ xdx = 0.
8 −1 2 2 2 −1
� ��1
5 9 � Luego w2 = v2 = x, además
= x − 2x3 + x5 �� dx = 1
8 5 −1 �� � �1 �
1
x3 �� 2
�w2 � = x2 dx = = .
Además � � � � √ � 1 −1 3 �−1 3
1 3 1 3 3
√ , x =√ �1 , x� = xdx = 0;
2 2 2 2 2 −1 Si hacemos �
1 3
� √ � √ √ � 1 u2 = w2 = x
1 5 � � 1 5 � � 5 � � �w2 � 2
√ , √ −1 + 3x2 = √ √ 1 , −1 + 3x2 = −1 + 3x2 dx
2 2 2 22 2 4 −1 entonces �u2 � = 1 y u1 ⊥ u2 (ver ejemplo 4.10).

5� ��1 3
También es posible hallar una base ortonormal para un EPI de dimensión infinita, tales bases son llamadas
= −x + x3 �0 = 0 bases de Hilbert.
2
Jorge Campos 131 132 Jorge Campos
4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Consideremos Paso 2. Sea w2 = v2 − �v2 , u1 � u1 . Entonces w2 �= 0/V , pues de lo contrario


w3 = v3 − �v3 , u1 � u1 − �v3 , u2 � u2 .
�v2 , u1 �
Pero � � � 1 �1 v2 = �v2 , u1 � u1 = v1
1 1 � � 1 1 x3 �� 2 �v1 �
�v3 , u1 � = x2 , √ = √ x2 , 1 = √ x2 dx = √ = √
2 2 2 −1 2 3 �−1 3 2 lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente.
� � � � � � 1
3 3� 2 � 3 Además
�v3 , u2 � = x2 , x = x ,x = x3 dx = 0.
2 2 2 −1
De donde �w2 , u1 � = �v2 − �v2 , u1 � u1 , u1 � = �v2 , u1 � − ��v2 , u1 � u1 , u1 �
2 1 1 = �v2 , u1 � − �v2 , u1 � �u1 , u1 � = �v2 , u1 � − �v2 , u1 � = 0.
w 3 = x 2 − √ √ = − + x2
3 2 2 3
y Con lo que w2 ⊥ u1 .
� � �2 ��� �
� 1 1
1 1 2 2 1 w2
�w3 � = − + x2
dx = − x + x4 dx Paso 3. Sea u2 = w2 = . Entonces �u2 � = 1 y u1 ⊥ u2 . Ası́ que {u1 , u2 } es
−1 3 −1 9 3 �w2 � �w2 �
�� ��1 � √ un conjunto ortonormal.
1 2 3 x5 �� 8 2 2
= x− x + � = = √ . Además gen({u1 , u2 }) = gen({v1 , v2 }). En efecto, sea v ∈ gen({u1 , u2 } cualquiera.
9 9 5 −1 45 3 5 Entonces existen α1 , α2 ∈ R tales que v = α1 u1 + α2 u2 .
Finalmente, hagamos Luego
√ � � √
1 3 5 1 5 � �
u3 = w3 = √ − + x2 = √ −1 + 3x2 . 1 1
�w3 � 2 2 3 2 2 v = α1 u1 + α 2 u 2 = α 1 v1 + α 2 w2
�v1 � �w2 �
Entonces �u3 � = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 4.10). α1 α2
= v1 + (v2 − �v2 , u1 � u1 )
Por lo tanto � � √ � �v1 � �w2 �
� �
1 3 5 � � α1 α2 1
{u1 , u2 , u3 } = √ , x , √ −1 + 3x2 = v1 + v2 − �v2 , u1 � v1
2 2 2 2 �v1 � �w2 � �v1 �
es una base ortonormal de P2 [x], la cual se obtuvo de β.
� �
α1 α2 �v2 , u1 � α2
v = − v1 + v2 .
El teorema siguiente generaliza el procedimiento que se usó en ejemplo previo. �v1 � �w2 ��v1 � �w2 �
Teorema 4.6 (Proceso de Ortonormalización de Gram-Schmidt). Sea V un EPI. Si W es un
subespacio de dimensión finita de V, entonces W posee una base ortonormal. En Particular, De donde v ∈ gen({v1 , v2 }) y por lo tanto gen({u1 , u2 }) ⊂ gen({v1 , v2 }), ası́
si V tiene dimensión finita, entonces V posee una base ortonormal. gen({u1 , u2 }) es un subespacio de gen({v1 , v2 }), como {u1 , u2 } es un conjunto
ortonormal, y en consecuencia linealmente independiente (¿por qué?), entonces
Demostración. Sea βW = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base
dim(gen({u1 , u2 })) = 2 = dim(gen({v1 , v2 })), ası́ que
ortonormal de W a partir de βW .
En primer lugar, notemos que �vi � �= 0 para cada i ∈ {1, . . . , m}.
gen({u1 , u2 }) = gen({v1 , v2 }) (¿por qué?).
1 v1
Paso 1. Sea u1 = v1 = . Entonces gen({u1 }) = gen({v1 }) (¿por qué?) y
�v1 � �v1 � De manera recursiva, para k < m, obtenemos un conjunto {u1 , u2 , . . . , uk } el cual es orto-
� �
� v1 � 1 normal y tal que
�u1 � = � �
� �v1 � � = �v1 � �v1 � = 1. gen({u1 , u2 , . . . , uk }) = gen({v1 , v2 , . . . , vk }).

Jorge Campos 133 134 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Paso 4. Sea producto4 A = QR, donde la primera de estas matrices, Q ∈ Mm×n (R), tiene columnas or-
tonormales5 , y la segunda matriz, R ∈ Mn×n (R), es una matriz tirangular superior. Veamos
wk+1 = vk+1 − �vk+1 , u1 � u1 − �vk+1 , u2 � u2 − · · · − �vk+1 , uk � uk cómo hacerlo, pero primero enunciaremos un lema en el que presentamos dos resultados que
�k necesitaremos más adelante y que se derivan directamente de la demostración del teorema
= vk+1 − �vk+1 , ui � ui . 4.6.
i=1
Lema 4.7. Sean {v1 , v2 , . . . , vn }, {u1 , u2 , . . . , un } y {w1 , w2 , . . . , wn } como en la demostra-
Entonces wk+1 ∈ W, wk+1 �= 0/V y para cada j ∈ {1, . . . , k} tenemos que ción del teorema 4.6, con w1 = v1 . Entonces
� k
� 1. �uj , vj � uj = wj para todo j ∈ {1, . . . , n}.

�wk+1 , uj � = vk+1 − �vk+1 , ui � ui , uj
2. �ui , vj � = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
i=1
� k

� Demostración.
= �vk+1 , uj � − �vk+1 , ui � ui , uj (¿por qué?)
i=1 1. En primer lugar
k
� 1
= �vk+1 , uj � − ��vk+1 , ui � ui , uj � (¿por qué?) �u1 , v1 � u1 = �v1 , v1 � v1 (¿por qué?)
i=1
�v1 �2
�k = v1 (¿por qué?)
= �vk+1 , uj � − �vk+1 , ui � �ui , uj � (¿por qué?) = w1 (por definición de w1 )
i=1
= �vk+1 , uj � − �vk+1 , uj � �uj , uj � (¿por qué?) es decir, hemos comprobado la primera parte para j = 1.
= �vk+1 , uj � − �vk+1 , uj � �uj �2 (¿por qué?) Por otro lado, sea j ∈ {2, . . . , n} cualquiera. Recordemos que en este caso
= �vk+1 , uj � − �vk+1 , uj � (¿por qué?) j−1
� j−1

= 0 wj = vj − �vj , ui � ui = vj − �ui , vj � ui
i=1 i=1

es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}. Teniendo en cuenta este hecho, se tiene que
� j−1

1 wk+1 �
Paso 5. Hagamos uk+1 = wk+1 = . Entonces �uj , vj � = uj , w j + �ui , vj � ui (¿por qué?)
�wk+1 � �wk+1 �
i=1
� j−1

{u1 , u2 , . . . , uk , uk+1 } �
= �uj , wj � + uj , �ui , vj � ui (¿por qué?)
es un conjunto ortonormal y i=1
j−1

gen({u1 , u2 , . . . , uk , uk+1 }) = gen({v1 , v2 , . . . , vk , vk+1 }) = �uj , wj � + �ui , vj � �uj , ui � (¿por qué?)
i=1
(¿por qué?). = �uj , wj � (¿por qué?)
1
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos = �wj , wj � (¿por qué?)
�wj �
{u1 , u2 , . . . , um } en W, y por lo tanto, una base ortonormal de W.
= �wj � (¿por qué?)
4
Una expresión como ésta es llamada factorización QR de A.
Una de las consecuencias directas del teorema de ortonormalización de G-S es que per- 5
Una matriz cuadrada Q ∈ Mn×n (R) es llamada matriz ortogonal si Q−1 = QT , en éste caso, se puede
mite escribir una matriz A ∈ Mm×n (R), con columnas linealmente independientes, como un probar que, las columnas de Q son ortonormales.

Jorge Campos 135 136 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Ası́ que y para j ∈ {2, . . . , n} nos queda


�uj , vj � uj = �wj �uj = wj (¿por qué?).
j−1

Lo cual demuestra la primera parte. (QR)(j) = �ui , vj � ui + �uj , vj � uj
i=1
2. En la demostración del teorema 4.6 se concluyó que para todo j ∈ {1, . . . , n} se tiene j−1

que = �ui , vj � ui + wj (por la parte 1 del lema 4.7)
gen({v1 , v2 , . . . , vj }) = gen({w1 , w2 , . . . , wj }) = gen({u1 , u2 , . . . , uj }). i=1
= vj (¿por qué?)
Por lo tanto vj ∈ gen({u1 , u2 , . . . , uj }).
= A(j) .
Ahora bien, si i ∈ {1, . . . , n} es tal que i > j, entonces, para todo k ∈ {1, . . . , j}, se
tiene que ui ⊥ uk . En consecuencia QR = A, es decir, hemos probado el siguiente resultado.
Ası́ que ui ⊥ vj , es decir, �ui , vj � = 0. Con lo cual queda probada la segunda parte. Teorema 4.8 (Factorización QR). Sea A ∈ Mm×n (R) cuyas columnas son linealmente inde-
pendientes. Entonces existen una matriz Q ∈ Mm×n (R), cuyas columnas son ortonormales, y
una matriz triangular superior invertible R ∈ Mn×n (R), cuya diagonal está conformada por
números positivos, tales que A = QR.
Consideremos ahora una matriz A ∈ Mm×n (R) cuyas columnas son linealmente inde-
pendientes. Si definimos vj = A(j) , para cada j ∈ {1, . . . , n}, al aplicar el proceso de A continuación daremos un ejemplo para ilustrar la factorización QR de una matriz.
ortonormalización de G-S al conjunto {v1 , v2 , . . . , vn }, obtenemos un conjunto ortonormal
{u1 , u2 , . . . , un }. Para i, j ∈ {1, . . . , n}, definamos rij = �ui , vj �. Hagamos R = (rij )n×n . Ejemplo 4.12. Comprobar que la matriz
Entonces, en virtud de la parte 2 del lema 4.7, se tiene que R es una matriz triangular su-  
−1 −2 2
perior, además, por la demostración de parte 1 del mismo lema, se tiene que rii = �wi � > 0  1 1 2 
para todo i ∈ {1, . . . , n}, por lo tanto, R es una matriz triangular superior invertible tal A=


1 0 2 
que su� diagonal principal � está conformada por números positivos. Finalmente, definamos 1 1 2
Q = u1 u2 · · · un . Afirmamos que A = QR. Veamos que es cierto.
Sea j ∈ {1, . . . , n} cualquiera. Entonces tiene columnas invertibles y calcular una factorización QR para ésta.

(QR) (j)
= QR (j)
(¿por qué?) Solución. Dado que
�n � � � �
� −1 −2 2 � � −2 −2 2 �
= rij Q(i) (¿por qué?) �
� 1
� �
�=� 0

� = −4 �= 0,
i=1 � 1 2 � � 1 2 �
n � 1 0 2 � � 0 0 2 �

= �ui , vj � ui (por definición de las matrices R y Q)
i=1
entonces las columnas de A son linealmente independientes y por lo tanto, según el teorema
j 4.8, existen matrices Q, con columnas ortonormales, y R, triangular superior e invertible,

= �ui , vj � ui (por la parte 2 del lema 4.7) tales que A = QR. Calculemos tales matrices. Definamos v1 = A(1) , v2 = A(2) , v3 = A(3) y
i=1 apliquemos el proceso de ortonormalización de G-S para calcular los vectores ortonormales
u1 , u2 y u3 a partir de las columnas de A.
Para j = 1 obtenemos

w1 = v1 , �w1 � = �v1 � = 1 + 1 + 1 + 1 = 2,
(QR)(1) = �u1 , v1 � u1    
−1 −1/2
= w1 (por la parte 1 del lema 4.7)
1 1 1 1   1/2 
= v1 (¿por qué?) u1 = w 1 = v1 =  = 
�w1 � 2 2  1   1/2 
= A(1) . 1 1/2

Jorge Campos 137 138 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

   
−1 −1 4.3. Complemento Ortogonal
1 1 1   
 =  1  = v1
�v2 , u1 � = (2 + 1 + 0 + 1) = 2, �v2 , u1 � u1 = 2 
2 2 1   1  Finalizaremos este capı́tulo estudiando el complemento ortogonal de un subespacio
1 1 vectorial de un EPI.
     
−2 −1 −1 Teorema 4.9. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
 1   1   0  v ∈ V se tiene que
w2 = v2 − �v2 , u1 � u1 = v2 − v1 =     
 0  −  1  =  −1 

n

1 1 0 v = �v , v1 � v1 + �v , v2 � v2 + · · · + �v , vn � vn = �v , vi � vi .
   √ 
−1 −1/ 2 i=1
√ √ 1 1  
0    
�w2 � = 1 + 0 + 1 + 0 = 2, u2 = w2 = √  = √0  Demostración. ¡Ejercicio!
�w2 � 2  −1   −1/ 2 
0 0
Teorema 4.10. Sean W un subespacio de un EPI de dimensión finita V y {w1 , w2 , . . . , wm }
1 1 4
�v3 , u1 � = (−2 + 2 + 2 + 2) = 2, �v3 , u2 � = √ (−2 + 0 − 2 + 0) = − √ y {w
�1 , w �m } bases ortonormales de W. Entonces para cada v ∈ V se tiene que
�2 , . . . , w
2 2 2
          m
� m

−1 −1 −1 2 1 �v , wi � wi = �v , w
�i � w
�i .
1 1    
 − √4 √1  0  =  1  +  0  =  1
    
�v3 , u1 � u1 + �v3 , u2 � u2 = 2   i=1 i=1
2 1  2 2  −1   1   2   3 
1 0 1 0 1 Demostración. Por teorema, podemos escoger vectores um+1 , . . . , un tales que
     
2 1 1 β1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }
 2   1   1 
w3 = v3 − (�v3 , u1 � u1 + �v3 , u2 � u2 ) =     
 2  −  3  =  −1 
 es una base de V. El proceso de ortonormalización de Gram-Schmidt nos permite suponer,
sin perder generalidad, que β1 es una base ortonormal de V.
2 1 1
    Para cada j ∈ {m + 1, . . . , n},
1 1/2
√ 1 1  1   1/2 
  / gen ({w1 , w2 , . . . , wm }) = W = gen ({w
uj ∈ �1 , w �m })
�2 , . . . , w
�w3 � = 1 + 1 + 1 + 1 = 2, u3 = w3 =  = 
�w3 � 2  −1   −1/2  por lo tanto β2 = {w
�1 , w �m , um+1 , . . . , un } también es una base ortonormal de V.
�2 , . . . , w
1 1/2 Entonces, por el teorema 4.9, tenemos que
Por lo tanto
 √   √  v = �v , w1 � w1 + · · · + �v , wm � wm + �v , um+1 � um+1 + · · · + �v , un � un
−1/2 −1/ 2 1/2 −1 − 2 1 m n
� �  1/2  1 1  � �
0 1/2 0 1
Q = u1 u 2 u3 =  √ 
 1/2 −1/ 2 −1/2  = 2  1 − 2 −1  y
 √  = �v , wi � wi + �v , ui � ui
i=1 i=m+1
1/2 0 1/2 1 0 1
y
   
�u1 , v1 � �u1 , v2 � �u1 , v3 � �w1 � �u1 , v2 � �u1 , v3 � v = �v , w�1 � w
�1 + · · · + �v , w
�m � w
�m + �v , um+1 � um+1 + · · · + �v , un � un
R =  0 �u2 , v2 � �u2 , v3 �  =  0 �w2 � �u2 , v3 �  m n
� �
0 0 �u3 , v3 � 0 0 �w3 � = �v , w�i � w
�i + �v , ui � ui .
    i=1 i=m+1
2 √2 2 2 √2 2

=  0 2 − √42  =  0 2 −2 2  En consecuencia m m
0 0 2 � �
0 0 2 �v , wi � wi = �v , w
�i � w
�i .
son tales que A = QR (¡verifı́quelo!). i=1 i=1

Jorge Campos 139 140 Jorge Campos


4.3. Complemento Ortogonal Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

El teorema 4.10 da pie a la siguiente definición. Ası́ que


� �� �� √ � √
Definición 4.7. Sean W un subespacio de un EPI de dimensión finita V y {w1 , w2 , . . . , wm } 3 3 5 � � 5 � �
una base ortonormal de W. Si v ∈ V, definiremos la proyección ortogonal de v sobre proyW p(x) = xp(x) , x + p(x) , √ −1 + 3x2 √ −1 + 3x2
2 2 2 2 2 2
W, como el vector √ � � √ �
4 3 3 4 5 1� � 1
m
� = √ x+ − √ = 2x − −1 + 3x2 = + 2x − x2 .
proyW v = �v , w1 � w1 + �v , w2 � w2 + · · · + �v , wm � wm = �v , wi � wi . 3 2 2 15 2 3 3
i=1

Claramente proyW v ∈ W.
Definición 4.8. Sea W un subespacio de un EPI V. Definiremos el complemento orto-
Ejemplo 4.13. Consideremos el EPI P2 [x], con el producto interno usual. Calcular la pro- gonal de W como el conjunto
yección ortogonal de p(x) = 3 + 2x − x2 sobre el subespacio de P2 [x]
W⊥ = {v ∈ V : v ⊥ w para cada w ∈ W} = {v ∈ V : �v , w� = 0 para cada w ∈ W}.
W = {a + bx + cx2 : c = −3a}.
Antes de dar algún ejemplo, enunciaremos un teorema que nos permitirá calcular con mayor
Solución. Una base ortonormal de W es facilidad el complemento ortogonal.
�� √ �
3 5 � � Teorema 4.11. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1 , w2 , . . . , wn }
x , √ −1 + 3x2 (¡verifı́quelo!).
2 2 2 una base de W. Entonces v ∈ W⊥ si y sólo si v ⊥ wi para cada i ∈ {1, . . . , n}.

Entonces Demostración. Supongamos primero que v ∈ W⊥ . Entonces v ⊥ w para cada w ∈ W, ası́


� � � � � � 1 que v ⊥ wi para cada i ∈ {1, . . . , n}.
3 3� � 3 � � Supongamos ahora que v ⊥ wi para cada i ∈ {1, . . . , n}, es decir, �v , wi � = 0 para cada
p(x) , x = 3 + 2x − x2 , x = 3 + 2x − x2 xdx
2 2 2 −1 i ∈ {1, . . . , n}.
� � 1 � � 1 � �1 Sea w ∈ W cualquiera. Entonces existen escalares α1 , α2 , . . . , αn ∈ R tales que
3 � � 3 3 x3 ��
= 3x + 2x2 − x3 dx = 2 x2 dx = 2
2 −1 2 −1 2 3 �−1 n

√ w = α 1 w 1 + α 2 w 2 + · · · + αn w n = αi wi .
4 3
= √ . i=1
3 2
Por lo tanto
� √ � √ � n
� n n n
5 � � 5 � � � � � �
p(x) , √ −1 + 3x2 = √ 3 + 2x − x2 , −1 + 3x2 �v , w� = v, αi wi = �v , αi wi � = αi �v , wi � = αi · 0 = 0.
2 2 2 2 i=1 i=1 i=1 i=1
√ � 1
5 � �� �
= √ 3 + 2x − x2 −1 + 3x2 dx Es decir, v ⊥ w para cada w ∈ W. En consecuencia, v ∈ W⊥ .
2 2 −1
√ � 1
5 � �
= √ −3 − 2x + 10x2 + 6x3 − 3x4 dx Ejemplo 4.14. Sea W el subespacio de P2 [x] dado en el ejemplo 4.13. Calcular W⊥ .
2 2 −1
√ � 1
5 � � Solución. Recordemos que
= √ −3 + 10x2 − 3x4 dx
2 2 −1 ��� √ ��
√ � ��1 √
5 10 3 � 4 5 3 5 � � �� ��
= √ −3x + x3 − x5 �� = − √ . W = gen x , √ −1 + 3x2 = gen x , −1 + 3x2
2 2 3 5 −1 15 2 2 2 2

Jorge Campos 141 142 Jorge Campos


4.3. Complemento Ortogonal Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Por lo tanto, en virtud del teorema 4.11, se tiene que a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si 2. Por definición, W⊥ ⊂ V. Además, por la parte 5 del teorema 4.1, se tiene que 0/V ∈ W⊥ .
Sean u, v ∈ W⊥ y α ∈ R. entonces, para cada w ∈ W, �u , w� = 0 = �v , w�, ası́ que
(a0 + a1 x + a2 x2 ) ⊥ x y (a0 + a1 x + a2 x2 ) ⊥ (−1 + 3x2 )
�u + αv , w� = �u , w� + �αv , w� = �u , w� + α �v , w� = 0
es decir, si y sólo si �a0 + a1 x + a2 x2 , x� = 0 y �a0 + a1 x + a2 x2 , −1 + 3x2 � = 0, pero
� � 1 es decir, u + αv ∈ W⊥ , y por lo tanto W⊥ es un subespacio de V.
� � 1
a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx = (a0 x + a1 x2 + a2 x3 )dx 3. Sea v ∈ W ∩ W⊥ cualquiera. Entonces v ∈ W y v ∈ W⊥ , es decir, v ∈ W y �v , w� = 0
−1 −1
� 1 � 1 para cada w ∈ W. Por lo tanto �v�2 = �v , v� = 0, y por la parte 1 del teorema 4.2, se
x3 � 2
= a1 x2 dx = a1 �� = a1 tiene que v = 0/V . En consecuencia W ∩ W⊥ = {0/V }.
−1 3 −1 3
4. Si W = V, entonces dim V = n y W⊥ = V⊥ = {0/V } (por la parte 1). Por lo tanto
Ası́ que �a0 + a1 x + a2 x2 , x� = 0 si y sólo si a1 = 0. Luego dim(W) + dim(W⊥ ) = n + 0 = n = dim(V).
� 1 Supongamos que W �= V. Sea {w1 , w2 , . . . , wm } una base ortonormal de W y conside-
� � � �
a0 + a1 x + a2 x2 , −1 + 3x2 = a0 + a2 x2 , −1 + 3x2 = (a0 + a2 x2 )(−1 + 3x2 )dx remos vectores wm+1 , . . . , wn ∈ V tales que
−1
� 1
β = {w1 , w2 , . . . , wm , wm+1 , . . . , wn }
= (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
−1
� 1 sea una base de V, sin perdida de generalidad, podemos suponer que β es ortonormal
= 2 (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx (¿por qué?).
0
� ��1 Probaremos que {wm+1 , . . . , wn } es una base de W⊥ . Dado que {wm+1 , . . . , wn } es
x3 x5 �� ortonormal (¿por qué?), entonces es linealmente independiente, ası́ que sólo es necesario
= 2 −a0 x − a2 + a0 x3 + 3a2
3 5 �0 probar que {wm+1 , . . . , wn } genera a W⊥ .
� �
1 3 8 Sea w ∈ W⊥ cualquiera. Entonces, por el teorema 4.9
= 2 −a0 − a2 + a0 + a2 = a2 .
3 5 15
w = �w , w1 � w1 + · · · + �w , wm � wm + �w , wm+1 � wm+1 + · · · + �w , wn � wn
En consecuencia, a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si a1 = 0 = a2 . Por lo tanto
Pero, por el teorema 4.11, �w , wi � = 0 para cada i ∈ {1, . . . , m}. Luego
W⊥ = gen({1}).
w = �w , wm+1 � wm+1 + · · · + �w , wn � wn

Ası́ que {wm+1 , . . . , wn } es una base de W⊥ . De donde


Teorema 4.12. Si W es un subespacio de un EPI V, entonces � �
dim W⊥ = n − (m + 1) + 1 = n − m = dim(V) − dim(W)
1. V⊥ = {0/V } y {0/V }⊥ = V. � �
En consecuencia dim W⊥ + dim(W) = dim(V).
2. W⊥ es un subespacio de V.

3. W ∩ W⊥ = {0/V }. Teorema 4.13. Sean W un subespacio de dimensión finita de un EPI V y v ∈ V. Entonces


� � existe un único par de vectores w1 ∈ W y w2 ∈ W⊥ tales que
4. Si V es de dimensión finita, entonces dim W⊥ + dim(W) = dim(V).
v = w 1 + w2
Demostración.
donde w1 = proyW v.
1. Son consecuencias directa de las partes 6 y 5 del teorema 4.1. Además, si V es de dimensión finita, entonces w2 = proyW⊥ v.

Jorge Campos 143 144 Jorge Campos


4.3. Complemento Ortogonal

Demostración. Sean w1 = proyW v y w2 = v − w1 . Claramente v = w1 + w2 , además, por


la definición 4.7, w1 ∈ W. Sólo falta probar que w2 ∈ W⊥ .
Sea {v1 , v2 , . . . , vm } una base ortonormal de W. Entonces, por la definición 4.7, tenemos
que
m

w1 = �v , v1 � v1 + �v , v2 � v2 + · · · + �v , vm � vm = �v , vi � vi
i=1 Capı́tulo 5
Ası́ que para cada j ∈ {1, . . . , m}

�w2 , vj � = �v − w1 , vj � = �v , vj � − �w1 , vj � (¿por qué?)


� m

� m

Autovalores y Autovectores de una
= �v , vj � − �v , vi � vi , vj
i=1
= �v , vj � − ��v , vi � vi , vj �
i=1
(¿por qué?)
Matriz. Forma Canónica de Jordan
m

= �v , vj � − �v , vi � �vi , vj � (¿por qué?)
i=1
= �v , vj � − �v , vj � �vj , vj � (¿por qué?) En este capı́tulo estudiaremos una herramianta que es usada en todas las ramas de las
matemáticas puras y aplicadas como las ecuaciones diferenciales, los sistemas dinámicos dis-
= �v , vj � − �v , vj � �vj �2 (¿por qué?)
cretos y continuos, ası́ como también diversos campos de estudios como la ingenierı́a, la fı́sica
= �v , vj � − �v , vj � (¿por qué?) e incluso la quı́mica, dicha herramienta tiene que ver con el estudio de la ecuación matricial
= 0 Ax = λx, siendo A una matriz cuadrada de orden n, x una matriz columna con n filas y λ
un número real.
y por el teorema 4.11, tenemos que w2 ∈ W⊥ .
�1 ∈ W y w
Probemos ahora la unicidad de w1 y w2 . Supongamos que existen w �2 ∈ W⊥ tales
que v = w�1 + w
�2 . Por lo tanto 5.1. Autovalores y Autovectores de una Matriz
�1 + w
w 1 + w2 = v = w �2 Definición 5.1. Sea A ∈ Mn×n (R). Diremos que λ ∈ R es un autovalor (valor propio o
valor caracterı́stico) de A si existe un vector no nulo x ∈ Mn×1 (R) tal que
de donde Ax = λx. Cualquier vector no nulo x ∈ Mn×1 (R), satisfaciendo la igualdad anterior, es
w1 − w �2 − w2
�1 = w llamado autovector (vector propio o vector caracterı́stico) de A asociado a λ.
� �
�1 ∈ W y w
Pero w1 − w �2 − w2 ∈ W⊥ . 2 −3
Ejemplo 5.1. Si A = , entonces λ = 5 es un autovalor de A y
Luego 1 6
w1 − w �2 − w2 ∈ W ∩ W⊥ = {0/V }.
�1 , w � � � �
x 1
�1 = w1 y w
En consecuencia w �2 = w2 . =
y −1
Se deja como ejercicio probar que si V es de dimensión finita, entonces
es un autovector de A asociado a λ = 5, en efecto,
w2 = proyW⊥ v. � �� � � � � �
2 −3 1 5 1
= =5
1 6 −1 −5 −1
λ = 3 también es un autovalor de A y un autovector de A asociado a λ = 3 es
Observación 4.5. En términos de suma directa (ver observación 3.10), el teorema 4.13 nos � � � �
dice que si W es un subespacio de dimensión finita de un EPI V, entonces V = W ⊕ W⊥ . x −3
=
y 1
(¡verifı́quelo!). �

Jorge Campos 145 146


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

� �
Teorema 5.1. Sea A ∈ Mn×n (R). Entonces λ ∈ R es un autovalor de A si y sólo si 2 −3
Ejemplo 5.2. Calcular el autoespacio de A = correspondiente a los autovalores
pA (λ) = det(A − λIn ) = 0. 1 6
λ = 5 y λ = 3.
Demostración. Notemos primero que Ax = λx es equivalente a (A − λIn )x = 0/n×1 ya que
Solución. Sabemos que E5 es el espacio solución del sistema
(A − λIn )x = Ax − λIn x = Ax − λx. � � � �
x 0
(A − 5I2 ) =
y 0
Por definición, λ es un autovalor de A si y sólo si existe x �= 0/n×1 tal que Ax = λx, es
decir, según el comentario inicial, si y sólo si existe x �= 0/n×1 tal que (A − λIn )x = 0/n×1 , lo Calculemos la FERF de A − 5I2
cual a su vez es equivalente a decir que la matriz A − λIn no es invertible, que sabemos es � � � � � �
equivalente a det(A − λIn ) = 0. −3 −3 1 1 1 1
A − 5I2 = F1 → − 13 F1 F 2 → F2 − F 1
1 1 → 1 1 → 0 0

Corolario 5.2. Si D ∈ Mn×n (R) es triangular (superior o inferior), entonces sus autovalores Ası́ que x + y = 0, o bien y = −x, por lo tanto
� � � � � �
son precisamente las componentes de su diagonal principal. En particular se cumple si D es x x 1
diagonal. = =x
y −x −1
��� ���
Demostración. ¡Ejercicio! 1
En consecuencia E5 = gen
−1
Para hallar E3 , debemos proceder de manera análoga, obteniendo
Observación 5.1. Se puede probar que pA (t) = det(A − tIn ) es un polinomio grado n con ��� ���
término dominante (−1)n tn . 3
E3 = gen
Según el teorema precedente, λ es un autovalor de A si y sólo si es raı́z del polinomio pA (t), −1
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.

Definición 5.2. El polinomio pA (t) = det(A − tIn ) es llamado polinomio caracterı́stico


¿Cómo calcular los autovalores y autovectores de A? La respuesta a esta pregunta la
de A y la ecuación pA (t) = det(A − tIn ) = 0 recibe el nombre de ecuación caracterı́stica
podemos encontrar en el procedimiento que se usó en el ejemplo precedente.
de A.
Observación 5.2. Se dice que x0 es una raı́z del polinomio p(x) de multiplicidad k ∈ Z+
Teorema 5.3. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El conjunto si existe un polinomio q(x) tal que p(x) = (x − x0 )k q(x) y q(x0 ) �= 0.
Eλ = {x ∈ Mn×1 (R) : Ax = λx} Definición 5.4. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Definiremos la multiplicidad
geométrica de λ como la dimensión del autoespacio Eλ .
es un subespacio vectorial de Mn×1 (R).
Observación 5.3. Para diferenciar la multiplicidad geométrica de un autovalor λ de A de
Demostración. Sabemos que Ax = λx es equivalente a (A − λIn )x = 0/n×1 , por lo tanto su multiplicidad, como raı́z del polinomio caracterı́stico pA (t), a esta última la llamaremos
multiplicidad algebraica de λ.
Eλ = {x ∈ Mn×1 (R) : (A − λIn )x = 0/n×1 }
Ejemplo 5.3. Para la matriz A del ejemplo 5.2, tenemos que cada uno de sus autovalores
es decir, Eλ es el conjunto solución del sistema (A − λIn )x = 0/n×1 , el cual sabemos es un tiene multiplicidad algebraica y geométrica igual a 1. �
subespacio de Mn×n (R). Ejemplo 5.4. Calcular los autovalores y los autovectores de
 
1 1 1
Definición 5.3. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El subespacio Eλ es llamado A= 1  1 −1 
autoespacio (espacio propio o espacio caracterı́stico) de A correspondiente a λ. 1 −1 1

Jorge Campos 147 148 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Solución. por lo tanto, la solución del segundo de los sistemas es


� �      
� 1−t 1 1 � x −z −1
� �
pA (t) = det(A − tI3 ) = �� 1 1 − t −1 � = −(t − 2)2 (t + 1)  y  =  z  = z 1 

� 1 −1 1 − t � z z 1

Por lo tanto Luego


   
pA (t) = 0 si y sólo si t = 2 ó t = −1.  −1 
Vemos que λ1 = 2 es un autovalor de A de multiplicidad algebraica 2 y λ2 = −1 es un E−1 = gen   1  
 
autovalor de A de multiplicidad algebraica 1. 1
Calculemos los autoespacios E2 y E−1 , para ello debemos resolver los correspondientes Cualquier vector no nulo perteneciente a E−1 es un autovector de A asociado a λ2 = −1.
sistemas Además, se tiene que λ1 = 2 tiene multiplicidad geométrica 2 y λ2 = −1 tiene multiplicidad
        geométrica 1.
x 0 x 0
(A − 2I3 )  y  =  0  y (A + I3 )  y  =  0 
Ejemplo 5.5. Idem para  
z 0 z 0
−1 0 −1
Resolvamoscada uno de estos
 sistemas.   B= 1 −1 1 
−1 1 1 −1 1 1 0 0 −2
  F 2 → F2 + F1 
A − 2I3 = 1 −1 −1 → 0 0 0 
F 3 → F3 + F1 Solución.
1 −1 −1 0 0 0 � �
� −1 − t 0 −1 �
De donde, −x + y + z = 0, o bien x = y + z, por lo tanto, la solución del primero de los � �
sistemas es pB (t) = det(B − tI3 ) = �� 1 −1 − t 1 � = −(t + 1)2 (t + 2).

        � �
x y+z 1 1 0 0 −2 − t
 y = y  = y 1 +z 0  Luego
z z 0 1 pB (t) = 0 si y sólo si t = −1 ó t = −2.
Ası́ que Por lo que λ1 = −1 es un autovalor de B de multiplicidad algebraica 2 y λ2 = −2 es un
    autovalor de B de multiplicidad algebraica 1.    
 1 1  x 0
E2 = gen   1  ,  0   Calculemos E−1 , esto es, resolvamos el sistema (B + I3 )  y  =  0 
 
0 1 z  0
    
Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a λ1 = 2. 0 0 −1 1 0 1 1 0 1
      B + I3 =  1 0 1  F1 ↔ F2  0 0 −1  F2 → −F2  0 0 1 
→ →
2 1 1 1 2 −1 1 2 −1 0 0  −1  0 0 −1 0 0 −1
    F2 → F2 − 2F1 
A + I3 = 1 2 −1 F1 ↔ F2 2 1 1 → 0 −3 3  1 0 0
→ F 3 → F3 − F 1 F 1 → F1 − F 2
1 −1 2 1 −1 2 0 −3 3 →  0 0 1 
    F 3 → F3 + F2
1 2 −1 1 0 1 0 0 0
F 1 → F 1 − 2F 2
F2 → − 13 F2  0 1 −1  →  0 1 −1  Con lo que x = z = 0, ası́ que
→ 0 −3 F3 → F3 + 3F2
3 0 0 0      
De donde � � x 0 0
x +z = 0 x = −z  y  =  y  = y 1 
o bien
y −z = 0 y = z z 0 0

Jorge Campos 149 150 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

   
y 1 −5 −7 1 −5 −7
     F2 → F2 + 2F1  0 3 9  F 2 ↔ F3  0 1 3 
→ →
 0 
0 1 3 0 3 9
E−1 = gen   1   1 0 8
  F1 → F1 + 5F2
0 →  0 1 3 
F3 → F3 − 3F2
Cualquier vector no nulo perteneciente a E−1 es un autovector de B   a λ1 = −1.
 asociado 0 0 0
x 0 De donde �
Ahora hallemos E−2 , esto es, resolvamos el sistema (B + 2I3 )  y  =  0  x = −8z
z 0 y = −3z
   
1 0 −1 1 0 −1 Ası́ que      
B + 2I3 =  1 1 1  F 2 → F2 − F 1  0 1 2  x −8z −8
→  y  =  −3z  = z  −3 
0 0 0 0 0 0
z z 1
Luego x = z y y = −2z, es decir
      En consecuencia    
x z 1  −8 
 y  =  −2z  = z  −2  E1 = gen   −3  
 
z z 1 1
y y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a λ = 1.
    Las multiplicidades algebraica y geométrica de λ = 1 son iguales a 1, coinciden.
 1 
E−2 = gen   −2  
 
1 Teorema 5.4. Sean λ1 , λ2 , . . . , λm ∈ R distintos autovalores de A ∈ Mn×n (R) y x1 , x2 , . . . , xm
Cualquier vector no nulo perteneciente a E−2 es un autovector de B asociado a λ2 = −2. autovectores de A asociados a λ1 , λ2 , . . . , λm , respectivamente. Entonces x1 , x2 , . . . , xm son li-
Vemos que la multiplicidad geométrica de cada uno de los autovalores de B es 1. nealmente independientes.
Demostración. Para cada i ∈ {1, . . . , m}, dado que xi es un autovector de A asociado a
Ejemplo 5.6. Idem para   λi , tenemos que Axi = λi xi y xi �= 0/n×1 .
−1 13 23 Sean α1 , α2 , . . . , αm ∈ R tales que
C =  −1 6 7 
0 −1 −2 α1 x1 + α2 x2 + · · · + αm xm = 0/n×1 (5.1)
� �
� −1 − t 13 23 �� Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por inducción sobre m.


Solución. pC (t) = det(C − tI3 ) = � −1 6 − t 7 �� = −(t − 1)(t2 − 2t + 2). Verifiquemos que se cumple para m = 2. En este caso la ecuación (5.1) se convierte en
� 0 −1 −2 − t �
α1 x1 + α2 x2 = 0/n×1 . (5.2)
Como t2 −2t+2 �= 0 para todo t ∈ R, entonces el único autovalor de C es λ = 1. Calculemos
el autoespacio E1 de C asociado a λ = 1. Como en el ejemplo precedente, debemos resolver Luego
el sistema     A(α1 x1 + α2 x2 ) = A 0/n×1 = 0/n×1 .
x 0
(C − I3 )  y  =  0  Pero
z 0 A(α1 x1 + α2 x2 ) = α1 Ax1 + α2 Ax2 = α1 λ1 x1 + α2 λ2 x2 .
     
−2 13 23 −2 13 23 1 −5 −7 De donde

C − I3 = −1 5 
7 F2 → −F2  
1 −5 −7 F1 ↔ F2  −2 13 23 
→ →
0 −1 −3 0 −1 −3 0 −1 −3 α1 λ1 x1 + α2 λ2 x2 = 0/n×1 . (5.3)

Jorge Campos 151 152 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

� � � �
Al multiplicar a ambos lados de (5.2) por λ2 , obtenemos 1 3
Ejemplo 5.7. Los vectores y , son linealmente independientes, ya que son
−1 −1
α1 λ2 x1 + α2 λ2 x2 = 0/n×1 . (5.4) autovectores de la matriz
  A delejemplo 5.3, correspondientes a distintos autovalores.
1 −1
Restando (5.3) de (5.4) nos queda Los vectores  1  y  1 , son linealmente independientes, pues son autovectores de
0 1
α1 (λ2 − λ1 )x1 = α1 λ2 x1 − α1 λ1 x1 = 0/n×1 . la matriz A del ejemplo 5.4, correspondientes a distintos autovalores.
   
0 1
Como λ1 �= λ2 y x1 �= 0/n×1 , entonces α1 = 0. Sustituyendo este valor en la ecuación (5.2), Un razonamiento análogo, nos garantiza que los vectores 1 y −2 , los cuales son
  
se tiene α2 x2 = 0/n×1 , pero x2 �= 0/n×1 , ası́ que α2 = 0, por lo tanto x1 y x2 son linealmente 0 1
independientes. autovectores de la matriz B del ejemplo 5.5, son linealmente independientes. �
Supongamos que x1 , x2 , . . . , xm−1 son linealmente independientes (hipótesis inductiva).
Teorema 5.5. A ∈ Mn×n (R) es invertible si y sólo si 0 (cero) no es un autovalor de A.
Probemos que x1 , x2 , . . . , xm−1 , xm son linealmente independientes. De (5.1) obtenemos
Demostración. A es invertible si y sólo si det(A) �= 0. Pero
A(α1 x1 + α2 x2 + · · · + αm−1 xm−1 + αm xm ) = A 0/n×1 = 0/n×1 .
pA (0) = det(A − 0In ) = det(A)
Pero Ası́ que A es invertible si y sólo si 0 no es raı́z del polinomio pA (λ), es decir, A es invertible
si y sólo si 0 no es un autovalor de A.
A(α1 x1 + α2 x2 + · · · +αm−1 xm−1 + αm xm )
= α1 Ax1 + α2 Ax2 + · · · + αm−1 Axm−1 + αm Axm
= α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm .
5.2. Diagonalización
De donde
En esta sección estudiaremos las matrices similares y las matrices diagonalizables y hare-
α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm = 0/n×1 . (5.5)
mos uso de los teoremas de la sección anterior para el estudio de las últimas.
Multiplicando (5.1) por λm obtenemos Definición 5.5. Sean A, B ∈ Mn×n (R), Diremos que B es similar a A si existe una matriz
invertible P ∈ Mn×n (R) tal que B = P −1 AP .
α1 λm x1 + α2 λm x2 + · · · + αm−1 λm xm−1 + αm λm xm = 0/n×1 . (5.6)
Observación 5.5. Nótese que si B = P −1 AP , entonces A = P BP −1 = (P −1 )−1 BP −1 . Por
Restando (5.5) de (5.6) nos queda lo tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir
B es similar a A o A es similar a B, diremos simplemente que A y B son similares.
α1 (λm − λ1 )x1 + α2 (λm − λ2 )x2 + · · · + αm−1 (λm − λm−1 )xm−1 = 0/n×1 .
Teorema 5.6. Sean A, B ∈ Mn×n (R) dos matrices similares. Entonces pA (t) = pB (t), es
Como x1 , x2 , . . . , xm−1 son linealmente independientes (por hipótesis inductiva), entonces, decir, A y B tienen los mismos polinomios caracterı́sticos, y en consecuencia, los mismos
para cada i ∈ {1, . . . , m − 1} autovalores.
αi (λm − λi ) = 0. Demostración. Como A y B son similares, existe una matriz invertible P ∈ Mn×n (R) tal
que A = P −1 BP . De donde
Pero λm �= λi para i ∈ {1, . . . , m − 1} (por hipótesis), luego αi = 0 para cada
i ∈ {1, . . . , m − 1}. Por lo tanto, (5.1) queda expresado por αm xm = 0/n×1 , y dado que pA (t) = det(A − tIn ) = det(P −1 BP − P −1 (tIn )P ) = det(P −1 (B − tIn )P )
xm �= 0/n×1 , obtenemos αm = 0. En consecuencia x1 , x2 , . . . , xm son linealmente independien- 1
tes. = det(P −1 ) det(B − tIn ) det(P ) = det(B − tIn ) det(P ) = det(B − tIn )
det(P )
= pB (t)
Observación 5.4. Según el teorema 5.4, �
se puede garantizar que si λ1 y λ2 son distintos En consecuencia, A y B tienen los mismos autovalores.
autovalores de A ∈ Mn×n (R), entonces Eλ1 Eλ2 = {0/n×1 }

Jorge Campos 153 154 Jorge Campos


5.2. Diagonalización Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Ejemplo 5.8. Las matrices Además


    � �
� −1 − t 0 0 �
−6 0 −6 −6 2 −10 � �
A =  6 −6 6  y B =  −9 −9 −15  pD (t) = det(D − tI3 ) = �� 0 2−t 0 � = (−1 − t)(2 − t)2

� 0 0 2−t �
0 0 −12 3 1 7
= −(t + 1)(t − 2)2 = pA (t)
son similares, en efecto, la matriz
  lo que verifica el teorema 5.6. �
1 1 1
P =  1 −1 1  Teorema 5.7. Sea λ ∈ R un autovalor de multiplicidad geométrica r de una matriz
1 0 2 A ∈ Mn×n (R). Entonces existe una matriz escalar E ∈ Mr×r (R) y matrices B ∈ Mr×(n−r) (R)
y C ∈ M(n−r)×(n−r) (R) tales que la matriz
es invertible, basta ver que   � �
2 2 2 E B
1 D= /
P −1
= 3 −3 0  0(n−r)×r C
6
1 1 −2
es similar a A.
y además B = P −1 AP (¡verifı́quelo!). �
Demostración. Ver apéndice D.
Ejemplo 5.9. Los autovalores de
 
−2 0 0 Observación 5.6. En la prueba del teorema 5.7 se obtiene que E = λIr .
D= 0 −4 0 
0 0 4 Teorema 5.8. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Entonces la multiplicidad geométri-
ca de λ es menor o igual a su multiplicidad algebraica.
son λ1 = −2, λ2 = −4 y λ3 = 4, pues D es diagonal, además,
Demostración. Sea r la multiplicidad geométrica de λ. Entonces, en virtud del teorema
  5.7 y usando la observación 5.6, se tiene que A es similar a una matriz
−2 2 −2
A =  2 −2 −2  � �
E B
−2 −2 2 D= /
0(n−r)×r C
es similar a D, basta escoger la matriz P como en el ejercicio anterior y verificar que donde E = λIr , B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R). Luego, usando el teorema 5.6
D = P −1 AP , por lo tanto los autovalores de A son λ1 = −2, λ2 = −4 y λ3 = 4. �
� �
E − tIr B
Ejemplo 5.10. Las matrices pA (t) = pD (t) = det(D − tIn ) = det /
0(n−r)×r C − tIn−r
    � �
1 1 1 −1 0 0 (λ − t)Ir B
 = det
A= 1 1 −1  y D= 0 2 0  0/(n−r)×r C − tIn−r
1 −1 1 0 0 2
y por el teorema 2.20
son similares, pues  
−1 1 1 pA (t) = det((λ − t)Ir ) det(C − tIn−r ) = (λ − t)r pC (t)
P = 1 1 0 
Ası́ que λ es una raı́z de pA (t) de multiplicidad algebraica al menos r, es decir, la multipli-
1 0 1
cidad geométrica de λ es menor o igual a su multiplicidad algebraica.
es invertible y D = P −1 AP (¡verifı́quelo!).

Jorge Campos 155 156 Jorge Campos


5.2. Diagonalización Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Teorema 5.9. A ∈ Mn×n (R) tiene n autovectores linealmente independientes si y sólo si que son autovectores de A asociados a λ1 = 2, el cual está ubicado, como ya comentamos, en
pA (t) tiene sólo raı́ces reales y la multiplicidad algebraica, de cada uno de los autovalores de la segunda y la tercera componente de la diagonal principal de D.
A, es igual a su multiplicidad geométrica. En particular, si A tiene n autovalores distintos, Esta situación no es nada casual, como veremos en el siguiente teorema, más precisamente
entonces A tiene n autovectores linealmente independientes. en su demostración.
Demostración. Ver Apéndice D. Teorema 5.10. Una matriz A ∈ Mn×n (R) es diagonalizable si y sólo si tiene n autovectores
linealmente independientes.
Ejemplo 5.11. El polinomio caracterı́stico de la matriz A del ejemplo 5.4, tiene sólo raı́ces Demostración. Supongamos primero que A tiene n autovectores linealmente independien-
reales, además, cada uno de los autovalores de A tiene multiplicidades algebraica y geométrica tes, digamos x1 , x2 , . . . , xn , correspondientes a los autovalores λ1 , λ2 , . . . , λn (no necesaria-
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber mente distintos) respectivamente, es decir, Axi = λi xi para cada i ∈ {1, . . . , n}.
      Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
1 1 −1 � �
 1 , 0 , 1  P = x1 x2 · · · xn
0 1 1
Dado que x1 , x2 , . . . , xn son linealmente independientes, entonces P es invertible, además,
Nótese que los dos primeros autovectores corresponden al autovalor λ1 = 2 y el último para cada i ∈ {1, . . . , n}, la i-ésima columna de AP es Axi (ver ejercicio 1.1.1 parte 1), pero
corresponde al autovalor λ2 = −1. Axi = λi xi , por lo tanto, la i-ésima columna de AP es λi xi , eso es (AP )(i) = λi xi .
Por el contrario, para la matriz B del ejemplo 5.5, sabemos que el polinomio caracterı́stico Por otro lado, sea D = diag(λ1 , λ2 , . . . , λn ) ∈ Mn×n (R). Ası́ que, para cada i ∈ {1, . . . , n},
de B tiene sólo raı́ces reales, pero el autovalor λ1 = −1 tiene multiplicidad algebraica 2 y la i-ésima columna de P D es
multiplicidad geométrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 5.6 tiene sólo un autovalor, a saber λ = 1, y las multiplicidades  
0
algebraica y geométrica de éste son iguales, sin embargo pC (λ) no tiene sólo raı́ces reales, por  .. 
lo tanto C no tiene tres autovectores linealmente independientes. � .
 
0
Definición 5.6. Una matriz A ∈ Mn×n (R) es diagonalizable si existe una matriz diagonal  
(P D)(i) = P D(i) = P λi  −→ i-ésima fila
D ∈ Mn×n (R) la cual es similar a A.  
0
.
Ejemplo 5.12. La matriz A del ejemplo 5.9 es diagonalizable, ası́ como la matriz A del  .. 
ejemplo 5.10. � 0
 
En el ejemplo 5.10, nótese que la primera componente de la diagonal principal de D es 0
−1, que es un autovalor de A con multiplicidad geométrica 1, las veces que aparece en D, la  .. 
.
segunda y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro  
0
autovalor de A y tiene multiplicidad geométrica 2, las veces que aparece en D.  
= λi P 1 −→ i-ésima fila
Además, nótese que la primera columna de P es  
0
  .
−1  .. 
 1  0
1 = λi P In(i) = λi P (i) = λi xi
el cual es un autovector de A asociado a λ2 = −1, que está ubicado, como dijimos antes, en En resumen (AP )(i) = λi xi = (P D)(i) para cada i ∈ {1, . . . , n}. Por lo tanto AP = P D,
la primera componente de la diagonal principal de D. Las segunda y tercera columnas de P de donde D = P −1 AP , es decir, A es diagonalizable.
son, respectivamente     Supongamos ahora que A es diagonalizable. Entonces existen una matriz diagonal
1 1 D ∈ Mn×n (R) y una matriz invertible P ∈ Mn×n (R) tales que
 1  y  0 
0 1 D = P −1 AP (5.7)

Jorge Campos 157 158 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Para cada i ∈ {1, . . . , n} sea xi = P (i) . Entonces x1 , x2 , . . . , xn son linealmente indepen- Pasemos ahora a definir las matrices de Jordan y las cajas o bloques elementales
dientes, pues P es invertible. Para cada i ∈ {1, . . . , n}, sea λi la i-ésima componente de la de Jordan. Sea Nk ∈ Mk×k (R) dada por
diagonal principal de D. De (5.7) obtenemos AP = P D, pero para cada i ∈ {1, . . . , n}, la  
i-ésima columna de AP es Axi (usando nuevamente la parte 1 del ejercicio 1.1.1) y la i-ésima 0 1 0 ··· 0
columna de P D es λi xi (usando el razonamiento anterior), ası́ que Axi = λi xi .  . . . .. 
 0 0 1 . 
En consecuencia, x1 , x2 , . . . , xn son autovectores de A linealmente independientes.  .. .. . . .. 
Nk =  . . . . 0 
 
 0 0 ··· 0 1 
Corolario 5.11. A ∈ Mn×n (R) es diagonalizable si y sólo si pA (t) tiene sólo raices reales y 0 0 0··· 0 0
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geométrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable. Note que Nk es una matriz nilpotente con orden de nilpotencia k (máximo orden de nilpo-
tencia posible para una matriz de orden k).
Demostración. ¡Ejercicio!
Definición 5.8. Una caja o bloque elemental de Jordan es una matriz Jk,λ ∈ Mk×k (R)
dada por  
Ejemplo 5.13. La matriz B del ejemplo 5.5 no es diagonalizable, pues λ1 = −1 es un λ 1 0 ··· 0
autovalor de B de multiplicidad algebraica 2 y multiplicidad geométrica 1.  . . .. 
La matriz C del ejemplo 5.6 no es diagonalizable, ya que el polinomio pC (t) tiene raı́ces  0 λ 1 . . 
 
complejas que no son reales. � Jk,λ = λIk + Nk =  ... . . . ... ...
0 
 
 0 ··· 0 λ 1 
Ejercicio 5.2.1. Pruebe que si A ∈ Mn×n (R) es diagonalizable y λ1 , λ2 , . . . , λp ∈ R son los
0 0 ··· 0 λ
distintos autovalores de A, entonces Mn×1 (R) = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp (ver observación 3.10).
donde λ ∈ R.

5.3. Autovectores y Autoespacios Generalizados. For- Ejemplo 5.15. Las siguientes son bloques elementales de Jordan
 
ma Canónica de Jordan   −2 1 0 0 0
3 1 0 0  0 −2 
 0 3 1 0   1 0 0 
Las demostraciones de los teoremas dados en la presente sección escapan al objetivo del J4,3 =    0 −2 
curso, en consecuencia sólo los enunciaremos, para una demostración de estos puede verse el  0 0 3 1  ; J5,−2 =  0 1 0 
 0 0 0 −2 1 
apéndice D, no obstante, las aplicaciones de dichos teoremas nos interesan de manera especial. 0 0 0 3
0 0 0 0 −2
Comenzaremos por definir un tipo de matrices conocidas como matrices nilpotentes.

Definición 5.7. Una matriz N ∈ Mn×n (R) es llamada nilpotente si existe p ∈ N tal que
N p = 0/n , además, si p es tal que N p−1 �= 0/n , diremos que N tiene orden de nilpotencia p Definición 5.9. Una matriz de Jordan es una matriz J ∈ Mn×n (R) la cual es una matriz
o que es nilpotente de orden p. diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.
Observación 5.7. La matriz nula de orden n es nilpotente y conveninos en que tiene orden Ejemplo 5.16. Las siguientes son matrices de Jordan
de nilpotencia 1.  
  1 1 0 0 0 0
Ejemplo 5.14. Las siguientes matrices son nilpotentes −2 1 0 0 0  0 
 0 −2   1 1 0 0 0 
     0 0 0   0 
0 1 0 0 0
−1 1 0 0 0 1 0 0 J1 = 
 0 0 −2 0 0  
 ; J2 =  0


 −1 0 1 0 0 8 0 0
0   0 0 1 0   0 0 0 5 1   
N1 =  −1 0 1
 ; N2 =    0 0 0 0 −3 1 
0   0 0 0 1  0 0 0 0 5
−1 0 1 0 0 0 0 0 0 0 0 0 0 −3

N1 tiene orden de nilpotencia 3 y N2 tiene orden de nilpotencia 4 (¡verifı́quelo!). � �

Jorge Campos 159 160 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Es claro que toda matriz diagonal es una matriz de Jordan. Teorema 5.12. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz
Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente A ∈ Mn×n (R). Entonces existe p ∈ {1, . . . , k} tal que2
sección, calcular la forma canónica de Jordan de una matriz.
{0/n×1 } � Eλ = N(A − λIn ) � · · · � N ((A − λIn )p ) = N ((A − λIn )m )
Ejemplo 5.17. Consideremos la matriz
  para todo m ≥ p. � �
5 −1 3 En particular N ((A − λIn )p ) = N (A − λIn )k y en consecuencia
A=  9 −4 0  � � ��
−3 1 −1 dim N (A − λIn )k ≤ k.

Entonces el polinomio caracterı́stico de A es Demostración. Ver apéndice D.

pA (t) = −(t + 1)2 (t − 2)


Definición 5.10. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz
Ası́ que los autovalores de A son λ1 = −1 con multiplicidad algebraica 2 y λ2 = 2 con A ∈ Mn×n (R). El espacio � �
multiplicidad algebraica 1. Además, al calcular los autoespacios asociados a cada uno de Kλ = N (A − λIn )k
estos autovalores, se obtiene es llamado autoespacio (espacio propio o espacio caracterı́stico) generalizado de
        A correspondiente a λ, cualquier matriz no nula x ∈ Kλ es llamada autovector (vector
 1   2 
propio o vector caracterı́stico) generalizado de A asociado a λ.
E−1 = gen   3   y E2 = gen   3  
    En la demostración del teorema 5.12 se obtiene que A es similar a una matriz
−1 −1
� �
Con lo cual la multiplicidad geométrica de ambos autovalores de A es 1. En consecuencia A Jλ B
J= /
no es diagonalizable. 0(n−m)×m C
Ahora consideremos la matriz � �
     donde m = dim(Kλ ) = N (A − λIn ) , B ∈ Mm×(n−m) (R), C ∈ M(n−m)×(n−m) (R) y
k

6 −1 3 6 −1 3 18 0 18 Jλ ∈ Mm×m (R) es una matriz de Jordan con λ en la diagonal principal.


(A − (−1)I3 ) =  9 −3
2
0   
9 −3 0 =  27 0 27 
Ejemplo 5.18. Por ejemplo, la matriz
−3 1 0 −3 1 0 −9 0 −9  
5 −1 3
El núcleo de esta matriz es el espacio
A= 9 −4 0 
     
 1 0  −3 1 −1
N((A − (−1)I3 ) ) = gen  
2
0 , 1   considerada en el ejemplo 5.17, es similar a la matriz
 
−1 0  
−1 1 0
No es difı́cil probar que N((A − (−1)I3 )) ⊂ N ((A − (−1)I3 )2 ), por lo tanto J =  0 −1 0 
� � 0 0 2
E−1 = N((A − (−1)I3 )) ⊂ N (A − (−1)I3 )2
para garantizar esto considere la matriz invertible
Si hacemos lo propio a la matriz (A − (−1)I3 )3 , encontramos que    
� � � � −1 0 2 3 1 2
E−1 = N((A − (−1)I3 )) ⊂ N (A − (−1)I3 )2 = N (A − (−1)I3 )3 P =  −3 1 3  o P = 9 0 3 
1 0 −1 −3 −1 −1
El Espacio N ((A − (−1)I3 )2 ) es llamado autoespacio (espacio propio o espacio carac-
terı́stico) generalizado de A correspondiente a λ = −1 y es denotado por K−1 , antes de y verifique que P J = AP . �
formalizar este concepto enunciaremos un resultado previo, el cual no demostraremos1 . � 2
Dados dos conjuntos A y B, la notación A � B significa que A ⊂ B pero A �= B, es decir, A es un
1
Una demostración de este teorema se puede encontrar en el apéndice D subconjunto propio de B.

Jorge Campos 161 162 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Una pregunta que surge de manera inmediata es ¿cómo calcular las matrices P y J? en son las formas canónicas de la matriz A del ejemplo 5.17, basta considerar las matrices
primer lugar, note que la matriz J es una matriz de Jordan y invertibles    
      −1 0 2 2 −1 0
2 0 1 P1 =  −3 1 3  y P2 =  3 −3 1 
 3  ∈ E2 ; v1 =  1  ∈ E−1 y v2 =  0  ∈ E−1 1 0 −1 −1 1 0
−1 0 −1
y verificar que P1 J1 = AP1 y P2 J2 = AP2 .
además En la demostración del teorema 5.14 se obtienen las formas que deben tener la matriz de
   
−1 3 Jordan J y la matriz invertible P de tal manera que J = P −1 AP . Daremos cuatro ejemplos
(A + I3 )v1 =  −3  ∈ K−1 y (A + I3 )v2 =  9  ∈ K−1 que ilustran este hecho.
1 −3
Ejemplo 5.19. Dada la matriz
es decir, la matriz P obedece a cierto comportamiento, ası́ como la matriz J (¿cuál es el  
comportamiento de esta última?). Antes de responder de manera más general la primera de 2 1 1 2
estas preguntas, daremos algunos resultados que nos lo permitirán.  2 1 −1 0 
A=
 1

0 0 −1 
Teorema 5.13. Sea A ∈ Mn×n (R). Supongamos que pA (t) tiene sólo raı́ces reales, digamos 1 −2 0 1
que λ1 , λ2 , . . . , λp ∈ R son las distintas raı́ces de pA (t), es decir, λ1 , λ2 , . . . , λp son los dis-
tintos autovalores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de λ1 , λ2 , . . . , λp , Decidir si existe una matriz de Jordan J que sea similar a ésta, en caso afirmativo halle una
respectivamente. Entonces k1 + k2 + · · · + kp = n y además matriz de Jordan J y una matriz invertible P tal que J = P −1 AP .

dim(Kλi ) = ki Solución. pA (t) = (t − 2)3 (t + 2), ası́ que, usando el teorema 5.14, existe una matriz de
Jordan J la cual es similar a A.
para cada i ∈ {1, . . . , p}. Veamos como calcular la matriz J y la matriz invertible P tal que J = P −1 AP . Los pasos
que seguiremos a continuación son estándares a la hora de encontrar dichas matrices.
Demostración. Ver apéndice D. Los autovalores de A son λ1 = 2, con multiplicidad algebraica 3, y λ2 = −2, con multipli-
cidad algebraica 1. Además
   
Teorema 5.14. A ∈ Mn×n (R) es similar a una matriz de Jordan si y sólo si pA (t) sólo tiene 0 1 1 2 4 1 1 2
raı́ces reales.  2 −1 −1 0   2 3 −1 0 
A − 2I4 =  1 y A + 2I4 =  
0 −2 −1   1 0 2 −1 
Demostración. Ver apéndice D. 1 −2 0 −1 1 −2 0 3

Luego
El teorema 5.14 da paso a la siguiente definición.        

 −1  
 −1 
Definición 5.11. Cualquier matriz de Jordan J, que sea similar a A, es llamada forma   −1 
   1  

E2 = N(A−2I4 ) = gen    
 −1  y E−2 = K−2 = N(A+2I4 ) = gen    
  1   
canónica de Jordan de A y cada una de estas matrices de Jordan sólo difieren en la    
   
posición de los bloques elementales de Jordan en la diagonal. 1 1

Por ejemplo, las matrices Ahora bien  


    5 −5 −3 −3
−1 1 0 2 0 0  −3 3 5 5 
(A − 2I4 )2 =  
J1 =  0 −1 0  y J2 =  0 −1 1   −3 3 5 5 
0 0 2 0 0 −1 −5 5 3 3

Jorge Campos 163 164 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

y ası́       Finalmente, definamos


 1
 0 
    
� �   1   0   2 1 1 −1 2 1 0 0
2   
N (A − 2I4 ) = gen    ;     
 0 −1   � � 2 1 0 1   0 2 1 0 

 
 P = x3 x2 x1 x4 =

 
y J = 
0 1 2 −1 1 1  0 0 2 0 
−2 1 0 1 0 0 0 −2
Por otro lado  
−16 16 16 16
 Por lo tanto P es invertible y J = P −1 AP (¡verifı́quelo!).
16 −16 −16 −16 
(A − 2I4 )3 = 


16 −16 −16 −16 
16 −16 −16 −16
Las matrices P y J, encontradas en el ejemplo precedente, no son únicas, por ejemplo, si
de donde         escojemos    
 1
 1 1  −1 2 1 1 −2 0 0 0
� �   1   0   0 
  
 1 2 1 0   0 2 1 0 
K2 = N (A − 2I4 )3 = gen    
  0  ;  ;   P =  y J = 
 1   0  
  1 2 −1 1   0 0 2 1 
 
0 0 1 1 −2 1 0 0 0 0 2
Para calcular P , comencemos por notar que la conclusión sigue siendo válida.
� � �� � � �� � � �� También pudimos haber escogido  
dim(K2 ) − dim N (A − 2I4 )2 = dim N (A − 2I4 )3 − dim N (A − 2I4 )2 = 3 − 2 = 1 1
 0 
ası́ que debemos escoger un vector en K2 que no esté en N ((A − 2I4 )2 ), digamos x1 =  
 0 
  1
1
 0  obteniendo
x1 =      
 1  2 2 1 −1 2 1 0 0
0  2 2 0 1   0 2 1 0 
P =

 y J = 
2 0 0 1   0 0 2 0 
Hagamos 
 −2 0 1 1 0 0 0 −2
1
 1  � � o bien    
x2 = (A − 2I4 )x1 =  
 −1  ∈ N (A − 2I4 )
2
−1 2 2 1 −2 0 0 0
 1 2 2 0   0 2 1 0 
1 P =

 y J = 
1 2 0 0   0 0 2 1 
y   1 −2 0 1 0 0 0 2
2
 2  El siguiente ejemplo varı́a un poco del anterior y nos muestra otro caso en la busqueda de
x3 = (A − 2I4 )2 x1 = (A − 2I4 )x2 = 

 ∈ E2 = N(A − 2I4 )
la forma canónica de Jordan de una matriz A.
2 
−2
Ejemplo 5.20. Idem para la matriz
y escojamos    
−1 3 −1 0 1
 1   9 −5 0 9 
x4 = 

 ∈ E−2 = N(A + 2I4 ) A= 
1   −3 2 1 −3 
1 4 −3 0 6

Jorge Campos 165 166 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Solución. En este caso pA (t) = (t − 2)(t − 1)3 , y como en el ejemplo anterior, en virtud del finalmente escojamos  
teorema 5.14, podemos asegurar que existe una matriz de Jordan J la cual es similar a A. −1
Los autovalores de A son λ1 = 2 y λ2 = 1, con multiplicidad algebraica 1 y 3 respectiva-  0 
x4 = 

 ∈ E2 = N(A − 2I4 )
mente. Además: 0 