Está en la página 1de 252

Introducción al Álgebra Lineal

Liliana Patricia Ospina Marulanda. Jorge Mario García Usuga.


Adrián Alonso Arboleda.

Diciembre de 2011
1

Introducción al Álgebra Lineal

Liliana Patricia Ospina Marulanda. - Licenciada en Matemáticas y computación- Magister en


Educación: Desarrollo Humano Universidad San Buenaventura - Cali.

Jorge Mario García Usuga. - Licenciado en Matemáticas y Computación Universidad del Quindío
- Magister en Enseñanza de las Matemáticas Universidad Tecnológica de Pereira.

Adrián Alonso Arboleda. Licenciado en Matemáticas y Computación Universidad del Quindío -


Candidato a Magister en Educación Universidad del Quindío.

No está permitida importar, vender, difundir, distribuir y exportar total o parcialmente esta obra, ni
su tratamiento o transmisión por cualquier método sin autorización escrita del editor. El contenido
de la presente obra es exclusivo de los autores.

Derechos reservados

ISBN: 978-958-57263-3-8

200 ejemplares

ELIZCOM S.A.S
www.elizcom.com
ventas@elizcom.com
Cel: (57) 3113349748
Fax: (57) (6) 7493244
Armenia, Quindío
2011
Prólogo

El siguiente libro está dirigido a estudiantes y docentes de educación superior interesados


en ahondar en conceptos introductorios del álgebra lineal, en lo que se refiere a sistemas de
ecuaciones lineales, matrices, determinantes, espacios vectoriales, transformaciones lineales,
vectores y valores propios. Lo anterior, con el propósito que tanto docentes como estudiantes,
tengan un material de apoyo para el estudio de estos conceptos, los cuales se desarrollaron de
manera gradual, lo cual hace más fácil la transmisión del contenido de una manera lógica.

Es importante resaltar que en el libro se plantean ejercicios resueltos con el fin de mostrar
la forma como se aplican las definiciones y teoremas, así mismo, al finalizar cada capítulo
se proponen ejercicios o problemas de aplicación, para que a través de la ejercitación de
dichas situaciones matemáticas, se tenga un mayor empoderamiento del tema. El libro también
contiene demostraciones y algunas representaciones gráficas con el fin de dar una mayor claridad
conceptual y aplicabilidad del concepto.

Este material ha sido experimentado en el espacio académico de Álgebra Lineal del Programa de
Licenciatura en Matemáticas de la Universidad del Quindío.

Esperamos que a través de los capítulos desarrollados en el libro, se contribuya a la mejora de los
procesos de enseñanza-aprendizaje de los espacios académicos que implican el Álgebra Lineal
en los programas de Educación Superior.

I
Índice general

1. Sistemas de ecuaciones lineales 1


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Dos ecuaciones lineales con dos incógnitas . . . . . . . . . . . . . . . . . . . . 3
1.3. Sistema de m ecuaciones lineales con n incógnitas . . . . . . . . . . . . . . . . 7
1.3.1. Eliminación Gaussiana: . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2. Eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Sistemas de Ecuaciones Homogéneos . . . . . . . . . . . . . . . . . . . . . . . 14
1.5. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.1. Operaciones elementales por filas o renglones . . . . . . . . . . . . . . . 19
1.5.2. Formas escalonadas para una matriz . . . . . . . . . . . . . . . . . . . . 26
1.5.3. Matrices, vectores fila y columna . . . . . . . . . . . . . . . . . . . . . 27
1.6. Suma de matrices y multiplicación por escalar . . . . . . . . . . . . . . . . . . 31
1.7. Multiplicación de matrices y vectores . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.7.2. Multiplicación de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7.3. Ley Asociativa en el producto de matrices . . . . . . . . . . . . . . . . . 40
1.7.4. Ley distributiva de la multiplicación de matrices . . . . . . . . . . . . . 41
1.8. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.8.1. Propiedades de la matriz transpuesta . . . . . . . . . . . . . . . . . . . 47
1.9. La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.10. La inversa de una matriz y la solución del sistema de ecuaciones resultante . . . 55
1.10.1. Métodos para hallar la inversa de una matriz . . . . . . . . . . . . . . . . 58
1.11. Factorización de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.11.1. Factorización en matrices elementales . . . . . . . . . . . . . . . . . . . 65
1.11.2. Factorización A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1.11.3. Uso de la factorización LU para resolver sistemas de ecuaciones lineales 81
1.11.4. Factorización A = LDU . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.11.5. Factorización P A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . 83

2. Determinantes 89
2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.2. Método de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.3. Método por cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.4. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.5. Método de Chió para hallar determinantes . . . . . . . . . . . . . . . . . . . . . 111
2.6. Determinantes y matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . 113
2.7. La inversa de una matriz y su determinante . . . . . . . . . . . . . . . . . . . . 120

II
ÍNDICE GENERAL III

2.8. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125


2.9. Interpretación geométrica del determinante . . . . . . . . . . . . . . . . . . . . 130
2.9.1. Determinantes 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
2.9.2. Longitud de un segmento de recta y el determinante . . . . . . . . . . . 135
2.9.3. Cálculo de área de un triángulo con determinantes . . . . . . . . . . . . 135
2.9.4. Volumen del paralelepípedo como un determinante . . . . . . . . . . . . 138

3. Espacios vectoriales 140


3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3.1.1. Espacios vectoriales y sus propiedades . . . . . . . . . . . . . . . . . . . 147
3.2. Subespacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.3. Combinación lineal de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
3.3.1. Conjunto generador de un subespacio vectorial . . . . . . . . . . . . . . 153
3.3.2. Espacio generado de un subespacio vectorial . . . . . . . . . . . . . . . 154
3.4. Dependencia e independencia lineal de vectores . . . . . . . . . . . . . . . . . . 159
3.5. Bases y dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 166
3.5.1. Bases y sus propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.6. Dimensión de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . 169
3.7. Subespacios asociados con una matriz . . . . . . . . . . . . . . . . . . . . . . . 173
3.7.1. Espacio nulo de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 173
3.7.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

4. Transformaciones Lineales 183


4.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
4.2. Tipos de transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.2.1. Transformación de reflexión . . . . . . . . . . . . . . . . . . . . . . . . 196
4.2.2. Transformación de rotación en el plano . . . . . . . . . . . . . . . . . . 197
4.3. Geometría de las transformaciones lineales . . . . . . . . . . . . . . . . . . . . 201
4.3.1. Expansión a lo largo de los ejes: (Escalamiento) . . . . . . . . . . . . . . 202
4.3.2. Compresión a lo largo de los ejes x o y . . . . . . . . . . . . . . . . . . 202
4.3.3. Cortes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
4.4. Transformación de proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . 209
4.5. Transformaciones Lineales Especiales de R2 en R3 . . . . . . . . . . . . . . . . 212

5. Vectores y valores propios 221


5.1. Vectores y valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
5.1.1. Calculo de los valores y vectores propios . . . . . . . . . . . . . . . . . 223
5.1.2. Ecuación característica para calcular la inversa de una matriz cuadrada . . 235
5.2. Matrices Semejantes y Diagonalización . . . . . . . . . . . . . . . . . . . . . . 237
“Lo último que uno sabe, es por donde empezar.” —
Blaise Pascal (1623-1661)

Sistemas de ecuaciones lineales


1
1.1. Introducción
Muchos problemas matemáticos conllevan a la resolución de sistema de ecuaciones lineales. En
algunos casos estos sistemas son pequeños y relativamente fáciles de resolver, y en otros casos
son muy complejos y su solución implica acudir a otros métodos como los planteados en este
libro. En geometría analítica, encontramos problemas como el de hallar una circunferencia dadas
las coordenadas de tres puntos no colineales (ver figura 1.1).

(x2 , y2 )
b
(x1 , y1 )
b

(x3 , y3 )

Figura 1.1: Circunferencia dados tres puntos

Este problema es relativamente fácil, pues sólo debemos acudir a la ecuación general de una
circunferencia:

x2 + y 2 + Dx + Ey + F = 0 (1.1)
Luego, sólo debemos reemplazar los puntos en la ecuación 1.1:

1
1. Sistemas de ecuaciones lineales 2

x21 + y12 + Dx1 + Ey1 + F = 0


x22 + y22 + Dx2 + Ey2 + F = 0 (1.2)
x23 + y32 + Dx3 + Ey3 + F = 0

debido a que cada punto genera una ecuación diferente, se forma el sistema de ecuaciones 1.2. El
cual ahora depende de las variables D, E y F pues se reemplazo x y y por los putos dados. El
sistema de ecuaciones 1.2 se puede reescribir como sigue:


Dx1 + Ey1 + F = − x21 + y12

Dx2 + Ey2 + F = − x22 + y22 (1.3)

Dx3 + Ey3 + F = − x23 + y32

El cual podemos resolver usando los métodos vistos de resolución de sistemas de ecuaciones
lineales vistos en los cursos del álgebra, como reducción, sustitución e igualación. De esta forma
podemos hallar los coeficientes de la ecuación 1.1, es decir, D, E y F .

Otro ejemplo, un poco más complejo, lo podemos encontrar en la regresión polinomial, en la cual,
dada una lista de puntos en el plano:

(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn )


Con x1 < x2 < · · · < xn , siempre es posible encontrar un polinomio de grado n − 1 que
pase exactamente por los puntos dados. El planteamiento de este problema, es muy similar al de
encontrar la circunferencia dados tres puntos.

5
Polinomio interpolante

4
b

(x1 , y1 ) (x3 , y3 )
3
b

2
b

1 (x2 , y2 )

0 x
0 1 2 3 4 5

Figura 1.2: Polinomio interpolante de tres puntos

Esta vez, recurrimos a la forma general de la ecuación de segundo grado:


1. Sistemas de ecuaciones lineales 3

ax2 + bx + c = y (1.4)
Ahora, debemos reemplazar en la ecuación de segundo grado, cada uno de los puntos dados:

ax21 + bx1 + c = y1
ax22 + bx2 + c = y2 (1.5)
ax23 + bx3 + c = y3
El sistema 1.5 puede resolverse para hallar a, b y c y con esto podemos hallar el polinomio de
segundo grado.

Los anteriores ejemplos, nos muestran que muchos de los problemas encontrados en las diferentes
áreas de las matemáticas, pueden ser resueltos encontrando la solución a un sistema de ecuaciones
lineales. En este capítulo veremos cómo resolver dichos sistemas y cómo se puede reducir el
problema aún más utilizando el concepto de matriz.

1.2. Dos ecuaciones lineales con dos incógnitas


Consideremos el siguiente sistema de dos ecuaciones con dos incógnitas x y y.

a11 x + a12 y = b1
a21 x + a22 y = b2
Ejemplo 1.1 Un sistema con solución única

Considere el sistema

x−y = 8 (1.6)
x+y = 6 (1.7)
Si se suman las ecuaciones se obtiene:

2x = 14 ó x = 7
Entonces de la ecuación 1.7 se obtiene

y =6−x y remplazamos el valor x=7

y = 6−7
y = −1

Luego el par (7, −1) satisface el sistema dado y la forma en que se encontró la solución muestra
que es el único par de números que lo hace. Es decir, el sistema tiene solución única.
1. Sistemas de ecuaciones lineales 4

Sistema de 2 × 2 con solución única

x+y =6

x−y =8

Figura 1.3: Sistema con solución única

Ejemplo 1.2 Un sistema con un número infinito de soluciones

Considere el sistema

x−y = 8
2x − 2y = 16

Las dos ecuaciones son equivalentes. Para ver esto se multiplica la primera ecuación por 2.

Sistema de 2 × 2 con un número infinito de soluciones

x−y =8

2x − 2y = 16

Figura 1.4: Sistema con un número infinito de soluciones


1. Sistemas de ecuaciones lineales 5

Entonces x − y = 8 o y = x − 8 . Así, el par (x, x − 8) es una solución al sistema para cualquier


número real x. Es decir, el sistema tiene un número infinito de soluciones. Para este ejemplo las
siguientes parejas de puntos son soluciones: (8, 0), (1, −7), (0, −8), (−1, −9).

Ejemplo 1.3 Un sistema sin solución

Considere el sistema

x−y = 8
2x − 2y = 10

Al multiplicar la primera ecuación por 2 se obtiene 2x − 2y = 16. Esto contradice la segunda


ecuación. Entonces el sistema no tiene solución.

Un sistema que no tiene solución se dice que es inconsistente.

Sistema de 2 × 2 sin solución

x−y =8

2x − 2y = 10

Figura 1.5: Sistema sin solución

La interpretación gráfica se puede aplicar para sistemas 3 × 3, sólo que en este caso, las
ecuaciones representan planos en el espacio. Sin embargo, podemos encontrar los mismos tres
casos: Solución única, Múltiples soluciones y sin solución.

Cuando hablamos de solución única, podemos pensar en planos que se intersectan en un sólo
punto del espacio, como se ve en la gráfica 1.6.
1. Sistemas de ecuaciones lineales 6

Planos intersecados - si hay solución


z

Solución única

Figura 1.6: Sistema 3 × 3 con solución única

Ahora bien, para el caso en que hay múltiples soluciones, los planos se pueden intersectar no en
un punto, sino en una recta, sin embargo, esta no es la única posibilidad, puede pasar que los
planos esten puestos unos sobre otros o que sólo dos de los planos se intersecten.

Planos intersecados - solución multiple


z
Multiples soluciones

Figura 1.7: Sistema 3 × 3 con múltiples soluciones

En el caso en que no hay solución, hablamos de planos paralelos que no se encuentran o no se


intersectan en ningún punto en el espacio.
1. Sistemas de ecuaciones lineales 7

Planos paralelos - no hay solución

Figura 1.8: Sistema 3 × 3 sin solución

1.3. Sistema de m ecuaciones lineales con n incógnitas


Empezaremos con la definición formal de una ecuación lineal
.:Definición 1.1 Una ecuación lineal con n incógnitas x1 , x2 , . . . , xn es una ecuación que se
puede escribir de la forma

a1 x1 + a2 x2 + · · · + an xn = b
donde las a1 , a2 . . . an se llaman coeficientes de las variables x1 , x2 . . . xn y el número b se
llama término constante. Se asume que tanto los coeficientes y el término constante son valores
conocidos.

Ejemplo 1.4

Las siguientes ecuaciones son ejemplos de ecuaciones lineales

x1 − 4x2 − 6x3 = 5
En esta ecuación se usaron los coeficientes 1,-4 y -6, el término independiente es 5 y las variables
son x1 , x2 y x3 .

La ecuación

2x + 8y = 3
Es una ecuación con coeficientes 2 y 8, término independiente 3 y variables x y y.

Ahora procederemos a definir qué es un sistema de ecuaciones lineales


1. Sistemas de ecuaciones lineales 8

.:Definición 1.2 Un sistema general de m × n ecuaciones lineales es una expresión de la forma:

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
am1 x1 + am2 x2 + ... + amn xn = bm
Donde x1 , x2 , ...,xn son las variables, a11 , a12 , · · · , amn , son los coeficientes de las variables y
b1 , b2 , ...,bm son los términos independientes.

Ya hemos resuelto algunos sistemas de ecuaciones lineales (ejemplos anteriores), pero ¿qué es
una solución a un sistema de ecuaciones lineales?

.:Definición 1.3 Una solución a un sistema de ecuaciones lineales con n incognitas, es un


conjunto de númerosa x′1 , x′2 , . . . , x′n los cuales satisfacen simultaneamente cada una de las
ecuaciones del sistema.
a Éste conjunto de números se conoce como vector solución.

La definición de solución a un sistema de ecuaciones lineales, nos dice que cuando encontramos
dichos números, estos, al reemplazarse en las ecuaciones del sistema deben conservar la igualdad.

Luego, para el sistema lineal general existen tres posibilidades:


Que no tenga solución.
Que tenga solución única.
Que tenga un número infinito de soluciones.
Para casos en que el tamaño del sistema sea mayor a tres, no es posible hacer la gráfica, sin
embargo, se pueden hacer los mismos procesos que a los sistemas de 3 × 3 y 2 × 2.

1.3.1. Eliminación Gaussiana:


Iniciemos con un ejemplo:

Ejemplo 1.5
Un empresario tiene tres máquinas que son empleadas en la fabricación de tres productos
diferentes. Para utilizar plenamente las máquinas, estas estarán en operación 8 horas diarias, el
número de horas que cada máquina es usada en la producción de una unidad de cada uno de los
productos se da en la siguiente tabla:

Producto 1 Producto 2 Producto 3


Máquina 1 1 0 2
Máquina 2 2 1 1
Máquina 3 1 3 1
1. Sistemas de ecuaciones lineales 9

Por ejemplo, en la producción de una unidad del producto 3, la máquina 1 trabaja 2 horas y las
máquinas 2 y 3 trabajan 1 hora cada una; bajo el siguiente supuesto de que cada máquina trabaja
8 horas completas, hallar el número de unidades de cada producto que se produce en un día.

Para resolver este problema, consideremos que la producción durante las 8 horas del día, se
distribuye como sigue:

x1 = número de unidades del producto 1

x2 = número de unidades del producto 2

x3 = número de unidades del producto 3


Se tiene entonces que el tiempo gastado por cada máquina en la producción diaria está dada por:

Para la máquina 1: x1 + 2x3


Para la máquina 2: 2x1 + x2 + x3
Para la máquina 3: x1 + 3x2 + x3

Como cada máquina trabaja las 8 horas completas, tenemos el siguiente sistema de ecuaciones.

x1 + 2x3 = 8
2x1 + x2 + x3 = 8
x1 + 3x2 + x3 = 8
El anterior es un sistema de ecuaciones lineales con 3 incógnitas. A continuación se ilustra
el proceso de eliminación Gaussiana sobre el sistema de ecuaciones que surge en el problema
anterior:

x1 + 2x3 = 8
2x1 + x2 + x3 = 8
x1 + 3x2 + x3 = 8
Paso 1: Eliminamos la incógnita x1 a partir de la segunda ecuación, como sigue:

i) Sustituimos la segunda ecuación por el resultado obtenido al sustraer de la segunda


ecuación la primera multiplicada por 2.
ii) Sustituimos la tercera ecuación por la ecuación obtenida al sustraer de ella la primera
multiplicada por 1.

El sistema obtenido es el siguiente:

x1 + 2x3 = 8
x2 − 3x3 = −8
3x2 − x3 = 0
1. Sistemas de ecuaciones lineales 10

Paso 2: Eliminamos la incógnita x2 , a partir de la tercera ecuación en el nuevo sistema. Para


lograrlo, realizamos la operación consistente en sustituir la tercera ecuación por la ecuación
obtenida al sustraer de ella la segunda multiplicada por 3, obtenemos así el siguiente sistema:

x1 + 2x3 = 8
x2 − 3x3 = −8
8x3 = 24
Ahora tenemos un sistema cuya solución es la misma del sistema inicial, pero es mucho más
simple, ya que la tercera ecuación tiene una sola incógnita, la segunda ecuación tiene dos y en la
primera ecuación aparecen dos incógnitas. La forma triangular de este último sistema nos permite
resolverlo más fácilmente; en efecto de la tercera ecuación obtenemosx3 = 3,sustituyendo en la
segunda obtenemos x2 = 1 y finalmente sustituimos estos valores en la primera ecuación y
obtenemos x1 = 2. Este último proceso es llamado sustitución regresiva.

Con respecto al problema original, concluimos que trabajando 8 horas, cada día se pueden
producir 2 unidades del producto 1, 1 unidad del producto 2 y 3 unidades del producto 3.

1.3.2. Eliminación de Gauss-Jordan


Ejemplo 1.6

Resolver el sistema de tres ecuaciones con tres incógnitas.

2x1 + 4x2 + 6x3 = 18


4x1 + 5x2 + 6x3 = 24
3x1 + x2 − 2x3 = 4
Solución: Se divide la primera ecuación por 2:

x1 + 2x2 + 3x3 = 9
4x1 + 5x2 + 6x3 = 24
3x1 + x2 − 2x3 = 4
Eliminamos la incógnita x1 a partir de la segunda ecuación, como sigue:

i) Sustituimos la segunda ecuación por el resultado obtenido al sustraer de la segunda


ecuación la primera multiplicada por 4.
ii) Sustituimos la tercera ecuación por el resultado obtenido al sustraer de ella la primera
multiplicada por 3.

El sistema obtenido es el siguiente:

x1 + 2x2 + 3x3 = 9
− 3x2 − 6x3 = −12
− 5x2 − 11x3 = −23
Luego dividimos la segunda ecuación por -3 y se obtiene:
1. Sistemas de ecuaciones lineales 11

x1 + 2x2 + 3x3 = 9
x2 + 2x3 = 4
− 5x2 − 11x3 = −23
Eliminamos la incógnita x2 de la primera y la tercera ecuación:
i) Sustituimos la primera ecuación por el resultado obtenido al sustraer de la primera ecuación
la segunda multiplicada por 2.
ii) Sustituimos la tercera ecuación por la ecuación obtenida al sustraer de ella la segunda
multiplicada por -5.

x1 − x3 = 1
x2 + 2x3 = 4
− x3 = −3
Eliminamos la incógnita x3 de la primera y segunda ecuación.

i) Sustituimos la primera ecuación por el resultado obtenido al sustraer de ella la tercera


ecuación multiplicada por -1.
ii) Sustituimos la segunda ecuación por la ecuación obtenida al sustraer de ella la tercera
multiplicada por 2.

x1 = 4
x2 = −2
x3 = 3
El sistema tiene solución única.

Se cuenta con dos métodos para resolver los ejemplos de sistemas de ecuaciones:

i) Eliminación de Gauss-Jordan: Consiste en simplificar las ecuaciones de tal manera que se


obtenga un sistema equivalente en el que las soluciones se puedan identificar de inmediato.
ii) Eliminación Gaussiana: Consiste en simplificar las ecuaciones de tal manera que se obtenga
un sistema en forma escalonada. Se despeja el valor de la última incógnita y después se usa
la sustitución regresiva.

Ejemplo 1.7

Solución de un sistema de tres ecuaciones con tres incógnitas con un número infinito de
soluciones.

Resolver el sistema:

2x1 + 4x2 + 6x3 = 18


4x1 + 5x2 + 6x3 = 24
2x1 + 7x2 + 12x3 = 30
1. Sistemas de ecuaciones lineales 12

Solución:

Resolvemos el sistema aplicando el método de Gauss-Jordan

Dividimos la ecuación 1 por 2:

x1 + 2x2 + 3x3 = 9
4x1 + 5x2 + 6x3 = 24
2x1 + 7x2 + 12x3 = 30
Sustraemos de la fila 2 la fila 1 multiplicada por 4 y sustraemos de la fila 3 la fila 1 multiplicada
por 2.

x1 + 2x2 + 3x3 = 9
− 3x2 − 6x3 = −12
3x2 + 6x3 = 12
Dividimos la ecuación 2 por (-3)

x1 + 2x2 + 3x3 = 9
x2 + 2x3 = 4
3x2 + 6x3 = 12
Luego sustraemos de la fila 1 la fila 2 multiplicada por 2 y sustraemos de la fila 3 la fila 2
multiplicada por 3.

x1 − x3 = 1
x2 + 2x3 = 4
0 = 0
Existe un número infinito de soluciones

La solución se escribe de la forma (1+x3 , 4 -2x3 , x3 )

Por ejemplo: Si x3 = 0, se obtiene la solución: (1, 4, 0), para x3 = 10 se obtiene la solución


(11, −16, 10).

Ejemplo 1.8

Ejemplo de un sistema de ecuaciones lineales inconsistente:

Resolver el sistema:

2x2 + 3x3 = 4
2x − 6x2 + 7x3 = 15
x1 − 2x2 + 5x3 = 10
Como en la primera ecuación el coeficiente de x1 es cero. Se pueden intercambiar las ecuaciones
1 y 3.
1. Sistemas de ecuaciones lineales 13

x1 − 2x2 + 5x3 = 10
2x − 6x2 + 7x3 = 15
2x2 + 3x3 = 4
Sustraemos de la fila 2 la fila 1 multiplicada por 2

x1 − 2x2 + 5x3 = 10
− 2x2 − 3x3 = −5
2x2 + 3x3 = 4
De las ecuaciones 2 y 3 se observa que:

− 2x2 − 3x3 = −5
2x2 + 3x3 = 4
Si −2x2 − 3x3 = −5, entonces 2x2 + 3x3 = 5 y no 4. Por lo tanto, el sistema no tiene solución
porque hay una inconsistencia.

.:Definición 1.4 Sistemas Inconsistentes y Consistentes: Se dice que un sistema de ecuaciones


lineales es inconsistente si no tiene solución. Se dice que un sistema que tiene al menos una
solución es consistente.

Ejercicios 1.1

1. ¿Cuáles de las siguientes afirmaciones es cierta para el siguiente sistema de ecuaciones?

−x − 2y = 8
6x + 12y = 0

a) El sistema es inconsistente
b) La solución es (3, −5)
c) La solución se encuentra sobre la recta x = 2
d) Las dos ecuaciones son equivalentes.

2. En los siguientes ejercicios utilice el método de eliminación de Gauss-Jordan para encontrar


todas las soluciones, si existen, para los sistemas dados:

a) b)

2x1 + 5x2 + 4x3 = 1 3x1 + 6x2 − 6x3 = 9


4x1 + x2 + 93 = 1 2x1 − 5x2 + 4x3 = −3
x1 + 7x2 − 8x3 = 1 −x1 + 16x2 − 14x3 = −2
1. Sistemas de ecuaciones lineales 14

c) e)
5 5 5 5
x1 + x2 − x3 = 0 x1 − x2 + x3 =
3 12 7 7
4x1 − x2 + 5x3 = 4
1 7 5 5
2x1 + 2x2 − 3x3 = 0 x1 + x2 − x3 =
5 2 2 2
5 6 5
x1 + x2 + x3 = 1
d) 9 7 2
f)
+2x2 + 5x3 = −7
0.21x1 + 0.54x2 + 0.24x3 = 0.21
x1 − 2x3 = −8 0.21x1 + 0.32x2 − 0.25x3 = 0.5
2x1 + 4x2 = −2 0.14x1 + 0.25x2 + 0.98x3 = −0.1

3. Considere el siguiente sistema:

2x1 + 3x2 − x3 = a
x1 − x2 + 3x3 = b
3x1 + 7x2 − 5x3 = c

Encuentre las condiciones sobre a, b, c para que el sistema sea inconsistente.

1.4. Sistemas de Ecuaciones Homogéneos


.:Definición 1.5 Sistemas Homogéneos
Un sistema general de m × n ecuaciones lineales, se llama homogéneo si todas las constantes
b1 , b2 , ...,bm son cero. Es decir, el sistema general homogéneo está dado por:

a11 x1 + a12 x2 + ... + a1n xn = 0


a21 x1 + a22 x2 + ... + a2n xn = 0
.. .. .. .. .. .. .. .. (1.8)
. . . . ··· . . . .
am1 x1 + am2 x2 + ... + amn xn = 0

Para el sistema lineal general existen tres posibilidades: que no tenga solución, que tenga solución
única o que tenga un número infinito de soluciones. Para el sistema general homogéneo la
solución es más sencilla. Como x1 = x2 = · · · xn = 0 es siempre una solución (llamada solución
trivial o solución cero), sólo se tiene dos posibilidades: la solución trivial es la única solución o
existe un número infinito de soluciones además de la trivial. La soluciones distintas a la solución
cero se llaman soluciones no triviales.

Ejemplo 1.9
1. Sistemas de ecuaciones lineales 15

Un sistema de ecuaciones homogéneo que tiene sólo la solución trivial.

Resolver el sistema de ecuaciones homogéneo:

x1 + x2 − x3 = 0
2x1 − 4x2 + 3x3 = 0
3x1 + 7x2 − x3 = 0
Sustraemos de la fila 2 la fila 1 multiplicada por 2 y sustraemos de la fila 3 la fila 1 multiplicada
por 3:

x1 + x2 − x3 = 0
− 6x2 + 5x3 = 0
+ 4x2 + 2x3 = 0
Dividamos la fila 2 por (-6):

x1 + x2 − x3 = 0

5
x2 − 6 x3 = 0

+ 4x2 + 2x3 = 0
Sustraemos de la fila 3 la fila 2 multiplicada por 4:

x1 + x2 − x3 = 0

5
x2 − 6 x3 = 0

16
+ 3 x3 = 0
Realizando sustitución regresiva se tiene que: el sistema tiene solución única (0, 0, 0). Esto es la
solución trivial.

Ejemplo 1.10

Un sistema homogéneo con un número infinito de soluciones:

x1 + x2 − x3 = 0
2x1 − 4x2 + 3x3 = 0
−x1 − 7x2 + 6x3 = 0
Sustraemos de la fila 2 la fila 1 multiplicada por 2 y reemplazamos la fila 3 por la adición de las
filas 1 y 3

x1 + x2 − x3 = 0
− 6x2 + 5x3 = 0
− 6x2 + 5x3 = 0
Reemplazamos la fila 3 por la adición de las filas 2 y 3:
1. Sistemas de ecuaciones lineales 16

x1 + x2 − x3 = 0
− 6x2 + 5x3 = 0
0 = 0
1 5

De acuerdo con lo anterior existe un número infinito de soluciones, dadas por: 6 x3 , 6 x3 , x3 .

Ejemplo 1.11

Un sistema con más incógnitas que ecuaciones tiene un número infinito de soluciones:

2x1 + 3x2 − x3 = 0
6x1 − 5x2 + 7x3 = 0
Multiplicamos la fila 1 por 3

6x1 + 9x2 − 3x3 = 0


6x1 − 5x2 + 7x3 = 0
Sustraemos de la fila 2 la fila 1

6x1 + 9x2 − 3x3 = 0


− 14x2 + 10x3 = 0
Dividimos entre (-14) la ecuación 2

6x1 + 9x2 − 3x3 = 0


5
x2 − 7 x3 = 0

Así, hay un número infinito de soluciones dadas por: − 74 x3 , 57 x3 , x3 .

En general, si hay más incógnitas que ecuaciones, el sistema homogéneo siempre tendrá un
número infinito de soluciones.

Este resultado lo podemos ver resumido en el siguiente teorema, sin embargo, es necesario
determinar el rango de un sistema de ecuaciones lineales.

.:Definición 1.6 El rango de un sistema de ecuaciones lineales es el número de ecuaciones


distintas de cero después de realizar la eliminación de Gauss.

Ahora procederemos con el teorema.

.:Teorema 1.1 El sistema homogéneo tiene un número infinito de soluciones si n > m.

Demostración:
Puesto que el sistema homogéneo tiene al menos la solución cero (trivial).
También, el rango < m (¿por qué?).

Por el teorema tenemos que :


1. Sistemas de ecuaciones lineales 17

Número de variables libres = (n − rango) ≥ n − m > 0

De modo que hay al menos una variable libre y por lo tanto un número infinito de soluciones.

Q.E.D.

Ejercicios 1.2

1. Determine las soluciones de los siguientes sistemas, si éstas existen. Utilizar el método de
eliminación de Gauss y de Gauss-Jordan.

2x + 3y = 7
a) .
3x − y = 5
3p + 2q = 5
b)
p − 3q + 2 = 0
3x1 + 2x2 + x3 = 6
c) 2x1 − x2 + 4x3 = −4
x1 + x2 − 2x3 = 5
a + b − 2c = 3
d) 2a + 3b + c = 13
7a1 + 9b + c = 35
x + y + z = 1
2x + 3y − w = 3
e)
−x + z + 3w = 3
2y − z + w = 5
u − v + 2w = 5
f) 4u + v + 3w = 15
5u − 2v + 7w = 31
x + y − z = 2
g)
2x − 3y + 4z = −3

2. Encuentre todas las soluciones a los siguientes sistemas homogéneos:

a) c)
x1 + x2 − x3 = 0 4x1 − x2 = 0
2x1 − 4x2 + 3x3 = 0 7x1 + 3x2 = 0
3x1 + 7x2 − x3 = 0 −8x1 + 6x2 = 0
d)
b)
x1 − 2x2 + x3 + x4 = 0
x1 + x2 − x3 = 0
3x1 + 2x3 − 2x4 = 0
2x1 − 4x2 + 3x3 = 0
4x2 − x3 − x4 = 0
−5x1 + 13x2 − 10x3 = 0
5x1 + 3x3 − x4 = 0
1. Sistemas de ecuaciones lineales 18

3. Para qué valores de k tendrá soluciones no triviales el siguiente sistema

x+y+z = 0
2x + 3y + 4z = 0
3x + 4y + kz = 0

4. ¿Cuál es el área de un rectángulo sabiendo que su perímetro mide 16cm y que su base es el
triple de su altura?
4
5. Hallar dos números cuyo cociente sea 5 y su producto 80.
6. Un viajero que acaba de regresar de Europa gastó $30 diarios en Inglaterra, $20 diarios
en Francia, y $20 diarios en España por concepto de hospedaje. En comida gastó $20
diarios en Inglaterra, $30 diarios en Francia y $20 diarios en España. Sus gastos adicionales
fueron de $10 diarios en cada país. Los registros del viajero indican que gastó total de
$340 en hospedaje, $320 en comida y 140 en gastos adicionales durante su viaje por estos
tres países. Calcule el número de días que pasó el viajero en cada país o muestre que los
registros deben estar incorrectos debido a que las cantidades gastadas no son compatibles
una con la otra.
7. Tres materiales se utilizan para formar tres tipos de productos. Una unidad del primer
material requiere 10 kg del elemento A, 30 del B y 60 del C. Una unidad del segundo
tipo de material necesita 20 kg de A, 30 del B 50 del C. Una unidad del tercer tipo de
material requiere 50 kg de A 50 y 50 del C. Si se dispone de 1600kg del elemento A, 1200
Kg del B y 3200 del C, ¿Cuántas unidades de cada tipo de material se pueden producir si
se se utilizan todos los elementos disponibles?

1.5. Matrices
Para comenzar, observemos un sistema de ecuaciones lineales:

x1 + 3x2 − 3x3 = −1
2x1 − x2 + 3x3 = 2 (1.9)
x1 + 2x2 − x3 = 0
Al realizar la eliminación Gaussiana o Gauss-Jordan, vemos que las variables x1 , x2 y x3
no “participan” del algoritmo, es decir, no hacemos uso de ellas cuando hacemos alguna de
las eliminaciones antes mencionadas. Sólo los coeficientes y los valores constantes tienen una
participación directa en el algoritmo. Ahora se inicia el concepto de Matriz.

.:Definición 1.7 Una Matriz es un arreglo rectangular de números, determinados por filas o
renglones y columnas. Las matrices se denotaran con letras mayúsculas. A, B... etc.

Los elementos en la matriz se ubican de acuerdo a filas y columnas, así por ejemplo, el coeficiente
de la variable x2 en la segunda ecuación es -1, así que en la fila dos y la columna dos habrá un
-1, siempre se ubica primero las filas y luego las columnas. Del sistema 1.9 podemos obtener una
matriz con los coeficientes:
1. Sistemas de ecuaciones lineales 19

 
1 3 −3
A =  2 −1 3 
1 2 −1

.:Definición 1.8 Una matriz que se construye con los coeficientes de un sistema de ecuaciones
lineales se llama Matriz de coeficientes

La matriz A representaría los coeficientes de las variables del sistema 1.9, sin embargo, en ella
no se representa los valores constantes; para ellos requerimos de otro tipo de matriz.

.:Definición 1.9 Una matriz que se construye con los coeficientes de un sistema de ecuaciones
lineales junto con una columna (separada por una línea vertical) con los elementos de los
términos constantes, se llama Matriz de coeficientes aumentada.

En este caso el sistema 1.9 estaría representado en la forma de una matriz de coeficientes
aumentada de la siguiente forma:
 
1 3 −3 −1

A =  2 −1 3 2 

1 2 −1 0
Observemos que el paso del sistema de ecuaciones lineales original a la matriz de coeficientes
aumentada es muy fácil, sólo requerimos acomodar los coeficientes y los términos constantes en
el mismo orden en que aparecen en el sistema.
 
1 3 −3 −1 x1 + 3x2 − 3x3 = −1
 2 −1 3 2  −→ 2x1 − x2 + 3x3 = 2
1 2 −1 0 x1 + 2x2 − x3 = 0
Esto nos puede ayudar a encontrar la manera de acelerar el proceso de eliminación Gaussiana y la
eliminación de Gauss-Jordan. Sin embargo, debemos tener en cuenta las operaciones elementales
por fila.

1.5.1. Operaciones elementales por filas o renglones


Hemos visto que la eliminación Gaussiana y la eliminación de Gauss-Jordan usan operaciones
elementales entre ecuaciones, estas operaciones se pueden modificar para adaptarlas a las
matrices. Las siguientes son las operaciones elementales por fila para matrices:
1. Sistemas de ecuaciones lineales 20

Operaciones elementales por fila:


1. Multiplicar una fila o renglón por un escalar diferente de cero.
Notación: fi → kfi
2. Sumar un múltiplo de una fila a otra fila.
Notación: fj → fj + kfi
3. Permutar dos filas o renglones.
Notación: fi ⇄ fj

Ejemplo 1.12 Resuelva el siguiente sistema de ecuaciones usando notación matricial y teniendo
en cuenta las operaciones elementales por fila.

x1 + 3x2 − 3x3 = −1
2x1 − x2 + 3x3 = 2
x1 + 2x2 − x3 = 0

Recuerde que la matriz de coeficientes aumentada es la siguiente:


 
1 3 −3 −1
 2 −1 3 2 
1 2 −1 0
Por eliminación Gaussiana

Eliminamos la componente de la fila 2 y columna 1 usando la segunda operación elemental por


fila f2 → f2 + (−2)f1 , esto se lee “remplazamos la fila 2 por la misma fila 2 más la fila 1
multiplicada por (-2)”
   
1 3 −3 −1 1 3 −3 −1
 2 −1 3 2  f2 → f2 + (−2)f1  0 −7 9 4 
1 2 −1 0 −−−−−−−−−−−−→ 1 2 −1 0
Ahora procederemos de la misma manera para la tercera fila, en este caso eliminar el primer 1 de
la tercera fila.
   
1 3 −3 −1 1 3 −3 −1
 0 −7 9 4  f3 → f3 + (−1)f1  0 −7 9 4 
1 2 −1 0 −−− − − −− −− − −−→ 0 −1 2 1

Ahora multiplicamos la segunda fila por − 71 , esto es f2 → − 71 f2
 
  1 3 −3 −1

1 3 −3 −1    
 0 −7 1  9
4 

9 4
 f2 → − f2  0
 1 −7 −7 
7
0 −1 2 1 −−−−−−−−−−−→ 


0 −1 2 1
Ahora , procederemos a eliminar la componente de la fila 3 y columna 2, es decir -1.
1. Sistemas de ecuaciones lineales 21

   
1 3 −3 −1 1 3 −3 −1
   
   
 0 1 − 79 − 74 
−  0
f3 → f3 + (1)f2  1 − 97 − 74 
 −−−−−−−−−−→ 
 
 
5
3
0 −1 2 1 0 0 7 7
7 7

Finalmente multiplicamos la última fila por es decir f3 →
5, 5 f3
   
1 3 −3 −1 1 3 −3 −1
     
 0 1 − 9 − 4  f3 → 7 f3  0
   
7 7  1 − 7 − 74
9 

 5
 −−−−−−−−−→ 




5
3

0 0 7 7 0 0 1 35
Como usamos eliminación Gaussiana, podemos realizar la sustitución regresiva para obtener los
valores. En este caso 51 , 51 , 35 .

Por Gauss-Jordan

Para este caso, empezaremos de la eliminación Gaussiana que teníamos:


 
1 3 −3 −1
 
 
 0 1 −9 −4 
 7 7 
 
3
0 0 1
5
y eliminaremos el − 97 que está en la segunda fila
 y tercera columna. Para eso usaremos la siguiente
operación elemental por filas: f2 → f2 + 79 f3
   
1 3 −3 −1 1 3 −3 −1
     
 0 1 − 9 − 4  f2 → f2 + 9 f3  0 1
   1 
7 7  0
5 


  −−−−−−−−−−− 7 
 
−−→
0 0 1 35 0 0 1 3 5
De igual manera, para el -3 de la primera fila y tercera columna usaremos f1 → f1 + (3) f3
   
1 3 −3 −1 1 3 0 45
   
 1   1 
 0 1 0 5  f1 → f1 + (3) f3  0 1 0 5 
 
 −−−−−−−−−−−→ 
 
 
3 3
0 0 1
5 0 0 1
5
Finalmente, eliminamos el 3 de la primera fila y segunda columna usando f1 → f1 + (−3) f2
   
1 3 0 54 1 0 0 51
   
   
 0 1 0 1  f1 → f1 + (−3) f2  0 1 0 1 
 5  −−−−−−−−−−−−−→  5 
   
3 3
0 0 1
5 0 0 1
5
1. Sistemas de ecuaciones lineales 22

La solución a este sistema es el mismo que se obtuvo con la eliminación Gaussiana y es el mismo
para el sistema de ecuaciones inicial, sólo que la solución en este último es más fácil de deducir.
 
x1 + 3x2 − 3x3 = −1 1 3 −3 −1
2x1 − x2 + 3x3 = 2 →  2 −1 3 2 
x1 + 2x2 − x3 = 0 1 2 −1 0
 
  1 0 0 15 x1 = 51
1 3 −3 −1 


1 

 2 −1 3 2  →   0 1 0 5 →
 x2 = 51
1 2 −1 0 


0 0 1 35 x3 = 53

Ejemplo 1.13 Resuelva el siguiente sistema de ecuaciones homogéneo usando notación


matricial y teniendo en cuenta las operaciones elementales por fila.

2x1 − x2 + x3 = 0
x1 − 2x2 + x3 = 0
3x1 + x2 − 4x3 = 0
La matriz de coeficientes aumentada sería:
 
2 −1 1 0

 1 −2 1 0 

3 1 −4 0
Iniciamos intercambiando la primera y la segunda fila:
   
2 −1 1 0 1 −2 1 0

 1 −2 1 0  f1 ⇆ f2  2 −1 1 0 
3 1 −4 0 −−−−−→ 3 1 −4

0
Ahora procedemos de igual manera, usando las operaciones elementales por fila:
   
1 −2 1 0 1 −2 1 0
 2 −1 1 0  f2 → f2 + (−2)f1  0 3 −1 0 
3 1 −4 0 −−−−−−−−−−−−→ 3 1 −4 0
   
1 −2 1 0 1 −2 1 0
 0 3 −1 0  f3 → f3 + (−3)f1  0 3 −1 0 
3 1 −4 0 −−−−−−−−−−−−→ 0 7 −7 0
 
  1 −2 1 0
1 −2 1 0    
 0 1  1

3 −1 0  f2 →
f2  0
 1 −3 0 

3 
0 7 −7 0 −−−−−−−−−→ 


0 7 −7 0
1. Sistemas de ecuaciones lineales 23

   
1 −2 1 0 1 −2 1 0

   
   
 0 1 − 31 0 
−  0
f3 → f3 + (−7) f2  1 − 31 0 

  −−−−−− −−−−−− → 





0 7 −7 0 0 0 − 14
3
0
Como vemos, el sistema tiene solución trivial

Ejemplo 1.14 Resuelva el siguiente sistema de ecuaciones usando notación matricial.

x1 − x2 + 3x3 = 1
−8x1 + x2 − x3 = 4
En este caso el sistema tiene más variables que ecuaciones, luego la matriz de coeficientes
aumentada debe tener más columnas que filas:
 
1 −1 3 1
−8 1 −1 4
Procedemos a realizar la eliminación de Gauss-Jordan
   
1 −1 3 1 1 −1 3 1
f → f2 + (8) f1
−8 1 −1 4 −2−−−−− −−−−−→ 0 −7 23 4
 
    1 −1 3 1
1 −1 3 1 1
f 2 → − f 2  
0 −7 23 4 7
−−−−−−−−−−−→ 0 1 − 23
7
− 74
   
1 −1 3 1 1 0 − 27 37
  f1 → f1 + (1) f2  
0 1 − 23

−4 −−−−−−−−−−−→ 0 1 − 23

−4
7 7 7 7
El sistema tiene múltiples soluciones, luego el sistema asociado a la matriz seria de la siguiente
forma:
 
1 0 − 72 37 x1 − 72 x3 = 3
7
 →

0 1 − 23 7
−4
7 x2 − 23
7 x3 = − 74
De este podemos deducir x2 =23 7 x3 −
4
7 y x1 = 3
7 + 72 x3 , luego la solución general sería de la
forma 37 + 72 x3 , 23
7 x3 − 4
7 , x3 .

Los ejemplos anteriores muestran como encontramos la solución a sistemas de ecuaciones lineales
usando la notación matricial y las operaciones elementales por fila. Esto se logra por que las
operaciones elementales por fila transforman el sistema dado en un sistema más simple; al cual
se le puede hallar una solución más fácil, pero ¿los nuevos sistemas encontrados usando las
operaciones elementales por filas tiene las mismas soluciones que los sistemas de ecuaciones
lineales originales?
1. Sistemas de ecuaciones lineales 24

.:Teorema 1.2 Al aplicar operaciones elementales por fila a un sistema de ecuaciones lineales,
el nuevo sistema que se obtiene, tiene exactamente las mismas soluciones que el sistema de
ecuaciones lineales original.

Demostración:

La siguiente demostración se basa en la encontrada en [3]. Dividiremos la demostración en tres


casos, uno para cada operación elemental por fila.

Tomemos un sistema de m ecuaciones lineales y n incógnitas

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
(1.10)
ak1 x1 + ak2 x2 + ... + akn xn = bk
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
am1 x1 + am2 x2 + ... + amn xn = bm

Caso fi → kfi : Ahora tomamos el sistema 1.10 y multiplicamos la fila k por α ∈ R y


α 6= 0.

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
(1.11)
αak1 x1 + αak2 x2 + ... + αakn xn = αbk
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
am1 x1 + am2 x2 + ... + amn xn = bm

En este caso las ecuaciones ak1 x1 + ak2 x2 + . . . + akn xn = bk y αak1 x1 + αak2 x2 +


. . . + αakn xn = αbk son equivalentes, por las propiedades de la igualdad, luego el sistema
1.10 y 1.11 tendría la misma solución.
Caso fj → fj + kfi : Para el caso en donde se suma el múltiplo escalar de una fila a otra
tendremos en cuenta lo siguiente:

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
(αak1 + al1 ) x1 + (αak2 + al2 ) x2 + + (αakn + aln ) xn = αbk + bl
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
al1 x1 + al2 x2 + ... + aln xn = bl
.. .. .. .. .. .. .. ..
. . . . ··· . . . .
am1 x1 + am2 x2 + ... + amn xn = bm
(1.12)
1. Sistemas de ecuaciones lineales 25

De un lado, si x∗ = (x∗1 , x∗2 , x∗3 , . . . , x∗n ) es solución de 1.10, entonces se satisfacen ambas
ecuaciones, la que esta en la posición k y la que esta en la posición l, es decir las siguientes
igualdades se conservan:

ak1 x∗1 + ak2 x∗2 + . . . + akn x∗n = bk


y
al1 x∗1 + al2 x∗2 + . . . + aln x∗n = bl
Sumando ambas ecuaciones tenemos

(αak1 + al1 ) x∗1 + (αak2 + al2 ) x∗2 + . . . + (αakn + aln ) x∗n = αbk + bl
Luego x∗ también es solución de 1.12. De otro lado, si x∗ es solución de 1.12, entonces es
solución de

(αak1 + al1 ) x∗1 + (αak2 + al2 ) x∗2 + . . . + (αakn + aln ) x∗n = αbk + bl

y de

al1 x1 + al2 x2 + . . . + aln xn = bl


restando ambas ecuaciones tenemos que

αak1 x1 + αak2 x2 + . . . + αakn xn = αbk



Luego x es solución de 1.10.
Caso fi ⇄ fj : Este caso es obvio, pues al intercambiar dos filas no se altera las ecuaciones
y por tanto la soluciones son iguales.

Q.E.D.

La importancia de este teorema radica en que, no importa el número de operaciones elementales


por fila que hagamos a un sistema de ecuaciones lineales, la solución es igual para los sistemas
que encontremos después de realizar dichas operaciones. Así, en el ejemplo 1.12 encontramos el
sistema

x1 + 3x2 − 3x3 = −1
2x1 − x2 + 3x3 = 2
x1 + 2x2 − x3 = 0
Si aplicamos eliminación Gaussiana, encontraremos el sistema equivalente

x1 +3x2 −3x3 = −1

0 x2 − 97 x3 = − 47

3
0 0 x3 = 5
En el cual, podemos encontrar la solución de forma fácil, haciendo sustitución regresiva. Si
aplicamos más operaciones elementales por fila encontraremos
1. Sistemas de ecuaciones lineales 26

1
x1 = 5

1
x2 = 5

3
x3 = 5
En el cual, no debemos hacer nada para hallar la solución, pues está explícita. Los tres sistemas de
ecuaciones lineales tiene la misma solución, a dichos sistemas se les llama Sistema de ecuaciones
lineales equivalentes.

1.5.2. Formas escalonadas para una matriz


Toda matriz se puede reducir a las formas Forma escalonada reducida por renglones (FERR)
o a la Forma escalonada por renglones. A continuación veremos como se diferencian.

.:Definición 1.10 Forma escalonada reducida por renglones (FERR)

Una matriz se encuentra escalonada reducida por renglones, si cumple las siguientes
condiciones:
1. Todas las filas que sean nulas (si las hay) aparecen en la parte inferior de la matriz.
2. El primer número diferente de cero comenzando por la izquierda en cualquier fila no nula
debe ser 1.
3. Si tenemos dos filas sucesivas no nulas, el primer 1 de la segunda fila debe estar más hacia
la derecha que el 1 de la fila de arriba.
4. Toda columna que contiene el primer 1 (pivote) de una fila, debe tener ceros en el resto de
la columna.

Ejemplo 1.15

Las siguientes matrices están en FERR


   
1 0 7 8 1 0 0
 0 1 6 8 ,  0 1 0 
0 0 0 0 0 0 1
Ahora, la forma escalonada por renglones:
.:Definición 1.11 Forma escalonada por renglones (FER)

Una matriz se encuentra escalonada por renglones, si cumple las siguientes condiciones 1,2 y 3
de la Forma escalonada reducida por renglones (FERR).

Ejemplo 1.16
1. Sistemas de ecuaciones lineales 27

Las siguientes matrices están en FER


   
1 4 7 8 1 1 2
 0 1 6 8 ,  0 1 6 
0 0 1 0 0 0 1
Asi entonces la eliminación de Gauss-Jordnan esta relacionada con con la forma FERR y la
eliminación Gaussiana con la FER.

Ejercicios 1.3

1. Representar matricialmente los siguientes sistemas de ecuaciones y resolver utilizando las


operaciones elementales por fila

a) e)
3x1 + 2x2 + x3 = 6
2x1 − x2 + 4x3 = −4 x1 − x2 + x3 = 6
x1 + x2 − 2x3 = 5 3x1 − 3x2 + 3x3 = 18
b)
3x1 + 2x2 = 5 f)
x1 + 3x2 + 2 = 0
c) x1 + x2 − x3 + 2x4 = 3
2x1 + 4x2 + 6x3 = 18 3x1 + 2x2 + x3 + −x4 = 5
4x1 + 5x2 + 6x3 = 24
2x1 + 7x2 + 12x3 = 30 g)
d)
2x1 + 4x2 + 6x3 = 0 x1 − x2 + x3 − x4 = −2
4x1 + 5x2 + 6x3 = 0 −2x1 + 3x2 − x3 + 2x4 = 5
3x1 + x2 − 2x3 = 0 4x1 − 2x2 + 2x3 − 3x4 = 6

1.5.3. Matrices, vectores fila y columna


Los vectores nacen del estudio de la física. Cuando tratamos de estudiar ciertos fenómenos, nos
encontramos con cantidades a las que llamaremos magnitudes escalares, por ejemplo el peso o la
distancia son magnitudes escalares, si tratamos de medir cuanto pesa un objeto, podemos esperar
un valor fijo: pesa 90 kilos, mide 30 kilómetros etc. Sin embargo hay magnitudes en física que
no se pueden atrapar con un solo valor, por ejemplo cuando planeas hacer algo con alguien, le
decimos “nos vemos en el parque a las 10 a.m” en ese momento estamos trabajando con una
variable que implica dos magnitudes, una de lugar (el parque) y otra de tiempo (10 a.m); a estas
magnitudes se les llama vectoriales, debido a que la variable implica más de un valor. La siguiente
sección nos concentraremos en la notación de los vectores y las matrices.
1. Sistemas de ecuaciones lineales 28

.:Definición 1.12 Vector Fila y Columna

Un vector fila de n componentes es un arreglo ordenado de números de la siguiente forma:

a = (a1 , a2 . . . an )
Un vector Columna de n componentes es un arreglo ordenado de la siguiente forma:
 
b1
 b2 
 
b= . 
 .. 
bn

Los vectores fila y columna conforman las filas y las columnas de una matriz, es por ello que en
algunas ocasiones reciben nombres y notaciones especiales. La notación para los vectores varía en
muchos libros de texto, en algunos casos aparece con negrilla, por ejemplo si tenemos un vector
a este aparecerá como a. En física es común que aparezcan con una flecha en la parte superior ~a
o encerrada entre ángulos hai. Es este libro usaremos letras minúsculas para expresar los vectores
y sus componentes, así por ejemplo, si tenemos:

a = (a1 , a2 , . . . , an )
a sera el nombre del vector, y a1 , a2 ,...an serán las componentes del vector. En algunos casos
es necesario destacar algunos componentes del vector, por ejemplo el primero o el tercero o el
último. Si el vector es en vector fila hablaremos del i−ésimo componente, mientras que si es un
vector columna hablaremos de un j−ésimo componente.

Ejemplo 1.17

a = (5, 6, 9, 87, 3)
Es un vector fila de cinco componentes, donde, por ejemplo, la tercera componente a3 = 9. Ahora
bien
 
1
 6 
b=  0 

4
Es un vector columna, donde b3 = 0.
1. Sistemas de ecuaciones lineales 29

.:Definición 1.13 Se dice que a es un vector nulo (bien se a fila o columna) si todos sus
componentes son cero:
 
0
 0 
 
a = (0, 0, . . . , 0) o a= . 
 .. 
0

Estos vectores generalmente se denotan con un cero, es decir podemos denotarlos usando el
simbolo 0, pero este no se debe confundir con la magnitud escalar cero, que es un número real.
.:Definición 1.14 Definición formal de matriz

Una matriz es una arreglo rectangular de m · n componentes ordenados en m filas y n columnas


de la siguiente forma:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= . .. .. .. 
 .. . . . 
am1 am2 · · · amn

Las matrices de denotan con letras mayúsculas, mientras que sus componente con letras
minúsculas. Si tenemos la matriz A y nos referimos al nombre genérico de sus componentes
usaremos la notación A = (aij ) que se lee “La matriz A de componentes aij ”. Si tenemos la
componente aij estamos hablando que este elemento esta en la fila i y la columna j.

Ejemplo 1.18

 
2 3 4 5  
 2 2 3 0  2 −8 4 5
A=
 9
, B=
3 4 1  3 0 1 2
6 4 −1 0
A es una matriz de 4 × 4, es decir, tiene 16 componentes en 4 filas y 4 columnas, de los cuales
a34 = 1 y a13 = 4. La matriz B tiene dos filas y cuatro columnas, donde b22 =0.

Podemos hablar de la i−ésima fila, por ejemplo la tercera de A sería (9, 3, 4, 1) o de la


 fila 
−8
j−ésima columna, por ejemplo la segunda fila de B sería .
0
Algunas matrices reciben nombres especiales:
1. Sistemas de ecuaciones lineales 30

.:Definición 1.15 Una matriz de tamaño n × n, es decir, el mismo número de filas y columnas,
se llama matriz cuadrada
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= . .. .. .. 
 .. . . . 
an1 an2 · · · ann

Estas matrices son muy usadas en la resolución de sistemas de ecuaciones lineales.

.:Definición 1.16 Una matriz de tamaño m × n, se llama matriz nula cuando todos sus
componentes son cero.
 
0 0 ··· 0
 0 0 ··· 0 
 
A= . .. .. .. 
 .. . . . 
0 0 ··· 0

De nuevo, debemos hacer claridad en la notación, podemos hacer uso del simbolo 0 para denotar
la matriz nula, haciendo la diferencia con el cero de los números reales.

.:Definición 1.17 Una matriz de tamaño n × n, se llama matriz diagonal, cuando las
componentes a11 , a22 , a33 , . . . , ann son distintos de cero, las demás componentes son cero.
 
a11 0 · · · 0
 0 a22 · · · 0 
 
A= . . . .. 
 .. .. .. . 
0 0 · · · ann

Es importante destacar que de ahora en adelante “manipularemos” las matrices como si fuesen
números, por esta razón, debemos saber cuando dos matrices son iguales:
.:Definición 1.18 Dos matrices A = (aij ) y B = (bij ) son iguales sí:
1. Tienen el mismo tamaño.
2. ∀i, j aij = bij , es decir, todas sus correspondientes componentes son iguales.

Ejemplo 1.19

 
   √  1 5
2 5 4 5
A= , B= , C = 1 7 
7 −1 7 −1
−3 1
Las matrices A y B son iguales, porque tienen iguales sus correspondientes componentes.
Mientras que la matriz C no tiene ni el tamaño adecuado, ni coinciden sus correspondientes
1. Sistemas de ecuaciones lineales 31

componentes.

Nota: Es de resaltar, que tanto en los vectores como las matrices es importante el orden, así por
ejemplo, a = (1, 2, 3) es muy distinto de b = (3, 2, 1), de igual forma con las matrices.

1.6. Suma de matrices y multiplicación por escalar


Esta es la primera operación elemental que se puede realizar con matrices.
.:Definición 1.19 Suma de Matrices:

Si tenemos dos matrices A = (aij ) y B = (bij ) ambas de tamaño m × n, La suma de A y B


denotada como (A + B) también de tamaño m × n,de se define como:

A+B = (aij + bij )


 
a11 + b11 a12 + b12 a13 + b13 ··· a1n + b1n

 a21 + b21 a22 + b22 a23 + b23 ··· a2n + b2n 

=  .. .. .. .. .. 
 . . . . . 
am1 + bm1 am2 + bm2 am3 + bm3 ··· amn + bmn

En la suma de matrices, se suman las correspondientes componentes para obtener la nueva matriz
que debe tener el mismo tamaño de las matrices originales.

Ejemplo 1.20

 
    4 −7
6 4 5 −7
A= , B= , C =  0 −7 
7 −2 2 3
3 −2
Podemos hacer la operación A + B
 
11 −3
A+B =
9 1
Sin embargo, A + C y B + C no están definidas, debido a que tiene tamaños diferentes.

Ejemplo 1.21

Realizar la operación A + B y B + A si
   
6 −1 0 7
A =  4 1 , B =  −1 4 
2 0 7 1
Veamos los dos resultados:
1. Sistemas de ecuaciones lineales 32

     
6 −1 0 7 6 6
A+B = 4 1 + −1 4  =  3 5 
2 0 7 1 9 1
     
0 7 6 −1 6 6
B + A =  −1 4  +  4 1 = 3 5 
7 1 2 0 9 1

.:Definición 1.20 Sea A = (aij ) una matriz de tamaño m × n y α un escalar (un número real) ,
el producto escalar αA se define como:
 
αa11 αa12 . . . αa1n
 αa21 αa22 . . . αa2n 
 
αA = (αaij ) =  .. .. . . .. 
 . . . . 
αam1 αam2 ... αamn

En la multiplicación por escalar, se multiplica la constante por cada uno de los componentes de
la matriz.

Ejemplo 1.22

Sea α = −2, realice el producto αA sí:


 
6 −2 4
A =  2 8 −1 
4 6 0
Multiplicando aαA se tiene que:
 
−12 4 −8
αA =  −4 −16 2 
−8 −12 0

.:Definición 1.21 Diferencia de matrices

Sea A = (aij ) y B = (bij ) matrices de tamaño m × n y α = −1 un escalar, la diferencia entre


A y B se define de la siguiente forma:

A − B = A + (−1)B

La diferencia entre matrices se realiza con respecto a la multiplicación por escalar, es decir , la
segunda matriz se multiplica por el escalar −1 y posteriormente se suman las matrices.

Ejemplo 1.23
1. Sistemas de ecuaciones lineales 33

Sea
 
6 −7
a =  −1  y b= 4 
4 3
Realice el producto: 4a − 3b:

  
6 −7
4a − 3b = 4  −1  + (−3)  4 
4 3
     
24 21 45
=  −4  +  −12  =  −16 
16 −9 7
.:Teorema 1.3 Sean A, B y C matrices de tamaño m × n y α,β escalares. Entonces:
1. A + B = B + A Ley asociativa de la suma de matrices
2. A + 0 = 0 + A = A, elemento neutro de la suma de matrices
3. 0A = 0
4. (A + B) + C = A + (B + C), propiedad asociativa de la suma de matrices.
5. α(A + B) = αA + αB, propiedad distributiva de la multiplicación por escalar frente a la
suma de matrices.
6. 1A = A, elemento neutro de la multiplicación por escalar.
7. (α + β)A = αA + βA

Demostración:

Para este teorema, demostraremos los puntos 1 y 3:

Parte 1: Si tenemos que A = (aij ) y B = (bij ), entonces

A+B = aij + bij


   
a11 a12 ... a1n b11 b12 ... b1n

 a21 a22 ... a2n  
  b21 b22 ... b2n 

=  .. .. .. .. + .. .. .. .. 
 . . . .   . . . . 
am1 am2 ... amn bm1 bm2 ... bmn
 
a11 + b11 a12 + b12 ... a1n + b1n
 a21 + b21 a22 + b22 ... a2n + b2n 
 
=  .. .. .. .. 
 . . . . 
am1 + bm1 am2 + bm2 ... amn + bmn
1. Sistemas de ecuaciones lineales 34

Ahora bien, si utilizamos la propiedad conmutativa de los números reales en cada una de las
componentes de la matriz A + B, tendíamos que aij + bij = bij + aij , con lo cual:

 
a11 + b11 a12 + b12 ... a1n + b1n

 a21 + b21 a22 + b22 ... a2n + b2n 

 .. .. .. ..  =
 . . . . 
am1 + bm1 am2 + bm2 ... amn + bmn

 
b11 + a11 b12 + a12 ... b1n + a1n

 b21 + a21 b22 + a22 ... b2n + a2n 

 .. .. .. .. 
 . . . . 
bm1 + am1 bm2 + am2 ... bmn + amn

Ahora, aplicamos la definición 1.19 y tenemos


 
b11 + a11 b12 + a12 . . . b1n + a1n
 b21 + a21 b22 + a22 . . . b2n + a2n 
 
 .. .. .. .. =B+A
 . . . . 
bm1 + am1 bm2 + am2 . . . bmn + amn

Q.E.D

Parte 2: 0A = 0.

En este caso, el cero que multiplica la matriz A es el escalar cero, es decir, el número real, mientras
que el cero que esta después del igual hace referencia a la matriz nula del mismo tamaño de A. Si
A = (aij ), entonces:

 
a11 a12 . . . a1n

 a21 a22 . . . a2n 

0A = (0)  .. .. . . .. 
 . . . . 
am1 am2 . . . amn
 
0a11 0a12 ... 0a1n

 0a21 0a22 ... 0a2n 

=  .. .. .. .. 
 . . . . 
0am1 0am2 ... 0amn

Ahora bien, sabemos que los números reales cumplen que a0 = 0a = 0 ∀a ∈ R , luego, la matriz
= 0A, quedaría:
1. Sistemas de ecuaciones lineales 35

   
0a11 0a12 . . . 0a1n 0 0 ... 0

 0a21 0a22 . . . 0a2n 


 0 0 ... 0 

 .. .. . . ..  =  .. .. .. .. 
 . . . .   . . . . 
0am1 0am2 . . . 0amn 0 0 ... 0

= 0 La matriz nula

Ejemplo 1.24

Sea A y B definidas como:


   
1 0 3 2 0 7
A= 1 8 −1  y B= 2 8 1 
9 1 1 −1 2 1
Es fácil ver que A + B = B + A

   
1 0 3 2 0 7
A+B =  1 8 −1  +  2 8 1 
9 1 1 −1 2 1
 
3 0 10
=  3 16 0 
8 3 2

De igual manera

   
2 0 7 1 0 3
B+A =  2 8 1 + 1 8 −1 
−1 2 1 9 1 1
 
3 0 10
=  3 16 0 
8 3 2

1.7. Multiplicación de matrices y vectores


La multiplicación de matrices, es uno de los aspectos más importantes en el álgebra lineal, de
igual manera como lo es la multiplicación de números reales en la aritmética. En esta sección,
además de mostrar el algoritmo de multiplicación de matrices, nos aproximaremos a la relación
entre esta operación y la resolución de sistemas de ecuaciones lineales.
1. Sistemas de ecuaciones lineales 36

1.7.1. Producto escalar


El producto escalar o producto punto, es la primera etapa para aproximarnos al concepto de
multiplicación de matrices.

.:Definición 1.22 Producto escalar


   
u1 v1
 u2   v2 
   
Sea u =  .  y v =  .  vectores de tamaño n,el producto escalar esta definido como:
 ..   .. 
un vn

u·v = u1 v1 + u2 v2 + u3 v3 + · · · + un vn

n
X
= ui vi
i=0

Q.E.D

La definición de producto escalar, nos pone de manifiesto que el producto escalar se puede ver
como una función Rn ×Rn −→ R, es decir se toman dos vectores en Rn y genera un número real.
De otro lado, la definición no distingue entre vector fila o columna, es decir, se pueden multiplicar
dos vectores fila o dos vectores columna o un vector fila y un vector columna.

Ejemplo 1.25
 
4
 3 
Sea u = 
  y v = (2, −1, 9, 3), entonces:
3 
1
 
4
 3 
u·v =   · (2, −1, 9, 3)
 3 
1

= 4 · 2 + 3 · (−1) + 3 · 9 + 1 · 3
= 8 + (−3) + 27 + 3
= 35

Ejemplo 1.26
1. Sistemas de ecuaciones lineales 37

 
7
 0  
Sea u = 
 0 yv=
 5, 1, −4, 8 , entonces:
3
 
7
 0  
u·v =  ·
 0  5, 1, −4, 8
3

= 7 · 5 + 0 · 1 + 0 · (−4) + 3 · 8
= 35 + 0 + 0 + 24
= 59

.:Teorema 1.4 Sean u,v y w vectores de tamaño n y α un escalar.

1. u · v = v · u
2. u · 0 = 0
3. u · (v + w) = u · v + u · w
4. (αu) · v = α (u · v)

Demostración:

Para este teorema, demostraremos los puntos 1 y 2:

Parte 1: u · v = v · u.

Sin perder generalidad podemos asumir el vector u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn )


dos vectores de tamaño n. Entonces:

u · v = u1 v1 + u2 v2 + · · · + un vn
Ahora, aplicamos la propiedad conmutativa de la multiplicación de números reales, entonces
ui vi = vi ui i = 1, 2, . . . , n

u·v = v1 u1 + v2 u2 + · · · + vn un
= v·u

Q.E.D

Parte 2: u · 0 = 0

Debemos tener presente que el cero que multiplica al vector u representa el vector nulo, mientras
que el cero que está después del igual es el cero real.
1. Sistemas de ecuaciones lineales 38

u·0 = u1 0 + u2 0 + u3 0 + · · · + un 0
= 0 + 0 + ···+ 0
= 0

Q.E.D

1.7.2. Multiplicación de matrices


Definido el producto escalar, procederemos a definir el producto entre matrices:

.:Definición 1.23 Producto entre matrices

Sea A = (aij ) una matriz de tamaño m × n y B = (bij ) una matriz de tamaño n × p, el producto
entre A y B es una matriz C = (cij ) de tamaño m × p tal que:

cij = (fila i de A) · (Columna j de B)


de igual manera

cij = ai1 b1j + ai2 b2j + · · · + ain bnj

n
X
= aik bkj
k=1

Observaciones:
1. Los tamaños de las matrices son importantes, en este caso el número de columnas de la
primera matriz debe coincidir con el número de columnas de la segunda matriz, cuando los
tamaños coinciden se dice que las dos matrices son compatibles bajo la multiplicación.
2. La definición de multiplicación de matrices nos dice que la componente ij-esima de C es
el producto escalar entre la la fila i de A y la columna j de B, es necesario que el estudiante
tenga presente que cuando hablamos de cij , nos referimos a cualquier componente de C
que es la multiplicación entre A y B.

Ejemplo 1.27
   
2 6 4 −7
Sea A = yB = , el producto AB = C
3 1 1 2

C = AB
   
2 6 4 −7
= ·
3 1 1 2

Analicemos las componentes de C, tomemos c11 = (fila 1 de A) · (Columna 1 de B), esto nos
indica que es el producto escalar entre la fila 1 de A y la columna 1 de B.
1. Sistemas de ecuaciones lineales 39

 
 4
c11 = 2 6 · = 8 + 6 = 14
1

La componente c12 = (fila 1 de A) · (Columna 2 de B)

 
 −7
c12 = 2 6 · = −14 + 12 = −2
2

La componente c21 = (fila 2 de A) · (Columna 1 de B)

 
 4
c21 = 3 1 · = 12 + 1 = 13
1

La componente c22 = (fila 2 de A) · (Columna 2 de B)

 
 −7
c22 = 3 1 · = −21 + 2 = −19
2
 
14 −2
De esta forma C = AB =
13 −19

Ejemplo 1.28
 
3 9 8 7 4
Multiplicación de matrices de tamaños diferentes: sea A =  5 1 2 8 2  y B =
4 7 1 2 3
 
1 0
 2 1 
 
 0 3  , el producto AB sería:
 
 4 2 
1 0
 
  1 0
3 9 8 7 4  2 1 
 
AB =  5 1 2 8 2   0 3 
 
4 7 1 2 3  4 2 
1 0
 
53 47
=  41 23 
29 14

Observe que la matriz A es de tamaño 3 × 5 y la matriz B = 5 × 2, coinciden el numero de


columnas de A con el número de filas de B, la matriz resultante es de tamaño 3 × 2, es decir, tres
filas de A y dos columnas de B.
1. Sistemas de ecuaciones lineales 40

1.7.3. Ley Asociativa en el producto de matrices


El producto de matrices cumple con la ley asociativa:

.:Teorema 1.5 Sean A = (aij ) de tamaño n × m y B = (bij ) de tamaño m × p, y C = (cij )


una matriz de p × q, entonces se cumple que

A(BC) = (AB)C
Teniendo en cuenta que el tamaño de la matriz resultante es de n × q.
Demostración:

Vemos que es fácil determinar los tamaños de las matrices a ambos lados de la ecuación es de
n×q

An×m (Bm×p Cp×q )m×q = (An×m Bm×p )n×p Cp×q


| {z } | {z }
n×q n×q

Ahora veremos que pasa con las componentes ij−ésimas de cada producto. Tomemos D = (dij )
siendo D = AB, de acuerdo a la definición 1.23, entonces:
m
X
dij = aik bkj = ai1 b1j + ai2 b2j + · · · + aim bmj
k=1
Ahora bien, si tomamos (AB) C = DC su componente ij−ésima sería:

p p m
!
X X X
dir crj = aik bkr crj
r=1 r=1 k=1
| {z }
dir
p
m X
X
= aik bkr crj
k=1 =1

Ahora definimos E = (eij ), tal que E = BD, entonces


p
X
ekj = bkr crj
r=1
Haciendo un análisis similar al anterior

m m p
!
X X X
aik ekj = aik bkr crj
k=1 k=1 r=1
| {z }
ekj

p
m X
X
= aik bkr crj
k=1 r=1
1. Sistemas de ecuaciones lineales 41

Estos dos procedimientos, nos muestran que la componente ij−ésima de (AB) C es igual a la
componente ij−ésima de A (BC).

Q.E.D
     
2 5 1 4 7 9
Ejemplo 1.29 Sea A = , B = y C = , verifique que
7 1 3 1 3 5
(AB) C = A (BC)

Veamos (AB) C

    
2 5 1 4 7 9
(AB) C =
7 1 3 1 3 5
  
17 13 7 9
=
10 29 3 5
 
158 218
=
157 235

Veamos A (BC)

    
2 5 1 4 7 9
A (BC) =
7 1 3 1 3 5
  
2 5 19 29
=
7 1 24 32
 
158 218
=
157 235

1.7.4. Ley distributiva de la multiplicación de matrices


.:Teorema 1.6 Sean A = (aij ), B = (bij ) y C = (cij ) matrices en los cuales las siguientes
sumas y productos están definidos

A(B + C) = AB + AC
(A + B)C = AC + BC

Demostración:

Tomaremos la primera parte:

A(B + C) = AB + AC
Supongamos que A es de tamaño n × m y B y C matrices de tamaño m × p. En la parte inicial
de la igualdad aparece la matriz B + C, iniciaremos con la componente ij-ésima de esta matriz,
la cual notaremos como bkj + ckj , Ahora bien, esta matriz esta multiplicada por la matriz A, para
determinar la propiedad, empezaremos con la componente ij-ésima del producto A(B + C)
1. Sistemas de ecuaciones lineales 42

m
X
aik (bkj + ckj )
k=1

Esta ecuación es la componente ij-ésima de A(B + C), lo que hacemos ahora es aplicar la ley
distributiva de la suma de los números reales a la parte interna de la sumatoria.

m
X m
X
aik (bkj + ckj ) = aik bkj + aik ckj
k=1 k=1
Xm m
X
= aik bkj + aik cik
k=1 k=1
= AB + AC

la segunda parte del teorema se demuestra de forma similar.

Q.E.D
     
2 5 1 4 7 9
Ejemplo 1.30 Sea A = , B = y C = , verifique que
7 1 3 1 3 5
A(B + C) = AB + AC

Tomemos la primera parte del teorema A(B + C)

     
2 5 1 4 7 9
A(B + C) = +
7 1 3 1 3 5
   
2 5 8 13
=
7 1 6 6
 
46 56
=
62 97

Ahora, verificamos la segunda parte del teorema

     
2 5 1 4 2 5 7 9
AB + BC = +
7 1 3 1 7 1 3 5
   
17 13 29 43
= +
10 29 52 68
 
46 56
=
52 97

Ejercicios 1.4
   
2 −1 5 −3 −4 2
1. Dadas las matrices: A = , B = ,C =
0 1 −2 5 −1 −7
 
−4 6 8
, encuentre
10 −1 13
1. Sistemas de ecuaciones lineales 43

a) A + B
b) 4A
c) 3A − 2B − 4C
d) 4(A + B) − 2(B − C)
e) 8(A + B − C) − 2(B + C)
f ) Encuentre una matriz D tal que A + B − C + D sea la matriz cero de orden 2 × 3
g) Una Matriz E tal que A + 2B − C + 3E sea la matriz cero de orden 2 × 3
 
−1 2 3    
2 −3 5 7 −9
2. Para las matrices A =  0 5 −2 , B = y C =
1 5 0 9 −7
3 0 1
determinar:

a) A−1
b) D, si AB t C = D
c) DA = B

3. Realice las operaciones matriciales, de acuerdo a:


 
      1 3
2 1 3 −1 2 3 −1
4. A = ,B = ,C = , D =  −1 0 , E =
0 −1 9 1 4 2 0
−1 4
 
1 0 1
0 1 1

a) 4At − 3C
t
b) (B − 2E)
c) (DE)t
d) A2 − A − 6I3

5. Un cinema tiene 4 salas de I a IV. El precio de cada función es de US $ 20 por niño; US


$ 30 por estudiante y US $ 40 por adulto. La asistencia a una proyección está dada por la
matriz:
 
225 110 50 Sala 1
 75 180 225  Sala 2
 
 280 85 110  Sala 3
10 250 225 Sala 4
Las columnas representan, respectivamente niños, estudiantes y adultos.
a) Escriba una matriz columna, que represente el precio de la entrada por sala.
b) Calcule la matriz que representa el ingreso bruto de cada sala.
c) Encuentre el ingreso total por concepto de entradas a cada función.
1. Sistemas de ecuaciones lineales 44

6. Dada las matrices:


   
2 −α −1 β −2 1
A= 3 0 −1  y C= 2 β β 
−1 −1 −2 α 0 β

a) Hallar A + C
b) ¿Para cuál valor de α la matriz A es simétrica?
c) ¿Para cuáles vales de α y β la matriz C es es Antisimétrica?
d) ¿Para cuáles valores de α y β, la matriz A + C es triangular inferior?

7. Pruebe que el elemento neutro para la suma de matrices en Rm×n es único, es decir, si 0 y
0′1 son tales que para toda matriz A ∈ Rm×n A + 0 = 0 + A = A y A + 0′ = 0′ + A = A,
entonces 0 = 0′
8. Dado que:
   π   
4 2 8
a =  1 , b =  1  y c =  1 
−1 4 3

9. Realice las siguientes operaciones


 
a) 23 a . 45 b c) 2a.(3b + c) e) 4c.(−a + 2b)
b) (b).(3c − a) d) (πa − 4c).(b − a)

10. Realice los cálculos indicados

a) e)
   
4 3 4 1 
2 −3 5
 
1 4 6

.
−1 2 5 6  1 0 6  .  −2 3 5 
2 3 1 1 0 4
b)

0.325 −0.254
 
52 55
 f)
.
0.25 0.254 11 212  
  1
c) 3 2 1 −2  4 
. 
    −6 4 0 6  0 
1 −6 −4 5
. 2
2 5 7 3
g)
d)  
  3 −6
4 5    2 4 
 1 4 . 5 5 1 1 4 0 2 
 1

0 
2 −2 5
−2 1 −2 3
1 En este caso los ceros 0, representan la matriz nula
1. Sistemas de ecuaciones lineales 45

h)
  
a b c 1 0 0
 d e f  0 1 0 
g h i 0 0 1
a, b...h, i ∈ R
 
a b
11. Encuentre una matriz A = tal que:
c d
   
0.31 0.21 1 0
A· =
−0.92 0.36 0 1
 
a b
12. Si A = , encuentre las componentes a, b, c y d 6= 0 tal que se cumpla que
 c 
d
0 0
A2 =
0 0
13. Verifique la ley asociativa si:
   
  1 0 1 1 6
2 −1 4
A= ,B =  2 −1 2  y C =  −2 4 
1 0 6
3 −2 0 0 5

14. Se dice que dos vectores a y b son ortogonales si a · b = 0, determine cuales pares de
vectores son ortogonales.

a)    c)   
2 3 1 2
−3 2  4  3 
−7 2
b)   
2 −3 d)
 
−3 2 1 0 1 0 . 0 1 0 1

15. Si tenemos que:


 
1 −1 1
A= 2 1 5 
0 0 4

Calcule A2 , A3 y A4
16. Una matriz A de n× n tiene la propiedad de que AB es la matriz cero para cualquier matriz
B de n × n. Pruebe que A es una matriz cero.
17. Encuentre al sistema no homogéneo dado, encontrando primero una solución (si es posible)
y después todas las soluciones al sistema homogéneo asociado:
1. Sistemas de ecuaciones lineales 46

a) d)
−8x1 + 4x2 = 1
x1 − x2 + x3 = 6
−x1 + 4x2 = 0
3x1 − 3x2 + 3x3 = 18
b)
4x1 + 5x2 − 7x3 = −1 e)
3x1 − 6x2 − x3 = 3
4 2 6
2x1 + 9x2 − 9x3 = 1 x1 − x2 − x3 = 1
5 3 7
c) 6 5
x1 − x2 + x3 = 1
5 7
x1 + x2 − x3 + 2x4 = 3 5 9
x1 + x2 = 3
3x1 + 2x2 + x3 − x4 = 5 7 7

1.8. La transpuesta de una matriz


.:Definición 1.24 Sea A una matriz de tamaño m × n. La matriz transpuesta, denotada con At
está dada por

(At )ij = Aji con 1 ≤ i ≤ n y 1≤j≤m


   
a11 a12 ... a1n a11 a21 ... an1
 a21 a22 ... a2n   a12 a22 ... an2 
At = 
   
A= .. .. .. ..  y .. .. .. .. 
 . . . .   . . . . 
am1 am2 ... amn a1m a2m ... anm
Es decir, es la matriz que se obtiene al intercambiar las filas por las columnas de A. La matriz
At tiene tamaño n × m.

Para encontrar la matriz transpuesta sólo debemos cambiar el orden de las componentes, es decir,
si tenemos un 5 en la componente a32 , al realizar la transpuesta este número estaría en la posición
a23 .

Ejemplo 1.31 Encuentre la transpuesta de las siguientes matrices


 
  5 −5 2
2 5 6  2
 3 0   
A =  −4 −8 1  , B =  3  1 1  , C = 2 5 6
2 −2 3  −1 2 7 
2 7 8
 
2 −4 2
At =  5 −8 −2 
6 1 3
1. Sistemas de ecuaciones lineales 47

Al hallar At se puede ver que la componente a13 = 6, en At que daría en la posición a31 .
 
5 2 3 −1 2
B t =  −5 3 1 2 7 
2 0 1 7 8
Al hallar B t podemos observar que el tamaño de la matriz cambia, siempre que ésta no sea
t
cuadrada, en este caso B5×3 y B3×5 .
 
2
Ct =  5 
6
En este caso, C es un vector fila y C t es un vector columna.

Otra característica importante de la matriz transpuesta es la relacionada con la diagonal. Si


observamos la diagonal de A y At son iguales. Éste fenómeno ocurre debido a la misma definición
de transpuesta, pues aij = aji .

1.8.1. Propiedades de la matriz transpuesta


.:Teorema 1.7 Sea A = (aij ) una de tamaño n × m y B = (bij ) de tamaño m × p, entonces
t
1. (At ) = A.
2. (A + B)t = At + B t si A y B son del mismo tamaño.
t
3. (kA) = kAt con k ∈ R.
t
4. (AB) = B t At .
5. Si A es invertible, entonces At es invertible y además (At )−1 = (A−1 )t .
Demostración:

1. Es fácil ver que cualquier componente de aij al transponerse pasa a la posición aji , luego
al transponer de nuevo vuelve a la posición aij .
2. Sea A y B de tamaño m × n dadas de la siguiente forma
   
a11 a12 ... a1n b11 b12 ... b1n

 a21 a22 ... a2n 


 b21 b22 ... b2n 

A= .. .. .. ..  y B= .. .. .. .. 
 . . . .   . . . . 
am1 am2 ... amn bm1 bm2 ... bmn
Si hallamos la suma obtenemos:
 
a11 + b11 a12 + b12 ... a1n + b1n

 a21 + b21 a22 + b22 ... a2n + b2n 

A+B =  .. .. .. .. 
 . . . . 
am1 + bm1 am2 + bm2 ... amn + bmn
1. Sistemas de ecuaciones lineales 48

Ahora hallamos la transpuesta de la suma


 
a11 + b11 a21 + b21 ... am1 + bm1
 a12 + b12 a22 + b22 ... am2 + bm2 
(A + B)t = 
 
.. .. .. .. 
 . . . . 
a1n + b1n a2n + b2n ... amn + bmn

Ahora podemos separar de nuevo las variables

   
a11 a21 ... an1 b11 b21 ... bn1
 a12 a22 ... an2   b12 b22 ... bn2 
(A + B)t = +
   
 .. .. .. .. .. .. .. .. 
 . . . .   . . . . 
a1m a2m ... anm b1m b2m ... bnm

= At + B t

3. Se deja como ejercicio al lector


4. Sea A = (aij ) de n × m y B = (bij ) de m × p, entonces (AB)t = B t At .
Teniendo en cuenta los tamaños de A y B, debemos analizar el tamaño de las matrices para
garantizar que el producto este definido. El tamaño de AB es n × p, luego el tamaño de
(AB)t es de p × n. B t es de p × m y At es de m × n, luego, B t At es de p × n. Ésto nos
dice que la multiplicación es viable.

Ahora bien, veamos el componente ij−ésimo de AB

m
X
aik bkj
k=1

éste, a su vez, es la componente ji−ésimo de (AB)t . Ahora, tomemos C = B t y D = At ,


si C = (cij ), siendo cij = bji , y si D = (dij ) entonces dij = aji . El elemento ji de CD
es

m
X m
X m
X
DC = B t At = cjk dki = ckj dik = cik dkj
k=1 k=1 k=1

que es el elemento ji− ésimo de (AB)t .


5. Ver la demostración del teorema 1.14

Q.E.D

.:Definición 1.25 Sea A una matriz de n × n, se dice que A es simétrica cuando aij = aji para
todo i, j = 1, 2, 3 . . . n. Es decir, cuando A = At
1. Sistemas de ecuaciones lineales 49

En este caso, la simetría se da con respecto a la diagonal principal. Éste tipo de matrices es
muy común en teoría de grafos, en la elaboración de matriz de adyacencia. El siguiente ejemplo
muestra su uso.

Ejemplo 1.32

Sea G el siguiente grafo no dirigido.

A 3
B 6

C 5
4

E
D

Encuentre la matriz de adyacencia del grafo G y determine si es simétrica.

La matriz de adyacencia se construye ubicando como filas y columnas los nodos del grafo G, las
posiciones correspondientes a la diagonal se llenan con cero, pues la distancia entre un nodo y el
mismo es cero. Luego, la posición a12 corresponde a la distancia entre el nodo A y el nodo B, la
cual es tres. De la misma manera, la posición a21 se llena con la distancia entre el nodo B y el
nodo A, que es , tres. De la misma forma se realiza para todos los nodos.
 
A B C D E
 A 0 3 3 4 0 
 
 B 3 0 0 0 6 
MG =   C 3 0 0 3 5 

 
 D 4 0 3 0 0 
E 0 6 5 0 0
Podemos ver que la matriz MG es simétrica, pues es igual decir que hay 5 unidades entre los
nodos C y E y los nodos E y C.

.:Definición 1.26 Sea A una matriz de n × n, se dice que A es antisimétrica o hemisimétrica


cuando aij = −aji para todo i, j = 1, 2, 3 . . . n. Es decir, cuando A = −At

Ejemplo 1.33

La matriz A es antisimétrica
1. Sistemas de ecuaciones lineales 50

 
0 −8 2 −3
 8 0 −4 −1 
A=
 −2

4 0 3 
3 1 −3 0
Note que todos los elementos de la diagonal principal son cero. Ahora obtenemos la transpuesta
de la matriz.
 
0 8 −2 3
 −8 0 4 1 
At =   2 −4

0 −3 
−3 −1 3 0
Podemos ver que A = −At .
Ejercicios 1.5
   
2 −1 5 −3 −4 2
1. Dadas las matrices: A = , B = ,C =
  0 1 −2 5 −1 −7
−4 6 8
, encuentre
10 −1 13

a) At − 2B t
b) 5At + B t + C t
c) At − 5B t + C t
d) 4 (At + B t ) t + 3(4B − 5C)
t t
e) 15 (At + B t − C t ) + 5 (B t + C t )
2. Sean A y B matrices de orden m × n y λ un escalar, probar que:
t
a) (At ) = A
b) (A + B)t = At + B t
c) (λA)t = λAt
3. Para cada condición dada, hallar una matriz A que satisfaga:
a) A es a la vez triangular superior y triangular inferior.
b) A es a la vez simétrica y Antisimétrica
c) At = A
d) At = −A
4. Sean A y B matrices cuadradas de orden n, probar:
a) Si A es simétrica, entonces, para todo escalar λ, λA es matriz simétrica.
b) Si A es antisimétrica, entonces, para todo escalar λ, λA es matriz antisimétrica.
c) Si A y B son simétricas, entonces A + B es simétrica
5. Pruebe que An×n es una matriz simétrica, At A también es simétrica
6. Encuentre la traspuesta de las matrices dadas:
1. Sistemas de ecuaciones lineales 51

a)   e)
−1 4
 
6 5 8 7 4 6
b)  9 6 8 1 
   
3 0  2 2 5 4 
1 2 7 0 2 0
c)  
1 2 3
 −1 0 4  f)
1 5 5  
5 4 1 2
d)  3

1 2 3

 6 4 1 

 2 4 −5   0 1 4 0 
1 2 3 5
3 −5 7

7. Sea A de n × n. Demuestre que la matriz 12 (A + At ) es simétrica.


8. Sea A de n × n. Demuestre que la matriz 21 (A − At ) es antisimétrica.
9. Demuestre que cualquier matriz cuadrada se puede escribir de una manera única como la
suma de una matriz simétrica y una matriz antisimétrica.
10. Dadas las siguientes matrices

a)   b)  
3 2 1 1 1 1
A= 0 2 2  A= 0 2 3 
0 0 −1 5 5 1

muestre que (At )−1 y (A−1 )t son iguales

1.9. La inversa de una matriz


Cuando estudiamos el curso de aritmética, nos encontramos con una propiedad de los números
reales llamada inverso multiplicativo. Un número a tiene un inverso multiplicativo denotado como
1 −1
a oa , al multiplicar dicho numero a por su inverso el resultado siempre es 1.

Esta propiedad de los números reales no sólo es usada en aritmética, en el álgebra se usa para
resolver ecuaciones lineales simples. Supongamos que tenemos la siguiente ecuación:

3x = 18 (1.13)
La ecuación anterior nos puede parecer fácil de resolver. Si usamos la propiedad del inverso
multiplicativo de los números reales, podremos encontrar el valor de x. Ahora, procedemos a
multiplicar por 13 (el inverso multiplicativo de 3) a ambos lados de la ecuación:
   
1 1
3x = 18
3 3
1. Sistemas de ecuaciones lineales 52

obtendremos

(1)x = 6 (1.14)
x = 6

Este ejemplo, muestra como una propiedad tan simple nos permite resolver ecuaciones que
eventualmente pueden ser mas complejas. De igual manera, en Álgebra lineal se presenta una
situación muy parecida. En este caso tenemos el siguiente sistema:

AX = b (1.15)
Donde A es una matriz de coeficientes, X es un vector de incógnitas y b es el vector de términos
independientes. Hasta ahora, hemos aplicado métodos como la eliminación Gaussiana y el
método de Gauss-Jordan para resolver la ecuación (1.15). Pero ahora, veremos que para resolver
este tipo de ecuaciones, sólo necesitamos encontrar (como en el caso de 3 en la ecuación (1.13))
la inversa de la matriz A.

.:Definición 1.27 Matriz Identidad: Una matriz Identidad de tamaño n × n, es una matriz en la
que todos los elementos de la diagonal principal son unos, los elementos por fuera de la diagonal
son cero.
Los siguientes son ejemplos de matrices identidad

Ejemplo 1.34 Matrices identidad

 
1 0 0 ... 0
   0 1 0 ... 0 
  1 0 0  
1 0  0 0 1 ... 0 
I1 = 1, I2 = , I3 =  0 1 0  , . . . , In =  
0 1  .. .. .. .. .. 
0 0 1  . . . . . 
0 0 0 ... 1
Dicho de otra manera, podemos decir que si In es una matriz de componentes (aij ) entonces
podemos decir:

1 Si i = j
In = (aij ) =
0 Si i =
6 j
Ahora bien, para comprender mejor la importancia de la matriz identidad veremos el siguiente
teorema:

.:Teorema 1.8 Sea A una matriz cuadrada de tamaño n × n e In la matriz identidad de tamaño
n × n. Entonces

AIn = A
y

In A = A
1. Sistemas de ecuaciones lineales 53

Demostración:

Tomemos A = (aij ) e In = (kij ) y supongamos que C = (cij ) de modo que C = AIn . Ahora
bien, si C es el producto de A e In entonces cualquier elemento de C se puede expresar de la
siguiente forma:

cij = ai1 k1j + ai2 k2j + · · · + aij kjj + · · · + ain knj (1.16)
Si analizamos esta expresión, veremos que los elementos kij de In son cero excepto los elementos
que están en la diagonal, es decir, kjj = 1. Si retomamos la ecuación (1.16). teniendo en cuenta
el análisis anterior:

cij = ai1 k1j + ai2 k2j + · · · + aij kjj + · · · + ain knj


| {z } | {z } | {z } | {z }
0 0 aij (1) 0

tenemos entonces que

cij = aij
Lo que quiere decir que C = A, es decir que AIn = A.

Q.E.D.

De igual forma podemos demostrar que In A = A

Al observar que la matriz identidad, vemos que es el elemento neutro de la multiplicación de


matrices. Esto quiere decir que el producto de cualquier matriz por la matriz identidad (siempre
que este definido el producto) es la misma matriz.

La siguiente definición es clave para muchos temas de ahora en adelante.

.:Definición 1.28 La inversa de una Matriz: Sean A y B dos matrices de tamaño n × n, y


suponga que

AB = BA = In
Luego B es la inversa de A (también podemos decir que A es la inversa de B) y la denotaremos
como A−1 , tendríamos que

AA−1 = A−1 A = In
Diremos que si A tiene inversa entonces se dice que A es invertible o no singular. Si A no tiene
inversa se le llama singular.

Cuando hablamos de matrices invertibles, nos referimos a todas aquellas matrices a las cuales
podemos obtenerle su inversa. Existen muchas matrices que no tienen.

La siguiente es una definición más formal de la inversa de una matriz


1. Sistemas de ecuaciones lineales 54

.:Definición 1.29 Sea A una matriz cuadrada de orden n. Decimos que A es invertible si existe
una matriz B de orden n tal que AB = BA = In , en tal caso decimos que B es la inversa de A
y B = A−1 .

Retomando la analogía con las propiedades de los números reales, notamos que cuando
obtenemos el inverso de un número, éste es único, es decir, si tenemos un número a su inverso es
a−1 y es único, lo que implica que no existe otro número real que sea el inverso de a. De igual
manera, si tenemos una matriz A sólo existe una matriz A−1 que es la inversa de A. Veamos el
siguiente teorema.

.:Teorema 1.9 Sea A una matriz cuadrada de tamaño n × n invertible, entonces su inversa es
única

Demostración:

Al igual que en las demostraciones de unicidad de un elemento, la mejor estrategia es suponer


la falsedad del enunciado y llegar a una contradicción: Supongamos que A tiene dos matrices
inversa llamadas B y C de tal forma que B 6= C.

Ahora bien, tenemos que AB = BA = I (por la definición (1.28) ).

De igual manera tendríamos que AC = CA = I (por la definición (1.28) ).

Ahora definamos el siguiente producto: BAC = BAC y aplicamos la ley asociativa de las
matrices de la siguiente forma B (AC) = (BA) C y como AC = I y BA = I al remplazar
obtenemos

B(I) = (I)C
Por el teorema (1.8) obtenemos que B = C lo que es una contradicción, es decir, una matriz no
puede tener dos inversas. Esto implica que la inversa de una matriz es única.

Q.E.D.

El siguiente teorema no se acomoda a la analogía que habríamos planteado, sin embargo, es uno
de los más importantes para la inversa de una matriz.

.:Teorema 1.10 Sean A y B dos matrices invertibles de n × n. Entonces


i) AB es invertible
ii) (AB)−1 = B −1 A−1

Demostración:

Para demostrar que (AB)−1 = B −1 A−1 basta demostrar que


 
B −1 A−1 (AB) = (AB) B −1 A−1 = In
1. Sistemas de ecuaciones lineales 55

Lo anterior con base en la definición 1.28. Ahora bien, si aplicamos la ley asociativa de el producto
de matrices, tenemos:
 
B −1 A−1 A B = A BB −1 A−1 = In
Ahora, por definición 1.28 tenemos que

B −1 (In ) B = A (In ) A−1 = In


y por Teorema 1.8

B −1 (In ) B = A (In ) A−1 = In


B −1 B = AA−1 = In
In = In = In

Esto implica que AB es invertible y su inversa es B −1 A−1 .

Q.E.D.

El teorema anterior puede extenderse a un número infinito de matrices, es decir; si tenemos

(A1 A2 . . . An−1 An )−1 = A−1 −1 −1 −1


n An−1 . . . A2 A1

1.10. La inversa de una matriz y la solución del sistema de


ecuaciones resultante
La relación entre la inversa de una matriz y la resolución del sistema AX = b se basa en encontrar
A−1 . Tomemos de nuevo la ecuación (1.15);

AX = b
Supongamos que A es invertible, es decir, que podemos hallar A−1 . Ahora, multiplicamos por la
izquierda A−1 a cada lado de la ecuación

A−1 AX = A−1 b

A−1 A X = A−1 b
In X = A−1 b
X = A−1 b (1.17)

Tenga en cuenta que el tamaño de A−1 es de tamaño n × n y el tamaño de el vector b es de n × 1,


lo que nos indica que X tiene un tamaño de n × 1.

El resultado obtenido en la ecuación (1.17) se convierte en parte esencial de la resolución de


sistemas de ecuaciones lineales.
1. Sistemas de ecuaciones lineales 56

.:Teorema 1.11 Sea A una matriz de tamaño n × n e invertible, entonces el sistema AX = b


tiene solución única.

Demostración:

La demostración de este teorema es por contradicción: Supongamos que A tiene dos inversas
llamadas A′−1 y A−1 , tal que A′−1 6= A−1 y por definición tenemos que:

AA′−1 = I

y
AA−1 = I
Entonces, podemos igualar ambos resultados:

AA′−1 = AA−1
Ahora bien, como A es invertible tomemos A−1 y multiplicamos por la izquierda a ambos lados
de la ecuación:

A−1 AA′−1 = A−1 AA−1


 
A−1 A A′−1 = A−1 A A−1 Asociando
′−1 −1
IA = IA Por definición de inversa de A

luego A′−1 = A−1 lo que contradice la hipótesis, luego el sistema AX = b tiene solución única.

Q.E.D.

El siguiente teorema expone la relación existente entre la inversa de una matriz y la cantidad de
soluciones de un sistema de ecuaciones lineales

.:Teorema 1.12 Sea A una matriz de tamaño n × n, entonces


1. A es invertible si y sólo si es posible convertirla en In por medio de operaciones
elementales por fila, es decir si I es la FERR de A.
2. A es invertible si y sólo si su FERR tiene n pivotes

Demostración:

La demostración la podemos describir de la siguiente forma:

Supongamos que A es invertible, entonces podemos realizar k operaciones elementales por fila en
A cuando hacemos el proceso de encontrar su inversa, luego como A tiene inversa, éste proceso
es finito, después de varios pasos la matriz A se convierte en la identidad

A → In
Lo que nos dice que:
1. Sistemas de ecuaciones lineales 57

1. En el proceso, ninguna fila se hizo nula, pues la matriz identidad no tiene filas nulas.
2. Lo anterior implica que todas las filas tienen pivote, debido a que la matriz nula no tiene
filas nulas.
3. Por 1) y 2) In es la forma FERR de A.
Ahora tomemos la La matriz A, su forma FERR tiene n pivotes luego, es posible hacer estas
mismas operaciones en la matriz identidad sin producir filas nulas, , llamemos a esta nueva matriz
B, dicha matriz al multiplicarse por la matriz A daría como resultado la matriz In , lo que implica
que

AB = I
y por definición, B es la inversa de A, luego A es invertible, tiene n pivotes.

De otro lado, si A es invertible, entonces el sistema AX = b tiene solución única para cualquier
vector, pues por el teorema 1.11

AX = b
A−1 AX = A−1 b
In X = A−1 b
X = A−1 b
Observe que no hay restricciones para el vector b, la condición recae sobre la matriz A, la cual
debe ser invertible.
Q.E.D.
Ejemplo 1.35 Resuelva el sistema de ecuaciones lineales 2 × 2
x − 9y = 5
−2x + 5y = 1
usando la inversa de la matriz de cofactores
 5 9

  − 13 − 13
1 −9
A= y A−1 =  
−2 5 2 1
− 13 − 13
Solución:
Como sabemos X = A−1 b, simplemente multiplicamos A−1 por el vector de términos
independientes b:
X = A−1 b
 5 9
 
  − 13 − 13 5
x
=   
y 2 1
− 13 − 13 1
 34

− 13
=  
11
− 13
1. Sistemas de ecuaciones lineales 58

Observemos que el vector b puede ser cualquier vector, inclusive es independiente de la inversa
de la matriz, si en este momento nos pidieran encontrar la solución al sistema

x − 9y = 6
−2x + 5y = 8

Se realiza el mismo procedimiento y no tendríamos que hacerle cambios a la matriz A,


simplemente cambiamos el vector b.

X = A−1 b
 5 9
 
  − 13 − 13 6
x
=   
y 2 1
− 13 − 13 8
 
− 102
13
=  
− 20
13

Pero, el problema persiste: ¿Cómo hallar la inversa de una matriz?.

1.10.1. Métodos para hallar la inversa de una matriz


Existen muchos métodos que permiten hallar la inversa de una matriz, la forma más común es
tomar la matriz y convertirla en la identidad a través de operaciones elementales por filas, luego,
hacemos estas mismas operaciones a una matriz identidad.

Ejemplo 1.36

tomemos
 
2 3
A=
5 −4
Ahora ponemos las dos matrices una al lado de la otra
 
2 3 | 1 0
5 −4 | 0 1
Hacemos operaciones elementales por fila hasta convertir la matriz A en la identidad y la matriz
identidad en A−1
 
1 23 | 21 0
 
5 −4 | 0 1
Al realizar una operación elemental, esta se ejecuta en ambas matrices.
1. Sistemas de ecuaciones lineales 59

 3 1

1 2 | 2 0
 
5 −4 | 0 1
 3 1

1 2 | 2 0
 
0 − 23
2 | − 25 1
 3 1

1 2 | 2 0
 
5 2
0 1 | 23 − 23
3
Ahora eliminamos 2 en A
 4 3

1 0 | 23 23
 
5 2
0 1 | 23 − 23
 4 3

23 23
Entonces A−1 =  
5 2
23 − 23
−1
Es fácil verificar que AA = I = A−1 A

Ejemplo 1.37

Otra forma de hallar la inversa de una matriz es aprovecharse de la la definición de inversa, es


decir, si AA−1 = In entonces suponemos la existencia de A−1 , tomemos la misma matriz A
 
2 3
5 −4
 
x y
Supongamos que A−1 = , entonces
z w
AA−1 = I
    
2 3 x y 1 0
=
5 −4 z w 0 1
Si realizamos la multiplicación de la primera fila por la primera columna tenemos 2x + 3z = 1,
para la segunda componente tenemos 2y + 3w = 0, las otras dos componentes 5x − 4z = 0 y
5y − 4w = 1.
3w
De 2y + 3w = 0 tenemos que y = − y reemplazamos en 5y − 4w = 1
2
 
3w
5 − − 4w = 1
2
2
w = −
23
1. Sistemas de ecuaciones lineales 60

2 3
Ahora, con w = − tenemos que y =
23 23
4z
De 5x − 4z = 0 despejamos x y tenemos x = y remplazamos en 2x + 3z = 1
5

 
4z
2 + 3z = 1
5
5
z =
23
5 4
Con z = encontramos x = , de nuevo
23 23
 4 3

23 23
A−1 =  
5 2
23 − 23
El método es bueno para matrices pequeñas (2 × 2 o 3 × 3), para matrices más grandes se vuelve
muy lento. Existen otros métodos para hallar la inversa, uno de ellos es con la matriz Adjunta,
pero este tema lo trataremos más adelante.

Ejemplo 1.38

Sea
 
1 5 1
A =  0 1 −2 
1 −1 −1
hallar A−1

Usamos el primer método


   
1 5 1 | 1 0 0 1 5 1 | 1 0 0
 0 1 −2 | 0 1 0 = 0 1 −2 | 0 1 0 
1 −1 −1 | 0 0 1 0 −6 −2 | −1 0 1
   
1 5 1 | 1 0 0 1 5 1 | 1 0 0
 0 1 −2 | 0 1 0 = 0 1 −2 | 0 1 0 
0 −6 −2 | −1 0 1 0 0 −14 | −1 6 1
En algunas ocasiones es recomendable no simplificar los fraccionarios
  
1 5 1 | 1 0 0 1 5 0 | 13 −1 0

   14
   
 0 1 −2 | 0 1 0  2 2 2

 = 0 1 0 | 14 14 − 14 
   


 1 6 1  1 6 1
0 0 1 | − − 0 0 1 | 14 − 14 − 14
14 14 14
1. Sistemas de ecuaciones lineales 61

 3 4 11

1 0 0 | 14 − 14 14
 
 2 2

2 
 0 1 0 | − 14
 14 14 
 
1 6 1
0 0 1 | 14 − 14 − 14
Luego  
3
14 − 72 11
14
 
−1
 1 1

A =
 7 7 − 17 

 
1
14 − 73 1
− 14
El siguiente teorema muestra una de las propiedades de la matriz inversa.

−1
.:Teorema 1.13 Si A es invertible, entonces A−1 es invertible y además A−1 =A

Demostración:

Tomemos la siguiente igualdad

A=A
Como A es invertible, existe A−1 . Multiplicamos A−1 a ambos la dos de la ecuación

A−1 A = AA−1 = In
Pero esta igualdad también muestra que A−1 tiene inversa, la cual es A, por lo tanto A es invertible
−1
y además A−1 =A

Q.E.D.

Ejemplo 1.39

Veamos, sí:  
3 5 −7
A= 4 5 1 
7 −9 1
y
 7 29 20

277 277 277
 
−1
 3 26 31

A =
 554 277 − 554 

 
71 31 5
− 554 277 − 554
Observemos que:  
 3 5 −7
−1
A−1 = 4 5 1 
7 −9 1
1. Sistemas de ecuaciones lineales 62

.:Teorema 1.14 Si A es invertible de tamaño n × n, entonces At es invertible y además


(At )−1 = (A−1 )t .

Demostración:

Si A es invertible entonces

AA−1 = A−1 A = I
Teniendo en cuenta el teorema 1.7 parte 4

(AA−1 )t = (A−1 )t At = I t = I
por lo tanto, cumple con la definición 1.28, lo que implica que At es invertible y además (A−1 )t
es el inverso de At

Q.E.D.

Ejemplo 1.40

Sea:
 1 3 11

  62 − 62 62
2 3 −7 



−1 13 23 6
A= 2 1 5  y A =
 62 62 − 31 

6 0 2  
3 9 1
− 62 62 − 31
y verifiquemos que (At )−1 = (A−1 )t . primero (At )−1

 −1
2 2 6
(At )−1 =  3 1 0 
−7 5 2
 1 13 3

62 62 − 62
 
 
=  −3 23 9 
 62 62 62 
 
11 6 1
62 − 31 − 31

Ahora (A−1 )t :
1. Sistemas de ecuaciones lineales 63

 1 3 11
t
62 − 62 62
 
−1 t
 13 23 6

(A ) = 
 62 62 − 31 

 
3 9 1
− 62 62 − 31
 1 13 3

62 62 − 62
 
 3 23 9

 − 62
=  
62 62 
 
11 6 1
62 − 31 − 31

luego (At )−1 = (A−1 )t .

Ejercicios 1.6

1. Encuentre la inversa (si es posible) de las siguientes matrices

a)   e)
1 3  
3 1 1 −3 0 −2
 3 −12 −2 −6 
b)    
 −2 10 2 5 
π 2π
2π π −1 6 1 3
5 2
c)  
1 0 8 f)
 6 1 0 
1 3 1  
0.2 −0.5 0.7 0.02
d)    −0.24 −0.9 0.1 0.2 
5 6 7 
 0.14

 1 −3 5  0.14 0.8 −0.1 
4 9 7 −0.25 0.1 0.2 0.8

2. Calcule la matriz inversa (A−1 ), y explique su respuesta para:


 
0 1
a) A=
1 0
 
1 0 0
b) A= 0 2 0 
0 0 1
 
0 0
c) A=
0 0

3. Calcule la matriz inversa (A−1 ), empleando el método de reducción de renglones, es decir:


[A| I] ⇋[I |A−1 ]
1. Sistemas de ecuaciones lineales 64

 
1 −2 0
a) A= 0 −4 −1 
5 3 2
 
1 2
b) A=
3 −4
 
4 −2 6 1
 −2 1 −3 1 
c) A= 6 −3 9

1 
1 1 1 1

4. Calcule la matriz inversa (A−1 ), empleando el método de multiplicación e igualdad de


matrices, es decir: AA−1 =I n . Donde A−1 es una matriz de R.
 
1 −2 0
a) A= 0 −4 −1 
5 3 2
 
1 2
b) A=
3 −4
 
4 −2 6 1
 −2 1 −3 1 
c) A= 6 −3 9 1 

1 1 1 1
 
    2 9 4
7 1 −4 3
5. Para las matrices A= ,B = ,C =  6 2 −4 , D =
3 −2 −7 −8
  0 −1 9
1 0 −1
 −4 1 3 
−3 1 −7

a) Probar (AB)−1 = B −1 A−1


 T  −1
−1 T
b) Comprobar (C + D) = (C + D)

6. Muestre que si A, B y C son invertibles, entonces ABC es invertible y además


(ABC)−1 = C −1 B −1 A−1
7. Si A1 , A2, , ..., Am son matrices invertibles de n×n muestre que A1 .A2 .....Am es invertible
y calcule su inversa.
 
3 4
8. Muestre que es su propia inversa.
−2 −3
 
a11 a12
9. Muestre que es su propia inversa si A = ±I o si a11 = −a22 y
a21 a22
a21 a12 = 1 − a211
1. Sistemas de ecuaciones lineales 65

 
7 0 0
10. Calcule la inversa de  0 9 0 
0 0 −3
11. Una matriz cuadrada se llama diagonal si todos los elementos fuera de la diagonal son
diferentes de cero. muestre que una matriz diagonal es invertible si y solo si cada uno de
los elementos de la diagonal es diferente de cero.
 
a11 0 ...... 0

 0 a22 ...... 0 

 .. .. .. .. 
 . . . . 
0 0 . . . . . . ann

12. Calcule la inversa de A si:


 
2 1 −1
A= 0 3 4 
0 0 5

13. Muestre que la matriz A no es invertible si:


 
1 0 0
A =  −2 1 0 
4 6 1

14. Una matriz es triangular superior (o inferior ) cuando todos los elementos abajo (o arriba)
de la diagonal principal son cero. Demuestre que una matriz triangular superior o triangular
inferior es invertible si y solo si cada uno de los elementos de la diagonal es diferente de
cero.

1.11. Factorización de matrices


Existen varias formas de factorizar una matriz, las dos más comunes son la factorización en
matrices elementales y la factorización A = LU o de forma más general P A = LU . En ésta
sección trabajaremos ambas factorizaciones.

1.11.1. Factorización en matrices elementales


Para empezar, recordemos las operaciones elementales por filas:
Multiplicar el renglón o fila i por un número k 6= 0: fi −→ kfi
Sumar un múltiplo de la fila i a la fila j: fj −→ fj + kfi
Permutar o intercambiar dos filas: fi ⇆ fj
1. Sistemas de ecuaciones lineales 66

En aritmética, el teorema fundamental o teorema de factorización única afirma que todo entero
positivo se puede representar de forma única como producto de factores primos. Por ejemplo:

521478 = 2 × 35 × 29 × 37
De igual manera, podemos representar una matriz como el producto de otras matrices, las cuales
llamaremos elementales. Empezaremos por definir una matriz elemental.

.:Definición 1.30 Matriz Elemental:


Sea E una matriz cuadrada de orden n. Decimos que E es una matriz elemental si se puede
obtener de aplicarle una sola operación elemental a la matriz identidad de tamaño n.

Ejemplo 1.41

Sean      
1 0 0 1 0 0 0 0 1
E1 =  0 1 0 , E2 =  0 1 0 , E3 =  0 1 0 
0 0 7 −8 0 1 1 0 0

La matriz E1 es una matriz elemental, debido a que se obtuvo de tomar la matriz I3 y la


operación elemental f3 −→ 7f3 .

La matriz E2 es una matriz elemental por que se obtuvo de tomar I3 y aplicarle la operación
f3 −→ f3 + (−8)f1 .

De igual forma, la matriz E3 es una matriz elemental porque se obtuvo de realizar la


operación elemental f1 ⇆ f3

Para mostrar la importancia de las matrices elementales, observemos lo que ocurre con los
siguientes productos de matrices:

Ejemplo 1.42

Sea
 
1 2 −2
A= 0 1 −1 
3 2 4
y queremos aplicar la operación elemental f3 → f3 + (−3)f1
 
1 2 −2
A =  0 1 −1  (1.18)
0 −4 10
Ahora, consideremos la matriz elemental E de 3 × 3, la cual se obtuvo de tomar la matriz I3 y
aplicarle la operación elemental f3 → f3 + (−3)f1 , tenemos
1. Sistemas de ecuaciones lineales 67

 
1 0 0
E= 0 1 0 
−3 0 1
y consideremos la multiplicación entre E y A
    
1 0 0 1 2 −2 1 2 −2
 0 1 0  0 1 −1  =  0 1 −1  (1.19)
−3 0 1 3 2 4 0 −4 10
Luego, según lo visto en las matrices de las ecuaciones (1.18) y (1.19), es posible que las
operaciones elementales por fila se reduzcan a la multiplicación de una matriz elemental por
la matriz en cuestión.

Ejemplo 1.43

Sea  
0 1 −1
B= 0 3 0 
1 7 −1
y queremos intercambiar las filas 1 y 3 de tal forma que f1 ⇆ f3 . La matriz E la obtenemos de
aplicarle a la matriz I3 dicha operación. Entonces
    
0 0 1 0 1 −1 1 7 −1
 0 1 0  0 3 0  =  0 3 0 
1 0 0 1 7 −1 0 1 −1
podemos ver que la matriz de permutación E realizó en la matriz B, el efecto de la operación
elemental f1 ⇆ f3 .

Ejemplo 1.44

Ahora, tomemos la matriz M ,


 
6 −7 3
M = 4 −6 −1 
2 3 7
queremos multiplicar la fila 2 por -1, es decir, f2 → (−1)f2 , de nuevo la matriz E se obtiene al
aplicarle a la matriz I3 la operación elemental f2 → (−1)f2
    
1 0 0 6 −7 3 6 −7 3
 0 −1 0   4 −6 −1  =  −4 6 1 
0 0 1 2 3 7 2 3 7
Los ejemplos anteriores muestran que las operaciones elementales pueden ser reemplazados por
multiplicaciones por la izquierda de matrices elementales. El siguiente teorema ilustra lo descrito
en los ejemplos anteriores.
1. Sistemas de ecuaciones lineales 68

.:Teorema 1.15 Sea A una matriz de tamaño m × n y E una matriz elemental de tamaño m × m.
La matriz EA es la misma que se obtiene al realizar sobre las filas de A la operación elemental
correspondiente a la matriz E.

Demostración:

La prueba debe hacerse para los tres tipos de matrices elementales. La siguiente demostración se
hará para la matriz elemental relacionada con la operación elemental fi → fi + (k)fj

Suponga que B = EA, donde B es el producto de E por A. Ahora, comparemos las filas de B y
de A.

Observemos que la fila i de E es igual a la fila i de Im

E = Im = (0 . . . 0 1 0 . . . 0)
Ahora bien, recordemos que Bi es el producto de Ei por A, es decir .

Bi = Ei A = (0 . . . 0 1 0 . . . 0)A

Ei A = 0A1 + · · · + 0Ai−1 + · · · + (1)Ai + · · · + 0Ai+1 + · · · + 0Am


Luego,

Bi = Ei A = Ai
Bi = Ai

Esto nos dice que las filas de B son iguales a las filas de A, Ahora bien, la Er tiene en su s−ésimo
posición el número (−k), su r−ésimo componente es 1, las demás son cero. Observemos que:

Er A = (0 . . . (−k) . . . 0 1 0 . . . 0)
= 0A1 + · · · + (−k)As + · · · + 0Ar−1 + Ar + 0Ar+1 + · · · + 0Am
= Ar − kAs

Esto implica que B y EA sólo difieren de en su r−ésima fila y esta se obtiene al sustraer a la fila
r de A, la fila s de A multiplicada por el escalar k.

Q.E.D.

El teorema 1.15 nos permite afirmar que podemos convertir una matriz A de n × n invertible, en
la matriz In al multiplicar por la izquierda matrices elementales.

Ejemplo 1.45 Sea  


1 3
A=
5 7
1. Sistemas de ecuaciones lineales 69

multiplicaremos matrices elementales hasta convertirla en la matriz In


    
1 0 1 3 1 3
=
−5 1 5 7 0 −8
| {z }
E1

Ahora
    
1 0 1 3 1 3
=
0 −1 0 −8 0 1
| {z 8 }
E2

Luego
    
1 −3 1 3 1 0
=
0 1 0 1 0 1
| {z }
E3

Podemos decir que


      
1 −3 1 0 1 0 1 3 1 0
=
0 1 0 − 81 −5 1 5 7 0 1
| {z }| {z }| {z } | {z } | {z }
E3 E2 E1 A I2

Es decir

E3 E2 E1 A = I
Ahora bien, veamos el comportamiento de algunas matrices elementales, al tratar de obtener su
inversa.

Ejemplo 1.46

Sea la matriz elemental


 
1 −3
E1 =
0 1
observe que ocurre cuando multiplicamos la matriz E1 por la matriz
 
1 3
E2 =
0 1
al multiplicar tenemos:
    
1 −3 1 3 1 0
=
0 1 0 1 0 1

en el ejemplo anterior, vimos que E1 E2 = I2 , esto nos permite afirmar (parcialmente) que
E2 es la inversa de E1 , para corroborar esta afirmación, debemos ver que ocurre al hacer la
1. Sistemas de ecuaciones lineales 70

multiplicación de E2 E1 .

    
1 3 1 −3 1 0
=
0 1 0 1 0 1

Esto confirma que E2 es la inversa de E1 . Recordemos que E2 es la única matriz que puede ser
la inversa de E1 (Teorema 1.9).

Podemos conjeturar, que una matriz elemental que se obtiene al realizar la operación elemental
fi → fi +kfj sobre la matriz identidad, es invertible y además su inversa es otra matriz elemental
que se obtiene al realizar sobre la matriz identidad la operación elemental fi → fi + (−k)fj con
k∈R

Ahora, tomemos otro tipo de matriz elemental.

Ejemplo 1.47

Tomemos
   
1 0 1 0
E3 = 1 y E4 =
0 8 0 8
Ahora veamos los productos E3 E4 y E4 E3

    
1 0 1 0 1 0
E3 E4 = 1 =
0 8 0 8 0 1

    
1 0 1 0 1 0
E4 E3 = 1 =
0 8 0 8 0 1

De nuevo, podemos ver que E4 es la inversa de E3 . Se concluye que una matriz elemental que
se obtiene al realizar la operación elemental fi → kfi sobre la matriz identidad, es invertible y
además su inversa es otra matriz
 elemental que se obtiene al realizar sobre la matriz identidad la
operación elemental fi → k1 fi con k ∈ R y k 6= 0.

Ejemplo 1.48

Tomemos:
 
0 1
E5 =
1 0
1. Sistemas de ecuaciones lineales 71

E5 es una matriz elemental de permutación. Para obtenerla, sólo podemos realizar la operación
elemental f1 ⇆ f2 a la matriz identidad. Ahora bien, La matriz:
 
0 1
E6 =
1 0

es igual a la matriz E5 . Veamos que ocurre cuando hacemos los productos E5 E6 y E6 E5 .

    
0 1 0 1 1 0
E5 E6 = =
1 0 1 0 0 1

    
0 1 0 1 1 0
E5 E6 = =
1 0 1 0 0 1

En este caso podemos intuir que la inversa de una matriz elemental de permutación es ella misma2 .
Entonces, podemos concluir que una matriz elemental que se obtiene al realizar la operación
elemental fi ⇆ fj sobre la matriz identidad, es invertible y además su inversa es otra matriz
elemental que se obtiene al realizar sobre la matriz identidad la misma operación elemental
fi ⇆ fj .

Los ejemplos anteriores nos permiten concluir dos cosas:


1. Toda matriz elemental es invertible.

2. El cálculo de la inversa de una matriz elemental es relativamente fácil, pues la inversa de


una matriz elemental es otra matriz elemental del mismo tipo.
Los anteriores resultados podemos verlos resumidos en el siguiente teorema.

.:Teorema 1.16 Toda matriz elemental de orden n, es invertible y su inversa es una matriz
elemental del mismo tipo.

Demostración:

Debemos probar el teorema para los tres tipos de matrices elementales. Lo haremos sólo para el
caso fi → fi + kfj . los demás se demuestran en forma similar.

Sea E1 una matriz elemental obtenida al realizar sobre la matriz In la operación elemental
fi → fi + kfj , es decir, remplazaremos la fila i por la misma fila i sumando k veces la fila
j. Esto implica, que la fila i tendrá en la componente ij-ésima no un cero, sino el valor de k.
Entonces E1 tendría la siguiente forma:
2 Este es uno de los pocos casos en una matriz es su propia inversa.
1. Sistemas de ecuaciones lineales 72

Columna l

 
1 0 ··· 0 ··· 0 ··· 0

 0 1 ··· 0 ··· 0 ··· 0 

 .. .. .. .. .. 

 . . ··· . ··· . ··· . 


 0 0 ··· 1 ··· 0 ··· 0 
 → Fila j
E1 = 
 .. .. .. .. .. 

 . . ··· . ··· . ··· . 
0 0 1 0
 
 ··· k ··· ··· 

 .. .. .. .. ..
 →
 Fila i
 . . ··· . ··· . ··· . 
0 0 ··· 0 ··· 0 ··· 1

Columna j

Ahora tomemos la matriz E2 la cual, se obtiene al realizar sobre la matriz In la operación


elemental fi → fi + (−k)fj . Esto nos dice, que la fila i de E2 tendrá en la componente ij-
ésima no un cero, sino el valor de −k. Entonces E2 tendría la siguiente forma:

Columna l

 
1 0 ··· 0 ··· 0 ··· 0

 0 1 ··· 0 ··· 0 ··· 0 

 .. .. .. .. .. 

 . . ··· . ··· . ··· . 


 0 0 ··· 1 ··· 0 ··· 0 
 → Fila j
E2 = 
 .. .. .. .. .. 

 . . ··· . ··· . ··· . 
0 0 1 0
 
 ··· −k ··· ··· 

 .. .. .. .. ..
 →
 Fila i
 . . ··· . ··· . ··· . 
0 0 ··· 0 ··· 0 ··· 1

Columna j

Ahora bien, si E2 es la inversa de E1 debemos demostrar que E1 E2 = In y también que


E2 E1 = In . Recuerde que E1 y E2 son matrices elementales del mismo tipo. Tomemos
C = (cij ) de la siguiente forma:

C = E1 E2
Es decir, C es el producto de E1 = (aij ) y E2 = (bij ). Luego la componente cij de C es la
siguiente

cij = ai1 b1j + ai2 b2j + · · · + aij bjj + · · · + ail blj + · · · + ain bnj
| {z } | {z } | {z } | {z } | {z }
0 0 (k).(1) (1).(−k) 0

Observemos que todos los sumandos de cij son cero, excepto dos; el primero es aij bjj cuyo
resultado es k, por que aij = k y bjj = 1 por estar en la diagonal de E2 . El segundo es ail blj
1. Sistemas de ecuaciones lineales 73

cuyo resultado es −k, por que ail = 1 por estar en la diagonal de E1 y blj = −k (tenga en cuenta
que l en este caso tiene el mismo valor de i). Luego cij = 0 + 0 + · · ·+ k + · · · (−k)+ · · ·+ 0 = 0.

Luego C = In . Un análisis similar se puede hacer para el producto de E2 E1 , el cual nos permite
afirmar que E2 es la inversa de E1 .

Q.E.D.

Las matrices elementales tiene la propiedad de realizar operaciones elementales sobre una matriz,
las matrices elementales que son inversas de las primeras, pueden realizar la operación inversa y
dejar la matriz como estaba originalmente. Los resultados anteriores nos permiten visualizar que
la factorización de una matriz en matrices elementales, solo es posible para matrices invertibles.

.:Teorema 1.17 Una matriz cuadrada es invertible si y sólo si es el producto de matrices


elementales

Demostración:
En este caso veremos que si A es el producto de matrices elementales, entonces es invertible.
Tomemos A = E1 E2 E3 . . . Em de tal forma que Ei son matrices elementales. Por el teorema
1.16, sabemos que todas la matrices elementales son invertibles, además por el teorema 1.10
sabemos que el producto de matrices invertibles es otra matriz invertible. Entonces tenemos que:

A = E1 E2 E3 . . . Em
A−1 = (E1 E2 E3 . . . Em )−1
−1 −1
A−1 = Em Em−1 . . . E3−1 E2−1 E1−1
−1 −1
De modo que A es invertible y su inversa esta dada por Em Em−1 . . . E3−1 E2−1 E1−1 . Tenga en
cuenta que Ei−1 también son matrices elementales.

Ahora, cuando la matriz A es invertible debemos demostrar que es el producto de matrices


elementales.

Supongamos que A es invertible y de tamaño n × n, esto implica que podemos convertir la matriz
A en la matriz In por medio de m operaciones elementales por fila (OEF).

−→ In
A |{z}
OEF
Este número de operaciones es finito. Ahora bien, hemos visto en el teorema 1.15 que cada
operación elemental se puede remplazar por la multiplicación (por izquierda) de una matriz
elemental del mismo tipo de la operación elemental. Lo que nos dice que existen m matrices
elementales E1 E2 . . . Em que al multiplicarse por la izquierda con A se puede obtener la matriz
In .

(E1 E2 . . . Em ) A = In
Esto quiere decir que (E1 E2 . . . Em ) = A−1 (por Definición 1.29) además, recordemos que cada
Ei es invertible (por teorema 1.16) entonces:
1. Sistemas de ecuaciones lineales 74

−1
A = A−1
−1
= (E1 E2 . . . Em )
−1 −1
A = Em Em−1 . . . E3−1 E2−1 E1−1
−1 −1
Veamos que A = Em Em−1 . . . E3−1 E2−1 E1−1 se escribió como el producto de la inversa de
−1
matrices elementales, pero por el teorema 1.16, las matrices Em −1
, Em−1 , . . . , E3−1 , E2−1 ,
, E1−1 son matrices elementales.

Q.E.D.

Ejemplo 1.49

Tomemos la matriz A del ejemplo 1.45


 
1 3
A=
5 7

y vamos a escribir a A como el producto de matrices elementales. Primero realizamos la


factorización en matrices elementales
      
1 −3 1 0 1 0 1 3 1 0
=
0 1 0 − 81 −5 1 5 7 0 1
| {z }| {z }| {z } | {z } | {z }
E3 E2 E1 A I2

Ahora, multiplicamos por la correspondiente inversa de cada matriz elemental


        
1 3 1 −3 1 0 1 0 1 3 1 3 1 0
1 =
0 1 0 1 0 −8 −5 1 5 7 0 1 0 1
| {z }| {z }| {z }| {z }| {z } | {z }| {z }
−1
E3 E3 E2 E1 A −1
E3 I2
     
1 0 1 0 1 3 1 3
=
0 − 81 −5 1 5 7 0 1
| {z }| {z }| {z } | {z }
E2 E1 A −1
E3

Ahora para la segunda matriz elemental

       
1 0 1 0 1 0 1 3 1 0 1 3
=
0 8 0 1 −5 1 5 7 0 −8 0 1
| {z } | {z 8 } | {z } | {z } | {z } | {z }
E2−1 E2 E1 A E2−1 E3−1
     
1 0 1 3 1 0 1 3
=
−5 1 5 7 0 −8 0 1
| {z } | {z } | {z } | {z }
E1 A E2−1 E3−1

Finalmente
1. Sistemas de ecuaciones lineales 75

       
1 0 1 0 1 3 1 0 1 0 1 3
=
5 1 −5 1 5 7 5 1 0 −8 0 1
| {z }| {z } | {z } | {z } | {z } | {z }
E1−1 E1 A E1−1 E2−1 E3−1
     
1 3 1 0 1 0 1 3
=
5 7 5 1 0 −8 0 1
| {z } | {z }| {z } | {z }
A E1−1 E2−1 E3−1

1.11.2. Factorización A = LU
Esta factorización está muy relacionada con la factorización en matrices elementales. Para
comenzar definiremos que es una matriz triangular.

.:Definición 1.31 Diremos que una matriz cuadrada de tamaño n × n es


i) Triangular superior cuando todas las componentes debajo de la diagonal principal son
cero.
ii) Triangular inferior cuando todas las componentes arriba de la diagonal principal son
cero.

Ejemplo 1.50

Tomemos las siguientes matrices:

   
3 −1 4 3 0 0  
1 0
A= 0 2 −1  , B =  1 −2 0 , C=
0 1
0 0 −2 −1 2 −4
La matriz A es una matriz triangular superior, la matriz B es una matriz triangular inferior y la
matriz C es la matriz identidad I2 , la cual, si tenemos en cuenta la definición, es una una matriz
triangular superior e inferior a la vez.

Las matrices triangulares superiores se pueden obtener al realizar la eliminación Gaussiana sobre
una matriz. El siguiente teorema permite factorizar una matriz como el producto de matrices
elementales y una matriz triangular superior.

.:Teorema 1.18 Sea A una matriz de n × n, entonces A se puede escribir como el producto de
matrices elementales E1 , E2 . . . Ek y una matriz triangular superior U , teniendo en cuenta que
las matrices elementales están a la izquierda y la matriz U esta a la derecha.

Demostración:

Recordemos que U es una matriz triangular superior. Ésta matriz se pueden obtener por
eliminación Gaussiana sobre la matriz A dada inicialmente. Esto se logra por medio de
1. Sistemas de ecuaciones lineales 76

operaciones elementales por fila. Según el teorema 1.15, toda operación elemental se puede
remplazar por el producto de matrices elementales. Luego la obtención de U es relativamente
fácil:

U = Ek Ek−1 . . . E2 E1 A
Ahora despejamos A obteniendo la inversa de las matrices E1 , E2 . . . Ek

E1−1 E2−1 . . . Ek−1


−1
Ek−1 U = A
Por el teorema 1.16, la inversa de una matriz elemental es otra matriz elemental del mismo tipo.
Luego hemos escrito A como el producto de matrices elementales por una matriz triangular
superior.

Q.E.D.

Tomemos de nuevo el ejemplo 1.45, la matriz A la podemos escribir como el producto de matrices
elementales y una matriz triangular superior.
 
1 3
A=
5 7
Ahora bien, en el ejemplo 1.49, vemos que A se puede obtener como el producto de matrices
elementales por U .
      
1 3 1 0 1 0 1 3
=
5 7 5 1 0 −8 0 1
| {z } | {z } | {z } | {z }
A E1−1 E2−1 E3−1
| {z } | {z }
Matrices elementales Matriz Triangular Superior

En el ejemplo anterior, la matriz U es una matriz elemental, sin embargo es una matriz triangular
superior.

Los siguientes teoremas nos permiten observar el producto entre matrices triangulares superiores
e inferiores.

.:Teorema 1.19 Sea A y B matrices triangulares inferiores con unos en la diagonal. Entonces el
producto AB también es una matriz triangular inferior con unos en la diagonal.

Demostración:

Sean A = (aij ) de n × n y B = (bij ) de n × n, sea C = (cij ) tal que C = AB, recordemos que

cij = (renglón i de A) · (columna j de B)


es decir:

cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ain bnj (1.20)


1. Sistemas de ecuaciones lineales 77

Ahora bien, examinemos la componente aij y bij de A y B


 
 1 si i = j  1 si i=j
aij = 0 si i < j y bij = 0 si i<j (1.21)
 
aij si i > j bij si i>j
Éste hecho nos indica que las matrices triangulares inferiores tiene ceros cuando i < j, en la
diagonal siempre hay unos y las demás componentes pueden ser cualquier número.

Si retomamos la ecuación 1.20 y el análisis hecho en 1.21, podemos examinar que ocurre con cij
dependiendo de i y j.

Caso 1: La fila i de A y la columna j de B tal que i = j, en este caso

cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ai(n−1) b(n−1)j + ain bnj
|{z} |{z} |{z} |{z} | {z } |{z}
0 0 1 1 0 0
| {z } | {z } | {z } | {z } | {z }
0 0 1∗1=1 0 0

Esto nos indica que si cij está en la diagonal, siempre será un uno. Esto se debe a
la propiedad de las matrices triangulares superiores, pues inicialmente los términos de
la sumatoria son cero porque las componentes bij son cero en la parte inicial, luego
coinciden cuando se multiplican los términos de la diagonal, en este caso tiene el valor
de 1. Finalmente los términos se hacen cero porque aij es cero.
Caso 2: La fila i de A y la columna j de B tal que i < j, en este caso

cij = ai1 b1j + ai2 b2 j + · · · + aik bkj + · · · + ai(n−1) b(n−1)j + ain bnj
|{z} |{z} |{z} |{z} | {z } |{z}
0 0 0 0 0 0
| {z } | {z } | {z } | {z } | {z }
0 0 0 0 0

Aquí cij siempre es cero, ésto se debe a que inicialmente los bij son cero y aij es cualquier
número. Luego, se invierten los papeles, pues bij deja de ser cero y aij pasa a ser lo.
Caso 3: La fila i de A y la columna j de B tal que i > j, en este caso, tanto las filas de A como las
columnas de B pueden ser distintas de cero, lo que eventualmente produce que cij pueda
ser un número distinto de cero.

Q.E.D.

Ejemplo 1.51

Sean A y B matrices triangulares inferiores con unos en la diagonal de la siguiente forma:


   
1 0 0 1 0 0
A= 3 1 0  y B= 5 1 0 
2 4 1 −1 2 1
Observemos el producto C = AB.
1. Sistemas de ecuaciones lineales 78

    
1 0 0 1 0 0 1 0 0
C = AB =  3 1 0  5 1 0 = 8 1 0 
2 4 1 −1 2 1 21 6 1
En este ejemplo, podemos apreciar partes de la demostración anterior, por ejemplo, al calcular la
componente c22 (Caso i = j)

c22 = (3)(0) + (1)(1) + (0)(2)


= 1

Ahora, la componente c13 (caso i < j)

c13 = (1)(0) + (0)(0) + (0)(1)


= 0

Por último, la componente c31 (caso i > j)

c31 = (2)(1) + (4)(5) + (1)(−1)


= 2 + 20 − 1
= 21

.:Teorema 1.20 Sea A y B matrices triangulares superiores. Entonces, el producto AB también


es una matriz triangular superior.

El análisis de la demostración del teorema anterior es similar al teorema 1.19.

El siguiente teorema muestra que una matriz invertible se puede llevar al producto de dos matrices,
una matriz triangular superior y una matriz triangular inferior.

.:Teorema 1.21 Sea A una matriz cuadrada de n × n. Si A puede ser reducida a su forma
escalonada reducida por renglones (sin permutar renglones), entonces, A tiene factorización
LU , es decir:

A = LU
Donde L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular
superior.

Demostración:

Se ha mostrado en el transcurso de esta sección, que una matriz cuadrada de n × n se puede


convertir en una matriz triangular superior U (Eliminación Gaussiana). Antes, esto se realizaba
por medio de operaciones elementales por fila, ahora, se hace multiplicando por matrices
elementales por izquierda. En este caso, sólo usaremos matrices elementales que se obtienen
1. Sistemas de ecuaciones lineales 79

al realizar la operación elemental fi → fi + kfj donde i > j (recuerde que en este caso no
podemos permutar dos filas o renglones). Entonces:

U = Ek Ek−1 . . . E2 E1 A
Donde E1 , E2 . . . Ek son matrices elementales que me permiten convertir la matriz A en una
matriz triangular superior U . La matriz triangular superior no necesariamente tiene unos en
la diagonal, debido a que sólo hemos usado la operación elenetal fi → fi + kfj . Ahora,
multiplicamos por la inversa de cada matriz elemental para despejar A

E1−1 E2−1 . . . Ek−1


−1
Ek−1 U = A
Recordemos que E1−1 , E2−1 , . . . , Ek−1
−1
, Ek−1 también son matrices elementales de la forma
fi → fi + kfj (Teorema 1.16). Por esta razón, todas son triangulares inferiores con unos en
la diagonal, y por el Teorema 1.19, el producto de ellas también es una matriz triangular inferior
con unos en la diagonal.

E1−1 E2−1 . . . Ek−1


−1
Ek−1 U = A
| {z }
L
LU = A

Q.E.D.

Ejemplo 1.52

Escribir la matriz A como el producto de matrices elementales y una matriz triangular superior.
 
3 6 9
A= 6 5 1 
9 5 −2
primero obtenemos la matriz U por eliminación Gaussiana o multiplicando por matrices
elementales.
      
3 6 9 1 0 0 3 6 9 3 6 9
 6 5 1  −→  −2 1 0   6 5 1  =  0 −7 −17 
9 5 −2 0 0 1 9 5 −2 9 5 −2
Ahora,

     
3 6 9 1 0 0 1 0 0 3 6 9
 0 −7 −17  −→  0 1 0   −2 1 0  6 5 1 
9 5 −2 −3 0 1 0 0 1 9 5 −2
 
3 6 9
= 0 −7 −17 
0 −13 −29
1. Sistemas de ecuaciones lineales 80

Luego,

    
3 6 9 1 00 1 0 0
 0 −7 −17  →  0 10   0 1 0  ...
13
0 −13 −29 0 −7 1 −3 0 1
  
1 0 0 3 6 9
...  −2 1 0   6 5 1 
0 0 1 9 5 −2
 
3 6 9
=  0 −7 −17 
18
0 0 7
| {z }
U

Ya tenemos la matriz U , ahora, procedemos a encontrar la matriz L. Simplemente obtenemos


la inversa de cada una de las matrices elementales y las multiplicamos teniendo cuidado con el
orden.

 −1  −1  −1


1 0 0 1 0 0 1 0 0
L =  −2 1 0   0 1 0   0 1 0 
0 0 1 −3 0 1 0 − 13
7 1
   
1 0 0 1 0 0 1 0 0
=  2 1 0  0 1 0  0 1 0 
0 0 1 3 0 1 0 13
7 1
 
1 0 0
=  2 1 0 
13
3 7 1

Al realizar la multiplicación de L por U podemos corroborar el resultado

    
3 6 9 1 0 0 3 6 9
 6 5 1  =  2 1 0  0 −7 −17 
13 18
9 5 −2 3 7 1 0 0 7
| {z } | {z }| {z }
A L U
A = LU

Como vemos, el proceso es un poco largo y de mucho cuidado. También podemos observar que
la matriz L contiene los números que usamos para encontrar la matriz U . El siguiente, es el
algoritmo para encontrar la factorización A = LU .

1. Mediante operaciones elementales o matrices elementales y sólo usando la operación


fi → fi + kfj , transformar la matriz A en la matriz U .
1. Sistemas de ecuaciones lineales 81

2. Hacer una lista de las operaciones elementales o almacenar las matrices elementales que se
usaron en el proceso anterior.
3. Obtener las inversas de las matrices elementales
4. Realizar el producto de estas matrices elementales inversas, ubicandolas en el orden
adecuado y colocar como último factor la matriz U .
5. Efectuar el producto de las matrices elementales inversas
6. Finalmente la matriz A queda expresada como A = LU .

1.11.3. Uso de la factorización LU para resolver sistemas de ecuaciones


lineales
Sea AX = b, donde A es una matriz de coeficientes invertible, X es el vector de variables
y b es el vector de términos independientes. Ahora bien, hemos visto que A = LU , entonces
reemplazamos y tenemos:

AX = b
(LU )X = b

Luego, como L es invertible, existe un único vector Y tal que LY = b y como U es invertible,
entonces, existe un único vector X tal que U X = Y , es decir:

AX = L(U X) = LY = b

Ejemplo 1.53

Tomemos la matriz A del ejemplo 1.52 y el vector b


  
3 6 9 −1
A= 6 5 1  y b= 5 
9 5 −2 4
Resolver el sistema adjunto usando la factorización A = LU .

Para la matriz A tenemos

A = LU
  
1 0 0 3 6 9
=  2 1 0  0 −7 −17 
13 18
3 7 1 0 0 7

Ahora bien, como AX = LY = b, entonces:


1. Sistemas de ecuaciones lineales 82

y1 = −1
2y1 +y2 = 5
3y1 + 13
7 y2 +y3 = 4
Luego y1 = −1, y2 = 7 y y3 = −6

Ahora, como U X = Y , tenemos que:

3x1 + 6x2 + 9x3 = −1


−7x2 − 17x3 = 7
18
x3 = −6
7
De donde obtenemos que x1 = − 38 , x2 = 14
3 y x3 = − 37

1.11.4. Factorización A = LDU


Esta factorización, me permite escribir una matriz como el producto de tres matrices, donde L
es una matriz triangular inferior con unos en la diagonal, D es una matriz diagonal con todas las
componentes de su diagonal principal distintas de cero y U es una matriz triangular superior con
todos las componentes de su diagonal principal distintos de cero.

El siguiente teorema nos permite asegurar que si una matriz A tiene factorización A = LU , es
posible escribir A en la forma A = LDU ′3 .

.:Teorema 1.22 Sea A una matriz cuadrada de n × n. Si A puede se puede factorizar como
A = LU , entonces es posible escribir A = LDU ′ , donde L es una matriz triangular inferior
con unos en la diagonal principal, D es una matriz diagonal, con todos las componentes de la
diagonal principal diferentes de cero y U ′ es una matriz triangular superior con con unos en la
diagonal principal.

Demostración:
Por hipótesis, podemos decir que A = LU donde L es triangular inferior con unos en la diagonal
principal y U es triangular superior con todas las componentes de su diagonal principal diferentes
de cero. Luego U debe tener la siguiente forma:
 
d1 u12 · · · u1n
 0 d2 · · · u2n 
 
U = . .. . . .. 
 . . . . . 
0 0 0 dn
Con di 6= 0 (la diagonal principal debe ser diferente de cero). Entonces para convertir d1 en uno,
dividimos la primera fila por d1 , la segunda por d2 y así sucesivamente. La matriz D es una matriz
diagonal cuyos elementos de la diagonal principal son los competentes de la diagonal principal
de U . De modo que U se puede escribir como el producto de la matriz D y la matriz U ′ .
3 La diferencia entre U y U ′ es que la primera no necesariamente tiene unos en la diagonal y la segunda si.
1. Sistemas de ecuaciones lineales 83

 u12 u13 u1n 


  1 d1 d1 ··· d1
d1 0 ··· 0  0 1 u23
··· u2n 
d2 d2
 0 d2 · · · 0  .. ..

.. 
 
U = . .. . . ..  . . 1 ··· . 
 .. . . .  ..

u(n−1)n 
0 0 0 dn
 0 0 0 . dn−1

| {z } 0 0 0 0 1
D | {z }
U′

Es fácil ver que la multiplicación de las matrices DU ′ dan como resultado la matriz U . Luego,
A = LDU

Q.E.D.

Ejemplo 1.54

Tomemos la matriz A del ejemplo 1.52, donde logramos factorizar A = LU

    
3 6 9 1 0 0 3 6 9
 6 5 1  =  2 1 0  0 −7 −17 
13 18
9 5 −2 3 7 1 0 0 7
| {z } | {z }| {z }
A L U

Ahora construimos la matriz D con los elementos de la diagonal principal de U .


 
3 0 0
D =  0 −7 0 
18
0 0 7
La matriz U ′ se construye dividendo las filas o renglones de U por las correspondientes
componentes de la diagonal principal de D.
 
1 2 3
U ′ =  0 1 17 7

0 0 1
Luego A = LDU

     
3 6 9 1 0 0 3 0 0 1 2 3
 2 17
 6 5 1  = 1 0  0 −7 0  0 1 7

13 18
9 5 −2 3 7 1 0 0 7 0 0 1
| {z } | {z }| {z }| {z }
A L D U′

1.11.5. Factorización P A = LU
Para la factorización A = LU , la condición inicial consistía en sólo usar operaciones elementales
de la forma fi → fi + kfj . Esto limitaba el proceso a aquellas matrices que no generaran ceros
en su diagonal principal, durante el proceso de triangulación. Sin embargo, el problema se puede
1. Sistemas de ecuaciones lineales 84

solucionar fácilmente, multiplicamos por una matriz de permutación P , de tal forma que pueda
cambiar el orden la algunas filas o renglones de la matriz.

Como vimos anteriormente, una matriz de permutación P , es una matriz elemental que se obtiene
al tomar la matriz In e intercambiar dos de sus filas o renglones. Si no se requiere de ninguna
permutación, diremos que P = In . Cuando hablamos de una matriz P , esta no necesariamente
debe ser una, puede necesitarse varias de éstas.

.:Teorema 1.23 Sea A una matriz cuadrada de n×n. Entonces existe una matriz de permutación
P tal que

P A = LU
donde L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular
superior.

Demostración:

La demostración se divide en dos casos:


Caso 1: Cuando la matriz A se puede factorizar como A = LU , sin intercambiar filas, en realidad
estamos multiplicando por P = In , es decir:

A = P A = In A = LU

Caso 2: Cuando se requiere hacer una o más permutaciones. En tal caso, se multiplica por
a la izquierda de la matriz A por las matrices de permutación que sean necesarias.
Posteriormente se procede ha hallar las matrices L y U .

Q.E.D.

Cuando factorizamos una matriz de 5 × 5 y en algún momento se requiera hacer una permutación,
esta se puede hacer de muchas formas (la primera con la última fila, la primera fila por la segunda,
etc.). Esto implica que la matriz P es diferente para cada permutación que se le haga a la matriz.
Esto nos dice que por cada P se generan matrices L y U distintas.

Ejemplo 1.55

Encontrar la factorización P A = LU de la matriz


 
0 2 −1
A= 2 5 0 
1 −3 1
Como podemos observar, la matriz A debe ser permutada para realizar la factorización LU . Para
empezar, multiplicaremos por la matriz P :
1. Sistemas de ecuaciones lineales 85

 
0 0 1
P = 0 1 0 
1 0 0
observemos que al hacer la multiplicación P A tenemos como resultado la matriz

  
0 0 1 0 2 −1
PA =  0 1 0  2 5 0 
1 0 0 1 −3 1
 
1 −3 1
=  2 5 0 
0 2 −1

Ahora realizaremos la factorización LU a la matriz, Este proceso lo podemos simplificar usando


las propiedades de L y U . Recordemos que L es triangular inferior con unos en la diagonal y la
matriz U es triangular superior.

     
0 0 1 0 2 −1 1 0 0 d e f
 0 1 0  2 5 0  =  a 1 0  0 g h 
1 0 0 1 −3 1 b c 1 0 0 i
| {z }| {z } | {z }| {z }
P A L U
    
1 −3 1 1 0 0 d e f
 2 5 0  =  a 1 0  0 g h 
0 2 −1 b c 1 0 0 i
| {z } | {z }| {z }
PA L U

En este ejemplo mostraremos una forma alternativa de encontrar la factorización LU . Como


podemos ver la componente a11 de P A es 1, lo que implica que es el resultado de multiplicar la
fila o renglón 1 de L por la columna 1 de U .

 
 d
1 = 1 0 0 · 0 
0
1 = d+0+0

1 = d

Ya tenemos el valor de d, las demás ecuaciones, permiten encontrar rápidamente los valores de
a, b, c y e, f, g, h e i.

 
 e
−3 = 1 0 0 · g 
0
= e+0+0
−3 = e
1. Sistemas de ecuaciones lineales 86

 
 f
1 = 1 0 0 · h 
i
= f +0+0
1 = f

Posteriormente, procedemos con la segunda fila:

 
 d
2 = a 1 0 · 0 
0
= ad + 0 + 0
2 = a(1)
2 = a

Luego,

   
 e  f
5 = a 1 0 · g  0 = a 1 0 · h 
0 i
= ae + g + 0 = af + h + 0
5 = (2)(−3) + g = (2)(1) + h
11 = g −2 = h

Por último, hacemos la tercera fila

 
 d
0 = b c 1 · 0 
0
0 = bd + 0 + 0
0 = b

 
 e
2 = b c 1 · g 
0
= be + cg + 0
2 = (0)(−3) + c(11)
2
= c
11
1. Sistemas de ecuaciones lineales 87

 
 f
−1 = b c 1 · h 
i
= bf + ch + i
 
2
= (0)(1) + (−2) + i
11
4
1 = − +i
11
7
− = i
11
Luego, La factorización P A = LU es la siguiente
     
0 0 1 0 2 −1 1 0 0 1 −3 1
 0 1 0  2 5 0 = 2 1 0  0 11 −2 
2 7
1 0 0 1 −3 1 0 11 1 0 0 − 11
| {z }| {z } | {z }| {z }
P A L U
Esta forma de encontrar la factorización P A = LU , puede funcionar para matrices de tamaño
3 × 3, 4 × 4 y hasta de 5 × 5, de ahí en adelante se vuelve muy complejo, por la cantidad de
variables relacionadas con el proceso.

Ejercicios 1.7
1. Encuentre la matriz triangular inferior con unos en la diagonal L y y una matriz triangular
inferior U , tal que A = LU

a)   e)
1 2
3 4  
2 6 −2 0 2
b)    1 5 −1 2 5 
 
1 2  3 7 −3 −2 5 
0 3 −1 −1 1 2 3
c)  
−1 5
6 3 f)
d)  

1 4 6
 2 4 2
 2  1 −1 3 
−1 3 
3 2 5 −1 7 −7

2. Tome las matrices del punto anterior y realice la factorización LDU de cada una de las
matrices dadas.
3. Resuleva el sistema dado usando la factorización LU , dados A y b (resuleva Ax = LU x =
b)
1. Sistemas de ecuaciones lineales 88

a) c)
       
1 2 −2 1 2 −1
A= b= A= b=
3 4 4 0 3 4

d)
b)    
    1 4 6 −1
−1 5 0 A =  2 −1 3  b =  7 
A= b=
6 3 5 3 2 5 2

4. Para cada una de las matrices dadas a continuación, encuentre: una matriz de permutación
P , una triangular inferior L con unos en la diagonal y una matriz escalonada U , tales que
P A = LU

1.   4.
0 1 −1  
A= 0 0 −1 2
1 −1 2
 −1 −1 1 2 
2. A=
 2

  1 −3 6 
0 0 3 −2 0 1 −1 4
 0 0 2 −1 
A=
 3 −4 0

2 
4 −5 −2 4 5.
3.  
  0 −1 2 1 3
5 −5 10 0 5  −1 1
 −3 3 3 1 4 
2 2 1  A= 
A=
 −2 2
  1 −1 −3 6 2 
0 −1 0 
2 −2 −4 1 0
1 −1 10 2 5
“Las Matemáticas no son un recorrido prudente por una autopista
despejada, sino un viaje a un terreno salvaje y extraño, en el cual los
exploradores se pierden a menudo.” —
W.S. Anglin (1992)

2
Determinantes

2.1. Definición
El determinante determina la unicidad de la solución de un sistema de ecuaciones lineales.
Cardano en 1545 introdujo el caso de un determinante de 2 × 2 en su obra Ars magna, lo cual,
fue un aporte para resolver sistemas de dos ecuaciones con dos incógnitas.

Los determinantes de órdenes superiores tardaron más de cien años en aparecer. Paralelamente, el
matemático Kowa Seki en Japón y Leibniz en Alemania dieron a conocer los primeros ejemplos
de dichos determinantes.

.:Definición 2.1 El determinante de una matriz es una función con dominio Rn×n → R, en la
cual se toma una matriz cuadrada y se retorna un número real.

Sin embargo, para entender el concepto de determinante se ilustra a continuación el determinante


de una matriz de orden 2 y de orden 3, los cuales son necesarios para definir recursivamente los
determinantes de orden superior.

.:Definición 2.2 (Determinante de una matriz cuadrada de orden 2)


 
a11 a12
Sea A = entonces el determinante de A, denotado por detA o |A| se define como:
a21 a22

a11 a12
detA = = a11 a22 − a12 a21 (2.1)
a21 a22

La ecuación 2.1 se obtuvo de la diferencia de los productos de las diagonales, de la siguiente

89
2. Determinantes 90

forma:

a11 a12

a21 a22
 
1 5
Ejemplo 2.1 Hallar el determinante de la matriz A = , entonces:
7 −4

detA = |A| = (1)(−4) − (7)(5)


= −4 − 35
= −39

.:Definición 2.3 (Determinante de una matriz cuadrada de orden 3)


 
a11 a12 a13
Sea A =  a21 a22 a23 entonces el determinante de A, denotado por detA o |A| se define
a31 a32 a33
como:

a11 a12 a13
= a11 a22 a23
a a23 a a22
detA = a21 a22 a23 a32 − a12 21 + a13 21 (2.2)
a31
a33 a31 a33 a31 a32
a32 a33

Para hallar el determinante de una matriz 3 × 3 necesitamos calcular el determinante de tres


matrices de 2 × 2, las cuales se obtienen de la siguiente forma:

 
a22 a23
es la matriz que se obtiene al eliminar la primera fila y la primera columna
a32 a33
de A.
 
a21 a23
es la matriz que se obtiene al eliminar la primera fila y la segunda columna
a31 a33
de A.
 
a21 a22
es la matriz que se obtiene al eliminar la primera fila y la tercera columna
a31 a32
de A.

Ejemplo 2.2 Hallar el determinante de la matriz


 
5 1 2
A =  4 −1 −9 
3 5 2
, entonces:
2. Determinantes 91

detA = |A|

−1 −9 4 −9 4 −1
= 5 −1
+2

5 2 3 2 3 5
= 215 − 35 + 46
= 226

2.2. Método de Sarrus


Recibe su nombre del matemático francés Pierre Frédéric Sarrus y es otra forma de ver los
determinantes de orden 3. Para calcular el determinante se debe:
1. Repetir las dos primeras columnas de la matriz a la derecha de la misma.
2. Después, sumar los productos de las diagonales descendentes y sustraer los productos de
las diagonales ascendentes.

a11 a12 a13 a11 a12


a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

3. Los que nos daría


|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 −
a13 a22 a31 − a11 a23 a32 − a33 a21 a12 (2.3)

Ejemplo 2.3 Encuentre el determinante de la matriz


 
5 1 2
A =  4 −1 −9 
3 5 2
Usando el método de Sarrus.

Sabemos que:

|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a33 a21 a12
que en forma matricial es
 
5 1 2 5 1
 4 −1 −9 4 −1 
3 5 2 3 5

|A| = (5)(−1)(2) + (1)(−9)(3) + (2)(4)(5) − (2)(−1)(3) − (5)(−9)(5) − (2)(4)(1)


= 226
2. Determinantes 92

Nota: Éste método sólo se puede aplicar a determinantes 3 × 3 o 2 × 2. El método de Sarrus se


puede deducir de la definición del determinante de 3 × 3, pero puede utilizarse como otra forma
de calcular el determinante.

En los casos anteriores, se ilustró unas formas de calcular el determinante para matrices de orden
2 × 2 y 3 × 3, a continuación, se presentara dos métodos para calcular el determinante de una
matriz de n × n.

2.3. Método por cofactores


Antes de comenzar a explicar este método, se debe introducir el concepto de cofactor de una
matriz A de dimensión n × n.

.:Definición 2.4 (La Menor de una Matriz)

Dada una matriz A de tamaño n×n, la Menor M ij de A es la matriz de dimensión (n−1)×(n−1)


obtenida de A al eliminar el renglón i y la columna j.

 
a11 a12 ··· a1j ··· a1n

 a21 a22 ··· a2j ··· a2n 

 .. .. .. .. .. .. 
 . . . . . . 
A = 
 ai1

fila i
 ai2 ··· aij ··· ain 

}
 . .. .. .. .. .. 
 .. . . . . . 
an1 an2 ··· anj ··· ann
|{z}
Columna j

La menor Mij quedaría


 
a11 q12 ··· a1(n−1)

 ai1 ai2 ··· ai(n−1) 

Mij =  .. .. .. .. 
 . . . . 
a(n−1)1 a(n−1)2 ··· a(n−1)(n−1)

Ejemplo 2.4 Dada la matriz


 
5 −1 3
A= 4 5 7 
0 2 −7
Las siguientes matrices son menores obtenidas de la matriz A
   
5 7 5 3
M11 = , M22 =
2 −7 0 −7
2. Determinantes 93

   
−1 3 4 7
M31 = , M12 =
5 7 0 −7

la siguiente es la definición de cofactor, éste concepto es básico para hallar el determinante de


matrices orden superior.

.:Definición 2.5 (Cofactor de una matriz)

Dada una matriz A de orden n × n, el cofactor ij de A denotado por Aij está dado por:

Aij = (−1)i+j |Mij |


i+j
(−1) = 1 si (i + j) es par
−1 si (i + j) es impar

Ejemplo 2.5 Dada la matriz


 
5 −1 3
A= 4 5 7 
0 2 −7
Los siguientes son algunos cofactores de la matriz A


5 7
A11 = (−1)1+1
2 −7
= −49


2+3
5 −1
A23 = (−1)
0 2
= (−1)10
= −10

Los determinantes que hemos visto sólo se pueden aplicar a matrices de orden 2 × 2 o 3 × 3. Para
obtener el determinante de una matriz de orden superior, utilizaremos el concepto de cofactor
aplicado recursivamente.

.:Definición 2.6 (Determinante de una matriz de orden n × n)

Sea A de orden n × n. El detA se puede expresar como expansión por cofactores, así:
n
X
detA = |A| = a11 A11 + a12 A12 + · · · + a1n A1n = a1k A1k
k=1
2. Determinantes 94

Ejemplo 2.6 Encuentre el determinante de la matriz


 
5 1 2
A =  4 −1 −9 
3 5 2
aplicando la definición de cofactores.

Entonces:

detA = 5A11 + 1A12 + 2A13


   
2 −1 −9 3 4 −9

= 5 (−1) + 1 (−1) +
5 2 3 2
 
4 −1
2 (−1)4
3 5
= 5(43) + (1)(−1)(35) + 2(23)
= 226
De igual manera, es posible hallar los determinantes de matrices de orden superior, pero este
proceso recursivo puede ser muy largo, pues, hemos visto que para calcular un determinante
de 3 × 3 es necesario calcular tres determinantes de 2 × 2. Si tuviésemos una matriz de
4 × 4 tendríamos que calcular cuatro determinantes de 3 × 3 y cada uno de estos implica tres
determinantes de 2 × 2. Para mejorar la rapidez del algoritmo, veremos algunas propiedades que
nos permitirán realizar el procedimiento más rápido.
Ejercicios 2.1
1. Hallar el determinante de cada una de las siguientes matrices:
 
1 −1 −1 0
 −3 4 6 0 
a) A =   2

5 −1 −3 
4 0 3 0
 
0 a 0 0
 b 0 0 0 
b) A =   0 0 0 c 

0 0 d 0
 
0 b 0 0
 c d 0 0 
c) A =   0 0 a −b 

0 0 c d
 
2 5 −6 1 0
 0 1 −7 6 0 
 
d) A =  0 0 0 −7 0 
 0 2 1 5 −8 
2 −1 5 4 0
2. Determinantes 95

2.4. Propiedades de los determinantes


Las siguientes propiedades permiten calcular el determinante de algunas matrices de forma más
fácil, en algunos casos sin recurrir a la expansión por cofactores.

.:Teorema 2.1 Sea A de orden n × n, triangular inferior o superior, entonces el determinante


detA, es igual al producto de los elementos de la diagonal principal:

detA = a11 a22 a33··· ann

Demostración:

Para el caso en que A sea triangular superior. La demostración se hará por inducción:
 
a11 a12
Si n = 2, entonces A = y el detA = a11 a22 − 0a12 = a11 a22 .
0 a22
Ahora supongamos que la proposición es valida para toda matriz triangular superior de orden
n − 1 y veamos que se cumple si A e de orden n.

Sea A un matriz triangular superior de orden n


 
a11 a12 ··· a1n
 0 a22 ··· a2n 
 
A= . .. .. .. 
 .. . . . 
0 0 ··· ann
Si desarrollamos el detA por los cofactores de la primera columna se obtiene que:

detA = a11 A11


= a11 (−1)1+1 |M11 |
 
a22 a23 ··· a2n
 0 a33 ··· a3n 
 
= a11 det  . .. .. .. 
 .. . . . 
0 0 ··· ann

Como M11 es triangular superior de orden n − 1, por hipótesis de inducción, se tiene que:

detA = a11 (a22 a33 · · · ann )


= a11 a22 a33 · · · ann

Luego, la proposición es válida para toda matriz triangular superior de orden n. Se deja como
ejercicio probar la proposición, para una matriz A triangular inferior.

Q.E.D.
2. Determinantes 96

.:Corolario 2.1 Sea D una matriz diagonal de orden n


 
d1

 d2 

D= .. 
 . 
dn
Entonces, el detD = d1 d2 · · · dn

Ejemplo 2.7 Hallar el determinante de las matrices


     
1 5 6 1 0 0 π 0 0
A =  0 2 3  ,B =  1 −7 0  y C= 0 e 0 
0 0 7 7 −4 5 0 0 k
Para la matriz A, el determinante es muy fácil, solo debemos multiplicar la diagonal.

detA = (1)(2)(7)
= 14

De igual manera para la matriz B.

detB = (1)(−7)(5)
= −35

Si vemos la definición de matriz diagonal, se puede usar el mismo concepto de matriz triangular
inferior y superior (ver Definición 1.17):

detC = (π)(e)(k)
= πek

.:Teorema 2.2 Sea A de orden n × n:


 
a11 q12 ··· a1n

 a21 a22 ··· a2n 

A= .. .. .. .. 
 . . . . 
an1 an2 ··· ann
Entonces, es posible hallar el determinante de A expandiendo cualquier fila de A por cofactores,
es decir:

detA = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain (2.4)


Xn
= aik Aik para i = 1, 2, 3, . . . n
k=1
2. Determinantes 97

o bien, es posible hallar el determinante de A expandiendo cualquier columna de A por


cofactores, es decir:

detA = a1j A1j + a2j A2j + · · · + anj Anj (2.5)


Xn
= akj Akj para j = 1, 2, 3, . . . n
k=1

Demostración:

La demostración de este teorema se basa en la demostración hecha por 


S. Grossman 
[1].
a11 a13
Iniciaremos la demostración por inducción, Tomaremos la matriz A = de tamaño
a21 a22
2 × 2, al expandirla por cofactores, obtenemos:

det A = a11 A11 + a12 A12


= a11 (a22 ) + a12 (−a21 )
= a11 a22 − a12 a21

Ahora bien, expandiendo el segundo renglón obtenemos un trabajo similar:

det A = a21 A21 + a22 A22


= a21 (−a12 ) + a22 (a11 )
= a11 a22 − a12 a21

En ambos casos (2.4) y (2.5), llegamos a la definición de determinante de 2×2. Ahora, asumamos
que (2.4) y (2.5) son verdaderas para todas las matrices de tamaño (n − 1) × (n − 1) y debemos
demostrar que se cumple para todas las matrices de tamaño n × n. Para ello veremos que la
expansión de la fila 1 es igual o equivalente a la expansión de la fila i, de igual manera para las
columnas.

Entonces, tomemos la expansión por cofactores de la primera fila:

a1k A1k = (−1)1+k a1k |M1k | (2.6)


Este es el único lugar en la expansión del det A en el que aparece el término a1k ya que otro
término general sería a1m A1m = (−a)1+m |M1m | con k 6= m y M1m se obtiene eliminando el
primer renglón y la m−ésima columna de A(y aik esta en el primer renglón de A). Como M1k es
una matriz de (n − 1) × (n − 1), por hipótesis de inducción se puede calcular |M1k |expandiendo
el renglón i de A (que es el renglón (i − 1) de M1k ). Un término más general de esta expansión
seria
ail (cofactor de aij en M1k ) con k 6= 1 (2.7)
Ahora bien, este es el único término en la expansión de |M1k | enel i−ésimo renglón de A que
contiene el término ail , sustituyendo (2.7) en la ecuación (2.6), se puede encontrar que

(−1)1+k a1k ail (cofactor de aij en M1k ) con k 6= 1 (2.8)


2. Determinantes 98

es la única ocurrencia de del término aik ail en la expansión por cofactores de det A en el primer
renglón.

Ahora, si se expande por cofactores el renglón i de A donde i 6= 1el término general es

(−1)i+l ail |Mil | (2.9)

y el término general en la expansión de |Mil |en el primer renglón de Mil es

a1k (cofactor de aik en Mil ) con k 6= 1 (2.10)

Si se inserta (2.10) en el término (2.9) se encuentra que la última ocurrencia del término ail aik
en la expansión del renglón i de det A es

(−1)i+l aik ail (cofactor de aik en Mil ) con k 6= l (2.11)

Si se puede demostrar que las expansiones (2.8) y (2.11) son iguales, entonces (2.4) quedaría
demostrada, ya que el término en (2.8) es la única ocurrencia de a1k ail en la expansión del
primer renglón, el término en (2.11) es la única ocurrencia de a1k ail en la expansión del i−ésimo
renglón, y k, i y l son arbitrarios, Esto demostrará que las sumas de términos en la expansiones
en los renglones 1 e i son iguales.

Ahora sea M1i,kl la matriz de (n − 2) × (n − 2) obtenida al eliminar al eliminar los renglones


1 e i y las columnas k y l de A (Menor de segundo orden de A), primero se supone que k < l.
Después
 
a21 · · · a2(k−1) a2(k+1) · · · a2l · · · a2n
 .. .. .. .. .. 
 . . . . . 
 
M1k =  ail · · · ai(k−1) ai(k+1) · · · ail · · · ain 

 (2.12)
 . . . . . 
 . . .
. .
. .
. .
. 
an1 · · · an(k−1) an(k+1) · · · anl · · · ann
 
a11 ··· a1k · · · a1,(l−1) a1(l+1) ··· a1n
 .. .. .. .. .. 

 . . . . . 

 a(i−1)1 ··· a(i−1)k · · · a(i−1)(l−1) a(i−1)(l+1) ··· a(i−1)n 
M1l = 
 a(i+1)1
 (2.13)
 ··· a(i+1)k · · · a(i+1)(l−1) a(i+1)(l+1) ··· a(i+1)n 

 .. .. .. .. .. 
 . . . . . 
an1 ··· ank an(l−1) an(l+1) ··· ann
De (2.12) y (2.13) se ve:

Cofactor de ail en M1k = (−1)(i−1)+(l−1) |M1i,kl | (2.14)

Cofactor de a1k en Mil = (−1)(1+k) |M1i,kl | (2.15)


Entonces (2.8) se convierte en

(−1)1+k a1k ail (−1)(i−1)+(l−1) |M1i,kl | = (−1)i+k+l−1 a1k ail |M1i,kl | (2.16)
2. Determinantes 99

y (2.11) se convierte en

(−1)1+l a1k ail (−1)(1+k) |M1i,kl | = (−1)i+k+l+1 a1k ail |M1i,kl | (2.17)
i+k+l−1 i+k+l+1
Pero (−1) = (−1) , de manera que los lados derechos de las ecuaciones (2.16) y
(2.17) son iguales. Así, las expresiones (2.8) y (2.11) son iguales y el teorema queda demostrado,
en el caso k < l; después, por un razonamiento similar, se encuentra que k > l,

Cofactor de ail en M1k = (−1)(i−1)+l |M1i,kl |

Cofactor de a1k en M1l = (−1)(1+(k−1)) |M1i,kl |


De manera que (2.8) se convierte en

(−1)1+k a1k ail (−1)(i−1)+l |M1i,kl | = (−1)1+k+l a1k ail |M1i,kl |


y (2.11) se convierte en

(−1)1+l a1k ail (−1)(1+k−1) |M1i,kl | = (−1)k+l a1k ail |M1i,kl |

Y esto completa la prueba del teorema.

Q.E.D.

Ejemplo 2.8 Hallar el determinante de la matriz


 
5 1 2
A =  4 −1 −9 
3 5 2
Hallemos el determinante de A, expandiendo la tercera fila de A y posteriormente la segunda
columna.

Si lo hacemos expandiendo la tercera fila tendríamos:

detA = a31 A31 + a32 A32 + a33 A33


X3
= a3k A3k para i = 1, 2, 3
k=1
   
1 2 + 5 (−1)3+2 5 2
3+1

= 3 (−1) −1 −9 4
−9
 
3+3 5 1

+2 (−1) 4 −1
= 226

Ahora, calcularemos el mismo determinante expandiendo la segunda columna:


2. Determinantes 100

detA = a12 A12 + a22 A22 + a32 A32


X3
= ak2 Ak2 para i = 1, 2, 3
k=1
   
4 −9
1+2 2+2 5
2
= 1 (−1) 3
+ (−1) (−1)
2 3 2
 
5 2
+5 (−1)3+2
4 −9
= 226

Las siguientes son las propiedades más relevantes de los determinantes:

.:Teorema 2.3 (Propiedad 1)


Si A es una matriz cuadrada de orden n y A tiene una fila (o columna) nula, entonces

detA = 0

Demostración:

Si A tiene una fila (columna) nula, es decir, todas las componentes de esa fila serán cero. Sea i la
fila nula de A. Entonces calculamos el determinante de dicha fila

detA = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain


|{z} |{z} |{z}
0 0 0

= 0Ai1 + 0Ai2 + · · · + 0Ain


= 0

De igual manera se puede hacer con una columna de la matriz.

Q.E.D.

.:Teorema 2.4 (Propiedad 2)


Si A es una matriz cuadrada de orden n. Si cualquier fila de A se multiplica por un escalar k, el
determinante de la nueva matriz es k veces el determinante de A.

Demostración:

Tomemos B como la matriz que se obtiene al tomar la matriz A y multiplicar la fila i por un
escalar k, es decir :
2. Determinantes 101

   
a11 a12 ··· a1j ··· a1n a11 a12 ··· a1j ··· a1n

 a21 a22 ··· a2j ··· a2n 


 a21 a22 ··· a2j ··· a2n 

 .. .. .. .. .. ..   .. .. .. .. .. .. 
 . . . . . .   . . . . . . 
A=
 ai1
 y B= 
 ai2 ··· aij ··· ain 

 kai1
 kai2 ··· kaij ··· kain 

 . .. .. .. .. ..   . .. .. .. .. .. 
 .. . . . . .   .. . . . . . 
an1 an2 ··· anj ··· ann an1 an2 ··· anj ··· ann

Ahora obtenemos el determinante de B expandiendo por cofactores la fila i.

detB = kai1 Bi1 + kai2 Bi2 + · · · + kain Bin


Recordemos que A y B sólo difieren en la i-ésima fila, por lo tanto, los cofactores Aij y Bij son
iguales para todo j = 1, 2 . . . n. Entonces reemplazamos Aij por Bij .

detB = kai1 Ai1 + kai2 Ai2 + · · · + kain Ain


= k (ai1 Ai1 + ai2 Ai2 + · · · + ain Ain )
= k (detA)

Q.E.D.

.:Corolario 2.2 Si A es una matriz cuadrada de orden n, entonces:

det(kA) = k n detA

.:Teorema 2.5 (Propiedad 3)


Sean A, B y C matrices cuadradas de orden n idénticas excepto por la i-ésima fila, y tal que la
i-ésima fila de C es la suma de la i-ésimas filas de A y B. Entonces y sólo entonces:

detC = detA + detB

Demostración:

Sean:

   
a11 a12 ··· a1j ··· a1n a11 a12 ··· a1j ··· a1n

 a21 a22 ··· a2j ··· a2n 


 a21 a22 ··· a2j ··· a2n 

 .. .. .. .. .. ..   .. .. .. .. .. .. 
 . . . . . .   . . . . . . 
A=
 ai1
, y B= 
 ai2 ··· aij ··· ain 

 bi1
 bi2 ··· bij ··· bin 

 . .. .. .. .. ..   . .. .. .. .. .. 
 .. . . . . .   .. . . . . . 
an1 an2 ··· anj ··· ann an1 an2 ··· anj ··· ann
2. Determinantes 102

 
a11 a12 ··· a1j ··· a1n

 a21 a22 ··· a2j ··· a2n 

 .. .. .. .. .. .. 
 . . . . . . 
C =
 ai1 + bi1

 ai2 + bi2 ··· aij + bij ··· ain + bin 

 .. .. .. .. .. .. 
 . . . . . . 
an1 an2 ··· anj ··· ann
Ahora, desarrollando el detC tenemos

detC = (ai1 + bi1 )Ci1 + (ai2 + bi2 )Ci2 + · · · + (ain + bin )Cin
= (ai1 Ci1 + ai2 Ci2 + · · · + ain Cin ) + (bi1 Ci1 + bi2 Ci2 + · · · + bin Cin )

Como Aij = Bij = Cij para j = 1, 2, . . . , n entonces

detC = (ai1 Ai1 + ai2 Ai2 + · · · + ain Ain ) + (bi1 Bi1 + bi2 Bi2 + · · · + bin Bin )

= detA + detB

Nota: La propiedad 3, de ninguna manera debe confundirse con det(A + B) = detA + detB,
igualdad que generalmente es falsa

Q.E.D.

.:Teorema 2.6 (Propiedad 4)


Sea A una matriz cuadrada de orden n. Si se intercambian dos filas cuales quiera de A, el
determinante de la matriz así obtenida es igual a detA multiplicado por (-1).

Demostración:

La demostración de esta propiedad se baso en la hecha por Restrepo P. en [2].

Construyamos la matriz B de forma que se tome la matriz A y se intercambian las filas adyacentes
i e (i + 1), de forma que:

   
a11 a12 ··· a1n a11 a12 ··· a1n

 a21 a22 ··· a2n 


 a21 a22 ··· a2n 

 .. .. .. ..   .. .. .. .. 

 . . . . 


 . . . . 

 ai1
A= ai2 ··· ain  a(i+1),1
y B= a(i+1),2 ··· a(i+1),n
 
 
 a(i+1),1 a(i+1),2 ··· a(i+1),n   ai1 ai2 ··· ain 
   
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
an1 an2 ··· ann an1 an2 ··· ann

Ahora, obtenemos el detA por cofactores de la i−ésima fila de A


2. Determinantes 103

detA = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain


y el detB por cofactores de la (i + 1)−ésima fila de B

detB = ai1 B(i+1),1 + ai2 B(i+1),2 + · · · + ain B(i+1),n


Sea M ′ la menor de la matriz B, entonces, M(i+1),j

de B es igual al menor Mij de la matriz A,


B(i+1),j = (−1)i+1+j |M(i+1),j |
= (−1)i+1+j |M ij |
= −(−1)i+j |M ij |
= −Aij

Como vemos, B(i+1)j = −Aij , es decir, B(i+1)j = (−1)Aij , si calculamos de nuevo el detB
teniendo en cuenta este resultado obtenemos lo siguiente:

detB = ai1 (−Ai1 ) + ai2 (−Ai2 ) + · · · + ain (−Ain )


= −(ai1 Ai1 + ai2 Ai2 + · · · + ain Ain ) (2.18)
= −detA

Lo que muestra es que, al intercambiar dos filas adyacentes de una matriz, el procedimiento se
verá reflejado en el determinante al cambiar de signo.

Ahora supongamos que la matriz B se construye de la misma manera, pero las filas que se
intercambian no son adyacentes.
   
a11 a12 · · · a1n a11 a12 ··· a1n
 a21 a22 · · · a2n   a21 a22 ··· a2n 
   
 .. .. .. ..   .. .. .. .. 
 .
 . . .   .
 . . . 

 aj1 aj2 · · · ajn   ai1 ai2 ··· ain 
   
A= . . . .  y B= . .. .. .. 
 .. .. .. ..   .. . . . 
   
 ai1 ai2 · · · ain   aj1 aj2 ··· ajn 
   
 . .. .. ..   . .. .. .. 
 .. . . .   .. . . . 
an1 an2 · · · ann an1 an2 ··· ann
En este caso, se toman las filas i y j de modo que j > i. Para demostrarlo de esta forma tendríamos
que intercambiar varias veces las filas hasta que, ambas filas, i y j estén adyacentes. Este proceso
conlleva realizar i − j intercambios de filas adyacentes. La j−ésima fila se moverá una posición,
es decir a la j + 1 fila, esto implica (i − (j + 1)) intercambios adicionales para que las dos filas
queden adyacentes. Luego el número total de intercambios serán: (i−j)+(i−j −1) = 2i−2j-1,
el cual lo podemos ver de la siguiente forma 2(i − j)-1 que es un numero impar de movimientos,
y por por (2.18)
2. Determinantes 104

detB = (−1)2i−2j−1 detA


= (−1)2(i−j)−1 detA
= (−1)(−1)2(i−j) detA Factorizando el (−1)
= (−1)detA

Esto es, al intercambiar dos filas cuales quiera de A, el determinante de la matriz así obtenida es
igual a detA multiplicado por -1.

Q.E.D.

De lo anterior, podemos deducir el siguiente corolario.

.:Corolario 2.3 Sea P una matriz de permutación, entonces:


1. El detP = −1

2. Si tenemos k permutaciones en P , entonces detP = (−1)k donde k es el número de


intercambios de filas.

.:Teorema 2.7 (Propiedad 5)


Sea A una matriz cuadrada de orden n. Si dos filas de A son iguales, entonces el detA = 0

Demostración:

Supongamos que las filas i y j de A son iguales:


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. .. .. 
 .
 . . . 

 aj1 aj2 ··· ajn 
 
A= . .. .. .. 
 .. . . . 
 
 ai1 ai2 ··· ain 
 
 . .. .. .. 
 .. . . . 
an1 an2 ··· ann
Tal que ajk = aik para todo k = 1, 2, . . . , n. Ahora bien, si intercambiamos las filas i y j,
entonces obtendremos la matriz B, cuyo determinante es detB = −detA.
2. Determinantes 105

 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

 .. .. .. .. 

 . . . . 

 ai1 ai2 ··· ain 
 
B= . .. .. .. 
 .. . . . 
 
 aj1 aj2 ··· ajn 
 
 . .. .. .. 
 .. . . . 
an1 an2 ··· ann
Como ambas filas son iguales, al intercambiarlas el resultado es de nuevo la matriz A, es decir:

A = B
detA = detB
= −detA
detA + detA = 0
2detA = 0
detA = 0

Q.E.D.

.:Teorema 2.8 (Propiedad 6)


Sea A una matriz cuadrada de orden n. Si A tiene una fila que es múltiplo escalar de otra,
entonces el detA = 0

Demostración:

Supongamos que la fila j es múltiplo escalar de la fila i, es decir βajk = aik para todo
k = 1, 2, . . . , n. y β ∈ R.
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. .. .. 
 .
 . . . 

 aj1 aj2 ··· ajn 
 
A= . .. .. .. 
 .. . . . 
 
 βaj1 βaj2 ··· βajn  fila i
 
 . .. .. .. 
 .. . . . 
an1 an2 ··· ann
Usando la propiedad 1, podemos decir que detA = βdetA, pero como A, al factorizar β, queda
con dos filas iguales, entonces podemos aplicar la propiedad 5, lo que implicaría que detA = 0.

Q.E.D.
2. Determinantes 106

.:Teorema 2.9 (Propiedad 7)


Sea A una matriz cuadrada de orden n. Si sumamos un múltiplo escalar de una fila a otra,
entonces el determinante de A no cambia

Demostración:

Sea C la matriz obtenida al realizar la operación elemental fi → fi + kfj de A, es decir, se


intercambia la fila i por la misma fila i más la fila j multiplicada por el escalar k en la matriz A.
 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

 .. .. . .. .
.. 

 . . 


 a j1 a j2 · · · a jn 

C = .. .. . . 
 . . . . .
. 
 
 ai1 + kaj1 ai2 + kaj2 · · · ain + kajn 
 
 .. .. .. .. 
 . . . . 
an1 an2 ··· ann
Podemos escribir, a partir de A′ , las siguientes matrices:

   
a11 a12 ··· a1n a11 a12 ··· a1n

 a21 a22 ··· a2n 


 a21 a22 ··· a2n 

 .. .. .. ..   .. .. .. .. 

 . . . . 


 . . . . 

 aj1 aj2 ··· ajn   aj1 aj2 ··· ajn 
   
A= . .. .. ..  y B= . .. .. .. 
 .. . . .   .. . . . 
   
 ai1 ai2 ··· ain   kaj1 kaj2 ··· kajn 
   
 . .. .. ..   . .. .. .. 
 .. . . .   .. . . . 
an1 an2 ··· ann an1 an2 ··· ann

Podemos observar que detB = 0 por la propiedad 6. Si aplicamos la propiedad 3, tenemos que

detC = detA + detB


= detA + 0
= detA

Q.E.D.

.:Corolario 2.4 Si E es una matriz elemental de orden n, donde se aplique la operación


elemental fi → fi + kfj , entonces detE = 1

Los siguientes ejemplos muestran los beneficios de aplicar las propiedades de los determinantes
frente a usar el método por cofactores.
2. Determinantes 107

Ejemplo 2.9 Hallar el determinante de la matriz


 
2 7 −4 −1
 10 −90 79 51 
A=  −10 −35 20

5 
97 28 14 74
Calcular el determinarte de A por cofactores implicaría un gran esfuerzo de computo, pero
aplicando las propiedades, podemos ver que la tercera fila es múltiplo escalar de la primera,
es decir f3 = −5f1 , luego aplicando la propiedad 6, el detA = 0.

Ejemplo 2.10 Calcular




1 3 5 2

0 −1 3 4
|A| =
2 1 9 6

3 2 4 8
Solución:

1 3 5 2

0 −1 3 4
|A| = Tratamos de convertirlo en el determinante de una matriz triangular.
2 1 9 6

3 2 4 8
- Multiplicamos el renglón 1 por dos y lo restamos del tercero.
- Multiplicamos el renglón 1 por 3 y lo restamos del 4, entonces:



1 3 5 2

0 −1 3 4
|A| =
0 −5 − 1 2

0 −7 −11 2
- Multiplicamos el renglón 2 por -5 y lo sumamos al tercero.
- Multiplicamos el renglón 2 por -7 y lo sumamos al cuarto, entonces:

1 3 5 2

0 −1 3 4
|A| =
0 0 −16 −18
0 0 −32 −26
- Multiplicamos el renglón 3 por -2 y lo sumamos al cuarto y se obtiene:

1 3 5 2

0 −1 3 4
|A| =
0 0 −16 −18
0 0 0 10
Como la matriz que se obtiene es triangular superior, detA=producto de los elementos en la
diagonal principal

detA = 1. (−1) . (−16) .10 = 160


2. Determinantes 108

NOTA: el objetivo al aplicar las propiedades a un determinante es:


a) Convertirlo en el determinante de una matriz triangular superior o inferior
b) Hacer que una fila o columna se convierta en ceros
c) Hacer que dos filas o columnas sean iguales
d) Hacer que una fila o columna sea múltiplo de otra
Si después de aplicar las propiedades no se puede llegar a ninguno de los resultados anteriores, el
determinante se puede calcular por cualquiera de los siguientes métodos:
1. Método de expansión por cofactores.
2. Método de Chió.

Ejemplo 2.11 Hallar el determinante de la matriz reduciéndola a forma triangular:


 
2 2 0 4
 3 3 2 2 
A=  0 1 3 2 

2 0 2 1

Solución:

Hallamos que:

2 2 0 4 1 1 0 2

3 3 2 2 3 3 2 2
detA = = 2 Propiedad de la multiplicación por un escalar
0 1 3 2 0 1 3 2


2 0 2 1 2 0 2 1


1 1 0 2
0 0 2 −4
= 2 Dos veces la propiedad de suma de filas
0 1 3 2
0 −2 2 −3


1 1 0 2

0 1 3 2
= −2 Propiedad de intercambio de filas
0 0 2 −4

0 −2 2 −3


1 1 0 2
0 1 3 2
= −2 Propiedad de suma de filas
0 0 2 −4
0 0 8 1
2. Determinantes 109



1 1 0 2
0 1 3 2
= −2 (2) Propiedad de multiplicación por escalar
0 0 1 −2
0 0 8 1


1 1 0 2
0 1 3 2
= −2 (2) Propiedad de suma de filas
0 0 1 −2
0 0 0 17

Por tanto, det (A) = (−2) (2) (17) = −68


 
1 −1 3
Ejemplo 2.12 Calcular detA cuando A =  1 0 −1 
2 1 6
Solución:

La matriz tiene elementos que son cero en la segunda fila, por lo que el desarrollo por esta segunda
fila debería conllevar menos trabajo. Sin embargo, se puede realizar una operación elemental entre
columnas para obtener un cero en la posición (2, 3): sumar la columna 1 a la columna 3. Ya que
esto no cambia el valor del determinante se obtiene:

1 −1 3 1 −1 4
−1 4
detA = 1 0 −1 = 1 0 0 = −
= 12
2 1 1 8
6 2 1 8
donde se ha desarrollado la segunda matriz 3 × 3 por la fila 2.

 
a b c a+x b+y c+z

Ejemplo 2.13 Si det p q r = 6, calcular detA donde A =  3x
3y 3z 
x y z −p −q −r
Solución:

En primer lugar se sacan factores comunes de las filas 2 y 3:



a+x b+y c+z

detA = 3 (−1) x y z

p q r
A continuación, se resta la segunda fila a la primera y se intercambian las últimas dos filas:

a b c a b c

detA = −3 x y z = 3 p q r = (3).(6) = 18
p q r x y z
 
1 x x
Ejemplo 2.14 Encontrar los valores de x para los cuales detA = 0, donde A =  x 1 x 
x x 1
2. Determinantes 110

Solución:


1 x x 1 x x
1 − x2 x − x2
detA = x 1 x = 0 1 − x2 x − x2 =
x − x2 1 − x2
x x 1 0 x − x2 1 − x2

En este caso, se podría evaluar únicamente el determinante (el resultado es 2x3 − 3x2 + 1 y
posteriormente factorizar el polinomio para encontrar los valores de x que lo hacen cero. Sin
embargo, esta factorización se puede obtener directamente si se factoriza primero cada elemento
del determinante y se saca el factor común (1 − x) de cada fila:


(1 − x) (1 + x) x (1 − x)
detA =
x (1 − x) (1 − x) (1 + x)

2 1+x x
= (1 − x)
x 1+x

= (1 − x)2 (2x + 1)
2
De aquí se deduce que detA = 0 significa (1 − x) (2x + 1) = 0, por lo que x = 1 o x = − 21

Ejemplo 2.15 Si se dan a1 , a2 y a3 , demostrar que:



1 1 1

det a1 a2 a3 = (a3 − a2 ) (a3 − a1 ) (a2 − a1 )
a21 a22 a23

Solución:

Se comienza restando la segunda columna a la tercera y después restando la primera columna a


la segunda:

1 1 1 1 0 0
a1 a2 a3 = a1 a2 − a1 a3 − a2 = a22 − a21 a23 − a22

2
a1 a22 a23 a21 a22 − a21 a23 − a22
a2 − a1 a3 − a2

Ahora (a2 − a1 )y (a3 − a2 ) son factores comunes de las primera y la segunda columna, por lo
que:


1 1 1

a1
1 1
a2 a3 = (a3 − a2 ) (a2 − a1 )
2 a2 + a1 a3 + a2
a1 a22 a23
= (a3 − a2 ) (a2 − a1 ) (a3 − a1 )

Ejercicios 2.2
2. Determinantes 111

1. Suponiendo que:

a11 a12 a13

a21 a22 a23 =8

a31 a32 a33
calcule los siguientes determinantes:

a21 a22 a23 −3a11 −3a12 −3a13

a) a31 a32 a33 d) 2a21 2a22 2a23

a11 a12 a13 5a31 5a32 5a33

a11 a13 a12 a11 2a13 a12

b) a21 a23 a22 e) a21 2a23 a22
a31 a33 a32 a31 2a33 a32

a11 a12 a13 a12 a11 2a12 − a11

c) 2a21 2a22 2a23 f ) a22 a21 2a22 − a21
a31 a32 a33 a32 a31 2a32 − a31

2. Muestre que el valor del determinante



23 54 96

21 21 36

−45 87 63

es 65583, utilizando las distintas propiedades de éste.


3. Demuestre que

1 + x1 x2 x3 ··· xn

x1 1 + x2 x3 ··· xn

x1 x2 1 + x3 ··· xn
= 1 + x1 + x2 + · · · + xn
.. .. .. ..

. . . .

x1 x2 x3 ··· 1 + xn

2.5. Método de Chió para hallar determinantes


El objeto del método de Chió es reducir el determinante de orden n a otro de orden n − 1 en cada
iteración.

Procedimiento:
1. Elegir en el determinante un elemento pivote de valor 1. Si el pivote uno, no se encuentra,
se aplican propiedades hasta hallarlo.
2. Se determina la fila o columna a la cual pertenece el pivote. Supongamos que 1 está en
ubicado en la fila 2 y la columna 3.
Por ejemplo:
2. Determinantes 112



a11 a12 a13 a14

a21 a22 1 a24
|A| =
a31 a32 a33 a34

a41 a42 a43 a44

En este caso i = 2 y j = 3
3. Se obtiene un determinante de menor orden en la siguiente forma:

a11 − a21 a13 a12 − a22 a13 a14 − a24 a13
i+j
|A| = (−1) a31− a21 a13 a32− a22 a13 a34 − a24 a13

a41− a21 a13 a42 − a22 a13 a44 − a24 a13

4. Al determinante resultante se le aplican nuevamente los pasos anteriores hasta obtener un


determinante de orden 2.

Ejemplo 2.16 Calcular el siguiente determinante por el método de Chió.



1 3 −1 −1

2 −2 1 3
|A| =
3 −1 1 −4
8 2 −2 −4

Supongamos que se escoge como pivote el 1 que esta en la fila 3 columna 3



1 3 −1 −1
1 − 3 (−1) 3 − (−1) (−1) −1 − (−4) (−1)


2 −2 1 3 3+3
|A| = = (−1) 2 − 3 (1) −2 − (−1) (1) 3 − (−4) (1)


3 −1 1 −4 8 − 3 (−2) 2 − (−1) (−2) −4 − (−4) (−2)


8 2 −2 −4

4 2 −5

= + −1 −1 7
14 0 −12

Ahora aplicamos el método de Sarrus, obteniendo detA=150

Ejemplo 2.17 Resolver por el método de Chió.



3 2 0 4 7

2 5 6 2 8

|A| = 4 2 2 3 3

0 5 0 2 2

0 4 2 2 2
2. Determinantes 113

Como la matriz no tiene un 1 en ninguna posición aplicamos la siguiente operación de fila:


f4 → f4 − f5

3 2 0 4 7 3 2 0 4 7

2 5 6 2 8 2 5 6 2 8

|A| = 4 2 2 3 3 f4 → f4 − f5
4 2 2 3 3

0 5 0 2 2 0 1 −2 0 0

0 4 2 2 2 0 4 2 2 2
Ahora aplicamos el método de Chió con el pivote de valor que se encuentra en la fila 4 columna 2


3 − (2) (0) 0 − (2) (−2) 4 − (2) (0) 7 − (2) (0)

6 2 − (5) (0) 6 − (5) (−2) 2 − (5) (0) 8 − (5) (0)
= (−1)
4 − (2) (0) 2 − (2) (−2) 3 − (2) (0) 3 − (2) (0)

0 − (4) (0) 2 − (4) (−2) 2 − (4) (0) 2 − (4) (0)

3 4 4 7

2 16 2 8
=
4 6 3 3


0 10 2 2

Volvemos aplicar el método de Chió, pero como no tenemos un 1, debemos aplicar la operación
de fila: f3 → f3 − f4

3 4 4 7 3 4 4 7

2 16 2 8 2 16 2 8
4 6 3 3 f3 → f3 − f4 4 −4 1 1


0 10 2 2 0 10 2 2
Ahora aplicamos el método de Chió teniendo como pivote el valor 1 de la fila 3 columna 3.

3 − (4) (4) 4 − (−4) (4) 7 − (4) (1) −13 20 3
3+3
= (−1) 2 − (4) (2) 16 − (−4) (2) 8 − (2) (1) = + −6 24 6

0 − (4) (2) 10 − (−4) (2) 2 − (2) (1) −8 18 0
Ahora aplicamos el método de Sarrus para hallar el determinante y obtenemos: detA=696

2.6. Determinantes y matrices especiales


Cuando queremos encontrar la solución a un sistema de ecuaciones lineales ¿es posible saber,
apriori, si un sistema ecuaciones lineales tiene única solución o múltiples soluciones?. O como
veremos más adelante, el determinante puede en algún momento (si la matriz es cuadrada)
decirme si el sistema tiene única solución o no. Sin embargo, el costo computacional puede
ser muy grande. Los siguientes teoremas muestran la relación entre los sistemas de ecuaciones
lineales y el determinante. Posteriormente veremos el determinante de algunas matrices como la
matriz inversa y la traspuesta.

.:Teorema 2.10 Sea E una matriz elemental definida por la operación elemental fi → kfi ,
entonces, detE = k
2. Determinantes 114

Demostración:

Es fácil ver que el determinarte de una matriz identidad I de tamaño n es 1, pues la matriz
identidad es triangular inferior y superior a la vez, luego por el Teorema 2.1, tenemos que el
detI = 1.

Ahora bien, si E es de la forma fi → kfi , entonces una de las filas de I se esta multiplicando por
un número k, si aplicamos la propiedad 2, tendemos que:

detE = detI · (k)


= 1·k
= k

Q.E.D.

.:Teorema 2.11 Sea E una matriz elemental definida por la operación elemental fi → fi + kfj ,
entonces, detE = 1

Demostración:

De igual manera, el determinarte de una matriz identidad I de tamaño n es 1 (Teorema 2.1)

Si E es de la forma fi → fi + kfj , entonces, una de las filas de I se le esta sumando un


múltiplo escalar de otra, por lo tanto, y al aplicar la propiedad 7, su determinante no cambia,
luego detE = 1.

Q.E.D.

.:Teorema 2.12 Sea E una matriz elemental definida por la operación elemental fi ⇆ fj ,
entonces, detE = −1

Demostración:

De igual manera, el determinarte de una matriz identidad I de tamaño n es 1 (Teorema 2.1)

Si E es de la forma fi ⇆ fj , entonces, dos de las filas de I se intercambian, aplicando la


propiedad 4, tenemos que el detI debe multiplicarse por (-1), por lo tanto,

detE = detI · (−1)


= −1

Q.E.D.

Ejemplo 2.18 Hallar el determinante de las siguientes matrices elementales


     
1 0 0 1 0 0 0 1 0
A =  0 4 0 , B =  0 1 0 , C =  1 0 0 
0 0 1 −2 0 1 0 0 1
2. Determinantes 115

Solución:

La matriz A es de la forma f2 → 4f2 , luego detA = 4.

La matriz B es de la forma f3 → f3 + (−2)f1 , luego detA = 1, Además, es fácil ver que la


matriz B es triangular inferior, por lo tanto, podemos aplicar el teorema 2.1.

La matriz C es de la forma f1 ⇆ f2 , luego detC = −1

El siguiente teorema puede contestar la pregunta que hicimos al principio de esta sección:
¿es posible saber, apriori, si un sistema ecuaciones lineales tiene única solución o múltiples
soluciones?. Es decir, si una matriz es invertible o no, se puede establecer que un sistema tiene
solución única o múltiples soluciones.

.:Teorema 2.13 Sea A una matriz de tamaño n×n, entonces A es invertibles si y sólo si detA 6= 0

Demostración:

Por el teorema 1.21, podemos obtener la factorización de la matriz A en su forma LU , usando


matrices elementales. La matriz A se puede expresar en forma de LU sin usar la operación
elemental fi → kfi , es decir, sin multiplicar las filas por escalares, luego las matrices elementales
obtenidas serán de esta misma forma. Ahora bien, si aplicamos las propiedades 4 y 7 que son las
relacionadas con estas dos operaciones, podemos convertir la matriz A en la matriz U . Recuerde
que no hemos usado las operaciones elementales de la forma fi → kfi . Luego:

detA = ±detU
El ± depende de la cantidad de veces que se apliquen operaciones elementales de permutación,
pues si es un número par de veces será + y si es un número impar de veces será un - .

Supongamos que A es invertible, entonces U es una matriz triangular superior con todos los
elementos de la diagonal principal diferentes e cero, es decir esta en la forma FER (Definición
1.11 y teorema 1.12), entonces por el teorema 2.1 tenemos que:

detU = u11 u22 · · · unn 6= 0


Por lo tanto, detA 6= 0.

Ahora bien, supongamos que detA 6= 0, como detA = ±detU , luego detU 6= 0 y por ser U
triangular superior, entonces aplicamos de nuevo el teorema 2.1 y tenemos que

detU = u11 u22 · · · unn 6= 0


Como U es la forma FER de A, entonces por definición 1.11 y teorema 1.12, tiene n pivotes y
por lo tanto, A es invertible.

Q.E.D.
2. Determinantes 116

Ejemplo 2.19 Tomemos la matriz


 
1 −9
A=
−2 5

Su inversa es  
5 9
− 13 − 13
A−1 =  
2 1
− 13 − 13
Y si calculamos detA = 5 − 18 = 13, luego detA 6= 0

.:Teorema 2.14 Sea A una matriz cuadrada de orden n, si A es invertible entonces, su


determinante es igual al producto de sus pivotes

detA = ±d1 d2 · · · dn

Demostración:

Tomemos A una matriz cuadrada de orden n e invertible. Entonces por el teorema 1.21, podemos
encontrar LU , pero en este caso no usaremos la operación elemental fi → kfi . Como A es
invertible, entonces U tiene n pivotes distintos de cero (en la diagonal de U ), luego, por las
propiedades 4 y 7 tenemos

detA = detU
= ±d1 d2 · · · dn

Q.E.D.

El resultado anterior, lo podemos usar para el siguiente teorema, el cual es fundamental en el


estudio de los determinantes.

.:Teorema 2.15 Sean A y B matrices de orden n, entonces

detAB = detA · detB

Es decir: el determinante de un producto es el producto de los determinantes.

Demostración:

Sean A y B dos matrices de orden n. Si A (o B) fuese no invertible, entonces AB seria no


invertible, luego
detAB = 0
y el detA = 0, luego detAdetB = 0, en cualquiera de los dos casos detAB = detA · detB.

Ahora, supongamos que A es invertible entonces, por el teorema 1.21, podemos encontrar LU ,
pero en este caso no usaremos la operación elemental fi → kfi . Ahora tomamos la matriz U y
2. Determinantes 117

por medio de operaciones elementales por fila (sin usar fi → kfi ), la convertimos en una matriz
diagonal D. Por propiedades 4 y 7 tenemos que:

detA = ±detD
Por el teorema 1.17 y el teorema 1.15 podemos convertir A en la matriz D, multiplicando A por
matrices elementales

D = E1 E2 · · · Ek−1 Ek A
Ahora usaremos esta factorización de tal forma que

AB = DB
= (E1 E2 · · · Ek−1 Ek A) B

Donde todos los Ei son matrices elementales que no son del tipo fi → kfi , entonces

detAB = ±detDB

Pero

    
d1 b11 b12 ··· b1n d1 b11 d1 b12 ··· d1 b1n

 d2 
 b21 b22 ··· b2n  
  d2 b21 d2 b22 ··· d2 b2n 

DB =  ..  .. .. .. = .. .. .. 
 .  . . .   . . . 
dn bn1 bn2 ··· bnn dn bn1 dn bn2 ··· dn bnn

Para calcular detDB aplicamos n veces la propiedad 2:

det(AB) = ±detDB


b11 b12 · · · b1n
d2 b21 d2 b22 · · · d2 b2n

= ±d1 .. .. ..

. . .
dn bn1 dn bn2 · · · dn bnn


b11 b12 · · · b1n

d2 b21 d2 b22 · · · d2 b2n

±d1 d2 .. .. ..

. . .

dn bn1 dn bn2 · · · dn bnn
..
.

b11 b12 ··· b1n

d2 b21 d2 b22 ··· d2 b2n

±d1 d2 · · · dn .. .. ..

. . .

dn bn1 dn bn2 ··· dn bnn

que es igual a
2. Determinantes 118

detAB = ±detDdetB
= detA · detB

Q.E.D.

Ejemplo 2.20 Comprobar que detAB = detAdetB dadas la matrices


   
−4 2 9 1 2 3
A =  3 −5 −6  y B= 9 5 4 
1 −2 6 7 4 6
Solución:
Veamos que:

77 38 50

detAB = −84 −43 −47 = −3885
25 16 31
Ahora bien, detA = 111 y detB = −35, luego detAdetB = 111 ∗ (−35) = −3885.

Otro resultado importante en el cálculo del determinarte, tiene que ver con la traspuesta de una
matriz. El siguiente teorema muestra que el determinante de una matriz y el de su traspuesta es el
mismo.

.:Teorema 2.16 Sea A un matriz cuadrada de orden n, entonces

detA = detAt

Demostración:

Suponga que A se puede escribir de la siguiente forma:

A = LU
Asumiendo de que A no necesita permutaciones. Entonces, aplicando el teorema 1.7

At = (LU )t
= U t Lt

Calculamos el determinante

detAt = det U t Lt
= detU t detLt

Sabemos que detL = 1 por el teorema 2.1, luego su traspuesta es una matriz triangular y por tanto
detLt = 1, luego
detAt = detU t
2. Determinantes 119

El mismo análisis se puede usar para afirmar que detA = detU . Pero sabemos que U es una
matriz triangular superior, al trasponerla pasaría a ser una matriz triangular inferior, pero ambas
U y U t tendrían los mismos elementos en la diagonal, aplicando el teorema 2.1, entonces:

detU = detU t

Luego

detAt = detU t = detU = detA


Por tanto
detAt = detA
Ahora bien, si A necesita permutaciones, entonces tenemos que

detP A = det(P A)t


= detAt P t

Por el teorema 2.15 tenemos que

detP detA = detP A



= det At P t
= detAt detP t

Sólo nos queda ver que pasa con el determinante de una matriz de permutación, pero es muy fácil
demostrar que detP = detP t y además detP = ±1. Por lo tanto

detA = detAt

Q.E.D.

Ejemplo 2.21 Calcular el detA y detAt si


 
−4 2 9
A =  3 −5 −6 
1 −2 6

Solución:
Calculamos At
 
−4 3 1
At =  2 −5 −2 
9 −6 6
Luego, detA = 111 y detAt = 111
2. Determinantes 120

2.7. La inversa de una matriz y su determinante


En la siguiente sección, encontraremos la relación entre el determinante de una matriz y el
determinante de su inversa. De igual manera veremos como podemos usar el determinante de
una matriz para calcular la matriz inversa.

El siguiente teorema muestra que el determinante de una matriz y el determinante de su inversa


son recíprocos:

.:Teorema 2.17 Sea A una matriz cuadrada de orden n, Si A es invertible, entonces detA 6= 0 y
además
1
detA−1 =
detA
Demostración:

Si A es invertible, entonces por el teorema 2.13, que detA 6= 0, ahora bien, Sabemos que
el determinante de una matriz identidad de tamaño n es 1, pues su determinarte se calcula
multiplicando los elementos de la diagonal (teorema 2.1). Tambien recordemos que por definición
de inversa de una matriz
AA−1 = A−1 A = In
Entonces

1 = detIn

= det AA−1 = 1
= detAdetA−1

De lo cual deducimos que

detA−1 detA = 1
luego
1
detA−1 =
detA
Q.E.D.

Ejemplo 2.22 Tomamos


 
−4 3 1
A =  2 −5 −2 
9 −6 6
Su inversa  
− 14
37
8
37
1
− 111
 
−1
 10 11 2

A  − 37
= − 37 − 37 

 
11 1 14
37 37 111
2. Determinantes 121

Ahora, detA = 111 y el detA−1 = 0.0090090, se puede ver que


1
0.0090090 =
111
La siguiente definición se refiere al concepto de matriz Adjunta.

.:Definición 2.7 (Matriz Adjunta)


Sea A una matriz cuadrada de orden n. Tomemos la matriz B cuadrada de orden n cuyas
componentes son los cofactores de A, de tal forma que coincidan con los componentes de la
matriz, tal que aij = Aij
 
A11 A12 · · · A1n
 A21 A22 · · · A2n 
 
B= . .. .. ..  ∀i, j con i = 1, 2, . . . , n y j = 1, 2, . . . , n
 .. . . . 
An1 An2 ··· Ann

La adjunta de A denotada como adjA se define como la traspuesta de la matriz de cofactores


 
A11 A21 · · · An1
 A12 A22 · · · An2 
adjA = B t =  .
 
.. .. .. 
 .. . . . 
A1n A2n · · · Ann

El cálculo de la AdjA puede resultar muy largo, debido a la cantidad de cofactores implícitos en
la matriz original.

Ejemplo 2.23 Sea A definida de la siguiente forma:


 
2 4 −6
A =  −3 5 1 
0 −7 3
Encuentre la AdjA

Solución:
Para hallar la adjunta primero debemos hallar los cofactores de A, es decir, los componentes de
la matriz B de la definición 2.7.


2
5 1 −3
3 5
A11 = (−1) = 22 A21 = (−1)
= 30
−7 3 0 −7

−3 1 2 −6
A12 = (−1)3 =9 A22 = (−1)4 =6
0 3 0 3

−3 5 5 2
4
A13 = (−1)4 = 21 A23 = (−1) = 14
0 −7 0 −7
2. Determinantes 122


4
4 −6 2 4
6
A31 = (−1) = 34 A33 = (−1) = 22
5 1 −3 5

2 −6
A32 = (−1)5 = 16
−3 1

Luego la matriz B sería


 
22 9 21
B =  30 6 14 
34 16 22
Entonces
 
22 30 34
AdjA = B t =  9 6 16 
21 14 22

Los siguientes teoremas muestran la relación existente entre una matriz, su adjunta y el
determinante.

.:Teorema 2.18 Sea A una matriz cuadrada de orden n, entonces

ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0 si i 6= j

Demostración:

Sea
 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

 .. .. .. .. 

 . . . . 

 ai1 ai2 ··· ain 
 
B= . .. .. .. 
 .. . . . 
 
 ai1 ai2 ··· ain 
  → fila j
 . .. .. .. 
 .. . . . 
an1 an2 ··· ann
Como dos filas son iguales entonces el detB = 0, Pero B = A salvo por la fila j. Si expandimos
la fila j por cofactores para hallar el determinantes, tenemos

ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0

y en este caso el teorema queda demostrado. Pero, si al hacer la expanción del renglón j, esta fila
se elimina al calcular los cofactores de B. Así Bjk = Ajk para k = 1, 2, . . . , n.

Q.E.D.
2. Determinantes 123

.:Teorema 2.19 Sea A una matriz cuadrada de orden n, entonces:

A(AdjA) = (detA)In
En otras palabras

   
1 0 0 ··· 0 detA 0 0 ··· 0

 0 1 0 ··· 0
 
  0 detA 0 ··· 0 


(A)(AdjA) = (detA)  0 0 1 ··· 0
 
= 0 0 detA · · · 0 

 .. .. .. ..   .. .. .. .. 
 . . . .0   . . . . 0 
0 0 0 0 1 0 0 0 0 detA

Demostración:

Sea C = (cij ) = (A)(AdjA), entonces:


  
a11 a12 · · · a1n A11 A21 ··· An1
 a21 a22 · · · a2n  A12 A22 ··· An2 
  
C= . .. .. ..  .. .. .. .. 
 .. . . .  . . . . 
an1 an2 ··· ann A1n A2n ··· Ann
Entonces la componente cij de C tiene la siguiente forma:

cij = (fila i de A) · (columna j de AdjA)


 
Aj1

 Aj2 

= (ai1 ai2 · · · ain ) ·  .. 
 . 
Ajn

Así,

cij = ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn


Si i = j, entonces ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn sería el detA. Pero si i 6= j tendríamos el
caso del teorema 2.18, y en este caso ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn = 0, por lo tanto

 
detA 0 0 ··· 0

 0 detA 0 ··· 
 0

(A)(AdjA) =  0 0 detA · · · 
 0
 .. .. .. .. 
 . . . . 0 
0 0 0 0 detA

Q.E.D.
2. Determinantes 124

Ejemplo 2.24 Tomemos la matriz


 
2 4 −6
A =  −3 5 1 
0 −7 3
Sabemos que su ajunta es:
 
22 30 34
AdjA =  9 6 16 
21 14 22
Ahora bien, el detA = −46, veamos el producto de A(AdjA)
    
2 4 −6 22 30 34 −46 0 0
 −3 5 1   9 6 16  =  0 −46 0 
0 −7 3 21 14 22 0 0 −46
| {z }| {z } | {z }
A AdjA (detA)I3

El siguiente teorema se puede considerar como una forma alternativa de encontrar la inversa de
una matriz.

.:Teorema 2.20 Sea A una matriz cuadrada de orden n, si A es invertible, entonces:


 
1
A−1 = AdjA
detA

Demostración:

Sabemos por el teorema 2.19 sabemos que:


A(AdjA) = (detA)In
y como A es invertible, entonces el detA 6= 0. Pero ¿Cómo saber que una matriz es la inversa
 si B
de otra?. Es simple, recordemos que  es la inversa de A, entonces AB = BA = In . Esta
1
propiedad la usaremos para ver si detA AdjA es la inversa de A. Entonces:

AB = In
  
1
A AdjA = In
detA
| {z }
B
1
recordemos que detA es un escalar, el cual puedo sacar del producto, es decir, primero puedo
multiplicar las matrices y luego el escalar.
   
1 1
A(AdjA) = (detA) In
detA detA

= In
2. Determinantes 125

Q.E.D.

Éste método para hallar la inversa es muy costoso computacionalmente, pues se requiere de
calcular n2 determinantes de n − 1 y un determinante de orden n (ver [2]). Para hallar la inversa
de una matriz se utiliza otro tipo de algoritmos más eficientes.

Ejemplo 2.25 Hallar la inversa de A usando la AdjA y su determinante si:


 
2 4 −6
A =  −3 5 1 
0 −7 3
 
22 30 34
Sabemos que detA = −46 y AdjA =  9 6 16 , aplicando el teorema 2.20 tenemos
21 14 22
que:

 
22 30 34
1 
A−1 = − 9 6 16 
46
21 14 22
 11 15 17

− 23 − 23 − 23
 
 
=  −9 −3 8 
− 23 
 46 23
 
21 7 11
− 46 − 23 − 23

2.8. Regla de Cramer


La regla de Cramer es una forma alternativa para hallar la solución a un sistema de la forma
AX = b, con la ventaja de que se puede obtener una o algunas componentes de la solución (es
decir, algunos componentes del vector b) sin calcular los demás. Cuando resolvíamos el sistema
AX = b por el método de Gauss-Jordan, eliminación Gaussiana o la inversa, se encontraban
todas la soluciones al sistema1 . Sin embargo, el calculo de los determinantes hace que el método
sea poco eficiente.

.:Teorema 2.21 Sea A una matriz cuadrada de orden n, si A es invertible y es la matriz de


cofactores de un sistema cuya representación matricial es AX = b, entonces la j−ésima
componente del vector b, esta definida por:
detBj
xj =
detA
Donde Bj es la matriz que se obtiene tomando A y sustituyendo la j−ésima columna por el
vector b.
1 Por lo menos se podían encontrar en orden descendente, es decir, primero xn , luego xn−1 así sucesivamente.
2. Determinantes 126

Demostración:

Como A es invertible, entonces el sistema AX = b tiene solución única, la cual esta dada por
X = A−1 b. El teorema 2.20 nos dice que
1
A−1 = AdjA
detA
Así que usamos este resultado para reemplazarlo en X = A−1 b

X = A−1 b
 
1
= AdjA b
detA

Ahora bien, la la j−ésima componente de xj estaría dada por


  
1 1
xj = j−ésima componente de AdjA
detA detA
h i
1
Veamos que es la j−ésima componente de det A
AdjA b

  
A11 A21 ··· An1 b1

 A12 A22 ··· An2



b2
   .. .. ..
  ..
1  . . .
  .
AdjA b = 
 A1j A2j · · · Anj   bj 
 
detA   
 . .. ..   .. 
 .. . .  . 
A1n A2n · · · Ann bn
 
b1 A11 + b2 A21 + · · · + bn An1
 b1 A12 + b2 A22 + · · · + bn An2 
 
 .. 
 . 
=  b1 A1j + b2 A2j + · · · + bn Anj 

 
 .. 
 . 
b1 A1n + b2 A2n + · · · + bn Ann
h i
1
Luego, la j−ésima componente de detA
AdjA b es = b1 A1j + b2 A2j + · · · + bn Anj , entonces

1
xj = (b1 A1j + b2 A2j + · · · + bn Anj )
detA
(b1 A1j + b2 A2j + · · · + bn Anj )
=
detA
2. Determinantes 127

Ahora bien, la ecuación anterior es el determinante de la matriz Bj del teorema en cuestión.


Recordemos que  
a11 a12 · · · b1 ··· a1n
 a11 a22 · · · b2 ··· a2n 
 
Bj =  . .. .. .. 
 .. . . . 
an1 an2 · · · bn ··· ann
Es claro que la única diferencia entre la matriz A y la matriz B es la fila j−ésima columna, luego
si hallamos el detB por cofactores usando la j-ésima columna tendremos que

detB = b1 A1j + b2 A2j + · · · + bn Anj


luego entonces
detBj
xj =
detA
Q.E.D.
El teorema anterior permite encontrar la solución a un sistema de ecuaciones, permitiendo
encontrar algunas y no todas las componentes del vector b.

Ejemplo 2.26 Dado el siguiente sistema de ecuaciones lineales


6x1 + 4x2 − 5x3 + 9x4 = 8
x1 − 3x2 + x3 − 11x4 = −3
2x1 + 7x2 − 5x3 + 4x4 = 0
3x1 + 3x2 + 5x3 − x4 = 7
encuentre x2 y x3 usando la regla de Cramer.

Solución:

Tomemos la matriz A y su determinante


 
6 4 −5 9
 1 −3 1 −11 
A=
 2

7 −5 4 
3 3 5 −1
y el detA = −3322, como necesitamos encontrar x2 entonces reemplazamos la fila 2 por el
vector b y obtenemos el determinante de esta nueva matriz (B2 ), luego dividimos por el detA.

6 8 −5 9

1 −3 1 −11

2 0 −5 4

detB2 3 7 5 −1 340
x2 = = = = −0.1023480
detA 6 4 −5 9
−3322
1 −3 1 −11

2 7 −5 4

3 3 5 −1
2. Determinantes 128

El mismo procedimiento lo aplicamos para x3



6 4 8 9

1 −3 −3 −11

2 7 0 4

detB3 3 3 7 −1 −2568
x3 = = = = 0.7730283
detA 6 4 −5 9 −3322
1 −3 1 −11

2 7 −5 4

3 3 5 −1

Ejemplo 2.27 Aplicar la regla de Cramer para solucionar el siguiente sistema:

−x1 + x2 + x3 = 7
x1 − x2 + x3 = 3
x1 + x2 − x3 = 1
Solución:


−1 1 1

D = detA = 1 −1 1 =4

1 1 −1

Ahora hallamos los valores de x1 , x2 y x3 .



7 1 1

3 −1 1

1 1 −1 8
x1 = = =2
4 4

−1 7 1

1 3 1

1 1 −1 16
x2 = = =4
4 4

−1 1 7

1 1 3

1 1 1 20
x3 = = =5
4 4

Ejercicios 2.3

1. Resolver los siguientes determinantes por a) Método de los cofactores, b) Método de Chio
y comparar el número de operaciones ejecutadas en cada uno de ellos:
2. Determinantes 129


2 −1 3 −2 2 −1 1 3 1

0 1 3 2 −4 2 −2 1 0
a)

−1 2 1 4 d) 6 −3 0 1 0

0 1 3 2 1 1 1 −1 2

1 2 −3 4
2 0 3 1 1

3 4 −7 6 a 0 0 0 0
b)
5 6 −7 5 0 0 b 0 0
−8 −9
1 2 e) 0 0 0 0 c

2 3 −1 5
0 0 0 d 0

3 2 1 −6 0 e 0 0 0
c)
−5 −7 2 −8

4 1 −4 2

2. Solucionar los siguientes sistemas, usando la regla de Cramer:

5x + 2x2 − x3 = 3
a) 2x1 + 3x2 + 4x3 = −1
3x1 + 4x2 + 2x3 = 8
Solución: x1 = −2, x2 = 5 y x3 = −3
−2x1 + 3x2 − x3 = −5
b) −3x1 + x2 − 2x3 = −12
x1 + 2x2 − 3x3 = −1
Solución: x1 = 3, x2 = 1 y x3 = 2
x1 + 3x2 − x3 = 2
4x1 + x2 − 2x3 + 3x4 = 4
c)
−x1 + 5x2 + 3x3 − x4 = 1
3x1 + 2x2 + x3 + x4 = −2
Solución: x1 = −2, x2 = 1 , x3 = −1 y x4 = 3
−2x1 + 3x2 + 2x3 = −1
x1 + x3
− 2x4 = 3
d)
2x1 + x2 − x4 = 2
− x2 + x3 − 4x4 = 0
Solución: x1 = 2, x2 = −1 , x3 = 3 y x4 = 1

3. Hallar la inversa de las siguientes matrices usando determinantes y la matriz adjunta:


 
1 1 −1 0
 −3 4 6 0 
a) A =   2 5 −1 3  |A| = 183

4 0 3 0
 
2 5 −6 8 0
 0 1 −7 6 0 
 
b) B =   0 0 0 4 0  |B| = 640
 0 2 1 5 1 
4 −1 5 3 0
2. Determinantes 130

4. Sea A una matriz cuadrada de orden :n

a) Demuestre que si A es antisimétrica y n es impar entonces A no es invertible


n−1
b) Pruebe que si A es invertible, det (adjA) = (detA)
c) Demuestre que si A no es invertible entonces A (adjA) = 0
d) Si A, B, M son matrices cuadradas de orden n, tales que M es invertible y A =
M −1 BM , muestre que detA = detB
e) Dar un contraejemplo para det (A + B) = detA + detB
f ) Si A, B son matrices invertibles de orden n, muestre que: adj (AB) =
(adjB) (adjA)
 
α −3
g) Para cuáles valores de α la matriz no es invertible?
4 1−α
 
−α α − 1 α + 1
h) Para cuáles valores de α la matriz  1 2 3  no tiene una inversa?
2−α α+3 α+7

2.9. Interpretación geométrica del determinante


2.9.1. Determinantes 2 × 2
Tomemos el determinante de una matriz de 2 × 2
 
x1 x2
A=
y1 y2
El determinante de A seria

detA = |x1 y2 − y1 x2 |
 
x1
Ahora, graficamos los vectores columna de A. El primer vector u = y el segundo
  y1
x2
v = . Para graficar un vector, primero ubicamos el punto (x1 , y1 ) y extendemos una
y2
recta entre el origen del sistema y el punto, esta “flecha” es la representación geométrica del
vector u. De igual forma graficamos el vector v. (ver figura 2.1)

A partir de u dibujamos de nuevo el vector v con la misma forma y misma dirección (paralelo).
De igual manera hacemos con v, a partir de v dibujamos el vector u.

Este paralelogramo que se forma con v y u tiene una área D. La interpretación geométrica del
área del paralelogramo es el determinante de la matriz que tiene como vectores columna a u y a
v. (ver figura 2.2)

.:Teorema 2.22 Sea A una matriz cuadrada de orden 2, entonces el área D del paralelogramo
que se forma con los vectores columna de A es igual al detA.
2. Determinantes 131

(x2 , y2 )
y2 b

(x1 , y1 )
y1 u
b

x2 x1

Figura 2.1: Representación geométrica de los determinantes

u
b

v
D v
ea
Ár
b

Figura 2.2: Área del paralelogramo formado por u y v

Demostración:

Sin perder generalidad, abordaremos la demostración desde el punto de vista geométrico2. Otras
demostraciones se pueden ver en [1] y [3].

Tomemos los vectores u y v las columnas de la matriz A


 
 x1 x2
A= u v =
y1 y2
Ahora, tomaremos las siguientes consideraciones geométricas mostradas en las figuras 2.3 y 2.4.

Nombraremos el paralelogramo como ABCO, esta área es la que queremos encontrar. Ahora
veamos las áreas de los triángulos a los que llamaremos T1 , T2 , T3 y T4 y las áreas de los
rectángulos nombrados como C1 y C2 . De otro lado, el punto B tiene coordenadas (x1 +x2 , y1 +
y2 ), el punto D tiene coordenadas (x1 + x2 , y1 ) y el punto F tiene coordenadas (x2 , y1 + y2 ).
Analicemos las áreas T1 y T2 determinadas por los triángulos F BC y AO (x1 ). Es fácil ver que
ambos triángulos son triángulos rectángulos y además congruentes entre si, pues tienen la misma
base y la misma altura.
2 Los autores han decidido usar una demostración geométrica, que aunque es mas larga, es más sencilla para lectores

no expertos en vectores, recordemos que el tema de los vectores se abordará en el siguiente capítulo.
2. Determinantes 132

F B(x1 + x2 , y1 + y2 )
y2 + y1 b b

y1 C
y2 b

y2

v
y1 b b
D
A
u
O x2 x1 x1 + x2

x2

Figura 2.3: Construcción del paralelogramo con los vectores u y v

b b

Área C2 Área T1
b

Área T3
Área D

Área T4
b b

Área T2 Área C1

Figura 2.4: Esquema de las áreas involucradas

x1 y1
T1 = (2.19)
2

[(x1 + x2 ) − x2 ] [(y1 + y2 ) − y2 ]
T2 =
2
x1 y1
= (2.20)
2
x1 y1
Luego T1 = T2 = . Podemos hacer un análisis similar para las áreas T3 y T4 , pues los
2
triángulos DAB y OC (y2 ) son triángulos rectángulos y además congruentes, pues tiene la misma
báse y la misma altura.
x2 y2
T3 = (2.21)
2
2. Determinantes 133

[(x1 + x2 ) − x1 ] [(y1 + y2 ) − y1 ]
T4 =
2
x2 y2
= (2.22)
2
x2 y2
Entonces T3 = T4 = . Ahora, las áreas C1 y C2 representadas por los rectángulos
2
AD (x1 ) (x1 + x2 ) y F C(y2 )(y1 + y2 )

C1 = [(x1 + x2 ) − x1 ] y1
= x2 y1 (2.23)

C2 = x2 [(y1 + y2 ) − y2 ]
= x2 y1 (2.24)

Luego C1 = C2 = x2 y1 . El área total del rectángulo O(x1 + x2 )B(y1 + y2 ) que contiene el


paralelogramo ABCO es

Área Total = (x1 + x2 )(y1 + y2 )


= x1 y1 + x1 y2 + x2 y1 + x2 y2 (2.25)

Pero el Áreat total es la suma de las áreas T1 , T2 , T3 y T2 , las áreas de los rectángulos C2 y C2 y
el área D

Área Total = T1 + T2 + T3 + T4 + C1 + C2 + área D (2.26)


Entonces reemplazamos 2.19, 2.20, 2.21, 2.22, 2.23 y 2.24 en 2.26.

x1 y1 x1 y1 x2 y2 x2 y2
Área Total = + + + + x2 y1 + x2 y1 + área D (2.27)
2 2 2 2
= x1 y1 + x2 y2 + 2x2 y1 + área D (2.28)

Calculemos el área D del Paralelogramo OABC y reemplazamos 2.25 en 2.28 y despejamos


área D

área D = T1 + T2 + T3 + T4 + C1 + C2 − Área Total


= x1 y1 + x2 y2 + 2x2 y1 − (x1 y1 + x1 y2 + x2 y1 + x2 y2 )
= x1 y1 + x2 y2 + 2x2 y1 − x1 y1 − x1 y2 − x2 y1 − x2 y2
= 2x2 y1 − x1 y2 − x2 y1
= x2 y1 − x2 y1

Por lo tanto, el área D = x2 y1 − x2 y1 el cual se puede ver como |x2 y1 − x2 y1 |


2. Determinantes 134

Q.E.D.
 
5 2
Ejemplo 2.28 Hallar el determinante de la matriz A = y comprobar el área del
1 4
paralelogramo formado por los vectores columnas de A

Solución:

El detA = (5)(4) − (1)(2) = 20 − 2 = 18, ahora veremos los vectores columnas de A


6

C2 T1
4

T4 T3
Área D
2

T2 C1
0
0 1 2 3 4 5 6 7 8

Figura 2.5:

Es fácil ver que las áreas T1 y T2 de los triángulos son congruentes y su área es (5)(1)
2 = 52 , como
5 5
son dos triángulos, entonces T1 + T2 = 2 + 2 = 5. De igual manera para los triángulos T3 y T4 ,
en este caso el área es (2)(4)
2 = 4, como son dos triángulos tenemos T3 + T4 = 4 + 4 = 8, por
último tenemos los dos rectángulos C1 y C2 , los cuales tiene área 2, luego C1 + C2 = 2 + 2 = 4.
El área total es (7)(5) = 35, luego

Área del Rectángulo = Área D + T1 + T2 + T3 + T4 + C1 + C2

Área D = Área del Rectángulo − (T1 + T2 + T3 + T4 + C1 + C2 )


= 35 − (5 + 8 + 4)
= 18

Podemos ver, que tanto el área como el determinante de la matriz son iguales, en este caso no se
tubo en cuenta el valor absoluto en la ecuación, pues ambos resultados fueron positivos.
2. Determinantes 135

2.9.2. Longitud de un segmento de recta y el determinante


Tomemos un segmento de recta que va desde a hasta b en la recta real de forma que a > b. La
distancia ente ambos puntos estaría dada por a − b.
b b

b a

a−b

Figura 2.6: Distancia entre a y b

Ahora, calculemos el determinante de 2 × 2 cuya primera columna esta compuesta por a y b. La


segunda columna esta dada por unos.


a 1

b = a(1) − b(1) = a − b
1
Entonces, podemos ver que el determinante bajo las condiciones anteriores permite encontrar la
distancia entre dos puntos sobre una recta.

Ejemplo 2.29 Encuentre la distancia entre 5 y -2 en la recta real, usando el determinante.

Solución:

−2 −1 0 1 2 3 4 5

5 − (−2)

Como vemos 5 > −2. Ahora tomamos el determinarte



5 1
−2 1 = 5(1) − (−2)(1) = 7

2.9.3. Cálculo de área de un triángulo con determinantes


El área de un triángulo se puede calcular de muchas maneras, por ejemplo se puede utilizar la
fórmula de Herón o la que conocemos comúnmente, multiplicar la base por la altura y dividir
entre dos. Para este caso, veremos cómo podemos usar el determinante para hallar el área de un
triángulo.

Tomemos el triángulo con vértices A(x1 , y1 ), B(x2 , y2 ) y C(x3 , y3 )


2. Determinantes 136

C(x3 , y3 )

A(x1 , y1 )

B(x2 , y2 )

Figura 2.7: Triángulo ABC

Para hallar el área haremos una traslación al origen teniendo en cuenta el punto A, es decir, a cada
coordenada x de todos los puntos le restamos la coordenada x del punto A, y de igual manera con
las coordenadas y de los puntos.

A(x1 , y1 ) −→ A′ ((x1 − x1 ), (y1 − y1 )) = A′ (0, 0)

B(x2 , y2 ) −→ B ′ ((x2 − x1 ), (y2 − y1 )) = B ′ (x2 − x1 , y2 − y1 )

C(x3 , y3 ) −→ B ′ ((x3 − x1 ), (y3 − y1 )) = C ′ (x3 − x1 , y3 − y1 )

Como podemos observar, el punto A lo transformamos en el punto A′ , el cual tiene coordenadas


en el origen.
Bien, no podemos conocer el área del triángulo A′ B ′ C ′ , pero si podemos conocer el área del
paralelogramo A′ B ′ C ′ D (ver figura 2.8) con el determinante de la sección 2.9.1 con los puntos
B′ y C ′.

x2 − x1 y2 − y1
x3 − x1 y3 − y1 = (x2 − x1 )(y3 − y1 ) − (x3 − x1 )(y2 − y1 )

Pero, recordemos que con este cálculo es para el paralelogramo, asi que para obtener el área del
triágulo debemos multiplicar por 21


1 x2 − x1 y2 − y1
Área del triángulo =
2 x3 − x1 y3 − y1
1
= [(x2 − x1 )(y3 − y1 ) − (x3 − x1 )(y2 − y1 )]
2
Ejemplo 2.30 Calcular el área del triángulo cuyos vértices son A(4, 4), B(6, 1) y C(1, 2)

De acuerdo con la deducción anterior del área del triángulo se tiene que:
2. Determinantes 137

3
C ′ (x3 − x1 , y3 − y1 )

1
D

0
0 1 2 3 4 5 6 7 8
A′ (0, 0)

B ′ (x2 − x1 , y2 − y1 )

Figura 2.8: El triángulo A′ B ′ C ′ y el paralelogramo A′ B ′ C ′ D


1 (6 − 4) (1 − 4)
Área del triángulo =
2 (1 − 4) (2 − 4)

1 2 −3
=
2 −3 −2
1 13
= [−4 − 9] = −
2 2
Como el área del triángulo
es el valor absoluto del determinante de la matriz, entonces, el área
del triangulo = − 13
2
= 6.5

A
4 b

3
a
b
C
2 b

c B
1 b

−1 1 2 3 4 5 6

−1

Figura 2.9: Área del triángulo ABC


2. Determinantes 138

2.9.4. Volumen del paralelepípedo como un determinante


De forma similar a lo estudiado con el área del paralelogramo, se puede deducir geométricamente
el valor absoluto del determinante:

x1 y1 z1

x2 y2 z2

x3 y3 z3
Es el volumen del paralelepípedo en el espacio tridimensional, formado por los puntos
P (x1 , y1 , z1 ), Q(x2 , y2 , z2 ) y R(x3 , y3 , z3 ). El paralelepípedo se construye de forma análoga
a como se construyó el paralelogramo del determinante 2 × 2. para construir los segmentos que
conforman el largo, el ancho y el alto del paralelepípedo, se toma como punto inicial el origen
del sistema como punto final las coordenadas de cada uno de los puntos y se traza el segmento,
posteriormente, se trazan los otros ocho como lo muestra la figura 2.10:

Proyecciones formdas por


los lados iniciales

P
R

Figura 2.10: Paralelepípedo determinado por P , Q y R

Ejemplo 2.31 Calcular el volumen del paralelepípedo formado por los puntos P (1, 0, 2),
Q(2, 4, 2) y R(2, 1, 2)

De acuerdo con la deducción anterior el volumen del paralelepípedo es:



1 0 2

Volumen = 2 4 2 = −6
2 1 2
Como el volumen del paralelepípedo es el valor absoluto del determinante, entonces el volumen
=|−6| = 6.

Ejercicios 2.4

1. Encuentre el área del paralelogramo determinado por los siguientes vectores


   
−1 6
a) u = yv=
2 4
   
5 5
b) u = yv=
−1 2
2. Determinantes 139

   
2 6
c) u = yv=
9 3
   
a b
d) u = yv= con a, b ∈ R
b a

2. Encuentre la longitud de los segmentos de recta a partir de los puntos, usando el


determinante.

a) Entre 4 y 18
b) Entre 5 y 9
c) Entre -10 y 6.2
d) Entre −a y a

3. Encuentre el área los siguientes triángulos dados los puntos.

a) A(4, 4), B(14, 2), B(1, 1)


b) A(−2, 3), B(1, 0), B(−2, −3)
c) A(0, 0), B(8, 1), B(5, −4)

4. Encuentre los resultados de los siguientes determinantes:

a)
1
a a2 − bc

1
b b2 − ac

1 c c2 − ab

b)
1 1 1

a b c

b+c a+c a+b

Relaciona estos dos determinantes con el área de una figura plana.


5. Encuentre el volumen del paralelepípedo, dado los siguientes puntos:

a) P (2, 0, 1), Q(1, 3, 1) y R(1, 2, 1)


b) P (0, 0, 3), Q(1, 0, 0) y R(0, 9, 0)
c) P (4, −2, 4), Q(7, 1, −2) y R(4, 2, −3)
“El científico encuentra su recompensa en lo que Henri Poincaré llama
el placer de la comprensión, y no en las posibilidades de aplicación que
cualquier descubrimiento pueda conllevar” —
Albert Einstein (1879-1955)

3
Espacios vectoriales

3.1. Definición
Un espacio vectorial se puede ver como un conjunto de vectores que cumplen una larga lista
de axiomas, sin embargo, esta definición va mucho más allá de ser conjunto de vectores. La
característica principal de los espacios vectoriales radica en que es una condición necesaria para
ser una base para otros temas, tanto en álgebra lineal como en el cálculo.

A continuación definiremos que es un espacio vectorial:

.:Definición 3.1 Diremos que el conjunto de vectores V , con dos operaciones, adición y producto
por escalar, son un espacio vectorial si satisfacen los siguientes axiomas:

1. Si v1 y v2 están en V , entonces v1 + v2 pertenece a V , diremos entonces que la suma es


cerrada en V .

2. (v1 + v2 ) + v3 = v1 + (v2 + v3 ) para todo v1 , v2 , v3 ∈ V . La ley asociativa.

3. Existe un elemento 0 que pertenece a V , tal que v1 + 0 = 0 + v1 = v1 para toda v1 ∈ V .


Elemento neutro de la suma o vector idéntico aditivo1 .

4. Para cada v que pertenece a V , existe un elemento −v en V , tal que v + (−v) = 0.


Elemento inverso de la suma.

1 El símbolo 0, hace referencia al vector nulo y no al cero de los números reales.

140
3. Espacios vectoriales 141

5. v1 + v2 = v2 + v1 para todo v1 , v2 en V . Ley conmutativa de la suma de vectores.

6. Si v ∈ V y α es un escalar (α ∈ R o α ∈ C), entonces αv ∈ V . Diremos que V es cerrado


bajo producto escalar.

7. Para todo escalar α y para todo v1 y v2 ∈ V , se cumple que α(v1 + v2 ) = αv1 + αv2 .
Distributiva del producto escalar frente a la suma de vectores.

8. Para todo α, β escalares y v ∈ V , se cumple que2 (α + β)v = αv + βv .

9. Para todo α, β escalares y v ∈ V , se cumple que α(βv) = (αβ)v .

10. Si se tienen el escalar 1, 1v = v para todo v ∈ V .

Si estamos en el campo de los números reales, diremos que es un espacio vectorial real. Si estamos
en el campo de los complejos, diremos que es un espacio vectorial complejo.

Para empezar con los ejemplos, es muy importante reconocer cuando un conjunto de vectores es
un espacio vectorial y cuando no lo es. Los siguientes ejemplos muestra tal situación:

Ejemplo 3.1 Sea V , definido de la siguiente forma:

V = {(x, y) : ax + by = 0, a, b ∈ R}
2
V es el conjunto de puntos en R , tal que esta sobre el conjunto de rectas que pasan por el origen
del sistema coordenado.

Si queremos determinar si V es un espacio vectorial, debemos demostrar que V tanto en la suma


y como en el el producto escalar, cumple con los 10 axiomas de la definición 3.1.
1. Sean v1 = (x1 , y1 ) y v2 = (x2 , y2 ), de forma que v1 , v2 ∈ V , entonces debemos demostrar
que v1 + v2 también pertenece a V .
Si v1 ∈ V entonces se cumple que:

ax1 + by1 = 0 (3.1)

de igual forma si v2 ∈ V , se cumple que:

ax2 + by2 = 0 (3.2)

Sumando las ecuaciones 3.1 y 3.2 tenemos que:

ax1 + by1 + ax2 + by2 = 0


2 El signo + del el lado izquierdo de la ecuación, hace referencia a la operación aritmética suma. El signo + del lado

derecho hace referencia a la suma de vectores.


3. Espacios vectoriales 142

Sacando factor común y agrupando tenemos:

ax1 + ax2 + by1 + by2 = 0


a(x1 + x2 ) + b(y1 + y2 ) = 0

Lo que muestra, que es una recta que pasa por el origen de R2 .


2. Sean v1 = (x1 , y1 ), v2 = (x2 , y2 ) y v3 = (x3 , y3 ) de forma que v1 , v2 , v3 ∈ V , entonces
debemos demostrar que v1 + (v2 + v3 ) = (v1 + v2 ) + v3 .
Si v1 ∈ V entonces, ax1 + by1 = 0, de igual forma con v2 tendíamos ax2 + by2 = 0 y con
v3 , ax3 + by3 = 0, entonces v2 + v3 ∈ V y por el paso 1 tenemos:

a(x2 + x3 ) + b(y2 + y2 ) = 0

Ahora bien, si a la ecuación anterior le agregamos v1 tendremos que:

a(x1 + x2 + x3 ) + b(y1 + y2 + y2 ) = 0

En esta ecuación, podemos aplicar la ley asociativa de los números reales de la siguiente
forma:
a ((x1 + x2 ) + x3 ) + b ((y1 + y2 ) + y2 ) = 0

lo que implica que: (v1 + v2 ) + v3 = v1 + (v2 + v3 ).


3. Sea 0 = (0, 0), entonces a0 + b0 = 0, luego 0 es el elemento neutro de la suma o vector
idéntico aditivo.
4. Sea v1 que pertenecen a V , si tenemos v1 = (x1 , y1 ), entonces existe v1′ = (−x1 , −y1 ),
pues recordemos que los componentes de los vectores son los números reales. Si sumamos
v1 + v1′ , tenemos:

v1 + v1′ = (x1 + (−x1 ), y1 + (−y1 ))


= (0, 0)

5. Tenemos v1 = (x1 , y1 ) y v2 = (x2 , y2 ), con v1 , v2 ∈ V , si tomamos v1 + v2 por el punto


uno sabemos que:
a(x1 + x2 ) + b(y1 + y2 ) = 0
Aplicando la ley conmutativa de la suma en los números reales, podemos reescribir la
ecuación anterior de la siguiente forma:

a(x2 + x1 ) + b(y2 + y1 ) = 0

Luego v1 + v2 = v2 + v1 .
6. Tomemos v1 = (x1 , y1 ), tal que v1 ∈ V y sea α ∈ R. Entonces αv1 = (αx1 , αy1 ) estaría
dado de la siguiente forma:
a(αx1 ) + b(αy1 ) = 0
y seguiría representando una recta que pasa por el origen.
3. Espacios vectoriales 143

7. Sea α ∈ R y v1 , v2 ∈ V , entonces α(v1 + v2 ), estaría dado por α(x1 + x2 , y1 + y2 ) que


es igual a (α (x1 + x2 ) , α (y1 + y2 )) que representa la ecuación

aα(x1 + x2 ) + bα(y1 + y2 ) = 0

reescribiendo la ecuación anterior tenemos:

aαx1 + aαx2 + bαy1 + bαy2 = 0


aαx1 + bαy1 + aαx2 + bαy2 = 0
α(ax1 + by1 ) + α(ax2 + by2 ) = 0

Lo que implica que α(v1 + v2 ) = αv1 + αv2


8. Sea α, β ∈ R y v1 = (x1 , y1 ) ∈ V , Si tenemos (α + β)v1 = ((α + β)x1 , (α + β)y1 )
entonces:
a(α + β)x1 + b(α + β)y1 = 0
Reescribiendo la ecuación anterior:

aαx1 + aβx1 + bαy1 + bβy1 = 0


aαx1 + bαy1 + aβx1 + bβy1 = 0
α(ax1 + by1 ) + β(ax1 + by1 ) = 0

Lo que implica que (α + β)v1 = αv1 + βv1 .


9. Para todo α, β ∈ R y v1 ∈ V , se tiene que α(βv1 ) = α (β(x1 , y1 )) = α (βx1 , βy1 ), lo que
implica que:

α (βax1 + βby2 ) = 0

aplicando las propiedades de los números reales tenemos:

αβax1 + αβby2 = 0

Lo que implica que (αβ)v1 .


10. Sea v1 ∈ V , i se tienen el escalar 1, (1)v1 = (1)(x1 , y1 ), lo que implica:

(1)(ax1 + by1 ) = 0
ax1 + by1 = 0

Lo que implica que (1)v1 = v1 .

.:Definición 3.2 Definimos Pn como el conjunto de todos los polinomios que tienen grado igual
o menor a n. de modo que:

Pn = P |p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0

donde a1 , a2 , . . . , an ∈ R.
3. Espacios vectoriales 144

Ejemplo 3.2 Sea V , definido de la siguiente forma:



V = P2 : ax2 + bx + c, a, b, c ∈ R
Es decir, los polinomios de grado menor o igual a dos. Determine si V es un espacio vectorial.

1. Sean p y q dos polinomios que pertenecen a V , tal que p = a1 x2 + b1 x + c1 y


q = a2 x2 + b2 x + c2 , entonces p + q estaría dado de la siguiente forma:

p+q = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2
= (a1 + a2 ) x2 + (b1 + b2 ) x + (c1 + c2 )

Que también es un polinomio de grado menor o igual a dos, lo que implica que (p+q) ∈ V .
2. Supongamos que p, q, r ∈ V , de modo que p = a1 x2 + b1 x + c1 , q = a2 x2 + b2 x + c2 y
r = a3 x2 + b3 x + c3 , entonces

p + (q + r) = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 + a3 x2 + b3 x + c3

= a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 + a3 x2 + b3 x + c3
= (p + q) + r

Luego p + (q + r) = (p + q) + r, además, el polinomio (p + q) + r y el polinomio


p + (q + r) pertenecen a V por ser polinomios de grado menor o igual a dos.
3. Sea p ∈ V y sea 0 = 0x2 + 0x + 0 el polinomio de grado cero3 , entonces al hacer la suma
p + 0 tenemos:

p+0 = a1 x2 + b1 x + c1 + 0x2 + 0x + 0
= a1 x2 + b1 x + c1
= p

luego p + 0 = p
4. Tomemos p = a1 x2 + b1 x + c1 que pertenece a V , y −p = (−a1 )x2 + (−b1 )x + (−c1 )
también pertenece a V , entonces p + (−p) esta dado por:

p + (−p) = a1 x2 + b1 x + c1 + (−a1 )x2 + (−b1 )x + (−c1 )


= 0x2 + 0x + 0
= 0

luego p + (−p) = 0
5. Sea p = a1 x2 + b1 x + c1 y q = a2 x2 + b2 x + c2 que pertenecen a V . Entonces:

p+q = a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2
= a2 x2 + b2 x + c2 + a1 x2 + b1 x + c1
= q+p

Luego p + q = q + p.
3 En este caso 0 representa el polinomio cero o nulo
3. Espacios vectoriales 145

6. Si p ∈ V y α es un escalar y p = ax2 + bx + c entonces αp = α(ax2 + bx + c), de lo cual


se obtiene que αp = αax2 + αbx + αc, el cual pertenece a V . Diremos entonces que V es
cerrado con respecto al producto escalar.

7. Sea α ∈ R un escalar y p y q ∈ V , entonces α(p + q) sería:

α(p + q) = α(a1 x2 + b1 x + c1 + a2 x2 + b2 x + c2 )
= αa1 x2 + αb1 x + αc1 + αa2 x2 + αb2 x + αc2
 
= αa1 x2 + αb1 x + αc1 + αa2 x2 + αb2 x + αc2
 
= α a1 x2 + b1 x + c1 + α a2 x2 + b2 x + c2
= αp + αq

Por lo cual se cumple la propiedad distributiva del producto escalar frente a la suma de
vectores.

8. Para α, β ∈ R escalares y p ∈ V , si se tiene que:

(α + β)p = (α + β)(a1 x2 + b1 x + c1 )
= (α + β)a1 x2 + (α + β)b1 x + (α + β)c1
= αa1 x2 + βa1 x2 + αb1 x + βb1 x + αc1 + βc1
= αa1 x2 + αb1 x + αc1 + βa1 x2 + βb1 x + βc1
 
= αa1 x2 + αb1 x + αc1 + βa1 x2 + βb1 x + βc1
 
= α a1 x2 + b1 x + c1 + β a1 x2 + b1 x + c1
= αp + βp

Lo que implica que (α + β)p = αp + βp.


9. Para α, β ∈ R escalares y p ∈ V , se tiene que:

α(βp) = α β a1 x2 + b1 x + c1

= (αβ) a1 x2 + b1 x + c1
= (αβ) p

10. Dado p ∈ V entonces (1) p = (1)(a1 x2 + b1 x + c1 ) = a1 x2 + b1 x + c1 = p.

Ya hemos visto la manera de demostrar que un grupo de vectores es un espacio vectorial. Los
siguientes conjuntos de vectores no son espacios vectoriales, y por lo tanto veremos que no
cumplen con algunos items de la definición 3.1.

Ejemplo 3.3 Dado


V = {(x, y) : y = 3x + 1}
Es decir, el conjunto de puntos en el plano que están sobre la recta y = 3x + 1. Determine si V
es un espacio vectorial.
3. Espacios vectoriales 146

Es fácil ver que V no es un espacio vectorial, sólo con comprobar el primer numeral de la
definición 3.1. Por ejemplo, sea v1 = (x1 , y1 ) y v2 = (x2 , y2 ), luego
v1 + v2 = (x1 + x2 , y1 + y2 )
Lo que implica que para v1 tendríamos y1 = 3x1 + 1 y para v2 tendríamos que y2 = 3x2 + 1,
luego v1 + v2 tendríamos
y1 = 3x1 + 1
y2 = 3x2 + 1
Que al sumarlas tendríamos
y1 + y2 = 3(x1 + x2 ) + 2
Pero esta nueva ecuación muestra que v1 + v2 no pertenece a V , pues su término constante es 2
y los elementos de V tienen término constante 1.

Ejemplo 3.4 Dado


V = {P2 | p(0) = 1}
Es decir, el conjunto de polinomios de grado menor o igual a dos tal que al evaluarse en cero da
como resultado 1.

De nuevo falla en la primera condición, pero veamos que también falla el item 6 de la definición
3.1. Tomemos α ∈ R y p ∈ V , es decir, p debería ser de la forma
p(x) = ax2 + bx + 1 con a, b ∈ R
Al multiplicar α por p tenemos

αp(x) = αax2 + αbx + α


pero este polinomio no pertenece a V , pues al evaluarlo en cero da como resultado α y no 1.

De acuerdo con las definiciones anteriores y los ejemplos tratados, podemos dar los siguientes
ejemplos de espacios vectoriales.

Ejemplo 3.5 Los siguientes, son ejemplos de espacios vectoriales.


1. Rn , con la operación de adición y producto por escalar.


2. Sea V = Pn = P/p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 , ai ∈ R el conjunto
de los polinomios de grado menor o igual que n.

3. Si V = Mnm El conjunto de todas las matrices de tamaño n×m, con la adición y producto
por escalar.
4. Sea V = {(x, y, z) : ax + by + cz = 0, a, b, c ∈ R}, es decir, V es el conjunto de puntos
en R3 que están en el plano con vector normal (a, b, c), el cual pasa por el origen del
sistema coordenado.
3. Espacios vectoriales 147

3.1.1. Espacios vectoriales y sus propiedades


Las siguientes propiedades se deducen directamente de la definición de espacio vectorial.
.:Teorema 3.1 Sea V un espacio vectorial, que cumple con los axiomas de la definición 3.1.
Entonces:

1. El 0 o vector nulo de V , es único.

2. Para todo x ∈ V existe un único x′ ∈ V tal que x + x′ = 0.

3. α0 = 0 para todo escalar α ∈ R.

4. 0x = 0 para todo x ∈ V .

5. Si αx = 0, entonces tenemos tres posibilidades, primero que α = 0, que x = 0 o ambos


casos.

6. Si se toma el escalar -1, entonces (−1)x = −x para todo x ∈ V .

Demostración:
1. En este caso, debemos demostrar que un espacio vectorial sólo tiene un elemento neutro de
la suma. Para demostrar un teorema de unicidad, sólo debemos negar la hipótesis, es decir,
negar que sólo existe un 0, entonces supongamos que tenemos dos llamados 0 y 0′ tal que
0 6= 0′ y debemos llegar a una contradicción.

Ahora bien, como 0 y 0′ pertenecen a V , entonces aplicando la propiedad 3.


0 + 0′ = 0′
Pues 0 es uno de los elementos neutros de la suma, ahora bien
0′ + 0 = 0
que por propiedad 5 se puede escribir de la forma 0 + 0′ = 0, entonces 0 + 0′ = 0 y
también 0 + 0′ = 0′ , luego 0 = 0′ , lo que contradice que 0 6= 0′ , luego 0 es único.
3. Para demostrar que α0 = 0, debemos ver que
 
0

 0 


0= 0 

 .. 
 . 
0
3. Espacios vectoriales 148

entonces    
α0 0

 α0  
  0 


α0 =  α0  
= 0 

 ..   .. 
 .   . 
α0 0
Luego α0 = 0
4. para esta demostración,iniciaremos con la igualdad aritmética 1 + (−1) = 0, podríamos
escribir el vector 0 de la siguiente forma:

0 = 0x = [1 + (−1)] x

distribuyendo tenemos

1x + (−1)x = 0
x + (−x) = 0

Ahora,
1x + (−1)x +(−x) = −x
| {z }
0

Asociamos y tenemos
(x + (−x)) + (−1) x = −x

Luego
0 + (−1) x = −x
Por lo que
(−1) x = −x.

Ejercicios 3.1

1. Demuestre que:

a) Rn es un espacio vectorial.
b) Pn es un espacio vectorial.
c) Mmn es un espacio vectorial. (Con la suma y multiplicación por escalar)
d) Mnn es un espacio vectorial. (Con la suma y multiplicación por escalar)

2. En los siguientes ejercicios determine si V es o no espacio vectorial

a) V el conjunto de todos los vectores (x, y) con y ≤ 0, con la operaciones usuales en


R2 .
b) V = {0}, con las operaciones ordinarias de suma y multiplicación en R.
c) V = {k} (donde k ∈ R) con las operaciones de suma y producto en R.
3. Espacios vectoriales 149

d) V = R, con las operaciones ordinarias de suma y multiplicación en R.



e) V = (x, y, z) ∈ R3 /x = 0, , y, z ∈ R con las operaciones usuales de R3 .
f) V el conjunto de matrices invertibles n × n con las operaciones matriciales
ordinarias.
g) V el conjunto de matrices no invertibles n × n con las operaciones matriciales
ordinarias.

3.2. Subespacio vectorial


En muchas ocasiones dentro de cada espacio vectorial existen subconjuntos propios que por si
mismo son espacios vectoriales. Por ejemplo, todo R2 es un espacio vectorial y el conjunto de
puntos que esta sobre las rectas que pasan por el origen del sistema, forman un subespacio de R2 .

.:Definición 3.3 Subespacio vectorial:


Sea H un subconjunto de un espacio vectorial V y suponga que H en sí mismo es un espacio
vectorial con las operaciones de suma y multiplicación por un escalar definidas en V . Entonces
se afirma que H es un subespacio de V .

El siguiente teorema determina las condiciones que se deben cumplir para que H sea un
subespacio de V .

.:Teorema 3.2 Sea V un espacio vectorial sobre un campo K. Decimos que H es un subespacio
de V si H satisface las siguientes cuatro condiciones:
1. H es subconjunto de V
2. H es diferente de vacío.
3. H es cerrado con respecto a la suma, es decir, si x ∈ H e y ∈ H, entonces x + y ∈ H
4. H es cerrado con respecto a la multiplicación por escalar, es decir, si x ∈ H, entonces
αx ∈ H para todo escalar α.

Demostración:

Consiste en verificar que si se tienen las dos propiedades uno y seis de la definición 3.1, entonces
se verifican los demás axiomas de la definición de espacio vectorial:
1. Todos los vectores de H también pertenecen a V , entonces las leyes de asociativa,
conmutativa, distributiva y de identidad multiplicativa (puntos 2, 5,7, 8, 9 y 10) se cumplen.

2. Si x ∈ H, entonces 0x ∈ H según el Teorema 3.2 y el Teorema 3.1.

3. Ahora bien, (−1)x ∈ H y (−1)x = −x por el Teorema 3.2, con lo que el punto 4 de la
definición 3.1 se cumple.
3. Espacios vectoriales 150

Q.E.D

Nota:
De lo anterior podemos concluir que:
1. Si H ⊂ V y H 6= Ø, entonces, para saber si H es un subespacio de V , basta con probar las
reglas 3 y 4 del Teorema 3.2 donde se establece la cerradura con respecto a la suma y a la
multiplicación por escalar.
2. Todo subespacio de un espacio vectorial V contiene al vector nulo 0.

3. Todo espacio vectorial tiene dos subespacios vectoriales triviales:

a) V
b) {0}

Los subespacios distintos a V y {0} se llaman subespacios propios.



Ejemplo 3.6 Sea H = (x, y) ∈ R2 /y = mx, m ∈ R y V = R2 . Comprobar que H es
subespacio de V .

1. Vemos que H es subconjunto de V .


 
0
2. H 6= Ø por que H contiene al vector nulo, en este caso .
0
3. Sean (x1 , y1 ) y (x2 , y2 ) ∈ H; entonces,

(x1 , y2 ) = (x1 , mx1 ) y (x2 , y2 ) = (x2 , mx2 ) .

(x1 + x2 , y1 + y2 ) = (x1 + x2 , mx1 + mx2 )


= (x1 + x2 , m (x1 + x2 )) .

Luego
(x1 + x2 , y1 + y2 ) ∈ H
Luego H es cerrada con respecto a la suma.
4. Ahora, sea (x, y) ∈ H y veamos si β(x, y) ∈ H

(x, y = x, mx) ,

β(x, y) = β(x, mx) = (βx, m(βx)),


(βx, m(βx))
Por lo tanto,
β (x, y) ∈ H.

Luego H es cerrada con respecto a la multiplicación por escalar. Lo que nos demuestra que
H o el conjunto de las rectas que pasan por el origen, es subespacio de R2 .
3. Espacios vectoriales 151


Ejemplo 3.7 Sea H = (x, y) ∈ R2 /xy ≥ 0 y V = R2 . Comprobar que H es subespacio de
V.

1. Por definición, H ⊆ V porque representa el conjunto de puntos en el plano, que están en


el primer y tercer cuadrante incluyendo los puntos de los ejes coordenados.
2. El punto (0, 0) ∈ H, luego H es diferente de vacío.
Si v1 = (x1 ,
3.  y1 ) y v2 = (x2 , y2 ) y v1 , v2 ∈ H, entonces x1 y1 ≥ 0 y x2 , y2 ≥ 0 y v1 +v2 =
x1 + x2
, pero en este caso, puede suceder que (x1 + x2 ) (y1 + y2 ) < 0, por ejemplo,
y1 + y2
si v1 = (−8, −10) y v2 = (3, 15), ambos pertenecen a H, pero v1 + v2 = (−5, 5),
el cual, no pertenece a H, pues (x1 + x2 ) (y1 + y2 ) = (−8 + 3) (−10 + 15) = −25 < 0,
luego, se concluye que H no es cerrado con respecto a la suma y por tanto H no es
subespacio de R2 .

Ejercicios 3.2

1. Demuestre que:

a) Si H1 y H2 son subespacios de un espacio vectorial V . Entonces H1 ∩ H2 es un


subespacio de V .
b) Si H1 y H2 son subespacios de un espacio vectorial V . Entonces H1 ∪ H2 no
necesariamente es un subespacio de V .

2. En los siguientes ejercicios, dado el espacio vectorial V y el subconjunto H. Comprobar


si H es un subespacio de V

a) V = R2 , H = {(x, y) : y = 0}
b) V = R2 , H = {(x, y) : x = 2y}
c) V = R2 , H = {(x, y) : x − 7y + 5 = 0}
d) V = P4 , W = {p ∈ P4 : p (0) = k, Para k ∈ R}
e) V = Mnn , H = {A ∈ Mnn : A es simétrica} .
f) V = Mnn , H = {A ∈ Mnn : A es antisimétrica} .
g) V = Mnn , H = {A ∈ Mnn : A es triangular superior} .
h) V = Mnn , H = {A ∈ Mnn : A es invertible}
 y−4 1

i) V = R3 , H = (x, y, z) : x−7
4 = 5 =2 z− 6

j) V = R3 , H = (x, y, z) : x2 + y 2 + z 2 = 16
  
a 0
k) V = M22 , H = A ∈ M22 : A =
0 b
l) V = Mnn y H = {A ∈ Mnn : trA = 0}
   
a b c
m) V = M23 , H = A ∈ M23 : A = , donde b = 2a + c .
d 0 0
3. Espacios vectoriales 152

3.3. Combinación lineal de vectores


.:Definición 3.4 Sean v1 , v2 ,. . .,vn ∈ V . Decimos que x es combinación lineal de v1 , v2 ,. . .,vn
si existen escalares α1 , α2 ,. . .,αn , tales que:

x = α1 v1 + α2 v2 + · · · + αn vn
Xn
= αi vi
i=1

Nota:
1. En un espacio vectorial, cualquier combinación lineal de vectores, da como resultado otro
vector del mismo espacio vectorial.
2. El vector nulo se puede escribir como combinación lineal de cualquier cantidad de vectores
del espacio vectorial, tomando como escalares a el cero en todos los casos.

0 = 0v1 + 0v2 + . . . + 0vn .

3. Un vector de un espacio vectorial, es combinación lineal de si mismo, tomando como


escalar el 1.
x1 = 1x1
   
5 4
Ejemplo 3.8 Tomemos los vectores en R3 : v1 =  −9  y v2 =  5 , tomando α1 = 1 y
1 7
α2 = −2, obtenemos:
     
−3 5 4
 −19  = 1  −9  + (−2)  5 
−13 1 7
 
−3
Decimos que  −19  es combinación lineal de v1 y v2 con los escalares α1 = 1 y α2 = −2.
−13
   
2 3 −4 1
Ejemplo 3.9 Las matrices de M22 : A = yB = , tomando α1 = −2
−4 1 5 9
y α2 = 4, obtenemos:
     
−20 −2 2 3 −4 1
= (−2) +4
28 34 −4 1 5 9
 
−20 −2
La matriz es combinación lineal de las matrices A y B, con α1 = −2 y α2 = 4.
28 34
3. Espacios vectoriales 153

Ejemplo 3.10 En P3 , tenemos los polinomios P (x) = 3x2 + 2x − 1 y Q (x) = −8x2 + 1

H(x) = 5P (x) − 2Q(x)


= 5(3x2 + 2x − 1) − 2(−8x2 + 1)
= 31 x2 + 10 x − 7

Luego, el polinomio H(x) es una combinación lineal de los polinomios P (x) y Q(x) con α1 = 5
y α2 = −2

3.3.1. Conjunto generador de un subespacio vectorial


.:Definición 3.5 Sea V un espacio vectorial sobre un campo K y sea S = {v1 , v2 , . . . , vr }
un subconjunto finito, no vacío de V . El subespacio H que consta de todas las combinaciones
lineales de v1 , v2 , . . . , vr , es llamado subespacio generado por S y se denota por gen {S} o
gen {v1 , v2 , . . . , vr }

   
1 0
Ejemplo 3.11 Los vectores y , pueden generar cualquier vector del plano, por lo
0 1
tanto generan al espacio vectorial R2 , por lo tanto el subespacio es:
   
1 0
gen ,
0 1
   
−8 1
El vector se puede generar como una combinación lineal de los vectores y
  π 0
0
, como se muestra a continuación:
1
     
−8 1 0
= (−8) +π
π 0 1
2
De igual manera, cualquier
  vector del plano R se puede expresar como una combinación lineal
1 0
de los vectores y .
0 1

Ejemplo 3.12 Pn representa todo polinomio de grado menor o igual a n, se puede expresar
cualquier polinomio como una combinación lineal de los monomios 1, x, x2 , . . . , xn ; luego
generan a Pn . por ejemplo, el polinomio 6x2 + 5x − 4 se puede expresar como combinación
lineal de los monomios 1, x, x2 , . . . , xn

6x2 + 5x − 4 = 0xn + 0xn−1 + · · · + 6x2 + 5x − 4


 
a b
Ejemplo 3.13 M22 es el conjunto de matrices de tamaño 2 × 2, si M22 = , entonces,
      c d 
1 0 0 1 0 0 0 0
se puede generar con el conjunto , , , , por
0 0 0 0 1 0 0 1
3. Espacios vectoriales 154

 
−7 4
ejemplo, la matriz se puede expresar:
8 2
         
−7 4 1 0 0 1 0 0 0 0
= (−7) +4 +8 +2 .
8 2 0 0 0 0 1 0 0 1
 
−7 4
=
8 2
       
1 0 0 1 0 0 0 0
Entonces, , , , generan M22 .
0 0 0 0 1 0 0 1

3.3.2. Espacio generado de un subespacio vectorial


.:Definición 3.6 Sean v1 , v2 , . . . , vn , n vectores de un espacio vectorial V . El conjunto de
todas las combinaciones lineales de los vectores v1 , v2 , . . . , vn , se conoce como el generado
de v1 , v2 , . . . , vn y se denota:

gen {v1 , v2 , . . . , vn } = {x : x = α1 v1 , α2 v2 , . . . , αn vn }

donde α1 , α2 , . . . , αn son escalares.

El espacio generado y el conjunto generador, nos muestran los posibles conjuntos de vectores que
podemos obtener con ellos. Por ejemplo, vimos comocon sólo  dos vectores
 pudimos construir
1 0
cualquier vector de R2 usado como “base” los vectores y , y como con un conjunto
0 1
de monomios podemos generar cualquier polinomio, más adelante veremos que la clave de los
conjuntos generadores esta en la escogencia de las contantes. El siguiente teorema muestra la
relación entre el generado y el espacio vectorial.

.:Teorema 3.3 Si v1 , v2 , . . . , vn vectores del espacio vectorial V , el gen{v1 , v2 , . . . , vn } es un


subespacio de V .

Ejemplo 3.14 Tomemos el espacio vectorial R, y sea R = {1}. El conjunto R sólo tiene un
elemento, sin embargo podemos generar cualquier real con dicho conjunto, sólo debemos escoger
la constate.
gen {R} = {x/x = α(1), a ∈ R} = R

Por ejemplo: queremos generar el número real 4, entonces tomamos α = 4. Técnicamente,


cualquier número real, excepto el cero puede generar a los reales.

 
2 2
Ejemplo 3.15 Tomemos el espacio vectorial R y el conjunto S = , entonces:
1
        
2 x x 2
gen = =α , α∈R
1 y y 1
3. Espacios vectoriales 155

   
x α2
=
y α
Luego

x = 2α
y = α

Luego x = 2y, es decir, y = 12 x, lo que me representa el conjunto de puntos en el plano que esta
sobre la recta y = 21 x. Por ejemplo tomemos α = 2, entonces
     
x (2)2 4
= =
y 2 2
Con α = −1 tenemos
     
x (−1)2 −2
= =
y −1 −1
Figura 3.1.
 
4
2
2 b

1
La recta y = 21 x

−4 −3 −2 −1 1 2 3 4
b −1
 
−2
−1

Figura 3.1:


  
1  1 
Ejemplo 3.16 Tomemos R3 y el conjunto S = 
2  ,  0  , entonces:
 
−1 1
             
 1 1   x x 1 1 
gen  2  ,  0  =  y   y  = α1  2  + α2  0  , α1 , α2 ∈ R
   
−1 1 z z −1 1

Para encontrar la relación entre x, y y z y los vectores, tomamos:


   
x α1 + α2
 y = 2α1 
z −α1 + α2
3. Espacios vectoriales 156

x = α1 + α2
y = 2α1
z = −α1 + α2
En forma matricial tenemos:
 
1 1 | x
 2 0 | y 
−1 1 | z
Ahora procedemos aplicar eliminación Gaussiana.
   
1 1 | x 1 1 x
 2 0 | y  f2 → f2 + (−2)f1  0 −2 −2x + y 
−1 1 | z −−−−−−−−−−−−→ −1 1 z
   
1 1 x 1 1 x
 0 −2 −2x + y  f3 → f3 + f1  0 −2 −2x + y 
−−−−−−−−−→
−1 1 z 0 0 −x + y + z
Luego los elementos de gen {S} deben satisfacer.

−x + y + z = 0
  
 x 
Entonces gen {S} =  y  − x + y + z = 0 , lo que representa los puntos de R3 que
 
z
están sobre el plano que pasa por el origen.

Ejemplo 3.17 Describa el espacio generado por los siguientes polinomios:


P1 (x) = 3x + 2
P2 (x) = −x − 4

El problema consiste en determinar que clase de polinomios se generan de las posibles


combinaciones lineales de dichos vectores. Entonces sea P = {3x + 2, −x − 4}

gen(P) = {P (x)/P (x) = k1 (3x + 2) + k2 (−x − 4), k1 , k2 ∈ R}


Sumando las componentes internas tenemos:

gen(P) = {P (x)/P (x) = 3k1 x + 2k1 − xk2 − 4k2 , k1 , k2 ∈ R}


Agrupando términos semejantes:

gen(P) = {P (x)/P (x) = 3k1 x − xk2 + 2k1 − 4k2 , k1 , k2 ∈ R}

= {P (x)/P (x) = (3k1 − k2 )x + 2(k1 − 2k2 ), k1 , k2 ∈ R}


3. Espacios vectoriales 157

El espacio generado son todos los polinomios de grado menor o igual a 1.

.:Teorema 3.4 Sean v1 , v2 , . . . , vn , vn+1 , n + 1 vectores de un espacio vectorial V . Si


v1 , v2 , . . . , vn genera a V , entonces v1 , v2 , . . . , vn , vn+1 también genera a V .

Demostración:

Tomemos v ∈ V ; y se tiene que el conjunto de vectores {v1 , v2 , . . . , vn } genera a V , entonces si


a1 , a2 , . . . , an , son escalares, tales que v = a1 v1 + a2 v2 + . . . + an vn . Así que v también puede
expresarse como:
v = a1 v1 + a2 v2 + . . . + an vn + 0vn+1
Es decir, al nuevo vector vn+1 lo multiplicamos por el escalar cero, lo cual muestra que
{v1 , v2 , . . . , vn , vn+1 } también genera V .

Q.E.D

Ejemplo 3.18 El espacio vectorial R2 puede ser generado por el conjunto


   
1 0
A= ,
0 1

Muestre que se puede generar R2 con el conjunto de vectores:


     
1 0 2
S= , ,
0 1 3
Tomamos:        
1 0 2 x
α1 + α2 + α3 =
0 1 3 y
Ahora, tomamos α3 = 0 y se tiene que:

       
1 0 2 x
α1 + α2 + (0) =
0 1 3 y
     
1 0 x
α1 + α2 =
0 1 y

Quedando el sistema

α1 = x
y α2 =
   
x α1
Entonces = , por que lo se concluye que, el conjunto de vectores S genera el
y α2
espacio vectorial R2 .

Ejercicios 3.3 1. Encuentre el subespacio generado por cada uno de los siguientes conjuntos
de vectores, en el espacio vectorial correspondiente:
3. Espacios vectoriales 158

   
 −1 0 
a) S =  1 , 1 
 
0 −1
   
 4 4 
b) S =  5 , 2 
 
0 0
   
2 4
c) S = ,
−3 −6
   
0 0
d) S = ,
4 −2
   
1 0 0 0
e) S = ,
0 0 0 1
     
0 1 1 1 0 0
f) S = , ,
−1 0 0 0 −1 1
 2 4 3

g) S = x + 2x, x + 2x, x + 2x

2. Sean p1 = x2 − x, p2 = x3 − x − 1, p3 = x4 − x. Determine si los siguientes polinomios


son combinación lineal de p1 , p2 y p3 .

a) x2 + 4x
b) x3 + 4x − 2
c) 4x3 − 2x2 + 2
d) −5x5 + 7x2 − x
     
−1 1 4
3. Sean v1 =  4 , v2 =  5 , v3 =  −1 . Determine (si es posible) los
9 6 2
escalares apropiados para que los vectores generen al vector dado.
   
5 8
a)  2  d)  9 
25 6
   
5 1
b)  6  e)  1 
2 0
   
7 1
c)  4  f)  0 
9 0

4. Dado el espacio vectorial dado, determine si los vectores generan dicho espacio vectorial.
   
5 4
a) R2 con , .
−1 1
3. Espacios vectoriales 159

 
2 0
b) En R ; .
−1
     
1 1 1
c) En R3 ;  1 ,  0 ,  −2 .
0 −9 −2
       
1 0 7 0
d) En R2 ;  0 ,  −1 ,  4 , 0 
1 4 2 −1

5. Muestre que un conjunto de n − 1 vectores de Rn no puede generar a Rn .

3.4. Dependencia e independencia lineal de vectores


Los conceptos de independencia y dependencia lineal serán muy usados de ahora en adelante.
Son útiles porque nos permiten determinar si existe algún tipo de vínculo entre un conjunto de
vectores, es decir, si podemos determinar, que dados un conjunto de vectores, al menos uno
de ellos es múltiplo escalar de otro. En ese caso diremos que el conjunto de vectores dado es
linealmente dependiente, en caso contrario diremos que el conjunto de vectores es independiente.

.:Definición 3.7 Sea S = v1 , v2 , . . . , vn , n vectores distintos del espacio vectorial V . Se dice


que los vectores de S son linealmente dependiente o LD, si existen n escalares k1 , k2 , . . . , kn , no
todos cero, tales que:
k1 v1 + k2 v2 + . . . + kn vn = 0 (3.3)
Si los vectores no son linealmente dependientes, entonces se les llama linealmente independientes,
LI, es decir, si la ecuación:
k1 v1 + k2 v2 + . . . + kn vn = 0
es valida si y solamente si k1 = k2 = · · · = kn = 0.

La ecuación (3.3) puede llegar a ser cero si escogemos todos los k iguales a cero, es decir,
k1 = k2 = · · · = kn = 0. Lo interesante sería averiguar si un conjunto de vectores es L.D
usando valores diferentes de cero para los k.

   
1 −4
Ejemplo 3.19 En R2 , sea A = , y veamos si A es LD o LI.
5 1

Solución

Para determinar si A es L.I. o L.D planteamos la siguiente ecuación:


     
1 −4 0
c1 + c2 =
5 1 0
Queda como resultado el siguiente sistema de ecuaciones lineales:

c1 − 4c2 = 0
5c1 + c2 = 0
3. Espacios vectoriales 160

Si resolvemos el sistema se obtiene que c1 = c2 = 0. Además, el sistema tiene solución única


que es la solución trivial, por lo tanto no existe otra posible solución, lo que implica que es L.I

      
 1 5 2 
Ejemplo 3.20 En R3 , sea A =  2  ,  7  ,  4  y veamos si A es LD o LI.
 
1 0 2

Solución:

De nuevo planteamos el sistema de ecuaciones:


       
1 5 2 0
c1  2  + c2  7  + c3  4  =  0 
1 0 2 0

Luego se obtiene que:

c1 + 5c2 + 2c3 = 0
2c1 + 7c2 + 4c3 = 0
c1 + 0c2 + 2c3 = 0

Simplicando el sistema de ecuaciones:


   
1 5 2 0 1 5 2 0
 2 7 4 0  f3 → f3 + (−1)f1  2 7 4 0 
1 0 2 0
−−−−−−−−−−−−→ 0 −5 0 0
   
1 5 2 0 1 5 2 0
 2 7 4 0  f2 → f2 + (−2)f1  0 −3 0 0 
0 −5 0 0 −−−−−−−−−−−−→ 0 −5 0 0
   
1 5 2 0   1 5 2 0
 0 −3 0 0  f2 → − 1
f2  0 1 0 0 
3
0 −5 0 0 −−−−−−−−−−−→ 0 −5 0 0
   
1 5 2 0 1 5 2 0
 0 1 0 0  f3 → f3 + 5f2  0 1 0 0 
0 −5 0 0 −−−−−−−−−−→ 0 0 0 0
El nuevo sistema quedaría de la siguiente forma:

c1 + 5c2 + 2c3 = 0
c2 = 0

Entonces c3 = c3 por ser variable libre, de acuerdo a la reducción anterior, de lo cual se obtiene
también que c1 + 2c3 = 0, luego c1 = −2c3 , la solución final sería:
3. Espacios vectoriales 161

   
c1 −2
 c2  = c3  0 
c3 1
De lo que se puede concluir  que el sistema
 tiene múltiples soluciones, en este caso cualquier
−2
múltiplo escalar del vector  0 . Luego, hemos encontrado un conjunto de escalares
1
diferentes de cero la combinación lineal de vectores, luego A es L.D.

El siguiente teorema se pueden deducir de la definición de L.D y L.I:

.:Teorema 3.5 Sean v1 y v2 dos vectores de un espacio vectorial V . v1 y v2 son L.D si y sólo si
uno d ellos es múltiplo escalar del otro.

El teorema nos muestra, que el hecho de que un vector se pueda escribir como el múltiplo
escalar de otro, los convierte en un conjunto de vectores L.D. La dependencia esta relacionada
específicamente con la construcción de uno de los vectores como producto escalar del otro, hecho
que implica necesariamente la dependencia de ambos vectores.

   
−2 6
Ejemplo 3.21 Tomemos v1 = y v2 = , Determine si son L.I o L.D
3 −9

Es fácil ver que v2 = −3v1 , luego ambos vectores son L.D.


     
−2 6 0
c1 + c2 =
3 −9 0
Luego el sistema asociado es:

−2c1 + 6c2 = 0
3c1 − 9c2 = 0

Al simplificar obtenemos que c1 = 3c2 , luego existe una dependencia entre ambos vectores.

Veamos la siguiente propiedad:

.:Teorema 3.6 Sea S un conjunto de n vectores de Rm , si n > m, es decir, la dimensión de los


vectores es más grande que la cantidad de vectores, entonces S es L.D

La demostración de este teorema se deja como ejercicio al lector pero, es fácil comprobar esta
afirmación, pues se construye un sistema que tiene más columnas que filas, por lo tanto tendrá
múltiples soluciones, lo que implica que será L.D
3. Espacios vectoriales 162

     
1 2 4
Ejemplo 3.22 Tomemos v1 = y v2 = y v3 =
0 1 7

Para determinar si los vectores son L.D, Se debe construir y resolver el sistema de ecuaciones
homogéneo que resulta de ellos:

c1 + 2c2 + 4c3 = 0
c2 + 7c3 = 0

En forma matricial:
   
1 2 4 0 1 0 −10 0
f1 → f1 − 2f2
0 1 7 0 −− −−−−−−−−→ 0 1 7 0

Luego el sistema quedaría:

c1 + 4c3 = 0
c2 + 7c3 = 0
 
−4
La solución estaría dada por c3 , lo que implica, infinitas soluciones.
−7

.:Corolario 3.1 Todo conjunto de vectores L.I en Rn contiene máximo n vectores.

El siguiente teorema relaciona la independencia lineal con los sistemas de ecuaciones


homogéneos. Donde los vectores se pueden ver como las columnas de la matriz del sistema
AX = 0

.:Teorema 3.7 Sean H = {v1 , v2 , . . . vn }, n vectores en Rn , y sea A una matriz n × n que tiene
como columnas a los vectores v1 , v2 , . . . vn . Entonces v1 , v2 , . . . vn son L.I si y sólo si, la única
solución al sistema homogéneo Ax = 0 es la trivial, es decir, sólo cuando x = 0.

Demostración:
 
m v1 v2 ··· vn
Sean H = {v1 , v2 , . . . vn } un subconjunto de R , A = y los escalares
| | |
c1 , c2 , . . . , cn ; entonces:
     
v1 v2 vn
c1 v1 + c2 v2 + · · · + cn vn = c1 +c2 + · · · + cn
| | |
| {z } | {z } | {z }
Primera columna de A Segunda columna de A n−ésima columna de A

 
c1
 c2 
 
= A . 
 .. 
cn

=⇒ Supongamos que H es L.I, entonces la única combinación lineal de v1 , v2 , . . . vn que produce


el vector cero, es la trivial, es decir: c1 v1 + c2 v2 + · · · + cn vn = 0, únicamente cuando
3. Espacios vectoriales 163

c1 = c2 = · · · = cn = 0, luego:
   
c1 0

 c2  
  0 

A .. = .. 
 .   . 
cn 0
   
c1 0

 c2  
  0 

Sólo si  .. = .. . Por consiguiente AX = 0 tiene únicamente la solución trivial.
 .   . 
cn 0
⇐= Si AX = 0 tiene únicamente la solución trivial, veamos que H es L.I: Sean los escalares
c1 , c2 , . . . , cn , entonces c1 v1 + c2 v2 + · · · + cn vn = 0, entonces:
   
c1 0
 c2   0 
   
A .  =  . 
 ..   .. 
cn 0

y como AX tiene únicamente la solución trivial, se tiene que c1 = c2 = · · · = cn = 0. Por lo


tanto, el conjunto de vectores {v1 , v2 , . . . vn } son L.I.

Q.E.D

Las demostraciones de los siguientes teoremas los dejamos como ejercicio al lector, pues son
relativamente sencillas y es una oportunidad para aplicar los conceptos ya vistos.

.:Teorema 3.8 Sea:


 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

A= .. .. .. 
 . . . 
am1 am2 ··· amn
Las columnas de A se consideran como vectores L.D, si y sólo si, el sistema AX = 0 tiene
soluciones no triviales.

.:Teorema 3.9 Sea A una matriz de tamaño n×n. Entonces, el detA 6= 0 si y solo si las columnas
de A son L.I.

.:Teorema 3.10 Sea H = {v1 , v2 , . . . , vn }un conjunto de n vectores L.I en Rn , entonces H


genera Rn .
3. Espacios vectoriales 164

.:Teorema 3.11 Sea H = {v1 , v2 , . . . , vn } un subconjunto de un espacio vectorial V , H es L.D


si y sólo si existe al menos un vector de H que pueda expresarse como combinación lineal de los
vectores restantes de H.

Demostración
i. Supongamos que H es L.D.

Existen a1 , a2 , . . . , an escalares, no todos nulos, tal que:

a1 v1 + a2 v2 + . . . + an vn = 0

Sea ai 6= 0, entonces,
a1 a2 an
vi = – v1 – v2 – . . . – vn .
ai ai ai
Luego vi es una combinación lineal de los restantes n − 1 vectores de H. Ahora bien, si vi es una
combinación lineal de los restantes vectores de H, entonces

vi = α1 v1 + α2 v2 + . . . + αi−1 vi−1 + αi+1 vi+1 + · · · + αn vn .

Por tanto,

α1 v1 + α2 α2 + . . . + αi−1 vi−1 + (–1) vi + αi+1 vi+1 + · · · + αn vn .

En esta combinación lineal de los vectores de H igualada a cero, al menos el coeficiente de


vi (−1) es diferente de cero y por tanto H es LD.

Q.E.D

Si H es L.D, y genera a V , al eliminar en H el vector que es combinación lineal de los otros


vectores de H generando así mismo el espacio vectorial V .

Ejemplo 3.23 Sea H = {v1 , v2 , v3 , v4 } con


       
1 1 0 2
 1   0   1   1 
 0  , v2 =  1  ,
v1 =    
 1 ,
v3 =   y v4 =  
 1 
0 0 0 0

y sea Z = gen H. Como v4 = v1 + v2 , entonces Z = gen H1 , donde H1 = {v1 , v2 , v3 }

Ejercicios 3.4

1. En los siguientes ejercicios determine si el conjunto de vectores dados es L.D o L.I


3. Espacios vectoriales 165

a) v1 = (7, 1), v2 = (11, −9), en R2 .

b) v1 = (4, 0, 0), v2 = (0, −1, −1), v3 = (1, −1, 2), v4 = (−7, 0, 0), en R3 .

c) P1 = 1 + 2x, P2 = 4–x, en P1 .
d) P1 = x2 − 1, P2 = x2 + 7, en P2 .
     
1 1 2 2 −7 0
e) A1 = , A2 = , A3 = , en M22 .
0 1 0 2 −7 1

f) P1 = 2 + 4x + 2x2 , P2 = 4 + 7x + x2 , P3 = 3 + 4x + 8x2 , en P2 .
     
4 8 8 0 0 0 0 1 0
g) A1 = , A2 = , A3 = , en M23 .
1 1 0 0 1 0 0 0 1

2. Si {v1 , v2 , v3 } es L.I, demuestre {v1 , v2 } , {v1 , v3 } , {v1 } , {v2 } es L.I.

3. Si {v1 , . . . , vn } es L.I, demuestre que todo subconjunto diferente de vacío de este conjunto
es LI.

4. Si {v1 , . . . , vn } es L.D, pruebe que {v1 , . . . , vn , vn+1 , . . . , vk } también es L.D.

5. Demuestre que si los vectores v1 , v2 , . . . vn son L.D en Rm y si vn+1 es cualquier otro


vector en Rm , entonces el conjunto v1 , v2 , . . . vn , vn+1 es L.D .
6. Sea A una matriz de n × n que tiene como columnas a los vectores v1 , v2 , . . . , vn .
Demuestre que v1 , v2 , . . . , vn son L.I si y sólo si A esta en la forma escalonada reducida
por filas y no puede tener filas nulas.
7. Prueba que todo n + 2 polinomios en Pn , son LD.
8. Demuestre que si los vectores v1 y v2 diferentes de cero en Rn son ortogonales, entonces
el conjunto {v1 , v2 } es L.I.
9. Demuestre que cualquiera siete matrices en M32 son L.D.
10. Para cada uno de los conjuntos H dados a continuación:

Probar que H es L.I


Hallar el espacio generado por H.
Hallar, si es posible, un vector v, del espacio vectorial correspondiente, tal que el
conjunto H ′ obtenido al agregar a H el vector v sea también L.I
     

 1 −1 1  
 
4 −1   0   1 
a) V = R , H =    ,   ,  

 2   1   1  
 
0 0 1
3. Espacios vectoriales 166


  
2 1 2
b) V = R , H = ,
−1 1
   

 1 4 
    
4 0 , 1 
c) V = R , H = 
 1
    0 
 

1 2

3.5. Bases y dimensión de un espacio vectorial


.:Definición 3.8 Base
Un conjunto finito de vectores {v1 , v2 , . . . , vn } es base para el espacio vectorial V sí:

i. {v1 , v2 , . . . , vn } es linealmente independiente.

ii. {v1 , v2 , . . . , vn } genera a V .

Tengamos en cuenta que:

Todo conjunto de n vectores L.I de Rn es una base en Rn .

.:Definición 3.9 En Rn se define:


 
1 
0
 
0
 
0

 0   1  0
   0 
 
 ..  
 0


 
..
 

 ..


 . 
  
..
 .
   . 
e1 =  .  , e2 =   , . . . , ei =   , . . . , en = 
..

.
 .   .   1   
  
 ..


 
 .. 

 . 

 . 
 ..   .   .   0 
0 0 0 1

y como los vectores ei son las columnas de una matriz identidad, entonces {e1 , e2 , . . . , en } es un
conjunto L.I y, por lo tanto, constituye una base en Rn , a la cual se le denomina base canónica
en Rn .

Ejemplo 3.24 Los vectores e1 = (1, 0) y e2 = (0, 1) forman una base de R2 , pues cualquier
vector de R2 se puede escribir como una combinación lineal de e1 y e2 . El vector (2, π) se puede
escribir como:      
2 1 0
=2 +π
π 0 1
3. Espacios vectoriales 167


Ejemplo 3.25 En Pn el conjunto 1, x, x2 , . . . , xn es la base estándar para los polinomios de
grado
 n, pues cualquier
polinomio de grado n se puede escribir como combinación lineal de
1, x, x2 , . . . , xn . El polinomio 6x2 + 3x + 5 se puede escribir de la forma:
6x2 + 3x + 5 = (5)1 + (3)x + (6)x2 + 0x3 +, . . . , +0xn

       
1 0 0 1 0 0 0 0
Ejemplo 3.26 El conjunto de matrices , , ,
0 0 0 0 1 0 0 1
es una base para el espacio vectorial M22 . llamada base estándar o canónica, si tenemos la
matriz A :
 
       
−5 4 1 0 0 1 0 0 0 0
A = = −5 +4 +2 +6
2 6 0 0 0 0 1 0 0 1
         
−5 4 −5 0 0 4 0 0 0 0
= + + +
2 6 0 0 0 0 2 0 0 6

Ahora bien, dado un conjunto de vectores en el espacio, vamos a determinar una base para dicho
conjunto. En este caso, debemos realizar un análisis a dicho conjunto, que nos permita conocer la
base.
  
 x 
Ejemplo 3.27 Sea H =  y  : 2x+3y + z = 0 un subespacio de R3 . Determine una
 
z
base para H.

Inicialmente despejamos una de las variables

z = −2x − 3y
Luego los vectores deben ser de la forma:
 
x
 y ,
−2x − 3y
Para cualquier x e y , expandimos el vector en dos nuevos vectores para simplificar la suma
interna:      
x 1 0
 y  = x 0  + y 1 
−2x − 3y −2 −3
   
1 0
El resultado anterior muestra dos hechos, el primero es que los vectores  0  y  1 
−2 −3
son L.I y los segundo es que cualquier vector  que
 pertenezca
   a H se puede escribir como
 1 0 
combinación lineal de estos dos vectores, luego  0  ,  1  forman una base para
 
−3 2
H.
3. Espacios vectoriales 168

3.5.1. Bases y sus propiedades


Los siguientes teoremas muestran las propiedades de las bases.

.:Teorema 3.12 Si {v1 , v2 , . . . , vn } es una base de V y si v ∈ V , entonces existe un y sólo un


conjunto de escalares c1 , c2 , . . . , cn tal que:

v = c1 v1 + c2 v2 + · · · + cn vn

Demostración:

Suponga que v pude expresarse expresarse de dos maneras diferentes, es decir, supongamos
que tenemos dos conjuntos constantes {c1 , c2 , . . . , cn } y {d1 , d2 , . . . , dn } tal que ci 6= di para
i = 1, 2, . . . , n, que permiten escribir a v como una combinación lineal de los vectores.

Con base en lo anterior podemos afirmar que:

v = c1 v1 + c2 v2 + . . . + cn vn = d1 v1 + d2 v2 + · · · + dn vn ,

Agrupando tenemos:

(c1 − d1 ) v1 + (c2 − d2 ) v2 + · · · + (cn − dn ) vn = 0


Como {v1 , v2 , . . . , vn } es L.I, entonces

c1 − d1 = c2 − d2 = · · · = cn − dn = 0 es decir ci − di = 0, ∀i.

Lo que implica que el conjunto de escalares es único para cualquier vector.

Q.E.D

El teorema anterior, muestra que todo vector de un espacio vectorial se puede escribir como la
combinación lineal de su base de manera única. El siguiente teorema hace referencia al tamaño
mínimo que debe tener un espacio vectorial.

.:Teorema 3.13 Si {u1 , u2 , . . . , um } y {v1 , v2 , . . . , vn } son bases del mismo espacio vectorial
V , entonces m = n.

Demostración

Sean H1 = {u1 , u2 , . . . , um } y H2 = {v1 , v2 , . . . , vn } dos bases para el espacio vectorial V .


Suponga que m 6= n, entonces tenemos dos posibles opciones, primero que m > n o que n > m.

Si m > n, veamos que H1 es L.D.


3. Espacios vectoriales 169

Cada vector de H1 se puede expresar como combinación lineal de los vectores de la base H2 .

v1 = a11 v1 + a12 v2 + ··· + a1n vn


u2 = a21 v1 + a22 v2 + ··· + a2n vn
.. .. ..
. . .
un = am1 v1 + am2 v2 + ··· + amn vn
Ahora bien, si H1 es L.D la combinación lineal.
c1 u 1 + c2 u 2 + . . . + cm u m = 0 (3.4)
Entonces existe ci 6= 0 tal que:
c1 (a11 v1 + a12 v2 + · · · + a1n vn ) + c2 (a21 v1 + a22 v2 + · · · + a2n vn ) + · · ·
+cm (am1 v1 + am2 v2 + · · · + amn vn ) = 0.
Como es L.I, entonces:
(c1 a11 + c2 a21 + . . . + cm am1 ) v1 + (c1 a12 + c2 a22 + . . . + cm am2 ) v2 + . . .
+ (c1 a1n + c2 a2n + . . . + cm amn ) vn = 0.
Ahora bien, como {v1 , v2 , . . . , vn } es L.I, entonces:

a11 c1 + a21 c2 + ··· + am1 cm = 0


a12 c1 + a22 c2 + ··· + am2 cm = 0
.. .. ..
. . .
a1n c1 + a2n c2 + ··· + amn cm = 0
Este sistema homogéneo de n ecuaciones con m incógnitas, con m > n, tiene infinitas soluciones,
por tanto, existen escalares c1 , c2 , . . . , cm , no todos cero, que verifiquen (3.4), y en consecuencia
H1 es L.D. De forma análoga se puede hacer la demostración para n > m.

Q.E.D
El teorema anterior no abre el camino para uno de los conceptos más importantes en el tema de
bases. Se trata del concepto de Dimensión.

3.6. Dimensión de un espacio vectorial


.:Definición 3.10 Sea V un espacio vectorial no nulo. La dimensión del espacio vectorial V es
el número de vectores en la base de V , y se denota como:

dim (V )

Como el conjunto {0} es linealmente dependiente, se dice que el espacio vectorial {0} tiene
dimensión cero.
3. Espacios vectoriales 170

En nuestro caso, vamos a asumir que la dimensión de un espacio vectorial es finita. Sin
embargo, existen espacios vectoriales que tiene dimensión infinita. Veremos algunos ejemplos
de la dimensión de un espacio vectorial.

Ejemplo 3.28 Tomemos el caso de R2 , la base de este espacio vectorial es 2, pues se requieren
dos vectores como mínimo para generar cualquier vector en el plano. De igual manera, con el
espacio vectorial R3 , en este caso la dimensión es 3, pues la base para este espacio vectorial
tiene tres vectores. En general, dim (Rn ) = n, pues su base tiene n vectores.

En el caso de los polinomios, el espacio vectorial P2 necesita tres términos para generar
cualquier polinomio de grado menor o igual a dos: un término para generar los x2 , otro para los
términos lineales x, y otro para las constantes. De igual manera, para el espacio vectorial P3 ,
que tiene dimensión 4. En general, dim (Pn ) = n + 1.

Para calcular la dimensión de matrices de tamaño m × n se multiplica el número de filas por


el numero de columnas, por ejemplo, la base para el espacio vectorial de matrices de 2 × 2
necesita de cuatro matrices, lo que implica que dim (M22 ) = 4. La base de un espacio vectorial
de matrices M23 tiene seis elementos, por lo tanto dim (M23 ) = 6.

.:Teorema 3.14 Si dim (V ) = n y {v1 , v2 , . . . , vm } es un conjunto L.I de m vectores de V ,


entonces m ≤ n.

En este teorema, podemos ver a la dimensión del espacio vectorial, como la cota máxima que
puede tener un conjunto de vectores L.I. En el caso de tener más vectores que el número de la
dimensión, tendríamos un conjunto de vectores L.D.

.:Teorema 3.15 Sea V un espacio vectorial de dimensión finita y sea H un subespacio deV ,
entonces, dim (H) ≤ dim (V ).

Ejemplo 3.29 Determine un base para el espacio solución del sistema homogéneo

x − 2y + 2z = 0
x−z =0

Inicialmente tomamos la matriz de coeficientes del sistema:


 
1 −1 2
1 0 −1

Como vimos, la dimensión de M23 es seis, pero en este caso nos piden una base para el espacio
solución del sistema. Entonces procedemos a realizar la eliminación gaussiana:
   
1 −1 2 1 −1 2
f → f2 + (−1)f1
1 0 −1 −2−−−−− −−−−−−→ 0 1 −3
3. Espacios vectoriales 171

   
1 −1 2 1 0 −1
f1 → f1 + (1)f2
0 1 −3 −−−−−−−−−−−→ 0 1 −3
Luego, el nuevo sistema es:

x−z = 0
y − 3z = 0

De donde:

x=z
y = 3z
z=z
Entonces, el
espacio
 solución del sistema homogéneo esta determinado por los múltiplos
 escalares
1 1
del vector  3 . Si H es el espacio solución del sistema, su base es el vector  3  y por lo
1 1
tanto dim (H) = 1. Podemos ver que dim (H) ≤ dim (M23 ).

.:Teorema 3.16 Sea V un espacio vectorial de dimensión n y sea H = {v1 , v2 , . . . , vn } un


conjunto de n vectores en V .

i. Si H es L.I, es una base para V .


ii. Si H genera a V , entonces es una base para V .

La demostración de este teorema la podemos encontrar en [2, 1]. Pero es fácil ver que si el
conjunto H es L.I entonces, puede generar a V , pues reúne las dos condiciones necesarias, que
sea L.I y el tamaño. De otro lado Si Hgenera a V necesariamente debe tener el tamaño de la
dimensión de V y de otra parte si genera a todo V es L.I.

.:Teorema 3.17 Sea V un espacio vectorial de dimensión finita, y sea H un conjunto L.I de
vectores de V . Entonces, existe una base B para V que contiene a H.

El teorema garantiza que en caso de tener un conjunto de vectores de V que sean L.I se pueden
obtener dos opciones:
1. Si H tiene menos elementos que la dimensión de V , entonces es posible encontrar una base
B que contenga los vectores de H.
2. Si H tiene los mismos elementos que la dimensión de V , por el teorema 3.16, H es una
base para V , lo que implica que H = B.

Ejercicios 3.5
3. Espacios vectoriales 172

1. Determine si el conjunto de vectores forma una base para el espacio vectorial dado
(Justifique la respuesta):

a) v1 = (3, −5) , v2 = (7, 2) , v3 = (8, 2) , con R2


     
2 1 1
 3   1   2  4
b) v1 = 
 4 , v1 =  1 , v1 =  3  con R
    

7 0 0
       
7 1 8 2
 −6   6   1   3 
c) v1 =   con R4
 5 , v1 =  1 , v1 =  7 , v1 =  4
     

4 1 2 5
d) P1 = x + x2 , P2 = x, P3 = 3x, P4 = x + 8, con P2 .
2 2
e) P1 = x + 6x, P2 = 4x , P3 = 4x − 7, P4 = πx, con P3 .
     
1 0 0 1 0 0 1 0 0
f) M1 =  1 0 0  , M2 =  0 0 0  , M3 =  0 0 0  ,
1 0 0 1 1 1 1 0 1
     
0 0 0 0 0 0 0 0 0
M4 =  0 0 0  ,M5 =  0 1 0 , M 6 =  1 1 0 , M 7 =
0 0 1 0 0 0 0 0 0
     
0 0 0 0 0 0 1 0 0
 0 1 0 , M 8 =  0 1 0 , M9 =  0 1 0  con M33 .
0 1 0 1 0 0 0 0 0

2. Encuentre una base del espacio vectorial dado y determine su dimensión.

a) Todos los vectores en R3 cuyas componentes suman 1.


b) Todas las matrices simétricas de 2 × 2 diagonales superiores.
c) Todas las matrices antisimétricas de n × n.
d) Todos los vectores de R3 que pertenecen al plano x − 5y − 9z = 0.
e) Todos los polinomios de P2 de la forma a0 + a1 x + a2 x2 , con a0 = 0

3. Determine una base para R4 que contenga los siguientes vectores:


(1, 1, 4, 2), (1, 2, 3, 8), (5, 4, 7, 8)
 
4. Determine los posibles valores de k para que el conjunto k 2 , 0, 1 , (0, k, 2) , (1, 0, 1)
sea una base para R3 .
5. Encuentre una base para el espacio solución del sistema homogéneo dado.

a)
2x − 7y = 0
5x − 7y = 0
3. Espacios vectoriales 173

b) d)
6x + 8y − z = 0 11x − 9y + z + 4w = 0
x−y−z = 0 −x + 2y − z = 0
x−z = 0 x+z−w = 0
c) y+y = 0
x − y + 9z = 0
4x + 7y − 11z = 0
y − 11z = 0

3.7. Subespacios asociados con una matriz


3.7.1. Espacio nulo de una matriz
.:Definición 3.11 Sea A una matriz m × n. El conjunto

N (A) = {X ∈ Rn /AX = 0}

Se llama espacio nulo de A y se denota por N (A). A la dimensión de N (A) se le llama nulidad
de A y se denota por v (A).

 
1 1 1
Ejemplo 3.30 Sea A = . Determine N (A)
3 0 1

El sistema homogéneo que se genera a partir de la matriz A es:

x+y+z = 0
3x + z = 0

Resolvemos el sistema homogéneo


   
1 1 1 1 1 1
f2 → f2 + (−3)f1
3 0 1 −−−−−−−−−−−−→ 0 −3 −2
     1

1 1 1 1 1 0 3
f1 → f1 + f2
0 −3 −2 3 0 −3 −2
−−−−−−−−−−−−−→
La variable libre es z, por lo tanto la solución sería:
 1   1 
  −3z −3
x 
 2 
 
 2 

 y =
 −3z  = z  −3 
   
z    
z 1
3. Espacios vectoriales 174

 1 

 −3 


 
 2


N (A) = gen  −3
 , v (A) = 1.


 

 

 
1
 
1 0 −1 4 2
Ejemplo 3.31 Sea A =  0 −5 2 1 2  . Determine N (A)
7 −3 0 4 −1

La matriz A de coeficientes del sistema

x − z + 4v + 2w = 0
−5y + 2z + v + 2w = 0
7x − 3y + 4v − w = 0

Resolvemos el sistema homogéneo


   
1 0 −1 4 2 1 0 −1 4 2
 0 −5 2 1 2  f3 → f3 + (−7)f1  0 −5 2 1 2 
7 −3 0 4 −1 −−−−−−−−−−−−→ 0 −3 7 −24 −15

   
1 0 −1 4 2   1 0 −1 4 2
 0 3
−5 2 1 2  f3 → f3 + − f2  0 −5 2 1 2 
5 29 123
0 −3 7 −24 −15 −−−−−−−−−−−−−−→ 0 0 5 − 5 − 81
5
   
1 0 −1 4 2   1 0 −1 4 2
 0 −5 2 5
1 2  f3 → f3  0 −5 2 1 2 
29 29
0 0 5 − 123
5 − 81
5 −−−−−−−−−−→ 0 0 1 − 123
29
81
− 29

 7

  1 0 0 − 29 − 23
29
1 0 −1 4 2  
 0 f1 → f1 + f3  275 220

−5 2 1 2   0 −5 0 29 29

f2 → f2 + (−2)f3  
0 0 1 − 123
29
81
− 29 −−−−−−−−−−−−−−→  
0 0 1 − 123
29 − 81
29
 7 23

  1 0 0 − 29 − 29
7
1 0 0 − 29 − 23
29

 


275 220
 0 −5 0 29 29
 f2 → − 51 0
f2  1 0 − 275
145
220
− 145 

0 0 1 − 123 − 81 −−−−−−−−−−−→  
29 29
0 0 1 − 123
29
81
− 29
3. Espacios vectoriales 175

Las variables libres son v y w, por lo tanto la solución sería:


 7 23
  7   23 
29 v + 29 w 29 29
     
   275 220
    
x  275   220
 145 v + 145 w 
  
 145   145 
 y       
   123 81
    
 z = v + w  = v  123  + w  81 
   29 29   29   29 
 v       
     
w 
 v 

 1 
 
 0



     
w 0 1
 7   23 

 29 29 


     

     


  275   220  

  145   145  


     

    
123 81
N (A) = gen   29
,
  29
 , v (A) = 2.


 

 
 
  


 



 1 


 0 





     


 

 
0 1
.:Definición 3.12 Sea A de tamaño m × n
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= . .. .. .. 
 .. . . . 
am1 am2 ··· amn

i. El espacio generado por las filas de A,

f1 = (a11 , a12 , . . . , a1n ) , f2 = (a21 , a22 , . . . , a2n ) , . . . , fm = (a11 , a12 , . . . , a1n )

es un subespacio de Rn llamado espacio fila de A y se denota F (A).


ii. El espacio generado por las columnas de A
     
a11 a12 a1n
 a21   a22   a2n 
     
c1 =  .  , c2 =  .  , . . . , cn =  .. 
 ..   ..   . 
am1 am2 amn

Es un subespacio de Rm llamado espacio columna de A y se denota C(A).

3.7.2. Propiedades
.:Teorema 3.18 Si A y B son matrices m × n equivalentes por filas, entonces los espacios
generados por las filas de A y de B son iguales.
3. Espacios vectoriales 176

Demostración

Si A y B son equivalentes por filas, entonces B se obtiene de A aplicando operaciones


elementales por fila. La permutación de filas no afecta el espacio fila. Las otras operaciones kfi y
fj + kfi , son combinaciones lineales entre las filas de A, que pertenecen al espacio fila de A. Por
tanto, el espacio generado por las filas de B está contenido en el espacio generado por las filas de
A, F (B) ⊂ F (A).

De forma análoga se ve que F (A) ⊂ F (B). En consecuencia, F (A) = F (B).

Q.E.D

Ejemplo 3.32 Sea:    


 1 4 
H =  −1  ,  0 
 
2 −1
Determine una base para gen H.

Tomemos los vectores de H como filas de la matriz A y aplicando operaciones elementales por
fila obtenemos otra matriz equivalente a la que llamaremos B, la cual, es una matriz triangular
superior. Las filas no nulas de B son L.I y forman una base para F (B) el cual es igual a F (A).
Estos vectores tomados como columnas serán una base para gen H.
 
1 −1 2
A=
4 0 −1
Aplicamos operaciones elementales por fila tenemos que:
   
1 −1 2 1 −1 2
f → f2 + (−4)f1
4 0 −1 −2−−−−− −−−−−−→ 0 4 −9
 
    1 −1 2
1 −1 2 1
f2 → f2  
0 4 −9 4
−−−−−−−−−→ 0 1 − 49
   
1 −1 2 1 0 − 41
  f1 → f1 + f2  =B
−−−−−−−−−→
0 1 − 49 0 1 − 49
Entonces la solución sería:
 1
  1

  4z 4
x 







 y = 9 9
4z
 = z 
   4 
z    
z 1
3. Espacios vectoriales 177

 1


 4 


 
 

9
Base para gen H =  4



 

 

 
1
El gen H es una base para F (B) y a su vez para F (A).

.:Teorema 3.19 Sea B una matriz m × n en la forma escalonada por filas. Las columnas de
B que contienen los pivotes forman una base para C(B) y, por tanto, dim (C(B)) es igual al
número de pivotes de B.

Demostración

Si B es una matriz escalonada por filas y tiene n pivotes, estas filas son L.I. Además, si las
columnas generan a C(B), los primeros k pivotes de B son diferentes de cero y los últimos
m − k pivotes son cero. Si tomamos a b ∈ C(B) entonces b es una combinación lineal de las
columnas de b, luego los últimos m–k componentes de b son todos cero.

Formemos una matriz Pm×k (k : # de renglones de B diferente de cero) tomando las columnas
de B que contienen los pivotes y las colocamos ordenadamente,

 
∗ ··· ···
 0 ∗ ···  
 
 ..  


 . 
Pm×k =
 0 0
 k
 ··· ∗ 
 

 . ..  
 .. . 
0 0 ··· 0
Las entradas señaladas con ∗ son los pivotes de B y por tanto diferentes de cero. Por la forma
especial de P y b, la ecuación P X = b puede resolverse por sustitución regresiva. Luego
k×1 m×1
b es combinación lineal de las columnas de P y, por tanto, de las columnas de B que contienen
pivotes.

Q.E.D

El siguiente teorema puede considerarse como un conjunto de propiedades relacionadas con F (A)
y C(A).

.:Teorema 3.20 Sea A de tamaño m × n y B es la matriz de tamaño m × n que resulta al


reducir A a su forma escalonada. Los vectores columna de B que contienen los pivotes forman
una base para C(B) y, entonces los vectores columna correspondientes de A formarán una base
para C(A) y, en consecuencia podemos tener los siguientes resultados:
3. Espacios vectoriales 178

dim (C(A)) = dim (C(B))


F (A) = F (B)
k : número de pivotes de B, entonces, dim (F (B)) = dim (F (A)) = k
dim (C(B)) = k
dim (C(B)) = dim (C(A))
Por lo tanto dim (C(A)) = dim (F (A)) = k.

La siguiente definición hace referencia a la dimensión de los espacios fila y columna de A, es


decir de F (A) y C(A).

.:Definición 3.13 El rango de A, denotado por ρ(A), es la dimensión de los espacios fila y
columna de A.

Ejemplo 3.33 En el ejemplo anterior tenemos la matriz:


 
1 −1 2
A=
4 0 −1
En la cual encontramos la base para F (A), el cual tiene dimensión 1, pues sólo cuenta con un
vector:
 1 

 4 


 
  9 
 
  4 

 

 

1
Entonces ρ(A) = 1

Ahora bien, sean A y B de tamaño n × m, donde B se obtiene de A haciendo operaciones


elementales por fila, es decir, B estaría en forma escalonada. Sabemos por los teoremas 3.18 y
3.20 que:

N (A) = N (B)

F (A) = F (B)
Esto implica que la dimensión de F (A) es igual al número de parámetros en la solución del
sistema equivalente reducido BX = 0. La dimensión de F (B) es igual al número de variables
principales del sistema BX = 0. y a su vez, el número de variables principales más el número
de parámetros es n. En pocas palabras, la dimensión del espacio fila de A más la dimensión del
espacio nulo de A, debe dar la cantidad de filas de A. De igual manera la dimensión del espacio
columna y el espacio nulo.
3. Espacios vectoriales 179

.:Teorema 3.21 Sea A es una matriz m × n, entonces:

dim (F(A)) + dim (N (A)) = n


dim (C(A)) + dim (N (A)) = n

Es decir:
ρ(A) + v(A) = n

Ahora bien, el siguiente teorema muestra la forma como se relaciona el espacio fila con el espacio
numo de A.

.:Teorema 3.22 Sea A de tamaño n × m, entonces, cada vector del espacio fila de A, F (A) es
ortogonal a todo vector del espacio nulo de A, N (A), es decir (F (A) ⊥ N (A))4

Demostración

Si se tiene la ecuación:

AX = 0
De la siguiente forma:
    
a11 a12 ··· a1n x1 0

 a21 a22 ··· a2n 
 x2  
  0 

 .. .. ..  .. = .. 
 . . .  .   . 
am1 am2 ··· amn xn 0
Ahora, si X ∈ N (A) , entonces AX = 0, luego, si fi es la i-ésima fila de A, fi X = 0, para
i = 1, 2, . . . , m.

Ahora bien, si Y ∈ F (A), entonces:

Y = k1 f1 + k2 f2 + · · · + km fm
y

Y X = k1 f1 · X + k2 f2 · X + · · · + km fm · X = 0
Entonces, todo vector del espacio fila es ortogonal a todo vector del espacio nulo.

Q.E.D
4 El símbolo ⊥ significa que todo vector del espacio fila es ortogonal a todo vector del espacio nulo.
3. Espacios vectoriales 180

Ejemplo 3.34 Sea  


1 −1 2 3
 −2 2 −4 −6 
A=
 2 −2

4 6 
3 −3 6 9
Determinemos N (A), F (A), ρ(A), v(A).

Solución

Tomemos la matriz y efectuemos las operaciones elementales por fila:


   
1 −1 2 3 1 −1 2 3
 −2 f 2 → f 2 + (2)f 1
 2 −4 −6 
 f → f3 + (−2)f1 
 0 0 0 0 

 2 −2 4 6  3  0 0 0 0 
f4 → f4 + (−3)f1
3 −3 6 9 −−−−−−−−−−−−−−→ 0 0 0 0
Tenemos tres variables libres: y,z y w, luego la solución sería:
         
x y − 2z − 3w 1 −2 −3
 y   y  = y 1 +z 0 +w 0 
     
 z =
   
z   0   1   0 
w w 0 0 1
Entonces N (A) esta determinado por:
     

 1 −2 −3 

 
1   0   0
,
gen    1 , 0
  
  0 

 

0 0 1
Entonces v(A) = 3.
 
Ahora bien, F (A) = gen 1 −1 2 3 , pues es la única fila que tiene pivote, además es
la única que no se anuló. Luego, ρ(A) = 1, y donde podemos apreciar que v(A) + ρ(A) = 4.

Los siguientes teoremas muestran las relaciones entre una matriz y su rango:

.:Teorema 3.23 Sea A una matriz de n × n. Entonces A es invertible si y solo si:

a. v(A) = 0
b. ρ(A) = n

La demostración del teorema anterior se deja como ejercicio al lector, pero es fácil ver la forma
de la demostración. Recordemos que si una matriz de tamaño n × n es invertible, entonces tiene n
pivotes, por tanto tiene n filas no nulas. Entonces el sistema homogéneo asociado a dicha matriz
tendrá solución trivial, lo que implica N (A) no tendrá elementos y por tanto v(A) = 0.
3. Espacios vectoriales 181

.:Teorema 3.24 Sea A de tamaño m×n. El sistema AX = b tiene solución si y solo si b ∈ C(A).

El teorema anterior, nos muestra que en un sistema de la forma AX = b, b debe pertenecer


al espacio columna de A, es decir, debe poder escribirse como una combinación lineal de las
columnas de A.

Ejercicios 3.6

1. Encuentre bases para los espacios nulo, fila y columna de la matriz dada. encuentre el
rango y la nulidad (recuerde que ρ(A) + v(A) = n.)

a) e)  
  1 2 5
5 4 2 7 5 5 0 1  4
 1 9 5 
5 7 8 5 5 2 0  
 1

2 4 
1 4 8 8 5 5 4 5
0 1 2
b)   f)
1 4 7  
 2 2 0 1
0 1   0

 2
 4 5 
0 2 
2 1 2
0 0 1
c) g)  
 
1 1 1 0 1 0 1 0 1 5
 1 1 0 1 1 0  2 0 0 0
 
 1 1 1 1 1 1  h)
0 1 0 1 1 0 
1 2 5 4

d)  7 1 0 2 
   
1 1 0 0 1 0  1 4 5 2 
1 0 0 0 1 0 1 1 0 1

2. Dados los siguientes conjuntos de vectores, encuentre una base para el espacio generado
por dichos vectores.
   
1 0
a) ,
2 −1
     
1 1 2
 0   4   1 
b)   ,   ,  
    
0 7 2 
0 9 1
   
1 0 0 −1
c) ,
0 −1 1 0

3. Si A es una matriz demuestre:


3. Espacios vectoriales 182

a) ρ (A) = ρ (At )
b) Si A es una matriz diagonal. Demuestre que ρ (A) es el número de componentes
diferentes de cero en la diagonal.
c) Si A una matriz triangular n × n con ceros en la diagonal. Demuestre que ρ (A) < n.
“Se ha convertido casi en un comentario cliché, que nadie hoy en día
alardea de ser un ignorante en literatura, pero es aceptable socialmente
alardear de ignorar la ciencia y afirmar orgulloso que se es un
incompetente en matemáticas.” —
Richard Dawkins.

Transformaciones Lineales
4
4.1. Definición
Una función es una regla que asigna a cada elemento de un conjunto exactamente un elemento de
otro conjunto. Las funciones se emplean en muchas áreas de las matemáticas y son importantes
en las aplicaciones para describir la relación de una variable con otra. Por ejemplo, la distancia
que alcanza un objeto en función del tiempo, el costo total de un producción en función de
los números de artículos producidos, y en fin, una variedad de situaciones que se involucran
el proceso humano. Esto nos permite mostrar una clase importante de funciones entre espacios
vectoriales denominadas transformaciones lineales.

Tome por ejemplo la función f (x) = x2 , esta función toma un número y lo “transforma” en
en cuadrado del número original. En una transformación lineal, el cambio se realiza teniendo en
cuenta ciertas reglas especiales. A continuación, veremos la definición formal de transformación
lineal.

.:Definición 4.1 Una transformación T de Rn en Rm , que se denota T : Rn → Rm , es una


regla que asigna a cada vector u en Rn un vector único v en Rm .

Rn recibe el nombre de dominio de T y Rm es el codominio. Se representa esta relación mediante


T (u) = v; v es la imagen de u bajo T. El conjunto de imágenes recibe el nombre de rango de
T. El rango está formado por Rm o una parte de éste. Los términos aplicación y función son
sinónimos de transformación.

Ejemplo 4.1 Considere la transformación T : R3 → R2 , definida mediante T (x , y , z) =


(3x, z − y).

183
4. Transformaciones Lineales 184

El dominio de T es R3 , y el codominio es R2 . La imagen de cualquier vector de R3 se puede


determinar usando la definición. Por ejemplo, la imagen del vector (4, 1, 3) se puede determinar
estableciendo la correspondencia x = 4, y = 1, z = 3. La imagen es (12, 2).

Espacio vectorial R3 : (4, 1, 3)

Transformación lineal T

Espacio vectorial R2 : (12, 2)

Un espacio vectorial Rn posee dos operaciones definidas sobre él: la adición y la multiplicación
por un escalar. Las transformaciones entre espacios vectoriales con mayor importancia son
aquellas que conservan estas estructuras lineales en el siguiente sentido.

.:Definición 4.2 Sea V y W espacios vectoriales reales. Una transformación lineal T : V → W


es una función que asigna a cada vector u ∈ V un único vector T (u) ∈ W y que satisface cada
u, v en V y cada α ∈ R.
1. T (u + v) = T (u) + T (v)
2. T (αv) = αT (v)

Ejemplo 4.2 La transformación T : R3 → R2 definida por:


   
x   x  
1 0 2 x + 2z
T  y  =  y  =
2 0 4 2x + 4z
z z

Es una transformación lineal porque:


1. T (x + y) = T (x) + T (y)
2. T (αx) = αT (x)
Por ejemplo:
4. Transformaciones Lineales 185

   
1   −1  
7 3
T 2 = T 0 =
14 6
3 2
Entonces
     
1 −1 0      
10 7 3
T   2  +  0   =T  2  = = +
20 14 6
3 2 5
Si α = 4
    
1 4    
28 7
T 4  2  = T  8  = =4
56 14
3 12

Ejemplo 4.3 La transformación T : R3 → R2 definida por:

T (x, y, z) = (x, yz)

no es lineal.

Haciendo la prueba de la adición. Sean (x1 , y1 , z1 ) y (x2 , y2 , z2 ) elementos de R3 . Entonces.

T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T (x1 + x2 , y1 + y2 , z1 + z2 )


= ((x1 + x2 ) , (y1 + y2 ) (z1 + z2 ))
= (x1 + x2 , y1 z1 + y1 z2 + y2 z1 + y2 z2 )

T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ) = (x1 , y1 z1 ) + (x2 , y2 z2 )


= (x1 + x2 , y1 z1 + y2 z2 )

Se tiene que, T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) 6=T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ) por lo tanto, como la
adición vectorial no se conserva. Entonces T no es lineal.

Para continuar con la definición de una transformación se mostrará, que una matriz, es lineal. Por
ejemplo, considere la matriz A.  
  x
2 3 −1
A= y el vector columna x =  y  de R3 .
4 0 1
z
Esta matriz define la transformación T (x) = Ax de R3 en R2 , usando la multiplicación entre
matrices de la siguiente manera.
4. Transformaciones Lineales 186

 
  x  
2 3 −1  y  = 2x + 3y − z
T (x) =
4 0 1 4x + z
z
Las imágenes de los vectores se pueden determinar utilizando valores adecuados de x, y, z. Por
ejemplo, se tiene que:

   
2   −1  
12 −11
T   3  = yT  −2  =
9 −1
1 3

.:Teorema 4.1 Sea A una matriz m × n. Sea x un elemento de Rn , interpretado como una
matriz columna. La transformación T : Rn → Rm , definida por T (x) = Ax, es lineal. En
dicha transformación lineal A recibe el nombre de matriz de transformación, es decir la matriz
asociada a la transformación.

Demostración:

Puesto que A es una matriz de m × n y x es una matriz de n × 1, entonces Ax es una matriz de


m × 1. Así T (x) = Ax define una transformación de Rn en Rm . Es necesario demostrar que T
es lineal.

Sean x y y elementos de Rn , expresados como matrices columna, y sea c ∈ R un escalar. De las


definiciones 4.1 y 4.2, y por las propiedades de las matrices, se tiene:

T (x + y) = A (x + y) = Ax+Ay = T (x) + T (y). La adición se conserva.


T (cx) = A (cx) = cAx = c T (x) . La multiplicación por un escalar se conserva.

Por lo tanto, la transformación es lineal.

Q.E.D.

El teorema anterior, nos informa como una matriz representa una transformación. El siguiente
teorema, muestra que las trasformaciones se pueden ver como funciones entre vectores y matrices.
La función compuesta entre funciones reales también es válida en transformaciones.

.:Teorema 4.2 La transformación compuesta T de las dos transformaciones matriciales T1 :


Rn → Rm y T2 : Rm → Rs , definidas por las matrices A1 y A2 respectivamente, es una
transformación matricial T : Rn → Rs , definida por el producto matricial A2 A1 .

Demostración:

De acuerdo con la definición de T, se tiene que:

T (x) = T2 (T1 (x)) = T2 (A1 x) = A2 (A1 x)


4. Transformaciones Lineales 187

Ya que la multiplicación de matrices es asociativa, la expresión anterior se puede escribir de la


siguiente manera:

T (x) = (A2 A1 ) x
Como A2 es una matriz de orden s × m, y A1 es una matriz de orden m × n. La matriz resultante
del producto A2 A1 es una matriz de orden s × n. Por lo tanto, T es una transformación de Rn en
Rs , definida por el producto matricial A2 A1 .

Q.E.D.

Ejemplo 4.4 Sean T1 (x) = A1 x y T2 (x) = A2 x, definidas por las siguientes matrices A1 y
A2 .

 
    2
2 1 0 1 2
A1 = , A2 = yx= 1 
3 0 −1 −2 0
3

Sea, además, T = T2 ◦ T1 . Determine la imagen del vector x, bajo T.

T se encuentra definida por el producto matricial A2 A1 . Se tiene que


    
1 2 2 1 0 8 1 −2
A2 A1 = =
−2 0 3 0 −1 −4 −2 0
Por lo tanto,
 
  2  
8 1 −2 11
T (x) =  1 =
−4 −2 0 −10
3

Generalizando los resultados de manera natural llegamos al siguiente teorema:

.:Teorema 4.3 Sea T1 , . . . , Tn una sucesión de transformaciones lineales en Rp , · · · , Rs ,


definidas por las matrices A1 , . . . , An . La composición T = Tn ◦ · · · ◦ T1 , está determinada
por el producto de matrices An · · · A1 , si el producto existe.

El teorema 4.3, nos muestra que las trasformaciones, al igual que las funciones, son susceptibles
de componerse entre ellas, sin embargo, la composición entre matrices requiere más cuidado,
pues es necesario tener en cuenta que el producto de matrices no es conmutativo.

.:Teorema 4.4 Sea T : U → V una transformación lineal. Sean 0V y 0U los vectores cero de
U y V Así T (0U ) = 0V . Es decir, que una transformación lineal convierte el vector cero de un
espacio vectorial en un vector cero de otro espacio vectorial.
4. Transformaciones Lineales 188

Demostración:

Sea u un vector en U y sea T (u) = v. Sea 0 el escalar cero. Ya que 0u = 0U y 0v = 0V y T es


lineal, se tiene que:

T (0U ) = T (0u) = 0T (u) = 0v = 0V .

Q.E.D.

Era de esperarse que una transformación lineal entre dos espacios vectoriales, el vector nulo del
dominio estuviera relacionado con el vector cero del codominio. La siguiente definición tiene una
gran importancia para el desarrollo posterior del tema.

.:Definición 4.3 Sea T : U → V una transformación lineal.


El conjunto de vectores transformados en el vector cero de V , recibe el nombre de Núcleo,
espacio nulo o kernel, es decir,

Núcleo (T ) = {x ∈ V | T (x) = 0}

El núcleo se representa por Núcleo (T )a


El conjunto de vectores en V que constituyen las imágenes de los vectores en U , recibe el
nombre de rango de T , es decir,

Im (T ) = {y ∈ V | ∃x ∈ U y T (x) = y}

El rango se representa por Im (T ).

a En algunos textos lo escriben como N u(T ) o Núcleo(T )

El Núcleo (T ) puede verse como todos aquellos vectores del espacio vectorial U que son
transformados en el vector nulo de V , como se muestra en la figura 4.1.

T
U V

x1
x2
..
.
xi 0
Ker(T ) xj
..
.
xk

Figura 4.1: El Núcleo (T )


4. Transformaciones Lineales 189

Mientras que Im (T ) hace alusión aquellos vectores de V que son relacionados por vectores de
U.

.:Teorema 4.5 Sea T : U → V una transformación lineal. El Núcleo (T ) es un subespacio de


U.

Demostración:

Según el teorema anterior, se sabe que el núcleo no es vacío ya que contiene al vector cero de U.

Para demostrar que el núcleo es un subespacio de U, pruebe que es cerrado bajo la adición y la
multiplicación por un escalar:
1. Empezando por la propiedad de cerradura bajo la adición. Sean u1 y u2 elementos del
Núcleo (T ) . Por consiguiente, T (u1 ) = 0 y T (u2 ) = 0.
De acuerdo con la propiedad de linealidad de T, se tiene que:

T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0

El vector u1 + u2 se transforma en 0. Por lo tanto, u1 + u2 se encuentra en el Núcleo (T ) .


2. Ahora que el Núcleo (T ) es cerrado bajo la multiplicación por un escalar.
Sea c un escalar, de acuerdo a la propiedad de linealidad de T, se tiene que T (cu1 ) =
cT (u1 ) = c0 = 0 se observa que, cu1 se encuentra en el Núcleo (T )
El núcleo es cerrado bajo la adición y la multiplicación por un escalar. Es decir, que se trata
de un subespacio de U.

Q.E.D

.:Teorema 4.6 Sea T : U → V una transformación lineal. El rango de T es un subespacio de


V.

Demostración:

El teorema anterior indica que el rango no es vacío, ya que contiene al vector cero de V.

Para demostrar que el rango es un subespacio de V, es necesario probar que es cerrado bajo la
adición y la multiplicación por un escalar.

Sean v1 y v2 elementos del rango (T ) . Por supuesto, existen vectores w1 y w2 en el dominio


de U , tales que T (w1 ) = v1 y T (w2 ) = v2
4. Transformaciones Lineales 190

Según la propiedad de linealidad de T, T (w1 + w2 ) = T (w1 ) + T (w2 ) = v1 + v2

El vector v1 + v2 se encuentra en la imagen de w1 + w2 .

Por lo tanto, v1 + v2 se encuentra en el rango. Sea c un escalar, según la propiedad de linealidad


de T. T (cw1 ) = cT (w1 ) = cv1 .
El vector cv1 se encuentra en la imagen de cw1 .

Por lo tanto, cv1 pertenece al rango. El rango es cerrado bajo la adición y la multiplicación por
un escalar. Así que es un subespacio de V.

Q.E.D.

Ejemplo 4.5 Determine el núcleo y el rango del operador lineal T (x, y, z) = (x, 0, z)

Solución:
Puesto que el operador lineal T transforma R3 en R3 , el núcleo y el rango serán subespacios de
R3 .

El núcleo : Núcleo (T ) es el subconjunto transformado en (0, 0, 0) . Teniendo en cuenta


T (x, y, z) = (x, 0, z) = (0, 0, 0) , si x = 0, z = 0

Sin embargo, Núcleo (T ) es el conjunto de vectores (0, y, 0) ; lo anterior se expresa como


Núcleo (T ) = {(0, y, 0)} .

Según la perspectiva geométrica, el Núcleo (T ) es el conjunto de vectores que se localizan en el


eje y.

El rango de T es el conjunto de vectores de la forma (x, 0, z) .

Entonces, rango(T ) = {(x, 0, z)} .

El rango(T ) es el conjunto de vectores que se localizan en el plano xz.

Imagínese que T proyecta el vector (x, y, z) en el vector (x, 0, z) en el plano xz. Donde T es
un ejemplo de operador de proyección.

Lo anterior permite afirmar que f (x, y, z) = (x, 0, z) .

.:Teorema 4.7 Los vectores columna de A generan el rango de T : Rn → Rm , definido por


T (u) = Au.

Demostración:
Sea v un vector en el rango. Existe un vector u, tal que T (u) = v. Se debe expresar u en términos
de la base canónica de Rn .
4. Transformaciones Lineales 191

n
X
u= ai ei = a1 e1 + a2 e2 + · · · · · · + an en
i=1

Esto permite, v =T (a1 e1 + a2 e2 + · · · · · · + an en ) = a1 T (e1 ) + a2 T (e2 ) + · · · + an T (en ).


Por lo tanto, los vectores columna de A, a saber, T (e1), · · · T (en ), generan el rango de A.

Q.E.D

Ejemplo 4.6 Determine el núcleo y el rango de la transformación definida por la siguiente


matriz.

 
1 3 2
A =  1 0 6 
2 6 4

Sea A es una matriz de 3x 3. De esta manera, A define un operador lineal T : R3 → R3 . Con


T (x) = A (x) .

Los elementos de R3 se expresan en forma de matriz columna para poder efectuar la


multiplicación de matrices.  
x1
N úcleo : el núcleo constará de todos los vectores x =  x2  en R3 , tales que T (x) = 0.
x3
Así,     
1 3 2 x1 0
 1 0 6   x2  =  0  ,
2 6 4 x3 0

esta ecuación matricial corresponde al sistema de ecuaciones lineales.

1x1 + 3x2 + 2x3 = 0


1x1 + 0x2 + 6x3 = 0
2x1 + 6x2 + 4x3 = 0
al resolver el sistema, se obtiene las siguientes soluciones, x1 = −6r, x2 = 34 r, x3 = r, con
r ǫ R.

Por
 lo tanto, el núcleo es el conjunto de vectores −6r, 43 r, r , es decir, Núcleo (T ) =

−6r, 34 r, r .
El Núcleo (T )es un subespacio unidimensional de R3 cuya base es (−18, 4, 3)con r = 3.
Rango : los vectores columna de A generan el rango. Para ello escriba los vectores columna
renglones de una matriz y calcule la forma escalonada de la matriz.

Los vectores renglón distintos de cero proporcionan una base para el rango, así:
4. Transformaciones Lineales 192

         
1 1 2 1 1 2 1 1 2 1 1 2 1 1 2
 3 0 6  ≈  0 −3 0  ≈  0 −3 0 ≈  0 1 0  ≈  0 1 0  ≈
 2 6 4  2 6 4 0 4 0 0 4 0 0 0 0
1 0 2
 0 1 0 
0 0 0
Los vectores (1, 0, 2) y (0, 1, 0) generan el rango de T.

Cualquier vector del rango es una combinación lineal de estos vectores, así: s (1, 0, 2) +
t (0, 1, 0)

Por lo tanto, el rango de T es Rango(T ) = {(s, t, 2s)}


Rango(T ) es un subespacio bidimensional de R3 con bases {(1, 0, 2) , (0, 1, 0)}

.:Teorema 4.8 Sea T : U → V una tranformación lineal, así: Dim Núcleo (T ) +


Dim Rango(T ) = Dim Dominio(T )

Se deja para su demostración, por parte del estudiante.

Ejemplo 4.7 En el caso de la transformación lineal T del ejemplo anterior:

Dim Núcleo (T ) = 1, Dim Rango(T ) = 2, Dim Dominio(T ) = 3.

La dimensión del rango de una transformación matricial es el rango de la matriz.

Ejemplo 4.8 Determine las dimensiones del núcleo y el rango de la transformación lineal T
definida por la matriz
 
1 0 5
A= 0 1 3 
0 0 0

Solución:
Como la matriz A tiene forma escalonada. Los vectores renglón son linealmente independientes.

Por lo tanto, el Rango(A) = 2, lo que implica que Dim Rango(T ) = 2.

El dominio de T pertenece a R3 ; Dim Dominio(T ) = 3.

Por lo tanto, Dim Núcleo (T ) = 1.


4. Transformaciones Lineales 193

.:Teorema 4.9 Existen términos como el núcleo de una aplicación lineal T que recibe el nombre
de espacio nulo. Dim Núcleo (T ) recibe el nombre de nulidad, y Dim Rango(T ) recibe el
nombre de rango de la transformación. Este último término proviene de la observación de que
el rango de una transformación matricial es el rango de la matriz. Se considera que el teorema
anterior se denomina teorema del rango y la nulidad y se expresa de la siguiente forma:

Rango(T ) + N ulidad(T ) = Dim Dominio(T )

.:Definición 4.4 Se dice que una transformación T es uno a uno, si cada elemento del rango de
T corresponde exactamente a un elemento del dominio de T. Esto significa que T es uno a uno
si T (u) = T (v) implica que u = v.

.:Teorema 4.10 Una transformación lineal T es uno a uno si y sólo si el núcleo es el vector cero.
[Se deja para ejercitación su demostración]

.:Teorema 4.11 La transformación T : Rn → Rn , definida por T (x) = Ax, es uno a uno si y


sólo si A es no singular.

Demostración:
Sea T uno a uno, por lo tanto, Núcleo (T ) = 0. El teorema del rango y la nulidad implica que
Dim Rango(T ) = n. Y, las columnas de A son linealmente independientes, lo que induce que
el rango es n y det(A)6=0. Adicionalmente, suponga que A es no singular. Esto implica que el
rango de A es n y que sus n vectores columna son linealmente independientes. Significa que
Dim Rango(T ) = n.

El teorema del rango y la nulidad ahora soporta que Núcleo (T ) = 0. Por lo tanto, T es uno a
uno.
Q.E.D.

.:Teorema 4.12 Sea T : U → V una transformación lineal uno a uno. Si el conjunto


{u1 , u2 , . . . , un } es linealmente independiente en U, entonces {T (u1 ) , . . . , T (u2 )} es
linealmente independiente en V ; es decir, que las transformaciones lineales uno a uno conservan
la independencia lineal.

Demostración:
Considere la identidad a1 T (u1 ) + · · · + an T (un ) = 0 para los escalares a1 , a2 , . . . , an .

Ya que T es lineal, se puede expresar de la siguiente manera:


T (a1 u1 + · · · +an un ) = 0
T es uno a uno; argumentando, el núcleo es el vector cero.

Por lo tanto, a1 u1 + · · · +an un = 0. Sin embargo, el conjunto {u1 , . . . , un } es linealmente


independiente. Así, a1 = 0, . . . , an = 0. De acuerdo con la identidad definida previamente, esto
implica que {T (u1 ) , . . . , T (u2 )} es linealmente independiente.
4. Transformaciones Lineales 194

Q.E.D.

Ejercicios 4.1 1. Muestre que la transformación T : R2 → R2 , definida por T (x, y) =


(2x, x − y) es lineal.
Determine las imágenes de los elementos (1, 2) y (−1, 4) bajo esta transformación.
2. Muestre que T : R3 → R3 , definida por T (x, y, z) = (0, 0, 0) es lineal.
Esta transformación recibe el nombre proyección ¿Porqué es adecuado el término?
3. Muestre que las transformaciones siguientes T : R3 → R2 , no son lineales.
Para T (x, y, z) = (3x, y 2 ) o T (x, y, z) = (x + 3, 6y).
4. Determine si la transformación es lineal para T : R3 → R2 , donde T (x, y, z) = (2x, y).
5. Determine si la transformación es lineal para T : R2 → R3 , donde T (x, y) = (x, y, z),
cuando z = 2 ó z = −1.
6. Determine si la transformación es lineal para T : R3 → R3 , donde T (x, y, z) =
(x + 2y, x + y + z, 3z).
7. Considere la transformación lineal T : R2 → R3 , definida por la siguiente matriz A.
Determine las imágenes de los vectores dados x, y, z.
 
1 2      
−1 2 5
A = −1 3 ; x =
  ,y= ,z=
1 3 2
1 2

8. Sean T1 (x, y) = (2x, −y) y T2 (x, y) = (0, x + y) .


Sea T = T2 ◦ T1 . Encuentre una ecuación para T y utilícela para determinar la imagen de
(2, −3) bajo T.
9. Sean T1 (x, y) = (x + y, 2x, 3y) y T2 (x, y, z) = (x, x + y, 2x − z) .
Sea T = T2 ◦ T1 . Encuentre una ecuación para T y utilícela para determinar la imagen de
(−2, 5) bajo T.
10. Demuestre que la transformación T : P2 → P2 , definida de la manera siguiente es lineal:
T ax2 + bx + c = cx2 + a.
Encuentre la imagen de 3x2 − x + 2. Determine otro elemento de P2 con la misma imagen.
11. Considere la transformación lineal T, definida por cada una de las matrices siguientes.
Determine el núcleo y el rango de cada transformación.
Muestre que Dim Núcleo (T ) + Dim Rango (T ) = Dim Dominio (T ) para cada
transformación.
   
1 2 1 0 0
a) A =
4 0 c) A =  0 2 0 
0 0 3
 
1 2 3
b) A =
0 1 2
4. Transformaciones Lineales 195

   
1 2 1 1 1 3
d) A =  −1 −2 0  e) A =  0 1 3 
2 4 1 2 1 7

12. Determine el núcleo y el rango para cada una de las transformaciones siguientes:
Demuestre que Dim Núcleo (T ) + Dim Rango (T ) = Dim Dominio (T ) para cada
transformación.
a) T (x, y, z) = (x, 0, 0) de R3 → R3
b) T (x, y, z) = (x + y, z) deR3 → R2
c) T (x, y) = (3x, x − y, y) deR2 → R3
13. Aplique el teorema del rango y la nulidad para calcular la dimensión del núcleo y el rango
de cada una de las transformaciones lineales definidas por las matrices siguientes. Indique
si las transformación es uno a uno.
   
1 8 2 1 2 −3
a) A =  0 1 4   −2 4 −6 
d) A =  
0 0 0  0 1 −2 
  0 4 −2
2 7 14
 
b) A =  0 9 1  1 4 2
0 0 1 e) A =  0 1 7 
 
1 2 3 4 0 0 1
c) A =  1 −1 6 7 
0 0 7 2

14. Use determinantes para decidir si las transformaciones lineales definidas por las matrices
siguientes son uno a uno.
   
1 2 5 0 1 7 4
a) A =  0 3 6   2 0 3 1 
d) A =  
0 0 4  0 0 6 3 
  0 0 0 −2
3 2 4
b) A =  −2 0 0 
2 1 5  
  2 1 3 0
−1 2 4  5 2 0 1 
e) A =  
c) A =  3 2 1   1 9 3 2 
10 5 1 0 3 2 0

15. Sea T : U → V lineal. Demuestre que Dim Núcleo (T ) + Dim Rango (T ) =


Dim Dominio (T ) cuando Núcleo (T ) = 0 ó Núcleo (T ) = U.
16. Sea T : U → V una transformación lineal. Sea v un vector distinto de cero en V. Sea W
el conjunto de vectores en U , tales que T (w) = v
17. ¿Es W un subespacio de U ?
4. Transformaciones Lineales 196

4.2. Tipos de transformaciones


4.2.1. Transformación de reflexión
1) Reflexión respecto al eje x:
Es una transformación que forma un punto o vector (x, y) y lo hace girar alrededor del eje x:

2 2
T : R → R
 
x x

y −y

y

(x, y)

✛ ✲x


(x, −y)

Figura 4.2: Reflexion eje x

2 2
 T : R → R
 
−x −x

y −y

2) Reflexión respecto al eje y:


Es una transformación que forma un punto o vector (x, y) y lo hace girar alrededor del eje y:

2 2
T : R → R
 
x −x

y y

2 2
 T : R → R
 
x −x

−y −y
4. Transformaciones Lineales 197

y

(−x, y)

✛ ✲x


(−x, −y)

Figura 4.3: Reflexion eje x

3) Reflexión respecto a la recta y = x:

2
T : R → R2
 
x y

y x

4.2.2. Transformación de rotación en el plano


 
x
Es una transformación que toma un vector v = en el plano y lo rota un ángulo θ en
y
sentido contrario al de las
 manecillas
 del reloj.

x
El vector se llama v′ =
y′

2 2
T : R → R
 ′ 
x x

y y′

Por trigonometría se tiene que:

x = r cos α → x′ = r cos (θ + α)

y = r sin α → y ′ = r sin (θ + α)

x′ = r cos (θ + α) = r cos α cos θ − r sin α sin θ


= x cos θ − y sin θ
4. Transformaciones Lineales 198

y

(−x, y) (x, y)
■ ✒

✛ ✲x

Figura 4.4: Reflexion eje y

y

✛ ✲x

✠ ❘
(−x, −y) (x, −y)

Figura 4.5: Reflexion eje y

y
✻ y=x
(y, x)

(x, y)

✲x

Figura 4.6: Reflexion recta y = x


4. Transformaciones Lineales 199

y
✻ (2, 5) y=x

(5, 2)

✲x

Figura 4.7: Ejemplo reflexion recta y = x


y

(x′ , y ′ )
■ (x, y)

r θ+α
r
✠ θ

π−α−θ ♦α
✛ ❲ ✲ x

Figura 4.8: Rotación en el plano

y ′ = r sin (θ + α) = r cos α sin θ + r sin α cos θ


= x sin θ + y cos θ

.:Teorema 4.13 Sea T : Rn → Rm una transformación lineal, entonces existe una matriz única
m × n AT tal que T x = AT x ∀x ∈ Rn

AT se llama matriz de transformación correspondiente a T o representación matricial de T .

El anterior teorema indica que toda transformacion lineal T se puede expresar como el producto
AT x
4. Transformaciones Lineales 200

Ejemplo 4.9 a) Reflexión respecto al eje x:


   
x x
T = Se expresa como:
y −y
      
x 1 0 x x
T = =
y 0 −1 y −y
| {z }| {z }
AT x

b) Reflexión respecto al eje y:


   
x −x
T = Se expresa como:
y y
      
x −1 0 x −x
T = =
y 0 1 y y
| {z }| {z }
AT x

c) Reflexión respecto a la recta y = x:


   
x y
T = Se expresa como:
y x
      
x 0 1 x y
T = =
y 1 0 y x
| {z }| {z }
AT x

d) Transformación de rotación:
   ′   
x x x cos θ − y sin θ
T = = Se expresa como:
y y′ x sin θ + y cos θ
     
x cos θ − sin θ x
T =
y sin θ cos θ y
| {z } | {z }
Tx = Aθ x

√ 
Ejemplo 4.10 Hallar las coordenadas del punto imagen del punto P 5, 3 cuando se ha hecho

una rotación alrededor del origen de θ = 30°, cos 30° = 23 , sin 30° = 21 .

    
T √5 =
cos 30° − sin 30° √5
3 sin 30° cos 30° 3
√ ! 
3 1
= 2 −
√2 √5
1 3 3
2 2
 √   ′ 
2 3 x
= =
4 y′
4. Transformaciones Lineales 201

y

(x′ , y ′ )


(5, 3)

✐ 30
✲x
0
Figura 4.9: Ejemplo 4.10

.:Teorema 4.14 Si se conoce el efecto de una transformación lineal sobre los vectores de la base,
entonces se conoce el efecto sobre cualquier otro vector.

 
      3
2 −1 5
Ejemplo 4.11 Si Ti = , Tj = , Tk = , calcular T  −4 
3 4 −3
5
       
3 1 0 0
 −4  = 3  0  − 4  1  + 5  0 
5 0 0 1
= 3i − 4j + 5k

 
3
T  −4  = 3i − 4j + 5k
5
     
2 −1 5
= 3 −4 +5
3 4 −3
     
6 4 25
= + +
9 −16 −15
 
35
=
−22

4.3. Geometría de las transformaciones lineales


Sea T : R2 → R2 una transformación lineal lineal con respresentación matricial AT . Si AT
es invertible, entonces T se puede escribir como una sucesión de una o más transformaciones
especiales, llamadas expansiones, compresiones, reflexiones y cortes.
4. Transformaciones Lineales 202

y

(4, 2)

x

✲x
0
Figura 4.10: Vector inicial (ejemplo 4.12)

4.3.1. Expansión a lo largo de los ejes: (Escalamiento)


a) Una expansión a lo largo del eje x es una transformación lineal que multiplica a la coordenada
x de un vector en R2 por una constante c > 1.
   
x cx
T = , entonces
y y
         
1 c 0 0 c 0
T = ,T = , entonces AT = por lo tanto
0 0 1 1 0 1
      
x c 0 x cx
T = AT x = =
y 0 1 y y

b) Una expansión a lo largo del eje y es una transformación lineal que multiplica a la coordeana
y de un vector en R2 por una constante c > 1.
   
x x
T = , entonces
y cy
         
1 1 0 0 1 0
T = ,T = , entonces AT = por lo tanto
0 0 1 c 0 c
      
x 1 0 x x
T = AT x = =
y 0 c y cy
 
4
Ejemplo 4.12 Supongamos que el vector inicial es x = y c = 2.
2

4.3.2. Compresión a lo largo de los ejes x o y


La transformación lineal que hace la compresión a lo largo de los ejes x o y es la misma de la
expansión pero considerando 0 < c < 1, entonces:
4. Transformaciones Lineales 203

y

(8, 2)

Tr

✲x
0
Figura 4.11: Expansión de x a lo largo del eje x con c = 2 (Ejemplo 4.12)

y

(4, 4)

✲x
0
Figura 4.12: Expansión de x a lo largo del eje y con c = 2 (Ejemplo 4.12)
4. Transformaciones Lineales 204

y

(3, 3)

x

✲x
0
Figura 4.13: Vector inicial (ejemplo 4.13)
y

(1, 3)

Tx

✲x
0
1
Figura 4.14: Compresión sobre el eje x con c = 3 (Ejemplo 4.13)

a) Compresión sobre el eje x


   
x cx
T = con 0 < c < 1
y y

b) Compresión sobre el eje y


   
x x
T = con 0 < c < 1
y cy
  
1 0 x
=
0 c y
 
3 1
Ejemplo 4.13 Supongamos que el vector inicial es x = yc= 3 < 1.
3
4. Transformaciones Lineales 205

y

(3, 1)

Tx
✲x
0
1
Figura 4.15: Compresión sobre el eje y con c = 3 (Ejemplo 4.13)

4.3.3. Cortes
 
x
a) Un corte a lo largo del eje x es una transformación que toma al vector x = y lo
y
 
x + cy
convierte en otro de la forma con c como una constante positiva o negativa.
y
 
 
x
x + cy
T =
entonces
y
y
      
x 1 c x x + cy
T = =
y 0 1 y y

Observese que la coordenada x se modifica adicionandole la cantidad cy. La coordenada y no se


modifica.

Un corte a lo largo del eje x deja sin cambios a los vectores con coordenadas y = 0.

 
4
Ejemplo 4.14 Supongamos que se parte del rectángulo cuya diagonal es x = y c = 2.
3
La matriz de transformación es:
   
x + cy x + 2y
AT = =
y y
Vectorialmente x = (4, 3) = (4, 0) + (0, 3) entonces se debe aplicar la transformación a los 3
vectores anteriores.
     
0 0 + 2 (3) 6
T = =
3 3 3
     
4 4 + 2 (0) 4
T = =
0 0 0
4. Transformaciones Lineales 206

y

(4, 3)
(0, 3) ❃

✲x
0 (4, 0)
Figura 4.16: Rectangulo con diagonal (4, 3) (Ejemplo 4.14)
y

(6, 3) (10, 3)

✲x
0 (4, 0)
Figura 4.17: Transformación con c = 2 (Ejemplo 4.14)

     
4 4 + 2 (3) 10
T = =
3 3 3
Los resultados anteriores indican que:
   
0 6
Se transforma en
3 3
   
4 4
Se transforma en
0 0
   
4 10
Se transforma en
3 3
Si c = −2 el corte se efectúa hacia el otro lado del eje x.
     
0 0 − 2 (3) −6
T = =
3 3 3
4. Transformaciones Lineales 207

y

(−6, 3) (−2, 3)

✛ ✲x
0 (4, 0)
Figura 4.18: Transformación con c = −2 (Ejemplo 4.14)

     
4 4 − 2 (0) 4
T = =
0 0 0
     
4 4 − 2 (3) −2
T = =
3 3 3

 
x
b) Un corte a lo largo del eje y es una transformación que toma al vector x = y lo
y
 
x
convierte en otro de la forma con c como una constante positiva o negativa.
y + cx

Un corte a lo largo del eje y no produce cambios en los vectores con coordenadas x = 0.

Ejemplo 4.15 Supongamos que se parte del rectángulo cuya diagonal es x = (2, 4) y c = 3.

La matriz de transformación es:


   
x x
AT = =
y + cx y + 3x
Como x = (2, 4) = (2, 0) + (0, 4) entonces se aplica la transformación a estos 3 vectores.
     
2 2 2
T = =
4 4 + 3 (2) 10
     
2 2 2
T = =
0 0 + 3 (2) 6
     
0 0 0
T = =
4 4 + 3 (0) 4
4. Transformaciones Lineales 208

y

(2, 4)
(0, 4)

✲x
0 (2, 0)
Figura 4.19: Rectangulo con diagonal (2, 4) (Ejemplo 4.15)

y

(2, 10)

(2, 6)

(0, 4)

✲x
0
Figura 4.20: Transformación con c = 3 (Ejemplo 4.15)
4. Transformaciones Lineales 209

y

(0, 4)

0 ✲x

(2, −2)

(2, −6)

Figura 4.21: Transformación con c = −3 (Ejemplo 4.15)

Si c = −3 entonces:
     
2 2 2
T = =
4 4 − 3 (2) −2
     
2 2 2
T = =
0 0 − 3 (2) −6
     
0 0 0
T = =
4 4 − 3 (0) 4

4.4. Transformación de proyección ortogonal


.:Definición 4.5 Sea H un subespacio de Rn . La transformación de proyección ortogonal
P : V → H se define por PV = P royH V.

Por ejemplo un vector V = (x, y, z)que esta en R3 se puede proyectar en el plano xy que es el
subespacio H de R3 entonces la proyección obtenida es (x, y, 0).

3
T : R → R3
 
x x
 y  →  y 
z 0
4. Transformaciones Lineales 210

z

(x, y, z)

V

✲y

PV
s
(x, y, 0)

x
Figura 4.22: Proyección en el plano xy

En este caso:
 
1 0 0
AT =  0 1 0 ⇒
0 0 0
    
1 0 0 x x
PV =  0 1 0  y = y 
0 0 0 z 0
Si el vector V = (x, y, z) se proyecta sobre el plano yz, entonces:

3
R3 
T : R → 
x 0
 y  →  y 
z z
    
0 0 0 x 0
PV =  0 1 0  y  =  y 
0 0 1 z 1
Si el vector V = (x, y, z) se proyecta sobre el plano xz, entonces:

3
T : R → R3
 
x x
 y  →  0 
z z
4. Transformaciones Lineales 211

    
1 0 0 x x
PV =  0 0 0  y  =  0 
0 0 1 z z
Ejercicios 4.2
 
3
1. Hallar el vector resultante después de ejecutar al vector V = las siguientes
−2
transformaciones:
i) Cortar a lo largo del eje x con c = 2
ii) Expandir a lo largo del eje y con c = 2
iii) Reflejar respecto al eje x
iv) Cortar a lo largo del eje y con c = 3
y

Tv

✛ ✲ x

s
(3, −2)

      
3 1 2 3 −1
Corte =
−2 −−−→ 0 1 −2 −2
    
1 0 −1 −1
Expandir =
−−−−−→ 0 2 −2 −4
    
1 0 −1 −1
Reflexión =
−−−−−−→ 0 −1 −4 4
    
1 0 −1 −1
Corte = = Tv
−−−→ 3 1 4 1

2. Obtener la matriz AT de las siguientes transformaciones


a)    
  x−y 1 −1 0
x  y+z   0 1 1 
T y =
 2x − y − z

 ⇒ AT =  
 2 −1 −1 
z
−x + y + 2z −1 1 2
4. Transformaciones Lineales 212

b)      
x 2x − y + 3z 2 −1 3
T  y  =  4x − 2y + 6z  ⇒ AT =  4 −2 6 
z −6x + 3y − 9z −6 3 −9
  
  1   −4
1 0
3. Sea T : R2 → R3 tal que T = 2  T =  0  hallar:
0 1
3 5

a)  
2
T ,
4
     
  1 −4   2 − 16 −14
2 2
T = 2 0  = 4+0 = 4 
4 4
3 5 6 + 20 26
b)  
−3
T ,
7
     
  1 −4   −3 − 28 −31
−3 −3
T = 2 0  =  −6 + 0  =  −6 
7 7
3 5 −9 + 35 26
 
−3 π
4. Hallar la posición del vector cuando rota θ = 3
4
 
−3
5. Hallar el vector resultante después de ejecutarle al vector V = las siguientes
4
transformaciones:

i) Expandir a lo largo del eje x con c = 3


1
ii) Cortar a lo largo del eje x con c = 2
iii) Reflejar a lo largo del eje y
iv) Cortar a lo largo del eje y con c = 2, 5
v) Comprimir a lo largo del eje y con c = 0, 75

4.5. Transformaciones Lineales Especiales de R2 en R3

N° Transformación Representación Matricial AT


4. Transformaciones Lineales 213

 
c 0
1 Expanción a lo largo del eje x ,c>1
0 1
 
1 0
2 Expanción a lo largo del eje y ,c>1
0 c
 
c 0
3 Compresión a lo largo del eje x ,0<c<1
0 1
 
1 0
4 Compresión a lo largo del eje y ,0<c<1
0 c
 
0 1
5 Reflexión respecto a la recta y = x
1 0
 
1 0
6 Reflexión respecto al eje x
0 −1
 
−1 0
7 Reflexión respecto al eje y
0 1
 
1 c
8 Corte a lo largo del eje x
0 1
 
1 0
9 Corte a lo largo del eje y
c 1
 
cos θ − sin θ
10 Rotación en el plano xy Aθ =
sin θ cos θ
 
1 0 0
11 Proyección sobre el plano xy  0 1 0 
0 0 0
 
1 0 0
12 Proyección sobre el plano xz  0 0 0 
0 0 1
 
0 0 0
13 Proyección sobre el plano yz  0 1 0 
0 0 1
4. Transformaciones Lineales 214

.:Definición 4.6 Transformación Lineal Inversa

Si T1 : Rn → Rn y T2 : Rn → Rn son transformaciones lineales tales que para todo v en Rn .

Como T2 (T1 (v)) = v y T1 (T2 (v)) = v, entonces T2 , se denomina inversa de T1 y se escribe


T2 = T1−1 .

.:Teorema 4.15 Existencia de una Transformación Inversa


Sea T : Rn → Rn una transformación lineal con matriz estándar A. Entonces, las condiciones
siguientes son equivalentes.

1. T es invertible.
2. T es un isomorfismo.
3. A es invertible.

Además, si T es invertible con matriz estándar A, entonces la matriz estándar de T −1 es A−1 .

Ejemplo 4.16 Determinación de la inversa de una transformación lineal

La transformación lineal T : R3 → R3 esta definida por:

T (x1 , x2 , x3 ) = (2x1 + 2x2 + x3 , x1 + 3x2 + 3x3 , 4x1 + 2x2 + x3 ) .


Demuestre que T es invetible y encuentre su inversa.

Solución:  
2 2 1
La matiz estándar de T es A =  1 3 3 
4 2 1
Por medio de técnicas para invertir matrices, se encuentra que A es invertible, teniendo en cuenta
que el detA = 6.
 
−0.5 0 0.5
Se tiene que la inversa de A es A−1 , y esta definida por: A−1 =  1.83̄ −0.3̄ −0.83̄ 
−1.6̄ 0.6̄ 0.6̄
Por lo tanto, T es invertible y su matriz estándar es A−1 .
4. Transformaciones Lineales 215

.:Definición 4.7 Matriz de Transformación para Bases no Estándar

Sean V y W espacios vectoriales de dimensión finita con bases B y B´ , respectivamente donde


B = {v1 , v2 , . . . , vn } .

Si T : V → W es una transformación lineal tal que:


     
a11 a12 a1n
 a21   a22   a2n 
     
 .   .   . 
     
 .   . 
 , . . . . . . , [T (vn )] =  .
 
[T (v1 )]B´ = 
 . 
 , [T (v2 )] = 
B´  .  B´  .
,

     
 .   .   . 
     
 .   .   . 
am1 am2 amn
entonces la matriz m x n cuyas n columnas corresponden a [T (v1 )]B´,
 
a11 a12 . . . . a1n
 a21 a22 . . . . a2n 
 
 . . . . . . . 
A=   es tal que T (v) = A [v] para todo v en V.
B
 . . . . . . . 
 . . . . . . . 
am1 am2 . . . . amn

Ejemplo 4.17 Determinación de una Matriz con respecto a Bases no Estándar

Sea T = R2 → R2 es una transformación lineal definida por T (x1 , x2 ) = (x1 + x2 , 2x1 − x2 )

Encuentre la matriz de T con respecto a las bases: B = {(1, 2) , (−1, 1)} y B´= {(1, 0) , (0, 1)}

Solución:
Por definición de T, se tiene:

T (v1 ) = T (1, 2) = (3, 0) = 3w1 +0w2

T (v2 ) = T (−1, 1) = (0, −3) = 0w1 − 3w2


Por lo tanto, las matrices de coordenadas de T (v1 ) y T (v2 ) con respecto a B´son:
   
3 0
[T (v1 )]B´ = y [T (v2 )]B´ =
0 −3
La matriz T con respecto
 a By B´se forma al usar estas matrices de coordenadas como columnas
3 0
para obtener A =
0 −3
4. Transformaciones Lineales 216

Ejemplo 4.18 Determinación de una matriz para una Transformación Lineal


 
2 −2 7
Sean B = {(−3, 2) , (4, −2)} y B´= {(−1, 2) , (2, −2)} bases de R , y sea A =
−3 7
La matriz de T : R2 → R2 con respecto a B. Encuentre A´, la matriz T con respecto a B´.

Solución:

Se forma la matriz
 
  .
.. −1 2 .. −3 4 
B´. B =  . y se usa la eliminación Gauss-Jordan para obtener
2 −2 .. 2 −2
 
  ..  
.. −1 −1 0 . −1 2  −1 −1 2
I2 .P = .. , así se obtiene P =
−2 3
0 −1 . −2 3
En caso alguno se puede determinar la matriz de transición de B´a B, se puede obtener mediante:
 
  ..
.. −3 4 . −1 2
B .B´ =  ..
 que se reduce a:
2 −2 . 2 −2
 
  ..
.. 1 0 . 3 −2
I2 .P =  ..
 , así se obtiene la matriz de transición de B´ a B es P =
  0 1 . 2 −1
3 2
2 −1

Por lo tanto, la matriz de T con respecto a B´está definida por:

     
−1 −1 2 −2 7 3 −2 2 1
A´= P AP = =
−2 3 −3 7 2 −1 −1 3

.:Definición 4.8 Matrices Semejantes

Para matrices cuadradas A y A´de orden n, se dice que A´es semejante a A si existe una matriz
invertible P tal que:

A´= P −1 AP.

.:Teorema 4.16 Propiedades de las Matrices Semejantes


Sean A, B y C matrices cuadradas de orden n. Entonces, las siguientes propiedades son
verdaderas.
4. Transformaciones Lineales 217

1. A es semejante a A.
2. Si A es semejante a B, entonces B es semejante a A.
3. Si A es semejante a B y B es semejante a C, entonces A es semejante a C.

Demostración:

La primera propiedad se concluye de la forma que A = In AIn .

Para la segunda propiedad, se tiene:

A = P −1 BP

P −1 AP = P (P −1 BP )P −1

P −1 AP = B

Q−1 AQ = B
donde

Q = P −1 .
La tercera propiedad se deja como ejercicio para el lector.

Q.E.D.

Ejemplo 4.19 Determine si las matrices son semejantes.


   
2 −2 3 −2
Las matrices A = yB = son semejantes porque
−1 3 −1 2
 
1 1
A´= P −1 AP, donde P =
0 1

Ejemplo 4.20 Una casa editora publica un libro en tres ediciones diferentes: cubierta dura,
cubierta blanda y cubierta de lujo. Cada libro requiere cierta cantidad de papel y de material
para la cubierta. Los requisitos están dados en gramos por la siguiente matriz:

Cubierta Dura Cubierta Blanda Cubierta De Lujo


Cantidad de P apel 300 500 800
M aterial para la Cubierta 40 50 60
4. Transformaciones Lineales 218

 
x1
Deja que x =  x2  representa el vector producción, donde x1 , x2 , x3 representan el número
x3
de libros con cubierta dura, cubierta blanda y cubierta de lujo respectivamente, que se publican.
 
y1
La transformación lineal es T : R3 → R2 , definida por T (x) = Ax, nos da el vector ,
y2
donde y1 representa la cantidad
 totalde papel requerido y y2 la cantidad de material para la
1000
cubierta. Suponga que x =  900 , entonces:
1500
 
  1000  
800 700 500  2180000
T (x) = Ax = 900  =
70 50 80 235000
1500

Ejemplo 4.21 Dada la transformación lineal T : R3 → R2 , definida por T (x, y, z) =


(5x − 2y + 3z, x + 4y − 2z) .

Determinar la matriz asociada a T en la base canónica de cada espacio.

Solución:
Sean C = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} , C´= {(1, 0) , (0, 1)} , las bases canónicas de R3 , R2 ,
respectivamente.

Calculemos: T (1, 0, 0) = (5, 1); T (0, 1, 0) = (−2, 4); T (0, 0, 1) = (3, −2).

Escribamos cada vector en forma de combinación lineal de la base C, así:

(5, 1) = 5 (1, 0) + 1 (0, 1) = (5, 1)

(−2, 4) = −2 (1, 0) + 4 (0, 1) = (−2, 4)

(3, −2) = 3 (1, 0) − 2 (0, 1) = (3, −2)

 
c´ 5 −2 3
Luego, [T ]c =
1 4 −2

Ejemplo 4.22 Sea P3 el espacio vectorial de polinomios de grado máximo 3 y sea B la base
ordenada 1, x, x2 , x3 para P3 .
4. Transformaciones Lineales 219

 de P3 , es una
La operación de cálculo de diferenciación, aplicada a polinomios  transformación
lineal T de P3 en sí mismo tal que T (1) = 0, T (x) = 1, T x2 = 2x, T x3 = 3x2 .

Hallar la matriz AT que representa T respecto a las bases B, B y usar AT para diferenciar el
polinomio 4x3 − x2 + 7x − 5.

A continuación, hallar la representación matricial de T 2 = T ◦ T para B, B y usarla para


diferenciar dos veces (hallar la segunda derivada) el polinomio 2x3 − 8x2 + 4x + 3.

Solución:  
0 1 0 0
 0 0 2 0 
Por los valores dados para T en los vectores de la base B, hallamos que AT = 
 
0 0 0 3 
0 0 0 0
 
−5
3 2
 7 
El vector coordenado de 4x − x + 7x − 5 respecto a B es   −1 

4

Calculamos T 4x3 − x2 + 7x − 5 usando AT .

      
−5 0 1 0 0 −5 7
 7   0 0 2 0   7   −2 
 −1  =  0 0
AT     = 
0 3   −1   12 
4 0 0 0 0 4 0

Así, T 4x3 − x2 + 7x − 5 = 7 (1) + (−2) x + 12x2 + 0x3 = 12x2 − 2x + 7.

La representación matricial de T2 respecto a B, B es:

    
0 1 0 0 0 1 0 0 0 0 2 0
 0 0 2 0   0 0 2 0   0 0 0 6 
AT AT = 
 0
 = 
0 0 3  0 0 0 3   0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 0

Así, podemos hallar la segunda derivada de 2x3 − 8x2 + 4x + 3 calculando

    
0 0 2 0 3 −16
 0 0 0 6   4   12 

 0
  =  
0 0 0   −8   0 
0 0 0 0 2 0
4. Transformaciones Lineales 220

y obtenemos la respuesta 12x − 16.


“Si piensas que tu profesor es duro, espera a que tengas un jefe. Ese sí
que no tendrá vocación de enseñanza ni la paciencia requerida” —
Bill Gates - Cofundador de Microsoft

Vectores y valores propios


5
Para comenzar este capítulo, empezarnos con la siguiente pregunta ¿Existe un vector x no nulo
en Rn tal que Ax sea múltiplo escalar de x? esta pregunta es conocida como el problema de del
valor característico, donde el escalar denotado por λ se llama valor característico de A y el vector
x no nulo se llama vector característico de A correspondiente a λ, es decir :

Ax = λx
La anterior expresión tiene una interpretación geométrica. Por ejemplo en R2 , si λ es un valor
característico de una matriz A y x es un vector característico de A correspondiente a λ, entonces,
el producto de xA da como resultado un vector λx paralelo a x, como se ilustra en la figura.

λx

Ax = λx

Figura 5.1: Ax = λx

221
5. Vectores y valores propios 222

5.1. Vectores y valores propios


.:Definición 5.1 Sea T : Rn → Rn ,una transformación lineal. Diremos que λ ∈ R es un valor
propio o Eigenvalor de la transformación T si existe un x ∈ Rn con x no nulo, tal que

T (x) = λx (5.1)

Si T esta determinada por una matriz A de n × n, entonces se obtiene la expresión

Ax = λx (5.2)

Este x se le denomina un vector propio o Eigenvectora de T (o de la matriz A) correspondiente


a λ.
a Eigenvalor y Eigenvector provienen del término Alemán Eigenwert que quiere decir “valor propio”. También es

conocido como Valor característico y Vector Característico

NOTA:

1. Si T tiene dimensión finita, entonces T se puede representar por una transformación AT ,


donde A es una matriz de n × n.
2. Los vectores propios de una transformación lineal T : Rn → Rn asociados al valor propio
λ, junto con el 0 (cero) de Rn conforman un subespacio de Rn .
3. Un vector propio no puede ser cero por que si lo fuese, la definición carecería de sentido,
porque A0 = λ0 y se cumpliría para todos los valores reales de λ. Sin embargo, un valor
propio si puede ser λ = 0.
   
10 −18 2
Ejemplo 5.1 Sea A = , y el vector v =
6 −11 1
  
10 −18 2
Av =
6 −11 1
 
20 − 18
=
12 − 11
 
2
=
1
= 1v ⇒ Av = 1v

En este caso λ = 1.
 
3
Para v = se obtiene:
2
5. Vectores y valores propios 223

  
10 −18 3
Av =
6 −11 2
 
−6
=
−4
 
3
= −2 = −2v ⇒ Av
2

Entonces λ = −2  
3
Es un valor propio de A para el correspondiente vector v = .
2

Ejemplo 5.2 Cuando A = I entonces ∀x ∈ Rn se cumple que:

Ax = Ix = x entonces, Ax = 1x donde λ = 1 es el único valor propio de I y para todo x 6= 0


es un vector propio de I.

5.1.1. Calculo de los valores y vectores propios


Supóngase que λ es un valor propio de A, entonces existe un vector x 6= 0 tal que

Ax = λx (5.3)

entonces (A − λI) x = 0.

Como x 6= 0, para que la igualdad se cumpla requiere que A − λI sea cero, entonces:

A − λI = 0
Como A es una matriz n × n, la ecuación (5.3) es un sistema homogéneo de n ecuaciones y n
incógnitas y como x 6= 0, el sistema tiene soluciones no triviales, por lo tanto:

det (A − λI) = 0
En términos generales, tenemos un sistema homogéneo de la siguiente forma:

(a11 − λ)x1 + a12 x2 + · · · + a1n xn = 0


a21 x1 + (a22 − λ)x2 + · · · + a2n xn = 0
.. .. .. (5.4)
. . .
an1 x1 + an2 x2 + · · · + (ann − λ)xn = 0

donde x = (x1 . . . xn )t , para que el sistema de la ecuación 5.4 tenga una solución no trivial, se
necesita que el determinante de la matriz del sistema sea nula. Es decir, que:
 
a11 − λ a12 ··· a1n
 a21 a22 − λ · · · a2n 
 
det  .. .. .. .. =0
 . . . . 
an1 an2 · · · ann − λ
5. Vectores y valores propios 224

Al desarrollar este determinante obtenemos los valores propios de la transformación T


representada por A. El resultado de expandir el determinante produce un polinomio cuyas raíces
son los valores propios de T . Al polinomio generado se le denomina Polinomio Característico de
T , término acuñado por Cauchy en 1840.

El siguiente teorema, permite encontrar los valores propios de una matriz A correspondiente a
una transformación.

.:Teorema 5.1 Sea A ∈ C de tamaño n × n, entonces λ ∈ C es un valor propio de A si y sólo si:

P (λ) = det (A − λI) = 0


Donde P (λ) es el polinomio característico de la transformación T y P (λ) = 0 se le denomina
la Ecuación Característica de T .

Demostración:
λ es un valor propio de A ⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax = λx
⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax − λx = 0
⇐⇒Existe x ∈ C n , x 6= 0, tal que Ax − (λIn ) x = 0
⇐⇒Existe x ∈ C n , x 6= 0, tal que (A − λIn ) x = 0
⇐⇒El sistema homogéneo con matriz de coeficiente A − λIn posee al menos una solución
no trivial
⇐⇒La matriz A − λIn no es invertible
⇐⇒det (A − λIn ) = 0

Q.E.D.

Del teorema anterior, podemos concluir que para cada matriz dada A, sus valores propios son los
elementos del conjunto solución det (A − λIn ) = 0. Esta estrategia permite, al menos en teoría,
saber cuáles escales son los valores propios de una matriz A .

 
2 3
Ejemplo 5.3 Si A = , encuentre los valores propios para A.
5 −6
   
2 3 1 0
A − λI = −λ
5 −6 0 1
     
2 3 λ 0 2−λ 3
− =
5 −6 0 λ 5 (−6) − λ
Entonces,
 
2−λ 3
P (λ) = detP (λ) = det =0
5 (−6) − λ
Expandiendo el determinante, tenemos:

(2 − λ)(−6 − λ) − 15 = 0
5. Vectores y valores propios 225

λ2 + 4λ − 24 = 0
√ √
(λ − ( 31 − 4))(λ + ( 31 + 4)) = 0
√ √
Entonces λ = 31 − 4 y λ = − 31 − 4

.:Teorema 5.2 Toda matriz A de n × n tiene exactamente n valores propios

El teorema 5.2 nos muestra que el tamaño de la matriz esta asociado directamente con la
cantidad de valores propios, y por ende a la cantidad de vectores propios. Sin embargo, algunos
valores propios pueden repetirse, debido a que surgen como raíces del polinomio que se genera
cuando hallamos el determinante. En este caso, se dice que tiene multiplicidad dos o tres, etc,
dependiendo de las raíces generadas.

Ejemplo 5.4 Encuentre los valores y vectores propios sí:


 
1 −1 4
A= 3 2 −1 
2 1 −1

Primero hallamos el determinante de la matriz resultante de hacer A − λI


1−λ −1 4

det (A − λI) =
3 2−λ −1
2 1 −1 − λ

= − λ3 − 2λ2 − 5λ + 6
= − (λ − 1) (λ + 2) (λ − 3) = 0

Los valores propios de A son: λ1 = 1, λ2 = −2 y λ3 = 3

Para cada valor propio λ existirá un vector propio v como se muestra a continuación:

a) Hallar el vector propio correspondiente a λ = 1, para ello, realizamos la siguiente operación


(A − 1I) v = 0, donde v es el vector propio:
       
1 −1 4 1 0 0 x1 0
(A − 1I) v =  3 2 −1  − (1)  0 1 0   x2  =  0 
2 1 −1 0 0 1 x3 0
de donde
    
0 −1 4 x1 0
 3 1 −1   x2  =  0 
2 1 −2 x3 0
5. Vectores y valores propios 226

Reducimos la matriz ampliada


   
.. ..
 0 −1 4 . 0   0 −1 4 . 0 
 ..   . 
 3
 1 −1 . 0  
f2 → f2 − f3 tenemos  1
 0 1 .. 0  
, ahora a f3 →
.. ..
2 1 −2 . 0 2 1 −2 . 0
 
..
 0 −1 4 . 0 

f3 + f1 y obtenemos:  1 .. 
0 1 . 0 , posteriormente aplicamos la operación elemental
 
..
2 0 2 . 0
 
..
 0 −1 4 . 0 

f3 → f3 − 2f2 y obtenemos  1 .. 
. Finalmente se llega al siguiente sistema:
 0 1 . 0  
..
0 0 0 . 0
−x2 +4x3 = 0
x1 +x3 = 0
Donde x1 = −x3 , x2 = 4x3 y x3 = variable independiente.
Los vectores
   de A correspondientes
propios  a λ = 1 son vectores diferentes de cero y de la forma
x1 −1
v =  x2  =  4  x3 de modo que un vector propio se obtiene, por ejemplo cuando
x3  1
−1
x3 = 1 ⇒ v1 =  4 
1
b) Hallar el vector propio correspondiente a λ = −2, procedemos de la misma manera pero con
(A − (−2)I) v = 0

       
1 −1 4 −2 0 0 x1 0
(A − (−2)I) v =  3 2 −1  −  0 −2 0   x2  =  0 
2 1 −1 0 0 −2 x3 0

obteniendo
    
3 −1 4 x1 0
 3 4 −1   x2  =  0 
2 1 1 x3 0
Reducimos la matriz ampliada

   
.. ..
 3 −1 4 . 0   1 −2 3 . 0 
 .  f1 → f1 − f2  . 
 3
 4 −1 .. 0 
 f2 → f2 − f3
 1
 3 −2 .. 0 

. .
2 1 1 .. 0 2 1 1 .. 0
5. Vectores y valores propios 227

   
. ..
 1 −2 3 .. 0   1 −2 3 . 0 
f2 → f2 − f1  .   . 
f3 → f3 − 2f1  0
 5 −5 .. 0 

f3 → f3 − f2  0
 5 −5 .. 0 

. ..
0 5 −5 .. 0 0 0 0 . 0
Para finalmente llegar al sistema:

x1 −2x2 +3x3 = 0
5x2 −5x3 = 0
Donde x1 = 2x2 − 3x3 , x2 ⇒ x1 = −x3 , x2 = x3 y x3 = variable independiente
Los vectores propios
 de A correspondientes
  a λ = −2 son vectores diferentes de cero y de
x1 −1
la forma v =  x2  =  1  x3 de modo que un vector propio se obtiene cuando
x 1
 3   
−1 1
x3 = 1 ⇒ v2 =  1  y cuando x3 = −1 ⇒ v2 =  −1 
1 −1
c) Hallar el vector propio correspondiente a λ3 = 3, de nuevo resolvemos (A − 3I) v = 0
       
1 −1 4 3 0 0 x1 0
(A − 3I) v =  3 2 −1  −  0 3 0   x2  =  0 
2 1 −1 0 0 3 x3 0
Donde
    
−2 −1 4 x1 0
 3 −1 −1   x2  =  0 
2 1 −4 x3 0
Ahora reducimos la matriz ampliada

   
.. ..
 −2 −1 4 . 0   −2 −1 4 . 0 
 .  f3 → f3 + f1  .. 
 3 −1 −1 .. 0   5 0 −5 . 0 
  f2 → f2 − f1  
.. ..
2 1 −4 . 0 0 0 0 . 0
   
. .
1  −2 −1 4 .. 0   2 −1 0 .. 0 
f2 → 5 f2  .   . 
 1
 0 −1 .. 0  
f1 → f1 + 4f2  1
 0 −1 .. 0 

. .
0 0 0 .. 0 0 0 0 .. 0
Llegando al sistema

2x1 −x2 = 0
x1 −x3 = 0
Luego x2 = 2x1 , x3 = x1 , y x1 = variable independiente
5. Vectores y valores propios 228

Los vectores propios


 deA correspondientes
  a λ = 3 son vectores diferentes de cero y de
x1 1
la forma v =  x2  =  2  x1 de modo que un vector propio se obtiene cuando
 x3 1  
1 −1
x1 = 1 ⇒ v3 =  2  y cuando x1 = −1 ⇒ v3 =  −2 
1 −1

Ejemplo 5.5 Hallar los valores y vectores propios de una matriz triangular sí:
 
2 5 6
A =  0 −3 2 
0 0 5

Ahora


2−λ 5 6

det (A − λI) =
0 −3 − λ 2

0 0 5−λ

= (2 − λ) (−3 − λ) (5 − λ) = 0

Los valores propios de A son: λ1 = 2, λ2 = −3 y λ3 = 5

Para cada valor propio λ existirá un vector propio v como se muestra a continuación:

a) Hallar el vector propio correspondiente a λ1 = 2


       
2 5 6 2 0 0 x1 0
(A − 2I) v =  0 −3 2  −  0 2 0   x2  =  0 
0 0 5 0 0 2 x3 0
Luego,
    
0 5 6 x1 0
 0 −5 2   x2  =  0 
0 0 3 x3 0
5x2 +6x3 = 0
−5x2 +2x3 = 0
3x3 = 0
Al resolver el sistema tenemos que


0
x1 = 0, x2 = 0 y x3 = 0 ⇒ v =  0 
0

b) Hallar el vector propio correspondiente a λ2 = −3


5. Vectores y valores propios 229

       
2 5 6 3 0 0 x1 0
(A − (−3)I) v =  0 −3 2  +  0 3 0   x2  =  0 
0 0 5 0 0 3 x3 0
Obteniendo:
    
5 5 6 x1 0
 0 0 2   x2  =  0 
0 0 8 x3 0
Resultando el siguiente sistema:

5x1 +5x2 +6x3 = 0


2x2 = 0
8x3 = 0
Donde
 
0
x1 = 0, x2 = 0, y x3 = 0 ⇒ v =  0 
0
c) Hallar el vector propio correspondiente a λ3 = 5
       
2 5 6 5 0 0 x1 0
(A − (5)I) v =  0 −3 2  +  0 5 0   x2  =  0 
0 0 5 0 0 5 x3 0
Obteniendo:
    
7 5 6 x1 0
 0 2 2   x2  =  0 
0 0 10 x3 0
Resultando el siguiente sistema:

7x1 +5x2 +6x3 = 0


2x2 +2x3 = 0
10x3 = 0
Donde
 
0
x1 = 0, x2 = 0, y x3 = 0 ⇒ v =  0 
0

.:Teorema 5.3 Sea A una matriz de n × n, la matriz de una transformación. Entonces


n
det (A − λI) es un polinomio de grado n, donde el coeficiente de λn es (−1) y su término
n n n−1
independiente es detA; es decir, det (A − λI) = (−1) λ + an−1 λ + · · · + a1 λ + a0 donde
a0 = detA
5. Vectores y valores propios 230

Demostración:
 
a11 − λ a12 ··· a1n

 a21 a22 − λ · · · a2n 

det (A − λI) =  .. .. .. .. 
 . . . . 
an1 an2 ··· ann − λ
Antes de realizar la demostración veremos la siguiente proposición sobre determinantes

Sea A una matriz cuadrada de orden n. Entonces el detA es igual a la suma de todos los n!
productos posibles (con signos adecuados) de n entradas de la matriz A en donde, en cada
producto hay exactamente una entrada de cada fila y exactamente una entrada de cada columna
de A. a
a Para ver la demostración consultar [2]

Teniendo en cuenta la anterior proposición: el determinante de A − λI es la suma de n!


productos (con signos adecuados) de n entradas de la matriz A − λI, tal que cada uno de
estos productos envuelve exactamente una entrada de cada fila y exactamente una entrada de
cada columna de A − λI. Esto nos muestra que det (A − λI) es un polinomio en λ y el único
de los n! productos que figuran en el cálculo de det (A − λI), tal que n factores envuelven
λ, es (a11 − λ) (a22 − λ) · · · (ann − λ), el cual a su vez es un polinomio de grado n donde
n
el término de mayor potencia es (−1) λn . Obsérvese que los otros productos que figuran en
det (A − λI) poseen a lo sumo n − 1 factores que envuelven λ y por tanto estos productos
son a lo sumo polinomios de grado n − 1. Así que det (A − λI) es un polinomio de grado n
n
cuyo término de mayor potencia es (−1) λn y podemos decir entonces, que existen escalares
an−1 , an−2 , . . . , a1 , a0 tales que:
n
det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + a0 = p (λ)
Ahora, como el término independiente de un polinomio se obtiene evaluando el polinomio en
cero, entonces a0 = p (0) = det (A − 0I) = detA, es decir,
n
det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + detA

Q.E.D.

.:Teorema 5.4 Sea A ∈ C de tamaño n×n es una matriz triangular, entonces los valores propios
de A, contando sus multiplicidades, están dados por λ1 = a11 , λ2 = a22 , · · · , λn = ann , donde
a11 , a22 , . . . , ann son las entradas de la diagonal principal de A.

Demostración:

Se A ∈ C de tamaño n × n, una matriz triangular.

Si A es triangular superior, entonces para todo escalar λ, la matriz A − λI es también triangular


superior y por teorema 2.1 tenemos que:
5. Vectores y valores propios 231


a11 − λ a12 ··· a1n


0 a 22 −λ ··· a2n

P (λ) = det(A − λI) = .. .. .. ..

. . . .

0 0 ··· ann − λ

= (a11 − λ) (a22 − λ) · · · (ann − λ) .

Luego, la ecuación característica P (λ) = 0, es (a11 − λ) (a22 − λ) · · · (ann − λ) = 0 y por lo


tanto, los valores propios de A son λ1 = a11 , λ2 = a22 , · · · , λn = ann .

Cuando A es matriz triangular inferior, el resultado puede obtenerse análogamente.

Q.E.D.

.:Teorema 5.5 Si una matriz A de tamaño n×n y tiene valores propios λ1 , λ2 , · · · , λk entonces:
a) Los valores propios de At son λ1 , λ2 , · · · , λk
b) Los valores propios de αA son αλ1 , αλ2 , · · · , αλk
c) Los valores propios de Am son λm m m
1 , λ2 , · · · , λk

.:Teorema 5.6 Si A es de tamaño de n × n, entonces A−1 existe si y sólo si sus valores propios
son todos diferentes de cero.

.:Teorema 5.7 Sea A de tamaño n × n y λ1 , λ2 , · · · , λn los valores propios de A, entonces:


1. detA = λ1 . λ2 .λ3 · · · λn
2. trA = λ1 + λ2 + λ3 + · · · + λn

Demostración:

Sean A ∈ Cnxn y λ1 , λ2 , · · · , λn sus valores propios contando sus multiplicidades:

1) Sabemos que su polinomio característico está dado por:

n
P (λ) = det (A − λI) = (−1) λn + an−1 λn−1 + · · · + a1 λ + a0
 
= (−1)n λn + bn−1 λn−1 + · · · + b1 λ + b0
ai−1 n
donde bi−1 = (−1) n i = 1,1 2, . . . n y como λ + bn−1 λn−1 + · · · + b1 λ + b0 es un polinomio
1
mónico , entonces él posee factorización sobre los números complejos, así:
1 Un polinomio es mónico cuando el coeficiente de la variable de mayor potencia es 1.
5. Vectores y valores propios 232

p (λ) = det (A − λI) = (−1)n (λ − λ1 ) (λ − λ2 ) . . . (λ − λn )


n n
= (−1) (−1) (λ1 − λ) (λ2 − λ) . . . (λn − λ)

La demostración del punto dos del teorema se deja como ejercicio al lector.

Q.E.D.

Ejemplo 5.6 Hallar los valores y vectores propios de la siguiente matriz:


 
−1 2 0
A =  −4 5 0 
−4 2 3

Para solucionarlo tomamos



−1 − λ 2 0

det (A − λI) = −4 5−λ 0 = −λ3 + 7λ2 − 15λ + 9 = 0

−4 2 3−λ
an = −1, divisores de an = ±1
a0 = 9, divisores de a0 = ±1, ±3, ±9

Posibles raíces racionales:


a0
± = ±1, ±3, ±9
an
Por división sintética tenemos que:
..
−1 7 −15 9 . 3
..
−3 12 −9 . · · ·
. ⇒λ=3 es una raíz
··· ··· · · · · · · ..
.
−1 4 −3 0 ..
Luego volvemos ha hacer el mismo problema

.
−1 4 −3 .. 1
.
−1 3 .. ···
. ⇒ λ = 1 es una raíz
· · · · · · · · · ..
.
−1 3 0 ..
Entonces tenemos el polinomio factorizado

(λ − 3) (λ − 1) (−λ + 3) = 0
5. Vectores y valores propios 233

Los valores propios de A son λ = 1, λ = 3. Los vectores propios correspondientes a λ = 1 son:

a) Hallar el vector propio correspondiente a λ1 = 2


       
−1 2 0 1 0 0 x1 0
(A − 1I) v =  −4 5 0  −  0 1 0   x2  =  0 
−4 2 3 0 0 1 x3 0
Al efectuar la operación se tiene que:
    
−2 2 0 x1 0
 −4 4 0   x2 = 0 
−4 2 2 x3 0
    
1 0 −1 x1 0
⇒ ··· 0 1 −1   x2  =  0 
0 0 0 x3 0
Teniendo al final el sistema

x1 −x3 = 0
entonces x1 = x3 y x2 = x3
x2 −x3 = 0
 
1
Cuando x3 = 1 ⇒el vector propio es  1 
1
Ahora para λ = 3
 
−4 2 0
(A − 3I) V =  −4 2 0 v
−4 2 0
Resolviendo
 
1 − 21 0
 0 0 0 v = 0
0 0 0
1
⇒ x1 = x2 , Significa que x2 es variable independiente
2
   1   
x1 2 1
⇒ v =  x2  = x2  1  Si x2 = 2r ⇒ v =  2  r
x3 0 0
 
1
El vector propio es:  2 
0
Ejemplo 5.7 Dada la matriz A de 3 × 3 con 2 valores propios distintos y 3 vectores propios L.I
 
3 2 4
A= 2 0 2 
4 2 3
5. Vectores y valores propios 234

Procedemos como en el ejemplo anterior



3−λ 2 4

det (A − λI) = 2 −λ 2

4 2 3−λ

= −λ3 + 6λ2 + 15λ + 8 = 0


2
= − (λ + 1) (λ − 8) = 0
Los valores propios de A son: λ1 = 8, λ2 = −1 (con multiplicidad algebraica 2)

a) Para λ1 = 8 se obtiene:
    
−5 2 4 x1 0
(A − 8I) v =  2 −8 2   x2  =  0 
4 2 −5 x3 0
Reduciendo por renglones se tiene:

   
.. ..
 −5 2 4 . 0   −5 2 4 . 0 
 .   .. 
 2 −8
 2 .. 0 
 →
 −18 0 18 . 0 
 →
. .
4 2 −5 .. 0 9 0 −9 .. 0
   
. ..
 −5 2 4 .. 0   0 2 −1 . 0 
 .   .. 
 −1 0
 1 .. 0 
 →
 −1 0
 1 . 0  
. ..
9 0 −9 .. 0 0 0 0 . 0
Quedando el sistema

2x2 −x3 0= 1
⇒ x2 = x3 y x1 = x3
−x1 +x3 0= 2
Si x3 = 2 el vector propio correspondiente a λ1 = 8 es (2, 1, 2)

b) Para λ2 = −1 se obtiene:
    
4 2 4 x1 0
(A + I) v =  2 1 2   x2  =  0 
4 2 4 x3 0
Reduciendo por renglones se tiene:

 
.
 0 0 0 .. 0 
 . 
 2 1
 2 .. 0 

→ 2x1 + x2 + 2x3 = 0
.
0 0 0 .. 0
5. Vectores y valores propios 235

Se despeja cualquiera de las variables

x2 = −2x1 − 2x3 , cuando x1 = 1 y x3 = 0 se obtiene el vector propio v2 = (1, −2, 0)

Otra forma de hallar los vectores propios es:

x3
a) Para λ1 = 8 se obtuvo x1 = x3 y x2 = ,x3 Variable independiente
2
     
2r 2 2
Sea x3 = 2r ⇒ x1 = 2r y x2 = r ⇒ v1 =  r  =  1  r ⇒ v =  1 
2r 2 2
es el vector propio básico, para λ1 = 8
b) Para λ2 = 1 se obtuvo x1 = − x22 − x3 . Las variables independientes son x2 , x3 sea
x3 = S,
 
−r − s
x2 = 2r ⇒ x1 = −r − s los vectores propios son de la forma  2r  =
s
       
−1 −1 −1 −1
 2  r +  0  s ⇒ v2 =  2  , v3 =  0  son los vectores básicos.
0 1 0 1

Ejercicios 5.1 1. Calcule los valores y los vectores propios de las siguientes matrices:
   
2 1 7 −2 −4
a)
6 −2 d)  3 0 −2 

−3 2
 6 −2 −3
b)
0 −4 
4 1 0 1

 
1 1 −2  2 3 0 1 
e)  
c)  −1 2 1   −2 1 2 −3 
0 1 −1 2 −1 0 5

2. Demuestre que para cualquier número real a y b, la matriz


 
a b
A=
−b a
   
1 1
Tiene vectores propios y
i −i

5.1.2. Ecuación característica para calcular la inversa de una matriz


cuadrada
.:Teorema 5.8 (Teorema de Cayley - Hamilton) Toda matriz cuadrada satisface su propia
ecuación característica. Es decir, si P (λ) = 0 es la ecuación característica de A, entonces
P (A) = 0
5. Vectores y valores propios 236

Veamos una aplicación del teorema anterior, que se puede ver como como una forma alternativa
de expresar la inversa de una matriz, usando los valores propios.

Sea P (λ) = λn + an−1 λn−1 + · · ·+ a1 λ+ a0 la ecuación característica de A, según el enunciado

P (A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0


entonces multiplicamos por A−1 en la ecuación anterior.

A−1 P (A) = An−1 + an−1 An−2 + · · · + a2 A + a1 I + a0 A−1 = 0


Luego;

An−1 + an−1 An−2 + · · · + a2 A + a1 I = −a0 A−1


Entonces;
1 
A−1 = −An−1 − an−1 An−2 − · · · − a2 A + −a1 I
a0
 
1 −1 4
Ejemplo 5.8 Usar el teorema anterior para hallar A−1 de A =  2 2 −1 
2 1 −1


1−λ −1 4

det (A − λI) =
3 2 − λ −1

2 1 −1 − λ
⇒ P (λ) = λ3 − 2λ2 − 5λ + 6 = 0

donde n = 3, a2 = −2, a1 = −5, a0 = 6

Entonces;
1 
A−1 = −A2 + 2A + 5I
6

     
−6 −1 −1 2 −2 8 5 0 0
1 
A−1 = −7 0 −11  +  6 4 −2  +  0 5 0 
6
−3 1 −8 4 2 −2 0 0 5
 
1 −3 7
1
= −1 9 −13 
6
1 3 −5
5. Vectores y valores propios 237

5.2. Matrices Semejantes y Diagonalización


.:Definición 5.2 Se dice que dos matrices A y B de tamaño n × n, son semejantes si existe una
matriz invertible C de tamaño n × n tal que

B = C −1 AC (5.5)
Esto es equivalente, a decir que:

CB = AC

La función definida por 5.2 que lleva la matriz A en la matriz B se llama transformación de
semejanza y se puede escribir como: T (A) = C −1 AC

Ejemplo 5.9 Dos matrices semejantes


     
3 2 3 5.2 5 4
Sea A = ,B= y C= como:
0 −4 0 −4 0 −1
detC 6= 0 entonces C −1 existe

    
5 4 3 5.2 15 10
CB = =
0 −1 0 −4 0 4
    
3 2 5 4 15 10
AC = =
0 −4 0 −1 0 4
Entonces: CB = AC ⇒ A y B son semejantes

Ejemplo 5.10 Ejemplo de una matriz semejante a una matriz diagonal

Sea
     
4 0 0 1 3 0 1 1 0
D =  0 −2 0 , A =  3 1 0 , C =  1 −1 0 
0 0 −2 0 0 −2 0 0 1

C es invertible porque detC 6= 0

   
4 4 0 4 4 0
CA =  −2 2 0 , y DC =  −2 2 0 
0 0 −2 0 0 −2
Entonces CA = DC ⇒ A = C −1 DC ⇒ A y D son matrices semejantes

.:Teorema 5.9 Si dos matrices A y B son semejantes, entonces:


5. Vectores y valores propios 238

1. A y B tienen el mismo polinomio característico


2. A y B tienen los mismos valores propios, con las mismas multiplicidades algebráicas.
3. El detA = detB
4. tr(A)=tr(B)
5. rango(A)=rango(B)

Demostración:

Supongamos que A y B son semejantes; entonces existe una matriz C invertible, tal que
B = C −1 AC.

1. Sea PA (λ) y PB (λ) los polinomios característicos de A y B respectivamente, entonces:

PB (λ) = det(B − λI)


= det(C −1 AC − λI) ya queB = C −1 AC
= det(C −1 AC − λC −1 IC)
 
= det C −1 (A − λI)C
= det(C −1 )det(A − λI)detC
= det(A − λI)det(C −1 )detC
= det(A − λI)
= PA (λ)

Observe que como In = C −1 C, entonces, el detC −1 detC = det(C −1 C) = detIn = 1


2. Recordemos que los valores propios de una matriz son las raíces de su polinomio
característico, Luego para las matrices A y B, el polinomio característico es el mismo, por
lo tanto , su valores propios son los mismos, con las mismas multiplicidades algebráicas.
3. Tal como lo vimos anteriormente, el determinante de una matriz, es el producto de sus
valores propios contando sus multiplicidades y como las matrices A y B posen los mimos
valores propios, entonces, las matrices A y B poseen el mismo determinante, luego, el
detA = detB.

La demostración de los puntos 4 y 5 se dejan como ejercicio al lector.

Q.E.D.

Ejemplo 5.11 Tomemos de nuevo las matrices:


     
4 0 0 1 3 0 1 1 0
D =  0 −2 0 , A =  3 1 0 , C =  1 −1 0 
0 0 −2 0 0 −2 0 0 1
5. Vectores y valores propios 239

De acuerdo a lo que se resolvió en el ejemplo anterior, los valores propios de D son 4, -2, -2 y los
valores propios de A son: 4, -2, -2. Esto se puede verificar viendo si se cumple:

det (A − 4I) = det (A + 2I) = det (A + 2I) = 0


Es importante, que antes de definir que es una matriz diagonalizable, recordar que es una matriz
diagonal:

Una matriz de tamaño n × n, se llama matriz diagonal, cuando las componentes


a11 , a22 , a33 , . . . , ann son distintos de cero, las demás componentes son cero.
 
a11 0 · · · 0
 0 a22 · · · 0 
 
A= . . . .. 
 .. .. .. . 
0 0 ··· ann

.:Definición 5.3 Una matriz A de tamaño n × n es diagonalizable si existe una matriz diagonal
D tal que A es semejante a D.

Nota: Si A es diagonalizable, entonces A es semejante a una matriz diagonal cuyas componentes


de la diagonal son los valores propios de A.

La definición anterior nos lleva al siguiente teorema:

.:Teorema 5.10 Una matriz A es de tamaño n × n es diagonalizable si y sólo si tiene n vectores


propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A esta dada
por:
 
λ1 0 ··· ··· 0
 0 λ2 · · · · · · 0 
 
 0 0 λ3 · · · 0 
D= 
 .. .. .. .. 
 . . . ··· . 
0 0 0 ··· λn
Donde los λi son los valores propios de A.

Si C es una matriz cuyas columnas son los vectores propios linealmente independientes de A,
entonces:

D = C −1 AC

Demostración:

Supongamos que A tiene n vectores propios que son l.i, v1 , v2 , . . . , vn , que corresponden a los
valores propios, no necesariamente diferentes λ1 , λ2 , . . . , λn .
5. Vectores y valores propios 240

Sea:
     
c11 c12 c1n

 c21 


 c22 


 c2n 

v1 =  .. , v1 =  ..  , . . . , vn =  .. ,
 .   .   . 
cn1 cn2 cnn
Y sea:
 
c11 c12 ··· c1n

 c21 c22 ··· c2n 

C= .. .. .. 
 . . . 
cn1 cn2 ··· cnn
Entonces C es invertible, ya que sus columnas son l.i. Ahora bien,
  
a11 a12 · · · a1n c11 c12 · · · c1n
 a21 a22 · · · a2n   c21 c22 · · · c2n 
  
AC =  . .. ..   .. .. .. 
 .. . .  . . . 
an1 an2 ··· ann cn1 cn2 ··· cnn
y se ve que la columna i de AC es
 
c1i

 c2i 

A ..  = Avi = λi vi
 . 
cni
Así, AC, es la matriz cuya columna i es λi vi y
 
λ1 c11 λ2 c12 ··· λn c1n
 λ1 c21 λ2 c22 ··· λn c2n 
 
AC =  .. .. .. 
 . . . 
λ1 cn1 λ2 cn2 ··· λn cnn
 
  λ1 0 ··· ··· 0
c11 c12 ··· c1n  0 λ2 ··· ··· 0 
 c21 c22 ··· c2n  
CD =

 .. .. ..

 0 0 λ3 ··· 0 

 . . .  .. .. .. .. 
 . . . ··· . 
cn1 cn2 ··· cnn
0 0 0 ··· λn
 
λ1 c11 λ2 c12 ··· λn c1n
 λ1 c21 λ2 c22 ··· λn c2n 
 
=  .. .. .. 
 . . . 
λ1 cn1 λ2 cn2 ··· λn cnn
Entonces AC = CD.
5. Vectores y valores propios 241

Y como C es invertible, se pueden multiplicar ambos lados de la igualdad por C −1 y se obtiene


que:
D = C −1 AC
Esto demuestra que, si A tiene vectores propios l.i, entonces A es diagonalizable. Inversamente,
suponga que A es diagonalizable; esto es, suponer que D = C −1 AC se cumple para alguna
matriz invertible C. Sean v1 , v2 , . . . , vn las columnas de C. Entonces AC = CD, invirtiendo los
argumentos anteriores, se tiene que Avi = λi vi para i = 1, 2, . . . , n. Entonces v1 ,v2 , . . . , vn son
los vectores propios de A y son l.i. porque C es invertible.

Q.E.D.

.:Corolario 5.1 Si la matriz A de tamaño n × n, tiene n valores propios diferentes, entonces A


es diagonalizable.

 
4 2
Ejemplo 5.12 Sea A = , encuentre la matriz diagonal D.
3 3

Hallamos los valores propios de A, para ello utilizamos la ecuación característica de A,

 
4−λ 2
det (A − λI) = =0
3 3−λ
= (λ − 1) (λ − 6) = 0

a) Encontramos el vector propios para λ2 = 6


        
x1 0 3 2 x1 0
(A − λI) v = 0 ⇒ (A − 1I) = ⇒ = ⇒
x2 0 3 2 x2 0
3x1 + 2x2 = 0esta ecuación
 se cumple cuando x1 = 2, x2 = −3, entonces un vector
2
propio es v1 = para λ1 = 1
−3
b) Para λ1 = 1
    
−2 2 x1 0
(A − 6I) v = 0 ⇒ = ⇒ x1 = x2 ⇒ un vector propio de
3 −3 x2 0
 
1
A para λ2 = 6 es v2 = v1 y v2 son Linealmente Independientes ya que uno no es
1
múltiplo del otro
 
2 1
Sea C = recordemos que C se construye con los vectores propios de A como
−3 1
columnas, y su inversa es  
1 1 −1
C −1 =
5 3 2
Ahora calculemos la matriz D:
5. Vectores y valores propios 242

D = C −1 AC
   
1 1 −1 4 2 2 1
=
5 3 2 3 3 −3 1
  
1 1 −1 2 6
=
5 3 2 −3 6
 
1 5 0
=
5 0 30
 
1 0
=
0 6

Como podemos ver los elementos de la diagonal de la matriz D son los valores propios de
la matriz A.

NOTA: Diagonalizar una matriz A es encontrar una matriz diagonal D que es semejante a A
o sea que, se cumpla que D = C −1 AC donde C es la matriz de vectores propios linealmente
Independientes.

.:Teorema 5.11 Si A es semenjante con B es decir, B = C −1 AC entonces

An = CB n C −1 n ∈ Z +

El siguiente ejemplo ilustra la situación:


     
1 0 1 4 −1 5 −4
Ejemplo 5.13 Si A = ,C = ,C = y B = C −1 AC,
0 2 1 5 −1 1
calcular B 5

Solución:

   
5 −4 1 0 1 4
C −1 AC =
−1 1 0 2 1 5
 
−3 20
= =B
1 6

Para calcular B 5 primero se calcula A5 , lo cual es fácil porque A es una matriz diagonal

         
2 12 0 3 13 0 4 14 0 5 15 0 1 0
A = ,A = ,A = ,A = =
0 22 0 23 0 24 0 25 0 32
5. Vectores y valores propios 243

Por el teorema anterior,

B5 = C −1 5
 A C   
5 −4 1 0 1 4
=
−1 1 0 32 1 5
  
5 −128 1 4
=
−1 32 1 5
 
−123 −620
=
31 156

Ejercicios 5.2

1. Dada la matriz A, determine si es diagonalizable y si lo es, encuentre la ecuación


característica, la matriz C y la matriz D, tal que D = C −1 AC
   
4 −9 1 1 −1
a)
6 2 h)  4 0 6 
  −2 −2 2
7 −1
b)
−5 4  

9 0
 0.236 0.214 0.974
c) i)  0.012 0.047 0.3258 
1 2
  0.987 0.325 −0.78
0 3
d)
1 0  
  8 9 5 1
4 5  2 4 7 5 
e) j)  
−8 −10  8 9 5 4 
 
5 8 9 2 3 1 4
f)  5 1− 9 
6 5 5  
  3 2 1 4
8 9 6  7 −8 5 −4 
k)  
g)  5 4 −5   0 5 8 5 
0 1 5 4 5 −5 7

2. Demuestre que si A tiene valores propios λ1 , λ2 , λ3 , . . . , λn , entonces los valores propios


de At son λ1 , λ2 , λ3 , . . . , λn .
3. Si A tiene valores propios λ1 , λ2 , λ3 , . . . , λn , Demuestre que αA tiene valores propios
αλ1 , αλ2 , αλ3 , . . . , αλn .
4. Demuestre que si A es invertible y tiene valores propios λ1 , λ2 , λ3 , . . . , λn , entonces todos
los valores propios de A−1 son distintos de cero y son λ11 , λ12 , λ13 , . . . , λ1n y además, A y
A−1 tienen los mismos vectores característicos.
5. De muestre que si A es semejante a B, entonces

a) An es semejante a B n , n ∈ Z +
5. Vectores y valores propios 244

b) detA = detB.

6. Demuestre que si A tiene λ1 , λ2 , λ3 , . . . , λn valores propios, entonces detA = λ1 · λ2 ·


λ3 · · · λn .
7. Si A tiene un valor propio λi = 0, entonces A es una matriz Singular.
8. Tomemos la matriz A de la siguiente forma:
 
a b
A=
0 c

Si la matriz A tiene valores propios λ1 = 0 y λ2 = 1, ¿cuales serían los posibles valores


de a y c?
9. Demuestre que  
0 1
A=
−1 0
no tiene valores propios.
10. Si la siguiente afirmación “Una matriz es semejante a dos matrices diagonales distintas”
es verdadera, demuéstrela, de lo contrario de un contra ejemplo.
11. Dada la matriz A de tamaño 2 × 2
 
a b
A=
c d

Encuentre un criterio sobre a, b, c y d para determinar si A es diagonalizable.


12. Pruebe que la siguiente matriz es diagonalizable
 
cos θ − sin θ
A=
sin θ cos θ

13. Pruebe que si A y B son matrices cuadradas de tamaño n × n y alguna de las dos es
invertible, entonces AB y BA tienen valores propios iguales.
Bibliografía

[1] G ROSSMAN, S. Álgebra Lineal. McGraw-Hill, México-DF. (1996).


[2] R ESTREPO P, F RANCO R, S IERRA L. Álgebra lineal con aplicaciones,
Universidad Nacional de Colombia, Sede Medellín. Medellín (1995).
[3] M ONSALVE, S. Álgebra Lineal - con notas históricas y contextos económicos. Edt
Universidad Nacional de Colombia. Bogotá (2010).
[4] Strang, G. Álgebra Lineal y sus aplicaciones. Fondo educativo Interamericano.
(1982).
[5] N ICHOLSON, W. Álgebra Lineal con aplicaciones. Edt Mcgraw-Hill, Madrid
(2003).
[6] KOLMAN, B. Álgebra lineal con aplicaciones y Matlab. México: Prentice Hall
(1999).
[7] F RALEIGH, J, Álgebra Lineal, Edt Addison -Wesley, Wilmington - Delawere
EEUU (1986).
[8] L ARSON , R. & E DWARDS B. Introducción al Álgebra lineal, Edt Limusa, México
DF (2000).
[9] M EJÍA, C. Álgebra lineal elemental y aplicaciones, Edt Ediciones Ude@,
Medellín Colombia (2006).
[10] F LOREY, F. Fundamentos de Álgebra Lineal y aplicaciones. México: Prentice -
Hall (1980).
[11] H ILL, R. Álgebra lineal elemental con aplicaciones. México: Prentice Hall
Hispanoamericana (1997).
[12] P ERRY, W. Álgebra lineal con aplicaciones. México: McGraw - Hill (1990).
[13] P ITA RUIZ C. Álgebra lineal. México: McGraw - Hill (1991).

[14] A POSTOL, T. Calculus Vol 1 y 2, Edt Reverte S.A, México (1985).

245
Índice alfabético

Cálculo de área de un triángulo con Inversa de una matriz, 51


determinantes, 135 Inversa de una matriz y su determinante, 120
Cofactor de una matriz, 93
La Menor de una Matriz, 92
Determinante de una matriz, 89 Ley Asociativa en el producto de matrices, 40
Determinante de una matriz de orden 2, 89 Ley distributiva de la multiplicación de
Determinante de una matriz de orden 3, 90 matrices, 41
Determinante de una matriz de orden n × n, 93 Longitud de un segmento de recta y el
Determinantes, 89 determinante, 135
Determinantes - Propiedad 1, 100
Determinantes - Propiedad 2, 100 Método de Chió, 111
Determinantes - Propiedad 3, 101 Método de Sarrus, 91
Determinantes - Propiedad 4, 102 Método por cofactores, 92
Determinantes - Propiedad 5, 104 Métodos para hallar la inversa de una matriz,
Determinantes - Propiedad 6, 105 58
Determinantes - Propiedad 7, 106 Matrices, 18
Determinantes - Propiedades, 95 Matrices - Factorización, 65
Determinantes 2 × 2, 130 Matrices iguales, 30
Determinantes y matrices especiales, 113 Matriz - La inversa, 53
Diferencia de matrices, 32 Matriz Adjunta, 121
Matriz Antisimétrica, 49
Dos ecuaciones lineales con dos incógnitas, 3
Matriz cuadrada, 30
ecuaciones lineales, 3 Matriz de coeficientes, 19
El rango, 16 Matriz de coeficientes aumentada., 19
Eliminación de Gauss-Jordan, 10 Matriz diagonal, 30
Eliminación Gaussiana, 8, 20 Matriz Elemental, 66, 149
Espacios vectoriales y sus propiedades, 147 Matriz invertible, 54
Matriz nula, 30
Factorización A=LDU, 82 Matriz simétrica, 48
Factorización A=LU, 75 Matriz transpuesta - Propiedades, 47
Factorización PA=LU, 83 Matriz Triangular inferior, 75
FER, 26 Matriz Triangular superior, 75
Forma escalonada por renglones., 26 Matriz, Definición formal, 29
Forma escalonada reducida por renglones Multiplicación de matrices y vectores, 35
(FERR), 26
Formas escalonadas para una matriz, 26 Operaciones elementales por fila, 24
Operaciones elementales por filas, 19
Gauss-Jordan, 21
Pierre Frédéric Sarrus, 91
Interpretación geométrica del determinante, Producto entre matrices, 38
130

246
ÍNDICE ALFABÉTICO 247

Producto escalar, 36

Regla de Cramer, 125

Sistema con solución única, 3


Sistema de m ecuaciones lineales con n
incógnitas, 7
Sistema sin solución, 5
Sistema y infinito número de soluciones, 4
Sistemas de Ecuaciones Homogéneos, 14
Sistemas de ecuaciones lineales, 1
Sistemas Homogéneos, 14
Sistemas Inconsistentes y Consistentes, 13
Suma de Matrices, 31

Teorema de factorización única, 66


Transpuesta de una matriz, 46

Vector Fila y Columna, 28


vectores fila y columna, 27
Volumen del paralelepípedo como un
determinante, 138

También podría gustarte