Está en la página 1de 125

Algebra I

Lic. Eduardo Fernández

FaCET-UNC
Índice general

1. Matrices 5
1.1. Orden de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2. Igualdad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3. Métodos para resolver sistemas lineales . . . . . . . . . . . . . . . . . 8
1.1.4. Operaciones elementales de renglón . . . . . . . . . . . . . . . . . . . 9
1.1.5. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.6. Matrices particionadas . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.1.7. Álgebra de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.8. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1.9. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Ejercicios 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.2.1. Determinante de una matriz n × n . . . . . . . . . . . . . . . . . . . 35
Ejercicios 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.3.1. Propiedades de los Autovalores . . . . . . . . . . . . . . . . . . . . . 42
1.3.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.3.3. Diagonalización de matrices simétricas. . . . . . . . . . . . . . . . . . 46
1.3.4. Formas Cuadráticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.3.5. Conceptos Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Ejercicios 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2. Espacios Vectoriales 55
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Ejercicios 2.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Ejercicios 2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3. Combinaciones Lineales y S.L.E. . . . . . . . . . . . . . . . . . . . . . . . . . 70
Ejercicios 2.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . 81

3
ÍNDICE GENERAL Álgebra Lineal 4

Ejercicios 2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Ejercicios 2.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

3. Transformaciones Lineales 97
3.1. Transformación Lineal, Núcleo y Rango . . . . . . . . . . . . . . . . . . . . . 97
Ejercicios 3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.2. Matriz de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . 106
Ejercicios 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.3. Composición de Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 113
Ejercicios 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.4. Producto Interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Ejercicios 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Bibligrafı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Capı́tulo 1

Matrices

Definición 1.0.1 Una matriz es un arreglo rectangular de números denominados las en-
tradas o elementos, de la matriz.

Los siguientes son ejemplos de matrices:


   
µ ¶µ √ ¶ 2 ¡ 5, 1 1, 2 −1
1 2 5 −1 0  ¢ ¡ ¢
4  1 1 1 1  6, 9 0 4, 4  7
0 3 2 π 21
17 −7, 3 9 8, 5

1.1. Orden de una Matriz


El orden de una matriz es una descripción de los números de renglones y columnas que
tiene. Una matriz se denomina de m × n si se tiene m renglones y n columnas.
En nuestro ejemplo las matrices son respectivamente de orden 2 × 2, 2 × 3, 3 × 1, 1 × 4, 3 × 3
y 1 × 1.
Casos especiales:
R Una matriz de 1× m se conoce como una matriz renglón (o vector renglón)

R Una matriz de n × 1 se conoce como una matriz columna (o vector columna)

Notación de las entradas: La entrada de una matriz A en el renglón i y la columna j


se denota mediante aij

Ejemplo 1.1.1 µ ¶
3 9 −1
A=
0 5 4

5
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 6

Solución: El elemento a13 = −1; a22 = 5♣


Notación Compacta: Se puede denotar una matriz de forma compacta como [aij ]
ó [aij ]m×n si es necesario especificar el tamaño de la matriz.
Entonces una matriz general A de m × n tiene la forma:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A=  ... .. .. .. 
. . . 
am1 am2 . . . amn

Si las columnas de A son los vectores columnas a1 , a2 , . . . , an entonces podemos repre-


sentar A como
A = ( a1 a2 . . . an )

Si los renglones de A son A1 , A2 , . . . , Am entonces podemos representar A como:


 
A1
 A2 
A= 
 ... 
An

Diagonal de una matriz: Las entradas diagonales o elementos diagonales de una ma-
triz A son a11 , a22 , a33 , . . .

1.1.1. Matrices especiales


R Matriz Cuadrada: Si m = n, es decir, si A tiene el mismo número de renglones que
columnas, entonces A se conoce como matriz cuadrada.

Ejemplo 1.1.2  
2 1 3
A =  0 5 2
−1 3 7

R Matriz diagonal: Una matriz cuadrada cuyas entradas no diagonales sean todas cero
se denomina matriz diagonal.
CAPÍTULO 1. MATRICES Álgebra Lineal 7

Ejemplo 1.1.3  
2 0 0

B= 0 −3 0 
0 0 1

R Matriz Triangular: Una matriz cuadrada cuyas entradas por debajo de la diagonal
son todos ceros se conoce como matriz triangular superior

Ejemplo 1.1.4  
2 1 1
C =  0 −1 3 
0 0 8

Una matriz cuadrada cuyas entradas por encima de la diagonal son todos ceros se
conoce como matriz triangular inferior.

Ejemplo 1.1.5  
1 0 0
D = 5 3 0
1 1 7

R Matriz Escalar:
Una matriz diagonal en la cual todas sus entradas diagonales son las mismas se conoce
como matriz escalar.

Ejemplo 1.1.6  
2 0
E= 
0 2

R Matriz Identidad:
Una matriz escalar, cuyo escalar es uno, se conoce como matriz identidad.

Ejemplo 1.1.7  
1 0
D= 
0 1

Observación: Generalmente a la matriz identidad se lo representa con la letra I.


1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 8

1.1.2. Igualdad de matrices


Dos matrices son iguales se tienen el mismo orden y sus entradas correspondientes son
iguales. De este modo si A = [aij ]m×n y B = [bij ]r×s , entonces A = B si y sólo si m = r y
n = s, y además aij = bij para toda i y j.

Ejemplo 1.1.8 Considere las matrices y determine cuales son iguales


µ ¶ µ ¶ µ ¶
a b 2 0 2 0 x
A= , = y =
c d 5 3 5 3 y

Solución: Ni A ni B pueden ser iguales a C (no importa cuales sean los valores de x y y),
puesto que A y B son de 2 × 2 y C es de 2 × 3. Sin embargo, A = B si y sólo si a = 2, b = 0,
c = 5 y d = 3. ♣

Ejemplo 1.1.9 Considere las matrices y determine si son iguales


 
1
R = (1 4 3) y = 4 
3

Solución: Observar que R y C tienen las mismas entradas, pero aún asi no son iguales
porque R es de 1 × 3 y C es de 3 × 1. ♣

1.1.3. Métodos directos para resolver sistemas lineales


Matrices y forma escalonada
Existen dos importantes matrices asociadas con un sistema lineal. La matriz de coefi-
cientes contiene los coeficientes de las variables, y la matriz aumentada que es la matriz
de coeficientes aumentada en una columna extra que contiene los términos constantes.
Para el sistema

2x + y − z = 3
x + 5z = 1
−x + 3y − 2z = 0

La matriz de coeficientes es  
2 1 −1
 1 0 5 
−1 3 −2
CAPÍTULO 1. MATRICES Álgebra Lineal 9

y la matriz aumentada es  
2 1 −1 3
 1 0 5 1 
−1 3 −2 0
Si denotamos la matriz de coeficientes de un sistema lineal por medio de A y el vector
columna de los términos constantes por medio de b, entonces la forma de la matriz aumentada
es (A|b).
Al resolver un sistema lineal, no siempre es posible reducir la matriz de coeficientes en una
matriz triangular, pero siempre se puede conseguir un patrón tipo escalera en las entradas
distintas de cero de la matriz final.
Definición 1.1.1 Una matriz se encuentra en forma de renglón escalonado si satisface las
siguientes propiedades:

1. Cualquier renglón que se componga enteramente de ceros se encuentra en la parte


inferior.

2. En cada renglón distinto de cero, la primera entrada distinta de cero (denominada la


entrada principal) se encuentra en una columna a la izquierda de cualquier entrada
principal debajo de ella.

Ejemplo 1.1.10 Las matrices siguientes están en forma escalonada.


     
2 4 1 1 0 1 1 1 2 1
 0 −1 2   0 1 5   0 0 1 3 
0 0 0 0 0 4 0 0 0 0

1.1.4. Operaciones elementales de renglón


Definición 1.1.2 En una matriz se pueden efectuar las siguientes operaciones elemen-
tales de renglón:

1. El intercambio de dos renglones.

2. La multiplicación de un renglón por una constante distinta de cero.

3. La adición de un múltiplo de un renglón a otro renglón.

Utilicemos la siguiente notación para indicar las tres operaciones elementales de renglón:
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 10

1. Ai ←→ Aj significa intercambiar los renglones i y j.

2. kAi significa multiplicar el renglón i por k.

3. Ai + kAj significa sumar k veces el renglón j al renglón i (y reemplazar el renglón i


por el resultado).

Ejemplo 1.1.11 Reduzca la matriz siguiente a la forma escalonada


 
1 2 −4 −4 5
 2 4 0 0 2 
 
 2 3 2 1 5 
−1 1 3 6 5

Solución: Debemos crea una entrada principal en una columna y luego utilizarla para crear
ceros por debajo de ella. La entrada seleccionada para llegar a ser una entrada principal
se conoce como un pivote, por lo cual esta fase del proceso se denomina pivoteo. Es
conveniente elegir la columna que tenga una entrada igual a 1 o utilizar la segunda operación
de renglón para igualar la entrada principal a 1. En nuestro caso la entrada principal está en
la primera columna.
   
1 2 −4 −4 5 1 2 −4 −4 5
 2 4 0 0 2   8 −8 
 ⇒ 0 0 8 
 2 3 2 1 5   0 −1 10 9 −5 
−1 1 3 6 5 0 3 −1 2 10

Donde se hicieron las siguientes operaciones de renglón: A2 − 2A1 , A3 − 2A1 y A4 + A1


La primera columna ya está como la queremos, ahora hay que crear una entrada principal
en el segundo renglón. Una opción serı́a hacer A2 ←→ A3
 
1 2 −4 −4 5
 0 −1 10 9 −5 
⇒  0

0 8 8 −8 
0 3 −1 2 10
Esta vez, el pivote es −1. Ahora hay que crear ceros en la parte inferior de la columna
2, utilizando la entrada principal −1 en el renglón 2:
 
1 2 −4 −4 5
 0 −1 10 9 −5 
A4 + 3A2 ⇒  0

0 8 8 −8 
0 0 29 29 −5
Con esto la columna 2 ya está lista. Como en la columna 3 ya tenemos una entrada principal,
para que sea más fácil el pivotado es conveniente dividir primero el renglón 3 por 8 y luego
CAPÍTULO 1. MATRICES Álgebra Lineal 11

crear los ceros por debajo de la entrada principal.


 
1 2 −4 −4 5
1  0 −1 10 9 −5 
A3 ⇒  0

8 0 1 1 −1 
0 0 29 29 −5
Ahora si tenemos que
 
1 2 −4 −4 5
 0 −1 10 9 −5 
A4 − 29A3 ⇒ 
 0

0 1 1 −1 
0 0 0 0 24
Esta matriz está reducida a su forma escalonada. ♣

Definición 1.1.3 Las matrices A y B son de renglón equivalente si existe una secuencia
de operaciones elementales de renglón que convierta A en B.

Las matrices
   
1 2 −4 −4 5 1 2 −4 −4 5
 2 4 0 0 2   9 −5 
  y  0 −1 10 
 2 3 2 1 5   0 0 1 1 −1 
−1 1 3 6 5 0 0 0 0 24
del ejemplo anterior, son de renglón equivalente.

Teorema 1.1.1 Las matrices A y B son de renglón equivalente si y sólo si pueden reducirse
a la misma forma escalonada de renglón.

Eliminación Gaussiana
Cuando se aplica la reducción de renglón a la matriz aumentada de un sistema de ecua-
ciones lineales, se crea un sistema equivalente que puede ser resuelto mediante sustitución
hacia atrás. El proceso completo es conocido como eliminación gaussiana.
Pasos para realizar la Eliminación gussiana
1. Escriba la matriz aumentada del sistema de ecuaciones lineales.
2. Utilice operaciones elementales de renglón para reducir la matriz aumentada a la forma
escalonada del renglón.
3. Mediante la sustitución hacia atrás, resuelva el sistema equivalente que corresponda a
la matriz de renglón reducido.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 12

Ejemplo 1.1.12 Resuelva el sistema

x1 + x2 + x3 = 3
2x1 + 3x2 + x3 = 5
x1 − x2 − 2x3 = −5

Solución: La matriz aumentada es


 
1 1 1 3
 2 3 1 5 
1 −1 −2 −5

Realizando las siguientes operaciones elementales: A2 −2A1 , A3 −A1 y por último A3 +2A2 ,
obtenemos la matriz escalonada:
 
1 1 1 3
 0 1 −1 −1 
0 0 −5 −10

El sistema correspondiente es, ahora

x1 + x2 + x3 = 3
x2 − x3 = −1
−5x3 = −10

La sustitución hacia atrás nos da x3 = 2, x2 = 1, x1 = 0, entonces


 
0
 1 
2

es la solución expresada en forma vectorial ♣

Ejemplo 1.1.13 Resuelva el sistema

w − x − y + 2z = 1
2w − 2x − y + 3z = 3
−w + x − y = −3

Ejemplo 1.1.14 La matriz aumentada es


 
1 −1 −1 2 1
 2 −2 −1 3 3 
−1 1 −1 0 −3
CAPÍTULO 1. MATRICES Álgebra Lineal 13

La que puede ser reducida a la matriz escalonada


 
1 −1 −1 2 1
 0 0 1 −1 1 
0 0 0 0 0

El sistema asociado ahora es

w − x − y + 2z = 1
y−z = 1

El cual tiene un número infinito de soluciones. Hay más de una forma de asignar paráme-
tros, pero al emplear la sustitución hacia atrás, expresando las variables correspondientes
a las entradas principales (las variables principales) en términos de otras variables (las
variables libres).
En este caso, las variables principales son w y y; las variables libres son x y z. De este modo,
y = 1 + z, y de esto obtenemos

w = 1 + x + y − 2z
= 1 + x + (1 + z) − 2z
= 2+x−z

que es la solución buscada ♣

Definición 1.1.4 El rango de una matriz es el número de renglones distinto de cero en


su forma escalonada de renglón

Notación: rango(A)

Teorema 1.1.2 Sea A la matriz de coeficientes de un sistema de ecuaciones lineales con n


variables. Si el sistema es consistente, entonces

número de variables libres = n − rango(A)

Observación: Si el número de variables libres es igual a cero, el sistema tiene solución única.

Eliminación por Gauss-Jordan


Este es un método que simplifica la fase de sustitución hacia atrás de la eliminación gaus-
siana. La eliminación de Gauss-Jordan, depende de reducir aún más la matriz aumentada.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 14

Definición 1.1.5 Una matriz se encuentra en forma reducida de renglón escalonado


si satisface las propiedades siguientes:

1. Cualquier renglón conformado completamente por ceros se encuentra en la parte infe-


rior.

2. La entrada principal en cada renglón distinto de cero es un 1 (denominado 1 principal).

3. Cada columna que contiene un 1 principal tiene ceros en cualquier otro sitio.

La matriz siguiente se encuentra en forma reducida de renglón escalonado:


 
1 2 0 0 −3 1 0
 0 0 1 0 4 −1 0 
 
 0 0 0 1 3 −2 0 
 
 0 0 0 0 0 0 1 
0 0 0 0 0 0 0

Se puede comprobar que de una matriz escalonada puede pasarse a una matriz reducida
de renglón escalonado utilizando operaciones elementales adicionales.
A diferencia de la matriz escalonada, la matriz reducida de renglón escalanado es única.
En la eliminación de Gauss-Jordan se procede de manera similar a la eliminación gaus-
siana pero hasta reducir la matriz de coeficientes a la forma reducida de renglón escalonado.
Pasos de la Eliminación de Gauss-Jordan
1. Escribir la matriz aumentada del sistema de ecuaciones lineales.

2. Utilizar operaciones elementales de renglón para reducir la matriz aumentada a la


forma reducida de renglón escalonado.

3. Si el sistema resultante es consistente, resolver para las variables principales en términos


de cualquier variable libre restante.

Ejemplo 1.1.15 Resolver por el método de Gauss-Jordan

w − x − y + 2z = 1
2w − 2x − y + 3z = 3
−w + x − y = −3

Solución: La matriz escalonada está dada por


 
1 −1 −1 2 1
 0 0 1 −1 1 
0 0 0 0 0
CAPÍTULO 1. MATRICES Álgebra Lineal 15

Ahora debemos crear un 0 sobre el 1 principal en el segundo renglón, tercera columna.


Hacemos esto mediante A2 + A1 y obtenemos:
 
1 −1 0 1 2
 0 0 1 −1 1 
0 0 0 0 0

Es sistema ahora se ha reducido a

w−x+z = 2
y−z = 1

Y de aquı́ se obtiene más facilmente las variables principales

w =2+x−z y y =1+z ♣

Sistemas homogéneos

Definición 1.1.6 Un sistema de ecuaciones lineales se denomina homogéneo si el término


constante en cada ecuación es cero.

En otras palabras un sistema homogéneo tiene una matriz aumentada de la forma (A—0).
El sistema siguiente es homogéneo:

2x + 3y − z = 0
−x + 5y + 2z = 0

Un sistema homogéneo siempre tiene solución, que puede ser única (el cero) o un número
infinito de soluciones.

Teorema 1.1.3 Si (A|0) es un sistema homogéneo de m ecuaciones lineales con n variables,


donde m < n, entonces el sistema tiene un número infinito de soluciones.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 16

1.1.5. Operaciones con Matrices

Adición de Matrices y Multiplicación por un escalar:

Definición 1.1.7 Si A = [aij ] y B = [bij ] son matrices de m × n, su suma A + B es


la matriz de m × n obtenida mediante la suma de las entradas correspondientes. De esta
manera,
A + B = [aij + bij ]

Igualmente se puede definir A+B en términos de la adición de vectores especificando que cada
columna (o renglón) de A + B fuera la suma de las columnas (o renglones) correspondientes
de A y B. Si A y B no son del mismo tamaño, entonces A + B no está definida.

Ejemplo 1.1.16 Sean


µ ¶ µ ¶ µ ¶
1 4 0 −3 1 −1 4 3
A= , B= yC=
−2 6 5 3 0 2 2 1

determina cuales son las sumas que están definidas

Solución: µ ¶
−2 5 −1
A+B =
1 6 7

pero ni A + C ni tampoco B + C están definidas. ♣


Si A es una matriz de m × n y c es un escalar, entonces el múltiplo escalar cA es la
matriz de m × n obtenida al multiplicar cada entrada de A por c. De manera más formal,
tenemos que
cA = c[aij ] = [caij ]

En términos de vectores, podrı́amos estipular de manera equivalente que cada columna (o


renglón) de cA es c veces la columna (o renglón) correspondiente de A.

Ejemplo 1.1.17 Sea A la siguiente matriz:


µ ¶
1 4 0
A=
−2 6 5

calcular 2A, 1/2A y −A


CAPÍTULO 1. MATRICES Álgebra Lineal 17

Solución:
µ ¶ µ 1
¶ µ ¶
2 8 0 1 2 0 −1 −4 0
2A = , A= 2
5 y A=
−4 12 10 2 −1 3 2
2 −6 −5

son las matrices pedidas ♣


La matriz (−1)A se escribe como −A y se denomina la negativa de A. Como ocurre
con los vectores se puede usar este hecho para definir la diferencia de dos matrices: si A y
B son del mismo orden, entonces

A − B = A + (−B)

Ejemplo 1.1.18 Para las matrices A y B, calcular A − B


µ ¶ µ ¶
1 4 0 −3 1 −1
A= , B=
−2 6 5 3 0 2

Solución:
µ ¶ µ ¶ µ ¶
1 4 0 −3 1 −1 4 3 1
A−B = − =
−2 6 5 3 0 2 −5 6 3

es la matriz pedida ♣
Una matriz cuyas entradas son todos ceros se denomina matriz nula y se donota como
O (ó Om×n ) si es importante especificar su tamaño. Si A es una matriz cualquiera y O es la
matriz nula del mismo tamaño que A, entonces

A+O =A=O+A

y
A − A = O = −A + A

Multiplicación de matrices

Definición 1.1.8 Si A es una matriz de m × n y B es una matriz de n × r, entonces el


producto C = AB es una matriz de m × r. La entrada (i, j) del producto se calcula como
sigue:
cij = ai1 b1j + ai2 b2j + . . . + ainnj
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 18

Observaciones: A y B no necesitan ser del mismo tamaño. Sin embargo, el número de


columnas de A debe ser el mismo que el número de renglones de B. El orden de la matriz
AB está dado por el número de renglones de A y el número de columnas de B.
Si llamamos C a la matriz producto, podemos escribir cada elemento de C de la siguiente
forma: n
X
cij = aik bkj
k=1

Ejemplo 1.1.19 Calcule AB si


µ ¶
1 3 −1
A=
−2 −1 1
y  
−4 0 3 −1
B =  5 −2 −1 1 
−1 2 0 6

Solución: Como A es de 2 × 3 y B es de 3 × 4, el producto AB está definido y será una


matriz de 2 × 4. El primer renglón se calcula tomando el producto punto del primer renglón
de A con cada una de las columnas de B por turno:
c11 = 1(−4) + 3(5) + (−1)(−1) = 12
c12 = 1(0) + 3(−2) + (−1)(2) = −8
c13 = 1(3) + 3(−1) + (−1)(0) = 0
c14 = 1(−1) + 3(1) + (−1)(6) = −4
El segundo renglón de C se calcula tomando el producto punto del segundo renglón de
A con cada una de las columnas de B por turno:
c21 = (−2)(−4) + (−1)(5) + (1)(−1) = 2
c22 = (−2)(0) + (−1)(−2) + (1)(2) = 4
c23 = (−2)(3) + (−1)(−1) + (1)(0) = −5
c24 = (−2)(−1) + (−1)(1) + (1)(6) = 7
Asi la matriz producto está dada por:
µ ¶
12 −8 0 −4
AB =
2 4 −5 7

y está calculado el producto ♣

Ejemplo 1.1.20 Escribir el sistema lineal como producto de matrices

x1 − 2x2 + 3x3 = 5 (1.1)


−x1 + 3x2 + x3 = 1
2x1 − x2 + 4x3 = 14
CAPÍTULO 1. MATRICES Álgebra Lineal 19

Solución: Observe que el lado izquierdo surge del producto de matrices:


  
1 −2 3 x1
 −1 3 1   x2 
2 −1 4 x3

de manera que el sistema (1) puede escribirse como


    
1 −2 3 x1 5
 −1 3 1   x2  =  1 
2 −1 4 x3 14

ó AX = B, donde A es la matriz de coeficientes, X es el vector (columna) de variables y B


es el vector (columna) de términos independientes. ♣

1.1.6. Matrices particionadas


A menudo es más simple considerar una matriz compuesta por varias submatrices más
pequeñas. Al introducir lı́neas verticales y horizontales de una matriz, podemos particio-
narla en bloques.
Considere la matriz  
1 0 0 2 −1
 0 1 0 1 3 
 
A=  0 0 1 4 0 

 0 0 0 1 7 
0 0 0 7 2
Parece natural particionar A de la siguiente forma:
 
1 0 0 2 −1
 0 1 0 1 3  µ ¶
  I B
A=  0 0 1 4 0 = O C
 0 0 0 1 7 
0 0 0 7 2
donde I es la matriz identidad de 3 × 3, B es de 3 × 2, O es la matriz de 2 × 3 y C es de
2 × 2. De esta manera, podemos considerar a A como una matriz de 2 × 2 cuyas entradas
son las submatrices.
Esta forma de ver a las matrices, puede ayudar al cálculo cuando hay que hallar el producto
de matrices de gran dimensión.
Supongamos que A es de m × n y B es de n × r, de modo que el producto de AB existe. Si
particionamos B en términos de sus vectores columna, como B = (b1 | b2 | . . . | br ), entonces

AB = A(b1 | b2 | . . . | br ) = (Ab1 | Ab2 | . . . | Abr )


1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 20

Esto es un resultado directo de la definición de multiplicación de matrices. La forma de la


derecha se denomina representación de matriz por columnas del producto.
Ejemplo 1.1.21 Si
 
µ ¶ 4 −1
1 3 2
A= y B= 1 2 
0 −1 1
3 0
representar como matriz por columnas del producto

Solución:
   
µ ¶ 4 µ ¶ µ ¶ −1 µ ¶
1 3 2   13 1 3 2  2 = 5
Ab1 = 1 = y Ab2 =
0 −1 1 2 0 −1 1 −2
3 0
Por lo tanto µ ¶
13 5
AB = (Ab1 | Ab2 ) =
2 −2
.que es la representación pedida ♣
Observación: Advierta que la representación de matriz por columna de AB nos per-
mite escribir cada columna de AB como una combinación lineal de las columnas de A con
entradas de B como coeficientes. Por ejemplo,
 
µ ¶ µ ¶ 4 µ ¶ µ ¶ µ ¶
13 1 3 2 1 3 2
= = 1 =4 + +3
2 0 −1 1 0 −1 1
3
Supongamos que A es de m × n y B es den × r, de manera que el producto AB existe. Si
particionamos A en términos de sus vectores renglón, como:
 
A1
 A2 
 
A =  .. 
 . 
Am
entonces    
A1 A1 B
 A2   A2 B 
   
AB = A =  .. B =  .. 
 .   . 
Am Am B
Esto nuevamente es consecuencia de la definición de multiplicación de matrices. La forma
de la derecha se conoce como representación de matriz renglón del producto.
CAPÍTULO 1. MATRICES Álgebra Lineal 21

Ejemplo 1.1.22 Mediante el empleo de la representación de matriz renglón, calcule AB


para las matrices del ejemplo anterior.

Solución: 
¡ ¢ 4 −1 ¡ ¢
A1 B = 1 3 2 =  1 2  = 13 5
3 0
y  
¡ ¢ 4 −1 ¡ ¢
A2 B = 0 −1 1 =  1 2  = 2 −2
3 0
µ ¶ µ ¶
A1 B 13 5
Por tanto, AB = = , como antes. ♣
A2 B 2 −2
En la definición del producto de matrices AB utiliza la partición natural de A en ren-
glones y B en columnas; esta forma bien puede denominarse representación renglón -
columna del producto. También podemos particionar A en columnas y B en renglones; esta
forma se conoce como representación por columna - renglón del producto.

Cada una de las particiones precedentes son casos particulares de la partición de matri-
ces en general. Se dice que una matriz A se encuentra particionada si se han introducido
lı́neas verticales y horizontales que subdividen a A en submatrices denominadas bloques. La
partición permite expresar a A como una matriz cuyas entradas son sus bloques.
Por ejemplo:
   
1 0 0 2 −1 4 3 1 2 1
 0 1 0 1 3   −1 2 2 1 1 
   
A=  0 0 1 4 0  y B =  0 −5 3 3 1 
  
 0 0 0 1 7   1 0 0 0 2 
0 0 0 7 2 0 1 0 0 3

son matrices particionadas. Éstas tienen las estructuras de bloque


µ ¶ µ ¶
A11 A12 B11 B12 B13
A= yB=
A21 A22 B21 B22 B23

Si dos matrices tienen el mismo tamaño y han sido particionadas de la misma manera, pueden
ser sumadas y multiplicadas por escalares bloque a bloque. Es menos evidente, el hecho de
que, con una partición apropiada, las matices pueden ser multiplicadas también por bloques.

Ejemplo 1.1.23 Considere las matrices particionadas anteriores para determinar si se pue-
den multiplicar por bloques.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 22

Solución: La matriz A parece ser una matriz de 2 × 2 y B una matriz de 2 × 3. Su producto


deberı́a ser entonces una matriz de 2 × 3 dada por:
µ ¶µ ¶
A11 A12 B11 B12 B13
AB = =
A21 A22 B21 B22 B23
µ ¶
A11 B11 + A12 B21 A11 B12 + A12 B22 A11 B13 + A12 B23
=
A21 B11 + A22 B21 A21 B12 + A22 B22 A21 B13 + A22 B23
Notar que los productos aquı́ considerados son todos productos matriciales, por lo tanto
es necesario que cada uno de ellos exista. Haciendo una verificación rápida se puede ver que
efectivamente esto sucede. Se dice entonces, que A y B están particionadas adecuada-
mente para la multiplicación por bloques.

Realizando los cálculos obtendremos bloques como:


     
4 3 2 −1 6 2
A11 B11 + A12 B21 = I3 B11 + A12 I2 = B11 + A12 =  −1 2 + 1 3 = 0 5 
1 −5 4 0 5 −5
El resultado final de la multiplicación, haciendo los mismos cálculos para los otros bloques
será:  
6 2 1 2 2
 0 5 2 1 12 
 
 5 −5 3 3 9 
 
 1 7 0 0 23 
7 2 0 0 20
como quisimos comprobar ♣
Potencia de una matriz
Cuando A y B son dos matrices de n × n, su producto AB también será una matriz de n × n.
Un caso especial se presenta cuando A = B. Tiene sentido definir A2 = AA y, en general,
definir Ak como
Ak = AA . . . A ⇒ (k factores, k ∈ Z+ )

Teorema 1.1.4 Si A es una matriz cuadrada y r y s son enteros no negativos, entonces:


1. Ar As = Ar+s
2. (Ar )s = Ars

Transpuesta de una matriz


Definición 1.1.9 La transpuesta de una matriz A de m × n es la matriz At de n × m
que se obtiene cuando se intercambian los renglones y columnas de A. Es decir, la i-ésima
columna de At es el ı́-ésimo renglón de A para toda i.
CAPÍTULO 1. MATRICES Álgebra Lineal 23

Observación: Si una matriz A es igual a su transpuesta (At ), se dice que la matriz A es


simétrica.

Ejemplo 1.1.24 Calcular la transpuesta de las siguietes matrices


µ ¶ µ ¶
1 3 2 a b ¡ ¢
A= , B= y C = 5 −1 2
5 0 1 c d

Solución:    
1 5 µ ¶ 5
a c
At =  3 0  , B t = y C t =  −1 
b d
2 1 2
son las transpuestas pedidas ♣
Una definición alternativa de la transpuesta es:

(At )ij = Aji para toda i y j

1.1.7. Álgebra de Matrices


Propiedades de la adición y multiplicación por un escalar
El siguiente teorema resume todas las propiedades algebraicas.
Teorema 1.1.5 Sean A,B y C matrices del mismo tamaño y sean c y d escalares. Entonces

¬ A+B =B+A

­ (A + B) + C = A + (B + C)

® A+O =A

¯ A + (−A) = O

° c(A + B) = cA + cB

± (c + d)A = cA + dA

² c(dA) = (cd)A

³ IA = A
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 24

La propiedad asociativa nos permite combinar sin ambigüedad la adición y multiplicación


por un escalar sin paréntesis. Si A, B y C son matrices del mismo tamaño, entonces

(2A + 3B) − C = 2A + (3B − C)

y ası́ podemos escribir simplemente 2A+3B-C. En general, entonces, si A1 , A2 , . . . , Ak son


matrices del mismo tamaño y c1 , c2 , . . . , ck son escalares, podemos formar la combinación
lineal
c1 A1 + c2 A2 + . . . + ck Ak
Nos referiremos a c1 , c2 , . . . , ck como los coeficientes de la combinación lineal. Ahora po-
demos plantear y responder preguntas acerca de combinaciones lineales de matrices.

Ejemplo 1.1.25 Sean


µ ¶ µ ¶ µ ¶
0 1 1 0 1 1
M1 = M2 = y M3 =
−1 0 0 1 1 1
µ ¶
1 4
¿Es B = una combinación lineal de M1 , M2 y M3 ?
2 1
Solución: Queremos hallar escalares c1 , c2 y c3 tales que c1 M1 + c2 M2 + c3 M3 = B. De esta
manera. µ ¶ µ ¶ µ ¶ µ ¶
0 1 1 0 1 1 1 4
c1 + c2 + c3 =
−1 0 0 1 1 1 2 1
El lado izquierdo de esta ecuación puede reescribirse como
µ ¶
c2 + c3 c1 + c3
−c1 + c3 c2 + c3

Utilizando el concepto de igualdad de matrices tenemos el siguiente sistema:

c2 + c3 = 1
c1 + c3 = 4
−c1 + c3 = 2
c2 + c3 = 1

Resolviendo este sistema por la eliminación de Gauss-Jordan tenemos que


   
0 1 1 1 1 0 0 1
 1 0 1 4   0 1 0 −2 
   
 −1 0 1 2  ⇒  0 0 1 3 
0 1 1 1 0 0 0 0
CAPÍTULO 1. MATRICES Álgebra Lineal 25

Entonces,como el sistema es compatible podemos tener los valores de los escalares, de


modo que c1 = 1, c2 = −2 y c3 = 3. De esta manera, se puede verificar que

M1 − 2M2 + 3M3 = B. ♣

Nota: Decimos que un conjunto de matrices A1 , A2 , . . . , Ak del mismo tamaño son li-
nealmente independientes si la única solución a la ecuación

c1 A1 + c2 A2 + . . . + ck Ak = 0

es c1 = c2 = . . . = ck = 0, en caso contrario se dice que son linealmente dependientes.


Propiedades de la multiplicación de matrices.

Teorema 1.1.6 Sea A, B y C matrices (cuyos tamaños sean de tal manera que las opera-
ciones indicadas puedan ser realizadas) y sea k un escalar. Entonces

¶ A(BC) = (AB)C

· A(B + C) = AB + AC

¸ (A + B)C = AC + BC

¹ k(AB)) = (kA)B = A(KB)

º Im A = A = AIn si A es m × n

Ejemplo 1.1.26 Comprobar que AB 6= BA para las matrices dadas


µ ¶ µ ¶
2 4 1 0
A= yB=
−1 −2 1 1

Solución: La multiplicación nos da


µ ¶µ ¶ µ ¶
2 4 1 0 6 4
AB = =
−1 −2 1 1 −3 −2
µ ¶µ ¶ µ ¶
1 0 2 4 2 4
BA = =
1 1 −1 −2 1 2
Es decir, AB 6= BA. Ası́ µ
que, la multiplicación
¶ de matrices no es conmutativa. ♣
0 0
Note además que A2 = . Por lo tanto, para matrices, la ecuación A2 = 0 no
0 0
implica que A = 0.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 26

Ejemplo 1.1.27 Si A y B son matrices cuadradas del mismo tamaño, ¿es (A + B)2 =
A2 + 2AB + B 2 ?

Solución: Utilizando las propiedades de la multiplicación de matrices tenemos


 
(A + B)2 = (A + B)(A + B)
 = (A + B)A + (A + B)B 
= A2 + BA + AB + B 2
Por lo tanto (A + B)2 = A2 + 2AB + B 2 si y sólo si AB = BA ♣

Propiedades de la transpuesta.

Teorema 1.1.7 Sean A y B matrices (cuyos tamaños son de tal modo que la operaciones
indicadas pueden ser realizadas) y sea k un escalar. Entonces

¶ (At )t = A

· (A + B)t = At + B t

¸ (kA)t = k(At )

¹ (AB)t = B t At

º (Ar )t = (At )r para todos los enteros r no negativos

Observación: Las propiedades · y ¹ del teorema 1.1.7 pueden ser generalizadas a suma
finitas y productos finitos de matrices:

(A1 + A2 + . . . + Ak )t = At1 + At2 + . . . + Atk

y
(A1 A2 . . . Ak )t = Atk Atk−1 . . . At1

Teorema 1.1.8 Para matrices tenemos que

¶ Si A es una matriz cuadrada, entonces A + At es una matriz simétrica.

· Para cualquier matriz A, AAt y At A son matrices simétricas.


CAPÍTULO 1. MATRICES Álgebra Lineal 27

1.1.8. Inversa de una matriz


Definición 1.1.10 Si A es una matriz de n × n, una inversa de A es una matriz A’ de
n × n con la propiedad de que
AA0 = I y A0 A = I
donde I = In es la matriz identidad de n × n. Si tal A0 existe, entonces A se dice que es
invertible.
µ ¶
2 5
Ejemplo 1.1.28 Si A = , encontrar su inversa
1 3
µ ¶
0 3 −5
Solución: A = es una inversa de A, puesto que
−1 2
µ ¶µ ¶ µ ¶
0 2 5 3 −5 1 0
AA = =
1 3 −1 2 0 1
y µ ¶µ ¶ µ ¶
0 3 −5 2 5 1 0
AA= = ♣
−1 2 1 3 0 1

Ejemplo 1.1.29 Demuestre que las matrices siguientes no son invertibles


µ ¶
0 0
1. O =
0 0
µ ¶
1 2
2. B =
2 4

Solución:

1. La matriz cero O no tiene inversa, ya que de ser ası́ habrı́a una matriz O0 tal que
OO0 = I = O0 O. Sin embargo, el producto de la matriz cero con cualquier otra matriz
es la matriz cero, por lo tanto OO0 nunca podrı́a ser igual a la matriz identidad I.

2. Supongamos que B tiene una inversa


µ ¶
0 w x
B =
y z

La ecuación BB 0 = I nos da
µ ¶µ ¶ µ ¶
1 2 w x 1 0
=
2 4 y z 0 1
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 28

de lo que obtenemos las ecuaciones

w + 2y = 1
x + 2z = 0
2w + 4y = 0
2x + 4z = 1

De este sistema se obtienen contradicciones como ser que 0 = −2. Por lo tanto la supo-
sición de que BB 0 = I es falsa. ♣

Teorema 1.1.9 Si A es una matriz invertible, entonces su inversa es única.


1
Nota: No escriba nunca A−1 = A

Teorema 1.1.10 Si A es una matriz invertible de n × n, entonces el sistema de ecuaciones


lineales dado por Ax = b tiene solución única x = A−1 b para cualquier b en R
µ ¶
a b
Teorema 1.1.11 Si A = , entonces A es invertible si ad − bc 6= 0, en cuyo caso
c d
µ ¶
−1 1 d −b
A =
ad − bc −c a

Si ad − bc = 0, entonces A no es invertible.

Propiedades de las matrices invertibles

1. Si A es una matriz invertible, entonces A−1 es invertible y

(A−1 )−1 = A

2. Si A es una matriz invertible y c es un escalar distinto de cero, entonces cA es una


matriz invertible y
1
(cA)−1 = A−1
c
3. Si A y B son matrices invertibles del mismo tamaño, entonces AB es invertible y

(AB)−1 = B −1 A−1
CAPÍTULO 1. MATRICES Álgebra Lineal 29

4. Si A es una matriz invertible, entonces At es invertible y

(At )−1 = (A−1 )t

5. Si A es una matriz invertible, entonces An es invertible para todos los enteros no


negativos n y
(An )−1 = (A−1 )n

Observaciones:

+ La inversa de un producto de matrices invertibles es el producto de sus inversas en el


orden inverso
(A1 A2 . . . An )−1 = A−1 −1 −1
n . . . A 2 A1

+ Si A es una matriz invertible y n es un entero positivo, entonces A−n está definida por

A−n = (A−1 )n = (An )−1

1.1.9. Matrices elementales


Definición 1.1.11 Una matriz elemental es cualquier matriz que puede ser obtenida al
realizar una operación elemental por renglón sobre una matriz identidad.

Existe un tipo de matriz elemental para cada operación elemental, algunas de ellas son
por ejemplo
     
1 0 0 0 0 0 1 0 1 0 0 0
 0 3 0 0   0 1 0 0   0 1 0 0 
E1 =  0 0 1 0

 E2 = 
 1
 E3 =  
0 0 0   0 0 1 0 
0 0 0 1 0 0 0 1 0 −2 0 1

Teorema 1.1.12 Sea E la matriz elemental que se obtiene cuando se efectúa una operación
elemental por renglón sobre In . Si la misma operación elemental por renglón se realiza sobre
una matriz A de n × r, el resultado es el mismo que la matriz EA.

Teorema 1.1.13 Cada matriz elemental es invertible y su inversa es una matriz elemental
del mismo tipo.

Teorema 1.1.14 (Teorema fundamental de las matrices invertibles) Sea A una ma-
triz de n × n. Las declaraciones siguientes son equivalentes:
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 30

1. A es invertible.

2. Ax = b tiene una solución única para toda b en Rn .

3. Ax = 0 tiene solamente la solución trivial.

4. La forma reducida escalonada por renglón de A es In .

5. A es un producto de matrices elementales.

Teorema 1.1.15 Sea A una matriz cuadrada. Si B es una matriz cuadrada tal que AB = I
o BA = I, entonces A es invertible y B = A−1

Teorema 1.1.16 Sea A una matriz cuadrada. Si una sucesión de operaciones elementales
por renglón reduce A a I, entonces la misma sucesión de operaciones elementales por renglón
transforma a I en A−1 .

Ejercicios 1.1.1

1. Escriba, si es posible, la matriz B como una combinación lineal de las demás matrices
µ ¶ µ ¶ µ ¶
2 5 1 2 0 1
a) B = , A1 = , A2 =
0 3 −1 1 2 1
µ ¶ µ ¶ µ ¶ µ ¶
3 1 1 1 0 −1 −1 2 0 1 1 1
b) B = , A1 = , A2 = , A3 =
0 1 0 0 1 0 0 1 0 0 0 0
2. Demuestre que las matrices dadas son linealmente independientes
µ ¶ µ ¶
1 2 4 3
a) ,
3 4 2 1
       
1 −1 0 2 1 0 0 2 0 −1 1 0
b)  0 2 0 ,  0 3 0  ,  0 1 0  ,  0 −1 0 
0 2 6 0 4 9 0 3 5 0 0 −4
3. Demuestre que, para matrices cuadradas, A y B,

AB = BA ⇐⇒ (A − B)(A + B) = A2 − B 2

4. Encuentre las condiciones de a, b, c y d tales que


µ ¶
a b
B=
c d

conmute con cualquier matriz de 2 × 2


CAPÍTULO 1. MATRICES Álgebra Lineal 31

5. Demuestre que el producto de matrices triangulares superiores de n × n es triangular


superior.

6. Mediante el empleo de la inducción, demuestre que (A1 + A2 + . . . + An )t = At1 + At2 +


. . . + Atn para toda n ≥ 1

7. Demuestre que si A y B son matrices simétricas de n × n, entonces A + B también lo


es.

8. Demuestre que si A es una matriz simétrica de n × n, entonces también lo es kA, para


cualquier escalar k.

9. Demuestre que si A y B son matrices simétricas de n × n, entonces AB es simétrica si


y sólo si AB = BA

1.2. Determinantes
Definición 1.2.1 El determinante es una función que asocia un número real a una matriz
cuadrada.

Notación: Normalmente utilizaremos |A| para representar el determinante de una matriz


A.
Consideremos ahora la matriz .
 
a11 a12 . . . a1n A1
 a21 a22 . . . a2n  A2
A=  ... .. ... ..  .
. .  ..
an1 an2 . . . ann An

donde,

A1 = (a11 , a12 , . . . , a11 )


A2 = (a21 , a22 , . . . , a2n )
..
.
An = (an1 , an2 , . . . , ann )
Entonces podemos escribir la matriz A como A = (A1 , A2 , . . . , An )

Definición Axiomática 1.2.1 Sea A una matriz de n × n, una función que asocia la
matriz A con un número real es una función determinante si verifica los siguientes axiomas:
1.2. DETERMINANTES Álgebra Lineal 32

À det (I) = 1 (siendo I la matriz identidad de n × n)

Á det (A1 , A2 , . . . , αAk , . . . , An ) = α det (A1 , A2 , . . . , Ak , . . . , An )

 det (A1 , A2 , . . . , Ak +c, . . . , An ) = det (A1 , A2 , . . . , Ak , . . . , An )+det (A1 , A2 , . . . , c, . . . , An )

à El determinante se anula si dos filas cualesquiera son iguales.

Ä El determinante se anula si dos filas consecutivas son iguales.


µ ¶
a11 a12
Teorema 1.2.1 Si A = entonces, det A = a11 a22 − a21 a12 .
a21 a22

Ejemplo 1.2.1 Sea la matriz µ ¶


3 2
A=
−1 4
calcular su determinante

Solución: El determinante de A es
¯ ¯
¯ 3 2 ¯
det A = ¯¯ ¯ = (3 × 4) − (−1 × 2) = 14 ♣
¯
−1 4

µ ¶
1 0
Ahora bien, por el Axioma À tenemos que si I = , entonces
0 1

det I = (1 × 1) − (0 × 0) = 1
µ ¶
0 6 4
Por el Axioma Á, si A = , entonces
−1 4

det A0 = (6 × 4) − (−1 × 4) = 24 + 4 = 28,

es decir que det A0 = 2 det A, ya que A0 resulta de multiplicar la primera fila da A por 2.
Si descomponemos
µ ¶ µla matriz A de¶la siguiente manera tenemos:
3 2 1+2 1+1
A= =
−1 4 −1 4
¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ 2 1 ¯
det A = ¯¯ ¯+¯ ¯ = 4 + 1 + 8 + 1 = 14
−1 4 ¯ ¯ −1 4 ¯
µ ¶
0 3 2
Sea ahora A = , entonces det A0 = (3 × 2) − (3 × 2) = 6 − 6 = 0
3 2
CAPÍTULO 1. MATRICES Álgebra Lineal 33

Propiedades de los determinantes

Una función determinante tiene las siguientes propiedades:

1. Si A tiene una fila de ceros, entonces det A = 0.

2. El determinante cambia de signo si se intercambian dos filas consecutivas de la matriz.

3. El determinante cambia de signo si se intercambian dos filas cualesquiera de la matriz.

4. Si se multiplica una fila de una matriz A por un escalar y se suma a otro, el deteminante
no varı́a.

5. El determinante se anula si A tiene filas (columnas) linealmente dependientes.

Teorema 1.2.2 Si A es una matriz diagonal, entonces el determinante de A es el producto


de las entradas diagonales.
µ ¶
2 0
Ejemplo 1.2.2 Sea A = . Calcular su determinante
0 5

Solución: Por el Teorema 1.2.2 tenemos que

det A = 2 × 5 = 10 ♣

Ejemplo 1.2.3 Calcular los siguientes determinantes:


¯ ¯
¯ 2 −3 ¯
1. ¯¯ ¯
4 7 ¯
¯ ¯
¯ 1 3 2 ¯
¯ ¯
2. ¯¯ −1 0 4 ¯
¯
¯ 6 0 5 ¯
¯ ¯
¯ 4 1 1 ¯
¯ ¯
3. ¯¯ −2 6 9 ¯
¯
¯ 4 1 1 ¯

Solución:
¯ ¯
¯ 2 −3 ¯
1. ¯¯ ¯ = (2 × 7) − (4 × −3) = 14 + 12 = 26
¯
4 7

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.2. DETERMINANTES Álgebra Lineal 34

¯ ¯
¯ 1 3 2 ¯
¯ ¯
2. ¯¯ −1 0 4 ¯¯
¯ 6 0 5 ¯
Como no se ha definido aún la forma de calcular el determinante de una matriz de orden
3 × 3, utilizando las propiedades podemos convertir esta matriz en una matriz diagonal
y utilizar el Teorema 1.2.2. Es decir, haciendo primeramente 1A1 + A2 , tenemos
¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ −1 0 4 ¯ = ¯ 0 3 6 ¯
¯ ¯ ¯ ¯
¯ 6 0 5 ¯ ¯ 6 0 5 ¯

Si hacemos ahora en la nueva matriz, −6A1 + A3 , nos queda


¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ 0 3 6 ¯=¯ 0 3 6 ¯
¯ ¯ ¯ ¯
¯ 6 0 5 ¯ ¯ 0 −18 −7 ¯

Haciendo 6A2 + A3 queda


¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ 0 3 6 ¯=¯ 0 3 6 ¯
¯ ¯ ¯ ¯
¯ 0 −18 −7 ¯ ¯ 0 0 29 ¯

−6
luego A
29 3
+ A2 deja ¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ 0 3 6 ¯=¯ 0 3 0 ¯
¯ ¯ ¯ ¯
¯ 0 0 29 ¯ ¯ 0 0 29 ¯
−2
haciendo A
29 3
+ A1 , tenemos ¯ ¯
¯ 1 3 0 ¯
¯ ¯
¯ 0 3 0 ¯
¯ ¯
¯ 0 0 29 ¯
y por último haciendo −A2 + A1 , tenemos que
¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 0 0 ¯
¯ ¯ ¯ ¯
¯ −1 0 4 ¯ = ¯ 0 3 0 ¯
¯ ¯ ¯ ¯
¯ 6 0 5 ¯ ¯ 0 0 29 ¯

y por el Teorema 1.2.2


¯ ¯
¯ 1 0 0 ¯
¯ ¯
¯ 0 3 0 ¯ = 1 × 3 × 29 = 87
¯ ¯
¯ 0 0 29 ¯
CAPÍTULO 1. MATRICES Álgebra Lineal 35

3. El determinante es cero pues la matriz tiene dos filas iguales.

y ası́ hemos calculado todos los determinante pedidos ♣

Teorema 1.2.3 Si U es una matriz triangular superior (inferior), su determinante es el


producto de los elementos diagonales.

Observación: Este teorema simplifica el trabajo a la hora de calcular determinantes,


pues si se tiene una matriz cualquiera de orden n × n, puede ser convertida en una matriz
triangular superior, utilizando las propiedades ya antes vistas, que es más fácil que convertirla
en una matriz diagonal.

Teorema 1.2.4 Para dos matrices An y Bn se tiene det(AB) = det A × det B

Teorema 1.2.5 Si A es una matriz no singular, entonces det A 6= 0 y


det A−1 = det1 A

1.2.1. Determinante de una matriz n × n


Definición 1.2.2 Sea An×n se llama menor Aij a la matriz (n−1)×(n−1) que se obtiene
al suprimir la fila i y la columna j.

Ejemplo 1.2.4 Obtener A23 y A31 de la matriz


 
3 1 2

A= 0 2 2
1 3 1

Solución: Los menores A23 y A31 están dados por


µ ¶ µ ¶
3 1 1 2
A23 = y A31 = ♣
1 3 2 2

Definición 1.2.3 El número (−1)i+j det Aij se llama cofactor ij.

Ejemplo 1.2.5 Obtener cof a23 y cof a31 de la matriz


 
3 1 2
A = 0 2 2
1 3 1
1.2. DETERMINANTES Álgebra Lineal 36

Solución: Los cofactores cof a23 y cof a31 son


¯ ¯
¯
5¯ 3 1
¯
cof a23 = (−1) ¯ ¯ = −(9 − 1) = −8
1 3 ¯

y ¯ ¯
¯ 1 2 ¯
cof a31 = (−1) ¯¯
4 ¯ = (2 − 4) = −2 ♣
¯
2 2

Definición 1.2.4 Sea An×n podemos desarrollar det A a lo largo de cualquier fila o colum-
na por la fórmula:
Pn
det A = aij (−1)i+j det Aij
i=1
Pn
det A = aij cof aij
i=1

Matriz Cofactor

Definición 1.2.5 Sea An×n . Se llama matriz cofactor de A (cof A), a la matriz formada
por los cofactores de cada uno de los elementos de A.

 
c11 c12 . . . c1n
 c21 c22 . . . c2n 
cof A = 
 ... .. .. .. 
. . . 
cn1 cn2 . . . cnn

Matriz Adjunta

Definición 1.2.6 La matriz adjunta de A es la matriz (cof A)t .

Ejemplo 1.2.6 Para la matriz


 
1 −6 2
A = 4 3 5
5 −1 1

hallar cof A y Adj A

Solución: Para la matriz A tenemos


 
8 21 −19
cof A =  4 −9 −29 
−36 3 27
CAPÍTULO 1. MATRICES Álgebra Lineal 37

y
 
8 4 −36
Adj A =  21 −9 3  ♣
−19 −9 27

Teorema 1.2.6 Para cualquier matriz An×n , n ≥ 2 se tiene A(Adj A) = (det)I


1
Teorema 1.2.7 Si det A 6= 0, A tiene inversa y se tiene que A−1 = det A
Adj A.

Ejemplo 1.2.7 Utilice determinantes para hallar la inversa de la matriz A, si existe, donde
 
0 1 2
A = 1 2 0
1 3 4

Solución:
¯ ¯ ¯ ¯
¯ 1 0 ¯ ¯ 1 2 ¯
det A = − ¯¯ ¯ + 2¯ ¯ ¯ = −4 + 2(3 − 2) = −4 + 2 = −2 6= 0⇒A tiene inversa
1 4 ¯ 1 3 ¯
¯ ¯ ¯ ¯
¯ 8 −4 1 ¯ ¯ 8 2 −4 ¯
¯ ¯ ¯ ¯
cof A = ¯¯ 2 −2 1 ¯¯ ⇒ Adj A = ¯¯ −4 −2 2 ¯¯
¯ −4 2 −1 ¯ ¯ 1 1 −1 ¯
   
8 2 −4 −4 −1 2
1
A−1 = −  −4 −2 2 = 2 1 −1  ♣
2
1 1 −1 − 2 − 12
1 1
2

Teorema 1.2.8 Para toda matriz An×n se tiene que det A = det At

Teorema 1.2.9 Un conjunto de vectores A1 , A2 , . . . , An de Rn es linealmente independiente


si y sólo si
det(A1 , A2 , . . . , An ) 6= 0
1.2. DETERMINANTES Álgebra Lineal 38

Ejercicios 1.2.1

1. Evalúe cada uno de los siguientes determinantes


¯ ¯
¯ 1 −6 2 ¯
¯ ¯
a) ¯¯ 4 3 5 ¯¯
¯ 5 1 1 ¯
¯ ¯
¯ 1 0 0 ¯
¯ ¯
b) ¯¯ 0 0 1 ¯¯
¯ 0 1 0 ¯
¯ ¯
¯ 2 1 0 ¯
¯ ¯
c) ¯¯ 2 2 3 ¯¯
¯ −4 −2 0 ¯
   
1 −6 2 3 0 0
2. Si A =  4 3 5  y B =  0 2 0  verifique que
2 1 1 1 1 2

det(AB) = det A × det B


¯ ¯
¯ a b c ¯
¯ ¯
3. Si ¯¯ d e f ¯¯ = 3, encuentre
¯ g h i ¯
¯ ¯
¯ g h j ¯
¯ ¯
a) ¯¯ d e f ¯¯
¯ 2a 2b 2c ¯
¯ ¯
¯ a b c ¯
¯ ¯
b) ¯¯ a + c b + e c + f ¯¯
¯ 3g 3h 3i ¯
¯ ¯
¯ k k ¯
4. Determinar los valores de k para lo que ¯¯ ¯=0
4 2k ¯
¯ ¯ ¯ ¯
¯ a b c ¯ ¯ a b c ¯
¯ ¯ ¯ ¯
5. Dado ¯¯ d e f ¯¯ = −5, calcule ¯¯ d + 4g e + 4h f + 4i ¯¯
¯ g h i ¯ ¯ g h i ¯
¯ ¯ ¯ ¯
¯ a1 + db1 + ec1 a2 + d2 + ec2 a3 + db3 + ec3 ¯ ¯ a1 a2 a3 ¯
¯ ¯ ¯ ¯
6. Demuestre que ¯¯ b1 b2 b3 ¯ = ¯ b1 b2 b3 ¯
¯ ¯ ¯
¯ c1 c2 c3 ¯ ¯ c1 c2 c3 ¯
CAPÍTULO 1. MATRICES Álgebra Lineal 39

7. Supongamos que det A = k. Encuentre det(cA) si A es:

a) Una matriz de 2 × 2
b) Una matriz de 3 × 3
c) Una matriz de n × n

8. Verifique si se cumplen las siguientes afirmaciones:

a) det(AB) = det(BA)
b) Si det A = 0, entonces A = 0
c) det(A + B) = det A + det B

9. Demuestre que si A = At , entonces det A = ±1

10. Si A4 = In , entonces det A = 1

11. Si A2 = In , entonces det A = 0

12. Si B = P AP −1 y P es no singular, entonces det B = det A

13. Demostrar que det {(A + B)2 } = {det(A + B)}2

14. ¿Se cumple que det {(A + B)2 } = det(A2 + 2AB + B 2 )?

15. Demuestre que si At = A−1 , entonces det A = ±1

16. Demuestre que si A es diagonal, entonces Adj(A) es diagonal

17. Pruebe que si A es una matriz simétrica, entonces Adj A es también simétrica
1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 40

1.3. Autovalores y Autovectores


Definición 1.3.1 Sea T : V → V un operador lineal. El vector V 6= 0 es un autovector
(eingevector) de T si existe un escalar λ tal que T (V ) = λV .

Notar que esta definición implica que un autovector es aquel cuya dirección no se mo-
difica al transformarlo.

Ejemplo 1.3.1 Sea T (x, y) = (4x + 5y, 2x + y), comprobar que el vector V = (5, 2) es un
autovector de T

Solución: El vector V = (5, 2) es un autovector de T porque T (5, 2) = (30, 2) = 6(5, 2),


donde λ = 6. A λ se lo llama autovalor (eingevalor) asociado al autovector. ♣

Determinación de autovalores y autovectores.

Si A es la matriz de T en la base canónica y V es un autovector asociado al autovalor λ


se tiene que:
AV = λV
AV = λIV
AV − λIV = 0
(A − λI)V = 0

(Sistema Lineal Homogéneo)

Este sistema tiene solución única si det A 6= 0, en este caso la solución será V = 0, pero
como V 6= 0 por ser un autovector, entonces debe ser det(A − λI) = 0 para que el sistema
tenga infinitas soluciones.

Haciendo det(A−λI) = 0 obtendremos los autovalores y reemplazando en (A−λI)V = 0


obtembremos los autovectores.

La ecuación det(A − λI) = 0 se llama ecuación caracterı́stica. El primer miembro de


la ecuación: det(A − λI), es un polinomio en λ de grado n, siendo An×n . Esta expresión se
llama polinomio caracterı́stico.

Ejemplo 1.3.2 Obtener el polinomio caracterı́stico, la ecuación caracterı́stica, los autova-


lores y autovectores de la matriz:
µ ¶
2 −5
A=
−2 −1

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 41

Solución: Sabemos que: µ ¶


1 0
I=
0 1
µ ¶
λ 0
⇒ λI =
0 λ
µ ¶
2−λ −5
A − λI =
−2 −1 − λ
¯ ¯
¯ 2−λ −5 ¯
⇒ det(A − λI) = ¯¯ ¯ = 0 o sea
¯
−2 −1 − λ
(2 − λ)(−1 − λ) − 10 = 0
−2 − 2λ + λ + λ2 − 10 = 0
λ2 − λ − 12 = 0

Ecuación caracterı́stica: λ2 − λ − 12 = 0
Polinomio caracterı́stico: P (λ) = λ2 − λ − 12

Autovalores:
2
λ − λ − 12 = 0
(λ − 4)(λ + 3) = 0
λ1= = 4 λ2 = −3
Autovectores:
Para
µ λ1 = 4¶tenemos
µ ¶ queµ (A¶− λI)V = 0 es:
−2 −5 x 0 −2x − 5y = 0
= ⇒ , de lo cual se obtiene:
−2 −5 y 0 −2x − 5y = 0
x = − 25 y ⇒ V1 = (− 52 y, y), con y 6= 0
Para
µ λ2 = −3 tenemos:
¶ µ ¶ µ ¶
5 −5 x 0 5x − 5y = 0
= ⇒ , de lo cual se obtiene: x = y ⇒ V2 =
−2 2 y 0 −2x + 2y = 0
(y, y), con y 6= 0 ♣

Ejemplo 1.3.3 Obtener el polinomio caracterı́stico, la ecuación caracterı́stica, los autova-


lores y autovectores de la matriz:
 
6 10 −28
A =  −2 −3 4 
1 2 −7

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 42

 
λ 0 0
Solución: Ahora tenemos que λI =  0 λ 0 
  0 0 λ ¯ ¯
6−λ 10 −28 ¯ 6−λ 10 −28 ¯
¯ ¯
⇒ A−λI =  −1 −3 − λ 4  ¯
, entonces det (A−λI) = ¯ −1 −3 − λ 4 ¯=
¯
1 2 −7 − λ ¯ 1 2 −7 − λ ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 3−λ 4 ¯ ¯ ¯ ¯ ¯
(6−λ) ¯¯ ¯ −10 ¯ −2 4 ¯ −28 ¯ −2 −3 − λ ¯ = 0 de lo cual obtenemos
2 −7 − λ ¯ ¯ 1 −7 − λ ¯ ¯ 1 2 ¯

que:
(3 − λ) [(−3 − λ)(−7 − λ) + 40(−λ − 3)] = 0, entonces tenemos que λ1 = −3, λ2 = −2,
λ3 = 1 Distribuyendo el polinomio anterior obtenemos:
Ecuación caracterı́stica: λ3 + 4λ2 + λ − 6 = 0
Polinomio caracterı́stico: P (λ) = λ3 + 4λ2 + λ − 6 Autovectores:
 
x
Para λ1 = −3, evaluando en la matriz A − λI y multiplicando por el vector  y , igua-
  z
0
lando al vector  0  y resolviendo el sistema tenemos que V1 = (2z, z, z)), con z 6= 0
0
Para λ2 = −2, obtenemos V2 = (z, 2z, z), con z 6= 0
Para λ3 = 1, obtenemos V3 = (−2y, y, 0), con y 6= 0 ♣

1.3.1. Propiedades de los Autovalores


1. Si λ es un autovalor de A, entonces λr es un autovalor de Ar . En particular, si A es no
singular, λ 6= 0 y λ−1 es un autovalor de A−1 .

2. Los autovalores de una matriz y de su transpuesta son los mismos.

3. La suma de los autovalores de A es igual a la traza


X
tr(A) = λi

4. El producto de los autovalores de A es igual al determinante


Y
|A| = λi

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 43

5. Si P es no singular, las matrices A y P −1 AP tienen los mismos autovalores.

6. Las matrices A y A ± I tienen los mismos autovectores y si λ es un autovalor de A,


λ ± 1 es un autovalor de A ± I

7. Las matrices cuadradas ABC,BCA y CAB, donde las matrices A, B y C son generales
con la condición de que los productos existan, tienen los mismos autovalores no nulos.

8. Si A es triangular los autovalores son los elementos diagonales.

9. Si V es un autovector de una matriz A asociado al autovalor λ, entonces el vector aV ,


con a 6= 0, es también un autovector de A asociado con el mismo λ.

10. Cada autovector de una matriz A está asociado a un solo autovalor.

11. Si λ es un autovalor de A, entonces el conjunto Sλ de todos los autovectores asociados


a λ, junto con el vector 0, es un subespacio.

12. Si λ1 , λ2 , . . . , λn son autovalores distintos de una matriz An×n con autovectores V1 ,


V2 , . . . , Vn , respectivamente entonces {V1 , V2 , . . . , Vn } es linealmente independiente.

Definición 1.3.2 Sea λ un autovalor de una matriz A, se llama multiplicidad geométri-


ca de λ a la dimensión del subespacio Sλ .

Matrices Semejantes

Definición 1.3.3 Sean A y B matrices de n × n. Decimos que A es semejante a B


si existe una matriz P invertible de n × n tal que P −1 AP = B. Si A es semejante a B,
escribimos A ∼ B.

Observaciones:
D Si A ∼ B, podemos escribir, de manera equivalente, que A = P BP −1 o que AP = P B

D La semejanza es una relación entre matrices cuadradas en el mismo sentido que la


relación ”menor o igual” entre números enteros.

D De la misma forma que entre los enteros a ≤ b no implica que b ≤ a podrı́amos


suponer que A ∼ B no implica B ∼ A, pero de hecho se cumple, aunque no se derive
esto directamente de la definición.

D La matriz P depende de A y B. No es la única de un par dado de matrices A y B.


Como ejemplo tomemos el caso en donde A = B = I, de donde I ∼ I, puesto que
P −1 IP = I para cualquier matriz invertible P .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 44

Ejemplo 1.3.4 comprobar que A y B son semejantes, donde


µ ¶
1 2
A=
0 −1

y µ ¶
1 0
B=
−2 −1

Solución: A ∼ B, debido a que


µ ¶µ ¶ µ ¶ µ ¶µ ¶
1 2 1 −1 3 1 1 −1 1 0
= =
0 −1 1 1 −1 −1 1 1 −2 −1
µ ¶
1 −1
De este modo, AP = P B con P = ♣
1 1

Teorema 1.3.1 Sean A,B y C matrices de n × n.


a-) A ∼ A.
b-) Si A ∼ B, entonces B ∼ A.
c-) Si A ∼ B y B ∼ C, entonces A ∼ C.

Observación: Notar que estas tres propiedades forman una relación de equivalencia.

Teorema 1.3.2 Sean A y B matrices de n × n con A ∼ B. Entonces

¬ det A = det B

­ A es invertible si y sólo si B también lo es.

® A y B tienen el mismo rango.

¯ A y B tienen el mismo polinomio caracterı́stico.

° A y B tienen los mismo autovalores.

Observación: La inversa de este teorema no siempre es cierto. Es decir, dos matrices


pueden cumplir todas las propiedades y aún ası́ no ser semejantes. Este teorema es mas bien
para demostrar que dos matrices no son semejantes.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 45

1.3.2. Diagonalización
Definición 1.3.4 Una matriz A de n × n es diagonalizable si existe una matriz diagonal
D tal que A sea semejante a D; es decir, si existe una matriz P invertible de n × n tal que
P −1 AP = D

Ejemplo 1.3.5 Comprobar que la matriz A es diagonalizable, donde


µ ¶
1 3
A=
2 2
µ ¶ µ ¶
1 3 4 0
Solución: A es diagonalizable debido a que, si P = y D = ,
1 −2 0 −1
entonces P −1 AP = D, como puede ser verificado. ♣
(Note que no hace falta calcular P −1 , es más fácil verificar la declaración equivalente
AP = P D).

Teorema 1.3.3 Sea A una matriz de n × n. Entonces A es diagonalizable si y sólo si


A tiene n autovectores linealmente independientes. Con más precisión, existen una matriz
invertible P y una matriz diagonal D tales que P −1 AP = D si y sólo si las columnas de P
son n autovectores linealmente independientes de A y las entradas diagonales de D son los
autovectores de A correspondientes a los autovectores en P en el mismo orden.

Ejemplo 1.3.6 Si es posible, encuentre una matriz P que diagonalice


 
0 1 0
A=  0 0 1 
2 −5 4

Solución: Estudiando esta matriz podemos determinar que sus autovalores son λ1 =
λ2 = 1 y λ3 = 2. Para los autovalores se tienen las siguientes bases:
Para λ1 = λ2 = 1 se tiene (1, 1, 1) Para λ3 = 2 se tiene (1, 2, 4).
Debido a que todos los otros autovalores son simples múltiplos de uno de estos dos
vectores básicos, no puede haber tres autovectores linealmente independientes. Por tanto, de
acuerdo con el Teorema 1.3.3, A no es diagonalizable. ♣

Teorema 1.3.4 Si A es una matriz de n × n con n autovalores distintos, entonces A es


diagonalizable.

Nota: Si quisieramos calcular por ejemplo a partir de una matriz diagonalizable A, su


potencia A10 , podemos hacerlo de la siguiente forma: An = P Dn P −1 para toda n ≥ 1.
µ ¶
10 0 1
Ejemplo 1.3.7 Calcule A si A = .
2 1

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 46

Solución: Los autovalores de la matriz A son λ1 = −1 y λ2 = 2, con los autovectores


−1
V
µ1 = (1, −1)
¶ y V2 µ= (1, 2).¶Entonces A es diagonalizable si P AP = D, donde P =
1 1 −1 0
yD=
−1 2 0 2
Entonces por la fórmula anterior tenemos que:
µ ¶µ ¶µ 2 1
¶ µ ¶
10 10 −1 1 1 (−1)10 0 − 342 341
A = PD P 3
1
3
1 = ♣
−1 2 0 210 3 3
682 683

1.3.3. Diagonalización de matrices simétricas.


Teorema 1.3.5 Si A es una matriz simétrica y det (A − λI) = 0 es su ecuación carac-
terı́stica, entonces los autovalores de A son siempre reales.

Definición 1.3.5 Una matriz Qn×n es ortogonal si sus columnas son ortonormales. Si
Q es ortogonal se cumple que Q−1 = Qt .

Definición 1.3.6 Una matriz An×n es ortogonalmente diagonalizable si y sólo si exis-


te una matriz Q ortogonal tal que Q−1 AQ = Qt AQ = D, siendo D diagonal.

Teorema 1.3.6 (Teorema espectral) Una matriz es ortogonalmente diagonalizable si y


sólo si es simétrica.

El teorema espectral nos permite expresar una matriz simétrica real A en la forma
A = QDQt , donde Q es ortogonal y D es diagonal. Las entradas diagonales de D son
precisamente los autovalores de A, y si las columnas de Q son los vectores ortonormales
V1 , . . . , Vn , entonces, por medio de la representación renglón-columna del producto tenemos
que   
λ1 . . . 0 V1t
¡ t ¢  
A = QDQt = V1 , . . . , Vnt  ... . . . ...   ... 
0 . . . λn V1t

 
V1t
¡ ¢ 
= λ1 V1t , . . . , λn Vnt  ... 
V1t

= λ1 V1 V1t + λ2 V2 V2t + . . . + λn Vn Vnt


Este procedimiento se conoce como descomposición espectral de A.

A = λ1 V1 V1t + λ2 V2 V2t + . . . + λn Vn Vnt

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 47

se denomina forma de proyección del teorema espectral.


Observar que la descomposición espectral de A−1 es

A−1 = λ−1 t −1 t −1
1 V1 V1 + λ2 V2 V2 + . . . + λn Vn Vn
t

ya que A−1 tiene los mismos vectores propios que A y valores propios λ−1
i .

1.3.4. Formas Cuadráticas.


Una expresión de la forma
ax2 + by2 + cxy
se denomina forma cuadrática en x y y. De manera similar,

ax2 + by2 + cz 2 + dxy + exz + f yz

es una forma cuadrática en x, y y z.

Una forma cuadrática es una suma de términos, cada uno de los cuales tiene grado dos en
todas las variables. Por tanto, 5x2 −3y 2 +2xy es una forma cuadrática, pero x2 +y 2 +x no lo es.

Podemos representar formas cuadráticas utilizando matrices como se muestra a conti-


nuación: µ ¶µ ¶
2 2
¡ ¢ a c x
ax + b + cxy = x y c
2
2
b y
y
  
¡ ¢ a d2 2e x
2 2 2
ax + by + cz + dxy + exz + f yz = x y z  d f 
b 2 y 
2
e f
2 2
c z
Definición 1.3.7 Una forma cuadrática en n variables es una función
f : Rn −→ R de la forma
f (x) = X t AX
donde A es una matriz simétrica de n×n y X se encuentra en Rn . A se denomina la matriz
asociada con f

Teorema 1.3.7 (Teorema de los ejes principales) Toda forma cuadrática puede ser
diagonalizada. Especı́ficamente, si A es la matriz simétrica de n × n asociada con la forma
cuadrática X t AX y si Q es una matriz ortogonal tal que Qt AQ = D sea una matriz diagonal,
entonces el cambio de variable X = Qy transforma la forma cuadrática X t AX en la forma

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 48

cuadrática Y t DY , la cual
¡ no tiene ¢t términos con productos cruzados. Si los autovalores de A
son λ1 , . . . , λn y Y = y1 . . . yn , entonces

X t AX = Y t DY = λ1 y12 + . . . + λn yn2

Ejemplo 1.3.8 Encuentre un cambio de variable que transforme la forma cuadrática

f (x1 , x2 ) = 5x21 + 4x1 x2 + 2x22

en una que no tenga términos con productos cruzados.

Solución: La matriz de f es
µ ¶
5 2
A=
2 2
con autovalores λ1 = 6 y λ2 = 1. Los autovectores unitarios correspondientes son:
à ! à !
√2 √1
5 5
V1 = √1
y V2 =
5
− √25

Si hacemos que à ! µ ¶
√2 √1 6 0
5 5
Q= √1
y D=
5
− √25 0 1

entonces Qt AQ = D. El cambio de variable X = QY , donde


µ ¶ µ ¶
x1 y1
X= yY =
x2 y2

convierte a f en
µ ¶µ ¶
¡ ¢ 6 0 y1
f (y) = f (y1 , y2 ) = y1 y2 = 6y12 + y22 ♣
0 1 y2

Definición 1.3.8 Una forma cuadrática f (x) = X t AX se clasifica como uno de los si-
guientes tipos:

1. definida positiva si f (x) > 0 para toda X 6= 0.

2. semidefinida positiva si f (x) ≥ 0 para toda X.

3. definida negativa si f (x) < 0 para toda X 6= 0.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 49

4. semidefinida negativa si f (x) ≤ 0 para toda X.


5. indefinida si f (x) toma tanto valores negativos como positivos.
Una matriz simétrica A se denomina definida positiva, semidefinida positiva, de-
finida negativa, semidefinida negativa o indefinida si la forma cuadrática asociada
f (x) = X t AX tiene la propiedad correspondiente.

Teorema 1.3.8 Sea A una matriz simétrica de n × n. La forma cuadrática f (x) = X t AX


es
1. definida positiva si y sólo si todos los autovalores de A son positivos.
2. semidefinida positiva si y sólo si todos los autovalores de A son no negativos.
3. definida negativa si y sólo si todos los autovalores de A son negativos.
4. semidefinida negativa si y sólo si todos los autovalores de A son no positivos.
5. indefinida si y sólo si A tiene autovalores tanto positivos como negativos.

1.3.5. Conceptos Adicionales

Descomposición en valores singulares


Para matrices rectangulares generales puede conseguirse una descomposición similar a la
descomposición espectral de una matriz simétrica. Toda matriz rectangular A de dimensiones
(n×p) y de rango r puede expresarse como producto de tres matrices, dos de ellas ortogonales
y la tercera diagonal. La descomposión es
A = U D1/2 V t
donde U es (n × r), D1/2 es (r × r) y V t es (r × p). La matriz D1/2 es diagonal, y contiene las
raı́ces cuadradas de los valores propios no nulos de las matrices AAt o At A, que son positivos.
Estos términos diagonales de D1/2 se denominan los valores singulares de la matriz A. La
matriz U contiene en columnas los vectores propios de norma unidad asociados a los valores
propios no nulos de AAt y V contiene en columnas los vectores propios de norma unidad
asociados a valores propios no nulos de AAt . Las columnas de U son ortogonales entre sı́ y
también lo serán las de V .
La matriz A puede expresarse de forma similar a la descomposición espectral como
r
X
A= di ui vit
i=1

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 50

donde ui son los vectores n × 1 que forman las columnas de U , vit los vectores 1 × p que
forma las filas de V t y di los autovalores de la matriz A.
Observemos que si la matriz U contiene los vectores propios de norma unidad de AAt entonces
como AAt ui = λi ui implica multiplicando por At que (At A)At ui = λi At ui = λi wi y el vector
wi = At ui es un vector propio de At A. Sin embargo este vector propio no tiene norma unidad
que wit wi = uti AAt ui = λi . Los vectores propios de At A de norma unidad vienen dados por

V = At U D1/2

Inversa Generalizada

Definición 1.3.9 Se denomina matriz inversa generalizada de una matriz rectangular An×p
a una matriz A− de dimensiones p × n que verifica:

AA− A = A

Lo cual implica que multiplicando por A− por la derecha tenemos

(AA− )(AA− ) = AA−

y la matriz AA− debe ser idempotente. De la misma forma si multiplicaramos ambos miem-
bros A− también se obtiene una matriz idempotente. En general, existen muchas matrices
que verifican esta condición. Si además imponemos las condiciones:

A− AA− = simétrica
A− A = simétrica
AA− = simétrica

entonces A− es única y se denomina la matriz inversa generalizada de Moore-Penrose


(MP) de A. Si n > p y A tiene rango completo, rango(A) = p, la matriz inversa MP es:

A− = (At A)−1 At

Si p > n y rango(A) = n, esta matriz es

A− = At (AAt )−1

Si A no tiene rango completo esta expresión no es válida ya que At A y AAt son singulares. La
inversa MP se construye a partir de la descomposición espectral de la matriz At A(supuesto
n > p). Si λ1 , . . . , λr , r < p, son los valores propios no nulos de At A y V1 , . . . , Vr sus vectores
propios asociados podemos escribir:

At A = V DV t

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 51

donde V es rectangular p × r con los vectores ui en columnas y D es diagonal r × r e incluye


los valores propios no nulos. Entonces, es fácil comprobar que

A− = V D−1 V t At

que es la generalización de la inversa (MP) anterior, para matrices de rango no completo. Sus-
tituyendo At en esta expresión por su descomposición en valores singulares, At = V D1/2 U t ,
tenemos que
A− = V D1/2 U t
donde U es la matriz que tiene en sus columnas los autovectores unitarios de la matriz At A,
que es una expresión simple de la inversa generalizada A− .

Ejercicios 1.3.1

1. Para cada una de las siguientes matrices obtenga los autovalores y autovectores. De-
termine para cada λ la multiplicidad geométrica.
 
2 −2 3
a) A =  10 −4 5 
5 −4 6
 
1 3 2
b) A =  −1 2 1 
4 −1 1

2. Pruebe que si λ es un autovalor de A, (aλ) es un autovalor de (aA) para todo escalar


a.

3. Sea A una matriz diagonal, determine los autovalores y autovectores de A

4. Utilizando la definición, verificar si los vectores dados son autovectores de las corres-
pondientes matrices
µ ¶
2 2
a) a-)A = , V = (−2, 1)
1 3
 
1 −1 0
b) A =  2 3 2 , V = (−2, 1, 3)
1 2 1

5. Demostrar que A y At poseen los mismos autovalores.


µ ¶
a b
6. Prueba que la matriz A = , tiene
c d

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 52

a) Dos autovalores si (a − d)2 + 4bc > 0


b) Un autovalor si (a − d)2 + 4bc = 0
c) Ningún autovalor real si (a − d)2 + 4bc < 0
µ ¶
cos θ − sen θ
7. Pruebe que la matriz A = , no tiene autovalores reales para 0 <
sin θ cos θ
θ < π.

8. Sea A una matriz invertible con un autovalor λ 6= 0. Pruebe que λ−1 es un autovalor
de A−1 .

9. Demuestre que, para cualquier matriz cuadrada A, At y A tienen el mismo polinomio


caracterı́stico y por lo tanto los mismo autovalores.

10. Demuestre que λ = 0 y λ = 1 son los únicos autovaloresposibles de una matriz idem-
potente (es decir, una matriz que es igual a sı́ misma cuando se eleva al cuadrado).

11. Si V es un autovector de A con autovalor correspondiente λ y c es un escalar, demuestre


que V es un autovector de A − cI con autovalor correspondiente λ − c.

12. Sean A y B matrices de n × n. Demuestre que la suma de todos los autovalores de


A + B es la suma de todos los autovalores de A y B individualmente. Demuestre que
el producto de todos los autovalores de AB es el producto de todos los autovalores de
A y B individualmente.

13. Determine si la matriz dada es diagonalizable. Si asi fuera, encuentre la matriz C que
diagonaliza la matriz dada.
 
1 −1 1
a) A =  0 −1 −1 
0 4 3
 
−1 1 −1
b) A =  0 3 −2 
0 1 0
14. Probar que si A es semejante a B, entonces cA es semejante a cB, en donde c es un
escalar.

15. Probar que A es semejante a A para toda matriz An×n

16. Demuestre que si A es semejante a B y B es semejante a C, entonces A es semejante


a C.

17. Pruebe que si A es diagonalizable, entonces At es diagonalizable.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 1. MATRICES Álgebra Lineal 53

µ ¶
a b
18. Demuestre que si b 6= 0, la matriz no es diagonalizable.
0 a

19. Sean A y B matrices semejantes. Pruebe que A es diagonalizable si y sólo si B es


diagonalizable.

20. Demuestre que las matrices A y B no son semejantes.


   
2 1 4 1 0 0
A=  0 2 3  , B =  −1 4 0 
0 0 4 2 3 4

21. Calcule las siguientes matrices


µ ¶9
−4 6
a)
−3 5
 8
2 1 2
b)  2 1 2 
2 1 2

22. Demuestre que si A es semejante a B, entonces At es semejante a B t .

23. Dadas las siguientes matrices, encuentre una matriz ortogonal que las diagonalice
µ ¶
1 5
a) A =
5 1
 
27 0 9
b) A =  0 10 0 
9 0 3
 
0 1 0
24. Determinar si la matriz A =  1 0 0  es ortogonal y si lo es, encontrar su
√1 0 √1
2 2
inversa.

25. Encuentre la última columna o fila de manera que la matriz resultante sea ortogonal
µ 1 ¶
√ − √1
a) A = 2 2

 3

0 5
b) A =  0 4
5

0 1

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 54

26. Demuestre que si A es una matriz ortogonal, entonces det A = ±1


µ ¶
cos θ − sin θ
27. Demuestre que la matriz Q = es una matriz ortogonal.
sin θ cos θ
28. Sea Q una matriz ortogonal simétrica, demuestre que si λ es un autovalor de Q, entonces
λ = ±1

29. Demuestre que si A es una matriz simétrica, entonces sus autovalores son siempre
reales.

30. Si A es una matriz invertible ortogonalmente diagonalizable, demuestre que A−1 tam-
bién lo es.

31. Si A y B son ortogonalmente diagonalizables y AB = BA, demuestre que AB es


ortogonalmente diagonalizable.

32. Si A es una matriz simétrica, demuestre que todo autovalor de A es no negativo si y


sólo si A = B 2 para alguna matriz simétrica B.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


Capı́tulo 2

Espacios Vectoriales

2.1. Introducción
Debido a que entidades tan diversas como las fuerzas que operan en un plano y los
polinomios con coeficientes reales permiten definiciones naturales de suma y multiplicación
por escalares que poseen ciertas propiedades, es necesario abstraer dichas propiedades en la
siguiente definición.

Definición 2.1.1 Un espacio vectorial (o espacio lineal) V sobre un campo1 F consiste de


un conjunto en el que están definidas dos operaciones (llamadas adición y multiplicación por
escalares, respectivamente), tal que para cualquier par de elementos x e y en V exista un
elemento único x + y en V , y para cada elemento a en F y cada elemento x en V exista un
elemento único ax en V , de manera que se cumplan las siguientes condiciones:

(EV 1) Para toda x, y en V , x + y = y + x (conmutatividad de la adición).

(EV 2) Para toda x, y, z en V , (x + y) + z = x + (y + z) (asociatividad de la adición).

(EV 3) Existe un elemento en V llamado 0 tal que x + 0 = x para toda x en V .

(EV 4) Para cada elemento x en V , existe un elemento y en V tal que x + y = 0.

(EV 5) Para cada elemento x en V , 1 · x = x.

(EV 6) Para cada par a, b de elementos en F y cada elemento x en V , se tiene que (ab)x =
a(bx).
1
Con muy pocas excepciones, podemos interpretar la palabra“campo” como “campo de los números
reales”(denotado por R) o “campo de los números complejos”(denotado por C).

55
2.1. INTRODUCCIÓN Álgebra Lineal 56

(EV 7) Para cada elemento a en F y cada par de elementos x,y en V , tenemos que a(x + y) =
ax + ay.
(EV 8) Para cada par de elementos a, b en F y cada elemento x en V ,se cumple que (a+b)x =
ax + bx.
Los elementos x + y y ax se denominan, respectivamente, suma de x e y y el producto de a
y x. Los elementos del campo F se llaman escalares y los elementos del espacio vectorial V
se llaman vectores.
Frecuentemente, un espacio vectorial será tratado en el texto sin mencionar explı́cita-
mente su campo de escalares. En el resto de la sección introduciremos diversos ejemplos
importantes de espacios vectoriales que serán estudiados a través del texto. Obsérvese que
al describir un espacio vectorial no sólo es necesario especificar los vectores, también las
operaciones de suma y multiplicación por escalares.
Un objeto de la forma (a1 , . . . , an ), donde los valores o entradas ai son elementos de un
campo F , se denomina n-dimensional con valores de F . Dos n-dimensionales (a1 , . . . , an ) y
(b1 , . . . , bn ) se definen como iguales si y sólo si ai = bi para i = 1, 2, . . . , n.
Ejemplo 2.1.1 El conjunto F n de n-dimensionales con valores de un campo F.
El conjunto de todas las n-dimensionales con valores de un campo F forma un espacio
vectorial bajo las operaciones de suma y multiplicación coordinada (elemento a elemento);
esto es, si x = (a1 , . . . , an ) ∈ F n , y = (b1 , . . . , bn ) ∈ F n y c ∈ F , entonces x + y =
(a1 + b1 , · · · , an + bn ) y cx = (ca1 , . . . , can ), este espacio se denota por F n .
Esto quiere decir, por ejemplo, que en R5
(2, 6, −1, 0, 3) + (−3, 0, 1, 6, 7) = (−1, 6, 0, 6, 10)
y
3 (−4, −1, 2, 6, 4) = (−12, −3, 6, 18, 12)
n
Los elementos de F a menudo conviene escribirlo como vectores columna
 
a1
 .. 
 . 
an
en vez de como vectores filas (a1 , . . . , an ). Puesto que un 1-dimensional con valor de F puede
verse como elemento de F , escribiremos F en vez de F 1 para el espacio vectorial de los
1-dimensionales de F .
Una matriz de m × n con valores de un campo F es un arreglo rectangular de la forma
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. .. 
 . . ··· . 
am1 am2 · · · amn

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 57

donde cada elemento aij (1 ≤ i ≤ m, 1 ≤ j ≤ n) pertenece a F. Los elementos ai1 , ai2 , . . . , ain
de la matriz anterior forman la i-ésima fila de la matriz y se considerarán a menudo como
un vector fila en F n , mientras que los elementos a1j , a2j , . . . , amj forman la columna j-ésima
de la matriz y serán a menudo considerados como un vector columna en F n . La matriz de
m × n en la que cada elemento es igual a 0 se llama matriz cero y si el número de filas es
igual al número de columnas, ésta se denominará cuadrada.
Dos matrices de m × n, A y B se definen como iguales si y sólo si sus elementos corres-
pondientes son iguales; esto es, si y sólo si Aij = Bij para 1 ≤ i ≤ m y 1 ≤ j ≤ n, donde Aij
y Bij son los elementos de la matriz A y B respectivamente.
Ejemplo 2.1.2 El conjunto de todas las matrices de m × n con valores de un campo F
forma un espacio vectorial.
El conjunto de todas las matrices de m × n con valores de un campo F forma un espacio
vectorial bajo las operaciones de suma y multiplicación por escalares siguientes:
Si A y B son dos matrices de m × n y c ∈ F

(A + B)ij = Aij + Bij y (cA)ij = cAij ,

este espacio se denota por Mm×n (F ).

Por ejemplo en M2×3 (R)


µ ¶ µ ¶ µ ¶
2 0 −3 −5 −2 6 −3 −2 3
+ =
4 5 6 1 3 0 5 8 6
y µ ¶ µ ¶
3 2 3 −6 −4 −6
−2 =
5 −1 6 −10 2 −12

Ejemplo 2.1.3 El conjunto de todas las funciones que se definen de un conjunto S no vacio
en un campo F es un espacio vectorial.
Si S es un conjunto no vacı́o y F cualquier campo, el conjunto de todas las funciones que
van de S a F se denota por F(S, F ).
Dos elementos f y g en F(S, F ) se definen como iguales si f (x) = g(x) para cada x ∈ S.
El conjunto F(S, F ) es un espacio vectorial bajo las operaciones de suma y multiplicación
por escalares definidas para f , g, ∈ F(S, F ) y c ∈ F por

(f + g)(x) = f (x) + g(x) y (cg)(x) = c [g(x)]

para cada x ∈ S. Nótese que éstas son las operaciones normales de suma y producto por
escalares utilizadas en cálculo.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.1. INTRODUCCIÓN Álgebra Lineal 58

Un polinomio con coeficientes de un campo F es una suma formal


X
p(x) = an xn
n≥0

donde an ∈ F para todo entero n no negativo y donde existe un m tal que an = 0 si n > m.
En este caso, es más conveniente escribir
X
p(x) = an xn = a0 + a1 x + · · · + am xm .
n≥0

Si am 6= 0, decimos que m es el grado de p(x) y lo denotamos por

δ(p) = m.

Decimos también que a0 , a1 , · · · , am son los coeficientes del polinomio p(x) y que el coe-
ficiente director de p(x) es am . Si am = 1, se dice que el polinomio es mónico. Los
polinomios con coeficientes ai = 0 para i > 0 son llamados constantes y su grado es cero
si a0 6= 0.
El polinomio cero es X
0= 0xn
n≥0

del que decimos que tiene grado −1, con lo que queremos resaltar que tiene grado más
pequeño que los demás polinomios.
Dos polinomios p(x) y q(x) son iguales si y sólo si tienen el mismo grado y los coeficientes
de potencias iguales son iguales.
Cuando F es un campo que contiene un número infinito de elementos, normalmente
consideraremos un polinomio con coeficientes de F como una función de F en F . En este
caso, el valor de la función

p(x) = a0 + a1 x + · · · + am xm .

en c ∈ F , es el escalar
p(c) = a0 + a1 c + a2 c2 · · · + am cm .

Ejemplo 2.1.4 El conjunto de todos los polinomios con coeficientes de un campo F es un


espacio vectorial.
El conjunto de todos los polinomios con coeficientes de un campo F es un espacio vectorial
bajo las siguientes operaciones:
Para
p(x) = a0 + a1 x + · · · + am xm ,

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 59

q(x) = b0 + b1 x + · · · + bm xm
y c ∈ F,
(p + q)(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm
y
(cp)(x) = ca0 + ca1 x + · · · + cam xm
Este espacio vectorial se denota por P (F )

Ejemplo 2.1.5 El conjunto de todas las sucesiones finitas no nulas en un campo F es un


espacio vectorial.

Si F es cualquier campo. Una sucesión en F es una función ϕ de los enteros positivos en F .


Como es usual, la sucesión ϕ tal que ϕ(n) = an , se escribirá como {an }. El espacio vectorial
V de todas las sucesiones finitas no nulas en F está integrado por todas las sucesiones
{an } en F que solamente tienen un número finito de términos no nulos an . Si {an } y {bn }
son sucesiones en V y t ∈ F , entonces {an } + {bn } es aquella sucesión {cn } en V tal que
cn = an + bn (n = 1, 2, . . .), y t {an } es aquella sucesión {dn } en V tal que dn = tan
(n = 1, 2, . . .).
Nuestros dos ejemplos siguientes contienen conjuntos en los que están definidos una suma
y un producto por escalares pero no se trata de espacios vectoriales.

Ejemplo 2.1.6 Sea E = {(a1 , a2 ) : a1 , a2 ∈ R}. Para (a1 , a2 ) , (b1 , b2 ) ∈ E y c ∈ R, se


definen
(a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 − b2 ) y c(a1 , a2 ) = (ca1 , ca2 )

Para ver que E no es un espacio vectorial basta que una de las condiciones de la definición
(2.1.1) no se cumpla.
Como (a1 + b1 , a2 − b2 ) 6= (b1 + a1 , b2 − a2 ) es claro que

(a1 , a2 ) + (b1 , b2 ) 6= (b1 , b2 ) + (a1 , a2 )

y por tanto no se cumple (EV 1), aparte de esta condición tampoco se cumple (EV 2) y
(EV 8), luego E no es un espacio vectorial bajo estas operaciones.

Ejemplo 2.1.7 Sea E el mismo conjunto que aparece en el ejemplo (2.1.6). Para (a1 , a2 ),
(b1 , b2 ) ∈ E y c ∈ R, se definen

(a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , 0) y c(a1 , a2 ) = (ca1 , 0)

Luego, bajo estas operaciones, E no es un espacio vectorial ya que (EV 3) (y por tanto
(EV 4)) y (EV 5) fallan.
Para concluir esta sección se enuncia sin demostración algunas de las consecuencias ele-
mentales de la definición de un espacio vectorial.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.1. INTRODUCCIÓN Álgebra Lineal 60

Teorema 2.1.1 (Ley de cancelación para la suma vectorial) Si u1 , u2 y u3 son ele-


mentos de un espacio vectorial E tal que u1 + u3 = u2 + u3 , entonces u1 = u2

De este teorema se desprenden inmediatamente dos corolarios

Corolario 2.1.2 El vector 0 descrito en (EV 3) es único.

Corolario 2.1.3 El vector “y” descripto en (EV 4) es único.

El vector 0 descrito en (EV 3) se llama vector cero de V , y el vector “y” descripto en


(EV 4) (esto es, el vector único tal que x + y= 0) se llama el inverso aditivo de x y se denota
por −x.
El siguiente resultado contiene algunas de las propiedades elementales de la multiplicación
por escalar.

Teorema 2.1.4 En cualquier espacio vectorial E, son verdaderos los siguientes enunciados:

1. 0 · x = 0 para todo x ∈ E

2. (−a)x = −(ax) para todo a ∈ F y todo x ∈ E

3. a · 0 = 0 para todo a ∈ F

Ejercicios 2.1.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos

a) Todo espacio vectorial contiene un vector cero.


b) Un espacio vectorial puede tener más de un vector cero.
c) En cualquier espacia vectorial ax = bx implica que a = b.
d ) En cualquier espacio vectorial ax = ay implica que x = y.
e) Un elemento de F n puede ser considerado como un elemento de Mn×1 (F ).
f ) Una matriz de m × n tiene “m” columnas y “n” filas.
g) En P (F ) sólo se pueden sumar polinomios del mismo grado.
h) Si p y q son polinomios de grado n, entonces p + q es un polinomio de grado n.
i ) Si p es un polinomio de grado n y c es un escalar no nulo, entonces cp es un
polinomio de grado n.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 61

j ) Un elemento no nulo de F puede considerarse como un elemento de P (F ) de


grado 0.
k ) Dos funciones en F(S, F ) son iguales si y sólo si toman los mismos valores en
cada punto de S.
2. Sea S = {0, 1} y F = R, el campo de los números reales. En F(S, F ), verificar que
f = g y f + g = h donde f (x) = 2x + 1, g(x) = 1 + 4x − 2x2 y h(x) = 5x + 1
3. Verificar que en cualquier espacio vectorial E, (a + b)(x + y) = ax + ay + bx + by para
toda x, y ∈ E y cualquier a y b ∈ F
4. Sea S = {0} que conste de un único vector 0 y defı́nase 0 + 0 = 0 y c0 = 0 para cada
c ∈ F . Verificar que S es un espacio vectorial sobre F. (Este es el espacio vectorial
cero.)
5. Una función de valor real definida sobre la recta de los reales se llama función par si
f (−x) = f (x) para todo número real x. Verificar que el conjunto de las funciones pares
definidas en la recta de los reales, con las operaciones de suma y multiplicación por
escalares definidas en el ejemplo (2.1.3), es un espacio vectorial.
6. Sea E el conjunto de pares ordenados de números reales. Si (a1 , a2 ) y (b1 , b2 ) son
elementos de E y c es un elemento de F , se definen

(a1 , a2 ) + (b1 , b2 ) = (a1 + b2 , a2 b2 ) y c(a1 , a2 ) = (ca1 , a2 )

¿Es E un espacio vectorial bajo esas operaciones? Debe justificar su respuesta.


7. Sea E = {(a1 , . . . , an ) : ai ∈ C para i = 1, 2, . . . , n}. ¿Es E un espacio vectorial sobre
el campo de los números reales con las operaciones de suma y multiplicación con
correspondencia de elementos?
8. Sea E = {(a1 , . . . , an ) : ai ∈ R para i = 1, 2, . . . , n}. ¿Es E un espacio vectorial sobre
el campo de los números complejos con las operaciones de suma y multiplicación con
correspondencia de elementos?
9. Sea S = {(a1 , a2 ) : a1 , a2 ∈ R} . Para (a1 , a2 ), (b1 , b2 ) ∈ S y c ∈ R, defı́nase

(a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 + b2 )

y 
 (0, 0)
 si c = 0
c(a1 , a2 ) = ³ a ´

 ca1 , 2 si c 6= 0
c
¿Es S un espacio vectorial bajo esas operaciones? Debe justificar su respuesta.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.1. INTRODUCCIÓN Álgebra Lineal 62

10. Sea S = {(a1 , a2 ) : a1 , a2 ∈ C} . Para (a1 , a2 ), (b1 , b2 ) ∈ S y c ∈ C, defı́nase

(a1 , a2 ) + (b1 , b2 ) = (a1 + 2b1 , a2 + 3b2 ) y c(a1 , a2 ) = (ca1 , ca2 )

¿Es S un espacio vectorial bajo esas operaciones? Debe justificar su respuesta.

11. Sea V {(a1 , a2 ) : a1 , a2 ∈ F }, donde F es un campo arbitrario. Defı́nase la suma de los


elementos de V elemento a elemento, y para c ∈ F y (a1 , a2 ) ∈ V, defı́nase

c(a1 , a2 ) = (a1 , 0)

¿Es V un espacio vectorial bajo estas operaciones? Debe justificar su respuesta.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 63

2.2. Subespacios Vectoriales


Es común que en el estudio de cualquier estructura algebraica interese examinar subcon-
juntos que tengan la misma estructura que el conjunto que esté siendo considerado. Ası́, la
noción apropiada de subestructura para espacios vectoriales se introduce en esta sección.
Definición 2.2.1 Un subconjunto W de un espacio vectorial E sobre un campo F se llama
un subespacio de E si W es un espacio vectorial sobre F , bajo las operaciones de suma y
multiplicación por escalares definidas en E.

Debemos notar (aunque no sea evidente) que en cualquier espacio vectorial E, los conjuntos
E y {0} son subespacios. Este último se denomina el subespacio cero de E.
Afortunadamente, no es necesario verificar todas las condiciones sobre espacios vectoriales
con el objeto de evidenciar que un subconjunto W de un espacio vectorial E es en realidad
un subespacio. Debemos notar que, las condiciones (EV 1), (EV 2), (EV 5), (EV 6), (EV 7)
y (EV 8) se satisfacen para los elementos de E, y por tanto, automáticamente se cumplen
también para los elementos de un subconjunto W . Luego, un subconjunto W de E es un
subespacio de E si y sólo si las siguientes cuatro condiciones se cumplen:

1. u + v ∈ W siempre que u ∈ W y v ∈ W

2. au ∈ W siempre y cuando a ∈ F y u ∈ W

3. El vector nulo de E es un elemento de W

4. El inverso aditivo de cada elemento de W pertenece a W

En realidad la condición (4) no es necesaria según el siguiente teorema que se enuncia sin
demostración

Teorema 2.2.1 Sea E un espacio vectorial y W un subconjunto de E. Entonces, W es un


subespacio de E si y solo si se cumple las siguientes condiciones:

1. 0 ∈ W

2. u + v ∈ W siempre que u ∈ W y v ∈ W

3. au ∈ W siempre y cuando a ∈ F y u ∈ W

El Teorema (2.2.1) proporciona un método sencillo para determinar si un subconjunto


dado de un espacio vectorial es o no realmente un subespacio. En general, este resultado es
el que se emplea para verificar que un cierto subconjunto es un subespacio.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.2. SUBESPACIOS Álgebra Lineal 64

La transpuesta M t de una matriz M de m × n es la matriz de n × m obtenida a partir


de M mediante el intercambio de filas con columnas; esto es (M t )ij = Mji . Por ejemplo,
 
µ ¶t 1 0
1 −2 3
=  −2 5  .
0 5 1
3 1

Una matriz simétrica es una matriz M tal que M t = M . Evidentemente, una matriz simétri-
ca debe ser cuadrada. El conjunto W de todas las matrices simétricas en Mn×n (F ) es un
subespacio de Mn×n (F ) ya que se satisfacen las condiciones del Teorema (2.2.1), para con-
vencernos notemos que:

1. La matriz cero es igual a su transpuesta y, por tanto, pertenece a W .


Puede probarse fácilmente que para matrices A y B y para escalares a y b cualesquiera,
(aA + bB)t = aAt + bB t . Usando este hecho tenemos lo siguiente:

2. Si A ∈ W y B ∈ W , entonces A = At y B = B t . Ahora bien, (A + B)t = At + B t =


A + B, de modo que A + B ∈ W.

3. Si A ∈ W , entonces A = At . Por tanto, para todo a ∈ F , (aA)t = aAt = aA. Y


ası́ aA ∈ W

Los siguientes ejemplos proporcionan más ilustraciones del concepto de subespacio. Los pri-
meros tres son particularmente importantes.

Ejemplo 2.2.1 Las matrices diagonales en Mn×n (F ) es un subespacio de Mn×n (F )

Una matriz cuadrada D se llama matriz diagonal si todos los valores que no se encuentren
sobre la diagonal principal de D son nulos, esto es, si Dij = 0 para todo i 6= j. En particular
la matriz cero de Mn×n (F ) es diagonal.

Ejemplo 2.2.2 El conjunto de todos los polinomios de grado menor o igual a “n” es un
subespacio de P (F ).

Sea n un entero no negativo y sea Pn (F ) el conjunto de todos los polinomios en P (F ) que


tengan grado menor o igual a n.(Nótese que el polinomio cero es un elemento de Pn (F ) pues
su grado es −1). Luego, Pn (F ) es un subespacio de P (F ).

Ejemplo 2.2.3 El conjunto de todas las funciones f : R → R que sean continuas es un


subespacio vectorial de F(R, R)

El conjunto C(R) formado por todas las funciones continuas de valor real definidas en R es
un subespacio de F(R, R), donde F(R, R) es tal como se definió en el ejemplo (2.1.3).

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 65

Ejemplo 2.2.4 El conjunto de todas las matrices cuadradas que tienen una traza igual a
cero es un subespacio de Mn×n (F )

La traza de una matriz cuadrada M , denotada por tr(M ), es la suma de los valores de M
ubicados en la diagonal principal

Ejemplo 2.2.5 El conjunto de todas las matrices en Mn×n (F ) que únicamente tengan
elementos no negativos no es un subespacio de Mn×n (F )

En este caso no se cumple la condición (3) del Teorema (2.2.1), por ello dicho conjunto de
matrices no es un subespacio vectorial.
Los dos teoremas siguientes, enunciados sin demostración, proporcionan métodos para
formar subespacios a partir de otros subespacios.

Teorema 2.2.2 Cualquier intersección de subespacios de un espacio vectorial E es un


subespacio de E.

Ahora que se conoce que la intersección de subespacios es un subespacio, es lógico considerar


la cuestión de si la unión de subespacios es o no un subespacio. No es difı́cil observar que
la unión de subespacios satisface las condiciones (1) y (3) del Teorema (2.2.1), sin embargo
no siempre se satisface la condición (2). Lo que se puede demostrar es que la unión de dos
subespacios es un subespacio si y sólo si uno de los subespacios es un subconjunto del otro.
Es normal, sin embargo, pensar que deberı́a de existir un método para combinar ambos
subespacios W1 y W2 y ası́ obtener un subespacio mayor; esta observación sugiere considerar
la “suma” de dos subespacios que se define a continuación.

Definición 2.2.2 Si S1 y S2 son dos subconjuntos no vacı́os de un espacio vectorial E,


entonces la suma de S1 y S2 , que se expresa como S1 + S2 , es el conjunto {u1 + u2 : u1 ∈
S1 , u2 ∈ S2 }. La suma de cualquier número finito de subconjuntos no vacı́os de E, S1 , . . . , Sn ,
se define análogamente como el conjunto

S1 + . . . + Sn = {u1 + . . . + un : ui ∈ Si para i = 1, 2, . . . , n}

Teorema 2.2.3 Si W1 y W2 son subespacios de un espacio vectorial E, entonces W1 + W2


es un subespacio de E.

Un corolario muy interesante se desprende inmediatamente de este teorema

Corolario 2.2.4 La suma de cualquier número finito de subespacios de E es un subespacio


de E.

Una clase especial de suma tendrá un papel importante en capı́tulos posteriores. Intro-
duciremos un caso especial de este concepto en la siguiente definición.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.2. SUBESPACIOS Álgebra Lineal 66

Definición 2.2.3 Se dice que un espacio vectorial E es la suma directa de W1 y W2 ,


expresada como V = W1 ⊕ W2 , si W1 y W2 , son subespacios de E tales que W1 ∩ W2 = {0}
y W1 + W2 = E.

Ejemplo 2.2.6 Sea W1 = {(a, 0) : a ∈ F } y W2 = {(0, b) : b ∈ F }. Luego, F 2 es la suma


directa de W1 y W2 , o sea F 2 = W1 ⊕ W2 .

Para asegurarnos de esto, notemos que un elemento de W1 ∩ W2 debe satisfacer la igualdad


(a, 0) = (0, b) para algún a, b ∈ F y el único valor posible para estas constantes es a = b = 0,
por tanto W1 ∩ W2 = {0} . Además

W1 + W2 = {(a, 0) + (0, b) : (a, 0) ∈ W1 y (0, b) ∈ W2 } = {(a, b) : a, b ∈ F } = F 2

Ejemplo 2.2.7 Una función g : R → R se llama función par si g(−x) = g(x) para toda
x ∈ R y se llama función impar si g(−x) = −g(x) para toda x ∈ R. Sean W1 y W2 ,
respectivamente, los conjuntos de todas las funciones pares e impares en F(R, R), entonces
F(R, R) = W1 ⊕ W2 .

Puede verse sin dificultad que W1 y W2 son subespacios de F(R, R). Supóngase que
f ∈ W1 ∩ W2 ; entonces f es al mismo tiempo una función par e impar, esto es

f (−x) = f (x) (2.1)


f (−x) = −f (x) (2.2)
f (x) = −f (x) Por (2.1) y (2.2) (2.3)
2f (x) = 0 (2.4)
f (x) = 0 (2.5)

Por lo tanto, W1 ∩ W2 = {0}.


Sean h, f, g ∈ F(R, R), y defı́nase f y g como
1³ ´ 1³ ´
f (x) = h(x) + h(−x) y g(x) = h(x) − h(−x) .
2 2
Entonces f es una función par y g es una función impar tales que h = f +g y esto implica que
h ∈ W1 +W2 . Como h es un elemento arbitrario de F(R, R), se tiene que F(R, R) = W1 +W2 .
Esto es, F(R, R) es la suma directa de W1 y W2 .
Si W1 y W2 son subespacios de un espacio vectorial E tales que W1 + W2 = E, entonces,
cada elemento de E puede expresarse como la suma de un elemento x1 en W1 y un elemento
x2 en W2 . Esto da motivos para investigar si existe más de una representacion para un mismo
elemento de E, es decir, determinar si x1 y x2 son únicos. Por ejemplo, si
© ª
W1 = (a1 , a2 , a3 ) ∈ F 3 : a3 = 0 (2.6)

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 67

y
© ª
W2 = (a1 , a2 , a3 ) ∈ F 3 : a1 = 0 (2.7)

claramente W1 + W2 = F 3 . Para cada c ∈ F , (b1 , b2 , b3 ) = (b1 , b2 + c, 0) + (0, −c, b3 ) es una


representación de (b1 , b2 , b3 ) como la suma de un elemento (b1 , b2 + c, 0) en W1 y un elemento
(0, −c, b3 ) en W2 . Ası́, en este ejemplo la representación de los elementos de F 3 como las
sumas de un elemento en W1 , y un elemento en W2 no es única. Nuestro próximo resultado
determina cuándo existe este tipo de unicidad

Teorema 2.2.5 Sean W1 y W2 subespacios de un espacio vectorial E. Entonces E es la


suma directa de W1 y W2 si y sólo si cada elemento de E puede ser escrito de manera única
como x1 + x2 , donde x1 ∈ W1 , y x2 ∈ W2 .

Según el Teorema (2.2.5) apesar de que W1 + W2 = F 3 cuando W1 y W2 son los definidos


en (2.6) y (2.7) respectivamente, F 3 no es la suma directa de W1 y W2 .
Para notar este hecho sin utilizar el Teorema (2.2.5), basta darse cuenta que un elemento
de W1 ∩ W2 debe satisfacer la igualdad (a1 , a2 , 0) = (0, a2 , a3 ) y las soluciones para las
constantes son a1 = a3 = 0 con a2 arbitrario, luego W1 ∩ W2 6= {0} y se llega a la misma
conclusión

Ejercicios 2.2.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos

a) Si E es un espacio vectorial y W es subconjunto de E que es también un espacio


vectorial, entonces W es un subespacio de E.
b) El conjunto vacı́o es un subespacio de todo espacio vectorial.
c) Si E es un espacio vectorial distinto del espacio vectorial cero {0}, entonces E
contiene un subespacio W tal que W 6= V .
d ) La suma de dos subconjuntos cualesquiera de E es un subespacio de E.
e) La intersección de dos subconjuntos cualesquiera de E es un subespacio de E
f ) La unión de dos subconjuntos cualesquiera de E es un subespacio de E

2. Verificar si los siguientes conjuntos son subespacios de R3 bajo las operaciones de suma
y multiplicación por escalares definidas en R3 .

a) W1 = {(a1 , a2 , a3 ) ∈ R3 : a1 = 3a2 y a3 = −a2 }


b) W2 = {(a1 , a2 , a3 ) ∈ R3 : 2a1 + a2 + 5a3 = 0}
c) W3 = {(a1 , a2 , a3 ) ∈ R3 : a1 − 4a2 − a3 = 0}

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.2. SUBESPACIOS Álgebra Lineal 68

3. Sean W2 y W3 como en el ejercicio (2). Describir W2 ∩ W3 y obsérvese que es un


subespacio de R3 .

4. Verificar que W1 = {(a1 . . . , an ) ∈ F n : a1 + . . . + an = 0} es un subespacio de F n pero


que W1 = {(a1 . . . , an ) ∈ F n : a1 + . . . + an = 1} no lo es.

5. ¿Es el conjunto W = {f ∈ P (F ) : f = 0 o f tiene grado n} un subespacio de P (F )


si n ≥ 1? Justificar la respuesta.

6. Una matriz A de m × n se llama triangular superior si todos los términos ubicados por
debajo de la diagonal principal valen cero, esto es, Aij = 0 siempre que i > j. Verificar
que las matrices triangulares superiores forman un subespacio de Mn×n (F ).

7. Verificar que para cualquier s0 ∈ S, W = {f ∈ F (S, F ) : f (s0 ) = 0} es un subespacio


de F(S, F ).

8. ¿Es el conjunto de todas las funciones diferenciables de valores reales definidas en R


un subespacio de C(R)? Justificar la respuesta.

9. Sea C n (R) el conjunto de todas las funciones de valor real definidas en la recta de los
reales que tienen derivada n-ésima continua. Verificar que C n (R) es un subespacio de
F(R, R).

10. Determina si Rn es la suma directa de los subespacios

W1 = {(a1 , . . . , an ) ∈ Rn : an = 0}

y
W2 = {(a1 , . . . , an ) ∈ Rn : a1 = . . . = an−1 = 0}

11. Verificar que P (F ) = W1 ⊕ W2 cuando W1 es el conjunto de polinomios f en P (F )


tales que f (x) = 0 o, en la representación

f (x) = a0 + a1 x + · · · + an xn ,

los coeficientes a0 , a2 , a4 , . . . de todas las potencias pares de x son iguales a cero; y


Análogamente, W2 es el conjunto de todos los polinomios g en P (F ) tales que g(x) = 0
o, en la representación
g(x) = b0 + b1 x + · · · + bn xn ,
los coeficientes b1 , b3 , b5 , . . . de todas las potencias impares de x son iguales a cero.

12. Sea W1 = {A ∈ Mm×n (F ) : Aij = 0 cuando i > j} y W2 = {A ∈ Mm×n (F ) : Aij =


0 cuando i ≤ j}. ¿Es Mm×n (F ) = W1 ⊕ W2 ?

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 69

13. Sea E el espacio vectorial formado por todas las matrices cuadradas triangulares su-
periores, sea W1 el subespacio vectorial formado por todas las matrices cuadradas
diagonales y W2 = {A ∈ E : Aij = 0 cuando i < j} . ¿Es E = W1 ⊕ W2 ?

14. Una matriz A se llama antisimétrica si At = −A. Sea W1 el subespacio de todas las
matrices antisimétricas de Mn×n (R) y W2 el subespacio de Mn×n (R) consistente de
todas las matrices cuadradas simétricas. Verificar que Mn×n (R) = W1 ⊕ W2 .

15. Sea W un subespacio de un espacio vectorial E sobre un campo F . Para toda v ∈ E


el conjunto v + W = {v + h : h ∈ W } se llama co-conjunto de W que contiene a v.
Verificar lo siguiente:

a) v + W es un subespacio de E si y sólo si v ∈ E.
b) v1 + W = v2 + W si y sólo si v1 − v2 ∈ W .
La suma y el producto por elementos de F puede definirse en el conjunto S =
{v + W : v ∈ E} de todos los co-conjuntos de W como sigue:

(v1 + W ) + (v2 + W ) = (vl + v2 ) + W (2.8)

para toda v1 , v2 ∈ E y

a(v + W ) = av + W (2.9)

para toda v ∈ E y a ∈ F .
c) Las operaciones (2.8) y (2.9) están bien definidas; es decir, verificar que si v1 +W =
v10 + W y v2 + W = v20 + W , entonces

(v1 + W ) + (v2 + W ) = (v10 + W ) + (v20 + W )

y
a(v1 + W ) = a(v10 + W )
para toda a ∈ F.
d ) El conjunto S es un espacio vectorial bajo las operaciones (2.8) y (2.9). Este
espacio vectorial se llama espacio cociente de E módulo W y se expresa
mediante E/W .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 70

2.3. Combinación Lineal y SLEs


Sean P , Q y R tres puntos no colineales en el espacio. Estos puntos determinan un plano
único cuya ecuación puede ser encontrada mediante las siguientes consideraciones sobre
vectores. Sean u y v los vectores que parten de P y terminan, respectivamente, en Q y R.
Obsérvese que cualquier punto del plano que contenga a P , Q y R es el extremo S de un
vector x que sale de P y tiene la forma t1 u + t2 v para cualquier par de números reales t1
y t2 . El extremo de t1 u será el punto de intersección de la recta que pasa por P y Q con
la recta que pasa por S y es paralela a la recta que pasa por P y R. (Véase fig. 2.1) Un
procedimiento análogo permite localizar t2 v. Más aún, para cualquier par de números reales

Figura 2.1: Determinación de la ecuación de un plano

t1 y t2 , t1 u + t2 v es un vector ubicado en el plano que contiene a P , Q y R. Por lo tanto, la


ecuación del plano que contiene a P , Q y R es:
x = P + t1 u + t2 v,
donde t1 y t2 son números reales arbitrarios y x es un punto cualquiera del plano. Un caso
especial importante ocurre cuando P es el origen. En este caso la ecuación del plano se
simplifica a x = t1 u + t2 v y el conjunto de todos los puntos contenidos en este plano es
un subespacio de R3 . Expresiones de la forma t1 u + t2 v donde t1 , y t2 son escalares y u y v
vectores, juegan un papel primordial en la teorı́a de los espacios vectoriales. La generalización
apropiada de tales expresiones se presenta en la siguiente definición.
Definición 2.3.1 Sea E un espacio vectorial y S un conjunto no vacı́o de E. Se dice que
un vector x de E es una combinación lineal de elementos de S, si existe un número finito
de elementos y1 , . . . , yn en S y escalares a1 , . . . , an en F tales que x = a1 y1 + . . . + an yn . En
este caso, se dice que x es una combinación lineal de y1 , . . . , yn .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 71

Obsérvese que en cualquier espacio vectorial E, 0x = 0 para toda x ∈ E. Luego, el vector


cero es una combinación lineal de cualquier subconjunto no vacı́o de E.

Ejemplo 2.3.1 El cuadro (2.1) muestra el contenido vitamı́nico de 100 gramos de 12 ali-
mentos con respecto a vitaminas A, B1 (tiamina), B2 (riboflavina), niacina y C (ácido
ascórbico).

Alimentos A(unidades) B1 (mg) B2 (mg) Niacina(mg) C(mg)

Compota de manzana 0 0,01 0,02 0,20 2


Manzanas frescas 90 0,03 0,02 0,10 4
Dulce de coco con chocolate 0 0,02 0,07 0,20 0
Almejas (solo la carne) 100 0,10 0,18 1,30 10
Pastel de masa 0 0,05 0,06 0,30 0
Féculas cocidas (0)∗ 0,01 0,01 0,10 (0)
Jaleas y conservas 10 0,01 0,03 0,20 2
Tarta de natillas de coco 0 0,02 0,02 0,40 0
Arroz café crudo (0) 0,34 0,05 4,70 (0)
Salsa de soja 0 0,02 0,25 0,40 0
Spaghetti horneado 0 0,01 0,01 0,30 0
Arroz silvestre crudo (0) 0,45 0,63 0,62 (0)

Los ceros entre paréntesis indican que la cantidad de vitamina presente es casi nula o demasiado pequeña para medirse.

fuente:Composición de alimentos (Manual de Agricultura Número 8) por Bernice K. Watt y Annabel L. Merrill.

División de Investigación, de la Economı́a y Alimentación del Consumidor.

Departamento de Agricultura de los Estados Unidos, 1963.

Cuadro 2.1: Contenido vitamı́nico de 100 gramos de algunos alimentos

Registraremos el contenido vitamı́nico de 100 gramos de cada alimento como un vector


columna en R5 por ejemplo, el vector vitamı́nico para la compota de manzana es
 
0,00
 0,01 
 
 0,02 
 
 0,20 
2,00

Considerando los vectores vitamı́nicos para el pastel de masa, la tarta de natillas de coco, el

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 72

arroz café crudo, la salsa de soja y el arroz silvestre, se ve que


         
0,00 0,00 0,00 0,00 0,00
 0,05   0,02   0,34   0,02   0,45 
         
 0,06  +  0,02  +  0,05  + 2  0,25  =  0,63 
         
 0,30   0,40   4,70   0,40   6,20 
0,00 0,00 0,00 0,00 0,00
Por tanto, el vector vitamı́nico para el arroz silvestre crudo es una combinación lineal de los
vectores de vitaminas para el pastel de masa, tarta de natillas de coco, arroz café crudo y
salsa de soja. Ası́, 100 gramos de pastel de masa, 100 gramos de tarta de natillas de coco,
100 gramos de arroz café crudo y 200 gramos de salsa de soja proporcionan exactamente
las mismas cantidades de las 5 vitaminas que 100 gramos de arroz silvestre crudo. De una
manera análoga, como
             
0,00 90,00 0,00 0,00 10,00 0,00 100,00
 0,01   0,03   0,02   0,01   0,01   0,01   0,10 
             
2            
 0,02  +  0,02  +  0,07  +  0,01  +  0,03  +  0,01  =  0,18 

 0,20   0,10   0,20   0,10   0,20   0,30   1,30 
2,00 4,00 0,00 0,00 2,00 0,00 10,00
200 gramos de compota de manzana, 100 gramos de manzanas frescas, 100 gramos de dulce
de coco con chocolate, 100 gramos de féculas, 100 gramos de jalea y 100 gramos de spaghetti
proporcionan exactamente las mismas cantidades de las 5 vitaminas que 100 gramos de
almejas.
A través de los capı́tulos posteriores se encontrarán muchas situaciones diferentes en las
cuales será necesario determinar si un vector puede ser expresado como una combinación
lineal de otros vectores. El cómo es posible hacerlo se reduce a un problema de solución de
un sistema de ecuaciones.

Para ilustrar esta importante técnica vamos a determinar si el vector (8, 15, 15, 12) en
R4 puede escribirse como combinación lineal de u1 = (1, 2, 1, 2), u2 = (−2, −4, −2, −4),
u3 = (1, 4, 2, 0), u4 = (2, 7, 5, 0) y u5 = (3, 7, 2, 6).
Por tanto, deberemos determinar si existen escalares a1 , a2 , a3 , a4 , y a5 tales que
(8, 15, 15, 12) = a1 u1 + a2 u2 + a3 u3 + a4 u4 + a5 u5
= a1 (1, 2, 1, 2) + a2 (−2, −4, −2, −4) + a3 (1, 4, 2, 0)
+a4 (2, 7, 5, 0) + a5 (3, 7, 2, 6)
= (a1 − 2a2 + a3 + 2a4 + 3a5 , 2a1 − 4a2 + 4a3 + 7a4 + 7a5 ,
a1 − 2a2 + 2a3 + 5a4 + 2a5 , 2a1 − 4a2 + 6a5 )
Se puede ver ahora fácilmente que (8, 15, 15, 12) puede ser expresado como una combinación
lineal de u1 , u2 , u3 , u4 y u5 si y sólo si existen escalares a1 , a2 , a3 , a4 , a5 que satisfacen el

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 73

sistema de ecuaciones lineales


a1 − 2a2 + a3 + 2a4 + 3a5 = 8
2a1 − 4a2 + 4a3 + 7a4 + 7a5 = 15
(2.10)
a1 − 2a2 + 2a3 + 5a4 + 2a5 = 15
2a1 − 4a2 + 6a5 = 12
que se obtuvo igualando las coordenadas correspondientes de la ecuación anterior.
Para resolver el sistema de ecuaciones (2.10) se sustituirá este por otro que tenga las
mismas soluciones pero que sea mucho más fácil de resolver. El procedimiento que se utili-
zará expresará algunas de las incógnitas en términos de otras eliminando algunas de ellas en
todas las ecuaciones, menos en una.
Para empezar, eliminemos a1 de la segunda, tercera y cuarta ecuaciones del sistema
(2.10).
Esta eliminación puede hacerse sumando −2 veces la primera ecuación a la segunda, −1
vez la primera ecuación a la tercera y −2 veces la primera ecuación a la cuarta; el resultado
será un nuevo sistema dado por:
a1 − 2a2 + a3 + 2a4 + 3a5 = 8
2a3 + 3a4 + a5 = −1
(2.11)
a3 + 3a4 − a5 = 7
−2a3 − 4a4 = −4
en el cual se han eliminado a1 y a2 en todas las ecuaciones, excepto en la primera. Conti-
nuando con el sistema de ecuaciones (2.11), agregaremos múltiplos de la segunda ecuación
a las otras con objeto de eliminar a3 de las ecuaciones menos en la segunda. En este caso
1
debemos sumar − veces la segunda ecuación a la primera para eliminar a3 de esta. Nótese,
2
sin embargo, que si se intercambian la segunda y la tercera ecuaciones, los cálculos necesa-
rios se simplifican. Entonces, intercambiaremos la segunda y tercera ecuaciones del sistema
(2.11) para obtener
a1 − 2a2 + a3 + 2a4 + 3a5 = 8
a3 + 3a4 − a5 = 7
(2.12)
2a3 + 3a4 + a5 = −1
−2a3 − 4a4 = −4
Ahora, sumando −1 veces la segunda ecuación a la primera, −2 veces la segunda ecuación
a la tercera y 2 veces la segunda ecuación a la cuarta, el sistema de ecuaciones (2.12) se
transforma en
a1 − 2a2 − a4 + 4a5 = 1
a3 + 3a4 − a5 = 7
(2.13)
−3a4 + 3a5 = −15
2a4 − 2a5 = 10

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 74

A continuación debemos sumar múltiplos de la tercera ecuación a las otras con objeto de
eliminar a4 en cada una de las ecuaciones del sistema (2.13), excepto en la tercera. De nuevo,
1
los cálculos se simplifican si se realiza la operación de multiplicar la tercera ecuación por − .
3
Esto da
a1 − 2a2 − a4 + 4a5 = 1
a3 + 3a4 − a5 = 7
(2.14)
a4 − a5 = 5
2a4 − 2a5 = 10

Por último, en el sistema (2.14) añadamos 1 vez la tercera ecuación a la primera, −3 veces
la tercera ecuación a la segunda y −2 veces la tercera ecuación a la cuarta para obtener

a1 − 2a2 + 3a5 = 6
a3 + 2a5 = −8
(2.15)
a4 − a5 = 5
0 = 0

El sistema de ecuaciones (2.15) es un sistema de la forma deseada: es fácil de resolver para


a1 a3 y a4 (las incógnitas que aparecen como primera incógnita presente en alguna de las
ecuaciones) en términos de otras incógnitas (a2 y a5 ). Escribiendo de nuevo el sistema (2.15),
encontramos que

a1 = 2a2 − 3a5 + 6
a3 = −2a5 − 8 (2.16)
a4 = a5 + 5

Entonces, para cualquier selección de los escalares a2 y a5 , un vector de la forma

(a1 , a2 , a3 , a4 , a5 ) = (2a2 − 3a5 + 6, a2 , −2a5 − 8, a5 + 5, a5 )


= a2 (2, 1, 0, 0, 0) + a5 (−3, 0, −2, 1, 1) + (6, 0, −8, 5, 0)

será solución del sistema original de ecuaciones (2.10). En particular, el vector (6, 0, −8, 5, 0)
obtenido al hacer a2 = 0 y a5 = 0 es una solución del sistema (2.10). Entonces,

(8, 15, 15, 12) = 6u1 + 0u2 − 83 + 5u4 + 0u 5

de manera que (8, 15, 15, 12) es combinación lineal de u1 , u2 , u3 , u4 y u5 .


El procedimiento que acabamos de ilustrar puede utilizarse para resolver cualquier siste-
ma de ecuaciones lineales. Obsérvese que se utilizaron tres tipos de operaciones para resolver
el sistema original.

1. Intercambio del orden de cualquier par de ecuaciones en el sistema.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 75

2. Multiplicación de cualquier ecuación por una constante no nula.


3. Suma de cualquier múltiplo constante de una ecuación a otra.
Estas operaciones se utilizaron hasta obtener un sistema de ecuaciones con las siguientes
propiedades:
1. El primer coeficiente no nulo de cualquier ecuación es uno.
2. Si una incógnita es la primera con coeficiente no nulo en alguna ecuación, entonces
dicha incógnita aparece con un coeficiente nulo en cada una de las otras ecuaciones.
3. La primera incógnita con coeficiente no nulo en cualquier ecuación tiene subı́ndice
mayor que el de la primera incógnita con coeficiente no nulo en cualquier ecuación
precedente.
Para ayudar a aclarar el significado de estas propiedades, nótese que en el siguiente ejemplo
ninguno de los sistemas satisface estas condiciones.
Ejemplo 2.3.2
x1 + 3x2 + x4 = 7
(2.17)
2x3 − 5x4 = −1

x1 − 2x2 + 3x3 + x5 = −5
x3 − 2x5 = 9 (2.18)
x4 + 3x5 = 6

x1 − 2x3 + x5 = 1
x4 − 5x5 = 0 (2.19)
x2 + 5x3 − 3x5 = 2
Especı́ficamente, el sistema de ecuaciones (2.17) no satisface la condición (1) porque el
primer coeficiente no nulo de la segunda ecuación es 2; el sistema de ecuaciones (2.18) no
satisface la condición (2) porque x3 , la primera incógnita con coeficiente no nulo de la segunda
ecuación, aparece con coeficiente no nulo en la primera ecuación; y el sistema de ecuaciones
(2.19) no satisface la condición (3) porque x2 , la primera incógnita con coeficiente no nulo de
la tercera ecuación, no tiene un subı́ndice mayor que x4 , la primera incógnita con coeficiente
no nulo de la segunda ecuación.
Una vez que se ha obtenido un sistema en el que se satisfacen las propiedades (1), (2) y
(3), es fácil de resolver para algunas de las incógnitas en términos de las otras. Sin embargo,
si en el curso de la ejecución de las operaciones (1), (2) y (3) se obtuviera un sistema que
tuviera una ecuación de la forma 0 = c, donde c no es nula, entonces el sistema original no
tiene soluciones.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 76

Ejemplo 2.3.3 Verificar que 2x3 − 2x2 + 12x − 6 es combinación lineal de x3 − 2x2 − 5x − 3
y 3x3 − 5x2 − 4x − 9 en P3 (R) pero que 3x3 − 2x2 + 7x + 8 no lo es.

En el primer caso debemos encontrar escalares a y b tales que

2x3 − 2x2 + 12x − 6 = a(x3 − 2x2 − 5x − 3) + b(3x3 − 5x2 − 4x − 9)


= (a + 3b)x3 + (−2a − 5b)x2 + (−5a − 4b)x + (−3a − 9b)

Esto nos lleva a establecer el siguiente sistema de ecuaciones lineales:

a + 3b = 2
−2a − 5b = 0
(2.20)
−5a − 4b = 12
−3a − 9b = −6

Sumando múltiplos adecuados de la primera ecuación a las otras para eliminar a, encontra-
mos
a + 3b = 2
b = 2
(2.21)
11b = 22
0 = 0

Ahora, sumando múltiplos adecuados de la segunda ecuación a las demás se tendrá

a = −4
b = 2
(2.22)
0 = 0
0 = 0

Luego,

2x3 − 2x2 + 12x − 6 = −4(x3 − 2x2 − 5x − 3) + 2(3x3 − 5x2 − 4x − 9)

En el segundo caso deseamos determinar la no existencia de escalares a y b para los cuales

3x3 − 2x2 + 7x + 8 = a(x3 − 2x2 − 5x − 3) + b(3x3 − 5x2 − 4x − 9)

Como en el caso anterior, obtenemos un sistema de ecuaciones lineales

a + 3b = 3
−2a − 5bb = −2
(2.23)
−5a − 4b = 7
−3a − 9b = 8

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 77

Al eliminar a como antes, se obtiene

a + 3b = 3
b = 4
(2.24)
11b = 22
0 = 17

Pero la presencia de la ecuación inconsistente 0 = 17 indica que el sistema de ecuaciones


(2.24) no tiene soluciones y, por tanto 3x3 − 2x2 + 7x + 8, no es una combinación lineal de
x3 − 2x2 − 5x − 3 y 3x3 − 5x2 − 4x − 9.
El conjunto de combinaciones lineales de los elementos de un subconjunto no vacı́o de
un espacio vectorial proporciona otro ejemplo de subespacio, como se enuncia en el siguiente
resultado.

Teorema 2.3.1 Si S es un subconjunto no vacı́o de un espacio vectorial E, entonces el con-


junto W , integrado por todas las combinaciones lineales de elementos de S, es el subespacio
de E más pequeño que contiene a S en el sentido de que W es un subconjunto de cualquier
otro subespacio de E que contiene a S.

Este teorema esta ligado a la siguiente definición

Definición 2.3.2 Al subespacio W descrito en el Teorema (2.3.1) se le llama subespacio


generado por los elementos de S y se denota por gen(S). Nada más que por conveniencia, se
define gen(∅) = {0}.

Nótese que el Teorema (2.3.1) muestra que x es una combinación lineal de elementos de S si
y sólo si x es un elemento de gen(S). Luego, por ejemplo, en R3 , si S = {(1, 0, 0), (0, 1, 0)}
se tiene que gen(S) es el plano xy.

Definición 2.3.3 Un subconjunto S de un espacio vectorial E genera a E si gen(S) = E.


En esta situación también podemos decir que los elementos de S generan a E.

Ejemplo 2.3.4 Los vectores (1, 1, 0), (1, 0, 1) y (0, 1, 1) generan a R3 pues un elemento
arbitrario (a1 , a2 , a3 ) de R3 es una combinación lineal de los tres vectores dados

Nótese que en este caso los escalares p, q y r para los que

(a1 , a2 , a3 ) = p(1, 1, 0) + q(1, 0, 1) + r(0, 1, 1)

son
1 1 1
p = (a1 + a2 − a3 ), q = (a1 − a2 + a3 ), y r = (−a1 + a2 + a3 )
2 2 2
Ejemplo 2.3.5 Los polinomios x2 + 3x − 2, 2x2 + 5x − 3 y −x2 − 4x + 4 generan a P2 (R)

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 78

Esto es debido a que cualquiera de los tres polinomios dados pertenece a P2 (R) y cada
polinomio ax2 + bx + c en P2 (R) se puede escribir de la siguiente manera:

(−8a + 5b + 3c)(x2 + 3x − 2) + (4a − 2b − c)(2x2 + 5x − 3)


+(−a + b + c)(−x2 − 4x + 4) = ax2 + bx + c

Ejemplo 2.3.6 Las matrices


µ ¶ µ ¶ µ ¶ µ ¶
1 1 1 1 1 0 0 1
, , , y
1 0 0 1 1 1 1 1

generan a M2×2 (R)


Ya que una matriz cualquiera de M2×2 (R) puede ser expresado como combinación lineal de
las cuatro matrices de la siguiente manera:
µ ¶µ ¶
1 1 1 2 1 1
a11 + a12 + a21 − a22
3 3 3 3 1 0
µ ¶µ ¶
1 1 2 1 1 1
+ a11 + a12 − a21 + a22
3 3 3 3 0 1
µ ¶µ ¶
1 2 1 1 1 0
+ a11 − a12 + a21 + a22
3 3 3 3 1 1
µ ¶µ ¶
2 1 1 1 0 1
+ − a11 + a12 + a21 + a22
3 3 3 3 1 1
µ ¶
a11 a12
=
a21 a22

Ejercicios 2.3.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos

a) El vector cero es una combinación lineal de cualquier conjunto no vacı́o de vecto-


res.
b) El subespacio generado por ∅ es ∅.
c) Si S es un subconjunto de un espacio vectorial E, gen(S) es igual a la intersección
de todos los subespacios de E que contienen a S.
d ) Al resolver un sistema de ecuaciones lineales se puede multiplicar una ecuación
por una constante.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 79

e) Al resolver un sistema de ecuaciones lineales se permite sumar un múltiplo de una


ecuación a otra.
f ) Todo sistema de ecuaciones lineales tiene una solución.

2. Resolver los siguientes sistemas de ecuaciones lineales por el método expuesto en esta
sección.

 2x1 − 2x2 − 3x3 = −2
a) 3x1 − 3x2 − 2x3 + 5x4 = 7

x1 − x2 − 2x3 − x4 = −3

 3x1 − 7x2 + 4x3 = 10
b) x1 − 2x2 + x3 = 3

2x1 − x2 − 2x3 = 6

 x1 + 2x2 − x3 + x4 = 5
c) x1 + 4x2 − 3x3 − 3x4 = 6

2x1 + 3x2 − x3 + 4x4 = 8

 x1 + 2x2 + 2x3 + = 2
d) x1 + 8x3 + 5x4 = −6

x1 + x2 + 5x3 + 5x4 = 3

3. Para cada uno de los siguientes grupos de vectores en R3 , determine si el primer vector
puede o no ser expresado como combinación lineal de los otros dos.

a) (−2, 0, 3), (1, 3, 0), (2, 4, −1)


b) (1, 2, −3), (−3, 2, 1), (2, −1, −1)
c) (3, 4, 1), (1, −2, 1), (−2, −1, 1)
d ) (2, −1, 0), (1, 2, −3), (1, −, 2)
e) (5, 1, −5), (1, −2, −3), (−2, 3, −4)
f ) (−2, 2, 2), (1, 2, −1), (−3, −3, 3)

4. Para cada uno de los siguientes grupos de polinomios en P3 (R), determine si el primer
polinomio puede o no ser expresado como una combinación lineal de los otros dos.

a) x3 − 3x + 5, x3 + 2x2 − x + 1, x3 + 3x2 − 1
b) 4x3 + 2x2 − 6, x3 − 2x2 + 4x + 1, 3x3 − 6x2 + x + 4
c) −2x3 − 11x2 + 3x + 2, x3 − 2x2 + 3x − 1, 2x3 + x2 + 3x − 2
d ) x3 + x2 + 2x + 13, 2x3 − 3x2 + 4x + 1, x3 − x2 + 2x + 3
e) x3 − 8x2 + 4x, x3 − 2x2 + 3x − 1, x3 − 2x + 3

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.3. COMBINACIONES LINEALES Y S.L.E. Álgebra Lineal 80

f ) 6x3 − 3x2 + x + 2, x3 − x2 + 2x + 3, 2x3 + x2 − 3x + 1

5. En F n sea ej el vector cuya coordenada j-ésima es 1 y cuyas otras coordenadas son 0.


Verificar que {e1 , e2 , . . . , en } genera a F n .

6. Comprobar que Pn (F ) puede generarse por {1, x, x2 , . . . , xn }.

7. Sean µ ¶ µ ¶ µ ¶
1 0 0 0 0 1
A1 = , A2 = , y A3 =
0 0 0 1 1 0
Verificar que el subespacio generado por S = {A1 , A2 , A3 } es el conjunto de todas las
matrices simétricas de 2 × 2.

8. Comprobar que un subconjunto W de un espacio vectorial E es un subespacio de E si


y sólo si gen(W ) = W .

9. Evidenciar que si S1 y S2 son subconjuntos de un espacio vectorial E tales que S1 ⊆ S2 ,


entonces gen(S1 ) ⊆ gen(S2 ). En particular, si S1 ⊆ S2 y gen(S1 ) = E, se deduce que
gen(S2 ) = E.

10. Verificar que si S1 y S2 son subconjuntos cualesquiera de un espacio vectorial E, en-


tonces gen(S1 ∪ S2 ) = gen(S1 ) + gen(S2 ).

11. Sean S1 y S2 subconjuntos de un espacio vectorial E. Comprobar que

gen(S1 ∩ S2 ) ⊆ gen(S1 ) ∩ gen(S2 ).

Dar un ejemplo en el cual gen(S1 ∩ S2 ) y gen(S1 ) ∩ gen(S2 ) sean iguales y un ejemplo


donde sean distintas.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 81

2.4. Independencia y Dependencia Lineal


Al principio de la sección 2.3, se observó que la ecuación de un plano que pasa por
tres puntos no colineales en el espacio, donde uno de los cuales es el origen, tiene la forma
x = t1 u + t2 v donde u, v ∈ R3 y t1 y t2 son escalares. Ası́, un vector x en R3 es una
combinación lineal de u, v ∈ R3 si y sólo si x se ubica en el plano que contiene a u y v. (Ver
figura 2.2)

Figura 2.2:

En la ecuación x = t1 u+t2 v, x depende de u y v en el sentido de que x es una combinación


lineal de u y v. Un conjunto en el que al menos un vector es una combinación lineal de los
otros se llama un conjunto linealmente dependiente.

Ejemplo 2.4.1 Considérese el conjunto S = {x1 , x2 , x3 , x4 } ⊂ R3 donde x1 = (2, −1, 4),


x2 = (1, −1, 3), x3 = (1, 1, −1) y x4 = (1.−2, −1). Determinar si el conjunto S es linealmente
dependiente

Para determinar si S es linealmente dependiente debemos ver si existe o no un vector en


S que sea una combinación lineal de los demás. Si se sospecha que el vector x4 es una
combinación lineal de x1 , x2 y x3 debe existir escalares a, b y c tales que

x4 = ax1 + bx2 + cx3 ,

es decir
x4 = (2a + b + c, −a − b + c, 4a + 3b − c)

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.4. INDEPENDENCIA Y DEPENDENCIA LINEAL Álgebra Lineal 82

Por tanto x4 será una combinación lineal de x1 , x2 y x3 si y sólo si el siguiente sistema tiene
solución
2a + b + c = 1
−a − b + c = −2 (2.25)
4a + 3b − c = −1
No es dificil verificar que en este caso no existe tal solución. Nótese, sin embargo, que
esto no significa que el conjunto S no sea linealmente dependiente, pues es necesario verificar
si x1 , x2 y x3 pueden o no ser escritos como una combinación de los otros vectores de
S. Puede demostrarse, de hecho, que x3 es una combinación lineal de los otros vectores ;
especı́ficamente, x3 = 2x1 − 3x2 + 0x4 . Ası́, S es en efecto linealmente dependiente.
Se ve de este ejemplo que la condición para dependencia lineal que se ha dado no es
adecuada, porque no todo vector en S necesita ser una combinación lineal de los demás, aun
cuando S sea linealmente dependiente. Al reformular la definición de la siguiente manera
obtenemos una definición de dependencia más fácil de utilizar.

Definición 2.4.1 Un subconjunto no vacio S de un espacio vectorial E es linealmente de-


pendiente si existe un número finito de vectores x1 , x2 , . . . , xn en S y escalares a1 , a2 , . . . , an
en F , no todos cero, tales que
a1 x1 + a2 x2 + . . . + an xn = 0.
También se puede describir esta situación diciendo que los elementos de S son linealmente
dependientes.

Para comprobar que el subconjunto S de R3 que hemos definido es linealmente dependiente


usando esta definición, debemos encontrar escalares a1 , a2 , a3 y a4 , no todos nulos, tales que
a1 x1 + a2 x2 + a3 x3 + a4 x4 = 0.
Por ello debemos encontrar una solución para el sistema
2a1 + a2 + a3 + a4 = 0
−a1 − a2 + a3 − 2a4 = 0 (2.26)
4a1 + 3a2 − a3 − a4 = 0
donde no todas las incógnitas valen cero. Una vez resuelto el sistema, encontramos que
a1 = 2, a2 = −3, a3 = −1 y a4 = 0 es la solución buscada.
Por lo tanto se ve que la definición establecida de dependencia lineal requiere de la
solución de únicamente un sistema de ecuaciones en vez de dos o más. De hecho, se puede
verificar que las dos condiciones para dependencia lineal que se trató son equivalentes.
Puede verse fácilmente que, en cualquier espacio vectorial, un subconjunto S que contenga
al vector cero debe ser linealmente dependiente ya que 1 · 0 = 0, esto es, el vector cero es
una combinación lineal de elementos de S en la que algún coeficiente es no nulo.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 83

Ejemplo 2.4.2 En R4 el conjunto S = {(1, 3, −4, 2), (2, 2, −4, 0), (1, −3, 2, −4)} es lineal-
mente dependiente puesto que

4(1, 3, −4, 2) − 3(2, 2, −4, 0) + 2(1, −3, 2, −4) = (0, 0, 0, 0)

De manera semejante, en M2×3 (R) el conjunto


½µ ¶ µ ¶ µ ¶¾
1 −3 2 −3 7 4 −2 3 11
S= , ,
−4 0 5 6 −2 −7 −1 −3 2

es linealmente dependiente ya que


µ ¶ µ ¶ µ ¶ µ ¶
1 −3 2 −3 7 4 −2 3 11 0 0 0
5 +3 −2 =
−4 0 5 6 −2 −7 −1 −3 2 0 0 0

Definición 2.4.2 Se dice que un subconjunto S de un espacio vectorial, que no es lineal-


mente dependiente, es linealmente independiente. Como antes, se describe a menudo esta
situación diciendo que los elementos de S son linealmente independientes.
Nótese que el conjunto vacı́o es linealmente independiente, puesto que, por definición, los
conjuntos linealmente dependientes deben ser no vacı́os.
Más aún, en cualquier espacio vectorial, un conjunto integrado de un solo vector no nulo
es linealmente independiente. Si {x} es linealmente dependiente, entonces ax = 0 para algún
escalar a no nulo. Pero entonces

x = a−1 (ax) = a−1 0 = 0

Además, un conjunto S es linealmente independiente si y sólo si las únicas combinaciones


lineales de elementos de S iguales a 0 son las combinaciones lineales triviales en donde todos
los escalares valen cero. Este hecho proporciona un método muy útil para determinar si un
conjunto finito es linealmente independiente. Esta técnica se enseña en el siguiente ejemplo
Ejemplo 2.4.3 Sea xk el vector en F n cuyas primeras k − 1 coordenadas son ceros y cuyas
últimas n−k +1 coordenadas son 1. Entonces {x1 , x2 , . . . , xn } es linealmente independiente
Si a1 x1 + a2 x2 + . . . + an xn = 0, igualando las coordenadas correspondientes de la izquierda
y derecha de esta igualdad se tiene el siguiente sistema de ecuaciones:

a1 = 0
a1 + a2 = 0
a1 + a2 + a3 = 0 (2.27)
..
.
a1 + a2 + a3 + · · · + an = 0

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.4. INDEPENDENCIA Y DEPENDENCIA LINEAL Álgebra Lineal 84

Claramente se ve que la única solución de este sistema es

a1 = a2 = . . . = an = 0.

Los siguientes resultados, que se enuncian sin demostración, son consecuencias inmediatas
de las definiciones de dependencia e independencia lineal.
Teorema 2.4.1 Sea E un espacio vectorial y sea S1 ⊆ S2 ⊆ E. Si S1 es linealmente
dependiente entonces S2 también lo es.

Corolario 2.4.2 Sea E un espacio vectorial y sea S1 ⊆ S2 ⊆ E. Sı́ S2 es linealmente


independiente entonces S1 también lo es.

Ejercicios 2.4.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos

a) Si S es un conjunto linealmente dependiente, cada elemento de S es una combi-


nación lineal de otros elementos de S.
b) Cualquier conjunto que contenga al vector cero es linealmente dependiente.
c) El conjunto vacı́o es linealmente dependiente.
d ) Subconjuntos de conjuntos linealmente dependientes son linealmente dependien-
tes.
e) Subconjuntos de conjuntos linealmente independientes son linealmente indepen-
dientes.
f ) Si x1 , x2 , . . . , xn son linealmente independientes y a1 x1 + a2 x2 + . . . + an xn = 0,
todos los escalares ai son iguales a cero.

2. Verificar que en cada caso el conjunto S es linealmente independiente

a) S = {e1 , e2 , . . . , en }, donde los ej son como en el ejercicio (5) de la página (80)


b) S = {1, x, x2 , . . . , xn }
µ ¶ µ ¶ µ ¶ µ ¶
1 0 0 1 0 0 0 0
c) S = , , ,
0 0 0 0 1 0 0 1
3. Encontrar el conjunto de matrices diagonales linealmente independientes que generan
al espacio vectorial de matrices diagonales de 2 × 2.

4. Dejar en claro que {x, y} es linealmente dependiente si y sólo si x o y es un últiplo


del otro.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 85

5. Dar un ejemplo de tres vectores linealmente dependientes en R2 tales que ninguno de


los tres es múltiplo de otro.

6. Verificar las siguientes afirmaciones

a) {u, v} es linealmente independiente si y solo si {u + v, u − v} es linealmente


independiente.
b) {u, v, w} es linealmente independiente si y solo si {u + v, u + w, v + w} es li-
nealmente independiente
c) Sea S = {x1 , x2 , . . . , xn } un conjunto finito de vectores, entonces S es lineal-
mente dependiente si y solo si x1 = 0, o xk+1 ∈ gen ({x1 , x2 , . . . , xk }) para algún
k<n

7. Sea A una matriz cuadrada triangular superior que tenga términos no nulos en la
diagonal principal. Verificar que las columnas de A son linealmente independientes.

8. Sean f y g funciones definidas por f (t) = ert y g(t) = est , donde r 6= s. Verificar que
f y g son linealmente independientes en F(R, R).
Sugerencia: Suponer que aert + best = 0. Hacer t = 0 y obtener una ecuación que
involucre a y b. Luego derivar aert + best = 0, y hacer t = 0 para tener una segunda
ecuación en a y b. Resolver ambas ecuaciones para a y b.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 86

2.5. Bases y Dimensión de un Espacio Vectorial


Un subconjunto S de un espacio vectorial E que sea linealmente independiente y que
genere a E posee una propiedad muy útil: cada elemento de E puede ser expresado de
manera única como combinación lineal de elementos de S.
Es este resultado el que hace que los conjuntos generadores linealmente independientes
sean los elementos constructivos de los espacios vectoriales.

Definición 2.5.1 Una base B para un espacio vectorial E es un subconjunto linealmente


independiente de E que genera a E. (Si B es una base de E, se dice que los elementos de
B forman una base de E.)

Ejemplo 2.5.1 Como gen(∅) = {0}, se dice que ∅ es una base para el espacio vectorial {0}.

Ejemplo 2.5.2 En F n , sea e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . en = (0, . . . , 1);


se ve claramente que {e1 , e2 , . . . , en } es una base para F n y se llama base estándar para
F n.

Ejemplo 2.5.3 En Mm×n (F ), sea M ij la matriz cuyo único elemento no nulo es un 1 en la


i-ésima fila y j-ésima columna. Luego B = {M ij : 1 ≤ i ≤ m, 1 ≤ j ≤ n} es una base para
Mm×n (F ).

Ejemplo 2.5.4 En Pn (F ) el conjunto {1, x, x2 , . . . , xn } es una base.

Ejemplo 2.5.5 En P (F ) el conjunto {1, x, x2 , . . .}es una base.

Observar que el ejemplo (2.5.5) muestra que una base no necesariamente debe ser finita. De
hecho, veremos más adelante que ninguna base para P (F ) puede ser finita. Entonces, no
todo espacio vectorial tiene una base finita.
El siguiente teorema, que se utilizará frecuentemente, muestra la propiedad más impor-
tante de una base.

Teorema 2.5.1 Sea E un espacio vectorial y B = {x1 , x2 , . . . , xn } un subconjunto de E.


Luego B es una base de E si y sólo si cada vector u ∈ E puede ser expresado de manera
única como una combinación lineal de vectores de B, es decir,

u = a 1 x1 + a 2 x2 + . . . + a n xn

para escalares únicos a1 , a2 , . . . , an

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 87

El Teorema (2.5.1) muestra que cada vector u en un espacio vectorial E con una base
B = {x1 , x2 , . . . , xn } puede ser expresado de manera única en la forma u = a1 x1 + a2 x2 +
. . . + an xn para escalares a1 , a2 , . . . , an adecuados. Luego, u determina una única n-
dimensional de escalares (a1 , a2 , . . . , an ) y, recı́procamente, cada n-dimensional de escalares
determina un vector único u, al utilizar los términos de la n-dimensional como los coeficientes
de una combinación lineal de los vectores de B. Esto sugiere que E es similar al espacio
vectorial F n , donde n es el número de vectores de una base para E.
El próximo teorema identificará una gran clase de espacios vectoriales, cada uno de ellos
con una base finita. Sin embargo, es necesario que primero se vea un resultado preliminar.
Lema 2.5.1 Sea S un subconjunto linealmente independiente de un espacio vectorial E, y
sea x ∈ E que no está en S. Luego, S∪{x} es linealmente dependiente si y sólo si x ∈ gen(S).
Teorema 2.5.2 Si un espacio vectorial E es generado por un conjunto finito S0 , entonces
un subconjunto de S0 es una base para E. Y por tanto, E tiene una base finita.
Un método por el cual se puede obtener una base S es el que se da en el siguiente ejemplo.
Ejemplo 2.5.6 Los elementos (2, −3, 5), (8, −12, 20), (1, 0, −2), (0, 2, 1) y (7, 2, 0)
generan a R3 .
De entre ellos seleccionaremos una base para R3 . Para comenzar, selecciónese cualquier
elemento no nulo del conjunto generatriz, digamos (2, −3, 5), como uno de los elementos
de la base. Como 4(2, −3, 5) = (8, −12, 20), el conjunto {(2, −3, 5), (8, −12, 20)} es
linealmente dependiente. Por tanto, (8, −12, 20) no será incluido en nuestra base.
Como (1, 0, −2) no es múltiplo de (2, −3, 5), y viceversa, el conjunto
{(2, −3, 5), (1, 0, −2)}
es linealmente independiente. Por tanto, (1, 0, −2) puede ser incluido en la base. Procedien-
do con el siguiente elemento del conjunto generatriz, se deberá excluir o incluir en nuestra ba-
se al elemento (0, 2, −1) dependiendo de que el conjunto {(2, −3, 5), (1, 0, −2), (0, 2, −1)}
sea linealmente dependiente o linealmente independiente.
Un cálculo sencillo demuestra que el conjunto es linealmente independiente; luego, (0, 2, −1)
también será incluido en nuestra base. El elemento final del conjunto generatriz (7, 2, 0)
será excluido o incluido en nuestra base dependiendo de que
{(2, −3, 5), (1, 0, −2), (0, 2, −1), (7, 2, 0)}
sea linealmente dependiente o linealmente independiente. Ya que
2(2, −3, 5) + 3(1, 0, −2) + 4(0, 2, −1) − (7, 2, 0) = (0, 0, 0),
el conjunto es linealmente dependiente y se excluye a (7, 2, 0) de la base.
De esta manera, el conjunto {(2, −3, 5), (1, 0, −2), (0, 2, −1)} es una base para R3 .
El siguiente teorema y sus corolarios son quizá los resultados más significativos del capı́tu-
lo 2.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 88

Teorema 2.5.3 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Sea S = {y1 , y2 , . . . , ym } un subconjunto linealmente independiente de E que con-
tenga exactamente m elementos, donde m ≤ n. Entonces, existe un conjunto S1 ⊂ B que
contiene exactamente n − m elementos tales que gen(S ∪ S1 ) = E.

Para ilustrar el uso del Teorema (2.5.3), nótese que S = {x2 − 4, x − 6} es un subconjunto
linealmente independiente de P2 (F ). Como B = {1, x, x2 } es una base de P2 (F ), deberá de
existir un subconjunto S1 ⊂ B que contenga 3−2 = 1 elemento tal que gen(S ∪S1 ) = P2 (F ).
En este ejemplo cualquier subconjunto de B que contenga un elemento será suficiente para
S1 . Con esto se ve que el conjunto S1 del Teorema (2.5.3) no necesariamente es único.

Corolario 2.5.4 Sea E un espacio vectorial que tiene una base B que contenga exacta-
mente n elementos. Entonces, cualquier subconjunto linealmente independiente de E que
contenga exactamente n elementos es una base de E.

Ejemplo 2.5.7 Los vectores (1, −3, 2), (4, 1, 0) y (0, 2, −1) forman una base para R3

Si
a1 (1, −3, 2) + a2 (4, 1, 0) + a3 (0, 2, −1) = (0, 0, 0),
entonces a1 , a2 y a3 deberán satisfacer el sistema de ecuaciones

a1 + 4a2 = 0
−3a1 + a2 + 2a3 = 0
2a1 − a3 = 0

Pero puede verse fácilmente que la única solución del sistema es a1 = 0, a2 = 0 y a3 = 0.


Entonces, (1, −3, 2), (4, 1, 0) y (0, 2, −1) son linealmente independientes y, de acuerdo
con el Corolario (2.5.4), forman una base para R3 .

Corolario 2.5.5 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Entonces, cualquier subconjunto de E que contenga más de n elementos es lineal-
mente dependiente. Consecuentemente, cualquier subconjunto de E linealmente independien-
te contiene no más de n elementos.

Ejemplo 2.5.8 El conjunto S = {x2 + 7, 8x2 − 2x, 4x − 3, 7x + 2} es linealmente depen-


diente

Aun cuando se pueda probar directamente que S es un subconjunto linealmente dependiente


de P2 (F ), esta conclusión se deriva inmediatamente del corolario (2.5.6) puesto que B =
{1, x, x2 } es una base para P2 (F ) que contiene menos elementos que S.

Corolario 2.5.6 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Entonces, toda base para E contiene exactamente n elementos.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 89

Si un espacio vectorial tiene una base con un número finito de elementos, entonces el
corolario (2.5.6) establece que el número de elementos en cada base para el espacio es el
mismo. Este resultado hace posibles las siguientes definiciones.

Definición 2.5.2 Un espacio vectorial E se llama dimensionalmente finito si tiene una


base que consta de un número finito de elementos

Definición 2.5.3 El único número de elementos en cada base de E se llama dimensión de


E y se denota por dim(E).

Definición 2.5.4 Si un espacio vectorial no es dimensionalmente finito, se llama dimen-


sionalmente infinito.

De acuerdo con estas definiciones el espacio vectorial {0} tiene dimensión cero; el espacio
vectorial F n tiene dimensión n; el espacio vectorial Mm×n (F ) tiene dimensión m×n. El espa-
cio vectorial Pn (F ) tiene una dimensión n + 1; el espacio vectorial P (F ) es dimensionalmente
infinito.
Los dos ejemplos siguientes demuestran que la dimensión de un espacio vectorial depende
de su campo de escalares.

Ejemplo 2.5.9 El espacio vectorial de los números complejos tiene dimensión 1 sobre el
campo de los números complejos. (Una base es {1}.)

Ejemplo 2.5.10 El espacio vectorial de los números complejos tiene dimensión 2 sobre el
campo de los números reales. (Una base es {1, i}.)

Corolario 2.5.7 Sea E un espacio vectorial de dimensión n, y sea S un subconjunto de E


que genera a E y contiene como máximo n elementos. Entonces, S es una base para E y,
por tanto, contiene exactamente n elementos.

Obsérvese que, según el Ejemplo 2.3.5 de la página (77) y el corolario 2.5.7 que B =
{x + 3x − 2, 2x2 + 5x − 3, −x2 − 4x + 4} es una base para P2 (R).
2

Lo mismo es cierto si consideramos el Ejemplo 2.3.6 de la página (78) y el corolario 2.5.7,


el conjunto ½µ ¶ µ ¶ µ ¶ µ ¶¾
1 1 1 1 1 0 0 1
S= , , ,
1 0 0 1 1 1 1 1
forman una base para M2×2 (R)

Corolario 2.5.8 Sea B una base de un espacio vectorial E de dimensión n y sea S un


subconjunto linealmente independiente de E que contiene m elementos. Entonces, existe un
subconjunto S1 ⊂ B tal que S ∪ S1 es una base de E.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 90

Los Teoremas (2.5.2) y (2.5.3) y sus cinco corolarios contienen toda una riqueza de
información acerca de las relaciones entre conjuntos linealmente independientes, bases y
conjuntos generadores. Por esta razón resumiremos los principales resultados de esta sección
para situarlos en una mejor perspectiva.
Una base de un espacio vectorial E es un subconjunto linealmente independiente de E que
genera a E. Si E tiene una base finita, entonces cualquier base de E contiene el mismo número
de vectores. Este número se llama dimensión de E, y se dice que E es dimensionalmente
finito.
Luego, si la dimensión de E es n, toda base para E contiene exactamente n vectores.
Además, cada subconjunto de E linealmente independiente contiene no más de n vecto-
res y puede ser tomado como base de E mediante la inclusión de vectores adecuadamente
escogidos.
Por otra parte, cada conjunto generador de E contiene al menos n vectores y puede
ser transformado en una base para E eliminando adecuadamente algunos de los vectores
escogidos. La figura (2.3) describe estas relaciones.

Figura 2.3: Relaciones entre conjuntos linealmente independientes, bases y conjuntos generadores

El siguiente ejemplo ilustra cómo pueden utilizarse estos resultados para obtener una
importante conclusión no trivial. Sean c0 , c1 , . . . , cn elementos distintos de un campo infinito
F.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 91

Los polinomios f0 (x), f1 (x), . . . , fn (x), donde


nY x − cj
(x − c0 ) . . . (x − ci−1 )(x − ci+1 ) . . . (x − cn )
fi (x) = =
(ci − c0 ) . . . (ci − ci−1 )(ci − ci+1 ) . . . (ci − cn ) j=0 ci − cj
j6=i

se llaman polinomios de Lagrange (asociados a c0 , c1 , . . . , cn ). Tomando a fi (x) como


una función polinomial fi : F → F , se ve que
½
0 si i 6= j
fi (cj ) = (2.28)
1 si i = j

Esta propiedad de los polinomios de Lagrange se utiliza para demostrar que el conjunto

B = {f0 (x), f1 (x), . . . , fn (x)}

es un subconjunto linealmente independiente de Pn (F ) y como la dimensión de Pn (F ) es


n + 1 por el Corolario 2.5.4 se tiene que B es una base de Pn (F ). Como B es una base para
Pn (F ), toda función polinomial g ∈ Pn (F ) es una combinación lineal de elementos de B, es
decir,
Xn
g= bi fi .
i=0

Entonces n
X
g(cj ) = bi fi (cj ) = bj
i=0

ası́ n
X
g= g(ci )fi
i=0

es la única representación de g como combinación lineal de elementos de B. Esta represen-


tación se llama ecuación de interpolación de Lagrange.
Nótese que el argumento anterior muestra que si b0 , b1 , . . . , bn son cualesquiera n + 1
elementos de F (no necesariamente distintos), entonces la función polinomial
n
X
g= bi fi .
i=0

es el único elemento de Pn (F ) tal que g(cj ) = bj . Luego, hemos encontrado el único polinomio
cuyo grado no excede a n que tiene valores especı́ficos bj en puntos dados cj en su dominio
(j = 0, 1, . . . , n). Por ejemplo, para construir el polinomio real g de grado máximo 2 cuya
gráfica contiene a los puntos (1, 8), (2, 5) y (3, −4).

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 92

Luego, con la notación anterior, c0 = 1, c1 = 2, c2 = 3, b0 = 8, b1 = 5, y b2 = −4. Los


polinomios de Lagrange asociados a c0 , c1 , c2 , son
(x − 2)(x − 3) 1
f0 (x) = = (x2 − 5x + 6),
(1 − 2)(1 − 3) 2

(x − 1)(x − 3)
f1 (x) = = −1(x2 − 4x + 3),
(2 − 1)(2 − 3)
y
(x − 1)(x − 2) 1
f2 (x) = = (x2 − 3x + 2)
(3 − 1)(3 − 2) 2
De aquı́, el polinomio deseado es
n
X
g(x) = bi fi (x) = 8f0 + 5f1 − 4f2
i=0
= 4(x2 − 5x + 6) − 5(x2 − 4x + 3) − 2(x2 − 3x + 2)
= −3x2 + 6x + 5.

Una consecuencia importante de la ecuación de interpolación de Lagrange es el siguiente


resultado: Si f ∈ Pn (F ) y f (cj ) = 0 para n + 1 elementos diferentes c0 , c1 , . . . , cn ∈ F , f
será la función cero. Es decir, el único polinómio de grado menor o igual a n que tiene n + 1
raı́ces distintas es el polinomio cero.
El siguiente resultado relaciona la dimensión de un subespacio con la dimensión del
espacio vectorial que la contiene.

Teorema 2.5.9 Sea W un subespacio de un espacio vectorial E de dimensión n. Entonces,


W es dimensionalmente finito y dim(W ) ≤ n. Además, si dim(W ) = n, entonces W = E.

De la mano del Teorema (2.5.9) viene el siguiente corolario

Corolario 2.5.10 Si W es un subespacio de un espacio E dimensionalmente finito, en-


tonces W tiene una base finita y cualquier base para W es un subconjunto de una base para
E.

Podemos utilizar el Teorema (2.5.9) para analizar geométricamente los subespacios de


R2 y R3 . Como R2 tiene dimensión 2 sobre R, los subespacios de R2 pueden ser solamente
de dimensiones 0, 1 ó 2. Los únicos subespacios de dimensiones 0 ó 2 son {0} y R2 , respec-
tivamente. Cualquier subespacio de R2 que tenga dimensión 1 consta de todos los múltiplos
escalares de algún vector no nulo en R2 .
Si algún punto de R2 se identifica de manera natural con un punto del plano Euclidiano,
entonces es posible describir los subespacios de R geométricamente: Un subespacio de R2
de dimensión 0 consta del origen del plano Euclidiano, un subespacio de R2 de dimensión 1

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 93

consta de una recta que pasa por el origen y un subespacio de R2 que tengan dimensión 2
es todo el plano Euclidiano.
Similarmente, los subespacios de R3 deben tener dimensión 0, 1, 2 ó 3. Interpretando
estas posibilidades geométricamente, vemos que un subespacio de dimensión cero debe ser
el origen del sistema coordenado Euclidiano en el espacio, un subespacio de dimensión 1 es
una recta que pasa por el origen, un subespacio de dimensión 2 es un plano que pasa por el
origen y un subespacio de dimensión 3 es el mismo espacio Euclidiano de 3 dimensiones.

Ejemplo 2.5.11 Sea W = {(a1 , . . . , a5 ) ∈ F : a1 + a3 + a5 = 0, a2 = a4 }. Entonces W es


un subespacio de F 5 con {(1, 0, 0, 0, −1), (0, 0, 1, 0, −1), (0, 1, 0, 1, 0)} como una base. Por
tanto, la dimensión de W es 3.

Ejemplo 2.5.12 El conjunto de las matrices diagonales de n × n forma un subespacio W


de Mn×n (F ) (Ver ejemplo 2.2.1 de la página 64). Una base para W es {M 11 , M 22 , . . . , M nn }
donde M ij es la matriz definida en el ejemplo 2.5.3 de la página 86. Ası́, la dimensión de
W es n.

Ejemplo 2.5.13 El conjunto de las matrices simétricas de n×n forma un subespacio W de


Mn×n (F ). Una base para W es B = {M ij : 1 ≤ i ≤ j ≤ n}, donde M ij es la matriz de n × n
que tiene 1 en la i-ésima fila y la j-ésima columna, 1 en la j-ésima fila e i-ésima columna, y
0 en los demás términos. Por tanto, la dimensión de W es
1
n + (n − 1) + . . . + 1 = n(n + 1).
2
Ejemplo 2.5.14 El conjunto de polinomios de la forma a18 x18 + a16 x16 + . . . + a2 x2 + a0
donde a0 , a2 , . . . , a16 , a18 ∈ F , componen un subespacio W de P19 (F ) de dimensión 10 puesto
que {1, x2 , x4 , . . . , x18 } es una base para W .

Si W1 y W2 son subespacios de un espacio vectorial E sabemos que también lo son W1 ∩W2


y W1 + W2 . Es natural preguntar si las dimensiones de estos subespacios pueden calcularse
directamente a partir de las dimensiones de W1 y W2 . Pues la respuesta es no. Existe, sin
embargo, una relación entre dim(W1 + W2 ), dim(W1 ), dim(W2 ) y dim(W1 ∩ W2 ).

Teorema 2.5.11 Sean W1 y W2 subespacios dimensionalmente finiios de un espacio vec-


torial E. Entonces, W1 + W2 es dimensionalmente finito y
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).

De este resultado se obtiene el siguiente corolario


Corolario 2.5.12 Sean W1 y W2 subespacios dimensionalmente finitos de un espacio vec-
torial E tales que E = W1 + W2 . Luego, E es la suma directa de W1 y W2 si y sólo si
dim(E) = dim(W1 ) + dim(W2 ).

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 94

Ejemplo 2.5.15 Sea c un elemento de un campo F, sea W1 el conjunto de todas las fun-
ciones constantes en Pn (F ), y defı́nase como W2 = {f (x) ∈ Pn (F ) : f (c) = 0}, entonces
dim(W2 ) = n.

Puede verse fácilmente que W1 , y W2 son subespacios de Pn (F ) y que Pn (F ) = W1 ⊕W2 . Para


ello obsérvese que para cualesquiera f (x) ∈ Pn (F ), g(x) = f (c) ∈ W1 , h(x) = f (x) − f (c) ∈
W2 y f (x) = g(x) + h(x).
Como la función constante p(x) = 1 claramente constituye una base para W1 , se deduce
del Corolario 2.5.12 que
dim(W2 ) = dim(Pn (F )) − dim(W1 )
dim(W2 ) = (n + 1) − 1
dim(W2 ) = n.

Ejercicios 2.5.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos

a) El espacio vectorial cero no tiene base.


b) Todo espacio vectorial generado por un conjunto finito tiene una base.
c) Todo espacio vectorial tiene una base finita.
d ) Un espacio vectorial no puede tener más de una base.
e) Si un espacio vectorial tiene una base finita, entonces el número de vectores en
todas las bases es el mismo.
f ) La dimensión de Pn (F ) es n.
g) La dimensión de Mm×n (F ) es m + n.
h) Suponer que E es un espacio vectorial dimensionalmente finito, que S1 es un
subconjunto linealmente independiente de E y que S2 es un subconjunto de E
que genera a E. Luego, S1 no puede tener más elementos que S2 .
i ) Si S genera al espacio vectorial E, entonces todo vector en E puede escribirse
como una combinación lineal de elementos de S de una sola manera.
j ) Todo subespacio de un espacio dimensionalmente finito es dimensionalmente fini-
to.
k ) Si E es un espacio vectorial de dimensión n, entonces E tiene exactamente un
subespacio de dimensión 0 y exactamente un subespacio de dimensión n.
l ) Si W1 y W2 son subespacios dimensionalmente finitos de un espacio vectorial,
entonces dim(W1 + W2 ) = dim(W1 ) + dim(W2 ).

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 2. ESPACIOS VECTORIALES Álgebra Lineal 95

2. Determinar cuáles de los siguientes conjuntos son bases para R3 .

a) {(1, 0, −1), (2, 5, 1), (0, −4, 3)}


b) {(2, −4, 1), (0, 3, −1), (6, 0, −1)}
c) {(1, 2, −1), (1, 0, 2), (2, 1, 1)}
d ) {(−1, 3, 1), (2, −4, −3), (−3, 8, 2)}
e) {(1, −3, −2), (−3, 1, 3), (−2, −10, −2)}

3. Determinar cuáles de los siguientes conjuntos son bases para P2 (R)

a) {−1 − x + 2x2 , 2 + x − 2x2 , 1 − 2x + 4x2 }


b) {1 + 2x + x2 , 3 + x2 , x + x2 }
c) {1 + 4x − 2x2 , −2 + 3x − x2 , −3 − 12x + 6x2 }
d ) {−1 + 2x + 4x2 , 3 − x4 − 10x2 , −2 − 5x − 6x2 }
e) {1 + 2x − x2 , 4 − 2x + x2 , −1 + 18x − 9x2 }

4. ¿Generan los polinomios x3 − 2x2 + 1, 4x2 − x + 3 y 3x − 2 a P3 (R)? Justificar la


respuesta.

5. ¿Es {(1, 4, −6), (1, 5, 8), (2, 1, 1), (0, 1, 0)} un subconjunto linealmente independiente de
R3 ? Justificar la respuesta.

6. Dar tres bases diferentes para F 2 y para M2×2 (F ).

7. Los vectores x1 = (2, −3, 1), x2 = (1, 4, −2), x3 = (−8, 12, −4), x4 = (1, 37, −17) y
x5 = (−3, −5, 8) generan a R3 . Encontrar un subconjunto de {x1 , x2 , x3 , x4 , x5 } que
sea una base para R3 .

8. Sea E el espacio vectorial que consta de todos los vectores de R5 para los cuales la
suma de las coordenadas es cero. Los vectores
x1 = (2, −3, 4, −5, 2), x2 = (−6, 9, −12, 15, −6),
x3 = (3, −2, 7, −9, 1), x4 = (2, −8, 2, −2, 6),
x5 = (−1, 1, 2, 1, −3), x6 = (0, −3, −18, 9, 12),
x7 = (1, 0, −2, 3, −2), x8 = (2, −, 1, −9, 7)

generan a E. Encontar un subconjunto de {x1 , . . . , x8 } que sea una base para E

9. Los vectores x= (1, 1, 1, 1), x2 = (0, 1, 1, 1), x3 = (0, 0, 1, 1) y x4 = (0, 0, 0, 1) forman una
base para F 4 . Encontrar la única representación de un vector arbitrario (a1 , a2 , a3 , a4 )
en F 4 como combinación lineal de los vectores x1 , x2 , x3 , y x4 .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


2.5. BASES Y DIMENSIÓN Álgebra Lineal 96

10. Sea E = M2×2 (F ), ½µ ¶ ¾


a b
W1 = ∈ E : a, b, c ∈ F
c a
y ½µ ¶ ¾
0 a
W2 = ∈ E : a, b ∈ F .
−a b
Verificar que W1 y W2 son subespacios vectoriales de E y encontrar las dimensiones de
W1 , W2 , W1 + W2 y W1 ∩ W2

11. Sean W1 y W2 subespacios de un espacio vectorial E de dimensiones m y n, respecti-


vamente, donde m ≥ n. Comprobar que dim(W1 ∩ W2 ) ≤ n y dim(W1 + W2 ) ≤ m + n.
Dar ejemplos de subespacios de R3 donde cada desigualdad se convierta en igualdad.

12. Sea {x, y}una base de un espacio vectorial E. Comprobar que tanto {x + y, x − y}
como {ax, by} son bases para E, donde a y b son escalares arbitrarios no nulos.

13. Suponer que E es un espacio vectorial con una base {x1 , x2 , x3 }. Comprobar que {x1 +
x2 + x3 , x2 + x3 , x3 } también es una base para E.

14. El conjunto de soluciones para el sistema

x1 − 2x2 + x3 = 0
2x1 − 3x2 + x3 = 0

es un subespacio de R3 . Encontrar una base para este subespacio.

15. El conjunto de todas las matrices cuadradas cuya traza es igual a cero es un subespacio
W de Mn×n (F ). (Ver Ejemplo 2.2.4 de la página 65) Encontrar una base para W . ¿Cuál
es la dimensión de W ?

16. El conjunto de todas las matrices triangulares superiores de n × n es un subespacio W


de Mn×n (F ). (Ver Ejercicio 6 de la página 68.) Encontrar una base para W . ¿Cuál es
la dimensión de W ?

17. El conjunto de todas las matrices antisimétricas de n × n es un subespacio W de


Mn×n (F ). (Ver Ejercicio 14 de la página 69) Encontrar una base para W . ¿Cuál es la
dimensión de W ?

18. Sea W un subespacio de un espacio vectorial dimensionalmente finito E. Determinar


la dimensión del espacio vectorial E/W , el espacio cociente de E módulo W . (Ver
Ejercicio 15 de la página 69) Justificar la respuesta.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


Capı́tulo 3

Transformaciones Lineales

En el Capı́tulo 2 se desarrolló la teorı́a de espacios vectoriales abstractos con bastante


detalle. Ahora es natural considerar a aquellas funciones definidas en espacios vectoriales que
en cierto sentido “conservan” estructura; estas funciones especiales se denominan Trans-
formaciones Lineales y son abundantes en las matemáticas puras como en las aplicadas.
En el cálculo, las operaciones de diferenciación e integración nos proporcionan dos de los
ejemplos más importantes de transformaciones lineales. Estos dos ejemplos permiten refor-
mular muchos de los problemas de integrales en términos de transformaciones lineales en
espacios vectoriales particulares. En lo que queda del capı́tulos se verá ejemplos adicionales
de transformaciones lineales en las ciencias fı́sicas y sociales. En todo momento de ahora en
más se supondá que todos los espacios vectoriales están definidos sobre un campo ordinario
F.
3.1. Transformaciones L., Espacios Nulos y Rangos
Ahora se considerará un gran número de ejemplos de transformaciones lineales, muchas
de las cuales serán estudiadas con más detalle en secciones posteriores.
Definición 3.1.1 Sean V y W espacios vectoriales (sobre F ). Una función T : V → W se
llama transformación lineal de V en W si para toda α, β ∈ V y c ∈ F tenemos que:

+ T (α + β) = T (α) + T (β)

+ T (cα) = cT (α)

A menudo denominaremos a T simplemente lineal. Inmediatamente de la definición se des-


prende los siguientes hechos sobre la función T : V → W .

1. Si T es lineal, entonces T (0) = 0.

2. T es lineal si y solo si T (cα + β) = cT (α) + T (β) para todo α, β ∈ V y c ∈ F

97
3.1. TRANSFORMACIÓN LINEAL, NÚCLEO Y RANGO Álgebra Lineal 98

3. T es lineal si y solo si para α1 , . . . , αn ∈ V y c1 , . . . , cn ∈ F tenemos que


à n ! n
X X
T ci αi = ci T (αi )
i=1 i=1

Generalmente se utiliza la propiedad 2 para determinar si una transformación dada es lineal.

Ejemplo 3.1.1 Verificar si la transformación T : Pn (R) → Pn−1 (R) definida mediante


T (f ) = f 0 , donde f 0 es la derivada de f es lineal

Para determinar si T es lineal, sean g y h vectores en Pn (R) y c ∈ R. Tenemos que


T (cg + h) = (cg + h)0 = ag 0 + h0 = aT (g) + T (h). Entonces, de acuerdo con la propiedad 2,
T es lineal

Ejemplo 3.1.2 Sea C(R) el espacio vectorial de funciones continuas de variable real en R.
Z b
Sean a, b ∈ R y defı́nase T : C(R) → R mediante T (f ) = f (t) dt para toda f ∈ C(R).
a
Verificar si T es lineal

Para determinar si T es lineal, sean g y h vectores en C(R) y c ∈ R. Tenemos que


Z bh i Z b Z b
T (cg + h) = cg(t) + h(t) dt = a g(t) dt + h(t) dt = aT (g) + T (h).
a a a

Entonces, de acuerdo con la propiedad 2, T es lineal


Dos ejemplos muy importantes de transformaciones lineales que pueden aparecer a me-
nudo en el resto del material y que, por tanto, merecen tener una notación propia, son la
transformación identidad y la transformación cero.
Para espacios vectoriales V y W (sobre F ) definimos la transformación identidad I :
V → V mediante I(x) = x para toda x ∈ V y la transformación cero T0 : V → W por
T0 (x) = 0 para toda x ∈ V . Es evidente que ambas transformaciones son lineales.
Veremos ahora algunos ejemplos adicionales de transformaciones lineales.

Ejemplo 3.1.3 Sea T : R2 → R2 definida por

T (a1 , a2 ) = (2a1 + a2 , a1 )

Determinar si T es lineal

Sea x, y ∈ R2 , x = (b1 , b2 ), y = (d1 , d2 ), y sea c ∈ F . Como

cx + y = (cb1 + d1 , cb2 + d2 )

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 99

tenemos ³ ´
T (cx + y) = 2(cb1 + d1 ) + cb2 + d2 , cb1 + d1
También
cT (x) + T (y) = c(2b1 + b2 , b1 ) + (2d1 + d2 , d1 )

= (2cb1 + cb2 + 2d1 + d2 , cb1 + d1 )


³ ´
= 2(cb1 + d1 ) + cb2 + d2 , cb1 + d1 .
Por tanto T es lineal

Ejemplo 3.1.4 Defı́nase T : Mm×n (F ) → Mm×n (F ) mediante T (A) = At , donde At es la


transpuesta de la matriz A. Verificar que T es lineal

Sean A, B ∈ Mm×n (F ) y c ∈ F , tenemos


h i
T (cA + B) = (cA + B)t pero (cA + B)t = (cA + B)ji = (cA)ji + (B)ji
ij

entonces (cA + B)t = cAt + B t = cT (A) + T (B), luego, T es lineal.


Las aplicaciones del álgebra lineal a la geometrı́a son vastas y variadas. La razón principal
de esto es que la mayor parte de las transformaciones geométricas son lineales. Tres transfor-
maciones particulares que ahora consideraremos son la rotación, la reflexión y la proyección.
Se Deja como ejercicio las verificaciones de linealidad.

Ejemplo 3.1.5 Para 0 ≤ θ < 2π definimos Tθ : R2 → R2 mediante

Tθ (a1 , a2 ) = (a1 cos θ − a2 sen θ, a1 sen θ + a2 cos θ) .

Tθ se denomina rotación en θ (Ver Fig. 3.1(a) )

Ejemplo 3.1.6 Defı́nase T : R2 → R2 mediante T (a1 , a2 ) = (a1 , −a2 ). T se denomina


reflexión en torno al eje x. (Ver Fig. 3.1(b) )

Ejemplo 3.1.7 Defı́nase T : R2 → R2 mediante T (a1 , a2 ) = (a1 , 0). T se denomina pro-


yección sobre el eje x. (Ver Fig. 3.1(c) )

Nótese que si hacemos W1 = {(a, 0) : a ∈ R} y W2 = {(0, a) : a ∈ R} entonces R2 = W1 ⊕W2


por lo que para toda x ∈ R2 existen vectores únicos x1 ∈ W1 y x2 ∈ W2 tales que x = x1 + x2
y T (x) = x1 .

Definición 3.1.2 Sean V un espacio vectorial y W1 , un subespacio de V . Una función


T : V → V se llama proyección sobre W1 , si

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.1. TRANSFORMACIÓN LINEAL, NÚCLEO Y RANGO Álgebra Lineal 100

(a) Rotación en θ. (b) Reflexión en torno al eje x. (c) Proyección sobre el eje x.

Figura 3.1: Rotaciones, Reflexiones y Proyecciones en R2

1. Exixte un subespacio W2 tal gue V = W1 ⊕ W2


2. Para X = x1 + x2 , donde x1 ∈ W1 y x2 ∈ W2 , tenemos T (X) = x1 .

Nótese que T será una proyección sobre W1 si W1 = {x ∈ V : T (x) = x} .


La proyección descrita en la figura 3.1(c) es la proyección natural. Este tipo de proyec-
ción se llama proyección ortogonal y está determinada de manera única por el subespacio
W1 . Ahora pondremos atención a dos conjuntos muy importantes asociados con las trans-
formaciones lineales: el “rango”y el “espacio nulo”. La determinación de estos conjuntos nos
permitirá examinar más de cerca las propiedades intrı́nsecas de una transformación lineal.

Definición 3.1.3 Sean V y W espacios vectoriales y sea T : V → W lineal. Definimos al


espacio nulo (Núcleo o kernel) N (T ) de T como el conjunto de todos los vectores x ∈ V tal
que T (x) = 0; es decir, N (T ) = {x ∈ V : T (x) = 0}.
Definimos al rango (o imagen) R(T ) como el subconjunto de W que consta de todas las
imágenes (bajo T ) de los elementos de V ; es decir, R(T ) = {T (x) ∈ W : x ∈ V } .

Ejemplo 3.1.8 Sean V y W espacios vectoriales y sean I : V → V y T0 : V → W


respectivamente las transformaciones identidad y cero, tal como se definieron anteriormente.
Entonces N (I) = {0}, R(I) = V , N (T0 ) = V y R(T0 ) = {0} .

Ejemplo 3.1.9 Sea T : R3 → R2 definida mediante T (a1 , a2 , a3 ) = (a1 − a2 , 2a3 ). Entonces


N (T ) = {(a, a, 0) ∈ V : a ∈ R} y R(T ) = R2

Para ver esto apliquemos las definiciones correspondientes de Núcleo y Rango.


En el núcleo están todos los elementos de R3 cuya imagen bojo T es el vector (0, 0),
entonces los elementos del núcleo deben cumplir la igualdad
(a1 − a2 , 2a3 ) = (0, 0)

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 101

del cual obtenemos un sistema de ecuaciones dado por

a1 − a2 = 0
2a3 = 0

cuyas soluciones son a1 = a2 y a3 = 0, luego N (T ) = {(a, a, 0) ∈ V : a ∈ R}.


Para ver que R(T ) = R2 supongamos que (x, y) ∈ R2 sea un elemento de R(T ) y notemos
que en el sistema
a1 − a2 = x
2a3 = y
las dos ecuaciones son independientes entre sı́ en el sentido de que la primera no depende de
a3 y la segunda no depende a1 y a2 . Luego R(T ) = R2 .
En el ejemplo 3.1.7 se ve fácilmente que los subespacios W1 = R(T ) y W2 = N (T ). El
teorema siguiente nos dice que éste es el caso para todas las proyecciones.

Teorema 3.1.1 Sea V un espacio vectorial y W1 un subespacio de V . Sea T una proyección


sobre W1 , y sea W2 tal como en la definición de proyección 3.1.2. Entonces W1 = R(T ) y
W2 = N (T ).

Este teorema nos dice que W2 queda determinada de manera única por la proyección de T
sobre W1 Además, como T es una proyección sobre su rango, utilizaremos sencillamente el
término “proyección” sin mencionar al subespacio W1 .

Teorema 3.1.2 Sean V y W espacios vectoriales y T : V → W lineal. Entonces N (T ) y


R(T ) son subespacios de V y W , respectivamente.

Tal como en el Capı́tulo 2, mediremos el “tamaño” de un subespacio por su dimensión.


Los dos subespacios anteriores son tan importantes que dedicaremos atención especial a sus
dimensiones respectivas.

Definición 3.1.4 Sean V y W espacios vectoriales y sea T : V → W lineal. Si N (T ) y


R(T ) dimensionalmente finitos, entonces definimos la nulidad de T , expresada como Nul(T ),
y el rango de T , expresado como Ran(T ), como las dimensiones de N (T ) y R(T ), respecti-
vamente.

Reflexionando sobre la acción de una transformación lineal, vemos intuitivamente que mien-
tras más grande es la nulidad menor es el rango. En otras palabras, mientras más vectores
van a dar al cero, menor es el rango. El mismo razonamiento nos dirá que mientras más gran-
de sea el rango, menor es la nulidad. Este balance entre el rango y la nulidad se hará más
preciso en el teorema siguiente.

Teorema 3.1.3 (Teorema de la dimesión) Sean V y W espacios vectoriales y sea T :


V → W lineal. Si V es dimensionalmente finito, entonces Nul(T ) + Ran(T ) = din(V ).

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.1. TRANSFORMACIÓN LINEAL, NÚCLEO Y RANGO Álgebra Lineal 102

Aun que no es evidente, de este teorema se desprende el siguiente Corolario


Corolario 3.1.4 Sean V y W espacios vectoriales y sea T : V → W lineal. Si V tiene una
base B = {x1 , . . . , xn }, entonces R(T ) = gen (T (B)) = gen ({T (x1 ), . . . , T (xn )})
Este corolario nos dice que la imagen de una base para el dominio de una transformación
lineal es un conjunto generador para el rango de la transformación. Por lo tanto, este corolario
proporciona un método para encontrar una base para el rango de una transformación lineal.
Emplearemos esta técnica en el ejemplo siguiente.
Ejemplo 3.1.10 Defı́nase la transformación lineal T : P2 (R) → M2×2 (R) mediante
µ ¶
f (1) − f (2) 0
T (f ) =
0 f (0)
Como B = {1, x, x2 } es una base para P2 (R), tenemos que
R(T ) = gen (T (B)) = gen ({T (1), T (x), T (x2 )})
µ½µ ¶ µ ¶ µ ¶¾¶
0 0 −1 0 −3 0
= gen , ,
0 1 0 0 0 0
µ½µ ¶ µ ¶¾¶
0 0 −1 0
= gen ,
0 1 0 0
Entonces, hemos encontrado una base para R(T ) y vemos que Ran(T ) = 2. En virtud del
Teorema 3.1.3 tenemos que Nul(T ) + 2 = 3, y entonces Nul(T ) = 1.
Teorema 3.1.5 Sean V y W espacios vectoriales y sea T : V → W lineal. Entonces T es
inyectiva si y solo si N (T ) = {0}
Observar que el Teorema 3.1.5 nos permite concluir que la transformación definida en el
Ejemplo 3.1.10 no es inyectiva.
Sorpresivamente, las condiciones para que una transformación sea inyectiva y sobreyectiva
son equivalentes en un caso especial de importancia.
Teorema 3.1.6 Sean V y W espacios vectoriales de dimensiones iguales (finitas) y sea
T : V → W lineal. Entonces T es inyectiva si y sólo si T es sobreyectiva.
Los siguientes dos ejemplos hacen uso de los Teoremas 3.1.5 y 3.1.6 para ver si una
transformación lineal dada es inyectiva o sobreyectiva.
Ejemplo 3.1.11 Defı́nase T : P2 (R) → P3 (R) mediante
Z x
0
T (f )(x) = 2f (x) + 3f (t) dt
0

Determinar si T es inyectiva o sobreyectiva o ambos

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 103

Ahora ¡© ª¢ ¡© ª¢
R(T ) = gen T (1), T (x), T (x2 ) = gen 3x, 2 + 3/2x2 , 4x + x3
Por lo que Ran(T ) = 3. Como dim(P3 (R)) = 4, T no es sobreyectiva.
Del Teorema 3.1.3, Nul(T ) + 3 = 3; por tanto, Nul(T ) = 0 y entonces N (T ) = {0}.
Luego, de acuerdo con el Teorema 3.1.5, T es inyectiva.

Ejemplo 3.1.12 Defı́nase T : F 2 → F 2 mediante T (a1 , a2 ) = (a2 + a1 , a1 ).

Es fácil comprobar que N (T ) = {0}; entonces T es inyectiva, por lo que el Teorema 3.1.6
nos dice que T debe ser sobreyectiva.
Nuestro siguiente teorema proporciona una caracterización de las transformaciones linea-
les inyectiva como aquellas transformaciones que conservan la independencia lineal.

Teorema 3.1.7 Sean V y W espacios vectoriales, y sea T : V → W lineal. Entonces T es


inyectiva si y sólo si T lleva subconjuntos linealmente independientes de V a subconjuntos
linealmente independientes de W .

Corolario 3.1.8 Sean V y W espacios vectoriales y sea T : V → W una transforma-


ción lineal inyectiva. Supóngase que S es un subconjunto de V . Entonces S es linealmente
independiente si y sólo si T (S) es linealmente independiente

Ejemplo 3.1.13 Defı́nase T : P2 (R) → R3 mediante T (a0 + a1 x + a2 x2 ) = (a0 , a1 , a2 )

Es claro que T es inyectiva. Sea S = {2 − x + 3x2 , x + x2 , 1 − 2x2 }. Entonces S es lineal-


mente independiente en P2 (R) si y solo si
T (S) = {(2, −1, 3), (0, 1, 1), (1, 0, −2)}
es linealmente independiente en R3 .
En el ejemplo 3.1.13 transferimos un problema del espacio vectorial de los polinomios a un
problema en el espacio vectorial de las ternas (3-dimensionales). Esta técnica será explotada
después más ampliamente. Una de las propiedades más importantes de las transformaciones
lineales es que quedan completamente definidas por su acción sobre una base.
Este resultado, que se obtiene del siguiente teorema y su corolario, se utilizará frecuen-
temente a lo largo de este material.
Teorema 3.1.9 Sean V y W espacios vectoriales y supóngase que V es un espacio vectorial
dimensionalmente finito con una base {x1 , . . . , xn }. Para cualquier subconjunto {y1 , . . . , yn }
de W existe exactamente una transformación lineal T : V → W tal que T (xi ) = yi para
i = 1, . . . , n.

Corolario 3.1.10 Sean V y W espacios vectoriales y supóngase que V es dimensional-


mente finito con una base {x1 , . . . , xn }. Si U, T : V → W son lineales y U (xi ) = T (xi ) para
i = 1, . . . , n, entonces U = T.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.1. TRANSFORMACIÓN LINEAL, NÚCLEO Y RANGO Álgebra Lineal 104

Ejemplo 3.1.14 Defı́nase T : R2 → R2 mediante T (a1 , a2 ) = (2a2 − a1 , 3a1 ), y supóngase


que T : R2 → R2 es lineal. Si sabemos que U (l, 2) = (3, 3) y U (l, 1) = (1, 3), entonces U = T.
Esto se deduce del corolario 3.1.10 y del hecho de que {(1, 2), (1, 1)} es una base para R2 .

Ejercicios 3.1.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos. De aquı́ en adelante, V y W son espacios vectoriales dimensionalmente finitos
(sobre F ) y T es una función de V en W .

a) Si T es lineal, entonces T conserva las sumas y productos por escalares.


b) Si T (x + y) = T (x) + T (y) entonces T es lineal.
c) T es inyectiva si y sólo si N (T ) = {0}.
d ) Todas las proyecciones deben ser lineales.
e) Si T es lineal, entonces T (0) = 0.
f ) Si T es lineal, entonces Nul(T ) + Ran(T ) =din(W ).
g) Si T es lineal, entonces lleva subconjuntos linealmente independientes de V a
subconjuntos linealmente independientes de W .
h) Si T, U : V → W son lineales y concuerdan en una base de V , entonces T = U .
i ) Dados u1 , u2 ∈ V y w1 , w2 ∈W, existe una transformación lineal T : V → W tal
que T (u1 ) = w1 , y T (u2 ) = w2 .

2. En cada caso comprobar que T es una transformación lineal y encontrar bases para
N (T ) y R(T ). Luego, calcular la nulidad y el rango de T para determinar, usando los
teoremas adecuados de esta sección, si T es inyectiva o sobreyectiva.

a) T : R2 → R2 ; T (a1 , a2 a3 ) = (a1 − a, 2a3 ).


b) T : R2 → R2 ; T (a1 , a2 ) = (a1 + a2 , 0, 2a1 − a2 ).
µ ¶ µ ¶
a11 a12 a13 2a11 − a12 a13 + 2a12
c) T : M2×3 (F ) → M2×2 (F ); T =
a21 a22 a23 0 0
d ) T : P2 (R) → P3 (R); T (f (x)) = xf (x) + f 0 (x)
e) T : Mn×n (F ) → F ; T (A) = tr(A)

3. Para las siguientes T : R2 → R2 , decir por qué T no es lineal.

a) T (a1 , a2 ) = (1, a2 )
b) T (a1 , a2 ) = (a1 , a1 )

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 105

c) T (a1 , a2 ) = (sen a1 , 0)
d ) T (a1 , a2 ) = (|a1 |, a2 )
e) T (a1 , a2 ) = (a1 + 1, a2 )

4. Supóngase que T : R2 → R2 es lineal y que T (1, 0) = (1, 4) y T (1, 1) = (2, 5). ¿Cuál es
el resultado de T (2, 3)? ¿Es T biyectiva?

5. Encontrar la transformación lineal T : R2 → R3 tal que T (1, 1) = (1, 0, 2) y T (2, 3) =


(1, −1, 4) para calcular T (8, 11)

6. ¿Existe una transformación lineal T : R3 → R2 tal que T (1, 0, 3) = (1, 1) y T (−2, 0, −6) =
(2, 1)?

7. Encontrar un ejemplo de una transformación lineal T : R2 → R2 tal que N (T ) = R(T )

8. Dar un ejemplo de transformaciones lineales diferentes T y U tales que N (T ) = N (U )


y R(T ) = R(U )

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.2. MATRIZ DE UNA TRANSFORMACIÓN LINEAL Álgebra Lineal 106

3.2. Representación Matricial de Transformaciones Li-


neales
Hasta ahora se ha estudiado las transformaciones lineales examinando sus rangos y sus
espacios nulos. Ahora entraremos a uno de los procedimientos de mayor utilidad en el análisis
de una transformación lineal sobre un espacio vectorial dimensionalmente finito; la repre-
sentación de una transformación lineal mediante una matriz. De hecho, la existencia de
una correspondencia uno-a-uno entre matrices y transformaciones nos permite utilizar las
propiedades de una para estudiar las propiedades de la otra.
Definición 3.2.1 Sea V un espacio vectorial dimensionalmente finito. Una base ordenada
para V es una base para V establecida con un orden especı́fico; es decir, una base ordenada
para V es una secuencia finita de elementos de V linealmente independientes que generen a
V.

Ejemplo 3.2.1 Sea V tal que tenga a B = {x1 , x2 , x3 } como una base ordenada. Entonces
G = {x2 , x1 , x3 } es también una base ordenada, pero como bases ordenadas, B 6= G.

Para el espacio vectorial F n , llamaremos a {e1 , e2 , . . . , en } la base ordenada estándar


para F n .
Ahora que contamos con el concepto de base ordenada, seremos capaces de identificar
vectores abstractos en un espacio vectorial de n dimensiones con elementos n-dimensionales.
Esta identificación será proporcionada mediante el uso de “vectores coordenados” tal como
se introducen a continuación.

Definición 3.2.2 Sea B = {x1 , . . . , x3 } una base ordenada para un espacio vectorial V
dimensionalmente finito. Para u ∈ V definimos al vector coordenado de u relativo a B,
denotado por [u]B , mediante
 
a1
.
[u]B =  .. 
an
donde
n
X
u= ai xi
i=1

Nótese que en la definición anterior [u]B = ei . Un buen ejercicio es comprobar que la trans-
formación T : V → F n dada por T (u) = [u]B es lineal.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 107

Ejemplo 3.2.2 Sean V = P2 (R) y B = {1, x, x2 }. Si f (x) = 4 + 6x − 7x2 , entonces


 
4
[f ]B =  6 
−7

Procedamos ahora con la representación matricial prometida de una transformación lineal.


Supóngase que V y W son espacios vectoriales dimensionalmente finitos con bases ordenadas
β = {x1 , . . . , xn } y γ = {y1 , . . . , ym }, respectivamente. Sea T : V → W lineal. Entonces
existen escalares únicos aij ∈ F (i = 1, 2, . . . , m y j = 1, 2, . . . , n) tales que
m
X
T (xj ) = aij yj para 1 ≤ j ≤ n.
i=1

Definición 3.2.3 Utilizando la notación anterior, llamaremos a la matriz A de m × n,


definida mediante Aij = aij la matriz que representa a T en las bases ordenadas β y γ y la
escribiremos A = [T ]γβ . Si V = W y β = γ, escribiremos A = [T ]β .

Nótese que la j-ésima columna de A es sencillamente [T (xj )]γ . Obsérvese igualmente que
del corolario 3.1.10 se concluye que si U : V → W es una transformación lineal tal que
[U ]γβ = [T ]γβ , entonces U = T .
Ilustraremos como calcular [T ]γβ en los siguientes ejemplos.

Ejemplo 3.2.3 Defı́nase T : P3 (R) → P2 (R) mediante T (f ) = f 0 . Sean β = {1, x, x2 , x3 }


y γ = {1, x, x2 } bases ordenadas para P3 (R) y P2 (R), respectivamente. Encontrar [T ]γβ

Tenemos que:
T (1) = 0 · 1 + 0 · x + 0 · x2
T (x) = 1 · 1 + 0 · x + 0 · x2
T (x2 ) = 0 · 1 + 2 · x + 0 · x2
T (x3 ) = 0 · 1 + 0 · x + 3 · x2
luego se tendrá  
0 1 0 0
[T ]γβ =  0 0 2 0  .
0 0 0 3
Nótese que los coeficientes de T (xi ) cuando se escriben como una combinación de ele-
mentos de γ dan los elementos de la columna (i + 1)-ésima.

Ejemplo 3.2.4 Defı́nase T : R2 → R3 mediante T (a1 , a2 ) = (a1 + 3a2 , 0, 2a1 − 4a2 ). Sean
β y γ las bases ordenadas estándar para R2 y R3 , respectivamente. Encontrar [T ]γβ

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.2. MATRIZ DE UNA TRANSFORMACIÓN LINEAL Álgebra Lineal 108

Ahora bien
T (1, 0) = (1, 0, 2) = 1e1 + 0e2 + 2e3
y
T (0, 1) = (3, 0, −4) = 3e1 + 0e2 − 4e3
Por lo tanto, matricialemente,  
1 3
[T ]γβ =  0 0  .
2 −4
Si hacemos γ 0 = {e3 , e2 , e1 }, entonces
 
2 −4
γ0
[T ]β =  0 0  .
1 3

Ahora que hemos definido un procedimiento para asociar matrices con transformaciones
lineales, veremos brevemente que esta asociación “conserva” la adición. Para hacer más
explı́cita esta situación, requeriremos de alguna discusión preliminar sobre la adición de
transformaciones lineales.

Definición 3.2.4 Sean T, U : V → W funciones arbitrarias, donde V y W son espacios


vectoriales, y sea a ∈ F . Definimos T + U : V → W mediante (T + U )(x) = T (x) + U (x)
para toda x ∈ V y aT : V → W mediante (aT )(x) = aT (x) para toda x ∈ V .

Por supuesto, esta es la definición usual de la suma y de la multiplicación por escalares


para las funciones. Afortunadamente, sin embargo, tenemos el resultado de que la suma de
transformaciones lineales es lineal.

Teorema 3.2.1 Sean V y W espacios vectoriales y sean T, U : V → W lineales. Entonces


para toda a ∈ F
1. aT + U es lineal.

2. Utilizando las operaciones de suma y de multiplicación por escalares, como se definieron


anteriormente, la colección de todas las transformaciones lineales de V en W , denotada
por L(V, W ), es un espacio vectorial sobre F .

En el caso donde V = W escribiremos L(V ) en vez de L(V, W ). Una identificación


completa de L(V, W ) con el espacio vectorial Mm×n (F ), donde n y m son las dimensiones
de V y W , respectivamente, se establece fácilmente utilizando el teorema siguiente.

Teorema 3.2.2 Sean V y W espacios vectoriales dimensionalmente finitos con bases orde-
nadas β y γ, respectivamente, y sean T, U : V → W transformaciones lineales. Entonces

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 109

1. [T + U ]γβ = [T ]γβ + [U ]γβ

2. [aT ]γβ = a [T ]γβ para toda a ∈ F

Ejemplo 3.2.5 Defı́nase T : R2 → R3 mediante

T (a1 , a2 ) = (a1 + 3a2 , 0, 2a1 − 4a2 )

y U : R2 → R3 mediante

U (a1 , a2 ) = (a1 − a2 , 2a1 , 3a1 + 2a2 )

Sean β y γ bases ordenadas estándar de R2 y R3 . Verificar que [T + U ]γβ = [T ]γβ + [U ]γβ

Por un lado tenemos que  


1 3
[T ]γβ =  0 0  .
2 −4
tal como se calculó en el Ejemplo 3.2.4 y
 
1 −1
[U ]γβ =  2 0  .
3 2

Si calculamos ahora T + U utilizando las definiciones anteriores, obtenemos

(T + U )(a1 , a2 ) = (2a1 + 2a2 , 2a1 , 5a1 − 2a2 )

Entonces  
2 2
[T + U ]γβ =  2 0  .
5 −2
que es sencillamente [T ]γβ + [U ]γβ

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.2. MATRIZ DE UNA TRANSFORMACIÓN LINEAL Álgebra Lineal 110

Ejercicios 3.2.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos. De aquı́ en adelante, V y W son espacios vectoriales dimensionalmente finitos
con bases ordenadas β y γ, respectivamente. Suponer que T, U : V → W son lineales.

a) Para cualquier escalar a, aT + U es una transformación lineal de V en W .


b) [T ]γβ = [U ]γβ implica que T = U .
c) Si m = dim(V ) y n = dim(W ), entonces [T ]γβ es una matriz de m × n.
d ) [T + U ]γβ = [T ]γβ + [U ]γβ .
e) L(V, W ) es un espacio vectorial.
f ) L(V, W ) = L(W, V ).

2. Sean β y γ las bases ordenadas estándar para Rn y Rm , respectivamente. Para las


siguientes transformaciones T : Rn → Rm , calcular [T ]γβ .

a) T : R2 → R3 definida mediante T (a1 , a2 ) = (2a1 − a2 , 3a1 + 4a2 , a1 )


b) T : R3 → R2 definida mediante T (a1 , a2 , a3 ) = (2a1 + 3a2 − a3 , a1 + a3 )
c) T : R3 → R definida mediante T (a1 , a2 , a3 ) = 2a1 + a2 − 3a3

3. Determine la matriz [T ]γβ de cada una de las siguientes proyecciones, donde β y γ son
las bases ordenadas estándar para Rn y Rm

a) T : R3 → R2 definida mediante T (a1 , a2 , a3 ) = (a1 , a2 )


b) T : R3 → R2 definida mediante T (a1 , a2 , a3 ) = (a2 , a3 )
c) T : R5 → R3 definida mediante T (a1 , a2 , a3 , a4 , a5 ) = (a2 , a3 , a4 )

4. Sea T : R2 → R3 definida como T (a1 , a2 ) = (a1 − a2 , a1 , 2a1 + a2 ). Sea β la base


ordenada estándar para R2 y γ = {(1, 1, 0), (0, 1, 1, ), (2, 2, 3)}. Calcular [T ]γβ . Si α =
{(1, 2), (2, 3)}, calcular [T ]γα
µ ¶
a b
5. Defı́nase T : M2×2 → P2 (R) mediante T = (a + b) + (2d)x + bx2 . Sea
c d
½µ ¶ µ ¶ µ ¶ µ ¶¾
1 0 0 1 0 0 0 0
β= , , ,
0 0 0 0 1 0 0 1

y γ = {1, x, x2 }. Calcular [T ]γβ

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 111

6. Para los siguientes casos, sean


½µ ¶ µ ¶ µ ¶ µ ¶¾
1 0 0 1 0 0 0 0
α= , , , ,
0 0 0 0 1 0 0 1

β = {1, x, x2 },
y
γ = {1}

a) Definida T : M2×2 (F ) → M2×2 (F ) mediante T (A) = At , calcular [T ]α


b) Definida T : P2 (R) → M2×2 (R) mediante
µ 0 ¶
f (0) 2f (1)
T (f ) =
0 f 00 (3)

donde 0 significa diferenciación, calcular [T ]αβ


c) Definida T : M2×2 (F ) → F mediante T (A) = tr(A), calcular [T ]γα
d ) Definida T : P2 (R) → R mediante T (f ) = f (2), calcular [T ]γβ
e) Si µ ¶
1 −2
A= ,
0 4
calcular [A]α
f ) Si f (x) = 3 − 6x + x2 , calcualar [f ]β
g) Si a ∈ F , calcular [a]γ

7. Sea V un espacio vectorial n-dimensional con una base ordenada B. Definiendo a


T : V → F n mediante T (x) = [x]B , comprobar que T es lineal.

8. Sea E el espacio vectorial de los números complejos sobre el campo R. Si T : V → V


queda definida mediante T (z) = z donde z es el complejo conjugado de z, comprobar
que T es lineal y calcular [T ]B , donde B = {1, i}. Verificar que T no es lineal si E se
considera como un espacio vectorial sobre el campo C.

9. Sea V un espacio vectorial de dimensión finita y sea T una proyección sobre un subes-
pacio W de V . Escoger una base ordenada adecuada B para V tal que [T ]B sea una
matriz diagonal.

10. Sean V y W espacios vectoriales y sean T y U transformaciones lineales no nulas de V


en W . Si R(T ) ∩ R(U ) = {0}, comprobar que {T, U } es un subconjunto de L(V, W )
linealmente independiente.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.2. MATRIZ DE UNA TRANSFORMACIÓN LINEAL Álgebra Lineal 112

11. Sean V = P (R), y para j ≥ 0 defı́nase a Tj : V → V mediante Tj (f ) = f (j) , donde


f (j) sea la j-ésima derivada de f . Para cualquier entero positivo n, comprobar que
{T1 , T2 , . . . , Tn } es un subconjunto de L(V ) linealmente independiente

12. Sean V y W espacios vectoriales dimensionalmente finitos y sea T : V → W lineal.


Supóngase que dim(V ) = dim(W ). Encontrar bases ordenadas β y γ para V y W ,
respectivamente, tales que [T ]γβ sea una matriz diagonal.

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 113

3.3. Composición de Transformaciones Lineales


En la Sección 3.2 aprendimos cómo asociar una matriz con una transformación lineal de
tal modo que las sumas de matrices quedaban asociadas con las correspondientes sumas de
transformaciones. Ahora surge la pregunta sobre cómo se relaciona la representación matricial
de una composición de transformaciones lineales con las representaciones matriciales de cada
una de las transformaciones lineales asociadas. La respuesta a esta interrogante está asociada
con la multiplicación de matrices. Utilizaremos la notación U T para la composición de las
transformaciones lineales U y T , contrastando con g ◦ f para funciones arbitrarias g y f .
Especı́ficamente, tenemos la siguiente definición.
Definición 3.3.1 Sean V , W y Z espacios vectoriales y sean T : V → W y U : W → Z
lineales. Definimos (U T )(x) = U [T (x)] para toda x ∈ V

Nuestro primer resultado muestra que la composición de transformaciones lineales es


lineal.

Teorema 3.3.1 Sean V , W y Z espacios vectoriales y sean T : V → W y U : W → Z


lineales. Entonces U T : V → Z es lineal

El teorema siguiente es una consecuencia inmediata de la definición del producto de


matrices.

Teorema 3.3.2 Sean V , W y Z espacios vectoriales dimensionalmente finitos con bases


ordenadas α, β y γ, respectivamente. Sean T : V → W y U : W → Z transformaciones
lineales. Entonces
[U T ]γα = [U ]γβ [T ]βα

Ilustraremos lo anterior con el siguiente ejemplo.

Ejemplo 3.3.1 Defı́nase T : P3 (R) → P2 (R) mediante U (f ) = f 0 como en el Ejemplo


3.2.3. Defı́nase T : P2 (R) → P3 (R) mediante
Z x
T (f )(x) = f (t) dt
0

Sean α = {1, x, x2 , x3 } y β = {1, x, x2 }. Comprobar que U T = I

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.3. COMPOSICIÓN DE TRANSFORMACIONES LINEALES Álgebra Lineal 114

Para ilustrar el teorema 3.3.2, obsérvese que


 
  0 0 0  
0 1 0 0  1 0 0
1 0 0
[U T ]β = [U ]βα [T ]αβ =  0 0 2 0  0
 =  0 1 0  = [I]
1
0 β
0 0 0 3 2
1 0 0 1
0 0 3

La matriz diagonal de 3×3 anterior se llama “matriz identidad” y se define a continuación


junto con una notación de gran utilidad, la “delta de Kronecker”.

Definición 3.3.2 Definimos la delta de Kronecker δij mediante


½
1 si i = j
δij =
0 si j 6= j

y la matriz identidad de n × n, In , mediante (In )ij = δij

Ası́,  
µ ¶ 1 0 0
1 0
I1 = (1), I2 = , y I3 =  0 1 0 
0 1
0 0 1
El resultado siguiente utiliza la representación matricial de una transformación lineal y
el producto de matrices para evaluar la transformación en cualquier vector dado.

Teorema 3.3.3 Sean V y W espacios vectoriales dimentsionalmente finitos que tienen ba-
ses ordenadas β y γ, respectivamente, y sea T : V → W una transformación lineal. Entonces,
para toda x ∈ V tenemos
[T (x)]γ = [T ]γβ [x]β

Ejemplo 3.3.2 Sea T : P3 (R) → P2 (R) definida mediante T (f ) = f 0 , y sean β = {1, x, x2 , x3 }


y γ = {1, x, x2 } bases ordenadas para P3 (R) y P2 (R), respectivamente. Si A = [T ]γβ , entonces

−4
[T ]β [p]β = A [p]β =  2 
9

donde p(x) = 2 − 4x + x2 + 3x3

Del Ejemplo 3.2.3 tenemos que


 
0 1 0 0
A = 0 0 2 0.
0 0 0 3

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 115

Ilustremos el Teorema 3.3.3. Como p(x) = 2 − 4x + x2 + 3x3 , sea q = T (p); entonces


q(x) = p0 (x) = −4 + 2x + 9x2 . Por tanto
 
−4
[T (p)]γ = [q]γ =  2  .
9

Pero también  
  2  
0 1 0 0  −4
−4 
[T ]β [p]β = A [p]β =  0 0 2 0     2 
 1 =
0 0 0 3 9
3
Completaremos esta sección con la introducción de la “transformación de multiplicación
por la izquierda” LA , donde A es una matriz de m×n. Esta transformación es probablemente
la herramienta más importante para transferir propiedades sobre transformaciones a propie-
dades semejantes sobre matrices y viceversa. Por ejemplo, se puede utilizar para demostrar
que el producto de matrices es asociativo.

Definición 3.3.3 Sea A una matriz de m × n con elementos de un campo F . Denotamos


por LA al mapeo LA : F n → F m ’ definido por LA (x) = Ax (el producto matricial de A por
x) para cada vector columna x ∈ F . Llamamos a LA una transformación de multiplicación
por la izquierda.

Veremos en el teorema que sigue que LA no únicamente es lineal, sino, de hecho, tiene otras
muchas propiedades de gran utilidad. Estas propiedades son todas muy naturales y por lo
tanto son fáciles de recordar.

Teorema 3.3.4 Sea A una matriz de m×n con elementos de F . Entonces la transformación
LA : F n → F m es lineal. Además, si B es cualquiera otra matriz de m × n (con elementos
de F ), tenemos las siguientes propiedades:

1. [LA ]γβ = A, donde β y γ son las bases ordenadas estándar para F n y F m , respectiva-
mente

2. LA = LB si y solo si A = B.

3. LA+B = LA + LB y LaA = aLA para toda a ∈ F

4. Si T : F n → F m es lineal, entonces existe una matriz única C de m×n tal que T = LC .

5. Si E es una matriz de n × p , entonces LAE = LA LE .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.3. COMPOSICIÓN DE TRANSFORMACIONES LINEALES Álgebra Lineal 116

Ejercicios 3.3.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos. De aquı́ en adelante, V , W y Z son espacios vectoriales con bases ordenadas
(finitas) α, β y γ, respectivamente. Suponer que T : V → W y U : W → Z son ambas
lineales; además A y B son matrices

a) [U T ]γα = [U ]γβ [T ]βα


b) [T (x)]β = [T ]βα [x]α para toda x ∈ V
c) [U (y)]β = [U ]βα [x]β para toda y ∈ W
³ ´2
d ) [T T ]βα = [T ]βα
e) T = LA para alguna matriz A
f ) LA+B = LA + LB
g) Si A es cuadrada y Aij = δij para toda i y j, entonces A = I

2. Sea g(x) = 3 + x. Defı́nase T : P2 (R) → P2 (R) para T (f ) = f 0 g + 2f.


U : P2 (R) → R3 para U (a + bx + cx2 ) = (a + b, c, a − b).
Sean β = {1, x, x2 } y γ = {e1 , e2 , e3 }

a) Calcular directamente [U ]γβ , [T ]β y [U T ]γβ . Luego utilizar el Teorema 3.3.2 para


verificar el resultado
b) Sea h(x) = 3 − 2x + x2 . Calcular [h]β y [U (h)]γ . Luego emplear [U ]γβ de 2a) y
utilizar el Teorema 3.3.3 para verificar el resultado

3. Para cada uno de los incisos siguientes, sea T la transformación lineal definida en el
inciso correspondiente del Ejercicio 6 de la página 111. Utilizar el Teorema 3.3.3 para
calcular:
µ ¶
1 4
a) [T (A)]α , donde A =
−1 6
b) [T (f )]α , donde f (x) = 4 − 6x + 3x2
µ ¶
1 3
c) [T (A)]γ , donde A =
2 4
d ) [T (f )]γ , donde f (x) = 6 − x + 2x2

4. Encontrar transformaciones lineales U, T : F 2 → F 2 tales que U T = To (la transfor-


mación nula) pero T U 6= To .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 117

5. Sea E un espacio vectorial y sea T : E → E lineal. Comprobar que T 2 = To si y sólo


si R(T ) ⊆ N (T ).

6. Sean V , W y Z espacios vectoriales, y sean T : V → W y U : W → Z lineales.

a) Si U T es inyectiva, comprobar que T es inyectiva. ¿También U debe ser inyectiva?


b) Si U T es sobreyectiva, comprobar que U también lo es. ¿También T debe ser
sobreyectiva?
c) Si U y T son inyectivas y sobreyectivas comprobar que U T también lo es.

3.4. Espacios con Producto Interior


Muchas de las aplicaciones de las matemáticas están involucradas con el concepto de
medición y, por lo tanto, con el de magnitud o tamaño relativo de diversas cantidades. Luego,
no es sorprendente de que los campos de los números reales y los complejos que contienen
una noción intrı́nseca de distancia jueguen un papel especial. En esta sección, consideraremos
que todos nuestros espacios vectoriales se encuentran sobre el campo F , donde F representa
a R o a C.
Introduciremos la idea de distancia o longitud en los espacios vectoriales obteniendo una
estructura mucho más rica, la famosa “Estructura de Espacio con Producto Inte-
rior”. Esta estructura adicional proporciona aplicaciones a la geometrı́a, a la fı́sica, condi-
cionamiento en los sistemas de ecuaciones, aplicaciones a los mı́nimos cuadrados y formas
cuadráticas.
Muchas de las nociones geométricas tales como ángulo, longitud y perpendicularidad en
R y R3 pueden extenderse a espacios vectoriales reales y complejos más generales. Todas
2

estas ideas están relacionadas con el concepto de producto interior.

Definición 3.4.1 Sea E un espacio vectorial sobre F . Un producto interior en E es una


función que asigna a cada par ordenado de vectores x e y en E un escalar en F , representado
como hx, yi, tal que para toda x, y y z en E y toda c en F se tiene que:

1. hx + z, yi = hx, yi + hz, yi

2. hcx, yi = c hx, yi

3. hx, yi = hy, xi, donde la barra indica conjugación compleja

4. hx, xi > 0 si x 6= 0

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.4. PRODUCTO INTERIOR Álgebra Lineal 118

Nótese que 3 se reduce a hx, yi = hy, xi si F = R. Las condiciones 1 y 2 simplemente


requieren que el producto interior sea lineal en la primera componente.
Se puede comprobar fácilmente que si a1 , . . . , an ∈ F y x1 , . . . , xn , y ∈ E, entonces
* n + n
X X
a i xi , y = ai hxi , yi
i=1 i=1

Ejemplo 3.4.1 Sea E = F n . Para x = (a1 , . . . , an ) e y = (b1 , . . . , bn ) defı́nase


n
X
x·y = ai bi
i=1

(·) satisface las condiciones desde la 1 hasta la 4 y se denomina Producto interior


ordinario en F n . (Nótese que este producto interior se reduce al producto escalar que
todos conocemos cuando F n = Rn )

Ejemplo 3.4.2 Si hx, yi es un producto interior cualquiera en un espacio vectorial E sobre


R y r > 0, se puede definir otro producto interior mediante la regla

hx, yi0 = r hx, yi

Nótese que si r < 0 la condición 4 no se satisfarı́a

Ejemplo 3.4.3 Sea E = C ([0, 1]) el espacio R 1 vectorial de funciones continuas de valor real
en [0, 1]. Para f, g ∈ E, defı́nase hf, gi = 0 f (t)g(t) dt. Luego hf, gi es un producto interior

Como la integral anterior es lineal en f , 1 y 2 son inmediatas y 3 es trivial.


Si f 6= 0, entonces la gráfica de f 2 está ubicada sobre el eje x en algún subintervalo de
[0, 1] (aquı́ se utiliza la continuidad), y por lo tanto
Z 1
hf, f i = [f (t)]2 dt > 0.
0

Definición 3.4.2 Sea A una matriz de m×n con elementos de F . Definimos la transpuesta
conjugada (o adjunta) de A como la matriz A∗ de m × n tal que (A∗ )ij = Aji .

Nótese que si A tiene elementos reales, entonces A∗ es sencillamente la transpuesta de A.

Ejemplo 3.4.4 Sea E = Mn×n (F ) y defı́nase hA, Bi = tr (B ∗ A) para A, B ∈ E. Luego


hA, Bi es un producto interior

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 119

Un espacio vectorial E sobre F dotado con un producto interior especı́fico se llama


Espacio con Producto Iinterior . Si F = C, llamamos a E espacio complejo con producto
interior, mientras que si F = R, llamamos a E espacio real con producto interior.
Se deberá tener la precaución de que dos distintos productos interiores en un espacio
vectorial dado, arrojan dos distintos espacios del producto interior.
Un espacio con producto interior muy importante que se parece a C ([0, 1]) es el espacio
H de funciones continuas de valor complejo definidas en el intervalo [0, 2π] con el producto
interior Z 2π
1
hf, gi = f (t)g(t) dt.
2π 0
Este espacio con producto interior surge a menudo dentro del contexto de situaciones de
tipo fı́sico.
Algunas propiedades que se derivan de inmediato de la definición de un producto interior
están contenidas en el siguiente teorema.

Teorema 3.4.1 Sea E un espacio con producto interior. Entonces para x, y, z ∈ E y c ∈ F

1. hx, y + zi = hx, yi + hx, zi.

2. hx, cyi = c hx, yi.

3. hx, xi = 0 si y sólo si x = 0.

4. Si hx, yi = hx, zi para toda x ∈ E, entonces y = z.

Observemos que los incisos 1 y 2 del Teorema 3.4.1 muestran que el producto interior es
lineal conjugado en la segunda componente.
Con el objeto de generalizar la noción de longitud en R3 para espacios con producto
3
interior cualesquiera,
√ necesitamos
p observar únicamente que la longitud de x = (a, b, c) ∈ R
2 2 2
está dada por a + b + c = hx, xi. Por lo tanto, damos la siguiente definición.

Definición 3.4.3 Sea E un espacio vectorial con producto interior. Para x ∈ E definimos
la norma (o longitud) de x mediante
p
||x|| = hx, xi

Ejemplo 3.4.5 Sea E = F n . Entonces


" n
# 12
X
||(a1 , . . . , an )|| = |ai |2
i=1

es la definición Euclidiana de longitud. Nótese que si n = 1, tenemos que ||a1 || = |a1 |

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.4. PRODUCTO INTERIOR Álgebra Lineal 120

Como serı́a de esperarse, las conocidas propiedades de la longitud en R3 se satisfacen en


general, como se enuncia en el siguiente teorema.

Teorema 3.4.2 Sea E un espacio vectorial con producto interior. Entonces para toda x,
y ∈ E y c ∈ F tenemos:
1. ||cx|| = |c| · ||x||

2. ||x|| = 0 si y solo si x = 0. En cualquier caso ||x|| ≥ 0

3. (Desigualdad de Cauchy-Schwarz) | hx, yi | ≤ ||x|| · ||y||

4. (Desigualdad del triángulo) ||x + y|| ≤ ||x|| + ||y||

Ejemplo 3.4.6 Para E = F n podemos emplear la desigualdad de Cauchy-Schwarz y de-


sigualdad del triángulo en el producto interior ordinario para ontener las siguientes muy
conocidas desigualdades
¯ ¯ " # 12 " n # 21
¯Xn ¯ n
X X
¯ ¯
¯ ai bi ¯ ≤ |ai |2 |bi |2
¯ ¯
i=1 i=1 i=1

y
" n # 12 " n # 12 " n # 12
X X X
|ai + bi |2 ≤ |ai |2 + |bi |2
i=1 i=1 i=1

Estamos en el momento de poder generalizar la noción de perpendicularidad para espacios


con producto interior cualesquiera.
Definición 3.4.4 Sea E un espacio con producto interior. Un vector x en E es un vector
unitario si ||x|| = 1. Los vectores x e y son ortogonales (perpendiculares) si hx, yi = 0.
Un subconjunto S de E es ortogonal si cualquier par de elementos distintos de S es orto-
gonal. Finalmente un subconjunto S de E es ortonormal si S es ortogonal y está formado
únicamente de vectores unitarios.
Nótese que si S = {x1 , x2 , . . . , xn }, entonces S es ortonormal si y sólo si hxi , xj i = δij ,
donde δij es la delta de Kronecker. Obsérvese también que para cualquier vector no nulo x,
x/||x|| es un vector unitario.

Ejemplo 3.4.7 El conjunto S = {(1, 1), (1, −1)} en R2 es ortogonal pero no ortonormal;
si embargo ½µ ¶ µ ¶¾
1 1 1 −1
S= √ ,√ , √ ,√
2 2 2 2
es ortonormal

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 121

Si consideramos a los espacios R2 y R3 , es geométricamente evidente que conjuntos orto-


gonales de vectores no nulos son linealmente independientes. El teorema siguiente nos dice
que esto es cierto en cualquier espacio vectorial con producto interior.

Teorema 3.4.3 Sea E un espacio vectorial con producto interior, y sea S un conjunto
ortogonal formado por vectores no nulos. Entonces S es linealmente independiente.

Ejercicios 3.4.1

1. Determinar si las siguientes expresiones son falsas o verdaderas, justificando en ambos


casos.

a) Un producto interior es una función de valor escalar dentro del conjunto de pares
ordenados de vectores.
b) Un espacio con producto interior debe estar sobre el campo de los números reales
o complejos.
c) Un producto interior es lineal en ambas componentes.
d ) Existe exactamente un producto interior en el espacio vectorial Rn .
e) La desigualdad del triángulo sólo se cumple para espacios con producto interior
dimensionalmente finitos.
f ) Todo conjunto ortogonal es linealmente independiente.
g) Todo conjunto ortonormal es linealmente independiente.
h) Si hx, yi = 0 para toda x en un espacio con producto interior, entonces y = 0.

2. Sea V = C3 con el producto interior ordinario. Sean x = (2, 1+i, i) y y = (2−i, 2, 1+2i).
Calcular hx, yi, ||x||, ||y|| y ||x + y||. Luego verificar tanto la desigualdad de Cauchy
como la del triángulo

3. Dar razones por las cuales cada uno de los siguientes incisos no son productos interiores
en los espacios vectoriales dados.

a) h(a, b) , (c, d)i = ac − bd en R2


b) hA, Bi = tr (A + B) en M2×2 (R)
Z 1
c) hf, gi = f 0 (t)g(t) dt en P (R), donde 0 denota diferenciación.
0

4. Sea B una base para un espacio vectorial con producto interior dimensionalmente
finito. comprobar que si hx, yi = 0 para toda x ∈ B, entonces y = 0

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


3.4. PRODUCTO INTERIOR Álgebra Lineal 122

5. Sea V un espacio vectorial con producto interior, supóngase que x e y son elementos
ortogonales de V y compruebe que ||x + y||2 = ||x||2 + ||y||2 , deduciendo además el
teorema de Pitágoras para R2
6. Verificar la ley del paralelogramo en un espacio V con producto interior; esto es,
comprobar que
||x + y||2 + ||x − y||2 = 2||x||2 + 2||y||2 para toda x, y ∈ V

7. Supóngase que h·, ·i1 y h·, ·i2 son dos productos interiores en un espacio vectorial E.
Comprobar que h·, ·i = h·, ·i1 + h·, ·i2 es otro producto interior en E
8. comprobar que si E es un espacio vectorial con producto interior, entonces | hx, yi | =
||x|| · ||y|| si y solo si uno de los vectores es multiplo del otro. Sugerencia: Si y 6= 0,
sea
hx, yi
a=
||y||2
Entonces x = ay + z, donde hy, zi = 0. Por suposición
||x||
|a| =
||y||
Aplicar el ejercicio 5 a ||x||2 = ||ay + z||2 y obténgase ||z|| = 0
9. Sea E = C ([0, 1]) y defı́nase
Z 1/x
hf, gi = f (t)g(t) dt
0

¿Es este un producto interior sobre E?


10. Sea E un espacio vectorial con producto interior, y supóngase que T : E → E es lineal
y que ||T (x)|| = ||x|| para toda x. Comprobar que T es inyectiva
11. Sea E un espacio vectorial con producto interior. Verificar las identidades polares. Para
toda x, y ∈ E
1 1
a) hx, yi = ||x + y||2 − ||x − y||2 si F = R
4 4
4
1X k √
b) hx, yi = i ||x + ik y||2 si F = C. Donde i = −1
4 k=1

12. Sea E un espacio vectorial sobre F , donde F es R o C. Sea o no E un espacio con


producto interior, podemos aún definir una “norma” || · || como una función de valor
real en E que satisface las siguientes condiciones para toda x, y ∈ E y a ∈ F .

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


CAPÍTULO 3. TRANSFORMACIONES LINEALES Álgebra Lineal 123

¬ ||x|| ≥ 0 y ||x|| = 0 si y solo si x = 0


­ ||ax|| = |a| · |x|
® ||x + y|| ≤ ||x|| + ||y||

Combrobar que las siguientes son normas en los espacios vectoriales dados E

a) E = Mm×n (F ); ||A|| = máx |Aij | para toda A ∈ E


i,j

b) E = C ([0, 1]); ||f || = máx |f (t)| para toda f ∈ E


t∈[0,1]
Z 1
c) E = C ([0, 1]); ||f || = |f (t)| dt para toda f ∈ E
0
d ) E = R2 ; ||(a, b)|| = máx{|a|, |b|} para toda (a, b) ∈ E

13. Sea E un espacio vectorial con producto interior y defı́nase para cada par ordenado de
vectores el escalar d(x, y) = ||x − y|| llamado la distancia entre x e y. Comprobar,
para toda x, y, z ∈ E, que:

a) d(x, y) ≥ 0
b) d(x, y) = d(y, x)
c) d(x, y) ≤ d(x, z) + d(z, y)
d ) d(x, x) = 0
e) d(x, y) 6= 0 si x 6= y

Adán N. Duarte C. - Edil B. Zaracho G. Dpto. de Matemática - FACEN


Bibliografı́a

[1] Stephen H. Friedberg, Arnold J. Insel, Lawrence E. Spence. Álgebra Lineal. Illinois State
University. Primera edición. MÉXICO, 1982. - - 543 p.

[2] David Poole. Álgebra Lineal: Una introducción moderna. Editorial Thomson. 2004. - -
763 p.

[3] Tom M. Apostol . CALCULUS:VOLUME II. Multi Variable Calculus and Linear Alge-
bra, with Applications to Differential Equations and Probability . 2da ed. Xerox Corpo-
ration. 1969. - - 673 p.

[4] Seymour Lipschutz, Theory and Problems of Linear Algebra. Second Edition. Schaum’s
outline series. McGRAW-HILL. 1991. - - 459 p.

[5] Daniel Peña, Análisis de Datos Multivariantes. Schaum’s outline series. McGRAW-HILL.
2002. - - 539 p.

125

También podría gustarte