Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FaCET-UNC
Índice general
1. Matrices 5
1.1. Orden de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2. Igualdad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3. Métodos para resolver sistemas lineales . . . . . . . . . . . . . . . . . 8
1.1.4. Operaciones elementales de renglón . . . . . . . . . . . . . . . . . . . 9
1.1.5. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.6. Matrices particionadas . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.1.7. Álgebra de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.8. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1.9. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Ejercicios 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.2.1. Determinante de una matriz n × n . . . . . . . . . . . . . . . . . . . 35
Ejercicios 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.3.1. Propiedades de los Autovalores . . . . . . . . . . . . . . . . . . . . . 42
1.3.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.3.3. Diagonalización de matrices simétricas. . . . . . . . . . . . . . . . . . 46
1.3.4. Formas Cuadráticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.3.5. Conceptos Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Ejercicios 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Espacios Vectoriales 55
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Ejercicios 2.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Ejercicios 2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3. Combinaciones Lineales y S.L.E. . . . . . . . . . . . . . . . . . . . . . . . . . 70
Ejercicios 2.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . 81
3
ÍNDICE GENERAL Álgebra Lineal 4
Ejercicios 2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Ejercicios 2.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3. Transformaciones Lineales 97
3.1. Transformación Lineal, Núcleo y Rango . . . . . . . . . . . . . . . . . . . . . 97
Ejercicios 3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.2. Matriz de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . 106
Ejercicios 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.3. Composición de Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 113
Ejercicios 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.4. Producto Interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Ejercicios 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Bibligrafı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Capı́tulo 1
Matrices
Definición 1.0.1 Una matriz es un arreglo rectangular de números denominados las en-
tradas o elementos, de la matriz.
Ejemplo 1.1.1 µ ¶
3 9 −1
A=
0 5 4
5
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 6
Diagonal de una matriz: Las entradas diagonales o elementos diagonales de una ma-
triz A son a11 , a22 , a33 , . . .
Ejemplo 1.1.2
2 1 3
A = 0 5 2
−1 3 7
R Matriz diagonal: Una matriz cuadrada cuyas entradas no diagonales sean todas cero
se denomina matriz diagonal.
CAPÍTULO 1. MATRICES Álgebra Lineal 7
Ejemplo 1.1.3
2 0 0
B= 0 −3 0
0 0 1
R Matriz Triangular: Una matriz cuadrada cuyas entradas por debajo de la diagonal
son todos ceros se conoce como matriz triangular superior
Ejemplo 1.1.4
2 1 1
C = 0 −1 3
0 0 8
Una matriz cuadrada cuyas entradas por encima de la diagonal son todos ceros se
conoce como matriz triangular inferior.
Ejemplo 1.1.5
1 0 0
D = 5 3 0
1 1 7
R Matriz Escalar:
Una matriz diagonal en la cual todas sus entradas diagonales son las mismas se conoce
como matriz escalar.
Ejemplo 1.1.6
2 0
E=
0 2
R Matriz Identidad:
Una matriz escalar, cuyo escalar es uno, se conoce como matriz identidad.
Ejemplo 1.1.7
1 0
D=
0 1
Solución: Ni A ni B pueden ser iguales a C (no importa cuales sean los valores de x y y),
puesto que A y B son de 2 × 2 y C es de 2 × 3. Sin embargo, A = B si y sólo si a = 2, b = 0,
c = 5 y d = 3. ♣
Solución: Observar que R y C tienen las mismas entradas, pero aún asi no son iguales
porque R es de 1 × 3 y C es de 3 × 1. ♣
2x + y − z = 3
x + 5z = 1
−x + 3y − 2z = 0
La matriz de coeficientes es
2 1 −1
1 0 5
−1 3 −2
CAPÍTULO 1. MATRICES Álgebra Lineal 9
y la matriz aumentada es
2 1 −1 3
1 0 5 1
−1 3 −2 0
Si denotamos la matriz de coeficientes de un sistema lineal por medio de A y el vector
columna de los términos constantes por medio de b, entonces la forma de la matriz aumentada
es (A|b).
Al resolver un sistema lineal, no siempre es posible reducir la matriz de coeficientes en una
matriz triangular, pero siempre se puede conseguir un patrón tipo escalera en las entradas
distintas de cero de la matriz final.
Definición 1.1.1 Una matriz se encuentra en forma de renglón escalonado si satisface las
siguientes propiedades:
Utilicemos la siguiente notación para indicar las tres operaciones elementales de renglón:
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 10
Solución: Debemos crea una entrada principal en una columna y luego utilizarla para crear
ceros por debajo de ella. La entrada seleccionada para llegar a ser una entrada principal
se conoce como un pivote, por lo cual esta fase del proceso se denomina pivoteo. Es
conveniente elegir la columna que tenga una entrada igual a 1 o utilizar la segunda operación
de renglón para igualar la entrada principal a 1. En nuestro caso la entrada principal está en
la primera columna.
1 2 −4 −4 5 1 2 −4 −4 5
2 4 0 0 2 8 −8
⇒ 0 0 8
2 3 2 1 5 0 −1 10 9 −5
−1 1 3 6 5 0 3 −1 2 10
Definición 1.1.3 Las matrices A y B son de renglón equivalente si existe una secuencia
de operaciones elementales de renglón que convierta A en B.
Las matrices
1 2 −4 −4 5 1 2 −4 −4 5
2 4 0 0 2 9 −5
y 0 −1 10
2 3 2 1 5 0 0 1 1 −1
−1 1 3 6 5 0 0 0 0 24
del ejemplo anterior, son de renglón equivalente.
Teorema 1.1.1 Las matrices A y B son de renglón equivalente si y sólo si pueden reducirse
a la misma forma escalonada de renglón.
Eliminación Gaussiana
Cuando se aplica la reducción de renglón a la matriz aumentada de un sistema de ecua-
ciones lineales, se crea un sistema equivalente que puede ser resuelto mediante sustitución
hacia atrás. El proceso completo es conocido como eliminación gaussiana.
Pasos para realizar la Eliminación gussiana
1. Escriba la matriz aumentada del sistema de ecuaciones lineales.
2. Utilice operaciones elementales de renglón para reducir la matriz aumentada a la forma
escalonada del renglón.
3. Mediante la sustitución hacia atrás, resuelva el sistema equivalente que corresponda a
la matriz de renglón reducido.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 12
x1 + x2 + x3 = 3
2x1 + 3x2 + x3 = 5
x1 − x2 − 2x3 = −5
Realizando las siguientes operaciones elementales: A2 −2A1 , A3 −A1 y por último A3 +2A2 ,
obtenemos la matriz escalonada:
1 1 1 3
0 1 −1 −1
0 0 −5 −10
x1 + x2 + x3 = 3
x2 − x3 = −1
−5x3 = −10
w − x − y + 2z = 1
2w − 2x − y + 3z = 3
−w + x − y = −3
w − x − y + 2z = 1
y−z = 1
El cual tiene un número infinito de soluciones. Hay más de una forma de asignar paráme-
tros, pero al emplear la sustitución hacia atrás, expresando las variables correspondientes
a las entradas principales (las variables principales) en términos de otras variables (las
variables libres).
En este caso, las variables principales son w y y; las variables libres son x y z. De este modo,
y = 1 + z, y de esto obtenemos
w = 1 + x + y − 2z
= 1 + x + (1 + z) − 2z
= 2+x−z
Notación: rango(A)
Observación: Si el número de variables libres es igual a cero, el sistema tiene solución única.
3. Cada columna que contiene un 1 principal tiene ceros en cualquier otro sitio.
Se puede comprobar que de una matriz escalonada puede pasarse a una matriz reducida
de renglón escalonado utilizando operaciones elementales adicionales.
A diferencia de la matriz escalonada, la matriz reducida de renglón escalanado es única.
En la eliminación de Gauss-Jordan se procede de manera similar a la eliminación gaus-
siana pero hasta reducir la matriz de coeficientes a la forma reducida de renglón escalonado.
Pasos de la Eliminación de Gauss-Jordan
1. Escribir la matriz aumentada del sistema de ecuaciones lineales.
w − x − y + 2z = 1
2w − 2x − y + 3z = 3
−w + x − y = −3
w−x+z = 2
y−z = 1
w =2+x−z y y =1+z ♣
Sistemas homogéneos
En otras palabras un sistema homogéneo tiene una matriz aumentada de la forma (A—0).
El sistema siguiente es homogéneo:
2x + 3y − z = 0
−x + 5y + 2z = 0
Un sistema homogéneo siempre tiene solución, que puede ser única (el cero) o un número
infinito de soluciones.
Igualmente se puede definir A+B en términos de la adición de vectores especificando que cada
columna (o renglón) de A + B fuera la suma de las columnas (o renglones) correspondientes
de A y B. Si A y B no son del mismo tamaño, entonces A + B no está definida.
Solución: µ ¶
−2 5 −1
A+B =
1 6 7
Solución:
µ ¶ µ 1
¶ µ ¶
2 8 0 1 2 0 −1 −4 0
2A = , A= 2
5 y A=
−4 12 10 2 −1 3 2
2 −6 −5
A − B = A + (−B)
Solución:
µ ¶ µ ¶ µ ¶
1 4 0 −3 1 −1 4 3 1
A−B = − =
−2 6 5 3 0 2 −5 6 3
es la matriz pedida ♣
Una matriz cuyas entradas son todos ceros se denomina matriz nula y se donota como
O (ó Om×n ) si es importante especificar su tamaño. Si A es una matriz cualquiera y O es la
matriz nula del mismo tamaño que A, entonces
A+O =A=O+A
y
A − A = O = −A + A
Multiplicación de matrices
Solución:
µ ¶ 4 µ ¶ µ ¶ −1 µ ¶
1 3 2 13 1 3 2 2 = 5
Ab1 = 1 = y Ab2 =
0 −1 1 2 0 −1 1 −2
3 0
Por lo tanto µ ¶
13 5
AB = (Ab1 | Ab2 ) =
2 −2
.que es la representación pedida ♣
Observación: Advierta que la representación de matriz por columna de AB nos per-
mite escribir cada columna de AB como una combinación lineal de las columnas de A con
entradas de B como coeficientes. Por ejemplo,
µ ¶ µ ¶ 4 µ ¶ µ ¶ µ ¶
13 1 3 2 1 3 2
= = 1 =4 + +3
2 0 −1 1 0 −1 1
3
Supongamos que A es de m × n y B es den × r, de manera que el producto AB existe. Si
particionamos A en términos de sus vectores renglón, como:
A1
A2
A = ..
.
Am
entonces
A1 A1 B
A2 A2 B
AB = A = .. B = ..
. .
Am Am B
Esto nuevamente es consecuencia de la definición de multiplicación de matrices. La forma
de la derecha se conoce como representación de matriz renglón del producto.
CAPÍTULO 1. MATRICES Álgebra Lineal 21
Solución:
¡ ¢ 4 −1 ¡ ¢
A1 B = 1 3 2 = 1 2 = 13 5
3 0
y
¡ ¢ 4 −1 ¡ ¢
A2 B = 0 −1 1 = 1 2 = 2 −2
3 0
µ ¶ µ ¶
A1 B 13 5
Por tanto, AB = = , como antes. ♣
A2 B 2 −2
En la definición del producto de matrices AB utiliza la partición natural de A en ren-
glones y B en columnas; esta forma bien puede denominarse representación renglón -
columna del producto. También podemos particionar A en columnas y B en renglones; esta
forma se conoce como representación por columna - renglón del producto.
Cada una de las particiones precedentes son casos particulares de la partición de matri-
ces en general. Se dice que una matriz A se encuentra particionada si se han introducido
lı́neas verticales y horizontales que subdividen a A en submatrices denominadas bloques. La
partición permite expresar a A como una matriz cuyas entradas son sus bloques.
Por ejemplo:
1 0 0 2 −1 4 3 1 2 1
0 1 0 1 3 −1 2 2 1 1
A= 0 0 1 4 0 y B = 0 −5 3 3 1
0 0 0 1 7 1 0 0 0 2
0 0 0 7 2 0 1 0 0 3
Si dos matrices tienen el mismo tamaño y han sido particionadas de la misma manera, pueden
ser sumadas y multiplicadas por escalares bloque a bloque. Es menos evidente, el hecho de
que, con una partición apropiada, las matices pueden ser multiplicadas también por bloques.
Ejemplo 1.1.23 Considere las matrices particionadas anteriores para determinar si se pue-
den multiplicar por bloques.
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 22
Solución:
1 5 µ ¶ 5
a c
At = 3 0 , B t = y C t = −1
b d
2 1 2
son las transpuestas pedidas ♣
Una definición alternativa de la transpuesta es:
¬ A+B =B+A
(A + B) + C = A + (B + C)
® A+O =A
¯ A + (−A) = O
° c(A + B) = cA + cB
± (c + d)A = cA + dA
² c(dA) = (cd)A
³ IA = A
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 24
c2 + c3 = 1
c1 + c3 = 4
−c1 + c3 = 2
c2 + c3 = 1
M1 − 2M2 + 3M3 = B. ♣
Nota: Decimos que un conjunto de matrices A1 , A2 , . . . , Ak del mismo tamaño son li-
nealmente independientes si la única solución a la ecuación
c1 A1 + c2 A2 + . . . + ck Ak = 0
Teorema 1.1.6 Sea A, B y C matrices (cuyos tamaños sean de tal manera que las opera-
ciones indicadas puedan ser realizadas) y sea k un escalar. Entonces
¶ A(BC) = (AB)C
· A(B + C) = AB + AC
¸ (A + B)C = AC + BC
º Im A = A = AIn si A es m × n
Ejemplo 1.1.27 Si A y B son matrices cuadradas del mismo tamaño, ¿es (A + B)2 =
A2 + 2AB + B 2 ?
Propiedades de la transpuesta.
Teorema 1.1.7 Sean A y B matrices (cuyos tamaños son de tal modo que la operaciones
indicadas pueden ser realizadas) y sea k un escalar. Entonces
¶ (At )t = A
· (A + B)t = At + B t
¸ (kA)t = k(At )
¹ (AB)t = B t At
Observación: Las propiedades · y ¹ del teorema 1.1.7 pueden ser generalizadas a suma
finitas y productos finitos de matrices:
y
(A1 A2 . . . Ak )t = Atk Atk−1 . . . At1
Solución:
1. La matriz cero O no tiene inversa, ya que de ser ası́ habrı́a una matriz O0 tal que
OO0 = I = O0 O. Sin embargo, el producto de la matriz cero con cualquier otra matriz
es la matriz cero, por lo tanto OO0 nunca podrı́a ser igual a la matriz identidad I.
La ecuación BB 0 = I nos da
µ ¶µ ¶ µ ¶
1 2 w x 1 0
=
2 4 y z 0 1
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 28
w + 2y = 1
x + 2z = 0
2w + 4y = 0
2x + 4z = 1
De este sistema se obtienen contradicciones como ser que 0 = −2. Por lo tanto la supo-
sición de que BB 0 = I es falsa. ♣
Si ad − bc = 0, entonces A no es invertible.
(A−1 )−1 = A
(AB)−1 = B −1 A−1
CAPÍTULO 1. MATRICES Álgebra Lineal 29
Observaciones:
+ Si A es una matriz invertible y n es un entero positivo, entonces A−n está definida por
Existe un tipo de matriz elemental para cada operación elemental, algunas de ellas son
por ejemplo
1 0 0 0 0 0 1 0 1 0 0 0
0 3 0 0 0 1 0 0 0 1 0 0
E1 = 0 0 1 0
E2 =
1
E3 =
0 0 0 0 0 1 0
0 0 0 1 0 0 0 1 0 −2 0 1
Teorema 1.1.12 Sea E la matriz elemental que se obtiene cuando se efectúa una operación
elemental por renglón sobre In . Si la misma operación elemental por renglón se realiza sobre
una matriz A de n × r, el resultado es el mismo que la matriz EA.
Teorema 1.1.13 Cada matriz elemental es invertible y su inversa es una matriz elemental
del mismo tipo.
Teorema 1.1.14 (Teorema fundamental de las matrices invertibles) Sea A una ma-
triz de n × n. Las declaraciones siguientes son equivalentes:
1.1. ORDEN DE UNA MATRIZ Álgebra Lineal 30
1. A es invertible.
Teorema 1.1.15 Sea A una matriz cuadrada. Si B es una matriz cuadrada tal que AB = I
o BA = I, entonces A es invertible y B = A−1
Teorema 1.1.16 Sea A una matriz cuadrada. Si una sucesión de operaciones elementales
por renglón reduce A a I, entonces la misma sucesión de operaciones elementales por renglón
transforma a I en A−1 .
Ejercicios 1.1.1
1. Escriba, si es posible, la matriz B como una combinación lineal de las demás matrices
µ ¶ µ ¶ µ ¶
2 5 1 2 0 1
a) B = , A1 = , A2 =
0 3 −1 1 2 1
µ ¶ µ ¶ µ ¶ µ ¶
3 1 1 1 0 −1 −1 2 0 1 1 1
b) B = , A1 = , A2 = , A3 =
0 1 0 0 1 0 0 1 0 0 0 0
2. Demuestre que las matrices dadas son linealmente independientes
µ ¶ µ ¶
1 2 4 3
a) ,
3 4 2 1
1 −1 0 2 1 0 0 2 0 −1 1 0
b) 0 2 0 , 0 3 0 , 0 1 0 , 0 −1 0
0 2 6 0 4 9 0 3 5 0 0 −4
3. Demuestre que, para matrices cuadradas, A y B,
AB = BA ⇐⇒ (A − B)(A + B) = A2 − B 2
1.2. Determinantes
Definición 1.2.1 El determinante es una función que asocia un número real a una matriz
cuadrada.
donde,
Definición Axiomática 1.2.1 Sea A una matriz de n × n, una función que asocia la
matriz A con un número real es una función determinante si verifica los siguientes axiomas:
1.2. DETERMINANTES Álgebra Lineal 32
Solución: El determinante de A es
¯ ¯
¯ 3 2 ¯
det A = ¯¯ ¯ = (3 × 4) − (−1 × 2) = 14 ♣
¯
−1 4
µ ¶
1 0
Ahora bien, por el Axioma À tenemos que si I = , entonces
0 1
det I = (1 × 1) − (0 × 0) = 1
µ ¶
0 6 4
Por el Axioma Á, si A = , entonces
−1 4
es decir que det A0 = 2 det A, ya que A0 resulta de multiplicar la primera fila da A por 2.
Si descomponemos
µ ¶ µla matriz A de¶la siguiente manera tenemos:
3 2 1+2 1+1
A= =
−1 4 −1 4
¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ 2 1 ¯
det A = ¯¯ ¯+¯ ¯ = 4 + 1 + 8 + 1 = 14
−1 4 ¯ ¯ −1 4 ¯
µ ¶
0 3 2
Sea ahora A = , entonces det A0 = (3 × 2) − (3 × 2) = 6 − 6 = 0
3 2
CAPÍTULO 1. MATRICES Álgebra Lineal 33
4. Si se multiplica una fila de una matriz A por un escalar y se suma a otro, el deteminante
no varı́a.
det A = 2 × 5 = 10 ♣
Solución:
¯ ¯
¯ 2 −3 ¯
1. ¯¯ ¯ = (2 × 7) − (4 × −3) = 14 + 12 = 26
¯
4 7
¯ ¯
¯ 1 3 2 ¯
¯ ¯
2. ¯¯ −1 0 4 ¯¯
¯ 6 0 5 ¯
Como no se ha definido aún la forma de calcular el determinante de una matriz de orden
3 × 3, utilizando las propiedades podemos convertir esta matriz en una matriz diagonal
y utilizar el Teorema 1.2.2. Es decir, haciendo primeramente 1A1 + A2 , tenemos
¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ −1 0 4 ¯ = ¯ 0 3 6 ¯
¯ ¯ ¯ ¯
¯ 6 0 5 ¯ ¯ 6 0 5 ¯
−6
luego A
29 3
+ A2 deja ¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 3 2 ¯
¯ ¯ ¯ ¯
¯ 0 3 6 ¯=¯ 0 3 0 ¯
¯ ¯ ¯ ¯
¯ 0 0 29 ¯ ¯ 0 0 29 ¯
−2
haciendo A
29 3
+ A1 , tenemos ¯ ¯
¯ 1 3 0 ¯
¯ ¯
¯ 0 3 0 ¯
¯ ¯
¯ 0 0 29 ¯
y por último haciendo −A2 + A1 , tenemos que
¯ ¯ ¯ ¯
¯ 1 3 2 ¯ ¯ 1 0 0 ¯
¯ ¯ ¯ ¯
¯ −1 0 4 ¯ = ¯ 0 3 0 ¯
¯ ¯ ¯ ¯
¯ 6 0 5 ¯ ¯ 0 0 29 ¯
y ¯ ¯
¯ 1 2 ¯
cof a31 = (−1) ¯¯
4 ¯ = (2 − 4) = −2 ♣
¯
2 2
Definición 1.2.4 Sea An×n podemos desarrollar det A a lo largo de cualquier fila o colum-
na por la fórmula:
Pn
det A = aij (−1)i+j det Aij
i=1
Pn
det A = aij cof aij
i=1
Matriz Cofactor
Definición 1.2.5 Sea An×n . Se llama matriz cofactor de A (cof A), a la matriz formada
por los cofactores de cada uno de los elementos de A.
c11 c12 . . . c1n
c21 c22 . . . c2n
cof A =
... .. .. ..
. . .
cn1 cn2 . . . cnn
Matriz Adjunta
y
8 4 −36
Adj A = 21 −9 3 ♣
−19 −9 27
Ejemplo 1.2.7 Utilice determinantes para hallar la inversa de la matriz A, si existe, donde
0 1 2
A = 1 2 0
1 3 4
Solución:
¯ ¯ ¯ ¯
¯ 1 0 ¯ ¯ 1 2 ¯
det A = − ¯¯ ¯ + 2¯ ¯ ¯ = −4 + 2(3 − 2) = −4 + 2 = −2 6= 0⇒A tiene inversa
1 4 ¯ 1 3 ¯
¯ ¯ ¯ ¯
¯ 8 −4 1 ¯ ¯ 8 2 −4 ¯
¯ ¯ ¯ ¯
cof A = ¯¯ 2 −2 1 ¯¯ ⇒ Adj A = ¯¯ −4 −2 2 ¯¯
¯ −4 2 −1 ¯ ¯ 1 1 −1 ¯
8 2 −4 −4 −1 2
1
A−1 = − −4 −2 2 = 2 1 −1 ♣
2
1 1 −1 − 2 − 12
1 1
2
Teorema 1.2.8 Para toda matriz An×n se tiene que det A = det At
Ejercicios 1.2.1
a) Una matriz de 2 × 2
b) Una matriz de 3 × 3
c) Una matriz de n × n
a) det(AB) = det(BA)
b) Si det A = 0, entonces A = 0
c) det(A + B) = det A + det B
17. Pruebe que si A es una matriz simétrica, entonces Adj A es también simétrica
1.3. AUTOVALORES Y AUTOVECTORES Álgebra Lineal 40
Notar que esta definición implica que un autovector es aquel cuya dirección no se mo-
difica al transformarlo.
Ejemplo 1.3.1 Sea T (x, y) = (4x + 5y, 2x + y), comprobar que el vector V = (5, 2) es un
autovector de T
Este sistema tiene solución única si det A 6= 0, en este caso la solución será V = 0, pero
como V 6= 0 por ser un autovector, entonces debe ser det(A − λI) = 0 para que el sistema
tenga infinitas soluciones.
Ecuación caracterı́stica: λ2 − λ − 12 = 0
Polinomio caracterı́stico: P (λ) = λ2 − λ − 12
Autovalores:
2
λ − λ − 12 = 0
(λ − 4)(λ + 3) = 0
λ1= = 4 λ2 = −3
Autovectores:
Para
µ λ1 = 4¶tenemos
µ ¶ queµ (A¶− λI)V = 0 es:
−2 −5 x 0 −2x − 5y = 0
= ⇒ , de lo cual se obtiene:
−2 −5 y 0 −2x − 5y = 0
x = − 25 y ⇒ V1 = (− 52 y, y), con y 6= 0
Para
µ λ2 = −3 tenemos:
¶ µ ¶ µ ¶
5 −5 x 0 5x − 5y = 0
= ⇒ , de lo cual se obtiene: x = y ⇒ V2 =
−2 2 y 0 −2x + 2y = 0
(y, y), con y 6= 0 ♣
λ 0 0
Solución: Ahora tenemos que λI = 0 λ 0
0 0 λ ¯ ¯
6−λ 10 −28 ¯ 6−λ 10 −28 ¯
¯ ¯
⇒ A−λI = −1 −3 − λ 4 ¯
, entonces det (A−λI) = ¯ −1 −3 − λ 4 ¯=
¯
1 2 −7 − λ ¯ 1 2 −7 − λ ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 3−λ 4 ¯ ¯ ¯ ¯ ¯
(6−λ) ¯¯ ¯ −10 ¯ −2 4 ¯ −28 ¯ −2 −3 − λ ¯ = 0 de lo cual obtenemos
2 −7 − λ ¯ ¯ 1 −7 − λ ¯ ¯ 1 2 ¯
que:
(3 − λ) [(−3 − λ)(−7 − λ) + 40(−λ − 3)] = 0, entonces tenemos que λ1 = −3, λ2 = −2,
λ3 = 1 Distribuyendo el polinomio anterior obtenemos:
Ecuación caracterı́stica: λ3 + 4λ2 + λ − 6 = 0
Polinomio caracterı́stico: P (λ) = λ3 + 4λ2 + λ − 6 Autovectores:
x
Para λ1 = −3, evaluando en la matriz A − λI y multiplicando por el vector y , igua-
z
0
lando al vector 0 y resolviendo el sistema tenemos que V1 = (2z, z, z)), con z 6= 0
0
Para λ2 = −2, obtenemos V2 = (z, 2z, z), con z 6= 0
Para λ3 = 1, obtenemos V3 = (−2y, y, 0), con y 6= 0 ♣
7. Las matrices cuadradas ABC,BCA y CAB, donde las matrices A, B y C son generales
con la condición de que los productos existan, tienen los mismos autovalores no nulos.
Matrices Semejantes
Observaciones:
D Si A ∼ B, podemos escribir, de manera equivalente, que A = P BP −1 o que AP = P B
y µ ¶
1 0
B=
−2 −1
Observación: Notar que estas tres propiedades forman una relación de equivalencia.
¬ det A = det B
1.3.2. Diagonalización
Definición 1.3.4 Una matriz A de n × n es diagonalizable si existe una matriz diagonal
D tal que A sea semejante a D; es decir, si existe una matriz P invertible de n × n tal que
P −1 AP = D
Solución: Estudiando esta matriz podemos determinar que sus autovalores son λ1 =
λ2 = 1 y λ3 = 2. Para los autovalores se tienen las siguientes bases:
Para λ1 = λ2 = 1 se tiene (1, 1, 1) Para λ3 = 2 se tiene (1, 2, 4).
Debido a que todos los otros autovalores son simples múltiplos de uno de estos dos
vectores básicos, no puede haber tres autovectores linealmente independientes. Por tanto, de
acuerdo con el Teorema 1.3.3, A no es diagonalizable. ♣
Definición 1.3.5 Una matriz Qn×n es ortogonal si sus columnas son ortonormales. Si
Q es ortogonal se cumple que Q−1 = Qt .
El teorema espectral nos permite expresar una matriz simétrica real A en la forma
A = QDQt , donde Q es ortogonal y D es diagonal. Las entradas diagonales de D son
precisamente los autovalores de A, y si las columnas de Q son los vectores ortonormales
V1 , . . . , Vn , entonces, por medio de la representación renglón-columna del producto tenemos
que
λ1 . . . 0 V1t
¡ t ¢
A = QDQt = V1 , . . . , Vnt ... . . . ... ...
0 . . . λn V1t
V1t
¡ ¢
= λ1 V1t , . . . , λn Vnt ...
V1t
A−1 = λ−1 t −1 t −1
1 V1 V1 + λ2 V2 V2 + . . . + λn Vn Vn
t
ya que A−1 tiene los mismos vectores propios que A y valores propios λ−1
i .
Una forma cuadrática es una suma de términos, cada uno de los cuales tiene grado dos en
todas las variables. Por tanto, 5x2 −3y 2 +2xy es una forma cuadrática, pero x2 +y 2 +x no lo es.
Teorema 1.3.7 (Teorema de los ejes principales) Toda forma cuadrática puede ser
diagonalizada. Especı́ficamente, si A es la matriz simétrica de n × n asociada con la forma
cuadrática X t AX y si Q es una matriz ortogonal tal que Qt AQ = D sea una matriz diagonal,
entonces el cambio de variable X = Qy transforma la forma cuadrática X t AX en la forma
cuadrática Y t DY , la cual
¡ no tiene ¢t términos con productos cruzados. Si los autovalores de A
son λ1 , . . . , λn y Y = y1 . . . yn , entonces
X t AX = Y t DY = λ1 y12 + . . . + λn yn2
Solución: La matriz de f es
µ ¶
5 2
A=
2 2
con autovalores λ1 = 6 y λ2 = 1. Los autovectores unitarios correspondientes son:
à ! à !
√2 √1
5 5
V1 = √1
y V2 =
5
− √25
Si hacemos que à ! µ ¶
√2 √1 6 0
5 5
Q= √1
y D=
5
− √25 0 1
convierte a f en
µ ¶µ ¶
¡ ¢ 6 0 y1
f (y) = f (y1 , y2 ) = y1 y2 = 6y12 + y22 ♣
0 1 y2
Definición 1.3.8 Una forma cuadrática f (x) = X t AX se clasifica como uno de los si-
guientes tipos:
donde ui son los vectores n × 1 que forman las columnas de U , vit los vectores 1 × p que
forma las filas de V t y di los autovalores de la matriz A.
Observemos que si la matriz U contiene los vectores propios de norma unidad de AAt entonces
como AAt ui = λi ui implica multiplicando por At que (At A)At ui = λi At ui = λi wi y el vector
wi = At ui es un vector propio de At A. Sin embargo este vector propio no tiene norma unidad
que wit wi = uti AAt ui = λi . Los vectores propios de At A de norma unidad vienen dados por
V = At U D1/2
Inversa Generalizada
Definición 1.3.9 Se denomina matriz inversa generalizada de una matriz rectangular An×p
a una matriz A− de dimensiones p × n que verifica:
AA− A = A
y la matriz AA− debe ser idempotente. De la misma forma si multiplicaramos ambos miem-
bros A− también se obtiene una matriz idempotente. En general, existen muchas matrices
que verifican esta condición. Si además imponemos las condiciones:
A− AA− = simétrica
A− A = simétrica
AA− = simétrica
A− = (At A)−1 At
A− = At (AAt )−1
Si A no tiene rango completo esta expresión no es válida ya que At A y AAt son singulares. La
inversa MP se construye a partir de la descomposición espectral de la matriz At A(supuesto
n > p). Si λ1 , . . . , λr , r < p, son los valores propios no nulos de At A y V1 , . . . , Vr sus vectores
propios asociados podemos escribir:
At A = V DV t
A− = V D−1 V t At
que es la generalización de la inversa (MP) anterior, para matrices de rango no completo. Sus-
tituyendo At en esta expresión por su descomposición en valores singulares, At = V D1/2 U t ,
tenemos que
A− = V D1/2 U t
donde U es la matriz que tiene en sus columnas los autovectores unitarios de la matriz At A,
que es una expresión simple de la inversa generalizada A− .
Ejercicios 1.3.1
1. Para cada una de las siguientes matrices obtenga los autovalores y autovectores. De-
termine para cada λ la multiplicidad geométrica.
2 −2 3
a) A = 10 −4 5
5 −4 6
1 3 2
b) A = −1 2 1
4 −1 1
4. Utilizando la definición, verificar si los vectores dados son autovectores de las corres-
pondientes matrices
µ ¶
2 2
a) a-)A = , V = (−2, 1)
1 3
1 −1 0
b) A = 2 3 2 , V = (−2, 1, 3)
1 2 1
8. Sea A una matriz invertible con un autovalor λ 6= 0. Pruebe que λ−1 es un autovalor
de A−1 .
10. Demuestre que λ = 0 y λ = 1 son los únicos autovaloresposibles de una matriz idem-
potente (es decir, una matriz que es igual a sı́ misma cuando se eleva al cuadrado).
13. Determine si la matriz dada es diagonalizable. Si asi fuera, encuentre la matriz C que
diagonaliza la matriz dada.
1 −1 1
a) A = 0 −1 −1
0 4 3
−1 1 −1
b) A = 0 3 −2
0 1 0
14. Probar que si A es semejante a B, entonces cA es semejante a cB, en donde c es un
escalar.
µ ¶
a b
18. Demuestre que si b 6= 0, la matriz no es diagonalizable.
0 a
23. Dadas las siguientes matrices, encuentre una matriz ortogonal que las diagonalice
µ ¶
1 5
a) A =
5 1
27 0 9
b) A = 0 10 0
9 0 3
0 1 0
24. Determinar si la matriz A = 1 0 0 es ortogonal y si lo es, encontrar su
√1 0 √1
2 2
inversa.
25. Encuentre la última columna o fila de manera que la matriz resultante sea ortogonal
µ 1 ¶
√ − √1
a) A = 2 2
3
0 5
b) A = 0 4
5
0 1
29. Demuestre que si A es una matriz simétrica, entonces sus autovalores son siempre
reales.
30. Si A es una matriz invertible ortogonalmente diagonalizable, demuestre que A−1 tam-
bién lo es.
Espacios Vectoriales
2.1. Introducción
Debido a que entidades tan diversas como las fuerzas que operan en un plano y los
polinomios con coeficientes reales permiten definiciones naturales de suma y multiplicación
por escalares que poseen ciertas propiedades, es necesario abstraer dichas propiedades en la
siguiente definición.
(EV 6) Para cada par a, b de elementos en F y cada elemento x en V , se tiene que (ab)x =
a(bx).
1
Con muy pocas excepciones, podemos interpretar la palabra“campo” como “campo de los números
reales”(denotado por R) o “campo de los números complejos”(denotado por C).
55
2.1. INTRODUCCIÓN Álgebra Lineal 56
(EV 7) Para cada elemento a en F y cada par de elementos x,y en V , tenemos que a(x + y) =
ax + ay.
(EV 8) Para cada par de elementos a, b en F y cada elemento x en V ,se cumple que (a+b)x =
ax + bx.
Los elementos x + y y ax se denominan, respectivamente, suma de x e y y el producto de a
y x. Los elementos del campo F se llaman escalares y los elementos del espacio vectorial V
se llaman vectores.
Frecuentemente, un espacio vectorial será tratado en el texto sin mencionar explı́cita-
mente su campo de escalares. En el resto de la sección introduciremos diversos ejemplos
importantes de espacios vectoriales que serán estudiados a través del texto. Obsérvese que
al describir un espacio vectorial no sólo es necesario especificar los vectores, también las
operaciones de suma y multiplicación por escalares.
Un objeto de la forma (a1 , . . . , an ), donde los valores o entradas ai son elementos de un
campo F , se denomina n-dimensional con valores de F . Dos n-dimensionales (a1 , . . . , an ) y
(b1 , . . . , bn ) se definen como iguales si y sólo si ai = bi para i = 1, 2, . . . , n.
Ejemplo 2.1.1 El conjunto F n de n-dimensionales con valores de un campo F.
El conjunto de todas las n-dimensionales con valores de un campo F forma un espacio
vectorial bajo las operaciones de suma y multiplicación coordinada (elemento a elemento);
esto es, si x = (a1 , . . . , an ) ∈ F n , y = (b1 , . . . , bn ) ∈ F n y c ∈ F , entonces x + y =
(a1 + b1 , · · · , an + bn ) y cx = (ca1 , . . . , can ), este espacio se denota por F n .
Esto quiere decir, por ejemplo, que en R5
(2, 6, −1, 0, 3) + (−3, 0, 1, 6, 7) = (−1, 6, 0, 6, 10)
y
3 (−4, −1, 2, 6, 4) = (−12, −3, 6, 18, 12)
n
Los elementos de F a menudo conviene escribirlo como vectores columna
a1
..
.
an
en vez de como vectores filas (a1 , . . . , an ). Puesto que un 1-dimensional con valor de F puede
verse como elemento de F , escribiremos F en vez de F 1 para el espacio vectorial de los
1-dimensionales de F .
Una matriz de m × n con valores de un campo F es un arreglo rectangular de la forma
a11 a12 · · · a1n
a21 a22 · · · a2n
.. .. ..
. . ··· .
am1 am2 · · · amn
donde cada elemento aij (1 ≤ i ≤ m, 1 ≤ j ≤ n) pertenece a F. Los elementos ai1 , ai2 , . . . , ain
de la matriz anterior forman la i-ésima fila de la matriz y se considerarán a menudo como
un vector fila en F n , mientras que los elementos a1j , a2j , . . . , amj forman la columna j-ésima
de la matriz y serán a menudo considerados como un vector columna en F n . La matriz de
m × n en la que cada elemento es igual a 0 se llama matriz cero y si el número de filas es
igual al número de columnas, ésta se denominará cuadrada.
Dos matrices de m × n, A y B se definen como iguales si y sólo si sus elementos corres-
pondientes son iguales; esto es, si y sólo si Aij = Bij para 1 ≤ i ≤ m y 1 ≤ j ≤ n, donde Aij
y Bij son los elementos de la matriz A y B respectivamente.
Ejemplo 2.1.2 El conjunto de todas las matrices de m × n con valores de un campo F
forma un espacio vectorial.
El conjunto de todas las matrices de m × n con valores de un campo F forma un espacio
vectorial bajo las operaciones de suma y multiplicación por escalares siguientes:
Si A y B son dos matrices de m × n y c ∈ F
Ejemplo 2.1.3 El conjunto de todas las funciones que se definen de un conjunto S no vacio
en un campo F es un espacio vectorial.
Si S es un conjunto no vacı́o y F cualquier campo, el conjunto de todas las funciones que
van de S a F se denota por F(S, F ).
Dos elementos f y g en F(S, F ) se definen como iguales si f (x) = g(x) para cada x ∈ S.
El conjunto F(S, F ) es un espacio vectorial bajo las operaciones de suma y multiplicación
por escalares definidas para f , g, ∈ F(S, F ) y c ∈ F por
para cada x ∈ S. Nótese que éstas son las operaciones normales de suma y producto por
escalares utilizadas en cálculo.
donde an ∈ F para todo entero n no negativo y donde existe un m tal que an = 0 si n > m.
En este caso, es más conveniente escribir
X
p(x) = an xn = a0 + a1 x + · · · + am xm .
n≥0
δ(p) = m.
Decimos también que a0 , a1 , · · · , am son los coeficientes del polinomio p(x) y que el coe-
ficiente director de p(x) es am . Si am = 1, se dice que el polinomio es mónico. Los
polinomios con coeficientes ai = 0 para i > 0 son llamados constantes y su grado es cero
si a0 6= 0.
El polinomio cero es X
0= 0xn
n≥0
del que decimos que tiene grado −1, con lo que queremos resaltar que tiene grado más
pequeño que los demás polinomios.
Dos polinomios p(x) y q(x) son iguales si y sólo si tienen el mismo grado y los coeficientes
de potencias iguales son iguales.
Cuando F es un campo que contiene un número infinito de elementos, normalmente
consideraremos un polinomio con coeficientes de F como una función de F en F . En este
caso, el valor de la función
p(x) = a0 + a1 x + · · · + am xm .
en c ∈ F , es el escalar
p(c) = a0 + a1 c + a2 c2 · · · + am cm .
q(x) = b0 + b1 x + · · · + bm xm
y c ∈ F,
(p + q)(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm
y
(cp)(x) = ca0 + ca1 x + · · · + cam xm
Este espacio vectorial se denota por P (F )
Para ver que E no es un espacio vectorial basta que una de las condiciones de la definición
(2.1.1) no se cumpla.
Como (a1 + b1 , a2 − b2 ) 6= (b1 + a1 , b2 − a2 ) es claro que
y por tanto no se cumple (EV 1), aparte de esta condición tampoco se cumple (EV 2) y
(EV 8), luego E no es un espacio vectorial bajo estas operaciones.
Ejemplo 2.1.7 Sea E el mismo conjunto que aparece en el ejemplo (2.1.6). Para (a1 , a2 ),
(b1 , b2 ) ∈ E y c ∈ R, se definen
Luego, bajo estas operaciones, E no es un espacio vectorial ya que (EV 3) (y por tanto
(EV 4)) y (EV 5) fallan.
Para concluir esta sección se enuncia sin demostración algunas de las consecuencias ele-
mentales de la definición de un espacio vectorial.
Teorema 2.1.4 En cualquier espacio vectorial E, son verdaderos los siguientes enunciados:
1. 0 · x = 0 para todo x ∈ E
3. a · 0 = 0 para todo a ∈ F
Ejercicios 2.1.1
y
(0, 0)
si c = 0
c(a1 , a2 ) = ³ a ´
ca1 , 2 si c 6= 0
c
¿Es S un espacio vectorial bajo esas operaciones? Debe justificar su respuesta.
c(a1 , a2 ) = (a1 , 0)
Debemos notar (aunque no sea evidente) que en cualquier espacio vectorial E, los conjuntos
E y {0} son subespacios. Este último se denomina el subespacio cero de E.
Afortunadamente, no es necesario verificar todas las condiciones sobre espacios vectoriales
con el objeto de evidenciar que un subconjunto W de un espacio vectorial E es en realidad
un subespacio. Debemos notar que, las condiciones (EV 1), (EV 2), (EV 5), (EV 6), (EV 7)
y (EV 8) se satisfacen para los elementos de E, y por tanto, automáticamente se cumplen
también para los elementos de un subconjunto W . Luego, un subconjunto W de E es un
subespacio de E si y sólo si las siguientes cuatro condiciones se cumplen:
1. u + v ∈ W siempre que u ∈ W y v ∈ W
2. au ∈ W siempre y cuando a ∈ F y u ∈ W
En realidad la condición (4) no es necesaria según el siguiente teorema que se enuncia sin
demostración
1. 0 ∈ W
2. u + v ∈ W siempre que u ∈ W y v ∈ W
3. au ∈ W siempre y cuando a ∈ F y u ∈ W
Una matriz simétrica es una matriz M tal que M t = M . Evidentemente, una matriz simétri-
ca debe ser cuadrada. El conjunto W de todas las matrices simétricas en Mn×n (F ) es un
subespacio de Mn×n (F ) ya que se satisfacen las condiciones del Teorema (2.2.1), para con-
vencernos notemos que:
Los siguientes ejemplos proporcionan más ilustraciones del concepto de subespacio. Los pri-
meros tres son particularmente importantes.
Una matriz cuadrada D se llama matriz diagonal si todos los valores que no se encuentren
sobre la diagonal principal de D son nulos, esto es, si Dij = 0 para todo i 6= j. En particular
la matriz cero de Mn×n (F ) es diagonal.
Ejemplo 2.2.2 El conjunto de todos los polinomios de grado menor o igual a “n” es un
subespacio de P (F ).
El conjunto C(R) formado por todas las funciones continuas de valor real definidas en R es
un subespacio de F(R, R), donde F(R, R) es tal como se definió en el ejemplo (2.1.3).
Ejemplo 2.2.4 El conjunto de todas las matrices cuadradas que tienen una traza igual a
cero es un subespacio de Mn×n (F )
La traza de una matriz cuadrada M , denotada por tr(M ), es la suma de los valores de M
ubicados en la diagonal principal
Ejemplo 2.2.5 El conjunto de todas las matrices en Mn×n (F ) que únicamente tengan
elementos no negativos no es un subespacio de Mn×n (F )
En este caso no se cumple la condición (3) del Teorema (2.2.1), por ello dicho conjunto de
matrices no es un subespacio vectorial.
Los dos teoremas siguientes, enunciados sin demostración, proporcionan métodos para
formar subespacios a partir de otros subespacios.
S1 + . . . + Sn = {u1 + . . . + un : ui ∈ Si para i = 1, 2, . . . , n}
Una clase especial de suma tendrá un papel importante en capı́tulos posteriores. Intro-
duciremos un caso especial de este concepto en la siguiente definición.
Ejemplo 2.2.7 Una función g : R → R se llama función par si g(−x) = g(x) para toda
x ∈ R y se llama función impar si g(−x) = −g(x) para toda x ∈ R. Sean W1 y W2 ,
respectivamente, los conjuntos de todas las funciones pares e impares en F(R, R), entonces
F(R, R) = W1 ⊕ W2 .
Puede verse sin dificultad que W1 y W2 son subespacios de F(R, R). Supóngase que
f ∈ W1 ∩ W2 ; entonces f es al mismo tiempo una función par e impar, esto es
y
© ª
W2 = (a1 , a2 , a3 ) ∈ F 3 : a1 = 0 (2.7)
Ejercicios 2.2.1
2. Verificar si los siguientes conjuntos son subespacios de R3 bajo las operaciones de suma
y multiplicación por escalares definidas en R3 .
6. Una matriz A de m × n se llama triangular superior si todos los términos ubicados por
debajo de la diagonal principal valen cero, esto es, Aij = 0 siempre que i > j. Verificar
que las matrices triangulares superiores forman un subespacio de Mn×n (F ).
9. Sea C n (R) el conjunto de todas las funciones de valor real definidas en la recta de los
reales que tienen derivada n-ésima continua. Verificar que C n (R) es un subespacio de
F(R, R).
W1 = {(a1 , . . . , an ) ∈ Rn : an = 0}
y
W2 = {(a1 , . . . , an ) ∈ Rn : a1 = . . . = an−1 = 0}
f (x) = a0 + a1 x + · · · + an xn ,
13. Sea E el espacio vectorial formado por todas las matrices cuadradas triangulares su-
periores, sea W1 el subespacio vectorial formado por todas las matrices cuadradas
diagonales y W2 = {A ∈ E : Aij = 0 cuando i < j} . ¿Es E = W1 ⊕ W2 ?
14. Una matriz A se llama antisimétrica si At = −A. Sea W1 el subespacio de todas las
matrices antisimétricas de Mn×n (R) y W2 el subespacio de Mn×n (R) consistente de
todas las matrices cuadradas simétricas. Verificar que Mn×n (R) = W1 ⊕ W2 .
a) v + W es un subespacio de E si y sólo si v ∈ E.
b) v1 + W = v2 + W si y sólo si v1 − v2 ∈ W .
La suma y el producto por elementos de F puede definirse en el conjunto S =
{v + W : v ∈ E} de todos los co-conjuntos de W como sigue:
para toda v1 , v2 ∈ E y
a(v + W ) = av + W (2.9)
para toda v ∈ E y a ∈ F .
c) Las operaciones (2.8) y (2.9) están bien definidas; es decir, verificar que si v1 +W =
v10 + W y v2 + W = v20 + W , entonces
y
a(v1 + W ) = a(v10 + W )
para toda a ∈ F.
d ) El conjunto S es un espacio vectorial bajo las operaciones (2.8) y (2.9). Este
espacio vectorial se llama espacio cociente de E módulo W y se expresa
mediante E/W .
Ejemplo 2.3.1 El cuadro (2.1) muestra el contenido vitamı́nico de 100 gramos de 12 ali-
mentos con respecto a vitaminas A, B1 (tiamina), B2 (riboflavina), niacina y C (ácido
ascórbico).
fuente:Composición de alimentos (Manual de Agricultura Número 8) por Bernice K. Watt y Annabel L. Merrill.
Considerando los vectores vitamı́nicos para el pastel de masa, la tarta de natillas de coco, el
Para ilustrar esta importante técnica vamos a determinar si el vector (8, 15, 15, 12) en
R4 puede escribirse como combinación lineal de u1 = (1, 2, 1, 2), u2 = (−2, −4, −2, −4),
u3 = (1, 4, 2, 0), u4 = (2, 7, 5, 0) y u5 = (3, 7, 2, 6).
Por tanto, deberemos determinar si existen escalares a1 , a2 , a3 , a4 , y a5 tales que
(8, 15, 15, 12) = a1 u1 + a2 u2 + a3 u3 + a4 u4 + a5 u5
= a1 (1, 2, 1, 2) + a2 (−2, −4, −2, −4) + a3 (1, 4, 2, 0)
+a4 (2, 7, 5, 0) + a5 (3, 7, 2, 6)
= (a1 − 2a2 + a3 + 2a4 + 3a5 , 2a1 − 4a2 + 4a3 + 7a4 + 7a5 ,
a1 − 2a2 + 2a3 + 5a4 + 2a5 , 2a1 − 4a2 + 6a5 )
Se puede ver ahora fácilmente que (8, 15, 15, 12) puede ser expresado como una combinación
lineal de u1 , u2 , u3 , u4 y u5 si y sólo si existen escalares a1 , a2 , a3 , a4 , a5 que satisfacen el
A continuación debemos sumar múltiplos de la tercera ecuación a las otras con objeto de
eliminar a4 en cada una de las ecuaciones del sistema (2.13), excepto en la tercera. De nuevo,
1
los cálculos se simplifican si se realiza la operación de multiplicar la tercera ecuación por − .
3
Esto da
a1 − 2a2 − a4 + 4a5 = 1
a3 + 3a4 − a5 = 7
(2.14)
a4 − a5 = 5
2a4 − 2a5 = 10
Por último, en el sistema (2.14) añadamos 1 vez la tercera ecuación a la primera, −3 veces
la tercera ecuación a la segunda y −2 veces la tercera ecuación a la cuarta para obtener
a1 − 2a2 + 3a5 = 6
a3 + 2a5 = −8
(2.15)
a4 − a5 = 5
0 = 0
a1 = 2a2 − 3a5 + 6
a3 = −2a5 − 8 (2.16)
a4 = a5 + 5
será solución del sistema original de ecuaciones (2.10). En particular, el vector (6, 0, −8, 5, 0)
obtenido al hacer a2 = 0 y a5 = 0 es una solución del sistema (2.10). Entonces,
x1 − 2x2 + 3x3 + x5 = −5
x3 − 2x5 = 9 (2.18)
x4 + 3x5 = 6
x1 − 2x3 + x5 = 1
x4 − 5x5 = 0 (2.19)
x2 + 5x3 − 3x5 = 2
Especı́ficamente, el sistema de ecuaciones (2.17) no satisface la condición (1) porque el
primer coeficiente no nulo de la segunda ecuación es 2; el sistema de ecuaciones (2.18) no
satisface la condición (2) porque x3 , la primera incógnita con coeficiente no nulo de la segunda
ecuación, aparece con coeficiente no nulo en la primera ecuación; y el sistema de ecuaciones
(2.19) no satisface la condición (3) porque x2 , la primera incógnita con coeficiente no nulo de
la tercera ecuación, no tiene un subı́ndice mayor que x4 , la primera incógnita con coeficiente
no nulo de la segunda ecuación.
Una vez que se ha obtenido un sistema en el que se satisfacen las propiedades (1), (2) y
(3), es fácil de resolver para algunas de las incógnitas en términos de las otras. Sin embargo,
si en el curso de la ejecución de las operaciones (1), (2) y (3) se obtuviera un sistema que
tuviera una ecuación de la forma 0 = c, donde c no es nula, entonces el sistema original no
tiene soluciones.
Ejemplo 2.3.3 Verificar que 2x3 − 2x2 + 12x − 6 es combinación lineal de x3 − 2x2 − 5x − 3
y 3x3 − 5x2 − 4x − 9 en P3 (R) pero que 3x3 − 2x2 + 7x + 8 no lo es.
a + 3b = 2
−2a − 5b = 0
(2.20)
−5a − 4b = 12
−3a − 9b = −6
Sumando múltiplos adecuados de la primera ecuación a las otras para eliminar a, encontra-
mos
a + 3b = 2
b = 2
(2.21)
11b = 22
0 = 0
a = −4
b = 2
(2.22)
0 = 0
0 = 0
Luego,
a + 3b = 3
−2a − 5bb = −2
(2.23)
−5a − 4b = 7
−3a − 9b = 8
a + 3b = 3
b = 4
(2.24)
11b = 22
0 = 17
Nótese que el Teorema (2.3.1) muestra que x es una combinación lineal de elementos de S si
y sólo si x es un elemento de gen(S). Luego, por ejemplo, en R3 , si S = {(1, 0, 0), (0, 1, 0)}
se tiene que gen(S) es el plano xy.
Ejemplo 2.3.4 Los vectores (1, 1, 0), (1, 0, 1) y (0, 1, 1) generan a R3 pues un elemento
arbitrario (a1 , a2 , a3 ) de R3 es una combinación lineal de los tres vectores dados
son
1 1 1
p = (a1 + a2 − a3 ), q = (a1 − a2 + a3 ), y r = (−a1 + a2 + a3 )
2 2 2
Ejemplo 2.3.5 Los polinomios x2 + 3x − 2, 2x2 + 5x − 3 y −x2 − 4x + 4 generan a P2 (R)
Esto es debido a que cualquiera de los tres polinomios dados pertenece a P2 (R) y cada
polinomio ax2 + bx + c en P2 (R) se puede escribir de la siguiente manera:
Ejercicios 2.3.1
2. Resolver los siguientes sistemas de ecuaciones lineales por el método expuesto en esta
sección.
2x1 − 2x2 − 3x3 = −2
a) 3x1 − 3x2 − 2x3 + 5x4 = 7
x1 − x2 − 2x3 − x4 = −3
3x1 − 7x2 + 4x3 = 10
b) x1 − 2x2 + x3 = 3
2x1 − x2 − 2x3 = 6
x1 + 2x2 − x3 + x4 = 5
c) x1 + 4x2 − 3x3 − 3x4 = 6
2x1 + 3x2 − x3 + 4x4 = 8
x1 + 2x2 + 2x3 + = 2
d) x1 + 8x3 + 5x4 = −6
x1 + x2 + 5x3 + 5x4 = 3
3. Para cada uno de los siguientes grupos de vectores en R3 , determine si el primer vector
puede o no ser expresado como combinación lineal de los otros dos.
4. Para cada uno de los siguientes grupos de polinomios en P3 (R), determine si el primer
polinomio puede o no ser expresado como una combinación lineal de los otros dos.
a) x3 − 3x + 5, x3 + 2x2 − x + 1, x3 + 3x2 − 1
b) 4x3 + 2x2 − 6, x3 − 2x2 + 4x + 1, 3x3 − 6x2 + x + 4
c) −2x3 − 11x2 + 3x + 2, x3 − 2x2 + 3x − 1, 2x3 + x2 + 3x − 2
d ) x3 + x2 + 2x + 13, 2x3 − 3x2 + 4x + 1, x3 − x2 + 2x + 3
e) x3 − 8x2 + 4x, x3 − 2x2 + 3x − 1, x3 − 2x + 3
7. Sean µ ¶ µ ¶ µ ¶
1 0 0 0 0 1
A1 = , A2 = , y A3 =
0 0 0 1 1 0
Verificar que el subespacio generado por S = {A1 , A2 , A3 } es el conjunto de todas las
matrices simétricas de 2 × 2.
Figura 2.2:
es decir
x4 = (2a + b + c, −a − b + c, 4a + 3b − c)
Por tanto x4 será una combinación lineal de x1 , x2 y x3 si y sólo si el siguiente sistema tiene
solución
2a + b + c = 1
−a − b + c = −2 (2.25)
4a + 3b − c = −1
No es dificil verificar que en este caso no existe tal solución. Nótese, sin embargo, que
esto no significa que el conjunto S no sea linealmente dependiente, pues es necesario verificar
si x1 , x2 y x3 pueden o no ser escritos como una combinación de los otros vectores de
S. Puede demostrarse, de hecho, que x3 es una combinación lineal de los otros vectores ;
especı́ficamente, x3 = 2x1 − 3x2 + 0x4 . Ası́, S es en efecto linealmente dependiente.
Se ve de este ejemplo que la condición para dependencia lineal que se ha dado no es
adecuada, porque no todo vector en S necesita ser una combinación lineal de los demás, aun
cuando S sea linealmente dependiente. Al reformular la definición de la siguiente manera
obtenemos una definición de dependencia más fácil de utilizar.
Ejemplo 2.4.2 En R4 el conjunto S = {(1, 3, −4, 2), (2, 2, −4, 0), (1, −3, 2, −4)} es lineal-
mente dependiente puesto que
a1 = 0
a1 + a2 = 0
a1 + a2 + a3 = 0 (2.27)
..
.
a1 + a2 + a3 + · · · + an = 0
a1 = a2 = . . . = an = 0.
Los siguientes resultados, que se enuncian sin demostración, son consecuencias inmediatas
de las definiciones de dependencia e independencia lineal.
Teorema 2.4.1 Sea E un espacio vectorial y sea S1 ⊆ S2 ⊆ E. Si S1 es linealmente
dependiente entonces S2 también lo es.
Ejercicios 2.4.1
7. Sea A una matriz cuadrada triangular superior que tenga términos no nulos en la
diagonal principal. Verificar que las columnas de A son linealmente independientes.
8. Sean f y g funciones definidas por f (t) = ert y g(t) = est , donde r 6= s. Verificar que
f y g son linealmente independientes en F(R, R).
Sugerencia: Suponer que aert + best = 0. Hacer t = 0 y obtener una ecuación que
involucre a y b. Luego derivar aert + best = 0, y hacer t = 0 para tener una segunda
ecuación en a y b. Resolver ambas ecuaciones para a y b.
Ejemplo 2.5.1 Como gen(∅) = {0}, se dice que ∅ es una base para el espacio vectorial {0}.
Observar que el ejemplo (2.5.5) muestra que una base no necesariamente debe ser finita. De
hecho, veremos más adelante que ninguna base para P (F ) puede ser finita. Entonces, no
todo espacio vectorial tiene una base finita.
El siguiente teorema, que se utilizará frecuentemente, muestra la propiedad más impor-
tante de una base.
u = a 1 x1 + a 2 x2 + . . . + a n xn
El Teorema (2.5.1) muestra que cada vector u en un espacio vectorial E con una base
B = {x1 , x2 , . . . , xn } puede ser expresado de manera única en la forma u = a1 x1 + a2 x2 +
. . . + an xn para escalares a1 , a2 , . . . , an adecuados. Luego, u determina una única n-
dimensional de escalares (a1 , a2 , . . . , an ) y, recı́procamente, cada n-dimensional de escalares
determina un vector único u, al utilizar los términos de la n-dimensional como los coeficientes
de una combinación lineal de los vectores de B. Esto sugiere que E es similar al espacio
vectorial F n , donde n es el número de vectores de una base para E.
El próximo teorema identificará una gran clase de espacios vectoriales, cada uno de ellos
con una base finita. Sin embargo, es necesario que primero se vea un resultado preliminar.
Lema 2.5.1 Sea S un subconjunto linealmente independiente de un espacio vectorial E, y
sea x ∈ E que no está en S. Luego, S∪{x} es linealmente dependiente si y sólo si x ∈ gen(S).
Teorema 2.5.2 Si un espacio vectorial E es generado por un conjunto finito S0 , entonces
un subconjunto de S0 es una base para E. Y por tanto, E tiene una base finita.
Un método por el cual se puede obtener una base S es el que se da en el siguiente ejemplo.
Ejemplo 2.5.6 Los elementos (2, −3, 5), (8, −12, 20), (1, 0, −2), (0, 2, 1) y (7, 2, 0)
generan a R3 .
De entre ellos seleccionaremos una base para R3 . Para comenzar, selecciónese cualquier
elemento no nulo del conjunto generatriz, digamos (2, −3, 5), como uno de los elementos
de la base. Como 4(2, −3, 5) = (8, −12, 20), el conjunto {(2, −3, 5), (8, −12, 20)} es
linealmente dependiente. Por tanto, (8, −12, 20) no será incluido en nuestra base.
Como (1, 0, −2) no es múltiplo de (2, −3, 5), y viceversa, el conjunto
{(2, −3, 5), (1, 0, −2)}
es linealmente independiente. Por tanto, (1, 0, −2) puede ser incluido en la base. Procedien-
do con el siguiente elemento del conjunto generatriz, se deberá excluir o incluir en nuestra ba-
se al elemento (0, 2, −1) dependiendo de que el conjunto {(2, −3, 5), (1, 0, −2), (0, 2, −1)}
sea linealmente dependiente o linealmente independiente.
Un cálculo sencillo demuestra que el conjunto es linealmente independiente; luego, (0, 2, −1)
también será incluido en nuestra base. El elemento final del conjunto generatriz (7, 2, 0)
será excluido o incluido en nuestra base dependiendo de que
{(2, −3, 5), (1, 0, −2), (0, 2, −1), (7, 2, 0)}
sea linealmente dependiente o linealmente independiente. Ya que
2(2, −3, 5) + 3(1, 0, −2) + 4(0, 2, −1) − (7, 2, 0) = (0, 0, 0),
el conjunto es linealmente dependiente y se excluye a (7, 2, 0) de la base.
De esta manera, el conjunto {(2, −3, 5), (1, 0, −2), (0, 2, −1)} es una base para R3 .
El siguiente teorema y sus corolarios son quizá los resultados más significativos del capı́tu-
lo 2.
Teorema 2.5.3 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Sea S = {y1 , y2 , . . . , ym } un subconjunto linealmente independiente de E que con-
tenga exactamente m elementos, donde m ≤ n. Entonces, existe un conjunto S1 ⊂ B que
contiene exactamente n − m elementos tales que gen(S ∪ S1 ) = E.
Para ilustrar el uso del Teorema (2.5.3), nótese que S = {x2 − 4, x − 6} es un subconjunto
linealmente independiente de P2 (F ). Como B = {1, x, x2 } es una base de P2 (F ), deberá de
existir un subconjunto S1 ⊂ B que contenga 3−2 = 1 elemento tal que gen(S ∪S1 ) = P2 (F ).
En este ejemplo cualquier subconjunto de B que contenga un elemento será suficiente para
S1 . Con esto se ve que el conjunto S1 del Teorema (2.5.3) no necesariamente es único.
Corolario 2.5.4 Sea E un espacio vectorial que tiene una base B que contenga exacta-
mente n elementos. Entonces, cualquier subconjunto linealmente independiente de E que
contenga exactamente n elementos es una base de E.
Ejemplo 2.5.7 Los vectores (1, −3, 2), (4, 1, 0) y (0, 2, −1) forman una base para R3
Si
a1 (1, −3, 2) + a2 (4, 1, 0) + a3 (0, 2, −1) = (0, 0, 0),
entonces a1 , a2 y a3 deberán satisfacer el sistema de ecuaciones
a1 + 4a2 = 0
−3a1 + a2 + 2a3 = 0
2a1 − a3 = 0
Corolario 2.5.5 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Entonces, cualquier subconjunto de E que contenga más de n elementos es lineal-
mente dependiente. Consecuentemente, cualquier subconjunto de E linealmente independien-
te contiene no más de n elementos.
Corolario 2.5.6 Sea E un espacio vectorial que tiene una base B con exactamente n ele-
mentos. Entonces, toda base para E contiene exactamente n elementos.
Si un espacio vectorial tiene una base con un número finito de elementos, entonces el
corolario (2.5.6) establece que el número de elementos en cada base para el espacio es el
mismo. Este resultado hace posibles las siguientes definiciones.
De acuerdo con estas definiciones el espacio vectorial {0} tiene dimensión cero; el espacio
vectorial F n tiene dimensión n; el espacio vectorial Mm×n (F ) tiene dimensión m×n. El espa-
cio vectorial Pn (F ) tiene una dimensión n + 1; el espacio vectorial P (F ) es dimensionalmente
infinito.
Los dos ejemplos siguientes demuestran que la dimensión de un espacio vectorial depende
de su campo de escalares.
Ejemplo 2.5.9 El espacio vectorial de los números complejos tiene dimensión 1 sobre el
campo de los números complejos. (Una base es {1}.)
Ejemplo 2.5.10 El espacio vectorial de los números complejos tiene dimensión 2 sobre el
campo de los números reales. (Una base es {1, i}.)
Obsérvese que, según el Ejemplo 2.3.5 de la página (77) y el corolario 2.5.7 que B =
{x + 3x − 2, 2x2 + 5x − 3, −x2 − 4x + 4} es una base para P2 (R).
2
Los Teoremas (2.5.2) y (2.5.3) y sus cinco corolarios contienen toda una riqueza de
información acerca de las relaciones entre conjuntos linealmente independientes, bases y
conjuntos generadores. Por esta razón resumiremos los principales resultados de esta sección
para situarlos en una mejor perspectiva.
Una base de un espacio vectorial E es un subconjunto linealmente independiente de E que
genera a E. Si E tiene una base finita, entonces cualquier base de E contiene el mismo número
de vectores. Este número se llama dimensión de E, y se dice que E es dimensionalmente
finito.
Luego, si la dimensión de E es n, toda base para E contiene exactamente n vectores.
Además, cada subconjunto de E linealmente independiente contiene no más de n vecto-
res y puede ser tomado como base de E mediante la inclusión de vectores adecuadamente
escogidos.
Por otra parte, cada conjunto generador de E contiene al menos n vectores y puede
ser transformado en una base para E eliminando adecuadamente algunos de los vectores
escogidos. La figura (2.3) describe estas relaciones.
Figura 2.3: Relaciones entre conjuntos linealmente independientes, bases y conjuntos generadores
El siguiente ejemplo ilustra cómo pueden utilizarse estos resultados para obtener una
importante conclusión no trivial. Sean c0 , c1 , . . . , cn elementos distintos de un campo infinito
F.
Esta propiedad de los polinomios de Lagrange se utiliza para demostrar que el conjunto
Entonces n
X
g(cj ) = bi fi (cj ) = bj
i=0
ası́ n
X
g= g(ci )fi
i=0
es el único elemento de Pn (F ) tal que g(cj ) = bj . Luego, hemos encontrado el único polinomio
cuyo grado no excede a n que tiene valores especı́ficos bj en puntos dados cj en su dominio
(j = 0, 1, . . . , n). Por ejemplo, para construir el polinomio real g de grado máximo 2 cuya
gráfica contiene a los puntos (1, 8), (2, 5) y (3, −4).
(x − 1)(x − 3)
f1 (x) = = −1(x2 − 4x + 3),
(2 − 1)(2 − 3)
y
(x − 1)(x − 2) 1
f2 (x) = = (x2 − 3x + 2)
(3 − 1)(3 − 2) 2
De aquı́, el polinomio deseado es
n
X
g(x) = bi fi (x) = 8f0 + 5f1 − 4f2
i=0
= 4(x2 − 5x + 6) − 5(x2 − 4x + 3) − 2(x2 − 3x + 2)
= −3x2 + 6x + 5.
consta de una recta que pasa por el origen y un subespacio de R2 que tengan dimensión 2
es todo el plano Euclidiano.
Similarmente, los subespacios de R3 deben tener dimensión 0, 1, 2 ó 3. Interpretando
estas posibilidades geométricamente, vemos que un subespacio de dimensión cero debe ser
el origen del sistema coordenado Euclidiano en el espacio, un subespacio de dimensión 1 es
una recta que pasa por el origen, un subespacio de dimensión 2 es un plano que pasa por el
origen y un subespacio de dimensión 3 es el mismo espacio Euclidiano de 3 dimensiones.
Ejemplo 2.5.15 Sea c un elemento de un campo F, sea W1 el conjunto de todas las fun-
ciones constantes en Pn (F ), y defı́nase como W2 = {f (x) ∈ Pn (F ) : f (c) = 0}, entonces
dim(W2 ) = n.
Ejercicios 2.5.1
5. ¿Es {(1, 4, −6), (1, 5, 8), (2, 1, 1), (0, 1, 0)} un subconjunto linealmente independiente de
R3 ? Justificar la respuesta.
7. Los vectores x1 = (2, −3, 1), x2 = (1, 4, −2), x3 = (−8, 12, −4), x4 = (1, 37, −17) y
x5 = (−3, −5, 8) generan a R3 . Encontrar un subconjunto de {x1 , x2 , x3 , x4 , x5 } que
sea una base para R3 .
8. Sea E el espacio vectorial que consta de todos los vectores de R5 para los cuales la
suma de las coordenadas es cero. Los vectores
x1 = (2, −3, 4, −5, 2), x2 = (−6, 9, −12, 15, −6),
x3 = (3, −2, 7, −9, 1), x4 = (2, −8, 2, −2, 6),
x5 = (−1, 1, 2, 1, −3), x6 = (0, −3, −18, 9, 12),
x7 = (1, 0, −2, 3, −2), x8 = (2, −, 1, −9, 7)
9. Los vectores x= (1, 1, 1, 1), x2 = (0, 1, 1, 1), x3 = (0, 0, 1, 1) y x4 = (0, 0, 0, 1) forman una
base para F 4 . Encontrar la única representación de un vector arbitrario (a1 , a2 , a3 , a4 )
en F 4 como combinación lineal de los vectores x1 , x2 , x3 , y x4 .
12. Sea {x, y}una base de un espacio vectorial E. Comprobar que tanto {x + y, x − y}
como {ax, by} son bases para E, donde a y b son escalares arbitrarios no nulos.
13. Suponer que E es un espacio vectorial con una base {x1 , x2 , x3 }. Comprobar que {x1 +
x2 + x3 , x2 + x3 , x3 } también es una base para E.
x1 − 2x2 + x3 = 0
2x1 − 3x2 + x3 = 0
15. El conjunto de todas las matrices cuadradas cuya traza es igual a cero es un subespacio
W de Mn×n (F ). (Ver Ejemplo 2.2.4 de la página 65) Encontrar una base para W . ¿Cuál
es la dimensión de W ?
Transformaciones Lineales
+ T (α + β) = T (α) + T (β)
+ T (cα) = cT (α)
97
3.1. TRANSFORMACIÓN LINEAL, NÚCLEO Y RANGO Álgebra Lineal 98
Ejemplo 3.1.2 Sea C(R) el espacio vectorial de funciones continuas de variable real en R.
Z b
Sean a, b ∈ R y defı́nase T : C(R) → R mediante T (f ) = f (t) dt para toda f ∈ C(R).
a
Verificar si T es lineal
T (a1 , a2 ) = (2a1 + a2 , a1 )
Determinar si T es lineal
cx + y = (cb1 + d1 , cb2 + d2 )
tenemos ³ ´
T (cx + y) = 2(cb1 + d1 ) + cb2 + d2 , cb1 + d1
También
cT (x) + T (y) = c(2b1 + b2 , b1 ) + (2d1 + d2 , d1 )
(a) Rotación en θ. (b) Reflexión en torno al eje x. (c) Proyección sobre el eje x.
a1 − a2 = 0
2a3 = 0
Este teorema nos dice que W2 queda determinada de manera única por la proyección de T
sobre W1 Además, como T es una proyección sobre su rango, utilizaremos sencillamente el
término “proyección” sin mencionar al subespacio W1 .
Reflexionando sobre la acción de una transformación lineal, vemos intuitivamente que mien-
tras más grande es la nulidad menor es el rango. En otras palabras, mientras más vectores
van a dar al cero, menor es el rango. El mismo razonamiento nos dirá que mientras más gran-
de sea el rango, menor es la nulidad. Este balance entre el rango y la nulidad se hará más
preciso en el teorema siguiente.
Ahora ¡© ª¢ ¡© ª¢
R(T ) = gen T (1), T (x), T (x2 ) = gen 3x, 2 + 3/2x2 , 4x + x3
Por lo que Ran(T ) = 3. Como dim(P3 (R)) = 4, T no es sobreyectiva.
Del Teorema 3.1.3, Nul(T ) + 3 = 3; por tanto, Nul(T ) = 0 y entonces N (T ) = {0}.
Luego, de acuerdo con el Teorema 3.1.5, T es inyectiva.
Es fácil comprobar que N (T ) = {0}; entonces T es inyectiva, por lo que el Teorema 3.1.6
nos dice que T debe ser sobreyectiva.
Nuestro siguiente teorema proporciona una caracterización de las transformaciones linea-
les inyectiva como aquellas transformaciones que conservan la independencia lineal.
Ejercicios 3.1.1
2. En cada caso comprobar que T es una transformación lineal y encontrar bases para
N (T ) y R(T ). Luego, calcular la nulidad y el rango de T para determinar, usando los
teoremas adecuados de esta sección, si T es inyectiva o sobreyectiva.
a) T (a1 , a2 ) = (1, a2 )
b) T (a1 , a2 ) = (a1 , a1 )
c) T (a1 , a2 ) = (sen a1 , 0)
d ) T (a1 , a2 ) = (|a1 |, a2 )
e) T (a1 , a2 ) = (a1 + 1, a2 )
4. Supóngase que T : R2 → R2 es lineal y que T (1, 0) = (1, 4) y T (1, 1) = (2, 5). ¿Cuál es
el resultado de T (2, 3)? ¿Es T biyectiva?
6. ¿Existe una transformación lineal T : R3 → R2 tal que T (1, 0, 3) = (1, 1) y T (−2, 0, −6) =
(2, 1)?
Ejemplo 3.2.1 Sea V tal que tenga a B = {x1 , x2 , x3 } como una base ordenada. Entonces
G = {x2 , x1 , x3 } es también una base ordenada, pero como bases ordenadas, B 6= G.
Definición 3.2.2 Sea B = {x1 , . . . , x3 } una base ordenada para un espacio vectorial V
dimensionalmente finito. Para u ∈ V definimos al vector coordenado de u relativo a B,
denotado por [u]B , mediante
a1
.
[u]B = ..
an
donde
n
X
u= ai xi
i=1
Nótese que en la definición anterior [u]B = ei . Un buen ejercicio es comprobar que la trans-
formación T : V → F n dada por T (u) = [u]B es lineal.
Nótese que la j-ésima columna de A es sencillamente [T (xj )]γ . Obsérvese igualmente que
del corolario 3.1.10 se concluye que si U : V → W es una transformación lineal tal que
[U ]γβ = [T ]γβ , entonces U = T .
Ilustraremos como calcular [T ]γβ en los siguientes ejemplos.
Tenemos que:
T (1) = 0 · 1 + 0 · x + 0 · x2
T (x) = 1 · 1 + 0 · x + 0 · x2
T (x2 ) = 0 · 1 + 2 · x + 0 · x2
T (x3 ) = 0 · 1 + 0 · x + 3 · x2
luego se tendrá
0 1 0 0
[T ]γβ = 0 0 2 0 .
0 0 0 3
Nótese que los coeficientes de T (xi ) cuando se escriben como una combinación de ele-
mentos de γ dan los elementos de la columna (i + 1)-ésima.
Ejemplo 3.2.4 Defı́nase T : R2 → R3 mediante T (a1 , a2 ) = (a1 + 3a2 , 0, 2a1 − 4a2 ). Sean
β y γ las bases ordenadas estándar para R2 y R3 , respectivamente. Encontrar [T ]γβ
Ahora bien
T (1, 0) = (1, 0, 2) = 1e1 + 0e2 + 2e3
y
T (0, 1) = (3, 0, −4) = 3e1 + 0e2 − 4e3
Por lo tanto, matricialemente,
1 3
[T ]γβ = 0 0 .
2 −4
Si hacemos γ 0 = {e3 , e2 , e1 }, entonces
2 −4
γ0
[T ]β = 0 0 .
1 3
Ahora que hemos definido un procedimiento para asociar matrices con transformaciones
lineales, veremos brevemente que esta asociación “conserva” la adición. Para hacer más
explı́cita esta situación, requeriremos de alguna discusión preliminar sobre la adición de
transformaciones lineales.
Teorema 3.2.2 Sean V y W espacios vectoriales dimensionalmente finitos con bases orde-
nadas β y γ, respectivamente, y sean T, U : V → W transformaciones lineales. Entonces
y U : R2 → R3 mediante
Entonces
2 2
[T + U ]γβ = 2 0 .
5 −2
que es sencillamente [T ]γβ + [U ]γβ
Ejercicios 3.2.1
3. Determine la matriz [T ]γβ de cada una de las siguientes proyecciones, donde β y γ son
las bases ordenadas estándar para Rn y Rm
β = {1, x, x2 },
y
γ = {1}
9. Sea V un espacio vectorial de dimensión finita y sea T una proyección sobre un subes-
pacio W de V . Escoger una base ordenada adecuada B para V tal que [T ]B sea una
matriz diagonal.
Ası́,
µ ¶ 1 0 0
1 0
I1 = (1), I2 = , y I3 = 0 1 0
0 1
0 0 1
El resultado siguiente utiliza la representación matricial de una transformación lineal y
el producto de matrices para evaluar la transformación en cualquier vector dado.
Teorema 3.3.3 Sean V y W espacios vectoriales dimentsionalmente finitos que tienen ba-
ses ordenadas β y γ, respectivamente, y sea T : V → W una transformación lineal. Entonces,
para toda x ∈ V tenemos
[T (x)]γ = [T ]γβ [x]β
Pero también
2
0 1 0 0 −4
−4
[T ]β [p]β = A [p]β = 0 0 2 0 2
1 =
0 0 0 3 9
3
Completaremos esta sección con la introducción de la “transformación de multiplicación
por la izquierda” LA , donde A es una matriz de m×n. Esta transformación es probablemente
la herramienta más importante para transferir propiedades sobre transformaciones a propie-
dades semejantes sobre matrices y viceversa. Por ejemplo, se puede utilizar para demostrar
que el producto de matrices es asociativo.
Veremos en el teorema que sigue que LA no únicamente es lineal, sino, de hecho, tiene otras
muchas propiedades de gran utilidad. Estas propiedades son todas muy naturales y por lo
tanto son fáciles de recordar.
Teorema 3.3.4 Sea A una matriz de m×n con elementos de F . Entonces la transformación
LA : F n → F m es lineal. Además, si B es cualquiera otra matriz de m × n (con elementos
de F ), tenemos las siguientes propiedades:
1. [LA ]γβ = A, donde β y γ son las bases ordenadas estándar para F n y F m , respectiva-
mente
2. LA = LB si y solo si A = B.
Ejercicios 3.3.1
3. Para cada uno de los incisos siguientes, sea T la transformación lineal definida en el
inciso correspondiente del Ejercicio 6 de la página 111. Utilizar el Teorema 3.3.3 para
calcular:
µ ¶
1 4
a) [T (A)]α , donde A =
−1 6
b) [T (f )]α , donde f (x) = 4 − 6x + 3x2
µ ¶
1 3
c) [T (A)]γ , donde A =
2 4
d ) [T (f )]γ , donde f (x) = 6 − x + 2x2
1. hx + z, yi = hx, yi + hz, yi
2. hcx, yi = c hx, yi
4. hx, xi > 0 si x 6= 0
Ejemplo 3.4.3 Sea E = C ([0, 1]) el espacio R 1 vectorial de funciones continuas de valor real
en [0, 1]. Para f, g ∈ E, defı́nase hf, gi = 0 f (t)g(t) dt. Luego hf, gi es un producto interior
Definición 3.4.2 Sea A una matriz de m×n con elementos de F . Definimos la transpuesta
conjugada (o adjunta) de A como la matriz A∗ de m × n tal que (A∗ )ij = Aji .
3. hx, xi = 0 si y sólo si x = 0.
Observemos que los incisos 1 y 2 del Teorema 3.4.1 muestran que el producto interior es
lineal conjugado en la segunda componente.
Con el objeto de generalizar la noción de longitud en R3 para espacios con producto
3
interior cualesquiera,
√ necesitamos
p observar únicamente que la longitud de x = (a, b, c) ∈ R
2 2 2
está dada por a + b + c = hx, xi. Por lo tanto, damos la siguiente definición.
Definición 3.4.3 Sea E un espacio vectorial con producto interior. Para x ∈ E definimos
la norma (o longitud) de x mediante
p
||x|| = hx, xi
Teorema 3.4.2 Sea E un espacio vectorial con producto interior. Entonces para toda x,
y ∈ E y c ∈ F tenemos:
1. ||cx|| = |c| · ||x||
y
" n # 12 " n # 12 " n # 12
X X X
|ai + bi |2 ≤ |ai |2 + |bi |2
i=1 i=1 i=1
Ejemplo 3.4.7 El conjunto S = {(1, 1), (1, −1)} en R2 es ortogonal pero no ortonormal;
si embargo ½µ ¶ µ ¶¾
1 1 1 −1
S= √ ,√ , √ ,√
2 2 2 2
es ortonormal
Teorema 3.4.3 Sea E un espacio vectorial con producto interior, y sea S un conjunto
ortogonal formado por vectores no nulos. Entonces S es linealmente independiente.
Ejercicios 3.4.1
a) Un producto interior es una función de valor escalar dentro del conjunto de pares
ordenados de vectores.
b) Un espacio con producto interior debe estar sobre el campo de los números reales
o complejos.
c) Un producto interior es lineal en ambas componentes.
d ) Existe exactamente un producto interior en el espacio vectorial Rn .
e) La desigualdad del triángulo sólo se cumple para espacios con producto interior
dimensionalmente finitos.
f ) Todo conjunto ortogonal es linealmente independiente.
g) Todo conjunto ortonormal es linealmente independiente.
h) Si hx, yi = 0 para toda x en un espacio con producto interior, entonces y = 0.
2. Sea V = C3 con el producto interior ordinario. Sean x = (2, 1+i, i) y y = (2−i, 2, 1+2i).
Calcular hx, yi, ||x||, ||y|| y ||x + y||. Luego verificar tanto la desigualdad de Cauchy
como la del triángulo
3. Dar razones por las cuales cada uno de los siguientes incisos no son productos interiores
en los espacios vectoriales dados.
4. Sea B una base para un espacio vectorial con producto interior dimensionalmente
finito. comprobar que si hx, yi = 0 para toda x ∈ B, entonces y = 0
5. Sea V un espacio vectorial con producto interior, supóngase que x e y son elementos
ortogonales de V y compruebe que ||x + y||2 = ||x||2 + ||y||2 , deduciendo además el
teorema de Pitágoras para R2
6. Verificar la ley del paralelogramo en un espacio V con producto interior; esto es,
comprobar que
||x + y||2 + ||x − y||2 = 2||x||2 + 2||y||2 para toda x, y ∈ V
7. Supóngase que h·, ·i1 y h·, ·i2 son dos productos interiores en un espacio vectorial E.
Comprobar que h·, ·i = h·, ·i1 + h·, ·i2 es otro producto interior en E
8. comprobar que si E es un espacio vectorial con producto interior, entonces | hx, yi | =
||x|| · ||y|| si y solo si uno de los vectores es multiplo del otro. Sugerencia: Si y 6= 0,
sea
hx, yi
a=
||y||2
Entonces x = ay + z, donde hy, zi = 0. Por suposición
||x||
|a| =
||y||
Aplicar el ejercicio 5 a ||x||2 = ||ay + z||2 y obténgase ||z|| = 0
9. Sea E = C ([0, 1]) y defı́nase
Z 1/x
hf, gi = f (t)g(t) dt
0
Combrobar que las siguientes son normas en los espacios vectoriales dados E
13. Sea E un espacio vectorial con producto interior y defı́nase para cada par ordenado de
vectores el escalar d(x, y) = ||x − y|| llamado la distancia entre x e y. Comprobar,
para toda x, y, z ∈ E, que:
a) d(x, y) ≥ 0
b) d(x, y) = d(y, x)
c) d(x, y) ≤ d(x, z) + d(z, y)
d ) d(x, x) = 0
e) d(x, y) 6= 0 si x 6= y
[1] Stephen H. Friedberg, Arnold J. Insel, Lawrence E. Spence. Álgebra Lineal. Illinois State
University. Primera edición. MÉXICO, 1982. - - 543 p.
[2] David Poole. Álgebra Lineal: Una introducción moderna. Editorial Thomson. 2004. - -
763 p.
[3] Tom M. Apostol . CALCULUS:VOLUME II. Multi Variable Calculus and Linear Alge-
bra, with Applications to Differential Equations and Probability . 2da ed. Xerox Corpo-
ration. 1969. - - 673 p.
[4] Seymour Lipschutz, Theory and Problems of Linear Algebra. Second Edition. Schaum’s
outline series. McGRAW-HILL. 1991. - - 459 p.
[5] Daniel Peña, Análisis de Datos Multivariantes. Schaum’s outline series. McGRAW-HILL.
2002. - - 539 p.
125