Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ÁLGEBRA LINEAL
2013
Aemilius, Ignacio - Cerminara, Marcelo - Mesa, Andrea - Peláez, Fernando.
Introducción al álgebra lineal.
De esta edición:
Grupo Armónico Ediciones Montevideo, Julio 2013.
I.S.B.N. 978-9974-98-735-7
1. Álgebra de Matrices 5
1.1. Matrices y operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. Apéndice de esta sección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. El espacio vectorial Rn 49
3.1. El espacio vectorial R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1. Suma de vectores y producto de un número por un vector . . . . . . 50
3.1.2. Rectas en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2. El espacio vectorial R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.1. Suma de vectores y producto de un número por un vector . . . . . . 59
3.2.2. Rectas en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.3. Planos en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3. El espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.3.1. Suma de vectores y producto de un número por un vector . . . . . . 72
3.3.2. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . 83
4. Subespacios vectoriales de Rn 91
4.1. Espacios vectoriales reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2. Subespacios vectoriales de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.3. Generador de un subespacio vectorial de Rn . . . . . . . . . . . . . . . . . . 102
4.4. Base y dimensión de un subespacio vectorial de Rn . . . . . . . . . . . . . . 108
4.5. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.6. Apéndice de este capı́tulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3
5. Rn como espacio euclidiano 125
5.1. Producto interno, norma y ángulos . . . . . . . . . . . . . . . . . . . . . . . 125
5.2. Conjuntos ortogonales y proyecciones ortogonales . . . . . . . . . . . . . . . 134
5.3. Cálculo de distancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
5.3.1. Vector perpendicular a un plano. . . . . . . . . . . . . . . . . . . . . 150
5.3.2. Distancia de un punto a un plano. . . . . . . . . . . . . . . . . . . . 151
5.3.3. Distancia de un punto a una recta. . . . . . . . . . . . . . . . . . . . 152
5.4. Aproximación por el método de mı́nimos cuadrados . . . . . . . . . . . . . . 155
5.4.1. Descripción del método. . . . . . . . . . . . . . . . . . . . . . . . . . 155
5.4.2. Una fórmula para la proyección ortogonal . . . . . . . . . . . . . . . 158
6. Diagonalización 161
6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
6.2. Valores y vectores propios de una matriz . . . . . . . . . . . . . . . . . . . . 163
6.3. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.4. Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Álgebra de Matrices
En la primera fila aparecen las cantidades vendidas en setiembre de los cuatro tipos de
artı́culos, en la segunda las cantidades vendidas en octubre, y ası́ sucesivamente. Esta es
una matriz de 5 filas y 4 columnas.
Ahora bien, esos datos correspondı́an solo a Montevideo. La información adicional sobre
las cantidades vendidas en la ciudad de Tacuarembó viene dada por esta otra matriz:
10 13 12 15
10 24 9 30
B= 16 25 10 48
11 21 15 88
9 15 10 40
Como se sigue el mismo criterio para dar la información, esta matriz también tiene 5 filas
y 4 columnas. ¿Cómo obtenemos el total de ventas en los dos departamentos de cada
artı́culo en cada mes? Resulta claro que debemos sumar cada elemento de la matriz A con
su correspondiente en la matriz B:
70 143 82 165
110 224 129 360
166 265 140 558
140 244 163 1035
97 162 115 470
6 Capı́tulo 1. Álgebra de Matrices
O sea, hemos calculado una nueva matriz (también de 5 filas y 4 columnas) que se obtuvo
realizando ciertas operaciones con los elementos de las matrices originales.
Supongamos ahora que durante esos meses la empresa no ha cambiado el precio de sus
artı́culos: los de tipo A se venden a a pesos, los de tipo B a b pesos, .... La matriz de
precios de los artı́culos es entonces:
a
b
c
d
Una de las preguntas que nos podemos plantear es: en cada uno de los cinco meses ¿cual
es el ingreso total de la empresa por concepto de ventas en Montevideo? La respuesta es
muy simple: en setiembre fue de 60a + 130b + 70c + 150d; en octubre fue de 100a + 200b +
120c + 330d; y ası́ sucesivamente. La información global sobre los ingresos a cada uno de
los cinco meses podrı́a estar presentada en la siguiente matriz:
60a + 130b + 70c + 150d
100a + 200b + 120c + 330d
150a + 240b + 130c + 510d
129a + 223b + 148c + 947d
88a + 147b + 105c + 430d
que también puede pensarse como el resultado de cierto tipo de operación entre las matrices
60 130 70 150
100 200 120 330 a
b
150 240 130 510 y
c
129 223 148 947
d
88 147 105 430
Este breve ejemplo introductorio pretende poner de relieve que, más allá de las matrices
como objetos estáticos para organizar datos, puede resultar de mucha utilidad estudiar
operaciones (y las propiedades de las mismas) entre estos objetos.
Notación: En general, la matriz A con entradas aij la indicaremos por A = ((aij ))i=1,...,m
j=1,...,n
o más brevemente A = ((aij )) cuando las dimensiones estén claras. El primer ı́ndice, i,
indica la fila y el segundo, j, la columna a la que pertenece la entrada aij . Ası́, se dirá que
1.1. Matrices y operaciones con matrices 7
2 −1 1 2
Ejemplo 1.1.4. Si A = yB= entonces:
0 2 −1 3
2 −1 1 2 2·1 + (−1)(−1) 2·2 + (−1)3
A.B = = =
0 2 −1 3 0·1 + 2(−1) 0·2 + 2·3
3 1
=
−2 6
1 2
2 1 −1 0 2 1
Ejemplo 1.1.5. Sean A = yB=
1 1 . El producto de A por
2 1 2 −1
1 0
B es:
1 2
2 1 −1 0 2 1 = 3 4
2 1 2 −1 1 1 5 7
1 0
pues
Vale la pena observar que las matrices no deben ser necesariamente del mismo tamaño
para poder multiplicarlas. De hecho, si se mira con cuidado la definición, se observa que
para poder hacerlo la cantidad de columnas de la primera debe coincidir con la cantidad
de filas de la segunda. Cuando esto ocurre se dice que la primera matriz es conformable
con la segunda.
1 2 1 x
Ejemplo 1.1.6. Sean A = 2 1 1 y X = y entonces
1 1 2 z
1 2 1 x x + 2y + z
A.X = 2 1 1 y = 2x + y + z
1 1 2 z x + y + 2z
1 2 1
Ejemplo 1.1.7. Sean A = 2 1 1 y Y = x y z entonces
1 1 2
1 2 1
Y.A = x y z 2 1 1 = x + 2y + z 2x + y + z x + y + 2z
1 1 2
10 Capı́tulo 1. Álgebra de Matrices
Se trata entonces de la matriz que tiene al número 1 en todas las entradas de la diagonal
principal y al número 0 en el resto de las entradas.
1 0 0
Por ejemplo: I3 = 0 1 0
0 0 1
La matriz identidad juega un papel especial en el producto de matrices pues es inmediato
verificar que cumple:
A0 = In , Ak+1 = A.Ak , ∀ k ∈ N.
1 2 2 3 0
Ejemplo 1.1.8. Si A = entonces A = A.A =
1 −1 0 3
Definición 1.1.9. Traspuesta de una matriz.
Si A = ((aij )) es una matriz m × n, definimos la matriz traspuesta de A como la matriz
B = ((bij )) de dimensión n × m en donde bij = aji . Notación: la traspuesta de A se
simbolizará At .
1 2
1 2 3
Ejemplo 1.1.9. Sea A = entonces At = 2 1
2 1 1
3 1
1 2 1 2
Sea B = entonces B t = . En este caso resultó B = B t , cuando esto
2 3 2 3
ocurra diremos
que la matriz
B es simétrica
0 2 −1 0 −2 1
Sea C = −2 0 1 entonces C t = 2 0 −1 por lo tanto C t = −C,
1 −1 0 −1 1 0
cuando esto
ocurra
diremos que la matriz C es antisimétrica.
1
−2 t
Sea D = 2 entonces D = 1 −2 2 0 . Obsérvese que la traspuesta de una
0
matriz columna resulta ser un matriz fila.
1. (A + B)t = At + B t , ∀ A, B ∈ Mm×n .
2. (λ A)t = λ At , ∀ A ∈ Mm×n , ∀λ ∈ R.
4. (At )t = A, ∀ A ∈ Mm×n .
Ejercicio 1.1.5.
1. Una matriz A se dice simétrica si At = A. Pruebe que B + B t es simétrica para
toda matriz B n × n.
2. Una matriz A se dice antisimétrica si At = −A. Pruebe que B −B t es antisimétrica
para toda matriz B n × n.
a a2 + 2 5
3. Halle todos los valores de a para que la matriz −3a 1 −1 sea simétrica.
5 −1 0
Ejercicio 1.1.6.
1. Halle todas las matrices A 2 × 2 tales que A2 = I2 .
2. Halle todas las matrices A 2 × 2 tales que A2 = −I2 .
3. Halle todas las matrices A 2 × 2 tales que A2 = O.
Ejercicio 1.1.9. Una empresa comercializa cuatro artı́culos. A continuación se dan las
matrices columna correspondientes al stock al comienzo de la semana (S), a las compras
(C) y las ventas (V ) realizadas por la empresa en esa semana y la matriz de precios de
venta de cada artı́culo (vigente en la semana y sin IVA).
20 2 7 3000
17 4 16 2000
S=
15 , C = 0
, V =
8 , P = 1000
4 3 2 9000
Ejercicio 1.1.10. Una fábrica produce tres artı́culos y en esa producción se necesita una
materia prima y mano de obra de acuerdo con lo que se indica a continuación:
Artı́culo 1: Cada unidad requiere 3 kilos de materia prima y 4 horas hombre.
Artı́culo 2: Cada unidad requiere 2 kilos de materia prima y 5 horas hombre.
Artı́culo 3: Cada unidad requiere 4 kilos de materia prima y 6 horas hombre.
1. Sean: p1 el precio por kilo de la materia prima y p2 la remuneración por hora de
trabajo. Defina dos matrices u y v de modo que el producto ut v sea el costo variable
por producir x unidades del artı́culo 1, y unidades del artı́culo 2 y z unidades del
artı́culo 3.
2. Sea k el costo fijo de producción y a, b, c los precios de venta de cada unidad de
los artı́culos 1, 2 y 3 respectivamente. Exprese mediante operaciones matriciales la
utilidad que obtiene la fábrica al vender x unidades del artı́culo 1, y unidades del
artı́culo 2 y z unidades del artı́culo 3.
Ejercicio 1.1.11. Una empresa vende cinco clases de artı́culos (de tipo A, de tipo B, de
tipo C, de tipo D y tipo E). Se conocen las cantidades vendidas en los años 2007 al 2010.
Esta información viene dada por la matriz M mientras que los precios de los artı́culos por
la matriz P :
100 120 130 150 5
50 60 60 80 9
M = 150 240 200 260
P = 10
129 223 240 300 7
111 122 144 157 8
(Esto quiere decir que cada artı́culo de tipo A cuesta 5 pesos, y ası́ sucesivamente). Me-
diante operaciones matriciales ¿es posible calcular el ingreso total de la empresa durante
estos cuatro años?
Ejercicio 1.1.12. Una empresa fabrica tres productos (A, B y C) cada uno de los cuales
requiere de ciertas cantidades de tres tipos de materia prima y de mano de obra. La matriz
1.2. Matrices invertibles 15
Las necesidades de materias primas se dan en kg por unidad y las de mano de obra en
horas por unidad. Las tres materias primas cuestan $2, $3 y $1,50 por kg respectivamente.
Los costos de mano de obra son de $5 por hora. Suponga que se deben fabricar 500, 1000
y 400 productos de tipo A, B y C respectivamente. Plantee las operaciones matriciales que
deben realizarse para calcular el costo total de la producción.
Ejercicio 1.1.13. Un experto en sondeos de opinión está observando una elección para
elegir al Intendente de una ciudad. A partir de la última encuesta se obtuvieron los por-
centajes de preferencias de seis zonas diferentes con respecto a los tres candidatos. Dichos
valores se muestran en la siguiente matriz:
0, 40 0, 35 0, 30 0, 50 0, 30 0, 36
M = 0, 42 0, 40 0, 25 0, 30 0, 30 0, 32
0, 18 0, 25 0, 45 0, 20 0, 40 0, 32
El número de ciudadanos que se espera voten en cada zona es 30000, 60000, 70000, 45000,
55000, 40000 respectivamente. En base a esta información ¿cuál es la proyección de resul-
tados que se puede hacer?
A continuación veremos que la matriz B que cumple (1.1), cuando existe, es única. Por
tal motivo se le llama inversa de A y se utiliza la notación B = A−1
Demostración. Se tiene:
B1 = B1 I = B1 (A B2 ) = (B1 A) B2 = I B2 = B2 ♠
2 1 1 −1
Ejemplo 1.2.1. La matriz A = es invertible, pues existe B =
1 1 −1 2
tal que A.B = I y B.A = I (verificarlo).
1 1 0
Ejemplo 1.2.2. La matriz A = 1 0 −1 no es invertible, pues para cualquier
0 0 0
a b c
matriz B = d e f se cumple que
g h i
1 1 0 a b c a+d b+e c+f
A.B = 1 0 −1 d e f = a − g b − h c − i 6=
0 0 0 g h i 0 0 0
1 0 0
6= 0 1 0 =I
0 0 1
Proposición
El caso de matrices 2 × 2
1.2.2.
a b d −b
Sea A = . Si ad − bc 6= 0 entonces A es invertible y A−1 = 1
ad−bc
c d −c a
Demostración. Si no conociéramos
un candidato para A−1 tendrı́amos que plantearnos
e f
una matriz genérica multiplicarla por A, imponer que dicho producto sea la
g h
1 0
identidad y, de ese modo, intentar hallar las entradas e, f, g y h. No nos interesa
0 1
hacer eso en este momento ya que dicho planteo será discutido más adelante. Ahora, el
lector puede simplemente verificar que los productos
d −b d −b
a b ad−bc ad−bc ad−bc ad−bc a b
. −c a y −c a .
c d ad−bc ad−bc ad−bc ad−bc c d
1 0
dan como resultado la matriz identidad . ♠
0 1
Para hallar la inversa (en caso que exista) de una matriz 2×2 alcanza con aplicar la fórmula
que se dio en el teorema anterior. Para matrices cuadradas de dimensiones mayores a 2 la
situación es completamente diferente pues no existen “fórmulas sencillas” para aplicar. En
el próximo capı́tulo veremos una condición necesaria y suficiente para que una matriz sea
1.2. Matrices invertibles 17
invertible ası́ como también un algoritmo que nos permitirá hallar la inversa. Aunque no
sepamos eso todavı́a, podemos continuar estudiando algunas propiedades de las matrices
invertibles.
Demostración. Para demostrarlo basta con multiplicar A.B por su “candidata” a inversa
y verificar que da la identidad:
= In
z }| {
(A.B) B −1 .A−1 = A (B.B −1 ) A−1 = A.In .A−1 = A.A−1 = In
= In
z }| {
(B −1 .A−1 )(A.B) = B −1 (A−1 .A) B = B −1 .In .B = B −1 .B = In
♠
Ejercicio 1.2.2. Investigue si las siguientes afirmaciones son verdaderas o falsas justi-
ficando la respuesta (en caso de ser verdadera deberá demostrar y, en caso de ser falsa
deberá dar un contraejemplo).
−1
1. Si A es una matriz invertible entonces A−1 =A
2. Si A es una matriz invertible y k 6= 0 entonces kA es invertible y (kA)−1 = k1 A−1
−1 t
3. Si A es una matriz invertible entonces At también lo es y At = A−1
4. Si A y B son dos matrices invertibles n × n entonces A + B es invertible.
5. Si A y B son dos matrices invertibles n × n y A + B es invertible entonces
(A + B)−1 = A−1 + B −1
♠
Capı́tulo 2
2.1. Introducción
Gran parte de lo que estudiaremos en este curso se vincula con los sistemas de ecuacio-
nes lineales y, por lo tanto, vale la pena dedicar algún tiempo a presentarlos, discutir sus
propiedades y ciertas estrategias para resolverlos. El lector que ya conozca estos temas
tendrá, en todo caso, una oportunidad para repasarlos.
ax = b
Ejemplo 2.1.2.
x=1
(S) y=3
z=2
1
En nuestro cursos los números que consideraremos pertenecen al cuerpo de los reales.
2
En general, salvo que se indique lo contrario, las soluciones se consideraran en el mismo conjunto de
números que los coeficientes, o sea los números reales.
3
Veremos más adelante que si un sistema lineal admite más de una solución entonces necesariamente
debe admitir infinitas.
2.1. Introducción 21
Ejemplo 2.1.3.
x + y + 2z = 8
(S) 2y + z = 8
z=2
es también un sistema 3 × 3. Aquı́ con algo más de trabajo también se puede deducir
fácilmente el conjunto solución. Para esto basta observar que de abajo hacia arriba cada
ecuación tiene exactamente una incógnita más que la siguiente, por este motivo se dice que
el sistema está “escalerizado”. De la última ecuación se despeja z = 2. Con este valor de z
sustituimos en la segunda ecuación y tenemos 2y+2 = 8 =⇒ 2y = 6 =⇒ y = 3. Finalmente
con los valores de y y z hallados “subimos” a la primera ecuación y sustituyendo se tiene
que x + 3 + 2(2) = 8 =⇒ x = 1. En consecuencia Sol(S) = {(1, 3, 2)}.
Este procedimiento de despejar una incógnita en una ecuación y sustituirla en otra de
arriba se denomina sustitución hacia atrás.
Observemos que en los ejemplos 2.1.2 y 2.1.3 los conjuntos solución son iguales, por lo que
los sistemas son equivalentes.
Ejemplo 2.1.4.
x + y + 2z = 8
(S) x−y+z =0
x+y+z =6
Una estrategia para resolver este sistema, inspirada en los ejemplos anteriores, podrı́a ser
la de sustituir el sistema (S) por otro (S ′ ), equivalente y “escalerizado”, de modo de poder
resolver (S ′ ) (y por ende (S) ya que al ser equivalentes los conjuntos solución de ambos
sistemas coinciden) con el procedimiento utilizado en el ejemplo 2.1.3. Analicemos un poco
estas ideas antes de retomar la resolución concreta del ejemplo.
La pregunta que naturalmente surge es ¿cómo hacer para sustituir un sistema por otro
que resulte equivalente? Para responderla introducimos la siguiente definición.
Entre paréntesis se indica la notación que utilizaremos para especificar cada operación en
los ejemplos. La ecuación i-ésima será notada con Fi .
Las cuestiones que se imponen ahora son las de saber si cualquier sistema puede ser
“escalerizado” mediante transformaciones elementales y en caso afirmativo determinar un
método o algoritmo que permita hacerlo. Volvamos a analizar el ejemplo 2.1.4.
Ejemplo 2.1.4 (continuación). Para que el sistema quede “escalerizado”, en la segunda y
tercera ecuación no debe aparecer la incógnita x entonces dejemos la primera ecuación igual
y realicemos transformaciones elementales en la segunda y tercera. La idea es combinar
ambas con la primera de modo que los coeficientes de la incógnita x se anulen. Como el
coeficiente de x en las tres ecuaciones es 1 basta en ambos casos restar la primera.
x + y + 2z = 8 x + y + 2z = 8
x−y+z =0 ∼ −2y − z = −8 ←− F2 − F1
x+y+z =6 −z = −2 ←− F3 − F1
Diremos que dos matrices ampliadas son equivalentes si los respectivos sistemas lo son.
2.3. El método de escalerización 23
entonces la matriz del sistema, la matriz de los términos independientes y la matriz am-
pliada son:
1 1 2 9 1 1 2 9
A = 3 6 −5 , b = 0 y A|b = 3 6 −5 0
2 4 −3 1 2 4 −3 1
x
El sistema en notación matricial se escribe: A. y = b
z
1 0 4 0 1 1 0 1 0
0 1 2 0 0 0 1 2 0
C=
0
D=
0 0 1 0 0 0 0 1
0 0 0 0 0 0 0 0 0
Las matrices A y B son escalerizadas mientras que C y D son escalerizadas reducidas.
En el ejemplo 2.2.1 se aprecia que, una vez obtenida la forma escalerizada, el método de
sustitución hacia atrás permite resolver el sistema. Cabe entonces preguntarse el motivo
para introducir la definición de matriz escalerizada reducida. Veamos el siguiente ejemplo.
2x + 4y + 2z = −2
Ejemplo 2.3.3. Queremos resolver el sistema: (S) x + y + 2z = 0
−x + y − 2z = 2
La matriz ampliada del sistema es:
2 4 2 −2
1 1 2 0
−1 1 −2 2
Procedamos a escalerizarla, para lo cual, en primer lugar, obtenemos una matriz equiva-
lente, pero con ceros en la segunda y tercera posición de la primera columna. Dejamos la
primera fila fija y la utilizamos como “pivot” para combinar con las otras dos.
2 4 2 −2 2 4 2 −2
1 1 2 0 ∼ 0 −1 1 1 ←− F2 − 12 F1
−1 1 −2 2 0 3 −1 1 ←− F3 + 12 F1
Ahora la primera y segunda fila tienen el aspecto adecuado. El segundo paso consiste en
sustituir la tercera fila por otra con dos ceros en los primeros lugares. Para esto combinamos
convenientemente la tercera con la segunda fila.
2 4 2 −2 2 4 2 −2
0 −1 1 1 ∼ 0 −1 1 1 (2.1)
0 3 −1 1 0 0 2 4 ←− F3 + 3F2
Nótese que al dar el segundo paso, la primera fila ya no interviene y se procede de manera
análoga al primer paso, pero utilizado la segunda fila como fila “pivot”.
Ahora que obtuvimos una forma escalerizada de la matriz original podrı́amos proceder
con la sustitución hacia atrás, pero en lugar de esto intentemos obtener la forma reducida.
Fijamos la tercera fila como “pivot” y la combinamos con la primera y segunda de modo
que se anulen las entradas de la tercera columna correspondientes a la primera y segunda
fila
2 4 2 −2 2 4 0 −6 ←− F1 − F3
0 −1 1 1 ∼ 0 −1 0 −1 ←− F2 − 12 F3
0 0 2 4 0 0 2 4
Combinando la segunda fila con la primera obtenemos un cero en la entrada de primera
fila y segunda columna
2 4 0 −6 2 0 0 −10 ←− F1 + 4F2
0 −1 0 −1 ∼ 0 −1 0 −1
0 0 2 4 0 0 2 4
26 Capı́tulo 2. Sistemas de ecuaciones lineales
Para llegar a la forma reducida solo resta obtener unos en las entradas no nulas de cada
fila
2 0 0 −10 1 0 0 −5 ←− 12 F1
0 −1 0 −1 ∼ 0 1 0 1 ←− −F2
0 0 2 4 0 0 1 2 ←− 12 F3
El sistema resultante, equivalente a (S), es entonces
x = −5
′
(S ) y=1
z=2
Obsérvese que en 2.1 la escalera que se obtuvo tiene todos sus “escalones” de ancho una
columna. Esto implica que en el correspondiente sistema cada ecuación tenga exactamente
una incógnita más que la inmediata inferior.
A diferencia del ejemplo precedente, la forma escalerizada de la matriz ampliada tiene tres
escalones, esto es, un escalón más que la de la matriz del sistema. La última ecuación del
sistema escalerizado es 0 = 4 y, consecuentemente, el sistema resulta incompatible.
Se tiene:
1 2 3 4 1 2 3 4
1 3 4 5 ∼ 0 1 1 1 ←− F2 − F1
2 5 7 9 0 1 1 1 ←− F3 − 2F1
1 2 3 4
∼ 0 1 1 1
0 0 0 0 ←− F3 − F2
Vale la pena observar que, al igual que en el ejemplo 2.3.3, el número de escalones de la
matriz ampliada y el de la matriz del sistema coinciden. Por esta razón el sistema resulta
compatible. Sin embargo, aquı́ la “escalera” presenta “descansos” o escalones largos (el
primero y el segundo). El sistema de ecuaciones asociado es
x + 2y + 3z = 4
′
(S ) y+z =1
0=0
Sol(S) = { (2 − z, 1 − z, z) / z ∈ R }
Ejemplo 2.3.6. Hasta ahora hemos visto solamente sistemas de 3 ecuaciones con 3
incógnitas, pero las ideas utilizadas funcionan para cualquier sistema m × n. Veamos
un ejemplo de un sistema de 4 ecuaciones con 3 incógnitas.
x + y − 2z = 3 1 1 −2 3
x + 2y + z = 1 1 2 1 1
(S) cuya matriz ampliada es:
x + y + 3z = 2 1 1 3 2
x + 2y − 4z = 2 1 2 −4 2
1 1 −2 3 1 1 −2 3
0 1 3 −2 0 1 3 −2
∼ ∼
0 1 −2 −1 0 0 −5 1 ←− F3 − F2
0 0 5 −1 0 0 5 −1
1 1 −2 3
0 1 3 −2
llegando finalmente a
0 0 −5 1
0 0 0 0 ←− F4 + F3
El número de escalones de la matriz ampliada y el de la matriz del sistema coinciden.
Por esta razón el sistema resulta compatible. Mas aún, como el número de escalones
coincide con el número de incógnitas, el sistema es compatible determinado. El sistema de
ecuaciones asociado es entonces
x + y − 2z = 3
y + 3z = −2
(S ′ )
−5z = 1
0=0
Los ejemplos anteriores parecen indicar que cualquier matriz y por ende cualquier sistema
puede ser escalerizado. Establezcamos este hecho en el siguiente resultado (cuya demos-
tración se puede encontrar en el apéndice a este capı́tulo):
Proposición 2.3.1. Toda matriz puede ser transformada en una matriz escalerizada (o
escalerizada reducida) mediante una cantidad finita de transformaciones elementales.
Teorema 2.4.1 (Rouche - Frobenius). Sea (S) un sistema de m ecuaciones lineales con
n incógnitas con matriz ampliada A|b. Si p es el número de escalones de A y p′ el número
de escalones de A|b entonces
1. (S) es compatible si, y solo si, rgf (A) = rgf (A|b) (el rango por filas de A coincide
con el rango por filas de la matriz ampliada).
a) (S) es determinado si, y solo si, rgf (A) = n (el rango por filas de A coincide
con el rango por filas de la matriz ampliada y con el número de columnas de
A).
b) (S) es indeterminado si, y solo si, rgf (A) < n (el rango por filas de A coincide
con el rango por filas de la matriz ampliada pero es menor que el número de
columnas de A).
2 1 2 −2 5
0 −1 1 1 2 rgf (A) = rgf (A|b) = n = 4 =⇒
0 0 2 4 3 sistema compatible determinado.
0 0 0 2 −1
1 2 2 −3 1
0
1 −1 1 3
rgf (A) = rgf (A|b) = 3 < n = 4 =⇒
0 0 2 1 2 sistema compatible indeterminado.
0 0 0 0 0
1 2 2 −3 1
0
1 −1 1 3
rgf (A) = rgf (A|b) = 2 < n = 4 =⇒
0 0 0 0 0 sistema compatible indeterminado.
0 0 0 0 0
1 2 2 −3 1
0
1 −1 1 3
rgf (A) = 2 6= rgf (A|b) = 3 =⇒
0 0 0 0 7 sistema incompatible.
0 0 0 0 0
1 2 2 −3 1 7
0 1 −1 rgf (A) = rgf (A|b) = 3 < n = 5 =⇒
1 3 2
sistema compatible indeterminado.
0 0 2 1 2 5
Resulta entonces que el sistema es determinado si, y solo si, el número ad − bc es distinto
de cero. Este número se denomina determinante de la matriz A y se simboliza:
a b
det(A) = = ad − bc
c d
Como el lector conoce de cursos anteriores, es posible definir el determinante de una
matriz cuadrada (n × n). Recordemos algunos procedimientos de cálculo. Por ejemplo,
una de las maneras de calcular el determinante de una matriz 3 × 3 es a partir de la regla
de Sarrus:
a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23
a31 a32 a33
Debemos tener presente que la regla de Sarrus es válida solamente para determinantes de
matrices 3 × 3. Otra forma de calcularlo es mediante el “desarrollo por la primera fila”:
a11 a12 a13
a22 a23 a21 a23 a21 a22
a21 a22 a23 = a11 − a12
a31 a33 + a13 a31 a32
a31 a32 a33
a32 a33
También es posible “desarrollarlo” por otras filas o columnas haciendo los cambios corres-
pondientes en cada caso.4 Por ejemplo, el desarrollo del determinante por la segunda fila
es:
a11 a12 a13
a21 a22 a23 = −a21 a12 a13 + a22 a11 a13 − a23 a11 a12
a32 a33 a31 a33 a31 a32
a31 a32 a33
En el caso particular de una matriz triangular (todas las entradas por encima o por debajo
de la diagonal principal son ceros) el resultado es muy simple. En efecto, desarrollándolo
por la primera columna se obtiene:
a11 a12 a13
0 a22 a23 = a11 a22 a33
0 0 a33
Es ası́ que el determinante de una matriz triangular es simplemente el producto de los
elementos que están en la diagonal principal.
Con excepción de la regla de Sarrus, el resto de las consideraciones mencionadas son válidas
también para el determinante de cualquier matriz n × n. Observemos que, por ejemplo,
el cálculo a partir del desarrollo por una fila (o columna) de un determinante 4 × 4 nos
llevarı́a a calcular cuatro determinantes 3 × 3, mientras que el un determinante 5 × 5 a
cinco determinantes 4 × 4. Por suerte, los determinantes tienen una serie de propiedades
que permiten un cálculo más simple y eficiente vinculado nuevamente con un proceso de
escalerización. Repasemos algunas de ellas (en todos los casos nos referiremos a matrices
cuadradas).
4
Recordemos que el desarrollo por una lı́nea (fila o columna) es la suma de los productos de los elementos
de la lı́nea por sus respectivos adjuntos. A su vez, el adjunto asociado a aij es el producto de (−1)i+j por
el subdeterminante de un orden menor que se obtiene al quitar de la matriz original la fila i y la columna
j (que se denomina menor complementario de aij ).
2.5. Sistemas cuadrados, determinantes y Cramer 33
(1) Si B es una matriz que se obtiene permutando dos filas (o dos columnas) de la matriz
A entonces det(B) = −det(A).
(2) Si B es una matriz que se obtiene multiplicando cada uno de los elementos de una
fila (o columna) de la matriz A por un número k entonces det(B) = k det(A).
(3) Si a una fila (o columna) de una matriz se le suma un múltiplo de otra fila (columna)
entonces su determinante no cambia.
(4) El determinante de una matriz triangular es el producto de los elementos que están
en su diagonal principal.
(5) El determinante de una matriz A y el de su traspuesta At coinciden.
(6) Si una columna (fila) de una matriz A es combinación lineal de otras columnas (filas)
de A entonces det(A) = 0. En particular, si dos filas (o dos columnas) de una matriz
son proporcionales entonces el determinante vale 0.
(7) Si A y B son matrices n × n entonces det(A.B) = det(A) det(B).
Observemos que las transformaciones aplicadas sobre las filas que se mencionan en las tres
primeras propiedades, coinciden con las transformaciones elementales sobre las filas
de una matriz (o sobre las ecuaciones de un sistema) que fueron definidas en 2.1.2. Dichas
transformaciones eran la base del proceso de escalerización de matrices (o sistemas) y
ahora serán utilizadas (conjuntamente con la propiedad (4)), para desarrollar un método
eficiente de cálculo de determinantes por escalerización. Veamos un par de ejemplos.
1 1 1
Ejemplo 2.5.1. Queremos calcular 1 2 −2 . Para ello aplicamos convenientemente
2 1 7
la propiedad (3):
1 1 1 1 1 1
1 2 −2 = 0 1 −3 ←− F2 − F1
2 1 7 0 −1 5 ←− F3 − 2F1
1 1 1
= 0 1 −3 =2
0 0 2 ←− F3 + F2
Al haber llegado al determinante de una matriz triangular, en el último simplemente
multiplicamos los elementos de la diagonal.
4 2 9 1
7 4 5 1
Ejemplo 2.5.2. Queremos calcular . En primer lugar permutamos la
2 5 −3 1
−3 4 2 1
primera columna con la cuarta (utilizando la propiedad (1)), para luego comenzar la
escalerización del determinante obtenido:
4 2 9 1 1 2 9 4 1 2 9 4
0 2 −4 3 ←− F2 − F1
7 4 5 1 1 4 5 7
2 5 −3 1 = − 1 5 −3 = − 0 3 −12 −2 ←− F3 − F1
2
−3 4 2 1 1 4 2 −3 0 2 −7 −7 ←− F4 − F1
34 Capı́tulo 2. Sistemas de ecuaciones lineales
1 2 9 4
0 2 −4 3
= −
0 3 −12 −2
0 0 −3 −10 ←− F4 − F2
Finalmente llegamos a:
1 2 9 4
1 0 2 −4 3 1
= = 2 (−3) 27 = −81
2 0 0 −3 −10 2
0 0 0 27 ←− F4 − 4F3
−3 4 2 1
Para obtener una forma escalerizada de A podemos aplicar sobre sus filas las mismas
transformaciones que se realizaron en el ejemplo. Una forma escalerizada de A es enton-
1 2 9 4
0 2 −4 3
ces la matriz B = 0 0 −3 −10 . Si bien los determinantes de estas matrices no
0 0 0 27
coinciden, uno es múltiplo no nulo del otro. Según las propiedades (1), (2) y (3), eso ocu-
rrirá siempre que apliquemos sobre las filas de la matriz los tres tipos de transformaciones
elementales. Resulta entonces que si A es una matriz cualquiera n × n, y B es una de sus
formas escalerizadas, entonces existirá m ∈ R, m 6= 0 tal que det(A) = m det(B).
En particular, podemos afirmar que si el determinante de una matriz A vale 0, entonces
también será nulo el determinante de cualquiera de sus formas escalerizadas. Y recı́proca-
mente, si el determinante de alguna de sus formas escalerizadas vale 0, también valdrá 0
el determinante de A.
2.5. Sistemas cuadrados, determinantes y Cramer 35
Lo que ocurrió con el sistema 2 × 2 planteado al comienzo de esta sección admite una
generalización para sistemas cuadrados cualesquiera.
1. A es invertible.
2. det(A) 6= 0.
Demostración.
(1) =⇒ (2)
Por hipótesis existe A−1 tal que A.A−1 = In . Entonces, aplicando la propiedad (7)
de los determinantes llegamos a
det(A) det A−1 = det (In )
(2) =⇒ (3)
Para estudiar el comportamiento del sistema (S) consideramos una forma escaleri-
zada de la matriz A. Como A es n × n toda forma escalerizada B de A también
será n × n y tendrá nulas todas sus entradas por debajo de la diagonal principal:
′
a11 a′12 a′13 . . . . . . a′1n
0
a′22 a′23 . . . . . . a′2n
′ .. ′
B= 0 0 a33 . a3n
.. .. .. . . . . ..
. . . . . .
0 0 ... ... 0 ′
ann
En principio, B podrı́a tener filas nulas, pues no conocemos su rango por filas. Pero
eso no puede ocurrir. En efecto, como por hipótesis det(A) 6= 0, la observación previa
nos permite asegurar que det(B) 6= 0. Como el determinante de B es el producto de
36 Capı́tulo 2. Sistemas de ecuaciones lineales
los elementos de su diagonal principal deducimos que ninguno de ellos puede valer
0 (a′ii 6= 0, ∀ i): ′
a11 a′12 a′13 . . . . . . a′1n
0
a′22 a′23 . . . . . . a′2n
.
B= 0 0 a′33 . . ′
a3n
.. .. .. .. . . ..
. . . . . .
0 0 ... ... 0 ′
ann
Resulta entonces que el rango por filas de A es n y, por lo tanto, el rango por filas de
A coincide con el rango por filas de la matriz ampliada y con el número de columnas
de A (que es n). Del teorema de Rouche-Frobenius podemos concluir que el sistema
(S) es compatible determinado.
(3) =⇒ (1)
Paso 1: Se demostrará que existe B tal que A.B = In .
Para cada j entre 1 y n designemos con ej a la columna j-ésima de la matriz identidad
In :
1 0 0
0 1 0
e1 = 0 , e2 = 0 , . . . , en = 0
.. .. ..
. . .
0 0 1
Por hipótesis, los sistemas A.X = e1 , A.X = e2 , . . . , A.X = en son compatibles
determinados. Sean entonces X1 , X2 , . . . , Xn las matrices n × 1 que verifican:
A.X1 = e1 , A.X2 = e2 , . . . . . . , A.Xn = en
Si B es la matriz n × n que tiene como columnas a X1 , X2 , . . . , Xn entonces, de
la definición de producto de matrices (ver Observación 1.1.2), resulta que A.B = In .
Paso 2: Se demostrará que B también cumple B.A = In .
Para ello comenzamos observando que, como 1 = det(In ) = det(A) det(B), el deter-
minante de B no puede ser 0. Aplicando a la matriz B la implicación ( (2) =⇒ (3) )
(ya demostrada) concluimos que el sistema B.X = b es compatible determinado pa-
ra cualquier b. Repitiendo para la matriz B el razonamiento realizado en el Paso 1
para la matriz A, podemos asegurar que existe una matriz C tal que B.C = In . Se
tiene:
C = In .C = (A.B).C = A.(B.C) = A.In = A =⇒ C = A
♠
Observación 2.5.2. Sea A una matriz n × n y (S) el sistema de n ecuaciones con n
incógnitas dado por A.X = b. Del teorema anterior resultan las siguientes observaciones:
1. Si det(A) = 0 entonces el sistema es compatible indeterminado o incompatible (esto
dependerá de b). Ahora bien, si det(A) = 0 y además el sistema es homogéneo,
entonces éste resulta compatible indeterminado.
2.5. Sistemas cuadrados, determinantes y Cramer 37
3. En el caso en que (S) sea compatible determinado (lo cual, según el teorema de
Cramer, equivale a A invertible) podemos encontrar una fórmula matricial para su
única solución. En efecto:
X̃ es solución de (S) ⇐⇒ A.X̃ = b ⇐⇒ A−1 A.X̃ = A−1 .b ⇐⇒
A−1 .A X̃ = A−1 .b ⇐⇒ In .X̃ = A−1 .b ⇐⇒ X̃ = A−1 .b
Ejercicio 2.5.2. Si A es una matriz n × n tal que A3 = A, ¿cuáles son los posibles valores
para el det(A)?
Ejercicio 2.5.3. Se sabe que A es una matriz 3 × 3 y que det(A) = 5. calcule el determi-
nante de B = 2A2 A−1 .
Ejercicio 2.5.5.
1. Sea A una matriz n × n antisimétrica (esto quiere decir que At = −A). Pruebe que
si n es impar entonces det(A) = 0.
2. Una matriz A n×n se dice nilpotente cuando existe algún natural k tal que Ak = O
(matriz nula). Pruebe que el determinante de una matriz nilpotente vale 0.
3. Una matriz A n × n se dice idempotente cuando A2 = A. ¿Qué valores puede tener
el determinante de una matriz idempotente? Construya ejemplos en los que ocurra
los distintos casos.
Ejercicio 2.5.6. Analice (sin resolverlos) si los siguientes sistemas homogéneos son de-
terminados o indeterminados.
x+y−z =0 x + 2y = 0 x + y + kz = 0
(a) x + y + 3z = 0 (b) kx + ky + kz = 0 (c) x − ky + z = 0
x + y − 5z = 0 x + 2y + kz = 0 kx + y + z = 0
f (t) g(t)
Compruebe que ϕ′ (t) = ′′ , ∀ t ∈ I.
f (t) g′′ (t)
La idea utilizada al principio del capı́tulo para resolver un sistema lineal 1×1, funcionó tam-
bién para resolver un sistema lineal n × n con n > 1. La fórmula X = A−1 .b no solo es
análoga a la obtenida en el ejemplo 2.1.1, sino que parece indicar un nuevo procedimiento
para resolver sistemas lineales. Sin embargo hay varios asuntos para aclarar. En primer
lugar todo lo hecho aquı́ se aplica solamente a sistemas cuadrados. En segundo lugar dicha
fórmula es válida solamente bajo la hipótesis de que A sea invertible. Finalmente, cuando
A es invertible, para poder aplicar la fórmula necesitamos saber cómo obtener la matriz
A−1 , inversa de A. A continuación veremos un algoritmo para calcular la matriz inversa.
Como se demostró en el teorema 2.5.1, si A es una matriz n × n y existe B ∈ Mn×n tal que
A.B = In entonces B.A = In y, por lo tanto, B es la inversa de A. Para hallar la inversa
de una matriz A invertible nos bastará entonces con hallar B tal que A.B = In . Esto
es equivalente a resolver n sistemas de ecuaciones con igual matriz asociada y diferentes
términos independientes. En efecto, si indicamos por Cj (B) la columna j-ésima de B y por
2.6. Cálculo de la inversa de una matriz invertible 39
= I⇐⇒
A.B
C1 (B) C2 (B) . . . Cn (B) AC1 (B) AC2 (B) . . . ACn (B)
A.B = A = =
... ...
e1 e2 . . . en
= In ⇐⇒
...
..
b1j 0 .
.. .. ..
. . .
j
⇐⇒ (Sj ) A b
jj
= 1
= e ←− lugar j (j = 1, 2, ..., n)
.. .. ..
. . .
bnj 0 ..
.
Como los n sistemas S1 , S2 , . . . , Sn tienen la misma matriz A de coeficientes (con diferen-
tes términos independientes), se pueden resolver simultáneamente escalerizando la matriz
( A| I ).
2 1
Ejemplo 2.6.1. Consideremos la matriz A = . Como det(A) = 2 6= 0 resulta
4 3
x11 x12
que A es invertible. Su inversa será la matriz C = tal que A.C = I. Se
x21 x22
tiene:
2 1 x11 x12 2x11 + x21 2x12 + x22 1 0
= =
4 3 x21 x22 4x11 + 3x21 4x12 + 3x22 0 1
Igualando (por columna) se tienen los siguientes sistemas de ecuaciones:
2x11 + x21 = 1 2 1 x11 1
(S1 ) ⇐⇒ =
4x11 + 3x21 = 0 4 3 x21 0
2x12 + x22 = 0 2 1 x12 0
(S2 ) ⇐⇒ =
4x12 + 3x22 = 1 4 3 x22 1
Como para ambos sistemas la matriz A es la matriz de coeficientes, los podemos resolver
simultáneamente
2 1 1 0 2 1 1 0
∼
4 3 0 1 0 1 −2 1 ←− F2 + (−2)F1
2 0 3 −1 ←− F1 − F2
∼
0 1 −2 1
1 0 32 − 12 ←− 12 F1
∼
0 1 −2 1
40 Capı́tulo 2. Sistemas de ecuaciones lineales
3
x11 2 x12 − 12
Por lo tanto = y = . Es decir que la inversa de A es
x21 −2 x22 1
3
− 12
A−1 = 2 .
−2 1
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 2 −1 −3 −2 1 ∼
0 0 2 1 1 −2 −1
0 0 0 4 8 2 0
1 2 1 0 1 1 1
0 0 2 1 1 0 1
∼
0 0 0 −2 −4 −2 0 ←− F3 − F2
(2.2)
0 0 0 0 0 −2 −2 ←− F4 − F2
0 0 0 4 8 2 0 ←− F5
42 Capı́tulo 2. Sistemas de ecuaciones lineales
Ya tenemos la forma escalerizada, pero como en el ejemplo 2.3.3 continuemos hasta obtener
la forma reducida
1 2 1 0 1 1 1
0 0 2 1 1 0 1
0 0 0 −2 −4 −2 0 ∼
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
1 2 1 0 1 0 0 ←− F1 + 12 F4
0 0 2 1 1 0 1
∼
0 0 0 −2 −4 0 ←− F3 − F4 ∼
2
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
1 2 1 0 1 0 0
1
0 0 2
0 −1 0 2 ←− F2 + 2 F3
0 0 0 −2 −4
∼ 0 2 ∼
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
3
1 2 0 0 2 0 −1 ←− F1 − 12 F2
0 0 2 0 −1 0 2
∼
0 0 0 −2 −4 0 2
∼
0 0 0 0 0 −2 −2
0 0 0 0 0 0 0
3
1 2 0 0 2 0 −1
0 0 1 0 −1 1
2 0 ←− 2 F12
1
∼
0 0 0 1 2 0 −1
←− − 21 F3 (2.3)
0 0 0 0 0 1 1 ←− − 2 F4
0 0 0 0 0 0 0
Despejando se tiene
x1 = −2x2 − 32 x5 − 1
= 12 x5 + 1
x3
x = −2x5 − 1
4
x6 =1
Las incógnitas x2 y x5 no pueden determinarse, las otras se obtienen como función de ellas.
Cada valor real de x2 y x5 (elegidos libremente) determina una solución del sistema (S). Por
ejemplo, si x2 = 1 y x5 = 0 se obtiene la solución (−3, 1, 1, −1, 0, 1). Si x2 = −1 y x5 = 2
se tiene la solución (−2, −1, 2, −5, 2, 1). El sistema es entonces compatible indeterminado
y en virtud de que dos de sus incógnitas pueden elegirse libremente diremos que tiene dos
grados de libertad. El conjunto solución es
3 1
Sol(S) = −2x2 − x5 − 1, x2 , x5 + 1, −2x5 − 1, x5 , 1 , x2 ∈ R, x5 ∈ R
2 2
Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S ′ ). Como se
trata de mostrar la igualdad de dos conjuntos tendremos que demostrar que están mutua-
mente incluidos.
44 Capı́tulo 2. Sistemas de ecuaciones lineales
Veamos primero que Sol(S) ⊂ Sol(S ′ ). Sea (α1 , α2 , · · · , αn ) ∈ Sol(S) es claro que (α1 , α2 , · · · , αn )
satisface todas las ecuaciones de (S ′ ) (pues son las mismas que las de (S)) salvo tal vez
la i-esima. Como (α1 , α2 , · · · , αn ) debe verificar la i-esima y j-esima ecuación de (S) se
tiene que
por lo tanto
(α1 , α2 , . . . , αn ) ∈ Sol(S ′ ).
Igual que antes es claro (α1 , α2 , . . . , αn ) debe verificar todas las ecuaciones de (S) salvo
tal vez la i-esima pero como
y
aj1 α1 + aj2 α2 + · · · + ajn αn = bj
se deduce que
ai1 α1 + ai2 α2 + · · · + ain αn = bi
con lo cual (α1 , α2 , . . . , αn ) ∈ Sol(S) y la prueba esta concluida. ♠
cambiamos la primera fila por otra cuya primera entrada sea no nula.6 Una vez que el
pivot esta ubicado realizamos el primer paso de la escalerización:
A1 A1
A2 A′ ←− A2 − a21 A1
2 a11
.. .. .. .. ..
.
. ∼ .
.
.
Ai A′ ←− Ai − ai1 A1
i a11
.. .. .. .. ..
. . . . .
Am A′m ←− Am − aam111
A1
En el segundo paso el objetivo es obtener una nueva matriz que tenga las entradas de
la segunda columna todas nulas salvo tal vez las dos primeras. Para eso repetimos el
procedimiento del paso uno a la sub-matriz que aparece recuadrada.
De nuevo el primer paso es determinar el segundo pivot para esto chequeamos que a′22 6= 0
de lo contrario cambiamos la segunda fila por otra (de abajo) con segunda entrada no
nula. Podrı́a ocurrir que todas las entradas de la segunda fila fuesen nulas en ese caso la
segunda columna ya tiene el aspecto adecuado por lo cual el procedimiento se continúa
ubicando un pivot en al posición 2, 3 (ver (2.2) en el ejemplo 2.7.1). Supongamos, para
fijar ideas, que a′22 6= 0 entonces el segundo paso de la escalerización es:
A1 A1
A′2
A′2
A′3 A′′3 ←− A′3 − a32 A′2
a22
.. .. .. .. ..
. . ∼
. .
.
A′i A′′i ←− A′ − ai2 A′
i a22 2
.. .. .. .. ..
. . . . .
A′m A′′m ←− A′m − aam222
A′2
Repetimos nuevamente los pasos previos aplicados a la sub-matriz del recuadro. El proce-
dimiento culmina cuando se llega a la última fila o columna.
Para obtener la matriz escalerizada reducida a partir de la escalerizada, basta con repetir
el procedimiento pero tomando como pivots la entrada que ocupa el lugar inferior derecho
de la matriz y yendo hacia arriba. ♠
p≤n (2.4)
Veamos ahora el segundo caso, p′ = p < n. Como la forma escalerizada tiene más columnas
que escalones necesariamente algún escalón debe tener “descanso” y por lo tanto la forma
reducida debe ser
2.7. Apéndice de esta sección 47
1 0 ⋆ ... ⋆ 0 ... 0 0⋆ ... ⋆ 0 . . . 0 c1
0 1 ⋆ ... ⋆ 0 ... 0 0⋆ ... ⋆ 0 . . . 0 c2
.. . .. .. . . . .
. . . .. . . . .. ... . . .. ..
. 0 ... ... 0 1 . .
.. .. . .. .. .. .. . . . .
. . . .. . . . .. ... . . .. ..
. . ... . . 0 . .
.. .. .. .. . . . . .
0 .. . . . .. ... . . .. ..
. . ... ... . ... . 1
.. .. .. .
1 ⋆ . . . ⋆ 0 . . . .. cs
. . ... ... . ... ... 0
. . .
. . . .. . . . . . . .. 0 0 . . . 0 1 . . . .. cs+1
0 0 ...
.. .. . . .. .. . . .. .
. . . .. . . . . . . .. . . . . . .. .. . 0 ..
. . ...
.
0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 1 cp
.
0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 0 0
.. .. .. .. .. . .. .. . . . .
. . . . . ... . . . .. . . . . . .. .. . . . .. ..
.
0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 0 0
donde las zonas de estrellas representan submatrices con entradas arbitrarias.
Para analizar la solución de este sistema intentemos aplicar el algoritmo de sustitución
hacia atrás. Supongamos que s es la primera fila (comenzando desde abajo) con descanso
(escalón de ancho mayor que una columna). Las ecuaciones s + 1, s + 2, . . . , p son entonces
xs+1 = cs+1
xs+2 = cs+2
..
.
xp = cp
la ecuación s es
xh + as h+1 xh+1 + . . . + ass xs = cs
despejando se tiene
xh = cs − (as h+1 xh+1 + . . . + ass xs )
su contra recı́proco7 y para esto basta con ver que p < p′ implica (S) incompatible pues
en cualquier sistema A|b tiene una columna más que A y por lo tanto se cumple que p ≤ p′
Si p < p′ , la última columna de la forma reducida de la matriz ampliada debe tener un
escalón por lo tanto la forma es:
1 0 ⋆ ... ⋆ 0 ... 0 ⋆ ⋆ 0
0 1 ⋆ ... ⋆ 0 ... 0 ⋆ ⋆ 0
0 0 0 ... 0 1 ... 0 ⋆ ⋆ 0
.. .. .. . . . .. .. .. ..
. . . . . . .. . . . . .
0 0 0 ... 0 0 ... 1 ⋆ ⋆ 0
0 0 0 ... 0 0 ... 0 0 0 1
0 0 0 ... 0 0 ... 0 0 0 0
0=1
7
Recordemos que un resultado de lógica elemental establece que (A ⇒ B) si, y solo si, (negación de B ⇒
negación de A).
Capı́tulo 3
El espacio vectorial Rn
Si bien en este modelo simplificado se supone que la función depende de una sola variable,
parece bastante razonable pensar que pueda depender de varias. De hecho, en microeco-
nomı́a se supone que la demanda de un bien depende, no solamente del precio del mismo
bien, sino también de los precios de los bienes sustitutos y del ingreso del consumidor.
En este caso la demanda serı́a una función de tres variables y, aparentemente, el nue-
vo modelo permitirı́a una descripción más adecuada de la realidad. No debe sorprender
entonces que uno de nuestros próximos objetivos sea el de estudiar funciones de varias
variables. La usual notación f (x) será cambiada por f (x, y) y f (x, y, z) para funciones de
dos y tres variables respectivamente. Como la cantidad de estas no es siempre la misma
(dependerá del problema a considerar), conviene realizar una teorı́a general, en donde la
función dependa de una cantidad arbitraria, digamos n, de variables. En ese caso escribi-
remos f (x1 , x2 , . . . , xn ). Observemos que cada punto del dominio de esta función ya no
es un número real sino una lista ordenada de n números reales: (x1 , x2 , . . . , xn ).
Si bien cada lista (x1 , x2 , . . . , xn ) es simplemente una matriz, un estudio más profundo
del conjunto de tales listas permitirá desarrollar una teorı́a de enorme riqueza dentro de
la Matemática y de suma importancia por sus diversas aplicaciones.
50 Capı́tulo 3. El espacio vectorial Rn
La interpretación geométrica de este conjunto es por demás conocida. En efecto, una vez
fijado un sistema de coordenadas cartesianas en el plano, queda establecida una corres-
pondencia biunı́voca entre los puntos del plano
y los pares ordenados de números reales.
x1
A cada par ordenado de números le corresponde un único punto p del plano
x2
y, recı́procamente, cada punto del plano es correspondiente de un único par de números
reales.
y y
x1
p= x1
x2 p=
x2 x2 x2
o x1 x o x1 x
0
También podemos considerar el “vector” con origen en o = y extremo en p e ima-
0
x1
ginar el par como el vector −
→ Es ası́ que, de manera dual, podemos interpretar
op.
x2
R2 como el conjunto de puntos del plano, o como el conjunto de vectores del plano que
tienen origen en o.
Observación 3.1.1.
(1) Como mencionamos anteriormente, se trata de las propiedades de la suma de matrices
y, por lo tanto, no es necesario demostrarlas. De todos modos, en caso de querer hacerlo, la
prueba es muy simple ya que alcanza con utilizar las propiedades de la suma de números
reales.
(2) Como ya lo sabemos para matrices, el neutro de la suma es único y el opuesto de cada
vector también es único.
(3) Dados dos vectores u, v ∈ R2 , la resta u − v se define como la suma de u mas el
opuesto de v: u − v = u + (−v).
Definición 3.1.3.
Producto
de un número por un vector.
x1
Si λ ∈ R y x = ∈ R2 entonces el producto λx del número λ por x es el vector
x2
λx1
definido por λx = ∈ R2 .
λx2
Dicho de otro modo, el vector λx se obtiene multiplicando por λ a cada componente de
x. Observemos que esta definición coincide con la de producto de un número por una
matriz (en este caso, de matrices 2 × 1) y, por lo tanto, esta operación tendrá las mismas
propiedades que las conocidas para matrices.
λu
λb
u
b
o a λa
u
0<λ<1 u
λ<0
λu o
λu
o
3.1. El espacio vectorial R2 53
u+v
b+d
b
u
d
v
o a c a+c
u+v u+v
u−v u−v
u u
v v
o o
−v −v
54 Capı́tulo 3. El espacio vectorial Rn
3.1.2. Rectas en R2
Recta que pasa por un punto y es paralela a un vector.
Como el lector conoce de cursos anteriores, existen varias maneras de determinar una recta
en el plano. Por ejemplo, si damos un punto p y un vector no nulo v, entonces hay una
única recta L que pasa por p y es paralela al vector v.
L
p
p + λv
L
λv
v
Recı́procamente, para cada punto x ∈ L existirá algún λ ∈ R tal que x = p + λv. Tenemos
entonces que la recta L coincide con el siguiente conjunto de puntos:
L = { p + λv / λ ∈ R }
x = p + λv , λ ∈ R.
3.1. El espacio vectorial R2 55
Para cada valor del parámetro λ obtenemos un punto de la recta y, recı́procamente, todo
punto de la recta se obtiene de esa forma para algún valor de λ. Observemos, en particular,
que para λ = 0 se obtiene el punto p.
p1 v1 x
Si p = , v= y x= entonces, igualando componente a compo-
p2 v2 y
nente en la ecuación paramétrica vectorial de la recta obtenemos:
x = p1 + λv1
, λ ∈ R.
y = p2 + λv2
v
1 p
o 1 2
Está claro que se trata de la recta que pasa por p y tiene coeficiente angular 1. Si despe-
jamos λ en la primera ecuación obtenemos λ = x − 2. Sustituyendo en la segunda queda
y = x− 1, que es la ecuación reducida de esta recta. Esto quiere decir que un punto
x
pertenece a la recta L si, y solo si, sus componentes verifican la ecuación y = x − 1.
y
x = p + λ(q − p) , λ ∈ R.
56 Capı́tulo 3. El espacio vectorial Rn
q−p
Las ecuaciones paramétricas permiten describir con cierta comodidad algunos subconjun-
tos particulares de la recta. Por ejemplo, si permitimos que el parámetro λ varı́e solamente
en los reales positivos entonces la expresión:
x = p + λ(q − p) , λ > 0.
λ(q − p)
q−p
x = p + λ(q − p) , 0 ≤ λ ≤ 1.
3.1. El espacio vectorial R2 57
q−p
λ(q − p)
o
p+q
En particular, para λ = 1/2 obtenemos el punto medio del segmento: m =
2
p1 q1 x
Si p = , q= y x= entonces las ecuaciones paramétricas de
p2 q2 y
esta recta son:
x = p1 + λ(q1 − p1 )
, λ ∈ R.
y = p2 + λ(q2 − p2 )
En la descripción anterior hemos tenido en cuenta que la recta que pasa por p y q coincide
con la que pasa por p y es paralela al vector q − p. Obviamente, también coincide con la
que pasa por q y es paralela al vector p − q:
x = q + µ(p − q) , µ ∈ R.
L L
S
p0 L=S S
x3
x1
p = x2
x3
x2
o
y
x1
Estas operaciones tienen exactamente las mismas propiedades que establecimos en las
proposiciones 3.1.1 y 3.1.2 Por ese motivo no volveremos a escribirlas nuevamente. Por
otra parte, la interpretación geométrica de estas operaciones (ası́ como el concepto de
vectores colineales), es también totalmente análoga a la realizada en R2 . En particular, si
u, v ∈ R3 son dos vectores no colineales, los puntos o, u y v determinan un plano, y la
suma u + v se visualiza a partir de la regla del paralelogramo en dicho plano:
v−u u+v
v
o u
3.2.2. Rectas en R3
Las mismas consideraciones geométricas realizadas en R2 nos permiten llegar a las siguien-
tes caracterizaciones analı́ticas de las rectas en R3 .
L = { p + λv / λ ∈ R }
3.2. El espacio vectorial R3 61
x = p + λv , λ ∈ R.
Para cada valor del parámetro λ obtenemos un punto de la recta y, recı́procamente, todo
punto de la recta se obtiene de esa forma para algún valor de λ. Observemos, en particular,
que para λ = 0 se obtiene el punto p.
p1 v1 x
Si p = p2 , v = v2 y x = y entonces, igualando componente a
p3 v3 z
componente en la ecuación paramétrica vectorial obtenemos:
x = p1 + λv1
y = p2 + λv2 , λ ∈ R.
z = p3 + λv3
Ejemplo
3.2.2. Busquemos las ecuaciones
paramétricas de la recta L que pasa por p =
2 1
−3 y es paralela al vector v = 2 . Simplemente hay que sustituir en la ecuación
5 1
anterior obteniendo:
x = 2+λ
(L) y = −3 + 2λ , λ ∈ R
z = 5+λ
Si despejamos λ en la primera ecuación obtenemos λ = x − 2. Sustituyendo
en la segunda
x = 2+λ
y la tercera obtenemos el siguiente sistema equivalente al anterior: 2x − y − 7 = 0
x−z+3=0
2x − y − 7 = 0
A las dos últimas ecuaciones las llamaremos “ecuaciones reducidas”
x−z+3=0
x
de la recta L. Esto quiere decir que un punto y pertenece a la recta L si, y solo si,
z
2x − y − 7 = 0
sus componentes verifican el sistema
x−z+3 = 0
Observemos que en R3 una recta tiene dos ecuaciones reducidas.
S = { p + λ(q − p) / λ ∈ R }
x = p + λ(q − p) , λ ∈ R.
x
paramétricas. Debe quedar claro que estamos buscando puntos y que pertenezcan a
z
ambas rectas.
Si trabajamos con las reducidas el problemase reduce a resolver el siguiente sistema de
2x − y − 7 = 0
x−z+3 = 0
cuatro ecuaciones con tres incógnitas: (R)
2x + y − 5 = 0
2x − z = 0
Si trabajamos con las paramétricas deberemos resolver el siguiente sistema:
x = 2+λ
x = 2+λ
y = −3 + 2λ
y = −3 + 2λ
z = 5+λ z = 5+λ
(P ) que es equivalente a
x = 1 + α
2+λ = 1+α
y = 3 − 2α
−3 + 2λ = 3 − 2α
z = 2 + 2α 5 + λ = 2 + 2α
0 B
0
1
0
1 1
0 0
o
0
A
64 Capı́tulo 3. El espacio vectorial Rn
Ejercicio 3.2.2. Pruebe que las siguientes rectas (dadas por sus ecuaciones reducidas)
son paralelas:
x + 2y − 1 = 0 x + 2z + 1 = 0
(L) (S)
z−y−3 = 0 x+y+z−1=0
Ejercicio 3.2.3. Se consideran las rectas L y S dadas por sus ecuaciones paramétricas:
x = 1 + 2λ x = 5 + 4α
(L) y = −2 + aλ , (S) y = 4 + 6α
z =1−λ z = −1 − bα
3.2.3. Planos en R3
Como habı́amos mencionado, si u y v son dos vectores no colineales de R3 entonces
determinan un plano. Nos estamos refiriendo al plano Πo que pasa por o y que es paralelo
a dichos vectores. A partir de la regla del paralelogramo deducimos que, cualesquiera que
sean los escalares α, β, los puntos de la forma αu + βv siempre pertenecen al plano Πo .
Más aún, todo punto de dicho plano se obtiene de esa forma.
βv αu + βv
v
o u αu
Ahora bien, dado un punto p ∈ R3 (que no tiene por qué ser o) también queda determinado
un plano Π que pasa por p y que es paralelo a u y v. Los puntos de este plano son de la
forma p + αu + βv, en donde los escalares α y β pueden variar en los reales de todas las
maneras posibles.
p + αu + βv
x = p + αu + βv α, β ∈ R.
66 Capı́tulo 3. El espacio vectorial Rn
x x0 u1 v1
Si x = y , p = y0 , u = u2 , v = v2 entonces las ecuaciones
z z0 u3 v3
paramétricas del plano mencionado son:
x = x0 + αu1 + βv1
y = y0 + αu2 + βv2 α , β ∈ R.
z = z0 + αu3 + βv3
x
Esto quiere decir que un punto x = y pertenece a Π si, y solo si, sus coordenadas
z
verifican las tres ecuaciones mencionadas. Observemos también que las tres igualdades
pueden escribirse de la siguiente manera:
x − x0 u1 v1
y − y0 = α u2 + β v2
z − z0 u3 v3
x − x0 u1 v1
lo cual implica que el determinante y − y0 u2 v2 tiene que valer 0 (pues su primera
z − z0 u3 v3
columna es una combinación lineal de las otras dos). Podemos observar también que si
desarrolláramos este determinante por la primera columna y luego ordenáramos en x, y, z,
obtendrı́amos una expresión del tipo ax + by + cz − d, en donde a, b, c y d son constantes
con a,
b yc no son simultáneamente nulos. Podemos concluir entonces que un un punto
x
x = y pertenece a Π si, y solo si, sus coordenadas verifican una ecuación de la forma
z
1 3 −3
Ejemplo 3.2.5. Consideremos p = 0 , u = 1 , v = 1 y sea Π el
2 −1 5
plano que pasa por p y es paralelo a los vectores u y v .
Ahora bien, despejando α y β (en función de x e y) de las dos primeras ecuaciones obte-
nemos:
x + 3y − 1 −x + 3y + 1
α= β=
6 6
x = p1 + α(p3 − p1 ) + β(p2 − p1 ) α , β ∈ R.
p2
Π
p3
p1
p2 − p1
p3 − p1
o
68 Capı́tulo 3. El espacio vectorial Rn
1 1 −1
Ejemplo 3.2.6. Consideremos los puntos p1 = 1 , p2 = −1 y p3 = −1 .
1 2 3
0 −2
Como los vectores p2 − p1 = −2 y p3 − p1 = −2 no son colineales los tres
1 2
puntos p1 , p2 y p3 determinan un plano Π al cual pertenecen. Las ecuaciones paramétricas
de dicho plano son:
x = 1 + −2β
y = 1 − 2α − 2β α , β ∈ R.
z = 1 + α + 2β
El lector podrá verificar que, eliminando α y β entre las tres ecuaciones, la ecuación
reducida de este plano resulta ser:
(Π) x + y + 2z = 4
Como se observa fácilmente, las coordenadas de cada uno de los tres puntos dados verifican
esta última ecuación.
Veamos ahora otra manera de obtener la ecuación reducida de este plano Π sin hallar las
ecuaciones paramétricas. En efecto, sabemos que la ecuación reducida de Π es de la forma
ax + by + cz = d. Como las coordenadas de cada uno de los tres puntos deben verificar
esta ecuación obtenemos:
a+b+c=d
a − b + 2c = d
−a − b + 3c = d
Resolviendo este sistema (S) se obtiene que es compatible indeterminado con un grado de
libertad y una forma de expresar su conjunto solucuón es:
x = p1 + λv1
y = p2 + λv2
El problema planteado nos lleva a estudiar el sistema (S) que, a
z = p3 + λv3
ax + by + cz = d
x = p 1 + λv1
y = p2 + λv2
su vez, es equivalente a este otro:
z = p3 + λv3
a(p1 + λv1 ) + b(p2 + λv2 ) + c(p3 + λv3 ) = d
Ordenando la cuarta ecuación, esta resultará de la forma Aλ = B (en donde A y B
son constantes), es decir, una ecuación lineal de primer grado con una sola incógnita. El
comportamiento de esta ecuación (determinada, indeterminada o incompatible) será el
mismo que el del sistema (S). Tenemos entonces que las únicas posibilidades son:
T
Si (S) es compatible determinado entonces L Π = {q} (la recta corta al plano en
un solo punto).
T
Si (S) es compatible indeterminado entonces L Π = L (la recta está contenida en
el plano).
T
Si (S) es incompatible entonces L Π = ∅ (la recta es paralela al plano).
q Π
L Π
0 1 1
Ejercicio 3.2.4. Se consideran los puntos p1 = 1 , p2 = 2 , p3 = 1 .
1 0 −1
Encuentre las ecuaciones paramétricas y la ecuación reducida del plano Π que pasa por
esos tres puntos. Verifique que Π pasa por el origen.
1
Ejercicio 3.2.5. Consideremos la recta L que pasa por los puntos q1 = −1 y
1
2
q2 = 1 .
0
1. Encuentre la intersección de L con el plano Π1 de ecuación 2x + 3y + 3z = 6.
70 Capı́tulo 3. El espacio vectorial Rn
Ejercicio 3.2.9. En cada uno de los siguientes casos reconozca geométricamente el sub-
conjunto de R3 definido por las relaciones dadas:
En este contexto, a la matriz nula n × 1 (que tiene ceros en todas sus componentes) la
llamaremos vector nulo y la simbolizaremos o. Asimismo, dado un vector cualquiera x
designaremos con −x al vector cuyas componentes son, respectivamente, las opuestas de
las de x.1
1
Como habrán observado hemos introducido un cambio de notación. De aquı́ en adelante los vectores
los designaremos con tipografı́a normal, por ejemplo u, y no en “negrita” u, como lo hicimos antes.
3.3. El espacio vectorial Rn 73
Observación 3.3.1.
(1) Como mencionamos anteriormente, se trata de las conocidas propiedades de la suma
de matrices y, por lo tanto, no es necesario demostrarlas. De todos modos, en caso de
querer hacerlo, la prueba es muy simple ya que alcanza con utilizar las propiedades de la
suma de números reales.
(2) Como ya lo sabemos para matrices, el neutro de la suma es único y el opuesto de cada
vector también es único.
(3) Dados dos vectores u, v ∈ Rn , la resta u − v se define como la suma de u mas el opuesto
de v: u − v = u + (−v).
Definición 3.3.3.
Producto
de un número por un vector.
x1
x2
Si λ ∈ R y x = . ∈ Rn entonces el producto λx del número λ por x es el vector
..
x
n
λx1
λx2
∈ Rn
definido por λx = ..
.
λxn
Entonces:
5 6
−5/2 −3
u+v =
5/2
, 2v =
3 ,
3u − 2v = o
10 12
Definición 3.3.4. Vectores colineales.
Sean u, v ∈ Rn . Diremos que u y v son colineales cuando uno es múltiplo del otro, es
decir, si existe α ∈ R tal que v = αu, o si existe β ∈ R tal que u = βv.
2 4 2
−1
y −2 son colineales, mientras que −1
Por ejemplo, los vectores 2 4 2
1 2 1
4
−2
5 no lo son.
y
π
Sea z un vector cualquiera de Rn y o el vector nulo de Rn . Como o = 0 z, podemos decir
que o es colineal con cualquier otro vector z ∈ Rn .
Ejemplo 3.3.2. Consideremos el caso en que U contiene un solo vector no nulo: U = {u}
con u 6= o. En este caso los vectores que son combinación lineal de U son aquellos de la
forma λu con λ ∈ R. Es decir, son todos los vectores colineales con u. ¿Qué ocurre si u
fuese el vector nulo?
α2 u2
u2
u1 α1 u1
Ejemplo
3.3.3.
Veamos ejemplo en R3 . Consideremos U = {u1 , u2 } ⊂ R3 en donde
un
1 −1
u1 = −1 y u2 = 3 .
1 2
(1) ¿Cómo obtenemos combinaciones lineales de U ? Simplemente multiplicando u1 por un
número, u2 por otro número
y sumando
los resultados.
−1
Por ejemplo 2u1 + 3u2 = 7 es una C.L. de U . ¿Es posible obtener otras?
8
4
Sı́, otro ejemplo es 3u1 − u2 = −6 . ¿Cuántas C.L. de U podemos formar?
1
(2) Algunas C.L. particulares de U se obtienen cuando multiplicamos
uno de los vectores
α1
por 0. Por ejemplo las C.L. de la forma α1 u1 + 0u2 = −α1 nos dan vectores que son
α1
todos colineales con u1 . Resulta claro que hay infinitas C.L. diferentes de U .
(3) Un caso particular (trivial, pero fundamental a tener en cuenta) es cuando tomamos
todos los escalares nulos. Esta se denomina la C.L. trivial de U y da como resultado el
vector nulo: 0u1 + 0u2 = o.
z es C.L. de U ⇐⇒ ∃ α1 , α2 ∈ R / α1 u1 + α2 u2 = z
1 −1 1
⇐⇒ ∃ α1 , α2 ∈ R / α1 −1 + α2 3 = 1
1 2 4
1
Consideremos ahora el vector w = 1 y tratemos de averiguar si es C.L. de U . Repi-
2
α1 − α2 = 1
tiendo el mismo razonamiento que en el caso anterior llegamos al sistema −α1 + 3α2 = 1
α1 + 2α2 = 2
que (luego de efectuar
las mismas operaciones en la escalerización que en el caso anterior)
α1 − α2 = 1
resulta equivalente a 2α2 = 2 . Este sistema es incompatible y, por lo tanto, la
0=4
respuesta es negativa: w NO es C.L. de U .
(5) Como acabamos de ver, hay vectores de R3 que son C.L. de U y otros que no lo
3
son. ¿Podremos caracterizar todos losvectores de R que sean C.L. de U ? Para ello nos
a
planteamos un vector genérico b y efectuamos el mismo procedimiento que antes.
c
α1 − α2 = a
Este vector será C.L. de U si, y solo si, el sistema −α1 + 3α2 = b (de incógnitas
α1 + 2α2 = c
α1 , α2 ) es compatible.
Efectuando la misma escalerización que en los ejemplos anteriores
α1 − α2 = a
llegamos a 2α2 = a + b
0 = 5a + 3b − 2c
Una discusión muy simple que nos lleva a la siguiente concusión: el vector será C.L. de U
si, y solo si, 5a + 3b − 0. Tenemos entonces que los vectores de R3 que son C.L. de U
2c =
a
son aquellos vectores b cuyas componentes verifiquen la relación 5a + 3b − 2c = 0,
c
es decir, son los vectores del conjunto:
a
b ∈ R3 / 5a + 3b − 2c = 0
c
α1 − α2 = a
Una última observación: cuando 5a + 3b − 2c = 0 el sistema 2α2 = a + b
0 = 5a + 3b − 2c
no solamente queda compatible, sino también compatible determinado. Esto quiere decir
que cada vector que sea C.L. de U se podrá escribir de una única manera como C.L. de
U.
1 0 2
Ejemplo 3.3.4. Consideremos los vectores u1 = 0 , u2 = 1 , u3 = −1
2 1 3
3
y el conjunto V = {u1 , u2 , u3 }. Queremos caracterizar los vectores de R que sean C.L. de
V , es decir, queremos encontrar la condición que debe cumplir un vector de R3 para ser
3.3. El espacio vectorial Rn 77
a
C.L. de V . Para ello consideramos un vector genérico z = b y planteamos que
c
z es C.L. de V ⇐⇒ ∃ α1 , α2 , α3 ∈ R / α1 u1 + α2 u2 + α3 u3 = z
α1 + 0α2 + 2α3 = a
Esto nos lleva al sistema de ecuaciones (de incógnitas α1 , α2 , α3 ) 0α1 + α2 − α3 = b
2α1 + α2 + 3α3 = c
1 0 2 a
La matriz ampliada asociada a dicho sistema es 0 1 −1 b .
2 1 3 c
Escalerizando tenemos:
1 0 2 a 1 0 2 a
0 1 −1 b ∼ 0 1 −1 b
0 1 −1 −2a + c ←− F3 − 2F1 0 0 0 2a + b − c ←− F2 − F3
El rango por filas (o sea, el número de escalones) de la matriz del sistema es 2. Según el
teorema de Rouche-Frobenius, el sistema será compatible si, y solo si, el rango por filas
de la matriz ampliada también vale 2. Se deduce entonces que la condición para que z sea
C.L. de V es 2a + b − c = 0.
a
Conclusión: los vectores de R3 que son C.L. de V son aquellos vectores b cuyas
c
componentes verifiquen la relación 2a + b − c = 0, es decir, son los vectores del conjunto:
a
b ∈ R3 / 2a + b − c = 0
c
Con respecto a esta matriz observemos que su primera columna está formada por las
componentes de u1 , su segunda columna por las componentes de u2 , y su tercera columna
por las componentes de u3 . Esta matriz se designará MU . Observemos también que, como
en este ejemplo U está formado por tres vectores de R4 , la matriz MU resulta tener 4 filas
y 3 columnas (es decir, es 4 × 3). Tenemos entonces que la C.L. α1 u1 + α2 u2 + α3 u3 se
puede escribir como el producto de la matriz MU por el vector de los coeficientes de la
3.3. El espacio vectorial Rn 79
C.L. :
α1
α1 u1 + α2 u2 + α3 u3 = MU . α2
α3
Esta observación, que hemos introducido con un ejemplo particular, es totalmente general.
Dado un conjunto U = {u1 , u2 , . . . , ur } ⊂ Rn designaremos con MU a la matriz n × r tal
que su primera columna está formada por las componentes de u1 , su segunda columna por
las componentes de u2 , y ası́ sucesivamente. La C.L. α1 u1 + α2 u2 + . . . + αr ur se puede
escribir como el producto de la matriz MU por el vector de los coeficientes de la C.L. :
α1
α2
α1 u1 + α2 u2 . . . + αr ur = MU . ..
.
αr
Como sabemos, un vector z ∈ Rn será C.L. de U si, y solo si, existen escalares α1 , α2 , . . . , αr ∈
R tales que α1 u1 + α2 u2 . . . + αr ur = z. O, de manera equivalente, si, existen escalares
α1
α2
α1 , α2 , . . . , αr ∈ R tales que MU . . = z. Esta última es la notación matricial para
.
.
αr
un sistema de ecuaciones lineales de incógnitas α1 , α2 , . . . , αr . Podemos resumir entonces
lo siguiente:
α1
α2
Si el sistema MU . = z
.
.
αr
es compatible determinado entonces hay una sola C.L. de U que da como resultado
z.
es compatible indeterminado entonces hay infinitas C.L. de U que dan como resultado
z.
1 1 2
1 2 3
Ejemplo 3.3.5. Consideremos los vectores u1 = −1 , u2 = 1 , u3 = 4
−1 2 1
y el conjunto U = {u1 , u2 , u3 } ⊂ R4 . Queremos caracterizar todos los vectores de R4 que
80 Capı́tulo 3. El espacio vectorial Rn
d
α1 1 1 2 a
α2 1 2 3 b
del sistema MU . α3 = z es −1 1 4 c .
α4 −1 2 1 d
Escalerizando tenemos que la matriz es equivalente a las siguientes:
1 1 2 a 1 1 2 a
0 1 1 b−a ←− F2 − F1
0 1 1 b−a
∼
0 2 6 a + c ←− F3 + F1 0 0 4 3a − 2b + c ←− F3 − 2F2
0 3 3 a+d ←− F4 + F1 0 0 0 4a − 3b + d ←− F4 − 3F2
El rango por filas (o sea, el número de escalones) de MU es rgf (MU ) = 3. Según el teorema
de Rouche-Frobenius, el sistema será compatible si, y solo si, el rango por filas de la matriz
ampliada también es 3. Se deduce entonces que la condición para que z sea C.L. de U es
4a − 3b + d = 0.
x = x1 e1 + x2 e2 + x3 e3 + . . . + xn en
Resulta entonces que cualquier vector es C.L. del conjunto de vectores canónicos. Mas
aún, los coeficientes de la C.L. son las propias componentes del vector x. Además, es claro
que no hay otra manera de escribir x como C.L. de estos vectores canónicos. De aquı́ en
adelante designaremos con la letra C al conjunto de vectores canónicos de Rn , es decir:
C = {e1 , e2 , . . . , en }. Observemos también que la matriz MC no es otra que la matriz
3.3. El espacio vectorial Rn 81
identidad In :
1 0 ... 0
0 1 ... 0
MC = .... . . .. = In
. . . .
0 0 ... 1
Encuentre todos los valores de a para los cuales w es C.L. de {u, v}.
Ejercicio 3.3.4. Determine si las siguientes afirmaciones son verdaderas o falsas justifi-
cando la respuesta.
1. Sean U = {u1 , u2 } ⊂ Rn y z1 , z2 dos vectores que son C.L. de U . Si v = 2z1 + 3z2
entonces v es C.L. de U .
2. Sean u1 , u2 , u3 ∈ Rn tales que u1 es C.L. de {u2 , u3 } y u2 es C.L. de {u3 }. Entonces
u1 es C.L. de {u3 }.
3. Sean u1 , u2 , u3 ∈ Rn tales que u1 es C.L. de {u2 , u3 } y u2 no es C.L. de {u3 }. Entonces
u1 no es C.L. de {u3 }.
82 Capı́tulo 3. El espacio vectorial Rn
6
2. Encuentre todos los vectores de R4 que son C.L. de U .
2 1
a la recta anterior.
2. Diremos que tres puntos p1 , p2 , p3 ∈ Rn están alineados cuando pertenecen a una
misma recta. Demuestre que p1 , p2 , p3 están alineados si, y solo si, los vectores p2 −p1
y p3 − p1 son colineales.
−1 1 0
y el conjunto U = {u1 , u2 , u3 }. Es inmediato observar que u3 = u1 +u2 . Se deduce entonces
que U es L.D.
Observemos también que u3 = u1 + u2 implica u1 + u2 − u3 = o y esto quiere decir que
hemos encontrado una C.L. no trivial de U que da como resultado o.
1 0 0
Ejemplo 3.4.2. Sea C = {e1 , e2 , e3 } = 0 , 1 , 0 . Observemos que
0 0 1
cualquier C.L. entre e1 y e2 tendrá un 0 en la tercera componente, de donde resulta que
e3 no es C.L. de {e1 , e2 }. Con un razonamiento similar se concluye que e1 no es C.L. de
{e2 , e3 } y que e2 no es C.L. de {e1 , e3 }. Ninguno de los vectores de C se puede expresar
como C.L. de los restantes y, por lo tanto, C es L.I.
Observación 3.4.1. Dos situaciones muy simples.
(a) Si un conjunto (con más de un vector) contiene al vector nulo entonces es L.D. En
efecto, sea U = {o, u2 , . . . , ur }. Como, obviamente, o = 0u2 + . . . 0ur , el vector
nulo es C.L. de los restantes y, por lo tanto, U es L.D.
(b) Cuando el conjunto en cuestión contiene exactamente dos vectores entonces es inme-
diato estudiar si es L.I. o L.D. Sea U = {u, v} ⊂ Rn . U es L.D. si, y solo si, algunos
de sus vectores es C.L. del otro, es decir, si y solo si, son colineales. Resulta entonces
que cuando tenemos solamente dos vectores alcanza con mirarlos para poder decidir:
si son proporcionales entonces U es L.D. y, si no lo son, entonces U es L.I.
En la observación anterior se vio que cuando el conjunto contiene solamente dos vectores
entonces es trivial estudiar si es L.I. o L.D. Ahora bien, cuando el conjunto contiene más
de dos vectores, dicho estudio no es (en general) inmediato. Consideremos el siguiente
ejemplo:
1 −5 2
10 −1
2
U=
, −7 , 1
−1
3 −19 7
¿Alguno de sus vectores es C.L. de los restantes? A “simple vista” (y sin hacer operaciones)
parecerı́a que no podemos adelantarnos a responder la pregunta. El próximo teorema nos
dará una caracterización diferente de los conjuntos L.D.
84 Capı́tulo 3. El espacio vectorial Rn
Teorema 3.4.1. Condición necesaria y suficiente para que un conjunto sea L.D.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto con al menos dos vectores (r ≥ 2).
Entonces U es L.D. si, y solo si, existe una C.L. no trivial de U que da como resultado el
vector nulo o.
Demostración. Como mencionamos anteriormente, el vector nulo siempre es C.L. de
cualquier conjunto, pues se obtiene trivialmente multiplicando por ceros los vectores de
dicho conjunto. A dicha C.L. la denominábamos C.L. trivial. Pero, como ya hemos visto
en algunos ejemplos, puede suceder que existan C.L. no triviales de U que también den
como resultado o.
( =⇒ ) Por hipótesis U es L.D. Esto quiere decir que alguno de sus vectores es C.L.
de los restantes. Supongamos (para fijar ideas) que u1 es C.L. de los demás. Tenemos
entonces que existen escalares α2 , . . . , αr ∈ R tales que u1 = α2 u2 + . . . + αr ur .
Lo anterior implica que o = −u1 + α2 u2 + . . . + αr ur . Hemos encontrado entonces
una C.L. no trivial (con al menos uno de los coeficientes diferente de cero) de U que
da o.
( ⇐= ) Ahora nuestra hipótesis es que existe una C.L. no trivial de U que da como
resultado o. O sea, existe alguna C.L. de U con al menos un coeficiente diferente
de 0 que da o. Tenemos entonces que existen escalares λ1 , λ2 , . . . , λr ∈ R, no
todos nulos, tales que o = λ1 u1 + λ2 u2 + . . . + λr ur . Supongamos (sin pérdida de
generalidad)
que es λ1 6=0. De la igualdad anterior podemos despejar u1 obteniendo:
−λ2
u1 = λ1 u2 + . . . + −λ λ1
r
ur . Hemos encontado entonces un vector de U que es
C.L. de los restantes, y eso es precisamente lo que querı́amos probar. ♠
Corolario 3.4.2. Condición necesaria y suficiente para que un conjunto sea L.I.
Del teorema anterior surge inmediatamente lo siguiente:
Un conjunto U es L.I. si, y solo si, la única C.L. de U que da como resultado o es la
trivial.
Ahora bien, como U es L.D., alguno de sus vectores tiene que ser C.L. de los restantes.
¿Cómo deberı́amos proceder para hallar tal vector? Si volvemos al sistema escalerizado
(colocando ahora las incógnitas) tenemos:
α1 − 5α2 + 2α3 = 0
4α2 − α3 = 0
0=0
0=0
Hay infinitas soluciones que vienen dadas (por ejemplo) mediante: α1 = −3α2 , α3 = 4α2 ,
α2 cualquiera. Para todas las ternas (α1 , α2 , α3 ) que verifiquen esas relaciones se cumplirá:
α1 u1 + α2 u2 + α3 u3 = o. Por ejemplo, si tomamos α2 = 1 resultan α1 = −3 y α3 = 4 con
lo que −3u1 + u2 + 4u3 = o. De esta última igualdad podemos despejar cualquiera de los
tres vectores en función de los otros dos. En este caso, cualquiera de los tres vectores es
C.L. de los restantes.
Observación 3.4.3. No siempre tiene que ocurrir lo que sucedió en el ejemplo anterior.
Es decir, si un conjunto U es L.D. eso no implica que cualquiera de sus vectores sea
C.L.
delosrestantes.
Para ello consideremos el siguiente ejemplo: U = {u1 , u2 , u3 } =
1 2 0
, , 0 . Este conjunto es L.D. (pues u2 = 2u1 + 0u3 ) y sin embargo
1 2
1 2 0
1 2 7
u3 no es C.L. de {u1 , u2 }.
86 Capı́tulo 3. El espacio vectorial Rn
Según la observación previa, en R2 no puede haber un conjunto L.I. con más de dos
vectores. Esto tiene una interpretación geométrica bastante simple. En efecto, sea
{u, v} ⊂ R2 un conjunto L.I. Sabemos que esto es equivalente a decir que u y v no
son colineales. Sea w otro vector de R2 . Si w es colineal con u o con v entonces es
claro que {u, v, w} es L.D. Supongamos entonces que w no es colineal con u ni con
v. Designemos con S a la recta que pasa por o y u, y con T a la que pasa por o y
v. La paralela por w a T intersecta a S en u1 , mientras que la paralela por w a S
intersecta a T en v2 . La regla del paralelogramo nos permite afirmar que w = u1 + v2
y, por lo tanto, w es C.L. de {u, v}.
v2 w
v
o u u1 S
Consideremos ahora un conjunto {u, v} ⊂ R3 L.I. Como estos dos vectores no son
colineales determinan un plano Π que pasa por o y que es paralelo a ambos. Sea
ahora un tercer vector w no colineal con u ni con v.
Tenemos que {u, v, w} es L.D. si, y solo si, w es C.L. de {u, v}. Esto es equivalente
a decir que w pertenece al plano Π.
3.4. Dependencia e independencia lineal 87
Π
u
o
y
Ahora bien, si {u, v, w} es L.I. entonces w no puede ser C.L. de {u, v}. Esto significa
que w no pertenece al plano Π.
z
w
v Π
u
o
y
o = λ1 u1 + λ2 u2 + . . . + λr ur + βv (3.1)
o = λ1 u1 + λ2 u2 + . . . + λr ur
Esta es una C.L. de U que da como resultado o. Como por hipótesis U es L.I. sabemos que
la única C.L. de U que da o es la trivial, de donde se deduce que λ1 = λ2 = . . . = λr = 0.
♠
λ1 (α1 u1 + α2 u2 + . . . + αr ur ) + λ2 u2 + . . . + λr ur = o
Ordenando resulta:
Como por hipótesis U es L.I. todos los coeficientes de esta última C.L. deben valer 0:
λ1 α1 = 0
λ1 α2 + λ2 = 0
..
.
λ1 αr + λr = 0
Ejemplo 3.4.4. Sea U = {u, v} ⊂ Rn un conjunto L.I. Vamos a probar de dos formas
diferentes que V = {2u − v, u + 3v} también es L.I.
(1) Para intentar probar que V es L.I. consideramos una C.L. de V igualada al vector
nulo:
λ1 (2u − v) + λ2 (u + 3v) = o
Tenemos que demostrar que necesariamente λ1 = λ2 = 0. Ordenando queda:
Como U = {u, v} es L.I. ambos coeficientes de la última C.L. deben ser nulos. Tenemos
entonces que: 2λ1 + λ2 = 0 y −λ1 + 3λ2 = 0. Resolviendo este sistema de dos ecuaciones
con dos incógnitas se obtiene λ1 = λ2 = 0 y eso prueba que V es L.I.
(2) Una manera alternativa de probar la afirmación consiste en utilizar (con cuidado) el
teorema anterior de “modificación”. Partimos de U = {u, v} L.I. En un primer paso modi-
ficamos el vector u por 2u−v. Como en esta C.L. el coeficiente de u (vector modificado) no
es 0, el teorema anterior nos permite asegurar que U ′ = {2u−v, v} es L.I.. Ahora volvemos
a aplicar el teorema, pero en este caso al conjunto U ′ . Ahora, en U ′ , vamos a modificar
el vector v por una C.L. de los dos vectores de U ′ . Como queremos llegar a u + 3v, en
lugar de v ponemos 12 (2u − v) + 72 v. De esta manera llegamos a que V = {2u − v, u + 3v}
también es L.I.
1 1 3
1 2 2
0 2 2 −1 1 −1
(5) U = , , (6) U = 0 , 1 , 1
0 1 1
1 1 3 1 0 1
a −1 0
a 8
(7) U = , (8) U = a2 , a , 2a2
2 a
1 a a2 + 1
(En las dos últimas partes se deberá discutir según a ∈ R).
1 2 1
0 −3
1
Ejercicio 3.4.2. Se considera el conjunto U = −1 , 1 , 5 .
−1 3 9
1. Pruebe que U es L.D.
2. Encuentre todos los subconjuntos de U que son L.I.
3. ¿Es cierto que para todo conjunto L.D. en R4 todos sus subconjuntos, con excepción
del propio conjunto y del vacı́o, son L.I.?
Ejercicio 3.4.3. Investigue si las siguientes afirmaciones son verdaderas o falsas.
1. Si U es un conjunto de R4 con cinco o más vectores entonces U es L.D.
2. Si U es un conjunto L.D. de R4 entonces contiene cinco o más vectores.
3. Sea U un subconjunto L.I. de Rn que contiene cinco vectores. Entonces n ≥ 5.
4. Sea U un subconjunto L.D. de Rn que contiene cuatro vectores. Entonces n ≥ 4.
Ejercicio 3.4.4. Sean U = {u1 , u2 , . . . , up } ⊂ Rn , A una matriz n × n y V el conjunto
definido por: V = {A.u1 , A.u2 , . . . , A.up }. Investigue si la siguientes afirmaciones son
verdaderas o falsas. (En caso de ser verdaderas demuestre y, en caso contrario, encuentre
un contraejemplo).
1. Si U es L.D. entonces V es L.D.
2. Si V es L.D. entonces U es L.D.
3. Si U es L.I. entonces V es L.I.
4. Si V es L.I. entonces U es L.I.
¿Cambian las respuestas si se supone que A es invertible?
Ejercicio 3.4.5. Sea U = {u, v, w} ⊂ Rn un conjunto L.I.
Demuestre que V = {u + v, u − v, u + v + w} también es L.I.
Ejercicio 3.4.6. Sea {u, v, w} ⊂ Rn un conjunto L.I. Indique si los siguientes conjuntos
son L.I. o L.D. justificando la respuesta.
Subespacios vectoriales de Rn
Si E es un espacio vectorial real, existen subconjuntos de E que son en sı́ mismos espa-
cios vectoriales reales al considerar las mismas operaciones que las definidas en E. Estos
subconjuntos se llaman subespacios vectoriales de E.
Definición 4.1.2. Subespacio vectorial
Sean E un espacio vectorial real y S un subconjunto no vacı́o de E. Diremos que S es un
subespacio vectorial de E si se cumplen las siguientes condiciones
1. La suma de dos elementos cualesquiera de S es un elemento de S.
Ejemplo 4.1.9. El conjunto Pn , de los polinomios de grado menor o igual que n (incluido
el polinomio nulo), es un subespacio vectorial de P (y, por lo tanto, también de F(R)).
En efecto:
1. La función nula pertenece a Pn .
2. Si f y g son dos polinomios de grado menor o igual que n entonces f + g también lo
es.
3. Si f es un polinomio de grado menor o igual que n entonces λf también lo es, ∀λ ∈ R.
Una condición equivalente para que un conjunto sea un subespacio vectorial es la que se
enuncia a continuación.
Demostración.
Ejercicio 4.1.1. En cada uno de los siguientes casos investigue si la afirmación dada es
verdadera o falsa. En caso de ser verdadera deberá demostrarla y, en caso de ser falsa,
deberá encontrar un contraejemplo.
1. El conjunto S de todas las matrices n × n que tienen traza nula es un subespacio de
Mn×n .
2. El conjunto L∞ (I) = { f : I → R / f está acotada en I } es un subespacio de F(I).
3. El conjunto C([a, b]) es un subespacio de L∞ ([a, b]).
4. El conjunto C(R) es un subespacio de L∞ (R).
5. El conjunto S de todos los polinomios que se anulan en x = 1 y en x = 3 es un
subespacio de P.
6. El conjunto S de todos los polinomios de grado 2 es un subespacio de P.
Rb
7. El conjunto S = { f ∈C([a,b])/ a f = 0} es un subespacio de C([a, b]).
Ejercicio
T 4.1.2. Sean E un espacio vectorial y S1 , S2 subespacios de E. Demuestre que
S1 S2 también es un subespacio de E.
4.2. Subespacios vectoriales de Rn 95
x
Ejemplo 4.2.2. T = ∈ R2 : −x + y = 1 no es un subespacio de R2 , pues T no
y
contiene al vector nulo o.
x
Ejemplo 4.2.3. R = ∈ R : x ≥ 0 no es subespacio de R2 pues, por ejemplo,
2
y
4 4 −12
si bien es un elemento de R, el vector −3 = no lo es.
−2 −2 6
x
Ejemplo 4.2.4. W = :y= ∈ R2 x2
no es un subespacio de R2 .
y
1 2
Basta considerar los vectores u = y en W y observar que el vector suma
1 4
1 2 3
u+v = + = es tal que 5 6= 32 por lo que no satisface la condición
1 4 5
de pertenencia al conjunto W .
S T
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
R W
x
x
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x
Ejemplo 4.2.5. S = y ∈ R3 : x + 2y − z = 0 es un subespacio de R3 .
z
Comenzamos como en el ejemplo 4.2.1, observando que los elementos de S son aquellos
4.2. Subespacios vectoriales de Rn 97
x
vectores y ∈ R3 que satisfacen la condición x + 2y − z = 0, es decir
z
x x
S = y ∈ R3 : x + 2y − z = 0 = y ∈ R3 : x, y ∈ R
z x + 2y
0
1. Resulta inmediato verificar que o = 0 ∈ S.
0
x1 x2
2. Si u = y1 yv= y2 son dos vectores en S, el vector suma
z1 z2
x1 x2 x1 + x2
u+v = y1 + y2 = y 1 + x2
x1 + 2y1 x2 + 2y2 (x1 + x2 ) + 2(y1 + y2 )
z
Π
u+v
v
λu
u
o
y
Con argumentos totalmente análogos se muestra que las rectas que pasan por el origen en
R2 y R3 son subespacios vectoriales de R2 y R3 respectivamente.
Es más, puede probarse que en realidad éstos, junto con todo el espacio y el conjunto
formado solo por el vector nulo, son los únicos subespacios de R2 y R3 respectivamente.
N (A) = { x ∈ Rn / Ax = o }
Observemos que el núcleo de A coincide con el conjunto solución del sistema lineal ho-
mogéneo Ax = o.
Demostración.
En la demostración que sigue indicamos con om y on a los vectores nulos de Rm y Rn
respectivamente. Se tiene:
A(u + v) = Au + Av = om + om = om
El siguiente teorema indica que, si consideramos el conjunto formado por todas las com-
binaciones lineales de un cierto subconjunto U = {u1 , u2 , . . . , ur } de Rn , se obtiene un
subespacio que recibe el nombre de subespacio generado por U .
4.2. Subespacios vectoriales de Rn 99
Demostración.
Observación 4.2.3. Hasta ahora, cuando querı́amos demostrar que un conjunto S era un
subespacio de Rn , necesariamente debı́amos verificar el cumplimiento de las condiciones
1. o ∈ S
2. u + v ∈ S , ∀u, v ∈ S
3. λu ∈ S , ∀λ ∈ R, ∀u ∈ S
Ahora bien, el teorema anterior nos permite un camino alternativo (y en muchos casos más
económico). En efecto, para probar que un conjunto S es un subespacio de Rn , podemos
intentar encontrar un conjunto U de modo que S = L(U ). Si lo logramos, el problema
quedará resuelto, pues ya sabemos que L(U ) es un subespacio
de Rn .
x
y 4
∈ R /x + z = 0, y + t = 0
Supongamos, por ejemplo, que se quiere probar que S = z
t
es un subespacio de R4 . Basta observar que todos los vectores de S son de la forma
x 1 0
y 0
+y 1
−x = x −1
0
−y 0 −1
1 0
1
0
esto es, todos los vectores de S son combinación lineal de U = ,
−1 0
0 −1
Entonces S = L(U ) por lo que S es un subespacio de R .4
100 Capı́tulo 4. Subespacios vectoriales de Rn
1 2 4
Ejemplo 4.2.6. Si U = 2 , 1 , 5 , veamos cómo encontrar el subes-
0 5 5
pacio L(U ). Para ello buscamos qué condición o condiciones debe cumplir un vector de R3
para pertenecer a L(U ):
x 1 2 4 x
y ∈ L(U ) ⇔ ∃ α1 , α2 , α3 ∈ R : α1 2 + α2 1 + α3 5 = y
z 0 5 5 z
1 2 4 α1 x
⇔ el sistema 2 1 5 α2 = y es compatible.
0 5 5 α3 z
1 2 4 x 1 2 4 x 1 2 4 x
2 1 5 y ∼ 0 −3 −3 −2x + y ∼ 0 −3 −3 −2x + y
0 5 5 z 0 5 5 z 0 0 0 −10x + 5y + 3z
Luego el sistema es compatible ⇔ −10x + 5y + 3z = 0 por lo que
x
L(U ) = y ∈ R3 / − 10x + 5y + 3z = 0
z
[
x x
(5) S = ∈ R2 : x ≥ 0, y ≥ 0 ∈ R2 : x ≤ 0, y ≤ 0
y y
Observación: En este ejercicio se demuestra que toda recta en R2 que pasa por el origen
es un subespacio de R2 , y que todo plano y toda recta en R3 que pasan por el origen son
subespacios de R3 .
g
Notación: Si U es generador de S indicamos U → S.
1 −1
Ejemplo 4.3.1. U = , es generador de R2 .
2 1
Veamos 2
que todo vector de R puede expresarse como combinación lineal del conjunto
U.
x 1 −1 x
es C.L. de U ⇔ existen α1 y α2 en R tales que α1 + α2 =
y 2 1 y
α1 − α2 = x
⇔ el sistema de ecuaciones es compatible. Al escalerizar el sistema
2α1 + α2 = y
1 −1 x 1 −1 x
se obtiene ∼ de donde resulta que el sistema es
2 1 y 0 3 −2x + y
x g
compatible (determinado) para todos los vectores ∈ R2 , entonces U → R2 .
y
x+y −2x + y
Además la solución del sistema es α1 = , α2 = por lo que
3 3
x x+y 1 −2x + y −1
= +
y 3 2 3 1
x
Ejemplo 4.3.2. S = y ∈ R3 : x + 2y − z = 0 es un subespacio vectorial de R3
z
(ejemplo 4.2.5).
Resumiendo
1 0 1 0 3 1 1
U = 0 , 1 , V = 0 , 1 , −1 , W = 1 , −1
1 2 1 2 1 3 −1
1 2
son conjuntos generadores de S mientras que G = 1 , 2 no genera S.
3 6
anteriores se desprende que U es generador de S si, y solo si, para cualquier v ∈ S el sistema
λ1
λ2
MU . = v es compatible.
..
λr
Ejemplo 4.3.3. El conjunto canónico.
El conjunto canónico C = {e1 , e2 , . . . , en } es generador de Rn pues (como habı́amos visto
en la observación 3.3.4) todo vector de Rn se puede escribir como C.L. de C.
Teorema 4.3.1. Dependencia lineal de conjuntos generadores.
Sean S un subespacio vectorial de Rn y U = {u1 , u2 , . . . , ur }, r ≥ 2, un generador de S.
Entonces
1. si U es L.D. existe por lo menos un conjunto W ⊂ U, W 6= U , tal que W es
generador de S.
2. si U es L.I. no existe W ⊂ U, W 6= U , tal que W es generador de S.
Demostración.
1. Por hipótesis U es L.D. por lo que al menos un vector de U es combinación lineal de
los restantes vectores de U . Supongamos, sin perder generalidad, que u1 es combina-
ción lineal de {u2 , . . . , ur }. Podemos afirmar entonces existen α2 , . . . , αr ∈ R tales
que
u1 = α2 u2 + . . . + αr ur
g
Sea v ∈ S un vector cualquiera de S. Como U → S, v se puede escribir como C.L.
de U , esto es, existen β1 , β2 , . . . , βr ∈ R tales que
v = β1 u1 + β2 u2 + . . . + βr ur
Luego
Como forma de ilustrar este resultado volvamos el ejemplo 4.3.2 donde vimos que
1 0 3
g
V = 0 , 1 , −1 → S
1 2 1
3 1 0
Ahora V es L.D. ya que claramente −1 = 3 0 − 1 . Si quitamos el tercer
1 1 2
vector del conjunto V obtenemos U que se probó es generador de S. Como U está formado
por dos vectores no colineales, es además L.I. Luego éste no puede ser reducido de forma
de obtener otro conjunto generador de S.
#U ≤ #W
Ejercicio 4.3.3. Determine un generador de aquellos conjuntos que resultaron ser subes-
pacios en los ejercicios 4.2.1, 4.2.2 y 4.2.3.
Ejercicio 4.3.5. Investigue si las siguientes afirmaciones son verdaderas o falsas justifi-
cando la respuesta.
g
1. Si U → R3 entonces U tiene tres o más vectores.
g
2. Si U es un subconjunto de R3 con tres o más vectores entonces U → R3 .
3. Si U es un conjunto L.D. en R4 entonces U tiene cinco o más vectores.
4. Si U es un conjunto en R4 con cinco o más vectores entonces U es L.D.
5. Si U = {u1 , u2 , u3 } ⊂ R5 entonces existe algún vector de R5 que no es C.L. de U .
108 Capı́tulo 4. Subespacios vectoriales de Rn
b
Notación: Si U es base de un subespacio S escribiremos U → S.
En el ejemplo se muestra que para el subespacio S existen al menos dos conjuntos que
son base de S, ahora podrı́amos preguntarnos ¿todo subespacio S de Rn tiene base? La
respuesta a esta interrogante nos la da el teorema que planteamos a continuación.
Demostración.
Como S 6= {o} existe u1 ∈ S tal que u1 6= o y, por lo tanto, el conjunto {u1 } resulta L.I.
Por otra parte, como S es un subespacio de Rn , se tiene que λu1 ∈ S cualquiera sea λ ∈ R,
es decir cualquier combinación lineal de {u1 } pertenece a S, con lo cual L({u1 }) ⊆ S.
g b
Si fuese S = L({u1 }) tendrı́amos que {u1 } → S y es además L.I. entonces {u1 } → S.
Si por el contrario L({u1 }) ⊂ S, L({u1 }) 6= S, existe u2 ∈ S tal que u2 no pertenece a
L({u1 }). Esto implica que u2 no es combinación lineal de {u1 }, o lo que es lo mismo, el
conjunto {u1 , u2 } es L.I. Como antes, debido a que S es un subespacio de Rn , todas las
combinaciones lineales de {u1 , u2 } están en S, esto es L({u1 , u2 }) ⊆ S.
g
Entonces, si L({u1 , u2 }) = S se tiene que {u1 , u2 } → S y además es L.I. por lo que
b
{u1 , u2 } → S, en caso contrario se repite el procedimiento anterior, es decir existe u3 ∈ S
tal que u3 no pertenece a L({u1 , u2 }), etc.
Este proceso finaliza en a los sumo n pasos pues un subconjunto L.I. de Rn tiene como
mucho n vectores. ♠
Demostración.
g
)
b
V →S =⇒ V → S
b =⇒ #U ≤ #V (por teorema 4.3.2).
U →S =⇒ U es L.I.
Por otro lado, también es cierto que
)
b
V →S =⇒ V es L.I.
b g =⇒ #V ≤ #U (por teorema 4.3.2).
U →S =⇒ U → S
Ejemplo 4.4.3. Habı́amos visto que el conjunto canónico es una base de Rn y el cardinal
de este conjunto es n, luego dim(Rn ) = n.
Demostración.
Observemos en primer lugar que, como dim(S) = r, el teorema de Steinitz nos permite
afirmar que todos los subconjuntos L.I. de S tienen a lo sumo r vectores, mientras que
todos los generadores de S tienen por lo menos r vectores.
g
1. Alcanza con demostrar que V → S. Supongamos, por reducción al absurdo, que V
S de S. En dicho caso existe w ∈ S tal que w no es C.L. de V . Luego,
no es generador
el conjunto V {w} también serı́a L.I. (teorema 3.4.3). Pero esto es absurdo ya que
en S no puede haber subconjuntos L.I. con más de r vectores.
2. Alcanza con demostrar que V es L.I. Si no lo fuera, serı́a L.D. y existirı́a un vector
v1 ∈ V que no es C.L. de los restantes vectores de V . Debido al teorema 4.3.1 al
quitar este vector, el nuevo conjunto V − {v1 } seguirı́a siendo generador de S. Pero
esto es absurdo ya que S no puede tener generadores con menos de r vectores.
Teorema 4.4.2. Otra caracterización de las bases.
b
Sean S un subespacio de Rn y U un subconjunto de S. Entonces U → S si, y solo si, cada
vector de S se puede expresar de una única forma como combinación lineal de U .
Demostración.
Supongamos que U = {u1 , u2 , . . . ur } es base de S. Esto quiere decir que U es L.I. y
g
generador de S. Sea v un vector cualquiera de S. Como U → S el vector v es C.L.
de U y, por lo tanto, existen α1 , α2 , . . . , αr tales que v = α1 u1 + α2 u2 + . . . + αr ur .
Supongamos que existen β1 , β2 , . . . , βr en R tales que v = β1 u1 + β2 u2 + . . . + βr ur .
Restando miembro a miembro ambas igualdades obtenemos
De todos modos debemos tener en cuenta que presenta igual (o mayor) dificultad hallar
(MU )−1 que resolver el sistema.
−1 1 1
Ejemplo 4.4.5. El conjunto U = 3 , 1 , 2 es base de R3 ya que
0 2 3
−1 1 1
det (MU ) = det 3 1 2 = −2 6= 0. Calculemos las coordenadas en esta base U de
0 2 3
a
un vector v = b cualquiera de R3 :
c
λ1 −1 1 1 a
En este caso la matriz ampliada del sistema MU . λ2 = v es 3 1 2 b .
λ3 0 2 3 c
Escalerizando tenemos que la matriz es equivalente a las siguientes:
−1 1 1 a −1 1 1 a
0 4 5 3a + b ←− F2 + 3F1 ∼ 0 4 5 3a + b
0 2 3 c 0 0 −1 3a + b − 2c ←− F2 − 2F3
112 Capı́tulo 4. Subespacios vectoriales de Rn
Por sustitución hacia atrás obtenemos la solución del sistema. Las coordenadas de v en la
base U resultan ser:
1 1
λ1 = (a + b − c), λ2 = (9a + 3b − 5c), λ3 = −3a − b + 2c
2 2
lo cual es equivalente a decir que se cumple la siguiente igualdad:
a −1 1 1
b = 1 (a + b − c) 3 + 1 (9a + 3b − 5c) 1 + (−3a − b + 2c) 2
2 2
c 0 2 3
La otra manera de hallar las coordenadas hubiese consistido en hallar la inversa de la matriz
MU para luego realizar el producto (MU )−1 v. Dejamos como ejercicio la verificación del
mismo resultado final por este otro camino indicando como dato que
1 1 −1
1
(MU )−1 = 9 3 −5
2
−6 −2 4
de donde resulta:
−2 4 −2 −2
coordU = y coordC =
2 −2 2 2
Demostración.
1. Sea z un vector cualquiera de Rn . Sabemos que:
de donde resulta:
(MV )−1 . MU . coordU (z) = coordV (z)
Una matriz A que cumple lo enunciado en la primera parte es entonces A = (MV )−1 .MU
2. Sustitutendo z por el vector uj obtenemos:
que nos dice que si multiplicamos dicha matriz por el vector de las coordenadas de z en
la base U obtenemos el vector de las coordenadas de z en la base V .
La matriz de cambio de base de la base U a la base V se simbolizará M .
U →V
Tenemos entonces que
M = (MV )−1 . MU
U →V
Ejercicio 4.4.2.
1 −4 −2 1
0 3 5 1
es base de R4 .
Investigue si U = 0 , 0 , 2 , 1
0 0 0 4
114 Capı́tulo 4. Subespacios vectoriales de Rn
Ejercicio 4.4.3. En cada uno de los casos discuta, según a ∈ R, si el conjunto U es base
de R3 :
2 −a 0 1 a 4
(1) U = a , 2 , 0 (2) U = a , 2 , 6
0 0 1 −2 3 −1
Ejercicio 4.4.4. En los siguientes casos se considera L(U ), el subespacio generado por
U . Encuentre una base de L(U ) y calcule su dimensión.
1 2 1 1 2 1
(1) U = 0 , 1 , 1 (2) U = 0 , 1 , 1
1 3 2 1 2 2
3 2 1 1 −1 3
(3) U = 3 , 2 , 1 (4) U = 2 , 1 , 0
6 4 2 −1 1 −3
x1
x2
4. S = x3 / x1 + x2 − x3 + x4 = 0 y x1 + 2x2 − 3x3 − 4x4 = 0
x4
Ejercicio 4.4.7. Encuentre una base (en caso que exista) y la dimensión del núcleo de
cada una de las siguientes matrices:
1 0 −1 −1 2 1 1 2 8
A= 0 2 4 B = 2 0 −1 C= 2 4 16
1 3 3 0 4 1 −1 −2 −8
x
Ejercicio 4.4.8. Sea S = y ∈ R3 : x + y + z = 0, x + ay + az = 0 .
z
(a) Demuestre que S es un subespacio vectorial de R3 para todo a ∈ R.
(b) Discuta según a ∈ R la dimensión de S y determine una base de S en cada caso.
Ejercicio 4.4.9. Si U = {u, v, w} es base de R3 demuestre que W = {u + v, u + w, v + w}
también lo es.
Ejercicio 4.4.10. Sean S1 y S2 dos subespacios de Rn tales que S1 ⊂ S2 . Demuestre que
dim(S1 ) ≤ dim(S2 ). (Sugerencia: si dim(S1 ) = r comienze considerando una base U de
S1 con r vectores).
Ejercicio 4.4.11. Sean S1 y S2 dos subespacios de Rn tales que dim(S1 ) = dim(S2 ).
¿Esto implica que necesariamente S1 = S2 ?
2
si U es base de R . En caso
Ejercicio 4.4.12. En cada uno de los casos investigue
a
afirmativo, encuentre las coordenadas del vector en la base U .
b
−1 1 1 −2 0 1
(a) U = , (b) U = , (c) U = ,
4 −1 3 −6 1 0
−1 3 −2
Ejercicio 4.4.13. Sea U = 0 , 2 , 2 .
0 2 1
1. Demuestre que U es base de R3 .
−1 2 3
2. Calcule las coordenadas de u = 0 yv= 2 yw= 0 en la base U .
0 2 2
3
Ejercicio 4.4.14. En cada uno de los casos investigue
si U es base de R . En caso
a
afirmativo, encuentre las coordenadas del vector b en la base U .
c
1 0 1 2 1 1
(a) U = 2 , 1 , 0 (b) U = −3 , 1 , −4
1 0 0 1 1 0
116 Capı́tulo 4. Subespacios vectoriales de Rn
1 1 1 1
(c) U = 0 , 1 , 1 , 2
0 0 1 3
Ejercicio 4.4.15. Sea U una base de Rn . Pruebe que
obtenida.
1 1 −2 3
A modo de repaso calculemos el rgf (A) para la matriz A = 1 −2 3 1
2 −1 1 4
1 1 −2 3 1 1 −2 3
A ∼ 0 −3 5 −2 ←− F2 − F1 ∼ 0 −3 5 −2
0 −3 5 −2 ←− F3 − 2F1 0 0 0 0 ←− F3 − F2
Ahora bien, esta matriz tiene tamaño 3 × 4, es decir, es una matriz de 3 filas y 4 columnas.
Observemos que cada una de las filas puede ser considerada como un vector de R4 :
1 1 2
1 −2 −1
F1 (A) =
−2 , F2 (A) = 3 , F3 (A) = 1
3 1 4
coincide con
1 1 −2 3
el subespacio generado por las filas de C = 0 −3 5 −2
0 0 0 0
La dimensión de este último subespacio es inmediata de calcular. En efecto, las dos prime-
ras filas constituyen un generador del mismo pues la tercera fila es C.L. de ellas, y además
son L.I. Luego, la dimensión es 2, que coincide con la cantidad de escalones de C o sea
con el rgf (A).
un conjunto L.I. y, por lo tanto, una base de S. Resulta entonces que la dimensión de S
coincide con el número de escalones de C, o sea con el rgf (A). En conclusión:
La dimensión del subespacio generado por las filas de una matriz coincide con
el rango por filas de dicha matriz.
De modo análogo podrı́a interesarnos calcular la dimensión del subespacio generado por
las columnas de una matriz. Volviendo al ejemplo de arriba, cada una de las columnas de
A es un vector de R3 :
1 1 −2 3
C1 (A) = 1 , C2 (A) = −2 , C3 (A) = 3 , C4 (A) = 1
2 −1 1 4
Teorema 4.5.1. Igualdad del rango por filas con el rango por columnas.
Si A es una matriz entonces se cumple que dim [L (FA )] = dim [L (CA )]
rg(A) = rg(At )
4.5. Rango de una matriz 119
6. Supongamos que m = n (matriz cuadrada). El rango de A vale n si, y solo si, las n
columnas (o filas) constituyen un conjunto L.I. de Rn o, lo que es lo mismo en este
caso, si y solo si, éstas constituyen una base de Rn . Se deduce que rg(A) = n ⇐⇒
det(A) 6= 0.
Ejemplo
4.5.1. Calculemos,
discutiendo según el parámetro a ∈ R, el rango de la matriz
1 a −2
A= 2 1 a .
3 4 1
Como es una matriz cuadrada 3 × 3 comenzamos calculando su determinante. Se tiene:
det(A) = 3(a2 − 2a − 3). Las raı́ces de este polinomio son 3 y −1. Esto nos genera la
siguiente discusión:
Caso 1: Si a 6= 3 y a 6= −1 entonces det(A) 6= 0 y, por lo tanto, rg(A) = 3.
Caso 2: Si a = 3 entonces det(A) = 0 y, porlo tanto, rg(A) < 3. Sustituimos este valor
1 3 −2
de a en la matriz original obteniendo: A = 2 1 3 . Como las dos primeras filas
3 4 1
no son proporcionales resulta rg(A) ≥ 2. Como el rango era menor que 3 deducimos que
rg(A) = 2. (De hecho, se observa fácilmente que la tercera fila es la suma de las dos
primeras).
Caso 2: Si a = −1 entonces det(A) = 0 y, por lo tanto, rg(A)
< 3. Sustituimos este valor
1 −1 −2
de a en la matriz original obteniendo: A = 2 1 −1 . El mismo razonamiento que
3 4 1
en el caso anterior nos permite afirmar que rg(A) = 2.
120 Capı́tulo 4. Subespacios vectoriales de Rn
Caso 2: nu(A) = 0. Como nu(A) = 0 alcanza con demostrar que rg(A) = n. Observemos
que nu(A) = 0 significa que la dimensión del núcleo de A es 0 y, por lo tanto, dicho núcleo
está formado exclusivamente por el vector nulo: N (A) = {o}.
Demostrar que rg(A) = n equivale a probar que la dimensión de L (CA ) (subespacio
generado por las columnas de A) es n y, para ello, debemos encontrar una base de dicho
subespacio con n vectores.
Sabemos que el conjunto CA = {C1 , C2 , . . . , Cn } de las n columnas de A es un generador
de L (CA ). Si probamos que también es L.I. habremos encontrado una base de L (CA ) con
n vectores.
Consideremos entonces una C.L. de CA que de como resultado el vector nulo:
λ1 C1 + λ2 C2 + . . . + λn Cn = o
A.λ = o
Sea p = nu(A). Tenemos que demostrar que rg(A) = n − p. Como dim(N (A)) = p existe
una base U = {u1 , u2 , . . . , up } de N (A) formada por p vectores. Completamos U hasta
obtener una base B de Rn :
B = {u1 , u2 , . . . , up , v1 , . . . , vq } base de Rn .
x = α1 u1 + . . . + αp up + β1 v1 + . . . + βq vq
lo cual prueba que y es C.L. de W . Como todo vector de L (CA ) se puede escribir
como C.L. de W podemos concluir que W es un generador de dicho subespacio.
3. Veamos ahora que W es L.I. Supongamos entonces que
λ1 A.v1 + . . . + λq A.vq = o
λ1 v1 + . . . + λq vq = γ1 u1 + . . . + γp up
de donde
γ1 u1 + . . . + γp up − λ1 v1 − . . . − λq vq = o
Como B es base de Rn , lo anterior implica que todos los coeficientes tienen que ser
0 y, por lo tanto, λ1 = . . . = λq = 0.
♠
1 −2 3 −1
Ejercicio 4.5.1. Se considera la matriz A = −1 0 −2 1 .
−1 −4 0 1
1. Halle el rango y la nulidad de A.
2. Halle la dimensión del subespacio
de R3 generado por las columnas de A y encuentre
11
α ∈ R de modo que el vector α pertenezca a dicho subespacio.
13
3. Halle la dimensión del subespacio
de R4 generado por las filas de A y encuentre
0
β
β ∈ R de modo que el vector 8 pertenezca a dicho subespacio.
0
a 0
Ejercicio 4.5.2. Se considera la matriz A = .
a a2 + a
1. Discuta, según a ∈ R, el valor del rango de la matriz A.
122 Capı́tulo 4. Subespacios vectoriales de Rn
1 1 1
1 −a2 −1 4 α α
F = 1 a −1 , G = 1 α−3 α−3
a −a −1
1 1 α2 − 15
Ejercicio 4.5.4. Sean A una matriz y k un real. ¿Qué relación existe entre rg(A) y
rg(kA)? ¿Qué relación existe entre nu(A) y nu(kA)?
Ejercicio 4.5.5. En cada uno de los siguientes casos encuentre un ejemplo de dos matrices
A y B tales que:
1. rg(A + B) = rg(A) + rg(B)
2. rg(A + B) < rg(A) + rg(B)
3. rg(A + B) > rg(A) > rg(B)
Ejercicio 4.5.6. Sean A una matriz m × n y B una matriz n × p.
1. Utilizando la primera parte del ejercicio 4.2.7 deduzca que que nu(B) ≤ nu(A.B).
2. Demuestre que rg(A.B) ≤ rg(B) (use la parte anterior).
3. Teniendo en cuenta que el rango de una matriz coincide con el de su traspuesta
demuestre que rg(A.B) ≤ rg(A).
4. En cada uno de los siguientes casos encuentre un ejemplo de dos matrices A y B
tales que:
(a) rg(A.B) = rg(A) = rg(B) (b) rg(A.B) = rg(A) < rg(B)
(c) rg(A.B) < rg(A) < rg(B)
Ejercicio 4.5.7. Demuestre que no existe ninguna matriz n × n, con n impar, n 6= 1, para
la cual el subespacio generador por sus columnas coincida con el núcleo de la matriz.
Ejercicio 4.5.8. Sea A un matriz 2 × 2 tal que el subespacio generador por sus columnas
coincide con el núcleo de la matriz.
Demuestre que rg(A) = 1 y encuentre la forma de la matriz A.
4.6. Apéndice de este capı́tulo 123
z = β1 w1 + β2 w2 + . . . + βm wm
1 α12 α1m
= β1 u1 − w2 − . . . − wm + β2 w2 + . . . + βm wm
α11 α11 α11
1 α12 α1m
= β1 u1 + −β1 + β2 w2 + . . . + −β1 + βm wm
α11 α11 α11
z = β1 u1 + β2 w2 + . . . + βm um
Luego
g
{u1 , u2 , w3 , . . . , wm } → S
Podrı́amos continuar reemplazando los vectores de W por vectores U de forma tal de
obtener nuevos conjuntos generadores de S, pero ¿hasta cuándo? ¿cuántos vectores de W
pueden ser suplantados por vectores de U ? Supongamos por absurdo que r > m, dado que
la cantidad de vectores de U es mayor que la de W , si continuamos con el procedimiento
anterior podremos reemplazar todos los vectores de W y por lo tanto tendremos que
g
es tal que W → S y los vectores um+1 , . . . , ur que pertenecen a S son entonces combinación
lineal de W , lo que contradice el hecho que U es L.I.
Como el absurdo parte de suponer r > m, se deduce entonces que r ≤ m. ♠
Sean p = dim [L (FA )] y q = dim [L (CA )]. Si p = 0 entonces A es la matriz nula y, por lo
tanto, q = 0. Supongamos entonces que p > 0.
Vamos a probar en primer lugar que q ≤ p. Como p = dim [L (FA )] la matriz A tiene p filas
L.I. (podemos suponer que son las p primeras: F1 , F2 , . . . , Fp , mientras que las restantes
m−p filas dependen linealmente de éstas. Tenemos entonces que para cada i = p+1, . . . , m
existen escalares αij tales que:
Por lo tanto, una columna cualquiera de A, como la j-ésima, puede expresarse mediante:
a1j a1j
a2j a2j
.. ..
.
.
apj = apj =
ap+1,j αp+1,1 a1j + . . . + αp+1,p apj
.. ..
. .
amj αm,1 a1j + . . . + αm,p apj
1 0 0
0
1
0
0
0
1
.. .. ..
a1j
. + a2j
. + . . . + apj
.
αp+1,1 αp+1,2 αp+1,p
.. .. ..
. . .
αm,1 αm,2 αm,p
Esto muestra que cualquier columna de A se puede expresar como C.L. de un conjunto
de p vectores fijos. Luego, el subespacio generado por las columnas de A tiene dimensión
menor o igual que p, o sea q ≤ p.
Para probar que p ≤ q alcanza con utilizar el resultado que acabamos de demostrar y el
hecho de que las filas de A son las columnas de At :
dim [L (FA )] = dim [L (CAt )] ≤ dim [L (FAt )] = dim [L (CAt )] ♠
Capı́tulo 5
En este capı́tulo veremos cómo es posible extender a Rn los conceptos métricos que el lector
conoce de R2 . En este contexto más general también será posible hablar (por ejemplo) de
ángulo formado por dos vectores, de vectores perpendiculares, proyecciones ortogonales,
teorema de Pitágoras; ası́ como realizar cálculo de distancias y áreas. Estas ideas, resulta-
dos y técnicas, no solamente poseen una riqueza geométrica intrı́nseca, sino que también
permitirán abordar y resolver relevantes problemas de aplicación a diversas áreas cientı́fi-
cas. En ese sentido desarrollaremos el “método de mı́nimos cuadrados”, el cual (entre otras
aplicaciones) permite establecer un modelo matemático de función de demanda a partir
de datos obtenidos por una encuesta.
hu, vi = u1 v1 + u2 v2 + . . . + un vn
Observemos que este número coincide con el producto de la matriz fila ut con la matriz
columna v: hu, vi = ut v.
2 1 −3
Ejemplo 5.1.1. Si u = −1 , v = −1 y w = 1 entonces:
3 2 2
hu, vi = 2 · 1 + (−1) · (−1) + 3 · 2 = 9
hu, wi = 2 · (−3) + (−1) · 1 + 3 · 2 = −1
hv, wi = 1 · (−3) + (−1) · 1 + 2 · 2 = 0
126 Capı́tulo 5. Rn como espacio euclidiano
Cada sumando de la suma anterior es no negativo, por lo que la suma también lo es.
Además, esa suma vale 0 si, y solo si, todos lo sumandos son nulos, y esto ocurre solamente
cuando u1 = u2 = . . . = un = 0, es decir, cuando u es el vector nulo.
Esto nosrecuerda
al teorema de Pitágoras (al menos, cuando estamos en R2 ). En efecto,
a
sea u = ∈ R2 . El producto interno hu, ui vale a2 + b2 .
b
Según el teorema de Pitágoras, a2 + b2 (suma de los cuadrados de las medidas de los
catetos del triángulo rectángulo de la figura) coincide con el cuadrado de la medida de
la hipotenusa. La medida √ de dicha phipotenusa, que no es otra cosa que la “longitud” del
vector u, vale entonces a2 + b2 = hu, ui.
√
a2 + b2
a
5.1. Producto interno, norma y ángulos 127
p
Es ası́ que, en R2 , la longitud de un vector u coincide con hu, ui. Esto nos lleva a dar la
siguiente definición.
Definición
5.1.2.
Norma de un vector.
u1
u2
Si u = . ∈ Rn entonces su norma es, por definición, el número:
..
un
p p
kuk = hu, ui = (u1 )2 + (u2 )2 + . . . + (un )2
2 1 1
Ejemplo 5.1.2. Si u = −1 , v = 2 y w = 0 entonces:
3 −2 1
p √
2 2 2
k u k = 2 + (−1) + 3 = 14
p √
k v k = 12 + 22 + (−2)2 = 9 = 3
√ √
k w k = 12 + 02 + 12 = 2
Proposición 5.1.2. Dos propiedades de la norma.
De la definición de norma y de las propiedades del producto interno resultan inmediatas
las siguientes propiedades:
(N1) No negatividad: kuk ≥ 0, ∀ u ∈ Rn . Más aún, kuk = 0 ⇐⇒ u = o.
(N2) Homogeneidad: kλ uk = |λ| kuk, ∀ u ∈ Rn , ∀ λ ∈ R.
Vale la pena observar que k − xk = kxk, ∀ x ∈ Rn .
Proposición 5.1.3. Una suerte de “cuadrado de un binomio”.
Si u y v son dos vectores de Rn entonces se cumple:
1. ku + vk2 = kuk2 + 2hu, vi + kvk2
2. ku − vk2 = kuk2 − 2hu, vi + kvk2
Demostración. Demostraremos la primera parte solamente ya que la segunda es total-
mente análoga. Utilizando la definición de norma y las propiedades del producto interno
obtenemos:
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + 2hu, vi + kvk2 ♠
v xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
ku − vk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
ku − vk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
kvk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
kvk xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
α
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
o kuk u o kuk u
Resulta entonces que, al menos en R2 , se cumple que u y v son perpendiculares si, y solo
si, hu, vi = 0. Esto motiva la siguiente definición.
Ejemplo 5.1.3.
1 3
3 −2 4
(a) Los vectores u = 1 y v = 2 ∈ R son ortogonales pues hu, vi = 0.
1 1
n
(b) Los vectores canónicos de R son ortogonales entre sı́. En efecto, es inmediato veri-
ficar que hei , ej i = 0, ∀ i 6= j.
(c) Como ho, vi = 0, ∀ v ∈ Rn , deducimos que el vector nulo es ortogonal a todos los
vectores del espacio.
(d) Supongamos que z ∈ Rn es ortogonal a todos los vectores del espacio Rn . En parti-
cular se cumplirá hz, zi = 0. Luego kzk = 0 y, por lo tanto, z = o. Resulta entonces
que el único vector ortogonal a todos los vectores del espacio es el vector nulo.
x−z
o u z
Más aún, se cumple la igualdad si, y solo si, Pu (x) = x, lo cual quiere decir que x es
colineal con u.
2. Tenemos que |hu, vi| = kuk kvk si, y solo si, kPu (v)k = kvk lo cual, como ya sabemos,
es equivalente a que u y v sean colineales. ♠
2 1
−1 2 4
Ejemplo 5.1.4. Consideremos los vectores u = 1 y v = 0 ∈ R . Como
−1 1
{u, v} es L.I. la desigualdad de Cauchy-Schwarz debe ser estricta en este caso. Simplemente
verifiquémoslo
√ √ calculando:
√
kuk kvk = 7 6 = √ 42
|hu, vi| = | − 1| = 1 < 42 = kuk kvk
Proposición 5.1.6. Desigualdad triangular para la norma.
Si u y v son dos vectores de Rn entonces se cumple:
1. ku + vk ≤ kuk + kvk.
2. ku + vk = kuk + kvk si, y solo si, u y v son colineales con coeficiente de proporcio-
nalidad mayor o igual que 0, es decir, si existe α ≥ 0 tal que u = αv o existe β ≥ 0
tal que v = βu.
Antes de realizar la demostración veamos que la “desigualdad triangular” para la norma
tiene una interpretación geométrica simple.
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
u+v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
ku + vk xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx kvk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
o kuk u
Las medidas de los lados del triángulo sombreado valen kuk, kvk y ku + vk. Lo que esta-
blece la desigualdad triangular es la conocida propiedad geométrica que establece que un
lado de un triángulo siempre es menor que la suma de los otros dos.
Demostración.
1. Sabemos que ku + vk2 = kuk2 + 2hu, vi + kvk2 . Por otra parte hu, vi ≤ |hu, vi| ≤
kuk kvk (se usó la desigualdad de Cauchy-Schwarz). Tenemos entonces que:
de donde se deduce que ku + vk2 ≤ (kuk + kvk)2 . Como las bases de las potencias
anteriores son no negativas podemos concluir que ku + vk ≤ kuk + kvk. ♠
5.1. Producto interno, norma y ángulos 131
a2 = b2 + c2 − 2 b c cos(α)
o sea
ku − vk2 = kuk2 + kvk2 − 2 kuk kvk cos(α) (∗)
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
ku − vk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
kvk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
α
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
o kuk u
Por otra parte, sabemos que para toda pareja de vectores en Rn vale la igualdad:
lo cual nos dice que el producto interno de dos vectores coincide con el producto de la
norma de ambos por el coseno del ángulo que forman. En el caso particular en que el
ángulo es recto, su coseno vale 0 y por lo tanto el producto interno también. En este caso
el triángulo es rectángulo y el teorema del coseno se reduce al teorema de Pitágoras.
0 1
hu, vi, kuk, kvk y ku + vk. Verifique la desigualdad de Cauchy-Schwarz y la desigualdad
triangular.
1 −2
Ejercicio 5.1.2. Sean u = 2 y v = −1 ∈ R3 .
2 2
1. Calcule hu, vi, kuk, kvk y ku + vk. Verifique la desigualdad de Cauchy-Schwarz y la
desigualdad triangular.
2. Compruebe que los ángulos formados por los vectores u y u + v y por los vectores v
y u + v valen π/4. Interprete geométricamente este resultado.
Ejercicio 5.1.3. Sean u, v ∈ Rn .
1. Demuestre e interprete geométricamente en R2 :
(a) (u + v) ⊥ (u − v) ⇐⇒ kuk = kvk.
(b) ku + vk2 + ku − vk2 = 2 kuk2 + kvk2 .
2. Halle la condición que deben cumplir u y v para que ku + vk = ku − vk.
5.1. Producto interno, norma y ángulos 133
Ejercicio 5.1.4. Encuentre todos los valores de λ ∈ R para los que se cumpla:
||u + v||2 + ||2u − v||2 = 5||u||2 − λhu, vi + 2||v||2 , ∀ u, v ∈ Rn .
2
Ejercicio 5.1.5. Encuentre dos vectores u,v ∈ R que cumplan: hu, vi = 100, ||u|| =
3
5, ||v|| = 20, siendo u de la forma u = .
a
Ejercicio 5.1.6. Calcule el área del triángulo cuyos vértices son los puntos:
0 1 2
o= 0 , p= −2 , q= 1
0 0 2
Ejercicio 5.1.7. Teorema de Pitágoras revisitado.
1. Sean p, q, r tres puntos en Rn tales que r−p ⊥ q −p (esto quiere decir que el triángulo
de vértices p, q, r es rectángulo en p). Demuestre que d2 (q, r) = d2 (p, q) + d2 (p, r).
2. Calcule el área del triángulo cuyos vértices son los puntos:
2 3 6
x= 3 , y= 5 , z= 2
4 2 5
Ejercicio 5.1.8. Si A es una matriz de tamaño m × n demuestre que:
1. hAx, yi = hx, At yi, ∀ x ∈ Rn , ∀ y ∈ Rm . (Observe que el producto interno de la
izquierda es entre vectores de Rm mientras que el de la derecha es el producto interno
en Rn . Para la prueba recuerde que si u, v ∈ Rn entonces hu, vi = ut v).
2. hAt Av, vi = kA.vk2 , ∀ v ∈ Rn .
3. N At A = N (A).
4. rg At A = rg(A).
5. Si rg(A) = n entonces At A es invertible.
Ejercicio 5.1.9. Una fábrica produce cuatro artı́culos y en esa producción se necesita
una materia prima y mano de obra de acuerdo con lo que se indica a continuación:
Artı́culo 1: Cada unidad requiere 5 kilos de materia prima y 2 horas hombre.
Artı́culo 2: Cada unidad requiere 3 kilos de materia prima y 4 horas hombre.
Artı́culo 3: Cada unidad requiere 4 kilos de materia prima y 7 horas hombre.
Artı́culo 4: Cada unidad requiere 2 kilos de materia prima y 3 horas hombre.
1. Sean p1 el precio por kilo de la materia prima y p2 la remuneración por hora de
trabajo. Defina dos vectores u y v de modo que su producto interno sea el costo
variable por producir x unidades del artı́culo 1, y unidades del artı́culo 2, z unidades
del artı́culo 3 y w unidades del artı́culo 4.
2. Sea k el costo fijo de producción y a, b, c y d los precios de venta de cada unidad
de los artı́culos 1, 2, 3 y 4 respectivamente. Exprese mediante productos internos la
utilidad que obtiene la fábrica al vender x unidades del artı́culo 1, y unidades del
artı́culo 2, z unidades del artı́culo 3 y w unidades del artı́culo 4.
Ejercicio 5.1.10. Demuestre que
Ejercicio 5.1.11.
1. Demuestre las propiedades de la distancia.
2. Demuestre que d(λu, λv) = |λ|d(u, v), ∀ u, v ∈ Rn , ∀ λ ∈ R, e interprete geométri-
camente esta propiedad.
3. Demuestre que d(p + z, q + z) = d(p, q), ∀ p, q, z ∈ Rn , e interprete geométricamente
esta propiedad.
Ejercicio 5.1.12. Si p y q son dos puntos distintos en Rn entonces el punto medio del
p+q
segmento por ellos determinado es el punto m = . Verifique que d(p.m) = d(q, m).
2
α1 u1 + α2 u2 + . . . + αr ur = o (∗)
Queremos demostrar que, necesariamente, todos los coeficientes αi deben valer 0. Si hace-
mos el producto interno de ambos miembros de (∗) por u1 obtenemos la siguiente igualdad:
hu1 , α1 u1 + α2 u2 + . . . + αr ur i = hu1 , oi = 0
α1 hu1 , u1 i = 0
Como hu1 , u1 i =
6 0 (pues ninguno de los vectores de U es el vector nulo) resulta que nece-
sariamente α1 = 0.
hv, u1 i = λ1 hu1 , u1 i
Como hu1 , u1 i =
6 0 (pues ninguno de los vectores de U es el vector nulo, por ser U base de
hv, u1 i
S), resulta que la primera coordenada vale λ1 = .
hu1 , u1 i
Si en lugar de haber realizado el producto interno de v por u1 , lo hubiésemos hecho por u2 ,
hv, u2 i
habrı́amos obtenido λ2 = . (Obsérvese la analogı́a con la demostración del teorema
hu2 , u2 i
anterior).
hv, ui i
Luego, razonando de manera análoga, se demuestra que la coordenada λi vale .
hui , ui i
Es ası́ que la expresión del vector v en la base ortogonal U es:
Como los vectores de la suma son ortogonales dos a dos, aplicando el teorema de Pitágoras
para r sumandos obtenemos:
o
z
La idea consiste en considerar la recta que pasa por el punto p y es perpendicular al plano
S y luego intersectarla con dicho plano. El punto z obtenido es la proyección ortogonal de
p sobre S. Este punto (o vector) z tiene las siguientes propiedades:
z ∈ S.
El vector p − z es ortogonal a S.
o
z
El siguiente teorema establece que la situación que acabamos de describir también es válida
para cualquier subespacio de Rn .
138 Capı́tulo 5. Rn como espacio euclidiano
0 = hp − z, uk i = hp − (λ1 u1 + λ2 u2 + . . . + λr ur ), uk i =
= hp, uk i − h(λ1 u1 + λ2 u2 + . . . + λr ur ), uk i = hp, uk i − λk huk , uk i
en la última igualdad hemos usado que hui , uk i = 0 para i 6= k, debido a que U es
un conjunto ortogonal. Como huk , uk i =
6 0 (ya que al ser base U no contiene al vector
hp,uk i
nulo), podemos despejar λk obteniendo λk = hu k ,uk i
. Hemos demostrado que existe un
único vector z que cumple (a) y (b). Para probar que este vector también cumple (c)
consideramos un vector cualquiera s ∈ S, s 6= z. Tenemos:
p − s = (p − z) + (z − s)
Más aún, se cumple la igualdad si, y solo si, PS (x) = x, lo cual quiere decir que x ∈ S.
La igualdad se cumple si, y solo si, x pertenece al subespacio generado por {u1 , u2 , . . . , ur },
lo cual siempre ocurrirá si este conjunto es base de Rn .
Definición 5.2.4. Distancia de un punto a un conjunto.
Sean H un subconjunto cualquiera de Rn y p ∈ Rn . Llamaremos distancia de p a H a
la menor de las distancias (en caso que exista) entre p y los puntos de H. Este número lo
simbolizaremos d(p, H). En sı́mbolos:
d(p, H) = min { d(p, h) / h ∈ H }
Observación 5.2.4. Sobre la distancia de un punto a un subespacio.
Si S es un subespacio de Rn y p ∈ Rn entonces del teorema 5.2.3 sabemos que el punto de
S más próximo a p es PS (p). Luego, la distancia de p a S vale:
d(p, S) = kp − PS (p)k
Resulta claro entonces que d(p, S) = 0 ⇐⇒ kp−PS (p)k = 0 ⇐⇒ PS (p) = p ⇐⇒ p ∈ S.
140 Capı́tulo 5. Rn como espacio euclidiano
4
Ejemplo 5.2.3. Sea S el subespacio
de R generado por {e1 , e3 }. Queremos hallar la
−3
3
proyección ortogonal de p = 1 sobre S y calcular la distancia de p a S. Como
4
{e1 , e3 } es una base ortonormal de S tenemos:
−3
0
PS (p) = hp, e1 ie1 + hp, e3 ie3 = −3e1 + e3 =
1
Luego:
−3 −3
0
3 0
3
√
1 − 1
=
d(p, S) =
= 25 = 5
0
4 0
4
S⊥
o
S
Ejemplo 5.2.5.
Sea Sel subespacio
de R4 generado por U = {u1 , u2 } en donde
1 2
0 −1 ⊥
u1 = 1 y u2 = 1 . Vamos a hallar S . Para ello consideramos un vector
0 1
a
b
genérico v = c e imponemos que v ⊥ S. Según el teorema 5.2.2 es suficiente con que
d
v ⊥ u1 y v ⊥ u2 . Se tiene:
v ⊥ u1 ⇐⇒ hv, u1 i = 0 ⇐⇒ a + c = 0.
v ⊥ u2 ⇐⇒ hv, u2 i = 0 ⇐⇒ 2a − b + c + d = 0.
Resolviendo el sistema obtenemos:
a
1 0
⊥ b 0 1
S = / a, b ∈ R = a + b / a, b ∈ R
−a
−1 0
−a + b −1 1
1 0
0
1 . Más aún,
Resulta entonces que S ⊥ = L({v1 , v2 }) siendo v1 = −1 y v 2 = 0
−1 1
{v1 , v2 } es una base de S ⊥ .
Observemos que, efectivamente, dim(S) + dim S ⊥ = 4. También vale la pena observar
lo siguiente. Sabemos que todo vector de R4 se expresa de manera única como la suma de
un vector de S más uno de S ⊥ . Como {u1 , u2 } es base de S y {v1 , v2 } es una base de S ⊥ ,
entonces todo vector de R4 se expresa de manera única como C.L. de {u1 , u2 , v1 , v2 }. Se
deduce que este conjunto es base de R4 .
v2
u2 = v2 − z2
o u1 = v1 z2
u3
v3
u1
u2
z3
144 Capı́tulo 5. Rn como espacio euclidiano
Proposición 5.2.3. Sea A una matriz n × n. Entonces A es ortogonal si, y solo si,
At A = I (en donde I es la matriz identidad n × n).
y esto ocurre si, y solo si, las columnas de A constituyen una base ortonormal de Rn , o
sea, si y solo si, A es una matriz ortogonal. ♠
1. A es ortogonal.
3. hA.u, A.vi = hu, vi, ∀ u, v ∈ Rn (la matriz A preserva los productos internos).
Demostración.
Como kA.xk2 = kxk2 y las bases son no negativas se deduce que kA.xk = kxk.
((2) =⇒ (3)) Para esta parte utilizaremos la (ya conocida) igualdad vista en la proposi-
ción 5.1.3 según la cual
2hA.u, A.vi = kA.u + A.vk2 − kA.uk2 − kA.vk2 = kA.(u + v)k2 − kA.uk2 − kA.vk2
Como, por hipótesis, A preserva las normas de los vectores, lo anterior coincide con
que, a su vez, es igual a 2hu, vi. Hemos probado que 2hA.u, A.vi = 2hu, vi y, por lo
tanto, hA.u, A.vi = hu, vi.
((3) =⇒ (1)) Si Ci (A) es la columna i-ésima de A sabemos que Ci (A) = A.ei (siendo ei
en i-ésimo vector de la base canónica). Luego:
Lo anterior prueba que dos columnas diferentes de A son ortogonales. Por otra parte:
⊥
Ejercicio 5.2.4. Si S es un subespacio de Rn demuestre que S ⊥ = S.
Ejercicio 5.2.5. Sean S1 y S2 subespacios de Rn . Diremos que S1 ⊥ S2 si, y solo si,
u ⊥ v, ∀ u ∈ S1 , ∀ v ∈ S2 (es decir, cuando todo vector de S1 es ortogonal a todo vector
de S2 ). Demuestre que S1 ⊥ S2 si, y solo si algún generador de S1 es ortogonal a algún
generador de S2 .
Ejercicio 5.2.6. Consideremos el conjunto
1 0 2
1
0 1
U= ,
, ⊂ R4
1 0 −2
0 −1 1
2
0
1. Sean S = L(U ) y p = 3 . Encuentre la proyección ortogonal de p sobre S y
0
calcule d(p, S).
2. Encuentre S ⊥ . Halle una base de S ⊥ .
3. Encuentre una base de R4 formada por vectores de S y de S ⊥ .
Ejercicio 5.2.7. Consideremos el conjunto
2 1 1
0
−1 2 4
U= 0 , 1 α ⊂R
,
1 0 β
1. Determine α y β para que U sea un conjunto ortogonal. Se continúa trabajando con
los valores de α y β hallados.
2
−1
2. Sean S = L(U ) y p = 0 . Encuentre la proyección ortogonal de p sobre S y
1
calcule d(p, S).
3. Encuentre la forma de los vectores de S ⊥ (es decir, los vectores de R4 que son
perpendiculares a S). Halle una base de S ⊥ .
S
4. Sea w un vector no nulo de S ⊥ . Pruebe que U {w} es base de R4 .
5. Pruebe que ku + wk2 = kuk2 + kwk2 , ∀ u ∈ S, ∀ w ∈ S ⊥ .
1 1 1
Ejercicio 5.2.8. Se considera la matriz A = a 0 −a
−1 1 a + 1
1. Discuta, según a ∈ R, el valor del rango y la nulidad de A.
2. Se continúa trabajando con a = 2. Sea S el subespacio generado por las columnas de
A. Demuestre que las dos primeras columnas de Aconstituyen una base ortogonal
2
de S. Encuentre el punto de S más próximo a p = −1
0
148 Capı́tulo 5. Rn como espacio euclidiano
3. Encuentre S ⊥ .
4. Encuentre N At y verifique que S ⊥ = N At . (observación 5.2.5).
Ejercicio 5.2.9. Si B es una matriz demuestre que (N (B))⊥ coincide con el subespacio
generado por las columnas de B t . Se sugiere recordar la observación 5.2.5.
1 0 1 1
0 1 −1 1
Ejercicio 5.2.10. Consideremos la matriz: A = 2
1 1 3
1 −1 2 0
1. Halle una base de N (A).
2. Verifique que nu(A) = 2 y halle rg(A).
3. Encuentre una base U = {u1 , u2 } de N (A) que sea ortonormal.
−2
0
1 ∈ N (A) y halle las coordenadas de v en la base U .
4. Verifique que v =
1
Ejercicio 5.2.11. Sea H un subconjunto de Rn (no necesariamente subespacio). Se llama
complemento ortogonal de H al conjunto H ⊥ = { x ∈ Rn / x ⊥ H }. Demuestre que
H ⊥ es un subespacio de Rn (aunque H no lo sea). Se sugiere probar las condiciones de la
definición de subespacio.
Ejercicio 5.2.17.
1. Encuentre un ejemplo de dos matrices A y B ortogonales tales que A + B no sea
ortogonal.
2. Si A y B son dos matrices n × n ortogonales demuestre que AB es ortogonal.
ax + by + cz = d (∗)
Veamos que el vector u tiene una interpretación geométrica simple y útil. Consideremos
entonces un plano Π cuya ecuación es hx, ui = d, en donde u es un vector no nulo. Si q1
y q2 son dos puntos distintos pertenecientes a Π se cumple:
hq1 , ui = d y hq2 , ui = d
Restando miembro a miembro y utilizando las propiedades del producto interno obtene-
mos:
hq1 − q2 , ui = 0
lo cual nos dice que el vector u es ortogonal a todos los vectores cuyos extremos son puntos
pertenecientes al plano.
o Π
q2
q1
Las observaciones previas nos permiten encontrar con suma facilidad la ecuación de un
plano que pasa por un punto p y es perpendicular a un vector no nulo u. En efecto, un
punto x pertenece a dicho plano si, y solo si, el vector x − p es ortogonal a u. Resulta
5.3. Cálculo de distancias 151
entonces que la ecuación del plano que pasa por p y es perpendicular a un vector no nulo
u es:
hx − p, ui = 0
1 2
Ejemplo 5.3.1. Sean p = 2 yu= 4 . Entonces la ecuación del plano Π que
−1 3
pasa por p y es perpendicular a u es:
* x 1 2 +
y − 2 , 4 = 0
z −1 3
o sea: 2x + 4y + 3z = 7.
d − hp, ui |hp, ui − d|
p′ = p + u , d(p, Π) =
hu, ui kuk
u
Π
o p′
hp, ui + λhu, ui = d
152 Capı́tulo 5. Rn como espacio euclidiano
Como hu, ui = 6 0 (por ser u 6= o), la ecuación resulta compatible determinada con única
solución dada por:
d − hp, ui
λ =
hu, ui
Sustituyendo este valor de λ en la primera ecuación del sistema se obtiene
d − hp, ui
p′ = p + u
hu, ui
Ahora bien, la distancia de p al plano Π vale kp′ − pk. Finalmente, sustituyendo aquı́ la
|d − hp, ui|
expresión obtenida para p′ resulta la fórmula d(p, Π) = . ♠
kuk
a
Observación 5.3.1. Observemos en primer lugar que si u = b entonces la ecuación
c
hx, ui = d del Π de la proposición anterior puede escribirse ax + by + cz − d = 0. Si
plano
x0
el punto p es y0 entonces la distancia de p al plano Π queda:
z0
|hp, ui − d| |ax0 + by0 + cz0 − d|
d(p, Π) = = √
kuk a2 + b2 + c2
v
a
p′
Π
p
2
Ejemplo 5.3.3. Consideremos el punto p = 1 y la recta L de ecuaciones paramétri-
2
x =1+λ
cas y = 1 − λ . Queremos hallar el punto de L más próximo a p y la distancia de p a L.
z =2+λ
1
Comenzamos observando que un punto que pertenece a la recta es a = 1 y que un
2
1
vector paralelo a la recta es v = −1 . Apliquemos las fórmulas de la proposición
1
anterior:
hp − a, vi 1
λ1 = =
hv, vi 3
Luego, el punto p′ de L más próximo a p es:
1 1 4/3
1
p′ = 1 + −1 = 2/3
3
2 1 7/3
La distancia de p a L vale:
2/3
√
′
6
d(p, L) = kp − p k =
1/3
=
−1/3
3
154 Capı́tulo 5. Rn como espacio euclidiano
3
Ejercicio 5.3.1. Sea H el plano que pasa por el punto 1 y es perpendicular al
1
1
vector −2 . Calcule la distancia de los siguientes puntos al plano H:
4
1 1
p1 = 0 , p2 = 1
1 −1
2 2 1
Ejercicio 5.3.2. Sea U = {u1 , u2 , u3 } siendo u1 = 1 , u2 = 1 y u3 = 2
3 2 4
1. Calcule la distancia del punto u1 a la recta L que pasa por los puntos u2 y u3 .
En esta sección vamos a discutir un ejemplo interesante, donde casi todas la ideas que
se han desarrollado en el curso pueden aplicarse. Imaginemos que se desea construir un
modelo de demanda de un cierto producto. Existen fuertes indicios para suponer que
la cantidad d de personas dispuestas a comprar un cierto bien es una función lineal del
precio p del mismo. Es decir, d(p) = αp + β. Para ajustar el modelo se realiza una encuesta
consultando a las personas si estarı́an dispuestas a comprar el bien en cuestión a distintos
precios. La encuesta proporciona la siguiente tabla de datos:
precio demanda
p1 d1
p2 d2
.. ..
. .
pn dn
Como es natural suponer, los datos no resultarán (en general) estar alineados y se tra-
tará entonces de determinar α y β para que el modelo ajuste lo “mejor posible” a los
mismos. Primero que nada, claro está, debemos darle significado a la expresión lo “mejor
posible” porque, como veremos, puede haber muchos criterios razonables para hacerlo. La
solución que propondremos para este problema se conoce como método de mı́nimos
cuadrados.
Como dijimos anteriormente, no es razonable suponer que los datos empı́ricos estén ali-
neados y, por lo tanto, no existirá ninguna recta que pase por todos los puntos (pi , di ).
Intentaremos buscar entonces la recta que pase “mas cerca” de ellos. En el precio pi el
modelo lineal predice que αpi + β personas compraran el bien. Sin embargo, la encuesta
registró que a ese precio serı́an di las personas que comprarı́an. Una primera idea podrı́a
ser considerar la suma de las diferencias ri = di − (αpi + β), como una medida del error
global entre los datos empı́ricos y los dados por la recta. Se puede rápidamente objetar a
este procedimiento que los errores se compensarı́an y un error positivo muy grande y otro
negativo se anuları́an. Esta objeción podrı́a levantarse considerando la suma de valores
absolutos de la diferencias |ri |. Esta solución es razonable, pero conduce a un problema
muy complejo. El problema resulta mucho mas sencillo de resolver si se considera como
medida del error global la suma de los cuadrados de las diferencias ri2 . La idea es intentar
elegir α y β reales de modo que esta suma de errores cuadráticos sea los más pequeña
posible. En otras palabras deseamos encontrar α y β reales de modo que sea mı́nimo
n
X n
X
R(α, β) = ri2 = [di − (αpi + β)]2
i=1 i=1
156 Capı́tulo 5. Rn como espacio euclidiano
Se tiene que
2
d1 p1 1
d2
p2
1
2
R(α, β) =
.. −α .. −β
= kd − (αp + β1)k
..
. . .
dn pn 1
Este sistema se denomina ecuación normal del problema de mı́nimos cuadrados. Final-
mente, una observación clave es la siguiente: como las columnas de A forman un conjunto
5.4. Aproximación por el método de mı́nimos cuadrados 157
P recio Demanda
1 7
2 5
3 2
4 1
Se supone que la demanda resulta ser función lineal de precio, es decir d(p) = αp + β.
Como los datos no están alineados buscamos, aplicando el método de mı́nimos cuadrados,
α y β de mondo
que la recta αp + β aproxime
lo mejor posible los datos. Definimos el
1 7
2 5
vector p =
3 y el vector d = 2 .
4 1
1 1
2 1
Resulta entonces la matriz A = y su traspuesta es At = 1 2 3 4 .
3 1 1 1 1 1
4 1
Por lo tanto
1 1
1 2 3 4 2 1 = 30 10
At A =
1 1 1 1 3 1 10 4
4 1
Observamos que ni A ni At son invertibles (ni siquiera son cuadradas), pero el producto
de ambas At A sı́ es invertible. Las ecuaciones normales son entonces
7
30 10 α 1 2 3 4 5 27
= =
10 4 β 1 1 1 1 2 15
1
Invirtiendo la matriz del sistema (o escalerizando, como guste el lector) se tiene que
−1 1
t −1 30 10 5 − 12
(A A) = =
10 4 − 12 3
2
La función lineal para la demanda en función del precio que ha estimado el método de
mı́nimos cuadrados es entonces:
−21
d(p) = p+9
10
La gráfica de esta recta, ası́ como los cuatro puntos de la tabla de datos se indican en la
siguiente figura:
y 10
9
-1 1 2 3 4 5
-1 v2
xr
siendo MB la matriz cuyas columnas son los vectores de la base B. También sabemos que
S coincide con el subespacio generado por las columnas de MB de donde, por el teorema
⊥ t
5.2.1, se cumple que S = N (MB ) . Por otra parte se sabe que
x1
v − PS (v) ∈ S ⊥ ⇒ v − MB ... ∈ S ⊥ = N (MB )t
xr
5.4. Aproximación por el método de mı́nimos cuadrados 159
Por ser B una base de S, y por lo tanto un conjunto L.I., el rango de MB es r, de donde
resulta (ver ejercicio 5.1.8) que (MB )t MB es una matriz r×r invertible. Consecuentemente
el vector
x1
.. t
−1
. = (MB ) MB (MB )t v
xr
x1
y como PS (v) = MB ... se deduce que
xr
−1
PS (v) = MB (MB )t MB (MB )t v
−1 1
0 1
Ejemplo 5.4.2. Se consideran en R4 el subespacio S = L 1 , −1 . Se
−1 2
2
1
quiere calcular el vector de S mas próximo a v =
1 . Sabemos que tal vector es la
2
proyección ortogonal de v sobre S.
Aplicamos entonces lo anterior. Definimos
−1 1
0 1 t −1 0 1 −1
MB =
1 −1 ⇒ (MB ) =
1 1 −1 2
−1 2
Multiplicando se obtiene
−1 1
−1 0 1 −1 0 1 3 −4
(MB )t MB = 1 −1 = −4
1 1 −1 2 7
−1 2
Precio p 10,0 9,0 8,0 7,0 7,0 7,0 7,0 6,5 6,0 6,0 5,5 5,0
Cantidad y 55 70 90 100 90 105 80 110 125 115 130 130
Aplicando el método de mı́nimos cuadrados halle la “mejor” recta que ajuste los datos
anteriores (y = αp + β). Calcule el error cuadrático global.
x
y 4
Ejercicio 5.4.3. Sea S = ∈ R : x + y − z + t = 0 , −x − y + t = 0
z
t
−1
1
1. Halle el vector w de S mas próximo a v = 0
1
2. Verifique que v − w es perpendicular a S.
3. Calcule la distancia de v a S.
Ejercicio 5.4.4. Se supone que la magnitud y depende de t según una ley del tipo y =
f (t) = a + bt2 . Determine, usando el método de mı́nimos cuadrados, la función f (t) que
mejor se ajusta a los siguientes datos experimentales:
t -1 0 1 2
y -1 2 -1 8
Capı́tulo 6
Diagonalización
6.1. Introducción
Supongamos que tenemos una matriz A de tamaño n × n (n puede ser “grande”) y que
necesitamos calcular alguna de sus potencias, digamos, por ejemplo, A20 . Aún disponien-
do de una calculadora (no programable), dicho cálculo se torna enormemente tedioso e
ineficiente si no contamos con una computadora que contenga programas adecuados para
tales efectos. Sin embargo, hay un caso particular en donde dicha tarea se torna trivial.
Nos estamos refiriendo al caso en que la matriz A sea una matriz diagonal.
d1 0 0
Por ejemplo, si A = 0 d2 0 al calcular sus potencias obtenemos:
0 0 d3
(d1 )2 0 0 (d1 )3 0 0
A2 = 0 (d2 )2 0 , A3 = 0 (d2 )3 0 , ...
0 0 (d3 )2 0 0 (d3 )3
(d1 )20 0 0
A20 = 0 (d2 )20 0
0 0 (d3 )20
162 Capı́tulo 6. Diagonalización
El lector podrá pensar (con total razón) que esta observación, si bien correcta, es extre-
madamente restrictiva pues solo vale para matrices diagonales. Sin embargo, veremos a
continuación que es posible simplificar el cálculo de las potencias para una clase de matri-
ces mucho más amplia que las diagonales.
= BDIDB −1 = BDDB −1 = BD 2 B −1
Hemos obtenido que A2 = BD 2 B −1 y, realizando un razonamiento inductivo llegamos a
que, cualquiera que sea k natural se cumple:
A = BDB −1 =⇒ Ak = BD k B −1
Las matrices A que cumplen la condición que acabamos de mencionar (existen B inver-
tible y D diagonal tales que A = BDB −1 ) se denominan matrices diagonalizables y
constituyen en el principal objeto de estudio de este capı́tulo. Hay que reconocer que, al
menos en principio, la condición de “matriz diagonalizable” aparece como complicada o, al
menos, nada fácil de verificar. En el siguiente ejemplo mostraremos un camino alternativo
(de hecho, será uno de los principales resultados de este capı́tulo) para verificar si una
matriz es diagonalizable.
−1 −2
Consideremos la matriz A dada por A = . Es inmediato verificar que
3 4
2 2 1 1
A =2 y A =1
−3 −3 −1 −1
2 1
Poniendo u1 = y u2 = el cálculo anterior nos dice que Au1 = 2u1 y
−3 −1
Au2 = u2 . Es decir, los vectores u1 y u2 tienen la peculiaridad de que, al multiplicarlos
6.2. Valores y vectores propios de una matriz 163
De modo análogo:
Segunda columna de AB es Au2 = u2
Luego, la matriz AB coincide con la matriz cuya primera columna es 2u1 y cuya segunda
es
2 0
u2 . A su vez, esta matriz coincide con el producto de B = MU por la matriz D = .
0 1
Hemos comprobado que AB = BD siendo D una matriz diagonal. Multiplicando ambos
miembros a derecha por B −1 (que existe pues claramente U es base de R2 ) obtenemos
A = BDB −1 y, por lo tanto, A es diagonalizable.
Este ejemplo muestra entonces que el hecho de encontrar vectores u tales que Au sea
colineal con u puede ser de utilidad para investigar si la matriz A es diagonalizable.
De acuerdo a la definición
dadapodemos decir que
2
2 es valor propio de A y es un vector propio asociado a dicho valor propio.
−3
1
1 es valor propio de A y es un vector propio asociado a dicho valor propio.
−1
Para hallar
todos
los vectores propios asociados
alvalor
propio
2tenemos
que buscar los
x −1 −2 x x
vectores ∈ R2 que verifiquen: = 2 . Eso nos lleva al
y 3 4 y y
siguiente sistema de ecuaciones:
−x − 2y = 2x −3x − 2y = 0 3x + 2y = 0
∼ ∼
3x + 4y = 2y 3x + 2y = 0 0=0
Hemos obtenido que el conjunto de todos los vectores propios asociados al valor propio 2
constituye un subespacio de R2 (en este caso, de dimensión 1).
Busquemos ahora todos los vectores propios asociados al valor propio 1. Se tiene:
−x − 2y = x −2x − 2y = 0 x+y =0
∼ ∼
3x + 4y = y 3x + 3y = 0 0=0
Hemos obtenido que el conjunto de todos los vectores propios asociados al valor propio 1
constituye un subespacio de R2 (en este caso, también de dimensión 1).
Acabamos de observar entonces que, una vez que conocemos un valor propio para A,
la búsqueda de sus correspondientes vectores propios se reduce a resolver un sistema
(cuadrado) de ecuaciones lineales. Sin embargo, el lector se podrá preguntar con total razón
¿cómo se descubrieron los valores propios 1 y 2? Más aún, la matriz A ¿no tendrá además
otros valores propios? El siguiente teorema va en camino de responder estas preguntas.
6.2. Valores y vectores propios de una matriz 165
Ejemplo 6.2.2. Volvamosal ejemplo anterior e intentemos calcular todos los valores
−1 −2
propios de A = . Según la proposición anterior tenemos que hallar las raı́ces
3 4
de det(A − λI). Se tiene:
−1 − λ −2
det(A − λI) = = λ2 − 3λ + 2
3 4−λ
Las únicas raı́ces de este polinomios son 1 y 2. Resulta entonces que esta matriz no tiene
otros valores propios.
Observación 6.2.2. Polinomio caracterı́stico de un matriz 2 × 2.
Si A es una matriz n × n entonces al polinomio det(A − λI) lo llamaremos polinomio
caso 2 ×2 podemos hallar una fórmula explı́cita para
caracterı́stico de la matriz. En el
a b
dicho polinomio. En efecto, si A = entonces:
c d
a−λ b
det(A − λI) = = λ2 − (a + d)λ + (ad − bc) = λ2 − tr(A)λ + det(A)
c d−λ
Valores propios: Tenemos que hallar las raı́ces de det(A − λI). Se tiene:
6−λ 8
det(A − λI) = = λ2 − 12λ + 20
2 6−λ
Las raı́ces de este polinomio de segundo grado son 2 y 10 y, por lo tanto, los valores
propios de A son 2 y 10.
Vectores propios asociados al valor propio 2: Tenemos que hallar el núcleo de la ma-
4 8
triz A − 2I = , lo cual nos lleva al siguiente sistema de ecuaciones:
2 4
4x + 8y = 0 x + 2y = 0
∼
2x + 4y = 0 0=0
Vectores propios asociados al valor propio 10: Tenemos que hallar el núcleo de la
−4 8
matriz A − 10I = , lo cual nos lleva al siguiente sistema de ecuaciones:
2 −4
−4x + 8y = 0 −x + 2y = 0
∼
2x − 4y = 0 0=0
5 0 −6
Ejemplo 6.2.4. Queremos hallar los valores y vectores propios de la matriz A = 9 −1 −9 .
3 0 −4
6.2. Valores y vectores propios de una matriz 167
Valores propios: Tenemos que hallar las raı́ces de det(A − λI). Se tiene:
5−λ 0 −6
det(A − λI) = 9
−1 − λ −9 = (−1 − λ)(λ2 − λ − 2)
3 0 −4 − λ
Vectores propios asociados al valor propio 2: Tenemos que hallar el núcleo de la ma-
3 0 −6
triz A − 2I = 9 −3 −9 , lo cual nos lleva al siguiente sistema de ecuaciones:
3 0 −6
3x + 0y − 6z = 0 x − 2z = 0
9x − 3y − 9z = 0 ∼ 3x − y − 3z = 0
3x + 0y − 6z = 0 0=0
Vectores propios asociados al valor propio −1: Tenemos que hallar el núcleo de la
6 0 −6
matriz A + I = 9 0 −9 , lo cual nos lleva al siguiente sistema de ecuaciones:
3 0 −3
6x − 6z = 0 x−z =0
9x − 9z = 0 ∼ 0=0
3x − 3z = 0 0=0
Resulta claro del teorema anterior que dos subespacios propios de A asociados a valores
propios diferentes solamente tienen en común al vector nulo.
Ejercicio 6.2.1. Si A es una matriz cuadrada pruebe que A es invertible si, y solo si, 0
no es valor propio de A.
Ejercicio 6.2.4. Encuentre los valores propios y los subespacios propios de las siguientes
matrices:
1 −1 4
4 2 6 8 1 3
A= , B= , C= , D= 3 2 −1
3 3 −2 6 2 6
2 1 −1
Ejercicio 6.2.5.
1. Demuestre que los únicos valores propios posibles de una matriz ortogonal A son 1
y −1. (Recuerde que si A es ortogonal entonces kA.vk2 = kvk2 , ∀ v ∈ Rn ).
√ √ !
2 2
√2
− √2
2. Verifique que la matriz 2 2
es ortogonal pero que no tiene valores propios.
2 2
6.3. Matrices diagonalizables 169
Ejercicio 6.2.6.
5 3 −6
Consideremos la matriz A = −4 −2 8 . Verifique (aplicando la definición) que
−1 −1 4
los siguientes vectores son vectores propios de A y encuentra sus correspondientes valores
propios:
−4 1 −3
u1 = 6 , u2 = −1 , u3 = 4
1 0 1
B −1 AB = D ⇐⇒ AB = BD ⇐⇒ A = BDB −1
Teorema 6.3.1. Condiciones necesarias y suficientes para que una matriz sea
diagonalizable.
Si A es una matriz n × n entonces las siguientes afirmaciones son equivalentes:
Veamos varios ejemplos que muestran cómo podemos aplicar el teorema anterior para
decidir si una matriz es diagonalizable o no.
6 8
Ejemplo 6.3.1. Consideremos la matriz A = del ejemplo 6.2.3. Sus únicos
2 6
valores propios son λ1 = 2 y λ2 = 10. Se habı́an encontrado los respectivos subespacios
propios obteniendo: dim(Sλ1 ) = dimN (A − 2I) = 1 y dim(Sλ2 ) = dimN (A − 10I) = 1.
Como la suma de las dimensiones de los subespacios propios es 1 + 1 = 2, y A es 2 × 2, la
tercera parte del teorema anterior nos permite afirmar que A es diagonalizable.
¿Cómo encontramos una matriz B que la diagonalice? Para ello usamos la parte (2) del
teorema. En el ejemplo
6.2.3se habı́an
calculado también los vectores propios. Por ejem-
−2 2
plo, u1 = y u2 = son vectores propios asociados a λ1 = 2 y λ2 = 10
1 1
respectivamente. Es claro que U = {u1 , u2 } es base de R2 . Luego, unamatriz Bque diago-
2 0
naliza a A es B = MU y la correspondiente matriz diagonal es D = , es decir,
0 10
se cumple la igualdad:
−1
−2 2 6 8 −2 2 2 0
B −1 AB = = =D
1 1 2 6 1 1 0 10
o, de manera equivalente:
−1
6 8 −2 2 2 0 −2 2
A= = = BDB −1
2 6 1 1 0 10 1 1
dimensión del núcleo de A − λI, o sea, la nulidad de dicha matriz. A su vez, esta nulidad
se puede calcular a partir del rango de la siguiente manera:
Un cálculo muy simple muestra que ambas tienen los mismos valores propios que son
λ1 = 8 (raı́z simple del polinomio caracterı́stico de ambas) y λ2 = 5 (raı́z doble del
polinomio caracterı́stico de ambas). Estudiemos ahora las dimensiones de sus subespacios
propios:
1. Para la matriz W :
0 −7 π 0 −7 π
dim(Sλ1 =8 ) = nu 0 −3 0 = 3 − rg 0 −3 0 = 3−2 = 1
0 0 −3 0 0 −3
3 −7 π 3 −7 π
dim(Sλ2 =5 ) = nu 0 0 0 = 3 − rg 0 0 0 =3−1 =2
0 0 0 0 0 0
Como dim(Sλ1 ) + dim(Sλ2 ) = 3 podemos concluir que W es diagonalizable.
2. Para la matriz Z:
0 −7 π 0 −7 π
dim(Sλ1 =8 ) = nu 0 −3 1 = 3 − rg 0 −3 1 = 3−2 = 1
0 0 −3 0 0 −3
3 −7 π 3 −7 π
dim(Sλ2 =5 ) = nu 0 0 1 = 3 − rg 0 0 1 =3−2 =1
0 0 0 0 0 0
Como dim(Sλ1 ) + dim(Sλ2 ) = 2 6= 3 podemos concluir que Z no es diagonalizable.
Proposición 6.3.1. Una condición suficiente para que una matriz sea diagona-
lizable.
Sea A una matriz n × n. Si A tiene n valores propios diferentes entre sı́ entonces es
diagonalizable.
√
2 −5 2
Ejemplo 6.3.4. Se considera la matriz A = 0 1 2 . Para hallar sus valores
0 1 1
propios debemos hallar las raı́ces del polinomio det(A − λI):
√
2 − λ −5 2
1−λ 2
det(A − λI) = 0 1−λ 2 = (2 − λ) = (2 − λ)(λ2 − 2λ − 1)
1 1 − λ
0 1 1−λ
√ √
Los valores propios de A son entonces: 2, 1+ 2 y 1− 2. Como A es 3×3 y tiene 3 valores
propios diferentes, la proposición anterior nos permite concluir que A es diagonalizable,
sin necesidad de tener que estudiar la dimensión de los subespacios propios.
Demostración.
1. Sean u1 y u2 vectores propios de A correspondientes a valores propios distintos λ1 y
λ2 . Esto implica que Au1 = λ1 u1 y Au2 = λ2 u2 . Se tiene:
que tienen los mismos valores propios λ1 = 8 (raı́z simple del polinomio caracterı́stico de
ambas) y λ2 = 5 (raı́z doble del polinomio caracterı́stico de ambas). Según la definición
anterior ¿cuáles son las multiplicidades algebraica y geométrica de estos valores propios?
Para la matriz W :
ma(λ1 ) = 1 y mg(λ1 ) = 1. ma(λ2 ) = 2 y mg(λ2 ) = 2.
Para la matriz Z:
ma(λ1 ) = 1 y mg(λ1 ) = 1. ma(λ2 ) = 2 y mg(λ2 ) = 1.
Observemos que en la matriz Z el valor propio λ2 = 5 tiene multiplicidad algebraica 2 (es
raı́z doble del polinomio caracterı́stico) mientras que su multiplicidad geométrica es 1.
Ejercicio 6.3.3. En cada uno de los siguientes casos verifique que la matriz A es diago-
nalizable y halle una matriz B y una matriz diagonal D tales que B −1 AB = D.
2 −1 2 1 −1 4
2 3
(1) A = , (2) A = 0 1 0 , (3) A = 3 2 −1
4 6
0 0 1 2 1 −1
1 0 0 0
2 1 1 −2 3 2 4
3 0 0
(4) A = 1 2 1 , (5) A = , (6) A = 2 0 2
0 0 −1 2
0 0 1 4 2 3
0 0 1 0
6.3. Matrices diagonalizables 175
Ejercicio 6.3.4. Investigue si las siguientes matrices son diagonalizables (no es necesario
hallar los subespacios propios):
2 −1 0
1 0 4 1 3 −5
A= , B= , C= , D= 0 0 1
1 0 0 4 1 −1
0 0 0
−5 −5 −9 −1 −3 −9 0 1 0
E= 8 9 18 , F = 0 5 18 , G = 0 0 1
−2 −3 −7 0 −2 −7 1 −3 3
1 3 0 0
2 2 0 0
Ejercicio 6.3.5. Se considera la matriz: A = 0 0 −1
.
0
0 0 0 −1
1. Halle los valores y vectores propios de A.
2. Investigue si A es diagonalizable. Justifique.
3. Si λ no es ningunode los valores
propios obtenidos en (a), ¿cuál es la solución del
x 0
y 0
sistema (A − λI) .
z = 0 ? Justifique.
t 0
1 1 1 1 1
1 1 1 1 1
Ejercicio 6.3.6. Se consideran A = 1 1 1 1 y v = 1 .
1 1 1 1 1
1. Halle N (A) y encuentre una base del mismo. ¿Es 0 valor propio de A?
2. Pruebe que v es vector propio de A. ¿Cuál es el valor propio correspondiente?
3. Halle una matriz invetible B 4× 4 y una matriz diagonal D 4× 4 tales que B −1 AB =
D.
2 1
Ejercicio 6.3.7. Sea A = siendo k un número real.
2k k
1. Encuentre los valores propios de la matriz A.
2. Investigue si A es diagonalizable discutiendo según k.
1 0 0
Ejercicio 6.3.8. Pruebe que la matriz A = a 1 −a es diagonalizable solo para
a 0 a
dos valores de a.
1 a a
Ejercicio 6.3.9. Pruebe que la matriz A = a 1 a es diagonalizable para cualquier
a a 1
valor de a y encuentre una matriz que la diagonalice.
176 Capı́tulo 6. Diagonalización
Ejercicio 6.3.10.
1. Demuestre que si D es una matriz diagonal que tiene todas sus entradas no negativas
entonces existe otra matriz diagonal J tal que J 2 = D.
2. Sea A una matriz diagonalizable tal que todos sus valores propios son no negativos.
Demuestre que existe una matriz S tal que S 2 = A.
1 3 1
3. Halle una matriz S tal que S 2 = A en el caso en que A = 0 4 5
0 0 9
Ejercicio 6.3.14. Verifique que, para cada una de las siguientes matrices, λ = 2 es valor
propio con multiplicidad algebraica 3. En cada uno de los casos calcule su multiplicidad
geométrica. ¿Cuáles son diagonalizables?
2 0 0 2 1 0 2 1 0
A1 = 0 2 0 , A2 = 0 2 0 , A3 = 0 2 1
0 0 2 0 0 2 0 0 2
Ejercicio 6.3.15. Encuentre matrices ortogonales que diagonalicen a las siguientes ma-
trices simétricas:
a b b
a b
, b a b
b a
b b a
6.4. Apéndice
Demostración de la equivalencia de las partes (1) y (2) del Teorema 6.3.1
b
Supongamos que existe U = {u1 , u2 , . . . , uk } −→ Rn tal que A (ui ) = λi ui para i =
1, 2, . . . , n. Definimos la matriz D mediante D = (MU )−1 AMU . Vamos a probar que D es
una matriz diagonal, más precisamente, que la columna i-ésima de D vale λi ei . Se tiene:
Ci (D) = D.ei = D.coordU (ui ) = (MU )−1 AMU .coordU (ui ) =
6.4. Apéndice 177
(MU )−1 A (MU .coordU (ui )) = (MU )−1 A.ui = (MU )−1 λi ui = λi (MU )−1 ui
= λi coordU (ui ) = λi ei
Recı́procamente,
supongamos queA es diagonalizable. Entonces existen matrices P inver-
d1 0 · · · 0
0 d2 · · · 0
−1
tible y D = . .. . . .. diagonal (ambas n × n) tales que: P AP = D. La
.. . . .
0 0 · · · dn
igualdad anterior es equivalente a AP = P D. Estudiemos la columna i-ésima de ambos
miembros.
La columna i-ésima de AP coincide con el producto de A por la columna i-ésima de P :
Ci (AP ) = A Ci (P )
A Ci (P ) = di Ci (P ) , ∀ i = 1, 2, . . . , n.
Como Ci (P ) 6= o (por ser P invertible), la igualdad anterior implica que, para cada i =
1, 2, . . . , n, el vector Ci (P ) es un vector propio de A asociado al valor propio di . Por otra
parte, y utilizando nuevamente que P es invertible, podemos asegurar que estos vectores
constituyen una base de Rn . Hemos demostrado que {C1 (P ), C2 (P ), . . . , Cn (P )} (conjunto
de las columnas de P ) es una base de Rn formada por vectores propios de A. ♠
At A.ui = σi2 ui , i = 1, 2, . . . , n.
(Aquı́ hemos supuesto que los vectores de la base U los hemos ordenados de modo
que sus valores propios correspondientes quedan en orden decreciente).
Tomamos como matriz Q a la matriz MU . Como U es una base ortonormal de Rn ,
la matriz Q (n × n) es ortogonal. Observemos que la columna k del producto A.Q
coincide con A.uk .
Trataremos de encontrar una matriz ortogonal Z (m × m) y una matriz diagonal D
(m × n) de modo que A.Q = Z.D. Para ello alcanzará con que la columna k de Z.D
coincida con la columna k de A.Q, o sea con A.uk (para todo k = 1, 2, . . . , n).
{v1 , v2 , . . . , vr } es ortonormal en Rm
Transformaciones lineales
Tenemos entonces que la imagen del vector nulo por una transformación lineal siem-
pre es el vector nulo. Esta propiedad permite verificar que una función NO es lineal.
Por ejemplo, f : R → R tal que f (x) = x + 2 no es una transformación lineal pues
180 Capı́tulo 7. Transformaciones lineales
Como las combinaciones lineales combinan (valga la redundancia) las operaciones de suma
de vectores y de producto por un número, las dos condiciones de la definición pueden
expresarse mediante una sola condición, como lo establece la siguiente proposición.
Demostración.
En efecto, si T es lineal entonces usando primero la propiedad (i) de la definición y luego
la (ii) se tiene que
Ejemplo 7.1.1.
1. La función identidad I : Rn → Rn definida por I(v) = v , ∀ v ∈ Rn es una
transformación lineal.
2. Dado k ∈ R la transformación T : Rn → Rn dada por T (v) = kv , ∀ v ∈ Rn es
lineal. En particular, la transformación nula (k = 0) es lineal.
3. Dado w ∈ Rn , w 6= o, la transformación S : Rn → Rn dada por S(v) = v + w , ∀ v ∈
Rn no es lineal pues T (o) = w 6= o.
hv, ui
Pu : Rn → Rn / Pu (v) = u , ∀ v ∈ Rn .
hu, ui
v − Pu (v)
o u Pu (v)
PS : Rn → Rn / v 7→ PS (v) , ∀ v ∈ Rn
Recordemos que PS (v) está caracterizado por ser el único vector de S con la propiedad de
que v − PS (v) ⊥ S
o
PS (v)
2 1
Ejemplo 7.1.6. Sea A = . Definimos T : R2 → R2 mediante
1 1
x x
T = A.
y y
T es lineal pues en virtud de la propiedad distributiva del producto de matrices se tiene
que ′ ′
x x 2 1 x x
T α +β = α +β =
y y′ 1 1 y y′
′
2 1 x 2 1 x′ x x
α +β ′ = αT + βT
1 1 y 1 1 y y y′
Como se observa fácilmente, si se tomara otra matriz A cualquiera, se podrı́a argumentar
igual que en el ejemplo, por lo que en general tenemos la siguiente proposición:
Proposición 7.1.2. Transformación lineal asociada a una matriz. Sea A una matriz
cualquiera de tamaño m × n. Entonces la función T : Rn → Rm definida por T (v) =
A.v , ∀ v ∈ Rn , es una transformación lineal.
Demostración.
Para toda pareja de reales α, β y para toda pareja de vectores u, v ∈ Rn se tiene:
♠
Ejemplo 7.1.7. En cada uno de los siguientes casos tomaremos una matriz A de tamaño
m × n y consideraremos la función T : Rn → Rm definida por T (v) = A.v , ∀ v ∈ Rn . Por
el teorema anterior dicha
función será una transformación lineal.
1 0
1. A = da lugar a la transformación T : R2 → R2 tal que:
0 −1
x 1 0 x x
T = =
y 0 −1 y −y
Como el lector podrá visualizar fácilmente, se trata de una simetrı́a axial de eje Ox.
−1 0
2. A = da lugar a la transformación T : R2 → R2 tal que:
0 −1
x −1 0 x −x
T = =
y 0 −1 y −y
Se trata
de una
simetrı́a central de centro O.
3 0
3. A = da lugar a la transformación T : R2 → R2 tal que:
0 3
x 3 0 x 3x
T = =
y 0 3 y 3y
Se trata de una homotecia de centro O y razón 3.
7.1. Definición, propiedades básicas y ejemplos 183
1 0 0
4. A = 0 1 0 da lugar a la transformación T : R3 → R3 tal que:
0 0 −1
x 1 0 0 x x
T y = 0 1 0 y = y
z 0 0 −1 z −z
Queremos probar que es lineal. Para ello, en lugar de verificar las condiciones de la defi-
nición de transformación lineal, podemos observar que
4x − 2y 4 −2
x x
T = 2x + y = 2 1 .
y y
x+y 1 1
4 −2
Luego, si llamamos A a la matriz A = 2 1 hemos obtenido que:
1 1
4 −2
x x x
T = 2 1 . , ∀ ∈ R2
y y y
1 1
La proposición anterior nos permite concluir que T es lineal. Observemos también que las
columnas de A coinciden con las imágenes por T de los vectores de la base canónica de
R2 :
4 −2
1 0
T = 2 , T = 1
0 1
1 1
184 Capı́tulo 7. Transformaciones lineales
2. Las columnas de A son los transformados por T de los vectores de la base canónica
de Rn , es decir, Cj (A) = T (ej ), para j = 1, 2, . . . n.
Demostración.
x1
Existencia: Sea v = ... un vector cualquiera de Rn . El vector v se expresa en la base
xn
canónica de la siguiente manera:
v = x1 e1 + x2 e2 + . . . + xn en
en donde A es la matriz que tiene por columnas a los vectores T (e1 ), T (e2 ), . . . , T (en ).
Unicidad: Supongamos que B es una matriz de tamaño m × n tal que T (v) = B.v , ∀ v ∈
Rn . Para v = ej obtenemos: T (ej ) = B.ej = Cj (B). Es decir, necesariamente las columnas
de B son los transformados por T de los vectores de la base canónica de Rn y, por lo tanto,
B = A. ♠
xn xn xn
Otra conclusión que se saca del teorema 7.2.1 es que una transformación lineal queda
determinada si se conocen los transformados de los vectores de la base canónica. Este
resultado puede extenderse a una base cualquiera como se prueba en el siguiente teorema.
186 Capı́tulo 7. Transformaciones lineales
Demostración.
Existencia: Sea B la matriz de tamaño m × n que tiene por columnas los vectores de W ,
es decir: B = MW . Definimos entonces T : Rn → Rm mediante:
T (x) = x1 w1 + x2 w2 + . . . + xn wn
Nos falta probar que T es lineal. Sean entonces x e y vectores de Rn y λ, µ números reales.
Se tiene:
Hemos probado, pues, que una transformación lineal queda determinada por los valores
que toma sobre una base. En otras palabras, si se conocen los transformados de una base
(obsérvese que se trata de una cantidad finita de valores) entonces se conocen los valores
que toma la transformación lineal en cualquier punto. Piense el lector que en general cono-
cer una cantidad finita de valores de una función no es suficiente para determinarla, incluso
por ejemplo si uno considera una función continua real, el conocer una cantidad finita de
imágenes no permite determinar que ocurre en otros puntos. Ocurre que la hipótesis de
linealidad es muy fuerte e implica una gran rigidez.
Veamos cómo es que se puede determinar una transformación lineal a partir de conocer
los valores que toma en una base en un par de ejemplos.
7.2. Matriz asociada a una transformación lineal 187
Entonces
x 1 0
T =T x + (−2x + y) =
y 2 1
1 0
xT + (−2x + y) T =
2 1
3 2 −x + 2y
x −1 + (−2x + y) 1 = −3x + y .
5 −1 7x − y
Entonces
−x + 2y −1 2
x x
T = −3x + y = −3 1
y y
7x − y 7 −1
Rm , el teorema 7.2.2 afirma que existe una única transformación lineal T : Rn → Rm tal
que T (vi ) = wi , ∀ i = 1, . . . , n. Dicha transformación lineal viene dada por la fórmula 7.2:
Si recordamos que coordV (x) = (MV )−1 x entonces la única transformación que cumple
con las condiciones establecidas se puede escribir:
Resulta entonces que si conociéramos la matriz (MV )−1 podrı́amos hallar T (x) aplicando
esta última fórmula. Apliquemos esto en el ejemplo previo. Tenemos:
3 2
1 0 −1 1 0
B= −1 1 , MV = , (MV ) =
2 1 −2 1
5 −1
3 2 −1 2
1 0
Luego: B. (MV )−1 = −1 1 . = −3 1 y, por lo tanto:
−2 1
5 −1 7 −1
−1 2 −x + 2y
x x
T = −3 1 = −3x + y
y y
7 −1 7x − y
Demostración.
Probaremos (i) y dejamos (ii) como ejercicio.
Sean, con la notación habitual, [T ] y [S] las matrices asociadas a T y S respectivamente.
Para todo x ∈ Rn se tiene:
De la proposición 7.1.2 se deduce que T + S es lineal (pues viene dada como el producto
de una matriz) y, del teorema 7.2.1, se deduce que la matriz asociada a T + S es [T ] + [S].
♠
[S ◦ T ] = [S].[T ]
Demostración.
Para todo x ∈ Rn se tiene:
De la proposición 7.1.2 se deduce que S ◦ T es lineal (pues viene dada como el producto
de una matriz) y, del teorema 7.2.1, se deduce que la matriz asociada a S ◦ T es [S].[T ].
♠
0 0
2 2
S 1 = y S 1 =
2 −4
1 −1
2 2 x x
Consideramos R = S ◦ T : R → R y queremos calcular R , ∀ ∈ R2 .
y y
x x
Como ya hemos observado antes, R = [R]. y, por el teorema previo,
y y
[R] = [S].[T ]. Calculemos entonces
[T] y [S].
2 1
Es inmediato ver que [T ] = 1 1 . Para hallar [S] debemos conocer las imágenes por
1 0
3
S de los vectores de la base canónica
de R . Para
elloexpresamos
dichos vectores como
1 0 0
combinación lineal de la base V = 0 , 1 , 1 . Se tiene:
0 1 −1
0 0 0 0 0 0
1 1 1 1
1 = 1 + 1 y 0 = 1 − 1
2 2 2 2
0 1 −1 1 1 −1
Por lo tanto:
0 0 0
1 1 1 2 1 2 2
S 1 = S 1 + S 1 = + =
2 2 2 2 2 −4 −1
0 1 −1
0 0 0
1 1 1 2 1 2 0
S 0 = S 1 − S 1 = − =
2 2 2 2 2 −4 3
1 1 −1
En consecuencia:
1 2 0
[S] =
3 −1 3
Por lo tanto
2 1
1 2 0 4 3
[R] = 1 1 = ⇒
3 −1 3 8 2
1 0
x 4 3 x 4x + 3y
R = =
y 8 2 y 8x + 2y
S◦T =T ◦S =I
S1 = S1 ◦ I = S1 ◦ (T ◦ S2 ) = (S1 ◦ T ) ◦ S2 = I ◦ S2 = S2 ♠
Nuevamente, la propiedad que estamos estudiando para una transformación lineal puede
reducirse al estudio de la misma propiedad para su matriz asociada como lo muestra la
siguiente proposición.
Demostración.
Supongamos T invertible. Veamos primero que T −1 es lineal. Para esto consideremos w1
y w2 ∈ Rn y λ y µ ∈ R.
Observando que T ◦ T −1 (w) = w y que T es lineal, tenemos:
λ w1 + µ w2 = λ T ◦ T −1 (w1 ) + µ T ◦ T −1 (w2 ) =
= λT T −1 (w1 ) + µT T −1 (w2 ) = T λT −1 (w1 ) + µT −1 (w2 )
hemos llegado entonces a que:
λ w1 + µ w2 = T λT −1 (w1 ) + µT −1 (w2 )
Recı́procamente, supongamos ahora que [T ] es una matriz invertible, con lo cual se cumple
[T ].[T ]−1 = In . Definimos S : Rn → Rn mediante S(x) = [T ]−1 .x , ∀ x ∈ Rn . La
proposición 7.1.2 nos permite asegurar que S es lineal y además tenemos:
2 2 x 2x + y
Ejemplo 7.4.1. Sea T : R → R tal que T = . Queremos probar
y x+y
que T es invertible y calcular T −1
Según el teorema anterior, para probar que T es invertible es suficiente con ver que la
matriz asociada [T ] es invertible. Para esto último podemos verificar que det[T ] 6= 0.
Observemos que
2 1 2 1
[T ] = ⇒ det = 1 6= 0
1 1 1 1
Para calcular T −1 calculemos su matriz asociada. Para ello alcanza con invertir [T ]. Te-
nemos:
−1 1 −1
[T ] = ⇒
−1 2
−1 x 1 −1 x x−y
T = =
y −1 2 y −x + 2y
(i) Llamaremos núcleo de T al subconjunto del dominio cuya imagen por T es el vector
nulo, es decir
N (T ) = {v ∈ Rn / T (v) = o}
T (v) = [T ] . v , ∀ v ∈ Rn .
1. Tenemos entonces que T (v) = o si, y solo si, [T ].v = o. Resulta entonces que el
núcleo de T coincide con el núcleo de su matriz asociada. En particular, es claro que
N (T ) es un subespacio de Rn .
2. Consideremos ahora el conjunto Im(T ). Tenemos que un vector w ∈ Rm pertenece
a Im(T ) si, y solo si, existe algún vector v ∈ Rn tal que T (v) = w, que es lo mismo
que [T ].v = w. Esta última igualdad equivale a decir que w es combinación lineal
de las columnas de [T ]. Este hecho ya lo hemos utilizado en diversas ocasiones. De
todos modos volvamos a repasarlo:
a11 . . . a1n x1
Si [T ] = ... .. .. y v = .. tenemos :
. . .
am1 . . . amn xn
a11 . . . a1n x1 a11 a1n
[T ].v = ... .. .. .. = x .. + . . . + x ..
. . . 1 . n .
am1 . . . amn xn am1 amn
Podemos concluir entonces que Im(T ) está formado por todos aquellos vectores de
Rm que son C.L. de las columnas de [T ], Dicho de otra forma, Im(T ) coincide con el
subespacio generado por las columnas de la matriz asociada a T : Im(T ) = L [C[T ]].
En particular, Im(T ) es un subespacio de Rm .
3. De las observaciones anteriores podemos sacar además las siguientes conclusiones
acerca de las dimensiones del núcleo y la imagen de la transformación T :
1) Hallemos el núcleo de T .
x x
y ∈ N (T ) ⇔ T y = 0 ⇔ x+y+z
=
0
0 2x + 2y + 2z 0
z z
x+y+z =0
⇔ ⇔ x+y+z =0
2x + 2y + 2z = 0
x 1 1
Ası́ el N (T ) = y ∈ R3 : x + y + z = 0 = L −1 , 0 .
z 0 −1
2) Hallemos la imagen de T .
,
x0 x0
a 3
a
∈ Im (T ) ⇔ existe y0 ∈ R T y0 =
b b
z0 z0
x0
3 x0 + y0 + z0 a
⇔ existe y0 ∈ R tal que =
2x0 + 2y0 + 2z0 b
z0
x0
3 x0 + y0 + z0 = a
⇔ existe y0 ∈ R tal que
2x0 + 2y0 + 2z0 = b
z0
x+y+z =a
⇔ el sistema es compatible
2x + 2y + 2z = b
x+y+z =a
⇔ el sistema es compatible
0 = b − 2a
⇔ b = 2a
a 2 1
Luego: Im (T ) = ∈ R : b = 2a = L .
b 2
Observemos que se verifica: dimN (T ) + dimIm(T ) = 2 + 1 = 3.
7.6. Transformaciones lineales inyectivas, sobreyectivas y biyectivas 195
Para hallar Im(T ), hallamos el subespacio generado por las columnas de su matriz aso-
ciada [T ]. Como esta matriz tiene rango 2 deducimos que dimIm(T ) = 2 y, por lo tanto,
Im(T ) = R2 .
Demostración.
196 Capı́tulo 7. Transformaciones lineales
T (α1 v1 + . . . + αn vn ) = o = T (o.
α1 v1 + . . . + αn vn = o
Demostración.
(1) ⇒ (2) Consideremos w ∈ Rm cualquiera. Como T es sobreyectiva entonces w ∈
Im(T ) = Rm y, por lo tanto, existe v ∈ Rn tal que T (v) = w. Como U es ge-
nerador de Rn entonces existen escalares, λ1 , . . . , λp tales que v = λ1 v1 + . . . + λp vp .
Aplicando T y usando la linealidad se tiene que
2. Si T es sobreyectiva entonces n ≥ m.
3. Si T es biyectiva entonces n = m.
Demostración.
Todo surge del Teorema de las dimensiones (teorema 7.5.1) que establece que:
En efecto:
1. Si T es inyectiva entonces N (T ) = {o} y, por lo tanto, la relación anterior implica
que dim Im(T ) = n. Por otra parte, dim Im(T ) es el rango de la matriz [T ], que
como tiene m filas, debe ser menor o igual que m. Se deduce que n ≤ m.
2. Si T es sobreyectiva entonces sabemos que Im(T ) = Rm de donde dim Im(T ) = m.
De la igualdad dim N (T ) + dim Im(T ) = n se deduce entonces que n ≥ m.
3. Es inmediato debido a las dos partes anteriores. ♠
En los próximos dos ejemplos mostraremos cómo el estudio de las transformaciones lineales
permite obtener un panorama más geométrico y conceptual de algunos resultados (para
nada intuitivos a priori) vinculados con operaciones con matrices.
S ◦ T : R8 → R8 / (S ◦ T )(x) = (B.A).x , ∀ x ∈ R8
Ahora bien, como 8 > 5 la transformación T no puede ser inyectiva, con lo cual podemos
afirmar que existe x1 ∈ R8 con x1 6= o tal que T (x1 ) = o. Pero entonces tenemos que:
Resulta entonces que (S ◦T ) tampoco es inyectiva y por lo tanto no invertible (al igual que
su matriz asociada). La proposición ha quedado demostrada de una forma extremadamente
simple.
Como el lector comprenderá fácilmente, los números 8 y 5 no jugaron ningún papel decisivo.
La proposición general (que se prueba igual) es entonces:
Si A es una matriz de tamaño m × n (con m < n) y B otra matriz de tamaño n × m
entonces el producto B.A (que es una matriz cuadrada n × n) NO es invertible.
Ejemplo 7.6.2. Dada una matriz no nula D de tamaño q × r ¿cómo podemos encontrar
una matriz no nula C de tamaño p × q tal que C.D = O (matriz nula)?
Las transformaciones lineales asociadas a estas matrices son:
(S ◦ T ) : Rr → Rp / (S ◦ T )(x) = (C.D).x , ∀ x ∈ Rr
T S
x 7−→ T (x) 7−→ S (T (x))
Que C.D = O equivale a decir que la transformación (S ◦ T ) es la nula (esto es, a cualquier
x le hace corresponder el vector nulo). Para que esto ocurra el conjunto imagen de T debe
estar contenido en el núcleo de S: Im(T ) ⊂ N (S).
T S
Rq Rp
r
R
N (S) o
Dada la transformación T , conocemos su imagen (es el subespacio generado por las co-
lumnas de D) y debemos encontrar otra transformación S de modo que Im(T ) ⊂ N (S),
o incluso, Im(T ) = N (S). Ahora que lo visualizamos de este modo podemos afirmar que
alcanzará con encontrar una matriz de tamaño p×q cuyonúcleo coincida
con el subespacio
3 2 1
generado por las columnas de D. Por ejemplo, si D = 3 2 1 entonces claramen-
6 4 2
1
te una base del subespacio generado por las columnas de D es: 1 . Un vector
2
a
b pertenece al subespacio generado por las columnas de D si, y solo si, a − b = 0
c
7.7. Valores y vectores propios de una transformación lineal 199
y 2a − c = 0. Para encontrar una matriz cuyo núcleo esté formado por los vectores (a, b, c)
tales que a − b = 0 y y 2a − c = 0 utilizamos
los coeficientes de esta útimas ecuacio-
1 −1 0
nes y ponemos (también por ejemplo): C = . Es inmediato verificar que
2 0 −1
C.D = O. Obsérvese
que también
podrı́amos haber tomado la matriz C con más filas, por
1 −1 0
2
0 −1
ejemplo: C = 1 −1
0
.
2 0 −1
3 −1 −1
De donde es inmediato observar que rg[T − 4I] = 1 y, por lo tanto, mg(4) = 2 = ma(4),
por lo que T es diagonalizable. Para determinar la base de vectores propios calculamos
N (T − 4I) y N (T − 2I):
x
y ∈ N (T − 4I) ⇔ y = −z, x ∈ R ⇒
z
1 0
N (T − 4I) = L 0 , 1
0 −1
Por otra parte
2 1 1
[T − 2I] = 0 1 −1 ⇒
0 −1 1
x
y ∈ N (T − 2I) ⇔ y = z, x = 0 ⇒
z
7.7. Valores y vectores propios de una transformación lineal 201
0
N (T − 2I) = L 1
1
Por lo tanto, una base de vectores propios es
1 0 0
0 , 1 , 1
0 −1 1
[S ◦ T ] = [S].[T ]
202 Capı́tulo 7. Transformaciones lineales
7.8. Ejercicios
Ejercicio 7.8.1. En cada uno de los siguientes casos demuestre que la función T dada es
una transformación lineal y encuentre su matriz asociada. (Sugerencia: recuerde que para
probar que T es lineal alcanza con encontrar una matriz A tal que T (x) = A.x , ∀ x ∈
D(T ). Más aún, dicha matriz A es la matriz asociada a T ).
2 2 x 2x − 5y
1. T : R −→ R / T = . Encuentre la imagen por T del vector
y x+y
2
.
−1
x − 3y
x
2. T : R2 −→ R3 / T = x − y . Encuentre la imagen por T del vector
y
4x + y
2
.
−1
x
3 2 x−y+z
3. T : R −→ R / T y = . Encuentre la imagen por T del
x + 9y + z
z
1
vector 0 .
−1
7.8. Ejercicios 203
x−y
x x + y+z
4. T : R3 −→ R4 / T y =
2x − z
. Encuentre la imagen por T del
z
0
3
vector 3 .
−6
Ejercicio 7.8.2. Encuentre el núcleo y la imagen de las transformaciones lineales del
ejercicio anterior. Verifique la relación que hay entre dim(N (T )) y dim(Im(T )) en cada
uno de los casos.
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Demuestre que T es invertible y halle la matriz asociada a T −1 .
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Halle T (v), ∀ v ∈ R2 .
1. Investigue si T es invertible.
2. Halle Im(T ) y N (T ).
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Halle la matriz asociada a T .
3. Demuestre que T es invertible y halle T −1 .
4. Halle los vectores propios de T e investigue si T es diagonalizable.
5. Halle los vectores propios de T −1 e investigue si T −1 es diagonalizable.
Ejercicio 7.8.12. Sea T : Rn → Rn una transformación lineal. Demuestre que son equi-
valentes las siguientes afirmaciones
(i) T es biyectiva
(ii) Para cualquier base A de Rn se cumple que T (A) es base de Rn .
7.9. Ejercicios variados de opción múltiple 205
T ∗ : Rm → Rn / T ∗ (y) = At y , ∀ y ∈ Rm .
L (Rn , Rm ) = { T : Rn → Rm / T es lineal }
1 2 −a
Ejercicio 7.9.2. Sean u = 1 , v = 2 , w = a Entonces w es combi-
0 3 a
nación lineal de {u, v}
(1) Para infinitos valores de a. (2) Para ningún valor de a.
(3) Sólo para tres valores de a. (4) Sólo para a = 0.
Ejercicio 7.9.9.
Sea U = {u1 , u2 , u3 } ⊂ R5 un conjunto L.I. Entonces se cumple necesariamente que:
(1) {u1 , u2 , u3 , v} es L.I., cualquiera que sea v ∈ R5 .
(2) {u1 , u2 , u3 , v} es L.D., cualquiera que sea v ∈ R5 .
(3) Existe w ∈ R5 tal que w es combinación lineal NO única de U .
(4) Ninguna de las anteriores.
4
Ejercicio 7.9.10. Sea U = {u1 , u2 , u3 } una base de R3 y el vector z = −2
5
Si se sabe que z = u1 − 2u2 + 3u3 entonces
4 5 1
(1) coordU (z) = −2 (2) coordU (z) = −2 (3) coordU (z) = −2
5 4 3
Ejercicio 7.9.21. Sean u y v vectores de Rn tales que√ kuk = 2, kvk = 5, hu, vi = 7/2.
Entonces ku + vk = (1) 7 (2) 36 (3) 6 (4) 7.
Entonces
(1) Ambas son verdaderas. (2) Ambas son falsas.
(3) (A) es verdadera y (B) es falsa. (4) (B) es verdadera y (A) es falsa.
Ejercicio 7.9.32. Sean A una matriz n × n; {u, v, w, z} ⊂ Rn L.I. tales que A.u =
2u, A.v = 2v, A.w = w, A.z = o. Consideremos las afirmaciones:
(A) 2 es valor propio de A. (B) necesariamente n ≥ 4. Entonces:
(1) Ambas afirmaciones son verdaderas. (2) Ambas afirmaciones son falsas.
(3) Sólo (A) es verdadera. (4) Sólo (B) es verdadera.
Ejercicio
7.9.34.
Sea T : R3 −→ R3 una transformación lineal de la cual se sabe que
1
u= 2 ∈ N (T ). Entonces se cumple necesariamente que:
−1
(1) T no es inyectiva. (2) u debe pertenecer a Im(T ).
(3) N (T ) es un subespacio de dimensión 1. (4) T es biyectiva.
2 2
Ejercicio
7.9.35.
Sea T −→ R una transformación lineal de la cual se sabe que
: R
1 1 2
T =T = . Entonces:
0 1 4
0 1 0 1
(1) ∈ N (T ) y ∈ Im(T ) (2) 6∈ N (T ) y ∈ Im(T )
1 2 1 2
0 1 0 1
(3) ∈ N (T ) y 6∈ Im(T ) (4) 6∈ N (T ) y 6∈ Im(T )
1 2 1 2
Capı́tulo 8
1 0 a b
o 2 , (b 6= 0).
Ejercicio 1.1.1. A = 3 2 −a
−a
b
5 4 Ejercicio 1.1.9. 1) SF = S + C − V ,
Ejercicio 1.1.2. a = 3, b = −1.
Piva = 1, 22 P ; 2) I = V t .P .
t 10 −1 3p1 + 4p2
Ejercicio 1.1.3. 1) A + A = ,
−1 0 Ejercicio 1.1.10. u = 2p1 + 5p2 ,
−5 0−2 4p1 + 6p2
2C − 7I3 = 0 −3 −6 , x
4 2−7
v= y ,
5 4 3 z
B t .B = 4 13 −13 ,
a
t
3 −13 26 U tilidad = b .v − ut .v − k.
t 14 −9 c
B.B = . 2) Los productos
−9 30 Ejercicio 1.1.11. Hay que multiplicar P t .M y
posibles son A.B, B.C, B.D y C.D. luego sumar los elementos de dicha matriz.
1 9 −7
3) X = 4 Ejercicio 1.1.12.
0 −1
2
Ejercicio 1.1.4. Las partes 1), 2) y 4) son 3
válidas solamente cuando A.B = B.A. La parte (500 1000 400) . R . 1,5 .
3) es válida siempre.
Ejercicio 1.1.5. (c)a = −2 o a = −1. 5
−1 1 −1
±1 b Ejercicio 1.2.1. A = ,
Ejercicio 1.1.6. 1)
0 ∓1
, (b ∈ R) −1 2
1/2 −1/2
±1 0 B −1 = .
o , (c ∈ R) −1 2
c ∓1
Ejercicio 1.2.2. La únicás falsas son 4) y 5). Un
a c contraejemplo para 4) es A = I, B = −I. Un
o 1−a2 , (c 6= 0).
−a contraejemplo para 5) es A = I, B = I. (I es la
c
a c matriz identidad).
2) −1−a2 , (c 6= 0)
c −a Ejercicio 1.2.3. Se utiliza la parte 1) para
0 b probar que:
3) , (b ∈ R)
0 0 2) (In − A)−1 = In + A
0 0 3) (In − A)−1 = In + A + A2
o , (c ∈ R) 4) (In − A)−1 = In + A + A2 + . . . + Ak−1
c 0
212 Capı́tulo 8. Respuestas a los ejercicios
x + 2y − 5 = 0 (18) es un punto (el origen).
Ecuaciones reducidas:
3y + z − 5 = 0 (19) es un plano.
Ecuaciones paramétricas de L2
x = −1 + 4λ T 3.2.10. (1) (Π1 ) x + y − 2z = 0.
Ejercicio
(2) L S = {(2, 2, 2)}
y=1 (3) (Π2 ) − x + 2y + 3z =
z = 3 − 2λ T 8.
Un vector paralelo a Π1 Π2 es (−7, 1, −3).
x + 2z − 5 = 0 Ejercicio 3.2.11. (1) (Π1 ) x + y + z = 1.
Ecuaciones reducidas:
y=1 (3) (Π2 ) x − 2y = 0. T
x = 3 + 2λ Un vector paralelo aTΠ1 TΠ2 es (2, 1, −3).
Ecuaciones paramétricas de L3 y =1−λ Ejercicio 3.2.12. Π1 Π2 Π3 = {(−3, 3 − 2)}
z = 1 + 3λ Ejercicio 3.3.2. a = 3.
x + 2y − 5 = 0 Ejercicio 3.3.3. Los vectores que son C.L. de U
Ecuaciones reducidas:
T 3y + z − 4 = 0 son
L1 T L2 = ∅ y se cruzan. (1) (a, b, c) tales que 4a + 3b − 2c = 0
L1 L3 = ∅yL1 kL3 . (2) Todos. (3) Todos.
T 3 (4) (a, b, c, d) tales que −a + 3b + 2c = 0 y
L2 L3 = 1 . Las rectas son secantes. −3a + 5b + 2d = 0.
1 z1 no y z2 sı́.
Ejercicio 3.2.2. (5) Todos los de R2 .
El sistema con las cuatro T ecuaciones resulta Ejercicio 3.3.4. Solo es falsa la (3).
incompatible de donde L S = ∅. Para decidir Ejercicio 3.3.5. (1) No.
si se cruzan o son paralelas hallamos los (2) (a, b, c, d) tales que −a + b + c + 2d = 0.
vectores que dan la dirección de cada una de Ejercicio 3.3.6. Si a 6= −1, z es C.L. única de U
ellas. T cualquiera sea b. Si a = −1 y b = 1, z es C.L.
Ejercicio 3.2.3. a = 3, b = 2. L S = L = S. no única de U . Si a = −1 y b 6= 1, z no es C.L.
Ejercicio 3.2.4. 2x − y + z = 0. de U .
Ejercicio 3.2.5.
Ejercicio 3.3.7. (1) x1 = 1 + 2λ , x2 =
T 9/5 −1 + 3λ , x3 = 1 + 2λ , x4 = 2 − λ
1) L Π1 = 3/5 . Ejercicio 3.3.8. (3) No necesariamente.
T 1/5 Ejercicio 3.4.1. Son L.I. los conjuntos de las
2) L Π2 = ∅. La recta y el plano son partes 1, 2, 4 y 6. Parte 7: U es L.I. si, y solo
paralelos
T y no tienen puntos en común. si, a 6= 4 y a 6= −4. Parte 8: U es L.D.
3) L Π3 = L. La recta está contenida en el independientemente del valor de a (observar
plano. que la tercera columna es la suma de la
Ejercicio 3.2.6. 1) x + 2y + z = 3. 2) k = 4. primera más la segunda multiplicada por a).
Ejercicio 3.2.7. 1) Π1 −x + 2y + 3z = −1. Ejercicio 3.4.2. (2) Todos con excepción del
2) Π2 3x + y + z = 0. propio conjunto y del vacı́o. (3) No, no es
x = 0, 1 − 0, 1λ cierto.
3) y=λ Ejercicio 3.4.3. Son verdaderas solamente las
z = −0, 3 − 0, 7λ partes (1) y (3).
Ejercicio 3.2.8. Π es 2y + z = 4. Ejercicio 3.4.4. Son verdaderas solamente las
Ejercicio 3.2.9. Del (1) al (7) son planos partes (1) y (4). Si A es invertible son todas
(¿cuáles?). verdaderas.
Del (8) al (12) son semiespacios (¿cuáles?). Ejercicio 3.4.6. A y B son L.I. mientras que C
Del (13) al (15) son rectas (¿cuáles?). es L.D.
(16) es un semiplano. Ejercicio 3.4.7. Ambas verdaderas.
rg(C) = 2, ∀ a. Si α = 4, rg(G) = 1.
Si a = 1, rg(D) = 1. Si α = −4, rg(G) = 2.
Si a = −1, rg(D) = 2. En otro caso rg(G) = 3.
En otro caso rg(D) = 3. 0 1
Ejercicio 4.5.8. A = β
Si a = 0 o a = 1, rg(E) = 2. 0 0
En otro caso rg(E) = 3. −k −k 2
con β 6= 0 o A = α con α 6= 0.
Si a = 0 o a = 1 o a = −1, rg(F ) = 2. 1 k
En otro caso rg(F ) = 3.
Barbolla, Rosa. - Sanz, Paloma Álgebra lineal y teorı́a de matrices. Prentice Hall,
1998.
Strang, Gilbert. Algebra lineal y sus aplicaciones. Cengage Learning Editores, 2007.
Hill, Richard. Álgebra lineal elemental con aplicaciones. Prentice Hall, 1997.
219
220 ÍNDICE ALFABÉTICO