Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. Transformaciones lineales 57
2.0.3. Propiedades de las transformaciones lineales . . . . . . . . . . . . . . 67
2.0.4. Propiedades de TA : V → W . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.1. Dimensiones del núcleo y de la imagen . . . . . . . . . . . . . . . . . . . . . . 78
2.2. Transformaciones lineales de IRn hacia IRm . . . . . . . . . . . . . . . . . . . . 80
2.3. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.4. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.6. Diagonalización de matrices simétricas . . . . . . . . . . . . . . . . . . . . . 100
2.7. Formas cuadráticas, aplicación a las secciones
cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2.8. Formas cuadráticas: Aplicación a las superficies cuadricas . . . . . . . . . . 107
2.9. Trabajo Encargado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
1
Capı́tulo 1
Espacios vectoriales y
transformaciones lineales
1.1. Introducción
Hasta ahora hemos trabajado con matrices y n- úplas. Como consecuencia, podemos
afirmar que el conjunto IRn de todas las n- úplas (o matrices columnas de n elementos si
se prefiere), con las operaciones ya conocidas
x1 y1 x1 + y1 x1 λx1
x2 y2 x2 + y2 x2 λx2
.. + .. = .. y λ .. = ..
. . . . .
xn yn xn + yn xn λxn
1. x + y = y + x, (propiedad conmutativa)
3. x + 0 = 0 + x = x, (elemento neutro)
7. λ(βx) = (λβ)x,
8. 1 x = x
Estas mismas propiedades se cumplen cuando se trabaja con matrices. Existen otros
conjuntos diferentes de estos, como veremos posteriormente, que con respecto a unas ope-
raciones suma y producto por un escalar satisfacen las ocho propiedades anteriores.
2
Algebra lineal 3
2. u + v = v + u
3. (u + v) + w = u + (v + w)
7. λ(u + v) = λu + λv
8. (λ + β)u = λu + βu
9. λ(βu) = λβ(u)
10. 1u = u
Nota.
1. A los elementos de un espacio vectorial se les llama “vectores”. A partir de este momen-
to, entonces, la palabra “vector”no tendrá relación alguna con el concepto geométrico
de “flecha”, aunque se verá que sı́ existen de hecho algunos “espacios vectoriales de
flechas”.
1. 0 u = 0, ∀u ∈ V 2. (−1)v = −v, ∀v ∈ V
3. λ 0 = 0, ∀ λ ∈ IR 6. (−λ)(−v) = λ v, ∀ v ∈ V, ∀ λ ∈ IR
4. −(−)v = v, ∀u ∈ V 7. u + w = v + w ⇒ u = v, ∀ u, v, w ∈ V
Definimos en este conjunto las operaciones de suma y el producto por escalares como:
Este es el ejemplo más importante de espacio vectorial, pues en cierto sentido que se
precisará que muchos de los espacios vectoriales con los que se trabajará, son “equivalentes"
a este espacio vectorial.
Definimos en este conjunto las operaciones de suma y el producto por escalares como:
En éste conjunto se definen las operaciones de suma de vectores y producto por escalares
como se indica en cada uno de los siguientes incisos. Determine en cada caso si el conjunto
IR3 con tales operaciones es un espacio vectorial.
V = Pn = { p(x) = a0 + a1 x + · · · + an xn / a0 , a1 . . . , an ∈ IR }
p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn
Nota.
Ejemplo 1.6. El espacio IRm×n . Sea IRm×n es el conjunto de todas las matrices de orden
m × n, es decir:
1. 0 v = 0
2. λ0 = 0
3. Si λv = 0 ⇒ λ = 0 ∨ v = 0
1. Si λu = βu y u ̸= 0, entonces λ = β
2. Si λu = λv y λ ̸= 0, entonces u = v
1.3. Subespacios
Sea V un espacio vectorial y considérese un subconjunto W de V, W hereda de manera
natural, las operaciones de espacio vectorial que estaban definidas en V. Se tiene ası́, un
conjunto W en donde existen operaciones básicas de suma y producto por escalares.
Ejemplo 1.8. Sea V = IR2 el espacio vectorial. Sea W el subconjunto de IR2 formado por
todos aquellos vectores (x, y) que tiene su segunda componente positiva (geométricamente
W corresponde al semiplano superior del plano XY). Es decir,
Las operaciones entre los elementos de W son las que están definidas en IR2 , es decir
De hecho, existen muchas razones por las que la respuesta a esta pregunta es NO. En
principio, la operación de producto por escalares no es cerrada, pues si se toma el escalar
λ < 0, el vector λ(x, y) = (λ x, λ y) no pertenece a W, pues siendo y > 0, se tendrı́a λ y < 0.
Consecuencia de este hecho es que dado un vector (x, y) ∈ W, éste no tiene inverso aditivo.
Geométricamente esto se ve como muestra la figura
(O sea, W es el conjunto de los pares ordenados de la forma (x, 2x), x ∈ IR), se puede
ver que en este caso W si es un espacio vectorial con las operaciones usuales de IR2 . En
principio observemos que si u = (x1 , 2x1 ) y v = (x2 , 2x2 ) son dos vectores de W, entonces
u + v = (x1 + x2 , 2x1 + 2x2 ) = (x1 + x2 , 2[x1 + x2 ]) ∈ W. Similarmente
En muchos problemas, un espacio vectorial se compone de un subconjunto adecuado de
vectores de un espacio vectorial más grande. En este caso, solo se deben comprobar tres de
los 10 axiomas de un espacio vectorial, y el resto se satisfacen de manera automática.
Nota. Todo espacio vectorial V tiene al menos dos subespacios. El propio V es un subespa-
cio y el conjunto W = {0} que sólo consta del vector cero de V es otro subespacio denominado
subespacio cero, ambos subespacios son llamados los subespacios triviales. Si el espacio
contiene otros subespacios diferentes de los triviales, son llamados subespacios no tri-
viales.
Ejemplo 1.11. Sea V = IR2 , los subespacios no triviales de este espacio vectorial son cual-
quier recta que pasa por el origen, es decir:
W = { ta / t ∈ IR, a ̸= 0, a = (a1 , a2 ) } ⊂ V
Ejemplo 1.12. Sea V = IR3 , los subespacios no triviales de este espacio vectorial son cual-
quier recta que pasa por el origen y cualquier plano que pasa por el origen.
Ejemplo 1.13. En el espacio vectorial V = IR3 se considera el conjunto
W = {(x, y, z) ∈ IR3 / z = 0}
F es un subespacio de IR2×2
Ejemplo 1.17. El espacio vectorial IR2 no es un subespacio de IR3 , porque IR2 no es un sub-
conjunto de IR3 . (Todos los vectores de IR3 tienen tres componentes, mientras que los vectores
de IR2 tienen sólo dos). El conjunto
W = {(s, t, 0) / s, t ∈ IR}
Solución. El vector cero está en W, y W es cerrado bajo la suma de vectores y la multi-
plicación escalar debido a que estas operaciones sobre los vectores de W siempre producen
vectores cuyas terceras componentes son iguales a cero (, por lo tanto, pertenecen a W). Por
consiguiente, W es un subespacio de IR3 .
Ejemplo 1.18. Un plano en IR3 que no pasa por el origen no es un subespacio de IR3 , porque
el plano no contiene al vector cero de IR3 . Del mismo, una recta en el espacio vectorial IR2
que no pasa por el origen, como se ve en la Figura.1.1 no es un subespacio de IR2 .
Figura 1.1:
Solución. Si
u = ax1 + bx2
entonces
(4, −2, 5) = a(1, −1, 2) + b(2, 0, 1)
⇒ 4 = a + 2b
−2 = −a
5 = 2a + b
Puesto que este sistema lineal es incompatible, por lo tanto u no es combinación lineal de
los vectores x1 y x2 .
Ejemplo 1.20. El vector (14, 12, 2) ∈ IR3 es combinación lineal de los vectores (1, 2, −1) y
(3, 2, 1), puesto que:
(14, 12, 2) = 2(1, 2, −1) + 4(3, 2, 1)
[ ]
−3 −4
Ejemplo 1.21. El vector v = es combinación lineal de los vectores
2 −5
[ ] [ ]
1 0 3 2
v1 = y v2 =
2 −1 2 1
Puesto que se puede escribir v = 3v1 − 2v2 , como se puede verificar directamente.
Para demostrar que H es cerrado bajo la suma de vectores, tomemos dos vectores
arbitrarios de H, por ejemplo,
u = s1 v1 + s2 v2 y w = t1 v1 + t2 v2
u + w = (s1 v1 + s2 v2 ) + (t1 v1 + t2 v2 )
= (s1 + t1 ) v1 + (s2 + t2 ) v2
λ u = λ(s1 v1 + s2 v2 )
= (λs1 ) v1 + (λs2 ) v2
Luego veremos, que todo subespacio vectorial del espacio IR3 distinto de los subespacios
triviales, es Gen{v1 , v2 } para algunos vectores v1 y v2 que sean linealmente independientes
o Gen{v} para v ̸= 0. En el primer caso, el subespacio es un plano que pasa por el origen;
en el segundo caso caso, se trata de una recta que pasa por el origen (Véase la figura.1.2).
Es útil tener en mente estas imágenes geométricas, incluso para subespacios abstractos.
Figura 1.2:
Definición 1.4. Se llama envoltura lineal de los vectores x1 , x2 , . . . , xn del espacio vecto-
rial V, al conjunto de todas las combinaciones lineales de dichos vectores. La denotaremos
por
Env{x1 , x2 , . . . , xn }
Ejemplo 1.23. Obtener la envoltura lineal de los vectores x = (1, −1, 0) y y = (0, 1, 1) en
el espacio vectorial IR3 .
luego
Gen{ x, y} = {(a, b − a, b) ∈ IR3 / a, b ∈ IR }
Por ser G subespacio vectorial, también contiene a los vectores ai xi con ai ∈ IR, i =
1, 2, . . . , p. Y también a los vectores a1 x1 + a2 x2 + · · · + ap xp , que son justamente las
combinaciones lineales de los vectores x1 , x2 , . . . , xp
Definición 1.5. Sea W un subespacio vectorial de V. Se dice que {x1 , x2 , . . . , xp } es un
conjunto generador de W, si W = Gen{x1 , x2 , . . . , xp }
Ejemplo 1.24. Comprobar que el conjunto de vectores {e1 , e2 , e3 }, donde
2. Por otro lado, si v = (x, y, z) es cualquier vector arbitrario de IR3 , es evidente que
W = {(a + b, 2a + b, 0) / a, b ∈ IR}
Solución.
1. Notemos en primer lugar que cualquier vector de W se puede escribir como:
(a + b, 2a + b, 0) = a(1, 2, 0) + b(1, 1, 0) = ax + by
u = px + qy
= p(1, 2, 0) + q(1, 1, 0)
= (p + q, 2p + q, 0)
para algunos escalares p y q, con los que u está en W. Por lo tanto Gen{x, y} ⊂ W.
Ejemplo 1.27. Comprobar que el conjunto generador de polinomios {1, x, x2 } es un conjun-
to generador del subespacio W = P2 , subespacios de los polinomios con coeficientes reales
de grado menor o igual a 2.
Gen{x1 , x2 , . . . , xp } = Gen{x1 , x2 , . . . , xp , x}
En efecto
1. Es evidente que
Gen{x1 , x2 , . . . , xp } ⊂ Gen{x1 , x2 , . . . , xp , x}
pues
a1 x1 + a2 x2 + · · · + ap xp = a1 x1 + a2 x2 + · · · + ap xp + 0x
u = a1 x1 + a2 x2 + · · · + ap xp + ax
x = b1 x1 + b2 x2 + · · · + bp xp
con lo que
u = a1 x1 + a2 x2 + · · · + ap xp + ax
= a1 x1 + a2 x2 + · · · + ap xp + a(b1 x1 + b2 x2 + · · · + bp xp )
= (a1 + b1 )x1 + (a2 + b2 )x2 + · · · + (ap + bp )xp
Gen{x1 , x2 , . . . , xp , x} ⊂ Gen{x1 , x2 , . . . , xp }
entonces
Gen{x1 , x2 , . . . , xp } = Gen{x1 , x2 , . . . , xp , x}
Ejemplo 1.28. Si u y v son dos vectores de un espacio vectorial cualquiera, entonces las
envolturas lineales siguientes son iguales:
Gen{u, v, u + v} = Gen{u, v, 2u + v}
= Gen{u, v, 2u − v}
= Gen{u, v, u + v, 2u − v}
= Gen{u, v}
W1 ∩ W2 = {v ∈ V / v ∈ W1 ∧ v ∈ W2 }
W1 ∪ W2 = {v ∈ V / v ∈ W1 ∨ v ∈ W2 }
W1 + W2 = {v ∈ V / v = w1 + w2 , w1 ∈ W1 ∧ w2 ∈ W2 }
En efecto.
λ ∈ K ∧ u ∈ S ⇒ λ ∈ K ∧ u ∈ W1 ∧ u ∈ W2
⇒ λu ∈ W1 ∧ λu ∈ W2
⇒ λu ∈ S
Ejemplo 1.29. Sea V = IR3 el espacio vectorial, y consideremos los subespacios no triviales
W = W1 ∩ W2 = {(x, y, z) ∈ IR3 / x = 0 ∧ z = 0}
Esto significa que un vector genérico de W es una terna del tipo (0, y, 0) que puede expre-
sarse mediante (0, α, 0) para algún α ∈ IR.
Entonces
W = {(0, α, 0) ∈ IR3 / α ∈ IR}
o sea, W es el eje Y.
Unión de subespacios
El subespacio suma S = W1 + W2 está formado por todas las ternas del tipo
(α, β ′ + β ′′ , γ) = (α, β, γ)
2. En cambio, si
se tiene
S = W1 + W2 = {(α, β, 0) / α ∈ IR ∧ β ∈ IR}
O sea, la suma es directa y se identifica con el plano horizontal XY, es decir
Ejemplo 1.32. Hallar los vectores generadores del subespacio W de V = IR3 , donde
Solución. Sea w ∈ W, donde w = (x, y, z), este se satisface ası́ w = (x, 2z − x, z), entonces
Luego los vectores generadores del subespacio W = ⟨(1, −1, 0), (0, 2, 1)⟩
Ejemplo 1.33. Hallar los vectores generadores del subespacio U, si U ⊂ IR4 , donde
x = y + 3t, z = −2y − 3t
Luego para todo u ∈ U, tiene la forma u = (y + 3t, y, −2y − 3t, t), de donde
De manera que los vectores generadores del subespacio U = ⟨(1, 1, −2, 0), (3, 0, −3, 1)⟩
3r + s = x1
3r − s = x2
1 1
cuya solución es: r = (x1 + x2 ), s = (3x1 − 2x2 ).
5 5
1 1
Por lo tanto: x = r(2, 3) + s(1, −1) ⇐⇒ x = (x1 + x2 )(2, 3) + (1, −1).
5 5
Esto verifica que IR2 ⊂ W1 ⊕ W2 . Y con ella el ejercicio esta probado.
a1 x1 + a2 x2 + · · · + ap xp = 0
En caso contrario, es decir si la combinación lineal anterior no sólo ocurre con coefi-
cientes nulos, sino también con algún coeficiente no nulo, entonces se dice que los vectores
son linealmente dependiente (L. D.).
Ejemplo 1.35. El conjunto de vectores {(2, 1, 1), (1, 1, −3), (1, 0, 0)} de IR3 , es L. I. pues:
Ejemplo 1.36. Los vectores (1, −2) y (−2, 4) de IR2 son L. D., puesto que de la combinación
lineal
a1 (1, −2) + a2 (−2, 4) = (0, 0)
se tiene el sistema lineal homogéneo
{
a1 − 2a2 = 0
−2a1 + 4a2 = 0
M = {1 − x, 2 + x + 2x2 , 1 + x2 }
es L. I.
Solución. Supongamos que la combinación lineal nula
a1 (1 − x) + a2 (2 + x + 2x2 ) + a3 (1 + x2 ) = 0 = 0 + 0 x + 0 x2
son L. D.
En efecto. Escribamos el vector nulo de IR2×2 como combinación lineal de estos vectores, es
decir: [ ] [ ] [ ] [ ]
−1 16 2 3 −1 2 0 0
c1 + c2 + c3 =
−1 13 3 4 −2 1 0 0
Al realizar las operaciones indicadas se obtiene
[ ] [ ]
−c1 + 2c2 − c3 16c1 + 3c2 + 2c3 0 0
=
−4c1 + 3c2 − 2c3 13c1 + 4c2 + c3 0 0
En efecto. Supongamos que el vector u se escribe de dos formas diferentes como com-
binación de los vectores de M, es decir:
u = a1 x1 + a2 x2 + · · · + ap xp
u = b1 x1 + b2 x2 + · · · + bp xp
a1 − b1 = a2 − b2 = · · · = ap − bp = 0 ⇒ a1 = b1 , a2 = b2 , . . . , ap = bp
Teorema 1.10. Los n vectores u1 , u2 , . . . , un del espacio vectorial V son linealmente depen-
dientes si y sólo si al menos uno de ellos puede escribirse como combinación de los n − 1
vectores restantes.
En efecto.
c1 u1 + c2 u2 + · · · + cn un = 0 (1.1)
2. {u1 , u2 , . . . , un } es L. I.
Ejemplo 1.39. Dados los vectores e1 = (1, 0) y e2 = (0, 1) de IR2 , comprobar que {e1 , e2 } es
una base de IR2 .
Si u = (−1, 2), el conjunto {e1 , e2 , u}, es L. D. de IR2
Ejemplo 1.40. Probar que el conjunto de vectores {e1 , e2 , e3 , . . . , en } con e1 = (1, 0, 0, . . . , 0), e2 =
(0, 1, 0, . . . , 0), . . . , en = (0, 0, 0, . . . , 1) es una base de IRn .
Ejemplo 1.41. Sean v1 = (1, 2, 1), v2 = (2, 9, 0), v3 = (3, 3, 4). Demuéstrese que el conjunto
S = {v1 , v2 , v3 } es una base de IR3 .
Solución. Para demostrar que S es una base, se tiene que demostrar que primero que S es
L. I.
x + 2y + 3z = 0
2x + 9y + 3z = 0
x + 0y + 4z = 0
1 2 3
Pero la matriz de sus coeficientes es A = 2 9 3 . Puesto que D(A) = −1 ̸= 0, entonces
1 0 4
el sistema lineal homogéneo tiene solución única que es x = y = z = 0. Ası́ S es L. I..
x + 2y + 3z = λ1
2x + 9y + 3z = λ2
x + 0y + 4z = λ3
u = (x, y, z, w) = (x, y, z, x + y − z)
3. Descomponer
u = x(1, 0, 0, 1) + y(0, 1, 0, 1) + z(0, 0, 1, −1)
Los vectores {(1, 0, 0, 1), (0, 1, 0, 1)} y (0, 0, 1, −1) forman una base del subespacio W.
4. Luego el conjunto de vectores {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, −1)} es una base de W
v = α1 u1 + α2 u2 + . . . + αn un
1. Por hipótesis se tiene que {u1 , u2 , . . . , un } es una base de V. Por lo tanto {u1 , u2 , . . . , un }
genera al espacio vectorial V y son L. I.
Luego, si v ∈ V ⇒ ∃αi ∈ IR / v = α1 u1 + α2 u2 + . . . + αn un
3. Restar:
v = α1 u1 + α2 u2 + . . . + αn un
v = β1 u1 + β2 u2 + . . . + βn un
0 = (α1 − β1 )u1 + (α2 − β2 )u2 + . . . + (αn − βn )un
Este teorema nos dice que dos bases cualesquiera de un espacio vectorial V contienen el
mismo número de vectores.
Observación.
1. Si S = {u1 , u2 , . . . , ur } es un conjunto L. I. es un espacio vectorial V, entonces S es una
base para el subespacio W = Env(S).
3. Se considera al espacio vectorial cero como de dimensión finita, aún cuando no tiene
conjunto linealmente independientes, y como consecuencia, no tiene base.
Definición 1.8. La dimensión de un espacio vectorial de dimensión finita V se define
como el número de vectores en una base para el espacio vectorial V.
Observación. Además, por definición, el espacio vectorial cero tiene dimensión cero
Ejemplo 1.44. La base estándar para el espacio vectorial IRn contiene n−vectores, y es
β = {e1 , e2 , . . . , en }, ej = (0, 0, . . . , 1, . . . , 0)
Además notemos, cualquier otra base de este espacio contiene n−vectores.
Ejemplo 1.45. Determı́nese una base y la dimensión para el espacio de soluciones del
sistema lineal homogéneo
2x1 + 2x2 − x3 + x5 = 0
−x1 − x2 + 2x3 − 3x4 + x5 = 0
x1 + x2 − 2x3 − x5 = 0
x3 + x4 + x5 = 0
generan el espacio de soluciones de este sistema lineal homogéneo. Dado que estos vectores
son linealmente independientes, {v1 , v2 } es una base, y el espacio de soluciones es bidimen-
sional.
Definición 1.9. Un producto interior sobre un espacio vectorial V es una función que
asocia un número real ⟨ , ⟩ con cada par de vectores u, v ∈ V, es decir:
⟨ , ⟩ : V × V −→ IR, ⟨u, v⟩ ∈ IR
tales que satisfacen los siguientes axiomas, para todo los vectores u, v, w ∈ V y todo λ ∈ IR:
P.4. ⟨u, u⟩ ≥ 0
Nota. La condición P.1. establece que el producto interior es conmutativo o simétrico. Las
condiciones P.2. y P.3. indican que el producto interno es lineal en la primera componente;
mientras que las condiciones P.4. y P.5. manifiestan que el producto escalar de un vector
por si mismo siempre debe ser no negativo, pudiendo ser cero en cuestión cuando el vec-
tor es el vector nulo; esta propiedad se indica que el producto escalar es definido positivo.
3. ⟨u, 0⟩ = ⟨0, v⟩ = 0
(iv) Sea ⟨u, v⟩ para todo v de V. En particular cuando v = u, se tendrá que el producto
escalar ⟨u, u⟩ y por la condición P.5. del producto interno se deduce que u = 0.
Observación. Las propiedades (i) y (ii) que acabamos de comprobar indican que el pro-
ducto interno es una función lineal en la segunda componente. Podemos resumir estas pro-
piedades con las de la definición, diciendo que el producto interno es una forma bilineal
definida simétrica.
Ejemplo 1.46. Sean u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ) dos vectores del espacio
vectorial IRn , el producto vectorial euclidiano canónico
⟨u, v⟩ = u1 v1 + u2 v2 + · · · + un vn
Ejemplo 1.47. Si u = (u1 , u2 ) y v = (v1 , v2 ) dos vectores del espacio vectorial IR2 , entonces
la función
⟨u, v⟩ = 3u1 v1 + 2u2 v2
define un producto interior. A fin de verificarlo, nótese primero que si intercambian u con
v en esta ecuación, entonces el segundo miembro permanece inalterado. Por lo tanto,
Si w = (w1 , w2 ), entonces
A continuación
Por último,
⟨v, v⟩ = 3v1 v1 + 2v2 v2 = 3v21 + 2v22 ≥ 0
Además ⟨v, v⟩ = 3v21 + 2v22 = 0 ⇐⇒ v1 = 0 = v2 , es decir v = (0, 0). Por lo tanto, se satisface,
el cuarto axioma.
⟨U, V⟩ = u1 v1 + u2 v2 + u3 v3 + u4 v4
Por ejemplo, si [ ] [ ]
1 2 −1 0
U= y V=
3 4 3 2
entonces
⟨U, V⟩ = 1(−1) + 2(0) + 3(3) + 4(2) = 16
⟨p, q⟩ = a0 b0 + a1 b1 + a2 b2
en donde a y b son números reales fijos cualesquiera tales que a < b. Se demostrará que
(1.2) define un producto interior sobre el espacio vectorial V = Pn .
∫b ∫b
1. ⟨p, q⟩ = a p(x)q(x)dx = a q(x)p(x)dx = ⟨q, p⟩
lo cual prueba que se cumple el axioma 1.
Si u ̸= 0 y sean a = ⟨u, u⟩, b = 2⟨u, v⟩, c = ⟨v, v⟩ y t cualquier número real. Por el
axioma de positividad, el producto interior de cualquier vector por sı́ mismo siempre
es no negativo.
Por lo tanto,
Esta desigualdad implica que el polinomio cuadrático at2 + 2bt + c no tiene raı́ces
reales, o bien, tiene una raı́z repetida. Por lo tanto, su discriminante debe satisfacer
b2 − 4ac ≤ 0
Al expresar a, b y c en términos de u y v da
b2 − 4ac ≤ 0 ⇐⇒ 4⟨u, v⟩2 − 4⟨u, u⟩⟨v, v⟩ ≤ 0 ⇐⇒ ⟨u, v⟩2 ≤ ⟨u, u⟩⟨v, v⟩
Por lo tanto
⟨e1 , e1 ⟩ ⟨e1 , e2 ⟩ ⟨e1 , e3 ⟩ 2 1 −1
G = ⟨e2 , e1 ⟩ ⟨e2 , e2 ⟩ ⟨e2 , e3 ⟩ = 1 1 0
⟨e3 , e1 ⟩ ⟨e3 , e2 ⟩ ⟨e3 , e3 ⟩ −1 0 2
que es precisamente la matriz que hemos utilizado para definir el producto interno.
Teorema 1.16. Sea β una base del espacio vectorial euclı́deo V de dimensión n y supon-
gamos que G es la matriz de Gram del producto escalar respecto a dicha base, entonces:
Nota. Cuando una matriz G cumple la condición (iii) del teorema.1.16, se dice que es
definida positiva.
y √
d(u, v) = ||u − v|| = (u1 − v1 )2 + (u2 − v2 )2 + · · · + (un − vn )2
Ejemplo 1.57. Supóngase que el espacio vectorial IR2 tiene definido el producto interior
⟨x, x⟩ = x1 y1 + x2 y2 + x3 y3
Teorema 1.17. Sea V un espacio vectorial euclı́deo, entonces la norma ||v|| = ⟨v, v⟩1/2 y la
distancia d(u, v) = ||u − v|| satisfacen las siguientes propiedades:
En efecto.
Este teorema se conoce generalmente con el nombre de “Ley del Paralelogramo” debido
a que en el espacio euclı́deo IR2 con el producto escalar canónico (Ver Figura.1.3), esta
propiedad afirma
||v + u||2 = ⟨u + v, u + v⟩
= ⟨u, u⟩ + 2⟨u, v⟩ + ⟨v, v⟩
≤ ⟨u, u⟩ + 2|⟨u, v⟩| + ⟨v, v⟩
≤ ⟨u, u⟩ + 2||u|| ||v|| + ⟨v, v⟩
= ||u||2 + 2||u|| ||v|| + ||v||2 ⟩
= (||u|| + ||v||)2
es un vector normalizado.
Supóngase que los vectores u y v son vectores no nulos en un espacio vectorial euclı́deo.
La desigualdad de Cauchy- Schwartz, se puede escribir ası́:
( )2
⟨u, v⟩
⟨u, v⟩ ≤ ||v|| ||u|| ⇐⇒
2 2 2
≤1
||u||||v||
o, de modo equivalentemente,
⟨u, v⟩
−1 ≤ ≤1
||u||||v||
Como consecuencia de este resultado, existe un único ángulo θ tal que:
⟨u, v⟩
Cosθ = y 0≤θ≤π
||u||||v||
Ejemplo 1.60. Determine el coseno del ángulo θ entre los vectores con el producto interno
canónico
u = (4, 3, 1, −2) y v = (−2, 1, 2, 3)
Definición 1.12. En un espacio vectorial euclı́deo, se dice que dos vectores u y v son orto-
gonales si ⟨u, v⟩ = 0. Además, si u es ortogonal a cada vector en un conjunto W, se dice
que u es ortogonal a W.
Observación.
Ejemplo 1.61. Sea V = P2 [x] un espacio vectorial, con producto interior definido ası́:
∫1
⟨p(x), q(x)⟩ = p(x)q(x)dx
−1
Entonces
[∫ 1 ]1/2 [∫ 1 ]1/2 √
2
||p(x)|| = ⟨p(x), p(x)⟩ = x xdx = x2 dx =
−1 −1 3
[∫ 1 ]1/2 [∫ 1 ]1/2 √
2
||q(x)|| = ⟨q(x), q(x)⟩ = 2
x x dx 2
= 4
x dx =
−1 −1 5
[∫ 1 ]1/2 [∫ 1 ]1/2
⟨p(x), q(x)⟩ = x x2 dx = x3 dx =0
−1 −1
Debido a que ⟨p(x), q(x)⟩, los vectores p(x) = x y q(x) = x2 son ortogonales en relación con
el producto interior dado.
Teorema 1.19. (Teorema de Pitágoras generalizado) Si u y v son vectores ortogonales
en un espacio vectorial euclı́deo, entonces:
En efecto.
Sea conjunto ortogonal en el que cada vector tiene norma 1, se dice que es un conjunto
ortonormal.
Ejemplo 1.62. Sea V = IR3 un espacio vectorial con producto interior canónico y sean los
vectores ( ) ( )
1 1 1 1
v1 = (0, 1, 0), v2 = √ , 0, √ , v3 = √ , 0, − √
2 2 2 2
El conjunto S = {v1 , v2 , v3 } es ortonormal en IR , ya que:
3
y
||v1 || = ||v2 || = ||v3 || = 1
1
Probar que el conjunto {1, x, (3x2 − 1)} es ortogonal.
3
1
Solución. Definimos por p(x) = 1, q(x) = x y r(x) = (3x2 − 1). Entonces
3
∫1 [ 2 ]1
x
⟨p, q⟩ = xdx = = 0,
−1 2 −1
∫1
1 1[ 3 ]1
⟨p, r⟩ = (3x2 − 1)dx = x − x −1 = 0,
−1 3 3
∫1
1 1 [ 4 ]1 1 [ 2 ]1
⟨p, q⟩ = x (3x2 − 1)dx = x −1 − x −1 = 0
−1 3 4 6
u = k1 v1 + k2 v2 + · · · + kn vn
⟨u, vi ⟩ = ⟨k1 v1 + k2 v2 + · · · + kn vn , vi ⟩
= k1 ⟨v1 , vi ⟩ + k2 ⟨v2 , vi ⟩ + · · · + ki ⟨vi , vi ⟩ + · · · + kn ⟨vn , vi ⟩
ki = ⟨u, vi ⟩
( ) ( )
4 3 3 4
Ejemplo 1.64. Sea v1 = (0, 1, 0), v2 = − , 0, , v3 = , 0, . Es fácil de verificar
5 5 5 5
que β = {v1 , v2 , v3 } es una base ortonormal para el espacio vectorial IR3 , con el producto
interior euclidiano. Expresar el vector u = (1, 1, 1) como una combinación lineal de S.
0 = k1 v1 + k2 v2 + · · · + kn vn
⟨k1 v1 + k2 v2 + · · · + kn vn , vi ⟩ = ⟨0, vi ⟩ = 0
o de modo equivalentemente,
ki ⟨vi , vi ⟩ = 0 ⇒ ki = 0
De manera análoga se demuestra que todos los ki son iguales a cero, ası́ S es linealmente
independiente.
Ejemplo 1.65. En el espacio vectorial V = IR3 con el producto escalar canónico, se consi-
deran los vectores x = (2, 1, −3), u1 = (1, 1, 0), u2 = (−1, 1, 2) y u3 = (−1, 1, −1). Probar que
β = {u1 , u2 , u3 } es una base ortogonal y obtener Cβ (x).
Ahora determinemos las coordenadas del vector x, pero como β es una base ortogonal,
entonces ortonormalizamos, es decir, tenemos:
u1 1 u2 1 u3 1
v1 = = √ (1, 1, 0), v2 = = √ (−1, 1, 2), v3 = = √ (−1, 1, −1)
||u1 || 2 ||u2 || 6 ||u3 || 3
Luego el conjunto {v1 , v2 , v3 } es una base ortonormal, entonces
3
k1 = ⟨x, v1 ⟩ = √
2
7
k2 = ⟨x, v2 ⟩ = − √
6
2
k3 = ⟨x, v3 ⟩ = √
3
Las componentes del vector x respecto de la base β son
( )
3 7 2
Cβ [x] = √ , − √ , √
2 6 3
Ejemplo 1.66. El conjunto de vectores S = {v1 , v2 , v3 }, donde
( ) ( )
1 1 1 1
v1 = (0, 1, 0), v2 = √ , 0, √ , v3 = √ , 0, − √
2 2 2 2
es un conjunto ortonormal con respecto al producto euclidiano canónico en el espacio IR3 ,
por el teorema anterior, estos vectores forman un conjunto linealmente independiente. Por
lo tanto, S es una base ortonormal para IR3
Teorema 1.22. Sea V un espacio vectorial con producto interior y M = {v1 , v2 , . . . , vr }, r ≤
n un conjunto ortonormal de vectores en V. Si W denota el espacio generado por v1 , v2 , . . . , vr ,
entonces todo vector u ∈ V se puede expresar en la forma:
u = w1 + w2
En efecto Sea V cualquier espacio vectorial euclı́deo, diferente del espacio cero y de di-
mensión n, y supóngase que S = {u1 , u2 , . . . , un } es cualquier base para V. La sucesión
siguiente de pasos produce una base ortonormal {v1 , v2 , . . . , vn } para V
u1
Paso 1. Sea v1 = el vector v1 que tiene norma 1
||u1 ||
Paso 2. Para construir un vector v2 de norma 1 que sea ortogonal a v1 se calcula la componente
de u2 ortogonal al espacio W1 generado por v1 y, a continuación, se normaliza, es
decir:
u2 − ProyW1 u2 u2 − ⟨u2 , v1 ⟩v1
v2 = =
||u2 − ProyW1 u2 || ||u2 − ⟨u2 , v1 ⟩v1 ||
Por supuesto, si u2 − ⟨u2 , v1 ⟩v1 = 0, no se puede llevar a cabo la normalización. Pero
esto no puede suceder ya que entonces arriba se tendrı́a
⟨u2 , v1 ⟩
u2 = ⟨u2 , v1 ⟩v1 = u1
||v1 ||
Lo cual estarı́amos diciendo que v2 es un múltiplo de u1 , y contradice la independen-
cia lineal de la base S = {u1 , u2 , . . . , un }
Paso 3. Para construir un vector v3 de norma 1 que sea ortogonal tanto a v1 como a v2 , se
calcula la componente de u3 ortogonal al espacio W2 generado por los vectores v1 y v2 ,
y luego se normaliza, es decir:
u3 − ProyW2 u3 u3 − ⟨u3 , v1 ⟩v1 − ⟨u3 , v2 ⟩v2
v3 = =
||u3 − ProyW2 u3 || ||u3 − ⟨u3 , v1 ⟩v1 − ⟨u3 , v2 ⟩v2 ||
Como en el paso 2, la independencia lineal de {u1 , u2 , . . . , un } asegura que
La construcción paso a paso que acaba de darse, para convertir una base arbitraria
en una base ortonormal, se conoce como proceso de Gram- Schmidt.
Ejemplo 1.68. Considérese el espacio vectorial V = IR3 con el producto euclidiano inte-
rior. Aplı́quese el proceso de Gram- Schmidt para transformar la base u1 = (1, 1, 1), u2 =
(0, 1, 1), u3 = (0, 0, 1) en una base ortonormal.
Solución.
( )
u1 1, 1, 1
Paso 1. v1 = = √
||u1 || 3
Paso 2.
Por lo tanto,
( ) ( )
u2 − ProyW1 u2 3 2 1 1 2 1 1
v2 = =√ − , , = −√ , √ , √
||u2 − ProyW1 u2 || 6 3 3 3 6 6 6
Paso 3.
Por lo tanto,
( ) ( )
u3 − ProyW2 u3 √ 1 1 1 1
v3 = = 2 0, − , = 0, − √ , √
||u3 − ProyW2 u3 || 2 2 2 2
Por consiguiente,
( ) ( ) ( )
1, 1, 1 1 1 1 1
v1 = √ , v2 = 0, − , , v3 = 0, − √ , √
3 2 2 2 2
ya que el segundo miembro de esta ecuación es una combinación lineal de los vectores de
S, la independencia lineal de S implica que:
c1 − k1 = 0, c2 − k2 = 0, . . . , cn − kn = 0
es decir,
c1 = k1 , c2 = k2 , . . . , cn = kn
En resumen, se tiene el siguiente resultado:
v = c1 v1 + c2 v2 + · · · + cn vn
CS [v] = (c1 , c2 , . . . , cn )
La matriz de coordenadas de v relativa a S se denota CS [v] y es la matriz de IRn×1 definida
por
c1
c2
CS [v] = .
.
.
cn
Ejemplo 1.69. Sea β = {v1 , v2 , v3 } una base del espacio vectorial V = IR3 , donde v1 =
(1, 2, 1), v2 = (2, 9, 0) y v3 = (3, 3, 4)
como tenemos una igualdad, entonces igualamos las respectivas componentes, es de-
cir, se tiene el siguiente sistema lineal
x + 2y + 3z = 5
x= 1
2x + 9y + 3z = −1 ⇒ y = −1
x + 4z = 9 z= 2
Solución.
w = (−1)v1 + (3)v2 + (2)v3
w = (−1)(1, 2, 1) + (3)(2, 9, 0) + (2)(3, 3, 4)
w = (11, 31, 7)
β1 = {u1 , u2 } y β2 = {v1 , v2 }
las bases inicial y nueva, respectivamente. Se necesitan las matrices de coordenadas para
los vectores de la base inicial, con relación a la nueva base. Supóngase que son:
[ ] [ ]
a c
Cβ2 [u1 ] = y Cβ2 [u2 ] = (1.3)
b d
es decir,
v = k1 u1 + k2 u2 (1.6)
Para determinar las nuevas coordenadas de Cβ2 [v], se debe expresar v en términos de
la nueva base β2 , es decir hallar ¿Cβ2 [v]? Para hacerlo, se reemplaza (1.4) en (1.6), esto
conduce a
v = k1 u1 + k2 u2 = k1 (av1 + bv2 ) + k2 (cv1 + dv2 )
o bien
v = (k1 a + k2 c)v1 + (k1 b + k2 d)v2 )
Por lo tanto, la nueva matriz de coordenadas de v es
[ ]
k1 a + k2 c
Cβ2 [v] =
k1 b + k2 d
En esta ecuación se afirma que es posible obtener la nueva matriz de cambio de coordena-
das Cβ2 [v], multiplicándose la matriz de coordenadas inicial, Cβ1 [v] del primer miembro,
por la matriz [ ]
a c
P=
b d
cuyas columnas son las coordenadas de los vectores de la base inicial, con relación a la
nueva base (1.3). Ası́ entonces, se tiene la solución siguiente del problema del cambio de
base.
Solución del problema del cambio de base. Si se cambia la base para un espacio
vectorial V, de cierta base β1 = {u1 , u2 , . . . , un } hacia otra nueva base β2 = {v1 , v2 , . . . , vn }
entonces la matriz de coordenadas inicia, [v]β1 , de un vector v está relacionada con la nueva
matriz de coordenadas [v]β2 por medio de la ecuación
en donde las columnas de P son las matrices de coordenadas de los vectores de la base
inicial con respecto a la nueva base, es decir los vectores columnas de P son
Ejemplo 1.70. Sea S = {u1 = (1, 2, 1), u2 = (2, 9, 0), u3 = (3, 3, 4)} una base para el
espacio vectorial V = IR3
Solución.
v = c1 u1 + c2 u2 + c3 u3
c1 + 2c2 + 3c3 = 5
2c1 + 9c2 + 3c3 = −1
c1 + 4c3 = 9
Observación. Los vectores y las matrices de coordenadas dependen del orden en el que
se escriban los vectores de la base, un cambio de orden de los vectores base conduce a un
cambio correspondiente en el orden de los elementos de las matrices y los vectores de coor-
denadas.
Teorema 1.25. Si P es la matriz de cambio desde una base β1 hacia una base β2 entonces
1. P es inversible
Teorema 1.26. Si P es la matriz de cambio desde una base ortonormal hacia otra base
ortogonal, para un espacio vectorial con producto interior, entonces
P−1 = Pt
A = At
a) A es ortogonal
b) Los vectores filas de A forman un conjunto ortonormal en IRn , con el producto interior
euclidiano interior.
y
f1 .f2 = f1 .f3 = f2 .f3 = 0
de modo que los vectores filas de A forman un conjunto ortonormal en IR3 . Por lo tanto, A
es una matriz ortogonal y
1
√ 0 √1
2 2
A−1 = At = √12 0 − √12
0 1 0
1. El conjunto de todas las ternas de números reales (x, y, z) ∈ IR3 con las operaciones:
(x, y, z) + (x ′ , y ′ , z ′ ) = (x + x ′ , y + y ′ , z + z ′ )
λ(x, y, z) = (0, 0, 0)
2. El conjunto de todos los números reales x con las operaciones estándar de adición y
multiplicación.
5. Justifique que una recta que pasa por el origen de IR3 es un espacio vectorial bajo las
operaciones estándar sobre IR3
6. Dado el vector no nulo v = (a, b) y el vector v0 = (x0 , y0 ), demuestre que la recta que
pasa por v0 y es paralela a la recta en la que se encuentra v puede ser descrita de la
siguiente manera
9. Diga si cada uno de los siguientes subconjuntos del espacio vectorial IRn son subespa-
cios o no lo son:
a) A = {(x1 , x2 , . . . , xn ) ∈ IRn / x1 + x2 + · · · + xn = 0}
b) B = {(x1 , x2 , . . . , xn ) ∈ IRn / x1 = x2 = · · · = xn }
c) C = {(x1 , x2 , . . . , xn ) ∈ IRn / c1 x1 + c2 x2 + · · · + cn xn = 0}
d) D = {(x1 , x2 , . . . , xn ) ∈ IRn / x1 = x2 = 0}
e) E = {(x1 , x2 , . . . , xn ) ∈ IRn / x1 = 1}
f) F = {(x1 , x2 , . . . , xn ) ∈ IRn / x21 + x22 + · · · + x2n = 0}
12. Exprese los siguientes vectores como combinación lineal de los vectores de M, donde:
Si p1 (x) = 2+x+4x2 , p2 (x) = 1−x+3x2 , p3 (x) = 3+2x+5x2 ∧ M = {p1 (x), p2 (x), p3 (x)}
15. Halle una ecuación para el plano generado por los vectores u = (1, 1, −1) y v = (2, 3, 5)
a) L = ⟨(1, 2, −1)⟩
b) P = ⟨(1, 1, 0), (−3, 3, 0)⟩
c) M = ⟨(5, 1, 2), (6, 1, 3), (−1, 0, 1)⟩
P = {(x, y, z) / 2x − 3y + 5z = 0}
19. ¿Cuáles de los siguientes conjuntos en el espacio vectorial P2 [x] son L. I. o L. D.?
20. ¿Para cuáles valores de λ los vectores que siguen forman un conjunto L. D. en el
espacio vectorial IR3
( ) ( ) ( )
1 1 1 1 1 1
v1 = λ, − , − , v2 = − , λ, − , v1 = − , − , λ
2 2 2 2 2 2
25. ¿Cuáles de los siguientes conjuntos de vectores son bases para el espacio vectorial IR2
(a) A = {(2, 1), (3, 0)} (b) B = {(0, 0), (1, 3)} (c) C = {(3, 9), (−4, 12)}
26. ¿Cuáles de los siguientes conjuntos de vectores son bases para el espacio vectorial IR3
(a) A = {(1, 0, 0), (2, 2, 0), (3, 3, 3)} (b) B = {(3, 1, −4), (2, 5, 6), (1, 4, 8)}
(c) C = {(1, 6, 4), (2, 4, −1), (−1, 2, 5)}
27. ¿Cuáles de los siguientes conjuntos de vectores son bases para el espacio vectorial P2
28. Determine la dimensión del espacio de soluciones del sistema que se da y encuentre
una base para él
x1 + x2 − x3 = 0
x1 − 3x2 + x3 = 0
a) −2x1 − x2 + 2x3 = 0 a) 2x1 − 6x2 + 2x3 = 0
−x1 + x3 = 0 3x1 − 9x2 + 3x3 = 0
(a) El Plano: 3x − 2y + 5z = 0
(b) El Plano: x−y=0
x = 2t,
(c) La recta: y = −t, t ∈ IR
z = 4t
a) W1 = ⟨(1, 2, −1)⟩
b) W2 = ⟨(2, 1, 4), (3, −1, 0)⟩
33. Sea β = {v1 , v2 } una base del espacio vectorial IR2 , suponga que:
34. Sea β = {v1 , v2 , v3 } una base del espacio vectorial P2 [x], suponga que:
⟨p, q⟩ = a0 b0 + a1 b1 + a2 b2
37. Si u = (u1 , u2 ) y v = (v1 , v2 ) son vectores del espacio vectorial IR2 . Demuestre que las
siguientes expresiones son productos interiores sobre IR2
38. Sean u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) son vectores del espacio vectorial IR3 . Determine
cuáles de las expresiones siguientes son productos interiores sobre IR3 . Para los que no
lo sean, liste los axiomas que no se cumplen:
(a) ⟨u, v⟩ = u1 v1 + u3 v3 (b) ⟨u, v⟩ = u21 v21 + u22 v22 + u23 v22
(c) ⟨u, v⟩ = 2u1 v1 + u2 v2 + 4u3 v3 (d) ⟨u, v⟩ = u1 v1 − u2 v2 + u3 v3
39. Suponga que IR2 tiene el producto interior euclidiano. Aplique la desigualdad de
Cauchy - Schwartz a los vectores u = (a, b) y v = (Cosθ, Senθ) para demostrar
que se cumple: |aCosθ + bSenθ| ≤ a2 + b2
⟨u, v⟩ = c1 u1 v1 + c2 u2 v2 + c3 u3 v3
(a) p(x) = 1 − x + x2 + 5x3 q(x) = x − 3x3 (b) p(x) = x − 5x3 q(x) = 2 + 8x2
43. Si u = (u1 , u2 ) y v = (v1 , v2 ) son vectores del espacio vectorial IR2 con producto interior
dado:
⟨u, v⟩ = 3u1 v1 + 2u2 v2
Halle ||w||
44. Suponga que IR4 tiene el producto interior euclidiano. Halle dos vectores de norma 1
ortogonales a todos los vectores u = (2, 1, −4, 0), v = (−1, −1, 2, 2), w = (3, 2, 5, 4)
45. Sea V es un espacio vectorial con producto interior. Demuestre que si w es ortogonal
a u1 como u2 , entonces es ortogonal a k1 u1 + k2 u2 , para todos los escalares k1 , k2 ∈ IR
46. Sea V es un espacio vectorial con producto interior. Demuestre que si w es ortogonal
a cada uno de los vectores M = {u1 , u2 , . . . , ur }, entonces w es ortogonal a la combina-
ción lineal de los vectores de M.
47. Sea V = IR4 es un espacio vectorial con producto euclidiano interior. Aplique el pro-
ceso de Gram Schmidt para transformar la base β1 = {u1 , u2 , u3 , u4 } en una base
ortonormal.
48. Sea {v1 , v2 , v3 } una base ortonormal para un espacio vectorial V con producto interior.
Sea w un vector arbitrario de V, entonces demostrar que:
50.
[2 Puntos]
2. Determinar cuáles de los siguientes conjuntos son subespacios del espacio vectorial
V = P2 [x]
[3 Puntos]
[3 Puntos]
[4 Puntos]
5. Sea β = {v1 , v2 , v3 } una base del espacio vectorial P2 [x], suponga que:
Cβ [1 + x] = (2, 1, 0) Cβ [2 − x + x2 ] = (1, 1, 1), Cβ [x − x2 ] = (−1, 3, 2)
Determine los vectores de la base β
[3 Puntos]
[2 Puntos]
7. Sea {v1 , v2 , v3 } una base ortonormal para un espacio vectorial V con producto interior.
Sea w un vector arbitrario de V, entonces demostrar que:
||w||2 = ⟨w, v1 ⟩2 + ⟨w, v2 ⟩2 + ⟨w, v3 ⟩2
[3 Puntos]
Transformaciones lineales
Introducción
Hemos dedicado bastante tiempo trabajando con espacios vectoriales, en particular con
el espacio vectorial IRn , es el momento de pasar a las relaciones entre dos espacios vectoria-
les.
Por lo general, las relaciones entre dos conjuntos X e Y se estudian mediante funcio-
nes. Ya conocemos, la noción de función o transformación f : X → Y que transforma el
conjunto X en el conjunto Y. Además las funciones reales son bien conocidas por los estu-
diantes. Por ejemplo, las funciones trigonométricas Senx y Cosx, o la función exponencial
ex son funciones de las que se conocen sus propiedades. Estas funciones hacen corresponder
a un número real otro número real mediante una “regla” preestablecida. También posible-
mente sean conocidas las funciones de dos o más variables, como por ejemplo la función
f(x, y) = x2 + y2 , definida en IR2 y con valores en IR. Podemos recordar también funciones
complejas eix o la función módulo de un número complejo. En los ejemplos anteriores siem-
pre se obtiene, con la aplicación de la regla, un número real (o compleja) llamado imagen.
Cuando la imagen no es un número real o compleja a las funciones se les denomina apli-
caciones. Veamos algunos ejemplos de aplicaciones definidas en IR2 .
Sean V y W dos espacios vectoriales. En este capı́tulo se trata de cierto tipo de aplica-
ciones
T :V→W
Tanto V y W están dotados de una estructura algebraica resultante de las operaciones de
suma vectorial y multiplicación por un escalar. Trabajaremos con aplicaciones T : V → W
que, en cierto modo, preservan esta estructura algebraica. Estas aplicaciones se conocen co-
mo transformaciones lineales. En la sección 1 definimos las transformaciones lineales que
transforman un espacio vectorial en otro, daremos varios ejemplos y estableceremos algu-
nas propiedades elementales de las transformaciones lineales. En las secciones siguientes
se tratan de transformaciones lineales y su relación con los conceptos matriciales que he-
mos estudiado.
57
CAPÍTULO 2. TRANSFORMACIONES LINEALES 58
Definición 2.1. Sean V y W dos espacios vectoriales sobre IR. Una transformación li-
neal T de V en W es una aplicación que asigna a cada vector v ∈ V un único vector w ∈ W
y que satisface, para cualquier par de vectores u, v y todo escalar λ ∈ IR, dos condiciones:
Ejemplo 2.1. Determinar si la siguiente función h : IR → IR, donde h(x) = Senx, es una
transformación lineal.
El siguiente ejemplo describe todas las transformaciones lineales T : IR → IR, que como
se puede ver son todas funciones sencillas.
En efecto.
T (x + y) = a(x + y)
= ax + ay
= T (x) + T (y)
Sean ∀ x ∈ IR, ∀ λ ∈ IR
T (λx) = a(λx)
= λ(ax)
= λT (x)
Ejemplo 2.3. Consideremos en IR2 la proyección ortogonal sobre el eje de abscisas (ver
Figura.2.1) que representa una aplicación P : IR2 → IR definida por P(x, y) = x es una
transformación lineal. Esquemáticamente lo representamos por:
P : IR2 −→ IR
(x, y) −→ P(x, y) = x
Ejemplo 2.4. Demostrar que la función Pxi : IRn → IR definida por Pxi (x1 , x2 , . . . , xn ) = xi es
una transformación lineal.
Ejemplo 2.6. Consideremos la aplicación de IR2 que a cada vector le hace corresponder
el simétrico respecto del eje horizontal (ver Figura.2.2). Si u = (x, y) ∈ IR2 , la simetrı́a
respecto de este eje se puede escribir como
Sx : IR2 −→ IR2
(x, y) −→ Sx (x, y) = (x, −y)
Sx (x + y) = Sx (x1 + x2 , y1 + y2 )
= (x1 + x2 , −[y1 + y2 ])
= (x1 , −y1 ) + (x2 , −y2 )
= Sx (x) + Sx (y)
Ejemplo 2.7. Sea V cualquier espacio vectorial y k ∈ IR cualquier escalar fijo. La aplica-
ción definida de un espacio vectorial en si mismo, es decir, si:
T (u) = ku
Geométricamente, una dilatación “estira” cada vector que está en V en un factor k, mientras
que una contracción de V “comprime” cada vector en un factor de k.
Nota. En la siguiente sección mostraremos que esta transformación lineal, es del tipo
más general en espacios vectoriales de IRn en IRm
Ejemplo 2.9. Rotación del plano Demostrar que la aplicación Tθ : IR2 → IR2 al rotar
el plano en el sentido al que giran las manecillas del reloj un ángulo positivo θ, es una
transformación lineal.
Como caso especial del ejemplo anterior, sea θ un ángulo fijo, supóngase que Tθ : IR2 → IR2
es la multiplicación por la matriz
[ ]
Cosθ −Senθ
A=
Senθ Cosθ
si v es el vector [ ]
x
v=
y
entonces [ ][ ] [ ]
Cosθ −Senθ x xCosθ − ySenθ
Tθ (v) = Av = =
Senθ Cosθ y xSenθ + yCosθ
Geométricamente, Tθ (v) es el vector que se obtiene si se hace girar v hasta describir un
ángulo θ. A fin de comprobarlo, sea ϕ el ángulo entre v y el eje X positivo y supóngase que
[ ]
′
x
v′ =
y′
es el vector que se obtiene al girar v hasta que describe un ángulo θ. Se demostrará que
v ′ = Tθ (v). Si r denota la longitud del vector v, entonces
x = rCosϕ, y = rSenϕ
De modo semejante, supuesto que v ′ tiene la misma longitud que v, se tiene
x ′ = rCos(ϕ + θ), y ′ = rSen(ϕ + θ)
Por lo tanto,
[ ] [ ]
′
x rCos(ϕ + θ)
v′ = =
y′ rSen(ϕ + θ)
[ ] [ ]
rCosϕCosθ − rSenθSenϕ rCosθCosϕ − rSenθSenϕ
= =
rCosϕSenθ + rCosθSenϕ rSenθCosϕ + rCosθSenϕ
[ ] [ ][ ]
xCosθ − ySenθ Cosθ −Senθ x
= =
xSenθ + yCosθ Senθ Cosθ y
La transformación lineal de este ejemplo se conoce como rotación de IR2 hasta describir el
ángulo θ. Ver Figura
Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) vectores arbitrarios del espacio vectorial IR3 , tal
que u + v = (x1 + x2 , y1 + y2 , z1 + z2 ), entonces
T (u + v) = T (x1 + x2 , y1 + y2 , z1 + z2 )
= (x1 + x2 − 2(y1 + y2 ), y1 + y2 + 3(z1 + z2 ))
= (x1 − 2y1 , y1 + 3z1 ) + (x2 − 2y2 , y2 + 3z2 )
= T (u) + T (v)
Cumple la linealidad
Ejemplo 2.11. Sea D el espacio vectorial de las funciones derivables definidas en IR.
Sea F el espacio vectorial de todas las funciones definidas en IR. Se define la aplicación
D : D −→ F tal que a la función derivable h le hace corresponder su derivada, es decir
D(h(x) = h ′ (x), para todo x ∈ R. Demostrar que D es una transformación lineal.
D[λg(x)] = (λg(x)) ′
= λg ′ (x)
= λD[g(x)]
Ejemplo 2.12. Sea V un espacio vectorial real y β = {u1 , u2 , . . . , un } una base de V. Probar
que la aplicación T : V −→ IRn definida por
T (x) = Cβ [x]
entonces
x + y = (x1 u + x2 u2 + · · · + xn un ) + (y1 u + y2 u2 + · · · + yn un )
= (x1 + y1 )u + (x2 + y2 )u2 + · · · + (xn + yn )un
con lo que
T (x + y) = Cβ [x + y]
x1 + y1 x1 y1
x2 + y2 x2 y2
= .. = .. + ..
. . .
xn + yn xn yn
= Cβ [x] + Cβ [y]
= T (x) + T (y)
λx = λ(x1 u + x2 u2 + · · · + xn un )
= λx1 u + λx2 u2 + · · · + λxn un ,
luego
T (λx) = Cβ [λx]
λx1 x1
λx2 x2
= . = λ ..
.
. .
λxn xn
= λCβ [x]
= λT (x)
S = {w1 , w2 , . . . , wr }
como una base ortonormal, tal que T : V → W es la función que aplica sobre un vector v en
V hacia su proyección ortogonal sobre W, es decir
Ejemplo 2.14. Como caso especial del ejemplo anterior, supóngase que V = IR3 tiene el
producto interior euclidiano. Los vectores w1 = (1, 0, 0) y w2 = (0, 1, 0) forman una base
ortonormal para el plano P : z = 0. Por lo tanto, si v = (x, y, z) es cualquier vector de IR3 ,
la proyección ortogonal de IR3 sobre el plano P : z = 0 está dado por:
En efecto.
T (u + v) = 0W
= 0W + 0W
= T (u) + T (v)
T (λu) = 0W
= λ(0W )
= λT (u)
T (x, y, z) = (x + y, z)
2. T (u)
Solución.
1. De la definición de T se tiene
T (u) = T (2v1 − v2 + v3 )
= 2T (v1 ) − T (v2 ) + T (v3 )
= 2(1, 0) − (2, −1) + (1, 1)
= (1, 2)
Este conjunto es linealmente dependiente ya que está formado por tres vectores de IR2 .
Obsérvese que el conjunto inicial {v1 , v2 , v3 } es linealmente independiente.
Ejemplo 2.17. Sea V = C[0, 1] el espacio vectorial de todas las funciones con valor real
continuas sobre el intervalo 0 ≤ x ≤ 1 y supóngase que W es el subespacio de C[0, 1]
que consta de todas las funciones con primeras derivadas continuas sobre el intervalo
0 ≤ x ≤ 1. Es decir, W = C ′ [0, 1]
D(f) = f ′
y
D(λ f) = λ D(f)
Por lo tanto, D es una transformación lineal.
En general si V = C[a, b] el espacio vectorial de todas las funciones con valor real
continuas sobre el intervalo a ≤ x ≤ b y W = C ′ [a, b] el subespacio de las funciones con
primera derivada continua, entonces la función derivada D es una transformación lineal.
Ejemplo 2.18. Sea V = C[a, b] el espacio vectorial de todas las funciones con valor real
continuas sobre el intervalo a ≤ x ≤ b y supóngase que se define la función J : C[a, b] → IR
por medio del operador ∫ b
J(f) = f(x)dx
a
Dado que:
∫b ∫b ∫b
J(f + g) = [f(x) + g(x)]dx = f(x)dx + g(x)dx = J(f) + J(g)
a a a
y ∫b ∫b
J(λ f) = λf(x)dx = λ f(x)dx = λJ(f)
a a
Se deduce que, el operador integral definida J es una transformación lineal.
Teorema 2.1. Sean V y W dos espacios vectoriales sobre IR, sea T : V → W una transfor-
mación lineal entonces:
λT (x) = T (λx)
y λT (x) ∈ S, Ası́, λx también esta en T −1 (S). Esto demuestra que T −1 (S) también es
cerrado bajo la suma y multiplicación escalar, de modo que el conjunto T −1 (S) es un
subespacio de V.
Hay dos casos particulares del teorema.2.2 que son básicos para el estudio de las trans-
formaciones lineales.
2.0.4. Propiedades de TA : V → W
1. La imagen de TA es el espacio columna
Ejemplo 2.23. Hallar la imagen de la transformación lineal T : IR3 → IR2 definida por
T (x, y, z) = (x − 2y, y + 3z)
Solución. Debemos hallar el conjunto de todos los T (v) para v ∈ IR3 . Escribiendo los vec-
tores como vectores columnas, debemos hallar todos los vectores de la forma
x ( ) ( ) ( ) ( )
x − 2y 1 −2 0
T y = =x +y +z
y + 3z 0 1 3
z
Determine explı́citamente su nucleo y su imagen (Hallar, una base para cada subespacio)
Solución.
Por definición
Éste es un sistema lineal homogéneo en las incógnitas cuyo espacio solución es preci-
samente Ker(T ), entonces
1 2 1 0 1 0 −1 0
3 1 −2 0 ∼ 0 1 1 0
−1 −7 6 0 0 0 0 0
El vector v = (1, −1, 1) es entonces una base para el subespacio vectorial Ker(T ), que
geométricamente representa una recta que pasa por el origen y sigue la dirección del
vector v.
El vector b = (b1 , b2 , b3 ) ∈ Im(T ) si, y sólo si existe (x, y, z) ∈ IR3 , tal que T (x, y, z) =
(b1 , b2 , b3 ), es decir
x + 2y + z = b1
3x + y − 2z = b2
−x − 7y + 6z = b
3
Procédase por operaciones elementales, para que el sistema lineal no homogéneo ten-
ga solución, entonces
1 2 1 b1 1 0 −1 − 15 b1 + 25 b2
3 1 −2 b2 ∼ 0 1 1 35 b1 − 15 b2
4 1 1
−1 −7 6 b3 0 0 0 − 5 b1 + 5 b2 − 5 b3
Una base de este subespaciose puede obtener si se escribe (x, y, z) ∈ Im(T ) como
los vectores v1 = (1, 4, 0) y v2 = (0, 1, 1) constituyen una base del subespacio Im(T ).
Recordemos que:
• T es un monomorfismo ⇐⇒ T es inyectiva
• T es un epimorfismo ⇐⇒ T es sobreyectiva
• T es un isomorfismo ⇐⇒ T es biyectiva
Ejemplo 2.25. Sea el operador lineal en el espacio vectorial IR3 , definido por
T es inyectiva?
Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ), tales que:
luego
T es sobreyectiva?
Ası́ T es biyectiva.
T es inyectiva ⇐⇒ T (u) = 0W ⇒ u = 0V
En efecto.
Supongamos que
T (u) = 0W ⇒ u = 0W
y supongamos que
T (u) = T (v) ⇒ T (u) − T (v) = 0W ⇒ T (u − v) = 0W ⇒ u − v = 0W ⇒ u = v
¿T es inyectiva?
Solución. T es inyectiva si T (u) = 0W ⇒ u = 0W
[ ] ([ ])
a11 a12 a11 a12
u ∈ IR2×2 , u = ⇒ T = (0, 0)
a21 a22 a21 a22
{
a11 + a22 = 0,
(a11 + a22 , a21 ) = (0, 0) ⇒
a21 = 0
⇒ a11 = −a22 ∧ a21 = 0
T (x, y) = (x + y, x − y, x + 2y).
Determine Im(T )
Solución
Im(T ) = {(x, y, z) ∈ IR3 / ∃ (a, b)IR2 ∧ T (a, b) = (x, y, z)}
entonces
T (a, b) = (x, y, z) ⇒ (a + b, a − b, a + 2b) = (x, y, z) por igualdad de vectores se tiene:
{ {
a+b=x
2a = x + y a = x+y
a−b=y ⇒ ⇒ 2
a + 2b = z 3a = 2y + z a = 2y+z
3
x+y 2y + z
⇒ = ⇒ 3x + 3y = 4y + 2z ⇒ 3x − y − 2z = 0
2 3
∴ Im(T ) = {(x, y, z) ∈ IR3 / 3x − y − 2z = 0}
Geométricamente este subespacio es un plano en el espacio vectorial IR3 con vector normal
n = (3, −1, −2).
En efecto.
1.
λ1 v1 + λ2 v2 + · · · + λi vi + · · · + λn vn = 0V
T (λ1 v1 + λ2 v2 + · · · + λi vi + · · · + λn vn ) = T (0V ) = 0W
λ1 T (v1 ) + λ2 T (v2 ) + · · · + λi T (vi ) + · · · + λn T (vn ) = 0W
λ1 = λ2 = · · · = λn = 0
pues los vectores {v1 , v2 , . . . , vn } son L. I., por lo tanto los vectores {T (v1 ), T (v2 ), . . . , T (vn )}
son L. I.
Ejemplo 2.30. Sea T : IR2 → IR2 una transformación lineal, probar que T es inyectiva
⇐⇒ T (1, 0) y T (0, 1) es linealmente independiente
En efecto
v = λ1 v1 + λ2 v2 + · · · + λn vn
En pocas palabras, una transformación lineal está completamente determinada por sus
“valores” en una base.
Solución. Expresemos el vector v = (2, −3, 5) como combinación lineal de los vectores
de la base β = {v1 , v2 , v3 }. Por lo tanto,
λ1 + λ2 + λ3 = 2
λ1 + λ2 = −3
λ1 = 5
entonces,
El siguiente teorema que sigue establece una relación entre el rango y la nulidad de
una transformación lineal definida sobre un espacio vectorial de dimension finita.
dim(Im(T )) + dim(Ker(T )) = n
Solución
entonces
Luego Ker(T ) = ⟨(−6, −4, 1, 0), (−6, −3, 0, 1)⟩ de donde una base de Ker(T ) es
de donde dim[Ker(T )] = 2
Calculando Im(T )
entonces
Im(T ) = { (x, y, z) ∈ R3 / P : x + y = z}
Ahora calculemos una base para el subespacio Im(T ) ⊂ IR3 , z = x + y, entonces
Luego Im(T ) = ⟨(1, 0, 1), (0, 1, 1)⟩ de donde una base para Im(T ) es el conjunto de
vectores {(1, 0, 1), (0, 1, 1)} ⇒ dim[Im(T )] = 2
Ejemplo 2.33. Sea T : IR3 → IR2 una transformación lineal de tal manera que a los elemen-
tos de la base β = {v1 = (1, 1, 0), v2 = (1, 2, 1), v3 = (0, 1, 3)} de IR3 le hace corresponder los
vectores w1 = (1, 3), w2 = (5, 1), w3 = (0, 1) respectivamente.
Solución.
A) Como β es una base de IR3 y sea (x, y, z) un vector arbitrario de IR3 , expresemos como
combinación lineal de los elementos de la base, es decir
5x − 3y + z 3y − z − 3x x−y+z
(x, y, z) = (1, 1, 0) + (1, 2, 1) + (0, 1, 3)
2 2 2
como T (1, 1, 0) = (1, 3), T (1, 2, 1) = (5, 1), T (0, 1, 3) = (0, 1) como T es una transforma-
ción lineal, tenemos
5x − 3y + z 3y − z − 3x x−y+z
T (x, y, z) = T (1, 1, 0) + T (1, 2, 1) + T (0, 1, 3)
2 2 2
5x − 3y + z 3y − z − 3x x−y+z
= (1, 3) + (5, 1) + (0, 1)
( 2 2 ) 2
13x − 7y + 3z
= 6y − 5x − 2z,
2
( )
61
B) Calculando T (3, −1, 5) = −31, y
2
entonces
( )
13x − 7y + 3z
T (x, y, z) = (0, 0) ⇐⇒ 6y − 5x − 2z, = (0, 0)
2
por igualdad de vectores tenemos
{ ( ) ( )
x=−4z 4 11 4 11
6y − 5x − 2z = 0
⇒ 43 ⇒ (x, y, z) = z, − z, z = z ,− ,1
13x − 7y + 3z = 0
y= z
11 43 43 43 43
43
Luego el núcleo esta generado por el vector
⟨( )⟩
4 11
Ker(T ) = − , ,1 = ⟨(−4, 11, 43)⟩
43 43
Primero se demuestra que toda T ∈ L(IRn , IRm ) es una transformación matricial. Más
concretamente, se demuestra que si T : IRn → IRm es una transformación lineal arbitraria,
entonces es posible encontrar una matriz A ∈ IRm×n tal que T es la multiplicación por A. A
fin de verificarlo, sea
β = {e1 , e2 , . . . , en }
la base canónica de IRn y supóngase que A es la matriz de IRm×n que tiene a
entonces
([ ]) [ ] ([ ]) [ ]
1 1 0 2
T (e1 ) = T = y T (e2 ) = T =
0 1 1 −1
entonces [ ]
1 2
A= = [ T (e1 ) | T (e2 ) ]
1 −1
De modo más general, si
a11 a12 a1n
a21 a22 a2n
T (e1 ) = .. , T (e2 ) = .. , . . . , T (en ) = ..
. . .
am1 am2 amn
entonces
a11 a12 . . . a1n
a21 a22 . . . a2n
A = [ T (e1 ) | T (e2 ) | . . . |T (en ) ] = .. .. .. (2.2)
. . .
am1 am2 . . . amn
Se demostrará que la transformación lineal T : IRn → IRm es la multiplicación por la
matriz A. Para verificarlo, observemos primero que
x1
x2
x = . = x1 e1 + x2 e2 + · · · + xn en
..
xn
Por lo tanto por la linealidad de T , tenemos:
Al comparar esta última ecuación se llega a T (x) = Ax, es decir, T es la multiplicación por
A.
Ejemplo 2.34. Hállese la matriz estándar para la transformación lineal T : IR3 → IR4
definida por
x+y
x
x − y
T y =
z
z
x
Solución. Hallemos la imagen de los vectores de la base canónica del espacio vectorial IR3 ,
es decir:
1 1 0
1 1 0 −1 0 0
T (e1 ) = T 0 = , T (e2 ) = T 1 = , T (e3 ) = T 0 =
0 0 1
0 0 1
1 0 0
entonces utilizando a T (e1 ), T (e2 ) y T (e3 ) como vectores columnas, se obtiene la matriz
estándar de T ,
1 1 0
1 −1 0
A=
0 0 1
1 0 0
Como una verificación, obsérvese que
x+y
x
x−y
A y =
z
z
x
Ejemplo 2.35. Sea T : IR2 → IR2 la transformación lineal que aplica cada vector en su
imagen simétrica respecto al eje Y. Hállese la matriz estándar para T
Solución
([ ]) [ ] ([ ]) [ ]
1 −1 0 0
T (e1 ) = T = , T (e2 ) = T =
0 0 1 1
utilizando a T (e1 ) y T (e2 ) como vectores columna, se obtiene la matriz estándar
[ ]
−1 0
A=
0 1
Ahora se enfoca la atención sobre cinco tipos de transformaciones lineales planas que
tienen importancia especial: rotaciones, reflexiones, expansiones y deslizamientos cortan-
tes.
Rotaciones. Si T : IR2 → IR2 hace girar cada punto en el plano alrededor del origen,
hasta describir un ángulo θ, entonces sabemos que la matriz estándar de T es
[ ]
Cosθ −Senθ
Senθ Cosθ
Reflexiones. Una reflexión respecto a una recta L que pasa por el origen, es una
transformación que aplica cada punto del plano en su imagen como un espejo, res-
pecto de la recta L. Se puede demostrar que las reflexiones son transformaciones li-
neales. Los casos más importantes son las reflexiones respecto a los ejes coordenados y
respecto a la recta L : y = x. Siguiendo el ejemplo(2.35), entonces se puede demostrar
que las matrices estándar para estas transformaciones son:
[ ]
−1 0
• Reflexión respecto al eje Y es
0 1
[ ]
1 0
• Reflexión respecto al eje X es
0 −1
[ ]
−3/5 4/5
• Reflexión respecto a la recta L : y = 2x es
4/5 3/5
L: y = 2x
w y
v
x
Si T : IR2 → IR2 es una expansión o comprensión en la dirección del eje X, con el factor
k, entonces
([ ]) [ ] ([ ]) [ ]
1 k 0 0
T (e1 ) = T = , T (e2 ) = T =
0 0 1 1
Deslizamientos cortantes
Si se efectúan una sucesión finita de transformaciones de IRn hacia IRn , entonces es po-
sible obtener el mismo resultado, mediante una sola transformación matricial, veamos el
siguiente ejemplo.
Ejemplo 2.36. Supóngase que se hace girar el plano hasta que describe un ángulo θ y, a
continuación, se sujeta a un deslizamiento cortante en un factor k en la dirección del eje X.
Encuéntrese una sola transformación matricial que produzca el mismo efecto que el de las
dos transformaciones sucesivas.
Solución.
Bajo la rotación de un ángulo θ, el punto (x, y) se transforma en el punto (x ′ , y ′ ), cuya
transformación esta dado por
[ ] [ ][ ]
x′ Cosθ −Senθ x
′ = (2.4)
y Senθ Cosθ y
o equivalentemente,
[ ] [ ][ ]
x ′′ Cosθ + k Senθ −Senθ + k Cosθ x
=
y ′′ Senθ Cosθ y
Por lo tanto, la rotación seguida por el deslizamiento cortante se pueden efectuar por medio
de la transformación matricial con matriz
[ ][ ]
Cosθ + k Senθ −Senθ + k Cosθ x
Senθ Cosθ y
b) Hállese una transformación matricial de IR2 hacia IR2 que primero realice una refle-
xión respecto a la recta L : y = x, y a continuación lleve a cabo un deslizamiento
cortante en un factor de 2 en la dirección del eje X.
Solución.
a) La matriz estándar para el deslizamiento cortante es
[ ]
1 2
A1 =
0 1
y para la reflexión es [ ]
0 1
A2 =
1 0
de modo que la matriz estándar para el deslizamiento cortante seguido por la refle-
xión es: [ ][ ] [ ]
0 1 1 2 0 1
A2 A1 = =
1 0 0 1 1 2
Observaciones.
1. El autovector v asociado a un valor propio λ no es único, ya que si T (v) = λv y para
α ̸= 0 el vector w = αv también es un vector propio asociado a λ.
restando tenemos:
T (v) − T (v) = T (0) = (α − β)v
en consecuencia, tenemos que, α = β pues v ̸= 0.
La ecuación (2.8) que sirve para definir los valores propios y vectores propios se puede
escribir como:
(λI − A)v = 0, (2.9)
con lo que los vectores propios, si existen, son los vectores no nulos solución del sistema
lineal homogéneo
(λI − A)x = 0
Sabemos que este sistema tiene soluciones distintas de la trivial si y sólo si, la matriz λI−A
no es inversible, o equivalentemente si
Det(λI − A) = 0 (2.10)
Ası́ pues, los valores propios de la matriz A, son todos los escalares λ que verifican la
ecuación (2.10). Esta observación induce la siguiente definición.
2. Nótese que los valores propios de T son las raı́ces del polinomio caracterı́sticos. Además
estas raı́ces son números reales o números complejos. Los valores propios pueden ser
repetidos, con lo que podemos dar la siguiente definición.
Ejemplo 2.41. Calcular los valores propios y vectores propios del operador
λ1 = −2 de multiplicidad algebraica 1
λ2 = 1 de multiplicidad algebraica 2
Si λ2 = 1 entonces v2 = (0, 1, 0)
Nota. En este último ejemplo, vimos que las soluciones del sistema lineal homogéneo son
los vectores del núcleo de la matriz de coeficientes del sistema. Entonces sabemos que el
núcleo de una matriz de tamaño n × n es un subespacio vectorial de IRn , por lo tanto
podemos dar la siguiente definición.
Ejemplo 2.42. Calcular los valores propios, vectores propios y los subespacios vectoriales
de la matriz A
2 2 1
A= 1 3 1
1 2 2
solución. El polinomio caracterı́stico de la matriz A es:
Por lo tanto los valores propios son λ1 = 5 y λ2 = 1, este último con multiplicidad algebrai-
ca 2.
Para λ1 = 5 los vectores propios son las soluciones no nulas del sistema lineal homogéneo
(5I − A)x = 0, es decir, del sistema
3 −2 −1 x1 0 1 0 −1 x1 0
−1 2 −1 x2 = 0 ⇐⇒ 0 1 −1 x2 = 0
−1 −2 3 x3 0 0 0 0 x3 0
Para λ1 = 1 los vectores propios son las soluciones no nulas del sistema lineal homogéneo
(I − A)x = 0, es decir, del sistema
−1 −2 −1 x1 0 1 2 1 x1 0
−1 −2 −1 x2 0 = ⇐⇒ 0 0 0 x2 0
=
−1 −2 −1 x3 0 0 0 0 x3 0
siendo
{(−2a − b, a, b) a, b ∈ IR}
el conjunto de soluciones, por lo tanto el subespacio propio es
y {(−2, 1, 0), (−1, 0, 1)} es una base del subespacio vectorial EA (1).
1. A y AT tienen los mismos valores propios con las mismas multiplicidades algebraicas.
Teorema 2.8. Si A ∈ IRn×n es una matriz triangular (superior o inferior) entonces sus
valores propios son los elementos diagonales.
Definición 2.8. Sean A, B ∈ IRn×n . Se dice que A y B son matrices semejantes si existe
una matriz inversible P ∈ IRn×n tal que:
B = P−1 AP
Ejemplo 2.43. Comprobar que B = P−1 AP, es decir las matrices A y B son matrices seme-
jantes, siendo:
1 0 2 1 −1 1 0 2 0
A = −1 1 1 , B = 0 2 1 , P = 1 0 −1
0 0 2 0 0 1 0 1 1
2. A y B tienen los mismos valores propios con las mismas multiplicidades algebraicas.
Son varias las propiedades que comparten las matrices semejantes. A continuación
estudiamos algunas de ellas, pero primero necesitamos recordar la definición de la traza
de una matriz y una propiedad de la misma dada.
Definición 2.9. Sean A ∈ IRn×n . Se llama traza de la matriz A a la suma de los elementos
de la diagonal principal de A, escribimos
∑
n
tr(A) = aii
i=1
i) Det(A) = Det(B)
En efecto. Como A y B es semejante, entonces existe una matriz P inversible tal que:
B = P−1 AP
ii)
iii)
2.4. Diagonalización
Una clase particular de matrices la constituyen aquellas que son semejantes a una ma-
triz diagonal. Justamente este hecho es el que aparece en la introducción de este capı́tulo.
Vamos a estudiar condiciones necesarias y suficientes para que una matriz cuadrada A
sea semejante a una matriz diagonal D. Empezaremos dando algunos resultados previos.
Teorema 2.11. Sea A una matriz cuadrada de tamaño n × n y sean λ1 , λ2 , . . . , λs los dis-
tintos valores propios de A. Entonces la suma de los correspondientes subespacios propios
EA (λi ), i = 1, 2, . . . , s, es directa.
Podemos deducir, como consecuencia del teorema anterior, que los vectores propios de
una matriz, asociados a valores propios distintos, son linealmente independientes.
P−1 AP = D
Teorema 2.12. Una matriz A de tamaño n × n es diagonalizable si y sólo si, tiene n vec-
tores propios linealmente independientes.
AP = PD (2.11)
P = [u1 u2 . . . un ]
Cuando A es diagonalizable entonces el conjunto de los n vectores propios son una base
para el espacio vectorial IRn .
Solución Calculemos en primer lugar los valores propios de A. Para ello hallemos las
raı́ces del polinomio caracterı́stico
1−λ
1 1
pA (λ) = Det(A − λI) = 0 3−λ 0 =0
2 −1 2 − λ
= λ(λ − 3)2 = 0
Por lo tanto, los valores propios de A son λ1 = 0 y λ2 = 3, este último con multiplicidad
algebraica 2.
En segundo lugar hallaremos los vectores propios. Para λ1 = 0, los vectores propios son
las soluciones no triviales del sistema lineal homogéneo (A − 0 I)x = 0, es decir:
1 1 1 x 0
0 3 0 y = 0
2 −1 2 z 0
Para λ2 = 3 los vectores propios son las soluciones del sistema lineal homogéneo (A −
3I)x = 0, es decir:
−2 1 1 x 0
0 0 0 y = 0
2 −1 −1 z 0
siendo
EA (3) = Env{(1, 2, 0), (1, 0, 2)}
el conjunto de soluciones. Una base para el subespacio EA (3) está formado por los vectores
u2 = (1, 2, 0) y u3 = (1, 0, 2), por lo tanto la dimensión geométrica del subespacio EA (3) es
2.
El orden de las columnas de P está en función del orden de colocación de los valores propios
en D ya que
A[u1 u2 u3 ] = [u1 u2 u3 ]D
Si tomamos los valores propios en otro orden, por ejemplo construimos
3 0 0
D1 = 0 0 0
0 0 3
diagonalizarla si es posible.
obteniendo
EA (−1) = Env{(−3, 0, 1)}
Claramente dim(EA (−1)) = 1 y el vector u1 = (−3, 0, 1) constituye una base para el subes-
pacio EA (−1).
obteniendo
EA (4) = Env{(2, 0, 1)}
Claramente dim(EA (4)) = 1 y el vector u2 = (2, 0, 1) constituye una base para el subespacio
EA (4).
Observando con detalle estos dos últimos ejemplos se puede deducir que la matriz dia-
gonalizable A del ejemplo.2.45 tiene la siguiente propiedad: la suma de las dimensiones
de los subespacios propios es justamente la dimensión del espacio IR3 . Mientras que es-
ta propiedad no se da en el ejemplo.2.46 puesto que la suma de las dimensiones de los
subespacios es 2. Este hecho es básico para caracterizar las matrices diagonalizables.
1 ≤ dim(EA (λ0 )) ≤ m0
Teorema 2.15. Sea A una matriz de tamaño n × n. A es diagonalizable si, y sólo si, se
verifican las dos condiciones siguientes:
ii) La multiplicidad algebraica de cada valor propio de A, coincide con la dimensión del
subespacio propio correspondiente.
diagonalizarla si es posible.
Solución El polinomio caracterı́stico es
Obsérvese que el polinomio caracterı́stico pA (λ) tiene solamente dos raı́ces reales λ1 = 0
y λ2 = 4, el factor (λ2 + 1) sólo tiene raı́ces complejas. En consecuencia la matriz A no es
diagonalizable de acuerdo al teorema.2.15. Los vectores propios son:
Una consecuencia inmediata del teorema.2.15 es que las matrices cuadradas de tamaño
n × n que tiene n valores propios distintos son diagonalizables, es decir.
Corolario 2.48. Sea A una matriz de tamaño n × n. Si A tiene n valores propios distintos,
entonces A es diagonalizable.
2.5. Ejercicios
1. Sea [ ]
a b
A=
c d
demuestre que:
Luego (λ − µ)⟨u, v⟩ = 0, y como λ ̸= µ, se tiene que ⟨u, v⟩ = 0, es decir los vectores u y v son
ortogonales.
Lema 2.12. Toda matriz simétrica tiene, al menos, un valor propio real.
Teorema 2.17. Sea A una matriz cuadrada de tamaño n × n. La matriz A es simétrica si,
y sólo si, A es diagonalizable mediante una matriz ortogonal. Es decir, existe una matriz
ortogonal Q. Es decir, existe una matriz ortogonal Q tal que Q−1 AQ es diagonal.
Nota. Puesto que se puede construir una base de vectores propios ortonormales de una
matriz simétrica, diremos que toda matriz simétrica es diagonalizable por una ma-
triz ortogonal. Es decir si A es simétrica entonces existe una matriz ortogonal Q tal que
Q−1 AQ es diagonal.
Para λ1 = 2, los vectores propios son las soluciones del sistema lineal homogéneo (A −
2I)x = 0, es decir, de
0 0 0 x 0
0 1 −1 y = 0
0 −1 1 z 0
por lo tanto
EA (2) = Env{(1, 0, 0), (0, 1, 1)}
La base del subespacio propio EA (2) es, por tanto {u1 , u2 }, donde u1 = (1, 0, 0) y u2 = (0, 1, 1)
Por lo tanto, una base de EA (4) está formado por el vector u3 = (0, −1, 1).
Ası́,{u1 , u2 , u3 } es una base de IR3 . Para construir la matriz ortogonal Q tal que QT AQ =
D sea diagonal, necesitamos una base ortonormal de vectores propios. Como el conjunto
{u1 , u2 , u3 } ya es ortogonal, sólo hace falta normalizarlo.
Para hallar la matriz Q tenemos que obtener una base de vectores ortonormales. Sa-
bemos que el conjunto {u1 , u2 } es ortogonal a {u3 } porque son vectores propios asociados a
valores propios distintos. ası́ pues, ortogonalizamos solamente el conjunto {u1 , u2 } por el
algoritmo de Gram-Schmith
y2 x2
La ecuación x2 − 8y2 = −16 se puede reescribir como − = 1, la cual de la forma
2 16
y2 x2 √
− = 1 con a = 2 y b = 4. Ası́ entonces, su gráfica es una hipérbola en posición
a 2 b 2
√ √
estandar que se intersecta con el eje Y en los puntos (0, − 2) y (0, 2).
2
La ecuación 5x2 + 2y = 0 se puede volver a escribir como x2 = − y, la cual es de la for-
5
2 2
ma x = ky con k = − . Dado que k < 0, su gráfica es una parábola en posición estandar
5
que se abre hacia abajo.
Obsérvese que ninguna cónica en posición estandar tiene el término xy (conocido como
el término de producto cruzado) en su ecuación, la presencia de un término xy, en la
ecuación degenerada, indica que tal cónica está girada a su posición estandar. (Ver Figu-
ra). También, ninguna cónica en posición estandar tiene tanto un término x2 como en x,
uno en y2 y en y. Si no existe término de producto cruzado, la presencia de cualquiera de
estos dos pares de términos en la ecuación de una cónica no degenerada indica que tal
cónica está trasladada respecto a su posición estandar (Ver Figura).
Una técnica para identificar la gráfica de una cónica no degenerada, que no se encuen-
tra en la posición estándar, consiste e n hacer girar y trasladar los ejes coordenados xy,
para obtener un sistema de coordenadas x ′ y ′ , con relación al cual la cónica esté en la po-
sición estándar. Una vez que se hace lo anterior, la ecuación de la cónica en el sistema x ′ y ′
tendrá una de las formas dadas en la Figura y, por consiguiente, es posible identificarla
con facilidad.
2x2 + y2 − 12x − 4y + 18 = 0
Esta cónica se puede llevar a la posición estándar, trasladando apropiadamente los ejes
coordenados. Para hacerlo, agrúpense primero los términos en x e y. Esto conduce a
o bien
2(x2 − 6x) + (y2 − 4y) = −18
al completar cuadrados en las dos expresiones que están entre paréntesis, se obtiene
o bien
2(x − 3)2 + (y − 2)2 = 4 (2.13)
x′ = x − 3 y′ = y − 2
o bien
Xt AX + KX + f = 0 (2.14)
en donde [ ] [ ]
x a b [ ]
X= A= K= d e
y b c
con esta notación, la forma cuadrática asociada a (2.14) es
Xt AX
son
5 [ ]
3 2 8 0
5 y
7 0 −4
2
Considérese una cónica C con la ecuación
Xt AX + KX + f = 0 (2.15)
Ahora se demostrará que es posible hacer girar los ejes de coordenados xy de modo que la
ecuación de la cónica, en el sistema de coordenadas x ′ y ′ , no tenga término con producto
cruzado.
Paso 2. Se intercambian las columnas de P, si es necesario, para hacer que Det(P) = 1. Esto
asegura que la transformación ortogonal de coordenadas
[ ] [ ]
′
x x
X = PX ′ es decir =P (2.16)
y y′
es una rotación
en donde λ1 y λ2 son los autovalores de A. Por lo tanto, (2.17) se puede volver a escribir
como [ ][ ] [ ][ ]
[ ] λ 0 x ′ [ ] p p x ′
x′ y′
1 11 12
+ d e +f=0
0 λ2 y′ p21 p22 y′
o bien,
λ1 x ′2 + λ2 y ′2 + d ′ x ′ + e ′ y ′ + f = 0
(en donde d ′ = dp11 + ep21 y e ′ = dp12 + ep22 ). Esta ecuación no tiene término de producto
cruzado.
es la forma cuadrática asociada. Entonces se puede hacer girar los ejes coordenados de
modo que la ecuación para C en el nuevo sistema de coordenadas x ′ y ′ tenga la forma
λ1 x ′2 + λ2 y ′2 + d ′ x ′ + e ′ y ′ + f = 0
en donde λ1 y λ2 son los autovalores de A. Se puede llevar a cabo la rotación por medio de
la sustitución
X = PX ′
en donde P diagonaliza ortogonalmente a A y det(P) = 1.
o bien
XT AX + KX + f = 0
en donde
x a d e [ ]
X = y , A = d b f , K= g h i
z e f c
la matriz simétrica A se conoce como matriz de la forma cuadrática
es
3x2 + 2y2 − z2 + 3xy − 8yz
La matriz de esta forma cuadrática es
1
3 2
2
A= 2 2 −4
1
2
−4 −1
ó bien
(x − 2)2 z2
4(x − 2)2 + 36(y − 3)2 − 9z2 = 36 ⇐⇒ + (y − 3)2 − =1
9 4
Al trasladar los ejes por medio de la ecuación
x ′ = x − 2, y ′ = y − 3, z′ = z
se llega a
x ′2 z ′2
+ y ′2 − =1
9 4
que es la ecuación de un hiperboloide de un manto.
El resultado que sigue indica que siempre es posible eliminar los términos de productos
cruzados, de la ecuación de una cuádrica, girando los ejes coordenados.
es la forma cuadrática asociada. Entonces es posible girar los ejes coordenados de modo
que la ecuación Q en el sistema de coordenadas x ′ y ′ z ′ tenga la forma
λ1 x ′2 + λ2 y ′2 + λ3 z ′2 + g ′ x ′ + h ′ y ′ + i ′ z ′ + j = 0 (2.20)
Este teorema sugiere el siguiente procedimiento para eliminar los términos de producto
cruzado, de una ecuación cuadrática en x, y e z.
Paso 2. Si es necesario, se intercambian dos de las columnas de P para hacer que det(A) = 1.
Esto asegura que la transformación ortogonal de coordenadas
x x′
X = PX ′ ⇐⇒ y = P y ′ (2.21)
′
z z
es una rotación.
XT AX = 3 (2.22)
en donde
4 2 2
A= 2 4 2
2 2 4
Los valores propios de la matriz A son λ1 = λ2 = 2 y λ3 = 8, los vectores propios son:
(PX ′ )T A(PX ′ ) = 3
o, de manera equivalente
X ′T (PT AP)X ′ = 3 (2.24)
ya que
2 0 0
PT AP = 0 2 0
0 0 8
(2.23) queda
′
[ ] 2 0 0 x
x′ y′ z′ 0 2 0 y′ = 3
0 0 8 z′
o bien
2x ′2 + 2y ′2 + 8z ′2 = 3
Esto se puede reescribir como
x ′2 y ′2 z ′2
+ + =1
3/2 3/2 3/8
que es la ecuación de un elipsoide.
T (u − v) = T (u) − T (v), ∀ u, v ∈ V
3. Si T : IR2 → IR2 es una transformación lineal y si T (1, 1) = (2, 0) y T (0, 2) = (3, 1).
Halle la regla de correspondencia de T (x, y).
4. Si T : IR3 → IR2 es una transformación lineal y si T (1, −1, −1) = (1, 2), T (1, −1, 0) =
(3, 4) y T (1, 0, 0) = (5, 6). Hallar la regla de correspondencia de T (x, y, z) y T (1, 1, 1).
5. Sea T : IR2 → IR2 un operador lineal tal que T (1, 0) = (2, 1), T (0, 1) = (1, −1). Determi-
nar la imagen del triángulo rectángulo cuyos vértices son (1, 1), (4, 1) y (1, 5).
7. Sea T : IR3 → IR2 una transformación lineal tal que T (x, y, z) = (x + y + z, y + z).
Determinar Ker(T ), Im(T ) y sus dimensiones.
a) Demuestre que el núcleo de T es una recta que pasa por el origen y encuentre las
ecuaciones paramétricas de tal recta.
b) Demuestre que el recorrido de T es un plano que pasa por el origen y halle la
ecuación de este plano.
11. Halle la matriz estándar de cada uno de los operadores lineales siguientes:
12. Halle la matriz estándar de cada uno de las transformaciones lineales siguientes:
13. Halle la matriz estándar para la transformación lineal en el plano T : IR2 → IR2 que
aplica un punto (x, y) en
14. Halle la matriz estándar para la transformación lineal en el plano T : IR3 → IR3 que
aplica un punto (x, y, z) en
15. En cada inciso, describa el efecto geométrico de la multiplicación por la matriz dada
[ ] [ ] [ ]
3 0 1 0 1 4
(a) (b) (c)
0 1 0 −5 0 1
a) Encuentre la matriz de T con respecto a las bases β1 = {v1 = (1, 3), v2 = (−2, 4)}
y β2 = {w1 = (1, 1, 1), w2 = (2, 2, 0), w3 = (3, 0, 0)}
b) Use la matriz obtenida en a) para calcular T (8, 3)
18. Sea β = {v1 , v2 , v3 , v4 } una base para un espacio vectorial V. Halle la matriz con
respecto a la base β del operador lineal T : V → V definido por T (v1 ) = v2 , T (v2 ) =
v3 , T (v3 ) = v4 y T (v4 ) = v1
a) p1 = 1, p2 = x, p3 = x2
b) p1 = 2, p2 = 2 − 3x, p3 = 2 − 3x + 8x2
c) Use la matriz que se encontró en a) para calcular D(6 − 6x + 24x2 )
d) Use la matriz que se encontró en b) para calcular D(6 − 6x + 24x2 )
22. En el espacio vectorial IR2 considere la base β1 = {(2, 3), (5, −1)}. Sea P la matriz
[ ]
1 4
P=
8 7
23. En el espacio vectorial IR3 considere la base β1 = {(1, 0, 0), (0, 2, 4), (0, 1, 1)}. Sea P la
matriz
1 2 1
P= 3 4 5
0 2 0
Determine la base β2 de IR3 tal que P es la matriz de cambio de la base β1 a β2 .
24. Demuestre que si las matrices A y B son semejantes entonces Det(A) = Det(B)
T (x, y, z) = (x + y, x + z, y + z)
Sea
son semejantes.
28. Sea T : IR3 −→ IR3 el operador lineal definido por T (x, y, z) = (2x−y−z, x−z, −x+y−2z).
Halle una base para IR3 con relación a la cual la matriz de T sea diagonal.
y1′ = y1 + 4y2
y2′ = 2y1 + 5y2
y1′ = y1 + 3y2
y2′ = 4y1 + 5y2
y1′ = 4y1 + y3
y2′ = −2y1 + y2
y3′ = −2y1 + y3
b) Halle la solución que satisfaga las condiciones iniciales y1 (0) = −1, y2 (0) =
1, y3 (0) = 0
34. Halle las formas cuadráticas asociadas con las ecuaciones cuadráticas que siguen:
35. Encuentre las matrices de las formas cuadráticas que se dan en el ejercicio (34)
37. En cada inciso, una traslación lleva la cónica a la posición estándar. Nombre la
cónica y dé su ecuación en el sistema de coordenadas trasladado
38. Las cónicas no degeneradas que siguen están giradas respecto a la posición estándar.
En cada inciso, gı́rense los ejes coordenadas a fin de eliminar el término x y. Nombre
la cónica y dé su ecuación en el sistema de coordenadas girado.
a) 2x2 − 4xy − y2 + 8 = 0
b) x2 + 2xy + y2 + 8x + y = 0
c) 5x2 + 4xy + 5y2 = 9
d) 11x2 + 24xy + 4y2 − 15 = 0
e) 9x2 − 4xy + 6y2 − 10x − 20y = 5
f) 3x2 − 8xy − 12y2 − 30x − 64y = 0
39. Halle las formas cuadráticas asociadas con las ecuaciones cuadráticas que siguen
a) x2 + y2 − z2 + 4xy − 5yz + 7x + 2z = 2
b) 3x2 + 7z2 + 2xy − 3xz + 4yz − 3x = 4
c) xy + xz + yz = 1
d) x2 + y2 − z2 = 7
e) 3z2 + 3xz − 14y + 9 = 0
f) 2z2 + 2xz + y2 + 2x − y + 3z = 0
d) 9x2 + 4y2 − z2 = 0
e) 16x2 + y2 = 16z
f) 7x2 − 3y2 + z = 0
g) x2 + y2 + z2 = 25
41. En cada inciso, halle una rotación X = PX ′ que elimine los términos de productos
cruzados. Nombre la cuádrica y dé su ecuación en el sistema x ′ y ′ z ′