Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Álgebra Lineal
para Ciencias e Ingenierı́a
– con ayuda de Maxima –
Este trabajo está amparado por la Ley de Propiedad Intelectual, ninguna parte podrá ser reproducida, transmitida, alma-
cenada o utilizada en cualquier forma o por cualquier medio, ya sea gráfico, electrónico o mecánico, incluyendo, pero sin
limitarse a lo siguiente: fotocopiado, reproducción, escaneo, digitalización, grabación en audio, distribución en Internet,
distribución en redes de información o almacenamiento y recopilación en sistemas de información sin el consentimiento
por escrito del autor.
Se cuenta...
R6
Crı́ticas, ideas y observaciones son siempre bienvenidas. Para ello me puede escribir a jrmayorgaz@gmail.com
Ha sido profesor, investigador y/o directivo en Technion - Israel Institute of Technology (Israel), Université Paris
Dauphine (Francia), ICTP - International Centre for Theoretical Physics (Italia), Universität Wien (Austria), Universidad
de Chile (Chile), Universidad de Talca (Chile), Yachay Tech - Universidad de Investigación de Tecnologı́a Experimental
(Ecuador), ESPE - Universidad de las Fuerzas Armadas (Ecuador), Pontificia Universidad Católica del Ecuador (Ecuador),
Escuela Politécnica Nacional (Ecuador), Universidad Técnica de Ambato (Ecuador), Universidad Tecnológica Indoaméri-
ca (Ecuador) y Universidad Tecnológica Israel (Ecuador).
Juan Mayorga Zambrano es observante de las Siete Leyes de los Hijos de Noé, Código de Ética universal que les
corresponde a las naciones no-judı́as de la tierra. Sobre este tópico ha traducido del inglés al español los libros “The
Seven Colors of the Rainbow” (Bindman), “The Path of the Righteous Gentile” (Clorfene & Rogalsky) y “The World of
the Ger” (Clorfene & Katz). Fue Coordinador para Chile (2006) y Coordinador Internacional (2007) de la Fundación Luz
de Vida Internacional; miembro del staff de Universidad Noájida (2009 - 2011).
Detalle de contenidos
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix
Introducción general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. El espacio vectorial R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Sı́mbolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
ACTUALIZACIÓN NECESARIA!!!!
La Enseñanza de Matemáticas para Ingenierı́a ha experimentado una transición desde los años ochenta. En buena
medida estos cambios surgieron de la posibilidad de aprovechar recursos computacionales cada vez más poderosos.
Hoy en dı́a es indudable que el estudiante de Ingenierı́a debe conectarse temprano en su carrera con software ma-
temático que le permita resolver problemas con efectividad y eficiencia; pero, al mismo tiempo, estamos convencidos de
que él debe ser amo de su software y no en el otro sentido. Por tanto, en este libro tenemos presente que, para saltar al
computador, el estudiante debe primero tener cimentados sus conocimientos con un número apropiado de horas de trabajo
con papel y lápiz.
Enfoque
A lo largo del texto se mantiene un enfoque orientado hacia la Ingenierı́a. Creemos que, en general, un Ingeniero no
demuestra teoremas; pero debe ser capaz de administrarlos y aplicarlos a la resolución de problemas. Por tanto, presenta-
mos sólo las demostraciones que, a nuestro criterio, son relevantes para mejorar la comprensión de la materia. El sı́mbolo
t indica que se da por terminada una demostración.
u
La notación usada a lo largo del texto es casi siempre la estándar. Se ha hecho un esfuerzo por enunciar explı́citamente
los dominios de las funciones; esto se debe a que una función es el ejemplo más simple de modelo matemático y a un hecho
práctico: problemas que los estudiantes encuentran “casi imposibles” se resuelven, a menudo, simplemente aclarando el
universo de estudio donde trabajan las funciones.
Tópicos y prerequisitos
Los temas tratados en esta obra se presentan habitualmente en el los primeros niveles de Matemáticas en las carreras
de Ingenierı́a. Se sugiere tanto al estudiante como al profesor que apoyen su trabajo con otros libros de texto como [XXX]
y [XXXX]. Un mismo tema que un estudiante encuentra claro en un libro puede resultar obscuro para otro estudiante. ¡Y
no hay tiempo para desperdiciar! Un estudiante de Ingenierı́a está normalmente sometido a una gran presión y exigencia.
Al final de cada uno de los capı́tulos se presenta un conjunto de problemas seleccionados. No afirmamos que los
problemas presentados sean originales (si bien hay un buen número de nuestra autorı́a); más bien hemos tratado de
seleccionarlos a partir de varias fuentes y adaptarlos a nuestro curso. Los ejercicios marcados con un asterisco, *, tienen
un grado de dificultad mayor. Al final del libro se presentan las soluciones y/o pautas para la mayorı́a de ellos. El material
presentado en este curso supone que el estudiante trae XXX.
2 Introducción general
Maxima
Escogimos el software Maxima para apoyar el estudio de la materia bajo tres consideraciones. Por un lado, Maxima es
un Sistema Computacional Algebraico (CAS) de manera que permite obtener soluciones analı́ticas (cuando es posible) y
hacer un seguimiento paso a paso del procedimiento de resolución de un problema determinado. Como consecuencia, a
más de tener una forma rápida para verificar el dominio propio de las herramientas matemáticas, permite una aplicación
fluida de las competencias1 matemáticas a materias de Ingenierı́a (Termodinámica, Teorı́a de Control, etc.). Por otro
lado, si bien Maxima es un CAS y por tanto no tiene el poder numérico de una Plataforma de Cálculo Cientı́fico (como
Scilab o Matlab), permite trabajar numéricamente a un buen nivel. Finalmente, Maxima es software libre de manera que
los estudiantes pueden instalarlo en sus computadores de forma gratuita. Esta última consideración es importante pues
piratear software es un delito y el profesor debe buscar alternativas de calidad para los estudiantes que no tienen los
recursos económicos suficientes para invertir en software licenciado.
En la preparación de la primera edición de este libro se ha usado la versión 5.27 de Maxima con apoyo de la interface
wxMaxima. El código Maxima presentado para resolver un determinado problema ha sido probado y preparado de manera
tal que sea claro para el estudiante al punto que lo motive a adaptarlo para la resolución de otros problemas.
( %i2) sin(x);
1
( %o2) √
2
Descripción de capı́tulos
Se han incluido NNN apéndices. En el Apéndice XXX se presenta una breve introducción a
La materia se denomina Álgebra Lineal o Álgebra Vectorial pues tiene que ver con conjuntos (denominados espacios
lineales o espacios vectoriales) formados por elementos denominados vectores. La denominación “vectores” se debe a la
forma en que se puede operar con ellos: se los puede sumar y se los puede multiplicar por números (reales o complejos),
básicamente de la manera en que se trabaja con los vectores de dos y tres dimensiones con los que el estudiante ya ha
trabajado en cursos preliminares de Fı́sica.
Importante. Antes de empezar el estudio de este documento se recomienda al estudiante que repase las propiedades de
cuerpo de R que debe haber estudiado en el curso de Precálculo.
Para alcanzar la definición de espacio vectorial necesitaremos los conceptos de operación interna y operación externa,
que procedemos a establecer.
Definición 1.1 (Operación interna) Sea V un conjunto no-vacı́o. Se denomina operación interna sobre V a toda
función de la forma
⊕ : V × V −→ V (1.1)
(u, v) 7−→ u ⊕ v.
Por tanto, una operación interna sobre un conjunto V es tal que a cada pareja de elementos (u, v) ∈ V × V asocia un único
elemento u ⊕ v ∈ V.
Definición 1.2 (Operación externa) Sean E, V dos conjuntos no-vacı́os. Se denomina operación externa sobre
V a toda función de la forma
: E × V −→ V (1.2)
(λ, v) 7−→ λ v.
Por tanto, una operación externa sobre un conjunto V es tal que a cada elemento u ∈ V y a cada elemento λ ∈ E les asocia
un único elemento λ v ∈ V.
Ejemplo 1.1 (Vectores tridimensionales) Consideramos el conjunto de los vectores tridimensionales usados en los cur-
sos previos de Fı́sica:
x
R =
3
.
y : x, y, z ∈ (1.3)
R
z
4 1 Introducción al Álgebra Lineal
La suma de vectores, que corresponde a sumar las coordenadas correspondientes, define una operación interna:
+ : R3 × R3 −→ R3 (1.4)
(u, v) 7−→ u + v.
Asimismo, la multiplicación de un vector por un número real, que corresponde a multiplicar cada una de las coordenadas
correspondientes por dicho número, define una operación externa:
˙ : R × R3 −→ R3 (1.6)
(λ, u) 7−→ λ · u.
Notación 1.1 A lo largo del curso, el sı́mbolo K se usará para referirse indistintamente al cuerpo de los números
reales, R, o al cuerpo de los números complejos, C. Por tanto,
x∈K (1.8)
quiere decir que x es un número real o un número complejo y diremos simplemente que x es un escalar.
p : K −→ K
n
X
x 7−→ p(x) = ak xk .
k=0
q : K −→ K
n
X
x 7−→ q(x) = bk xk .
k=0
p + q : K −→ K
n
X
x 7−→ (p + q)(x) = (ak + bk )xk .
k=0
λ · p : K −→ K
n
X
x 7−→ (λ · p)(x) = (λ · ak )xk .
k=0
1.2. Matrices
Gran parte de este curso hará uso de matrices y de diversas operaciones que se puede realizar con las mismas. En esta
sección las definiremos. Para ello, usaremos la siguiente notación que es importante pues ayuda a abreviar la escritura
matemática.
Definición 1.3 (Matriz de m filas y n columnas) Sea E un conjunto no-vacı́o. Sean m, n ∈ N. Se denomina ma-
triz de tamaño m × n (m filas y n columnas) sobre E, al arreglo bidimensional
ai, j ∈ E, ∀i ∈ Im , ∀ j ∈ In .
Observación 1.1 En el marco de la Definicion 1.3, si E = R, se dirá que A es una matriz real en tanto que si E = C se
dirá que A es una matriz compleja. Si E = K se dirá que A es una matriz escalar.
e + 5i −π 0 −2
e −π
A = 2.1 1/3 , B = 2.1 1/3 3i e .
−3 1/π −3 + 2i 1/π 5 −1 − i
Es claro que la matriz A = (ai j )3×2 es real, en tanto que B = (bi j )3×4 es compleja. Tanto A como B son matrices escalares.
Definición 1.4 (Espacio de matrices) Dados m, n ∈ N, denotamos al conjunto de las matrices escalares de ta-
maño m × n mediante:
n o
Mm×n (K) = A = (ai j )m×n : ai j ∈ K, para todo i ∈ Im , j ∈ In . (1.12)
Si no se genera confusión se escribirá simplemente Mm×n en lugar de Mm×n (K). Cuando se quiere especificar
se escribirá Mm×n (R) o Mm×n (C).
Observación 1.2 Teniendo presente el Ejemplo 1.1 y las Definiciones 1.3 y 1.4, es claro que
El proceso de intercambiar filas por columnas de una matriz provee una nueva matriz, denominada transpuesta. El uso
de transpuestas es frecuente en cálculos que involucran matrices.
6 1 Introducción al Álgebra Lineal
Definición 1.5 (Matriz transpuesta) Sean m, n ∈ N. Dada una matriz A ∈ Mm×n (E), se denomina matriz trans-
puesta de A a la matriz At ∈ Mn×m (E) definida mediante
At = (a ji )n×m ,
es decir, At es la matriz cuyas columnas contienen los elementos de las filas de A (y viceversa).
Ejemplo 1.4 Las transpuestas de las matrices A ∈ M3×2 (R) y B ∈ M3×4 (C), presentadas en el Ejemplo 1.3, son:
e + 5i 2.1 −3 + 2i
!
e 2.1 −3 −π 1/3 1/π
At = ∈ M2×3 (R), Bt = ∈ M4×3 (C).
−π 1/3 1/π 0 3i 5
−2 e −1 − i
Ejemplo 1.5 (Operaciones con matrices escalares) Sean m, n ∈ N. La suma de matrices escalares, que corresponde a
sumar las coordenadas correspondientes, define una operación interna:
Asimismo, la multiplicación de una matriz por un escalar, que corresponde a multiplicar cada una de las coordenadas
correspondientes por dicho número, define una operación externa:
Observación 1.3 Tenga presente que para sumar dos matrices A = (ai j )m×n y B = (brs ) p×q debe cumplirse:
m= p ∧ n = q,
es decir, sólo se pueden sumar matrices con el mismo número de filas y con el mismo número de columnas.
(λA)t = λ At ; (1.18)
(A + B) = A + B .
t t t
(1.19)
Observe que (1.19) es un tipo de propiedad distributiva: la operación de transposición se distribuye con la suma. También
se suele decir que “la transpuesta de la suma es la suma de las transpuestas”.
Previo a la definición de espacio vectorial creemos conveniente establecer los conceptos de grupo y grupo abeliano:
Definición 1.6 (Grupo abeliano) Sea G un conjunto no-vacı́o y sea ⊕ : G ×G −→ G una operación interna sobre
G. Se dice que (G, ⊕) es un grupo si se cumplen:
i) Propiedad Asociativa:
∀u, v, w ∈ G : u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w; (1.20)
ii) Existencia del Neutro Aditivo:
∃e ∈ G, ∀u ∈ G : e ⊕ u = u ⊕ e = u; (1.21)
iii) Existencia de Inversos Aditivos:
∀u ∈ G, ∃v ∈ G : u ⊕ v = v ⊕ u = e. (1.22)
Se dice que (G, ⊕) es un grupo abeliano (o grupo conmutativo) si, adicionalmente se cumple:
iv) Propiedad Conmutativa:
∀u, v ∈ G : u ⊕ v = v ⊕ u, (1.23)
Ejemplo 1.6 (El grupo Z) Consideramos (Z, +), esto es el conjunto de los números enteros con la operación de suma
habitual. El estudiante se dará cuenta que este es un ejemplo de grupo abeliano, donde el elemento neutro es el número
cero.
+ : V × V −→ V y · : K × V −→ V
operaciones interna y externa sobre V, respectivamente. Se dice que (V, +, ·) es un espacio vectorial (o espacio
lineal) si se cumple que
1) (V, +) es un grupo abeliano;
2) Propiedad Asociativa Mixta:
∀α, β ∈ K, ∀u ∈ V : (αβ)u = α(βu); (1.24)
3) Inocuidad del número 1:
∀u ∈ V : 1 · u = u; (1.25)
4) Propiedad Distributiva de Escalar:
∀α, β ∈ K, ∀u ∈ V : (α + β) · u = α · u + β · u. (1.27)
8 1 Introducción al Álgebra Lineal
Observación 1.4 En el contexto de la Definición 1.7, a la operación interna se le denomina operación de suma de vectores
y a la operación externa se le refiere como operación de multiplicación de escalar por vector.
Observación 1.5 En el contexto de la Definición 1.7, si no hay lugar a confusión y las operaciones de suma de vectores
y de multiplicación de escalar por vector son claras, se puede decir simplemente que V es un espacio vectorial.
Ejemplo 1.7 (El espacio vectorial R3 ) Probemos que (R3 , +, ·) con las operaciones definidas en el Ejemplo 1.1 es un
espacio vectorial, es decir probemos las cinco condiciones dadas en la Definición 1.7.
1) Probemos que (R3 , +) es un grupo abeliano, es decir que se cumplen las propiedades de la Definición 1.6.
i) Propiedad Asociativa. Probemos que
∀u, v, w ∈ R3 : u + (v + w) = (u + v) + w. (1.28)
x1 x2 x3 x1 + (x2 + x3 ) (x1 + x2 ) + x3
u + (v + w) = y1 + y2 + y3 = y1 + (y2 + y3 ) = (y1 + y2 ) + y3
z1 z2 z3 z1 + (z2 + z3 ) (z1 + z2 ) + z3
x1 x2 x3
= y1 + y2 + y3 = (u + v) + w.
z1 z2 z3
∃ 0 ∈ R3 , ∀u ∈ R3 : u + 0 = 0 + u = u. (1.29)
Definimos el vector
0
0 = 0 .
0
∀u ∈ R3 , ∃v ∈ R3 : u + v = v + u = 0. (1.30)
Definimos
1.3 Espacio vectorial 9
−x
v = −y .
−z
x1 x2 x1 + x2 x2 x1
u + v = y1 + y2 = y1 + y2 = y2 + y1 = v + u.
z1 z2 z1 + z2 z2 z1
x (αβ)x α(βx) βx
(αβ)u = (αβ) y = (αβ)y = α(βy) = α βy = α(βu).
z (αβ)z α(βz) βz
∀α ∈ R, ∀u, v ∈ R3 : α · (u + v) = α · u + α · v. (1.34)
∀α, β ∈ R, ∀u ∈ R3 : (α + β) · u = α · u + β · u. (1.35)
Se dice que una matriz es matriz cuadrada cuando el número de filas es igual al número de columnas.
Notación 1.3 Dado n ∈ N, se escribirá Mn (E) para referirse al conjunto Mn×n (E).
A cada elemento B ∈ Mn (K), se le asocia un número, llamado determinante de B, que ayuda a manifestar rápidamente
varias de sus propiedades. Concretamente se tiene una función
Más adelante en el curso encontraremos formas de calcular el determinante de una matriz cuadrada de orden n cuando
n > 3.
se calcula como
1.4 Determinantes de bajo orden 11
!
a11 a12 a11 a12
det(A) = = = a11 a22 − a21 a12 . (1.37)
a21 a22 a21 a22
Caso n=3: El determinante de una matriz escalar
a11 a12 a13
A = a21 a22 a23 .
a31 a32 a33
se calcula como
a11 a12 a13 a11 a12 a13
det(A) = a21 a22 a23 = a21 a22 a23
a31 a32 a33 a31 a32 a33
a22 a23 a21 a23 a21 a22
= a11 −a +a . (1.38)
a32 a33 12 a31 a33 13 a31 a32
Observación 1.6 En la definición (1.38) es importante observar que se recorre los elementos de la primera fila con
signos alternados. El determinante que acompaña al elemento a1,k se toma de la matriz que resulta de eliminar la fila 1 y
la columna k de la matriz A.
Observación 1.7 Para calcular el determinante de una matriz cudrada de orden 3 se pueden usar las Reglas de Sarrus
o Cramer. La fórmula (1.38) se conoce como fórmula de reducción a menores. La presentamos aquı́ pues es este el
mecanismo que será generalizado más adelante para los casos de n > 3.
Se tiene que
4 −5 0 −5 0 4
det(D) = 2 − (−3) +5
−1 9 1 9 1 −1
= 2 · [4 · 9 − (−1)(−5)] + 3 · [0 · 9 − 1 · (−5)] + 5 · [0 · (−1) − 1 · 4]
= 2(31) + 3(5) + 5(−4) = 62 + 15 − 20 = 57.
12 1 Introducción al Álgebra Lineal
Desarrollo. Usando las propiedades de las funciones logarı́tmicas y exponenciales, se tiene que
logα (β) · logβ (α) = logα βlogβ (α) = logα expβ logβ (α) = logα (α) = 1.
Por tanto
1 logβ (α)
d= = 1 − logα (β) · logβ (α) = 0 = ln(1).
logα (β) 1
2) Sean β ∈ R y α ∈ R \ S , donde
π π π
S= + kπ : k ∈ Z ∪ + kπ : k ∈ Z ∪ − + kπ : k ∈ Z .
2 4 4
Usando la Regla de Cramer, resuelva el sistema ecuaciones
tan(α) x − y = sen(α + β),
(1.39)
x − y tan(α) = cos(α + β).
Desarrollo. Definimos
sen(α + β)
! ! !
tan(α) −1 x
A= , u= , b= .
1 − tan(α) y cos(α + β)
Se tiene que
tan(α) −1
|A| = det(A) = = 1 − tan2 (α).
1 − tan(α)
Por la definición del conjunto S , se tiene que | tan(α)| , 1 de manera que det(A) , 0. Por tanto, el sistema (1.39) tiene
una única solución, es decir ( !)
x1
CS = ,
y1
donde
|A1 | |A2 |
x1 = , y1 = ,
|A| |A|
con
sen(α + β) −1
|A1 | = = − sen(α + β) tan(α) + cos(α + β),
cos(α + β) − tan(α)
tan(α) sen(α + β)
|A2 | = = cos(α + β) tan(α) − sen(α + β).
1 cos(α + β)
1.5 Ejercicios resueltos 13
Indique si el conjunto B es una base de R3 . En caso afirmativo, halle las coordenadas del vector u = 2 en dicha
1− 2
base.
Desarrollo. Denotamos
α β γ
v1 = α2 , v2 = β2 , v3 = γ2 .
1−α 2 1−β2 1−γ 2
α β γ
det (v1 v2 v3 ) = α2 β2 γ2
1 − α2 1 − β2 1 − γ2
Puesto que los números α, β, γ son distintos entre sı́, se tiene que det(v1 v2 v3 ) , 0 de manera que B es base de R3 .
Por lo anterior, podemos escribir
u = α1 v1 + α2 v2 + α3 v3 .
Calculamos las coordenadas α1 , α2 y α3 aprovechando el procedimiento seguido para obtener (1.40):
Entonces
∆1 (β − )(γ − )
α1 = = ,
det (v1 v2 v3 ) (β − α)(γ − α)
∆2 ( − α)(γ − )
α2 = = ,
det (v1 v2 v3 ) (β − α)(γ − β)
∆3 ( − α)( − β)
α3 = = .
det (v1 v2 v3 ) (γ − α)(γ − β)
a c + id
!
A = det .
c − id b
está contenido en R.
Desarrollo. Para x ∈ C, se tiene que
α − x β
β γ − x = (α − x)(γ − x) − β = αγ − β + (−α − γ)x + x ,
2 2 2
det(U) = (α + β + γ) p.
Se tiene que
Puesto que
f (0) = q = −αβγ,
se sigue que
det(U) = (α + β + γ) p.
1.6 Ejercicios propuestos 15
2) Muestre con un ejemplo que no necesariamente se cumple que det(A + B) = det(A) + det(B).
3) Pruebe que
4) Siguiendo el procedimiento descrito en el Ejemplo 1.7, pruebe que el conjunto Mm×n (K) junto con las operaciones
indicadas en el Ejemplo 1.5 es un espacio vectorial.
5) Sean α, β, ϕ ∈ R. Calcule y simplifique el determinante de la matriz Ak :
α γ + δi eiα 1
! !
A1 = , A2 = .
γ − δi β 1 e−iα
7) Sean η ∈ R y θ ∈ R \ S , donde
π π π
S= + kπ : k ∈ Z ∪ + kπ : k ∈ Z ∪ − + kπ : k ∈ Z .
2 4 4
Usando la Regla de Cramer, resuelva el sistema ecuaciones
−x + y tan(θ) = sen(θ + η),
−x tan(θ) + y = cos(θ + η).
αx2 + 2βx + γ = 0,
x ∈ C,
α β
es un conjunto unitario ssi = 0.
β γ
9) Sean η, α, β, γ ∈ R. Calcule y simplifique el determinante de la matriz Ak :
16 1 Introducción al Álgebra Lineal
1 0 1 + i
d1 = 0 1 i ,
1 − i −i 1
1 ν ν2
d2 = ν2 1 ν , donde ν = e−iπ/3 ,
ν ν2 1
1 1 ν
d3 = 1 1 ν2 , donde ν = ei 2π/3 ,
ν ν 1
2
1 1 1
d4 = 1 ν ν2 , donde ν = ei 4π/3 .
1ν ν
2
1) Pruebe que el conjunto Pn (K) junto con las operaciones indicadas en el Ejemplo 1.2 es un espacio vectorial.
2) Pruebe que
3) Aplicando la Regla del Máximo Dominio, determine la función real asociada a la fórmula
2
1+t2 2t 2
f (t) = 1−t 1−t .
2t 1+t2
1−t 2 1−t2
Pruebe que
CS ⊆ R ⇐⇒ a ∈ (−∞, −2b] ∪ [2b, ∞).
5) ¿Qué condición deben cumplir los números α, β, γ ∈ R para que se cumpla la siguiente igualdad?
1 cos(α) cos(β) 0 cos(α) cos(β)
cos(α) 1 cos(γ) = cos(α) 0 cos(γ)
cos(β) cos(γ) 1 cos(β) cos(γ) 0
1.6 Ejercicios propuestos 17
El espacio vectorial R3
En esta capı́tulo repasaremos propiedades del espacio vectorial R3 una vez que el estudiante ya lo ha usado en cursos
previos de Fı́sica y servirá para allanar el camino hacia el concepto abstracto de espacio vectorial.
Recordemos que R3 es el conjunto de ternas ordenadas, cuyas coordenadas son números reales:
x
R3 = .
y : x, y, z ∈ R
(2.1)
z
x1 + x2
u + v = y1 + y2 . (2.2)
z1 + z2
Asimismo, se indicó que la multiplicación de un vector por un escalar, λ ∈ R, corresponde a multiplicar cada una de las
coordenadas correspondientes por dicho número:
En el Ejemplo 1.7 probamos, en detalle, que (R3 , +, ·) es un espacio vectorial, es decir que se cumplen las siguientes
propiedades:
∀α ∈ R, ∀u, v ∈ R3 : α · (u + v) = α · u + α · v. (2.10)
∀α, β ∈ R, ∀u ∈ R3 : (α + β) · u = α · u + β · u. (2.11)
Observación 2.1 Tenga presente que para determinar un vector u ∈ R3 se necesitan 3 números (un número real para
cada una de sus coordenadas) se dice que la dimensión del espacio R3 es 3; lo cual se denota
dim R3 = 3. (2.12)
El lector recordará que muchos ejercicios vistos en cursos previos de Fı́sica tenı́an una interpretación geométrica. La
herramienta matemática que permite esto es el producto escalar o producto punto que presentamos a continuación.
Observación 2.3 Recuerde que dada una matriz A ∈ Mm×n (E), su transpuesta es la matriz At ∈ Mn×m (E) tal que las
columnas de A son las filas de At (y viceversa).
Definición 2.1 (Producto Escalar o Producto Punto) El producto escalar en R3 se define como la función
h·, ·i : R3 × R3 −→ R definida mediante
x2
hu, vi = ut v = x1 y1 z1 y2 = x1 x2 + y1 y2 + z1 z2 , (2.14)
z2
x1 x2
donde u = y1 y v = y2 .
z1 z2
2.2 Producto escalar en R3 21
Observación 2.4 En la definición anterior observe que el producto de un “vector fila”, ut , por un “vector columna”,
v, corresponde a sumar los productos de los elementos respectivos: primer elemento de ut con el primer elemento de v,
segunda coordenada de ut con la segunda coordenada de v y tercer componente de ut con el tercer componente de v.
Proposición 2.1 (Propiedades del producto escalar) Se cumplen las siguientes propiedades:
i) Simetrı́a:
∀u, v ∈ R3 : hu, vi = hv, ui ; (2.15)
ii) Propiedad distributiva:
∀u, v, w ∈ R3 : hu, v + wi = hu, vi + hu, wi ; (2.16)
iii) Homogeneidad:
∀λ ∈ R, ∀u, v ∈ R3 : hλu, vi = λ hu, vi ; (2.17)
iv) Positividad:
∀u ∈ R3 : hu, ui ≥ 0; (2.18)
hu, ui = 0 ⇔ u = 0. (2.19)
Como consecuencia inmediata de la Simetrı́a y de la Propiedad Distributiva del producto escalar, se tiene que
El lector recordará que mediante la aplicación del Teorema de Pitágoras se encuentra que el tamaño de un vector
x
u = y está dado por el número
z
q
kuk = x2 + y2 + z2 . (2.21)
Estó se puede establecer con ayuda del producto escalar:
k · k : R3 −→ R (2.22)
u 7−→ kuk =
p
hu, ui.
Las propiedades del producto escalar, establecidas en la Proposición 2.1, dan como corolario propiedades para la
función norma.
∀u ∈ R3 : kuk ≥ 0; (2.23)
kuk = 0 ⇔ u = 0; (2.24)
N2) Escalamiento:
∀λ ∈ R, ∀u ∈ R3 : kλuk = |λ| kuk. (2.25)
Observación 2.5 La propiedad N1 indica que el tamaño de un vector no puede ser un número negativo. La propiedad
N2 indica que el tamaño del múltiplo de un vector es igual al tamaño del vector multiplicado por el tamaño del factor de
escalamiento.
f : R −→ R (2.27)
t 7−→ f (t) = ktu − vk . 2
de manera que f es una función cuadrática. Entonces, por (2.28), se sigue que el discriminante de f es no-positivo, es
decir
0 ≥ ∆ = b2 − 4ac = (−2 hu, vi)2 − 4 kuk2 kvk2 = 4 hu, vi2 − 4 kuk2 kvk2 ,
es decir,
4 hu, vi2 − 4 kuk2 kvk2 ≤ 0,
de donde se sigue que
hu, vi2 ≤ kuk2 kvk2
y entonces, tomando raı́z cuadrada:
| hu, vi | ≤ kuk kvk.
t
u
Con ayuda de la Desigualdad de Cauchy-Schwartz se prueba la siguiente propiedad que establece que en un triángulo,
el tamaño de un lado es menor o igual que la suma de los tamaños de los otros dos lados.
ku + vk2 = hu + v, u + vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2| hu, vi | + kvk2
≤ kuk2 + 2kuk kvk + kvk2
= (kuk + kvk)2 ,
es decir,
ku + vk2 ≤ (kuk + kvk)2 ,
de donde se obtiene:
ku + vk ≤ kuk + kvk.
t
u
2.2 Producto escalar en R3 23
Definición 2.3 (Vector unitario o normalizado) Se dice que un vector u ∈ R3 es unitario o normalizado si se
cumple que kuk = 1.
Observación 2.6 Tenga presente que todo vector u ∈ R3 \ {0} se puede escribir como
u = kuk · nu , (2.31)
donde
1
nu = ·u (2.32)
kuk
es el vector unitario asociado a u, es decir es un vector con la misma dirección y sentido que u pero que está normalizado.
se tiene que q √
kuk = 52 + 72 + (−2)2 = 78.
Por tanto, se tiene que √
u= 78 · nu ,
donde √
5/ 78
√
nu = 7/ 78
√
−2/ 78
es un vector unitario.
x1 x2
Observación 2.7 La distancia entre dos puntos u = y1 y v = y2 está dada por
z1 z2
q
dist(u, v) = ku − vk = (x1 − x2 )2 + (y1 − y2 )2 + (z1 − z2 )2 . (2.33)
El lector recordará de sus cursos preliminares de Fı́sica que con ayuda del producto escalar se puede establecer el
ángulo que forman dos vectores no-nulos. Para abordar esto, recordemos que la función
c : [0, π] −→ [−1, 1]
cos
x 7−→ cos(x)
c = cos(x).
Definición 2.4 (Ángulo entre vectores de R3 ) Sean u, v ∈ R3 \ {0}. Se define el ángulo entre los vectores u y v
mediante !
hu, vi
θ = arc cos , (2.34)
kuk kvk
o, equivalentemente,
hu, vi
cos(θ) = . (2.35)
kuk kvk
Observación 2.8 En el marco de la definición anterior se tiene, por la desigualdad de Cauchy-Schwartz, (2.26), que
| hu, vi |
≤ 1,
kuk kvk
24 2 El espacio vectorial R3
que equivale a
hu, vi
−1 ≤ ≤1
kuk kvk
Observación 2.9 Observe que el ángulo que forman los vectores u, v ∈ R3 \ {0} se obtiene como el producto escalar de
sus unitarios:
cos(θ) = hnu , nv i . (2.36)
Definición 2.5 (Ortogonalidad / Paralelismo) Sean u, v ∈ R3 . Se dice que los vectores u y v son
a) ortogonales si se cumple que
hu, vi = 0; (2.38)
b) paralelos si se cumple que
|hnu , nv i| = 1. (2.39)
Observación 2.11 Dos vectores no-nulos son ortogonales cuando forman un ángulo θ = π/2, en tanto que son paralelos
cuando θ = 0 (los vectores apuntan al mismo sentido) o cuando θ = π (los vectores apuntan en sentido contrario).
∀u ∈ A : kuk = 1. (2.41)
es ortonormal.
Definición 2.7 (Vector Proyección) Sean u, v ∈ R3 , con v , 0. Se define el vector proyección de u sobre v me-
diante !
hu, vi
proyv (u) = hu, nv i nv = v. (2.42)
kvk2
Por facilidad, se da una notación especial a los siguientes vectores unitarios, referidos como vectores canónicos de R3 :
1 0 0
i = 0 , j = 1 , k = 0 . (2.43)
0 0 1
Al conjunto
C = {i, j, k} , (2.44)
se le denomina base canónica de R3 .
El concepto abstracto de base de un espacio vectorial se definirá más adlenate en el libro. Por el momento basta decir
que el término base se utiliza para referirse a un conjunto que tiene
3 = dim(R3 )
elementos y que tiene la propiedad de que cualquier vector del espacio vectorial se puede construir a con múltiplos de los
elementos del mismo. En efecto, el vector genérico
u x
u = uy ,
uz
u = u x i + uy j + uz k. (2.45)
No es difı́cil constatar que las coordenadas de u en la base canónica se pueden calcular mediante:
a la matriz de M3×n (R) cuya columna k está formada por los elementos del vector wk , k=1,2,...,n.
Teorema 2.1 (Identificación de bases de R3 ) Sea B = {v1 , v2 , v3 } un subconjunto de R3 . Entonces B es una base
de R3 si y sólo si
det(v1 v2 v3 ) , 0. (2.48)
La demostración del Teorema 2.1 se realizará más adelante en el curso en un contexto más general.
En sus estudios previos el estudiante aprendió a resolver sistemas de ecuaciones por los métodos de igualación, susti-
tución, etc. A continuación presentamos la Regla de Cramer como un método adicional a los mencionados.
26 2 El espacio vectorial R3
es tal que
det(A) , 0. (2.49)
b1
Entonces, denotando b = b2 ∈ R3 , el sistema de tres ecuaciones con tres incógnitas t1 , t2 , t3 ∈ R,
b3
a11 t1 + a12 t2 + a13 t3 = b1 ;
a21 t1 + a22 t2 + a23 t3 = b2 ;
(2.50)
a31 t1 + a32 t2 + a33 t3 = b3 ;
Como una aplicación de la Regla de Cramer se tiene el siguiente el siguiente corolario que provée fórmulas para
calcular las coordenadas de un vector en una base cualquiera de R3 .
Corolario 2.1 (Coordenadas en una base) Sea B = {v1 , v2 , v3 } una base de R3 y sea u ∈ R3 . Se denominan coor-
denadas de u en la base B a los números α1 , α2 , α3 ∈ R tales que
u = α1 · v1 + α2 · v2 + α3 · v3 . (2.52)
Se tiene que
det(u v2 v3 ) det(v1 u v3 ) det(v1 v2 u)
α1 = , α2 = , α3 = . (2.53)
det(v1 v2 v3 ) det(v1 v2 v3 ) det(v1 v2 v3 )
20 17 6
u= v1 + v2 + v3 .
19 19 19
Se cumple que
ku × vk = kuk kvk sen(θ), (2.55)
donde θ ∈ [0, π] es el ángulo formado por u y v.
(u × v) · w = u · (v × w), (2.57)
Observación 2.14 El volumen del paralelepı́pedo determinado por los vectores u, v, w ∈ R3 es igual al tamaño de su
triple producto escalar:
vol(u, v, w) = |(u × v) · w| . (2.58)
Por tanto:
u, v, w ∈ R3 son puntos coplanares ⇔ (u × v) · w = 0. (2.59)
Recuerde que tres puntos son coplanares cuando están en el mismo plano.
28 2 El espacio vectorial R3
i j k
u × v = x1 y1 z1 = i(y1 z2 − y2 z1 ) − j(x1 z2 − x2 z1 ) + k(x1 y2 − x2 y1 ).
x2 y2 z2
De manera que
ku × vk2 = (y1 z2 − y2 z1 )2 + (x1 z2 − x2 z1 )2 + (x1 y2 − x2 y1 )2 . (2.61)
Por otro lado:
hu, vi = x1 x2 + y1 y2 + z1 z2
y
hu, vi2 = x12 x22 + y21 y22 + z21 z22 + 2x1 x2 y1 y2 + 2x1 x2 z1 z2 + 2y1 y2 z1 z2 . (2.62)
Asimismo
kuk2 kvk2 = x12 + y21 + z21 x22 + y22 + z22
= x12 x22 + x12 y22 + x12 z22 + y21 x22 + y21 y22 + y21 z22 + z21 x22 + z21 y22 + z21 z22
= (y1 z2 − y2 z1 )2 + 2y1 y2 z1 z2 + (x1 z2 − x2 z1 )2 + 2x1 x2 z1 z2 + (x1 z2 − x2 z1 )2 + 2x1 x2 y1 y2
+ x12 x22 + y21 y22 + z21 z22 . (2.63)
Restando (2.63) a (2.62) se obtiene (2.61). Puesto que u, v fueron elegidos arbitrariamente, se ha probado (2.60).
2) Sean u, v ∈ R3 \ {0}.
a) Pruebe que
ku × vk = kuk kvk sen(θ), (2.64)
donde θ es el ángulo formado por u y v.
b) Pruebe que el área del paralelogramo determinado por u y v es igual a ku × vk.
Desarrollo. Sabemos que
ku × vk2 = kuk2 kvk2 − hu, vi2
de manera que
ku × vk2 hu, vi2
= 1 − = 1 − cos2 (θ) = sen2 (θ).
kuk2 kvk2 kuk2 kvk2
Y, puesto que θ ∈ [0, π], se sigue
ku × vk = kukkvk sen(θ).
P u -R
La superficie buscada es
v v
S OPRQ = 2S ∆ OPQ .
θ -
O u Q
Puesto que
1
S ∆ OPQ = kuk kvk sen(θ),
2
se sigue, por (2.64), que
S OPRQ = kuk kvk sen(θ) = ku × vk.
2.6 Ejercicios resueltos 29
f (x) = α + βx + γx2 ,
y debemos determinar los coeficientes α, β, γ ∈ C. Por (2.65) se deben cumplir las condiciones siguientes
f (−1) = α − β + γ = 0,
f (1) = α + β + γ = 4,
f (2) = α + 2β + 4γ = 3.
α
∗
CS = β∗ ,
γ
∗
donde
det (b A2 A3 )
α∗ = = 3,
det(A)
det (A1 b A3 )
β∗ = = 2,
det(A)
det (A1 A2 b)
α∗ = = −1.
det(A)
Por tanto, la función buscada es
f : C −→ C
x 7−→ f (x) = 3 + 2x − x2 .
30 2 El espacio vectorial R3
a) Calcule
u + v; 2u − 3v; 3u − 2v; t + 3w − v;
2u + 7w + 5v; hw, u + vi ; 2v + 7t − w; hu, vi ;
h3t − 2u, 5v + 2wi ; proyt (w), v .
kwk; hu, wi − hw, ti ; (2.66)
4) Sean α, β, γ ∈ R. ¿Bajo qué condiciones es posible hallar un vector unitario que sea ortogonal a los vectores u =
α + 2β
−γ y v = (3α − γ)i − 4(γ + β)j + 2γk? En ese caso halle dos vectores que cumplan lo requerido.
0
x
5) Usando la Regla de Cramer, busque vector(es) y ∈ R3 que resuelva(n) el sistema de ecuaciones:
z
4x − 3y + 2z + 4 = 0,
6x − 2y + 3z + 1 = 0,
5x − 3y + 2z + 3 = 0
5x + 2y + 3z + 2 = 0,
2x − 2y + 5z = 0,
3x + 4y + 2z + 10 = 0.
6) Analice si los puntos uk , vk , wk ∈ R3 son coplanares. Si no lo son, calcule el volumen del paralelepı́pedo que forman.
2.7 Ejercicios propuestos 31
2 0 −1
u1 = 1 , v1 = −1 , w1 = 1 ; (2.67)
2 1 5
1 1 1
u2 = −1 , v2 = −3 , w2 = 0 ; (2.68)
1 0 0
3 −1 2
u3 = 4 , v3 = 2 , w3 = 4 ; (2.69)
5 5 6
7) Refiérase al Ejercicio 6). Determine si el conjunto Bk = {uk , vk , wk } es una base de R3 . En caso afirmativo, halle las
coordenadas de los siguientes vectores en dicha base.
−3
q1 = i, q2 = 1
0
5 −4
q3 = 4 , q4 = 0
−3 2
8) Analice si el sistema de ecuaciones tiene solución única y, en ese caso, halle tal solución mediante la Regla de Cramer.
2x1 + 4x2 + 6x3 = 18,
4x1 + 5x2 + 6x3 = 24,
3x1 + x2 − 2x3 = 4;
2x1 + x2 + x3 = 6,
3x1 − 2x2 − 3x3 = 5,
8x1 + 2x2 + 5x3 = 11;
1) Pruebe la Proposición 2.1 que contiene las propiedades del producto escala de R3 .
2) Usando la Proposición 2.1, probar la Proposición 2.2.
3) Pruebe que la desigualdad triangular,(2.30), se convierte en igualdad
! cuando los vectores son múltiplos uno del otro.
x
4) Sean α, β ∈ R. Usando la Regla de Cramer, busque vector(es) ∈ R2 que resuelva(n) el sistema de ecuaciones:
y
x cos(α) − y sen(α) = cos(β),
x sen(α) + y cos(α) = sen(β),
x tan(α) − y = sen(α + β),
n
π
o
donde α ∈ R \ + kπ : k ∈ Z .
x − y tan(α) = cos(α + β),
2
32 2 El espacio vectorial R3
x
5) Sean a, b, c ∈ R tales que abc , 0. Usando la Regla de Cramer, busque vector(es) y ∈ R3 que resuelva(n) el sistema
z
de ecuaciones:
x y
− + 2 = 0,
a b
2y 3z
− + − 1 = 0,
xbz c
+ = 0;
a c
2ax − 3by + cz = 0,
3ax − 6by + 5cz = 2abc,
5ax − 4by + 2cz = 3abc;
4bcx + acy − 2abz = 0,
5bcx + 3acy − 4abz + abc = 0,
3bcx + 2acy − abz − 4abc = 0.
t3 − 1 = 0, t ∈ C.
L1 : R −→ R3 L2 : R −→ R3
−1 1 3 0
7 → L1 (t) = 2 + t · 2 .
t − 7 → L2 (t) = 1 + t · 1 .
t −
1 −2 −1 −2
t3 − 1 = 0, t ∈ C.
En este capı́tulo empezamos el estudio de matrices y del espacio vectorial que ellas forman. Empezamos con algunos
conceptos que fueron brevemente presentados en capı́tulos anteriores. Recordemos que para n ∈ N, denotaremos
Definición 3.1 (Matriz de m filas y n columnas) Sean E un conjunto no-vacı́o y m, n ∈ N. Se denomina matriz
de tamaño m × n (m filas y n columnas) sobre E al arreglo bidimensional
ai, j ∈ E, ∀i ∈ Im , ∀ j ∈ In .
Para aliviar la notación, muchas veces se escribe (ai j ) en lugar de (ai j )m×n , en tanto que no se genere confusión. Si
E = R, se dirá que A es una matriz real en tanto que si E = C se dirá que A es una matriz compleja. Si E = K se dirá que
A es una matriz escalar.
De forma natural, se establece que dos matrices son iguales cuando coinciden sus respectivas coordenadas. Esto es
formalizado en la siguiente definición.
Definición 3.2 (Igualdad de matrices) Dadas dos matrices A = (ai j ) ∈ Mm×n (E) y B = (bi j ) ∈ Mm×n (E). Se tiene
que
A=B ⇔ ∀i ∈ Im , ∀ j ∈ In : ai j = bi j . (3.2)
Uno de los espacios vectoriales más importantes de la matemática es el espacio de las matrices:
Definición 3.3 (Espacio de matrices) Dados m, n ∈ N, denotamos al conjunto de las matrices escalares de ta-
maño m × n mediante: n o
Mm×n (K) = A = (ai j )m×n : ai j ∈ K, para i ∈ Im , j ∈ In . (3.3)
Por Mm×n (R) y Mm×n (C) se representan los conjuntos de matrices de m filas y n columnas cuyas coordenadas
están en R y C, respectivamente.
36 3 El espacio vectorial Mm×n (K)
Antes de estudiar el espacio vectorial de las matrices escalares abordaremos, para futura referencia, dos conceptos
importantes: matriz transpuesta y matriz simétrica.
Definición 3.4 (Matriz transpuesta) Sean m, n ∈ N. Dada una matriz A ∈ Mm×n (E), se denomina matriz trans-
puesta de A a la matriz At ∈ Mn×m (E) definida mediante
At = (a ji )n×m ,
es decir, At es la matriz cuyas columnas contienen los elementos de las filas de A (y viceversa).
Definición 3.5 (Matriz Simétrica / Matriz Antisimétrica) Sean n ∈ N y A ∈ Mn×n (K). Se dice que A es una
matriz simétrica si se cumple que
At = A. (3.4)
Se dice que A es una matriz antisimétrica si se cumple que
At = −A. (3.5)
e + 5i −π 0 −2
e −π
A = 2.1 1/3 , B = 2.1 1/3 3i e ,
−3 1/π −3 + 2i 1/π 5 −1 − i
La matriz A = (ai j )3×2 es real, en tanto que B = (bi j )3×4 es compleja. Tanto A como B son matrices escalares. Las
transpuestas de las matrices A y B son:
corresponde a sumar las coordenadas correspondientes. En efecto, dadas dos matrices genéricas A, B ∈ Mm×n (K),
corresponde a multiplicar cada una de las coordenadas correspondientes por dicho número. En efecto, dado un número
λ ∈ K, se tiene que
(λA)t = λ At ; (3.13)
(A + B) = A + B .
t t t
(3.14)
En el siguiente teorema establecemos que el espacio de las matrices constituye un espacio vectorial, esto es cumple
con las condiciones de la Definición 1.7.
Teorema 3.1 (Mm×n (K) como espacio vectorial) Sean m, n ∈ N. El conjunto Mm×n (K) junto con las operacio-
nes definidas en (6.16) y (6.18) es un espacio vectorial.
Demostración. .
ai j = 0, ∀i ∈ Im , ∀ j ∈ In .
Tomamos un elemento genérico U = (ui j )m×n ∈ Mm×n (K). Se tiene, por la Propiedad de Existencia de Elemento Neutro
de K, que
U + 0 M = (ui j )m×n + (ai j )m×n = (ui j + 0)m×n = (ui j )m×n = U.
Puesto que la matriz U fue elegida arbitrariamente, se ha probado (3.16).
iii) Probemos la existencia de inversos aditivos, es decir que
V = (−ui j )m×n .
Tomamos elementos genéricos U = (ui j )m×n , V = (vi j )m×n ∈ Mm×n (K). Se tiene, por la Conmutatividad Aditiva de K,
que
U + V = (ui j )m×n + (vi j )m×n = (ui j + vi j )m×n = (vi j + ui j )m×n = V + U.
Puesto que las matrices U, V fueron elegidas arbitrariamente, se ha probado (3.18).
2) Probemos la Propiedad Asociativa Mixta:
Tomamos elementos genéricos α, β ∈ K y U = (ui j )m×n ∈ Mm×n (K). Se tiene, por la Conmutatividad Multiplicativa de K,
que:
(αβ)U = (αβ) · (ui j )m×n = (αβ)ui j = α(βui j ) = α βui j = α(βU).
m×n m×n m×n
Puesto que α, β, U fueron elegidos arbitrariamente, se ha probado (3.19).
3) Probemos la Inocuidad del Número 1 ∈ K:
Tomamos un elemento genérico U = (ui j )m×n ∈ Mm×n (K). Se tiene, por la Existencia del Neutro Multiplicativo en K, que:
Tomamos elementos genéricos α ∈ K y U = (ui j )m×n , V = (vi j )m×n ∈ Mm×n (K). Se tiene, por la Propiedad Distributiva de
K, que
α · (U + V) = α (ui j )m×n + (vi j )m×n = α · ui j + vi j = α(ui j + vi j ) = αui j + αvi j
m×n m×n m×n
= (αui j )m×n + (αvi j )m×n = αU + αV.
Tomamos elementos genéricos α, β ∈ K y U ∈ Mm×n (K). Se tiene, por la Propiedad Distributiva de K, que
(α + β) · U = (α + β) · (ui j )m×n = (α + β)ui j = αui j + βui j
m×n m×n
= (αui j )m×n + (βui j )m×n = α · U + β · U.
t
u
Para hacer más manejable la presentación de contenidos nos apoyaremos en la siguiente notación. Dada un matriz
A = (ai j )m×n ∈ Mm×n (E), se escribirá
A(1)
A
(2)
A = (A1 A2 . . . An ) = . (3.23)
..
A(m)
para representar las descomposiciones de A en columnas y filas. Las columnas de A son las matrices
A(1) = (a11 a12 . . . a1n ) , A(2) = (a21 a22 . . . a2n ) , ..., A(m) = (am1 am2 . . . amn ) (3.25)
Observe que
A j ∈ Rm , ∀ j ∈ In ; (3.26)
At(i) ∈R , n
∀i ∈ Im . (3.27)
Entonces se tiene
A = (A1 A2 A3 ) ,
donde ! ! !
−2 3 5
A1 = , A2 = , A3 = ,
0 4 7
Asimismo se tiene que !
A(1)
A= ,
A(2)
donde
A(1) = (−2 3 5) , A(2) = (0 4 7) .
Los espacios de matrices que tienen una única columna reciben una notación especial. Se escribe
40 3 El espacio vectorial Mm×n (K)
x1
x2
R = Mn×1 (R) =
n
x1 , x2 , ..., xn ∈ R
.. : ; (3.28)
.
x
n
x1
x2
Cn = Mn×1 (C) = x1 , x2 , ..., xn ∈ C
.. : ; (3.29)
.
x
n
x1
x2
Kn = Mn×1 (K) = x1 , x2 , ..., xn ∈ K .
..
:
(3.30)
.
x
n
Análogo al producto escalar introducido en la Sección 2.2, tenemos un producto escalar para vectores de Kn .
hu, vi = ut v (3.31)
Xn
= uk vk . (3.32)
k=1
Con ayuda del producto escalar podemos definir el producto de matrices de una forma sencilla.
Observación 3.1 Tenga presente que para que exista la matriz C = AB, el número de columnas de A debe ser igual al
número de filas de B. En la Definición 3.7, se tiene que
D E
At(i) , B j = A(i) B j .
Esto quiere decir que para construir el elemento ci j se debe multiplicar la fila A(i) con la columna B j .
Ejemplo 3.3 Como una aplicación sencilla de la multiplicación de matrices, le sugerimos que estudie el Ejemplo 2.2.6
de [1] sobre el contacto directo e indirecto con una enfermedad contagiosa.
Puesto que el número de columnas de A es igual al número de filas de B, existe la matriz producto C = AB ∈ M24 (R). Se
tiene que:
1
c11 = A(1) B1 = 1 −1 0 0 = 1;
1
2
c12 = A(1) B2 = 1 −1 0 2 = 0;
0
−1
c13 = A(1) B3 = 1 −1 0 −1 = 0;
−1
0
c14 = A(1) B4 = 1 −1 0 0 = 0;
0
1
c21 = A(2) B1 = 1 2 1 0 = 2;
1
2
c22 = A(2) B2 = 1 2 1 2 = 6;
0
−1
c23 = A(2) B3 = 1 2 1 −1 = −4;
−1
0
c24 = A(2) B4 = 1 2 1 0 = 1.
0
Por tanto: !
10 0 0
C = AB = .
2 6 −4 1
A (B + C) = AB + AC. (3.34)
ii) Propiedad Asociativa. Si A ∈ Mm×n (K), B ∈ Mn×p (K) y C ∈ M p×q (K) se tiene que
Por la definición de igualdad de matrices, (3.2), probar (3.34) equivale a probar que
∀i ∈ Im , ∀ j ∈ I p : ei j = gi j + hi j . (3.36)
42 3 El espacio vectorial Mm×n (K)
Procedamos. Tomamos ı́ndice genéricos i ∈ Im y j ∈ I p . Entonces, por la propiedad distributiva de K y por la definición de
producto de matrices, (3.33), se tiene que:
n
X
ei j = aik bk j + ck j
k=1
n
X
= aik bk j + aik ck j
k=1
n
X n
X
= aik bk j + aik ck j
k=1 k=1
= gi j + hi j .
t
u
Observación 3.2 Tenga presente que la multiplicación de matrices no cumple con la propiedad conmutativa.
Proposición 3.4 (Transpuesta de un producto) Sean A ∈ Mm×n (K) y B ∈ Mn×p (K). Se cumple que
(AB)t = Bt At . (3.37)
Definición 3.8 (Matriz Triangular / Matriz Diagonal) Sean n ∈ N y A = (ai j ) ∈ Mn×n (K). Se dice que A es una
matriz triangular superior si se cumple que
i> j ⇒ ai j = 0. (3.38)
Se dice que A es una matriz triangular inferior si At es triangular superior. Se dice que A es una matriz diagonal
si A es, al mismo tiempo, triangular superior e inferior.
En el marco de la Definición 3.8, A es triangular superior si tiene sólo ceros por debajo de la diagonal principal:
Asimismo, A es triangular inferior si tiene sólo ceros por encima de la diagonal principal:
Finalmente, A es diagonal si tiene sólo ceros por encima y por debajo de la diagonal principal:
3.3 Algunos tipos de matrices 43
es triangular inferior.
Entonces el delta de Kronecker es como un interruptor que se enciende cuando los dos subı́ndices coinciden.
Definición 3.9 (Matriz Identidad) Sea n ∈ N. Se denomina matriz identidad de orden n a la matriz diagonal
es decir
1 0 . . . 0
0 1 . . . 0
Idn = . . ..
(3.42)
.. .. . . . .
0 0 ...
1
Observación 3.3 Cuando no hay peligro de confusión, se puede escribir Id en lugar de Idn .
La matriz identidad tiene la propiedad de ser neutra con respecto a la multiplicación de matrices. Esto se establece
formalmente en el siguiente teorema.
Demostración. Probaremos (3.43) en tanto que la demostración de (3.44) queda como ejercicio para el estudiante.
Tomamos una matriz genérica A = (ai j ) ∈ Mm×n (K) y denotemos A Idn = (ei j ). Entonces, para ı́ndices genéricos i ∈ Im y
j ∈ In , se tiene que
n
X
ei j = aik δk j
k=1
= ai j · 1,
44 3 El espacio vectorial Mm×n (K)
donde se ha usado (3.40). Puesto que i, j fueron elegidos arbitrariamente, se ha probado que
∀i ∈ Im , ∀ j ∈ In : ei j = ai j ,
t
u
Ejemplo 3.6 Como un ejemplo de aplicación de los conceptos estudiados, se recomienda estudiar la breve presentación
sobre cadenas de Markov y matrices de transición de las páginas 72 y 73 de [1].
Definición 3.10 (Matriz Invertible) Se dice que una matriz A ∈ Mn×n (K) es una matriz invertible si existe una
matriz B ∈ Mn×n (K) tal que
AB = BA = Idn . (3.45)
Proposición 3.5 (Unicidad de la Matriz Inversa) En el marco de la Definición 3.10, la matriz B es única y, por
ello, se denotará A−1 y se dirá que A−1 es la matriz inversa de A. Por tanto se escribe
Demostración. Supongamos que existen dos matrices B1 , B2 ∈ Mn×n (K) tales que
AB1 = B1 A = Idn
AB2 = B2 A = Idn
(3.47)
B1 , B2 .
B1 = B1
= B1 Idn
= B1 (AB2 )
= (B1 A)B2
= Idn B2
= B2 ; (3.48)
lo cual contradice (3.47). Por tanto se concluye que B1 = B2 , es decir que existe una única inversa de A.
t
u
Teorema 3.3 (Propiedades de la inversión) Sean A, B ∈ Mn×n (K), matrices invertibles. Se tiene que
−1
A−1 = A; (3.49)
(AB) = B A ;−1 −1 −1
(3.50)
−1 t
At = A−1 . (3.51)
Demostración. Usemos (3.45) para probar (3.50). Se tiene, por la propiedad asociativa, que
(AB) B−1 A−1 = (AB) B−1 A−1
= A BB−1 A−1
= (A Idn ) A−1
= AA−1
= Idn ,
t
u
A0 = Idn (3.52)
Corolario 3.1 (Inversa de una potencia) Sea A ∈ Mn×n (K), matriz invertible. Se tiene que
n
An −1 = A−1 .
∀n ∈ N : (3.54)
46 3 El espacio vectorial Mm×n (K)
Pn ⇒ Pn+1 .
Se tiene que:
!n+1 !n
β1 β1 β1
!
= ·
0β 0β 0β
β nβ β1
n n−1
! !
= ·
0 βn 0β
βn+1 β + nβ
n n
!
=
0 βn+1
βn+1 (n + 1)βn
!
= .
0 βn+1
3.5 Ejercicios resueltos 47
P2 (Idn − P) = P(Idn − P)
= P − P2
= 0.
Se tiene que
P2 = P2 + P2 (Idn − P)
= P2 (2Idn − P)
= 2P2 − P3 . (3.59)
0 0 1 0 . . . 0 0 0
. . . 0 0 0
0 0 0 1
0 0 0 0 . . . 0 0 0
D = (δi+2, j ) = ... ... ... ... . . .
. . . .. .. .. ,
2
. . . 0 0 1
0 0 0 0
. . . 0 0 0
0 0 0 0
... 0 0 0
0000
es decir que en D2 , los elementos no-nulos se han desplazado hacia la derecha, con respecto a D. De forma similar
se encuentra que
D3 = (δi+3, j ),
y, análogamente
Dk = (δi+k, j ), k = 1, 2, ..., n − 1.
Ası́ que, en particular:
. . . 0 1
0 0 0 0
. . . 0 0
0 0 0 0
0 0 0 0 . . . 0 0
Dn−1 = . . . . . .
.. .. .. .. . . . .. ..
. . . 0 0
0 0 0 0
... 0 0
0000
y, por tanto:
Dn = 0,
es decir
(C − Idn )n = 0.
b) Para este punto aprovecharemos fórmulas de productos notables y el hecho de que la matriz identidad conmuta
con cualquier matriz.
b1) Supongamos que n ∈ N es impar. Recordemos que, para x ∈ R, se tiene que:
3.5 Ejercicios resueltos 49
La fórmula (3.63) se puede trasladar a matrices cuadradas reemplazando el número 1 por la matriz identidad:
n−1
X
∀n ∈ N, n impar , ∀X ∈ Mn (R) : Idn + X n = (Idn + X) (−1)k X k . (3.65)
k=0
k=0
n−1
X
Idn = C · (−1)k (C − Idn )k ,
k=0
La fórmula (3.66) se puede trasladar a matrices cuadradas reemplazando el número 1 por la matriz identidad:
n−1
X
∀n ∈ N, n par , ∀X ∈ Mn (R) : Idn + X n = (Idn + X) (−1)k X k + 2X n . (3.68)
k=0
3) Resuelva la ecuación
3(2Γ + Λ + X) = 5(X − Γ + Λ), X ∈ M2 (R),
! !
1 −1 −1 0
donde Γ = yΛ= .
2 3 2 3
4) Resuelva la ecuación
ΓX + XΛ = Θ, X ∈ M2 (R),
! ! !
20 50 10
donde Γ = ,Λ= yΘ= .
03 06 01
5) Resuelva la ecuación
AX = C, X ∈ M4×2 (R),
donde ! !
5 034 65
A= , C= .
−1 2 0 1 35
6) Siguiendo el método presentado en el Ejemplo 3.7, analice si las siguientes matrices son invertibles y, en caso de
serlo, halle la inversa: ! !
12 −i 0
U= ∈ M2×2 (R), V= ∈ M2×2 (C).
24 0 i
7) Considere los vectores
3.6 Ejercicios propuestos 51
hv, vi ≥ 0; (3.70)
hv, vi = 0 ⇐⇒ v = 0. (3.71)
9) Calcule Dk :
1 4 6 −1 2 0 −3 1 4 6 −1 2 0 −3
D1 = −2 3 5 4 2 5 −1 , D1 = −2 3 5 4 2 5 −1 (3.72)
1 0 4 2 −1 0 9 1 0 4 2 −1 0 9
donde,
−x 0 β
1
v = 1 , B = β −x 0 .
1 0 β −x
donde,
−1 x 0 β γ
−1 0 β γ x
u = , C = .
−1 β γ x 0
−1 0 β γ x
12) Resuelva la ecuación
A2 − 25 Id2 = 0, x ∈ C,
donde, !
50
A= .
2x
13) Encuentre condiciones para α, β, γ, η ∈ R de manera que se cumpla
AB = BA,
donde,
αβ
! !
11
A= , B= .
01 γη
−1 3 5
14) Sea A = 1 −3 −5. Pruebe que A2 = A. A.
−1 3 5
15) Sea α ∈ R. Pruebe por inducción matemática que
!n
α1 αn nαn−1
!
∀n ∈ N : = .
0α 0 αn
∃k ∈ N : Ak = Idn .
Pruebe que A es invertible y halle A−1 . !
xy
17) Encuentre todas las matrices de la forma A = ∈ M2 (R) que verifican A2 = Id2 .
0y
∀i ∈ In : aii , 0,
MD = DM ⇒ M es diagonal.
AB = BA.
9) Sea A, B ∈ Mn×n (K) matrices invertibles tales que A + B−1 también es invertible. Pruebe que A−1 + B es invertible y
que
−1 −1
A−1 + B = A A + B−1 B−1 .
10) Sea n ∈ N. Considere la matriz A ∈ Mn (R) dada mediante
1 1 0 0 . . .
0 0
0 1 1 0 . . . 0 0
0 0 1 1 . . . 0 0
A = . . . . .. .. .
.. .. .. .. . . . . .
0 0 0 0 . . .
1 1
1 0 0 0 ...
01
Pruebe que
13) Se dice que una matriz P = (pi, j ) ∈ Mn×n (R) es una matriz de probabilidades si cumple las siguientes condiciones
a) todos sus elementos son no-negativos, es decir
∀i, j ∈ In : pi j ≥ 0; (3.78)
∀i, j ∈ In , i , j : r ji = 1 − ri j . (3.80)
1 El ajedrecista checo Hermann Neustadtl propusó este sistema de desempate en la revista Chess Montly en 1882. Los principales crı́ticos del
método fueron William Sonnenborn y Johann Berger, quienes propusieron su propio sistema de desempate que, sin embargo, no tuvo acogida
entre los ajedrecistas.
54 3 El espacio vectorial Mm×n (K)
t
v) El vector NSB es N = N1 N2 . . . Nn . Pruebe que
N = RP. (3.84)
vi) Muestre que para el jugador Ji el puntaje NSB parcial está dado mediante
ix) Por lo visto, en los puntos i) y ii) y teniendo presente la fórmula (3.83), ¿a qué tipo de desempeño tiende a favorecer
el método NSB?
x) Por lo visto, en los puntos i) y ii) y teniendo presente la fórmula (3.85), ¿a qué tipo de desempeño tiende a favorecer
el método NSB parcial?
vii) ¿Le parece justo el método general de desempate aplicado? ¿Qué sugerirı́a para mejorarlo?
15) Sea A ∈ Mn×n (K) tal que A2 = Idn . Pruebe que
∀n ∈ N : An = Idn ; (3.86)
∀n ∈ N : (A + Idn ) = Idn + (2 − 1)A.
n n
(3.87)
1) Pruebe que
∀A, B,C ∈ Mn×n (K) : ABC − CAB , −Idn . (3.88)
2) Sea n ∈ N. Se define la función:
Pruebe que
3) Sean m, n ∈ N y U ∈ Mm×n (R) tal que U t U ∈ Mn×n (R) es invertible. Se define la matriz
−1
P = Idm − U U t U U t ∈ Mm×m (R).
a) Pruebe que P2 = P.
b) Pruebe que PU = 0 ∈ Mm×n (R).
c) Pruebe que las matrices U t U y P son simétricas.
4) Se dice que una matriz P = (pi, j ) ∈ Mn×n (R) es una matriz de probabilidades si cumple las siguientes condiciones: a)
todos sus elementos son no-negativos; b) la suma de elementos en cada fila es igual a 1.
a) Pruebe que si P ∈ Mn×n (R) es una matriz de probabilidades entonces P2 también lo es.
b) Pruebe que si P, Q ∈ Mn×n (R) son matrices de probabilidades entonces PQ también lo es.
5) Sean A, B ∈ Mm×n (K). Pruebe que
7) Pruebe que toda matriz cuadrada es la suma de una !matriz simétrica y una matriz antisimétrica.
1 λ
8) Considere la función R \ {0} 3 λ 7−→ Aλ = ∈ M2 (R).
−λ−1 −1
a) Pruebe que
Aλ Aµ = Aµ Aλ ⇐⇒ λ = µ. (3.95)
b) Pruebe que
ui j = δi j + δi+1, j
a) Pruebe que
(U − Idn )n = 0.
56 3 El espacio vectorial Mm×n (K)
donde tanto los coeficientes ai j como los términos independientes bi pertenecen a K. A la matriz
se les refiere como vector de incógnitas y vector de términos independientes, respectivamente. Obsérvese que el sistema
(4.1)-(4.3) es equivalente a la ecuación matricial:
Ax = b, x ∈ Kn . (4.6)
Observación 4.1 Se dice que el sistema de ecuaciones (4.1)-(4.3) es real si todos los coeficientes, incógintas y términos
independientes viven en R. De la misma manera se habla de un sistema complejo.
Definición 4.1 (Solución de un sistema de ecuaciones) Una solución del sistema de ecuaciones (4.1)-(4.3) (o
equivalentemente de la ecuación matricial (4.6)), es un vector
∗
x1
x∗
x∗ = 2 ∈ Kn
...
xn∗
tal que al reemplazar en el sistema los valores x1∗ , x2∗ , ..., xn∗ , se vuelven verdaderas todas las igualdades.
58 4 Operaciones elementales de fila
Observación 4.2 Resolver el sistema de ecuaciones (4.1)-(4.3) quiere decir hallar su conjunto solución, es decir hallar
el conjunto
x1
x
2
CS = = n
.
x . ∈ : x es solución de (4.1)-(4.3) (4.7)
. K
.
xn
Teorema 4.1 (Solución por la matriz inversa) Suponga que m = n. Entonces el sistema de ecuaciones (4.1)-
(4.3) - equivalentemente (4.6) - tiene una única solución ssi A es invertible y, en este caso, dicha solución es:
x∗ = A−1 b. (4.8)
Observación 4.3 Recuerde que una matriz A ∈ Mn×n (K), n = 2, 3, es invertible ssi det(A) , 0. Esto es válido para n > 3
y se establecerá formalmente en un capı́tulo posterior.
Se dice que los sistemas de ecuaciones lineales (con el mismo número de incógnitas pero no necesariamente el mismo
número de ecuaciones):
A1 x = b1 , x ∈ Kn ,
A2 x = b2 , x ∈ Kn ,
Ax = 0. (E)
si n ≤ m: (H) es consistente;
si n > m: (H) es indeterminado en tanto que (E) no es determinado.
Ejemplo 4.1 (Sistema determinado) Consideremos el sistema de tres ecuaciones con dos incógnitas
Obsérvese que si restamos a la ecuación (4.10) las ecuaciones (4.9) y (4.11) se obtiene la identidad
4.1 Sistemas de Ecuaciones Lineales 59
0 = 0,
de manera que el sistema propuesto es equivalente al sistema de dos ecuaciones, (4.9) y (4.11), con dos incógnitas:
3x1 − 2x2 = 4,
2x1 + 4x2 = 8.
Aplicando alguno de los métodos básicos aprendidos en bachillerato, como el método de sustitución o el método de
reemplazo, se encuentra que
x∗
! !
2
x∗ = 1∗ = ∈ R2 ,
x2 1
es la única solución del sistema (4.9)-(4.11). El correspondiente conjunto solución es:
( !)
2
CS = .
1
Ejemplo 4.2 (Sistema indeterminado) Consideremos el sistema real de dos ecuaciones con dos incógnitas
x1 − x2 = 7, (4.12)
2x1 − 2x2 = 14. (4.13)
x1∗
!
x2∗
es una solución. Por ejemplo, si elegimos x2∗ = 0, se tendrá x1∗ = 7 de manera que el vector
!
7
0
Ejemplo 4.3 (Sistema inconsistente) Consideremos el sistema real de dos ecuaciones con dos incógnitas
x1 − x2 = 7, (4.15)
2x1 − 2x2 = 13. (4.16)
60 4 Operaciones elementales de fila
0 = 1,
CS = ∅.
Las operaciones aplicadas en los Ejemplos 4.1, 4.2 y 4.3 son a las que se recurre habitualmente para resolver sistemas
de ecuaciones lineales. Al transferirse al contexto de matrices, estas operaciones elementales de fila constituyen una
herramienta fundamental para su análisis y, en particular, permiten esquematizar métodos (e.g. el método de Gauss-
Jordan) para la resolución de sistemas de ecuaciones lineales.
En un sistema de ecuaciones es claro que se pueden intercambiar ecuaciones obteniéndose un sistema equivalente.
Esto, a nivel de matrices, corresponde a la permutación de filas.
4.2 Operaciones elementales de fila 61
Definición 4.4 (Permutación de filas) Sean m, n ∈ N y A, B ∈ Mm×n (K). Si r, s ∈ Im con r , s, entonces la nota-
ción
Fr ↔ F s
A −−−−−−−−−→ B (4.21)
indica que la matriz B se obtiene a partir de la matriz A, por permutación de las filas r y s.
Teorema 4.2 (Matriz de permutación) Sean m, n ∈ N y A ∈ Mm×n (K). Para r, s ∈ Im , r , s, denotamos por Prs
a la matriz elemental que resulta de Idm al permutar las filas r y s, es decir
Fr ↔ F s
Idm −−−−−−−−−→ Prs (4.22)
Entonces la matriz
B = Prs A (4.23)
es tal que
Fr ↔ F s
A −−−−−−−−−→ B. (4.24)
Demostración. Denotemos A = (ai j ) y B = (bi j ). Observemos que la matriz Prs = (pi j ) ∈ Mm×m (K) es tal que para j ∈ In :
δi j , si i ∈ Im \ {r, s},
pi j = δ s j , si i = r,
δr j , si i = s.
y
n
X n
X
bs j = p sk ak j = δrk ak j = 1 · ar j = ar j ,
k=1 k=1
de manera que
B(r) = A(s) , B(s) = A(r) . (4.26)
Por (4.25) y (4.26) se sigue (4.24).
t
u
Fr ↔ F s
Idn −−−−−−−−−→ Prs (4.28)
Entonces la matriz
B = APrs (4.29)
se obtiene de A al intercambiar las columnas r y s.
t
u
0 1 0 0
1 0 0 0
P12 = ∈ M4×4 (R)
0 0 1 0
0 0 0 1
de manera que
B = P12 A.
La permutación de las columnas 2 y 3 de A se puede obtener mediante el producto
AP23 ,
donde
1 0 0
P23 = 0 0 1 ∈ M3×3 (R).
010
En un sistema de ecuaciones es claro que se pueden multiplicar a una ecuación por un escalar no-nulo obteniéndose un
sistema equivalente. Esto, a nivel de matrices, corresponde la ponderación de una fila por un escalar.
4.2 Operaciones elementales de fila 63
Definición 4.5 (Ponderación de una fila por un escalar) Sean m, n ∈ N y A, B ∈ Mm×n (K). Si r ∈ Im y λ ∈ K\{0},
entonces la notación
Fr ← (λ) · Fr
A −−−−−−−−−−−−−→ B (4.31)
indica que la matriz B se obtiene a partir de la matriz A, al reemplazar la fila A(r) por λA(r) .
Teorema 4.3 (Matriz de ponderación de fila) Sean m, n ∈ N y A ∈ Mm×n (K). Para r ∈ Im y λ ∈ K \ {0}, denota-
mos por Wr (λ) a la matriz elemental que resulta de Idm al ponderar la fila r por λ, es decir
Fr ← (λ) · Fr
Idm −−−−−−−−−−−−−→ Wr (λ) (4.32)
Entonces la matriz
B = Wr (λ)A (4.33)
es tal que
Fr ← (λ) · Fr
A −−−−−−−−−−−−−→ B. (4.34)
La demostración del resultado anterior se requiere como ejercicio al final del capı́tulo.
Corolario 4.2 (Ponderación de columna) Sean m, n ∈ N y A ∈ Mm×n (K). Para r ∈ In y λ ∈ K \ {0}, consideramos
Fr ← (λ) · Fr
Idn −−−−−−−−−−−−−→ Wr (λ) (4.36)
Entonces la matriz
B = AWr (λ) (4.37)
se obtiene de A al reemplazar la columna Ar por λAr .
t
u
1 0 0 0
0 1 0 0
W3 (−2) = ∈ M4×4 (R)
0 0 −2 0
0 0 0 1
de manera que
64 4 Operaciones elementales de fila
B = W3 (−2) A.
La multiplicación de la columna 1 de A por el número 1/2 se puede obtener mediante el producto
AW1 (1/2),
donde
1/2 0 0
W1 (1/2) = 0 1 0 ∈ M3×3 (R).
0 01
En un sistema de ecuaciones es claro que se puede sumar a una fila el múltiplo de otra fila obteniéndose un sistema
equivalente. Esto, a nivel de matrices, corresponde la suma de una fila con la ponderación de otra fila.
Definición 4.6 (Suma de una fila con la ponderación de otra fila) Sean m, n ∈ N y A, B ∈ Mm×n (K). Si r, s ∈ Im ,
r , s, y λ ∈ K, entonces la notación
Fr ← Fr + (λ) · F s
A −−−−−−−−−−−−−−−−−−→ B (4.38)
indica que la matriz B se obtiene a partir de la matriz A, al reemplazar la fila A(r) por A(r) + λ · A(s) .
Teorema 4.4 (Matriz de suma de una fila por la ponderación de otra) Sean m, n ∈ N y A ∈ Mm×n (K). Para
r, s ∈ Im y λ ∈ K, denotamos por Qrs (λ) a la matriz elemental que resulta de Idm al reemplazar la fila A(r) por
A(r) + λ · A(s) , es decir
Fr ← Fr + (λ) · F s
Idm −−−−−−−−−−−−−−−−−−→ Qrs (λ). (4.39)
Entonces la matriz
B = Qrs (λ)A (4.40)
es tal que
Fr ← Fr + (λ) · F s
A −−−−−−−−−−−−−−−−−−→ B. (4.41)
Demostración. Denotemos A = (ai j ) y B = (bi j ). Observemos que la matriz Qrs (λ) = (qi j ) ∈ Mm×m (K) es tal que para
j ∈ In :
δi j ,
si i ∈ Im \ {r},
qi j =
δr j + λδ s j , si i = r.
de manera que
B(r) = B(r) + λ · A(s) . (4.43)
Por (4.42) y (4.43) se sigue (4.41).
4.2 Operaciones elementales de fila 65
t
u
Corolario 4.3 (Suma de una columna con la ponderación de otra columna) Sean m, n ∈ N y A ∈ Mm×n (K).
Para r, s ∈ In y λ ∈ K, consideramos
Fr ← Fr + (λ) · F s
Idn −−−−−−−−−−−−−−−−−−→ Qrs (λ) (4.45)
Entonces la matriz
B = AQrs (λ) (4.46)
se obtiene de A al reemplazar la columna Ar por Ar + λA s .
t
u
1 0 2 0
0 1 0 0
Q13 (2) = ∈ M4×4 (R)
0 0 1 0
0 0 0 1
de manera que
B = Q13 (2)A.
La suma de la columna 1 y tres veces la columna 2 de A se puede obtener mediante el producto
AQ12 (3),
donde
1 3 0
Q12 (3) = 0 1 0 ∈ M3×3 (R).
001
66 4 Operaciones elementales de fila
Definición 4.7 (Equivalencia de matrices) Sean A, B ∈ Mm×n (K). Se dice que A y B son matrices equivalentes,
denotado
A ∼ B, (4.47)
si B se obtiene de A por aplicación sucesiva de un número finito de operaciones elementales de fila. En este caso,
si Ek representa la matriz asociada a la k-ésima operación elemental de fila, k = 1, 2, ..., q, entonces
q
Y
B= Ek · A (4.48)
k=1
= Eq Eq−1 . . . E2 E1 A. (4.49)
Teorema 4.5 En el conjunto Mm×n (K), ∼ define una relación de equivalencia, es decir cumple con las siguientes
propiedades
i) Reflexividad:
∀A ∈ Mm×n (K) : A ∼ A. (4.50)
ii) Simetrı́a:
∀A, B ∈ Mm×n (K) : A ∼ B ⇒ B ∼ A. (4.51)
iii) Transitividad:
∀A, B,C ∈ Mm×n (K) : (A ∼ B ∧ B ∼ C) ⇒ A ∼ C. (4.52)
Demostración. Probemos la reflexividad. Tomamos A ∈ Mm×n (K), genérico. Tomamos r, s ∈ Im , r , s, cualesquiera. Por
(4.27) se sigue que
Prs Prs A = A,
de manera que A ∼ A. Puesto que A fue elegida arbitrariamente, se ha probado que
∀A ∈ Mm×n (K) : A ∼ A.
Probemos ahora la simetrı́a. Sean A, B ∈ Mm×n (K), genéricas. Supongamos que A ∼ B de manera que existen matrices
elementales E1 , E2 , .., Eq tales que
B = Eq Eq−1 . . . E2 E1 A.
Por tanto, se tiene que
A = E1−1 E2−1 ...Eq−1
−1 −1
Eq B,
de manera que A ∼ B. Puesto que A y B fueron elegidas arbitrariamente, se ha probado que
Finalmente, probemos la transitividad. Sean A, B,C ∈ Mm×n (K), genéricas. Supongamos que A ∼ B y que B ∼ C de
manera que existen matrices elementales E1 , E2 , .., Eq y G1 ,G2 , ...,G p tales que
B = Eq Eq−1 . . . E2 E1 A; (4.53)
C = G p G p−1 . . . G2 G1 B. (4.54)
C = G p G p−1 . . . G2 G1 Eq Eq−1 . . . E2 E1 A,
t
u
4.3 Método de eliminación gaussiana / Método de Gauss-Jordan 67
En esta sección presentamos el método de eleiminación gaussiana para resolver sistemas de ecuaciones.
Definición 4.8 (Forma escalonada / forma escalonada reducida) Se dice que una matriz está en forma esca-
lonada si se cumplen las siguientes condiciones:
i) En caso de existir filas nulas, estas aparecen en la parte inferior de la matriz.
ii) En una fila no-nula, el primer elemento que aparece (de izquierda a derecha) es el número 1, denominado
pivote.
iii) Dadas dos filas no-nulas, el pivote de la fila inferior está más a la derecha del pivote de la fila superior.
Se dice que la matriz está en forma escalonada reducida si, adicionalmente, se cumple que
iv) En cualquier columna que contiene un pivote, el resto de elementos son ceros.
1 0 −3 4
A7 = 0 1 4 −1 .
00 0 0
Todas las matrices son escalonadas pero únicamente A5 , A6 y A7 son escalonadas reducidas.
Ax = b, x ∈ Kn , (4.55)
El método de eliminación gaussiana para resolver (4.55) consiste en hallar una matriz escalonada equivalente a
(A | b) y, entonces, despejar regresivamente las variables.
El método de Gauss-Jordan para resolver (4.55) consiste en hallar una matriz escalonada reducida equivalente a
(A | b).
68 4 Operaciones elementales de fila
En los siguientes ejemplos mostramos como se puede utilizar una secuencia de operaciones elementales de fila para
resolver un sistema de ecuaciones lineales.
Se tiene que
−3 4 0 5 F3 ← F3 + (7) · F2 −3 40
5 −3 4 0 5
5 F4 ← F4 + (6) · F2 F4 ← F4 + (−1) · F3
0 1 3 5 01
3 5 0 1 3
−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−→
0 2 −7 −5 3516
20 35 2 0 16
2 6 −6 4 3222 60 −3 4 0 6
−3 4 0 5
F4 ← F4 + (−1) · F1 5 0 1 3
−−−−−−−−−−−−−−−−−−−−→
35 2 0 16
0 00 1
donde la última lı́nea implica que
1 = 0x1 + 0x2 + 0x3 = 0,
lo cual es una falsedad. Por tanto, el conjunto solución del sistema es
CS = ∅,
Se tiene que
−3 4 0 5 F3 ← F3 + (7) · F2 −3 4 0 5 F2 ↔ F3 −3 4 0 5
5 0 1 3 −−−−−−−−−−−−−−−−−−→ 5 0 1 3 −−−−−−−−−→ 35 2 0 16
0 2 −7 −5 35 2 0 16 5 01 3
F1 ← (−1/73) · F1
F1 ← F1 + (−2) · F2 −73 0 0 −27 F2 ← (1/2) · F2 1 0 0 27/73
−−−−−−−−−−−−−−−−−−−−→ 35 2 0 16 −−−−−−−−−−−−−−−−−−→ 35/2 1 0 8
5 01 3 5 01 3
F2 ← F2 + (−35/2) · F1
F3 ← F3 + (−5) · F1 1 0 0 27/73
−−−−−−−−−−−−−−−−−−−−−−−→ 0 1 0 223/146
0 0 1 84/73
Se tiene que
F1 ← (−1) · F1
−1 4 −7 0 F2 ← F2 + (3) · F1 −1 4 −7 0 F2 ← (1/11) · F2 1 −4
! ! !
7 0
−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−→
3 −1 8 2 0 11 −13 2 0 1 −13/11 2/11
de manera que el sistema tiene infinitas soluciones. El conjunto solución del sistema es
x
1 25 8 13 2
CS = 3
= + , = +
x ∈ : x − x x x
2 R 1 3 2 3
11 11 11 11
x
3
Ax = 0, (H)
Ax = b. (E)
Si denotamos por CS H y CS E los correspondientes conjuntos solución, se tiene que
n o
CS E = x p + xh : xh ∈ CS H , (4.58)
Teorema 4.6 (Matriz inversa por Gauss-Jordan) Sean n ∈ N y A ∈ Mn×n (K). Entonces
Demostración. ⇐)
Supongamos que A es equivalente a la matriz identidad. Entonces existen matrices elementales E1 , E2 , ..., Eq tales que
70 4 Operaciones elementales de fila
⇒)
Supongamos ahora que A es invertible, es decir que existe A−1 ∈ Mn×n (K) tal que
A−1 A = Idn .
Ahora tomamos B ∈ Mn×n (K) escalonada reducida y tal que B ∼ A−1 . Entonces existen matrices elementales E1 , E2 , ..., Eq
tales que
A−1 = Eq Eq−1 ...E2 E1 B
y, por ello, se tiene que
Eq Eq−1 ...E2 E1 BA = Idn .
La última desigualdad implica que, adicionalmente, ninguna fila de B es nula. Por tanto, B también es matriz elemental
de manera que A ∼ Idn .
t
u
Observación 4.5 Por (4.60) y (4.61) se tiene que la secuencia de operaciones elementales de fila que llevan desde A
hasta Idn , lleva desde Idn hasta A−1 . Esto nos guı́a a usar el siguiente esquema de matrices ampliadas para obtener la
matriz inversa de A:
E1
..
.
Eq
(A | Idn ) −−−→ (Idn | A) (4.62)
Entonces, en la práctica, para hallar A−1 se parte de la matriz ampliada
(A | Idn )
Se tiene que
−3 4 0 1 0 0 F3 ← F3 + (7) · F2 −3 4 0 1 0 0
5 0 1 0 1 0 −−−−−−−−−−−−−−−−−−→ 5 0 1 0 1 0
0 2 −7 0 0 1 35 2 0 0 7 1
F2 ↔ F3 −3 4 0 1 0 0 F1 ← F1 + (−2) · F2 −73 0 0 1 −14 −2
−−−−−−−−−→ 35 2 0 0 7 1 −−−−−−−−−−−−−−−−−−−−→ 35 2 0 0 7 1
5 01010 5 010 1 0
F1 ← (−1/73) · F1
F2 ← (1/2) · F2 1 0 0 −1/73 14/73 2/73
−−−−−−−−−−−−−−−−−−→ 35/2 1 0 0 7/2 1/2
5 01 0 1 0
4.3 Método de eliminación gaussiana / Método de Gauss-Jordan 71
F2 ← F2 + (−35/2) · F1
F3 ← F3 + (−5) · F1 1 0 0 −1/73 14/73 2/73
−−−−−−−−−−−−−−−−−−−−−−−→ 0 1 0 35/146 21/146 3/146
0 0 1 5/73 3/73 −10/73
Definición 4.9 (Rango de una matriz) Sean m, n ∈ N y A ∈ Mm×n (K). Sea B ∈ Mm×n (K) escalonada reducida
tal que A ∼ B. Se denomina rango de la matriz A, denotado rg(A), al número de filas no nulas de B.
Observación 4.6 De la definición anterior es inmediato que una matriz A de orden n es invertible ssi rg(A) = n.
72 4 Operaciones elementales de fila
B = Eq . . . E2 E1 A.
F1 ← (−1/38) · F1 0 1 ! F2 ← F2 + (−14) · F1 0 1! 10
!
−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−−→ F1 ↔ F2 = B.
1 14 10 01
Por tanto las matrices elementales requeridas son
! !
10 1 −3
E1 = Q21 (2) = , E2 = Q12 (−3) = ,
21 0 1
! !
−1/38 0 1 0
E3 = W1 (−1/38) = , E4 = Q21 (−14) = ,
0 1 −14 1
!
01
E5 = P12 = .
10
Con esto se cumple que
B = E5 E4 E3 E2 E1 A.
4.4 Ejercicios resueltos 73
!
4 5
2) Considere la matriz real A = .
−6 7
a) Halle B, una matriz escalonada reducida, que sea equivalente a A.
b) Halle matrices elementales E1 , ..., Eq tales que
B = Eq . . . E2 E1 A.
4 5 F2 ← F2 + (1) · F1 4 5 F2 ← (−1/2) · F2 4 5
! ! !
A= −−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−→
−6 7 −2 12 1 −6
(A | Id) →
− (B | P).
En efecto, si se consiguen matrices elementales E1 , E2 , ..., Eq tales que
B = Eq Eq−1 . . . E2 E1 A,
se tendrı́a que
P = Eq Eq−1 . . . E2 E1 Id,
de manera que la secuencia de operaciones elementales de fila que llevan desde A hasta B, llevan desde Id hasta P. Se
tiene que
3 4 −2 1 0 F2 ← F2 + (2) · F1 3 4 −2 1 0 F1 ↔ F2 1 14 3 2 1
! ! !
(A | Id) = −−−−−−−−−−−−−−−−−−→ −−−−−−−−−→
−5 6 7 0 1 1 14 3 2 1 3 4 −2 1 0
F2 ← F2 + (−3) · F1 1 14 3 2 1 ! F2 ← (−1/38) · F2 1 14 3 2 1
!
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−→
0 −38 −11 −5 −3 0 1 11/38 5/38 3/38
Tenemos que encontrar los coeficientes de p para que se cumplan las condiciones requeridas. Se tiene que:
p(−1) = α − β + γ − δ = 0,
p(1) = α + β + γ + δ = 4,
p(2) = α + 2β + 4γ + 8δ = 3,
p(3) = α + 3β + 9γ + 27δ = 16.
Por tanto:
F2 ← F2 + (−1) · F1
F3 ← F3 + (−1) · F1
1 −1 1 −1 0 1 −1 1 −1 0 1 −1 1 −1 0
1 1 4 F4 ← F4 + (−1) · F1 0 2
1 1 F3 ← (1/3) · F3
0 2 4 0 2 0 2 4
1 2 −−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→
4 8 3 0 3 3 9 3 0 1 1 3 1
1 3 9 27 16 0 4 8 28 16 0 4 8 28 16
F1 ← F1 + (2) · F2
F3 ← F3 + (−1) · F2 1 0 0 −2 3 1 0 0 −2 3
F4 ← F4 + (4) · F2 0 1 0 1 2 F4 ← (1/8) · F4 0 1 0 1 2
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→
0 0 1 2 −1
0 0 1 2 −1
0 0 0 8 16 000 1 2
F1 ← F1 + (2) · F4
F2 ← F2 + (−1) · F4 1 0 0 0 7
F3 ← F3 + (−2) · F4 0 1 0 0 0
−−−−−−−−−−−−−−−−−−−−→
0 0 1 0 −5
0001 2
de manera que
α = 7, β = 0, γ = −5, δ = 2.
76 4 Operaciones elementales de fila
5) Sea λ ∈ R. Analice bajo qué condiciones el sistema de ecuaciones es determinado, indeterminado, consistente e
inconsistente. En cada caso escriba explı́citamente el conjunto solución.
λx + y + z = 1,
x + λy + z = 1,
(4.63)
x + y + λz = 1.
λ 1 1
x 1
A = 1 λ 1 , u = y , b = 1 .
11λ z 1
Se tiene que
det(A) = λ3 − 3λ + 2 = (λ − 1)2 · (λ + 2).
a) Si λ ∈ R \ {1, −2}, entonces det(A) , 0 y, por tanto, el sistema (4.64) es determinado. Resolviendo el sistema por
Cramer se encuentra que
b) Si λ = 1, se tiene que las tres ecuaciones del sistema (4.64) son iguales a
x + y + z = 1.
F1 ← F1 + (1) · F2
2 ← F2 + (−1) · F3
F
−2 1 1 1 F1 ← F1 + (2) · F3 0 0 0 3
(A|b) = 1 −2 1 1 −−−−−−−−−−−−−−−−−−−−→ 0 −3 3 0
1 1 −2 1 1 1 −2 1
6) Considere la matriz
−3 4 1 0
2 1 −4 2
D =
−1 2 3 4
2 0 1 4
a) Halle F una matriz escalonada reducida, que sea equivalente a la matriz D.
b) Indique el rango de de la matriz D.
Desarrollo. Hay infinitas maneras de proceder. Por ejemplo:
F4 ← F4 + (−2) · F1
F3 ← F3 + (5) · F1
2 4 −10 0 1 2 −5 0
F1 ← F1 + (−1) · F3 −2 −2 9 0 F1 ← (1/2) · F1 −2 −2 9 0 F2 ← F2 + (2) · F1
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−→
−5 0 11 0 −5 0 11 0
2 1 −4 2 2 1 −4 2
F1 ← F1 + (−5) · F2
1 2 −5 0 F3 ← F3 + (−14) · F2 1 −8 0 0 1 −8 0 0
F4 ← F4 + (−6) · F2 F3 ← (−1/18) · F3
0 2 −1 0 0 2 −1 0 0 2 −1 0
−−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−→
0
10 −14 0 0 −18 0 0 0 1 0 0
0 −3 6 2 0 9 0 2 0 9 0 2
F1 ← F1 + (8) · F3 F2 ↔ F3
F2 ← F2 + (−2) · F3 1 0 0 0
F4 ← (1/2) · F4
1 0 0 0
F4 ← F4 + (−9) · F3 0 0 F2 ← (−1) · F2 0
0 −1 1 0 0
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→ =F
0 1 0 0 0 0 1 0
0 0 0 2 0 0 0 1
Puesto que F es escalonada reducida y equivalente a D se sigue que
rg(D) = 4
7) Analice bajo qué condiciones el sistema de ecuaciones es indeterminado y, en ese caso, indique el conjunto solución.
λx + y + z = 1,
x + λy + z = 1,
(4.64)
x + y + λz = 1.
λ 1 1
x 1
A = 1 λ 1 , u = y , b = 1 .
11λ z 1
Se tiene que
det(A) = λ3 − 3λ + 2 = (λ − 1)2 · (λ + 2).
Si λ ∈ R \ {1, −2}, entonces det(A) , 0 y, por tanto, el sistema (4.64) es determinado. Consideramos entonces que λ = 1
o λ = −2.
a) Si λ = −2, se tiene que
F1 ← F1 + (1) · F2
F2 ← F2 + (−1) · F3
−2 1 1 1 F1 ← F1 + (2) · F3 0 0 0 3
(A|b) = 1 −2 1 1 −−−−−−−−−−−−−−−−−−−−→ 0 −3 3 0
1 1 −2 1 1 1 −2 1
x + y + z = 1.
8) Considere la matriz
−3 4 1 0
2 1 −4 2
D =
−1 2 3 4
2 0 1 4
a) Halle F la matriz escalonada reducida, que sea equivalente a la matriz D.
b) Halle matrices elementales E1 , E2 , ..., Em tales que
F = Em . . . E2 · E1 · D.
F4 ← F4 + (−2) · F1
F3 ← F3 + (5) · F1
2 4 −10 0 1 2 −5 0
F1 ← F1 + (−1) · F3 −2 −2 9 0 F1 ← (1/2) · F1 −2 −2 9 0 F2 ← F2 + (2) · F1
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−→
−5 0 11 0 −5 0 11 0
2 1 −4 2 2 1 −4 2
F1 ← F1 + (−5) · F2
F3 ← F3 + (−14) · F2
1 2 −5 0 1 −8 0 0 1 −8 0 0
0 2 −1 F4 ← F4 + (−6) · F2 F3 ← (−1/18) · F3
0 0 2 −1 0 0 2 −1 0
0 10 −14 −−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−→
0 0 −18 0 0 0 1 0 0
0 −3 6 2 0 9 0 2 0 9 0 2
F1 ← F1 + (8) · F3 F2 ↔ F3
F2 ← F2 + (−2) · F3 1 0 0 0
F4 ← (1/2) · F4
1 0 0 0
F4 ← F4 + (−9) · F3 0 0 F2 ← (−1) · F2 0
0 −1 1 0 0
−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→ =F
0 1 0 0 0 0 1 0
0 0 0 2 0 0 0 1
Por tanto:
Por tanto:
i.1.a) Si γ = 0, entonces el sistema es indeterminado y
CS = R3 .
CS = ∅.
B = Eq . . . E2 · E1 · A.
F2 ← F2 + (−4) · F1
F3 ← F3 + (−3) · F1
5 5 −5 0 1 0 1 −7 1 0 1 −7
F1 ← F1 + (−1) · F2
4 5 −6 7 4 5 −6 7 F4 ← F4 + (−9) · F1 0 5 −10 35
A = −−−−−−−−−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−−−−−→
3 9 −15 9 3 9 −15 9 0 9 −18 30
91 7 6 9 1 7 6 0 1 −2 69
A−1 = Eq . . . E2 · E1 · A.
F3 ← F3 + (1 + i) · F2
1 i 0 10 0 F2 ← F2 + (i) · F1 1 i 0 1 0 0 F1 ← F1 + (i) · F2
(A | Id3 ) = −i 0 1 0 1 0 −−−−−−−−−−−−−−−−−−→ 0 −1 1 i 1 0 −−−−−−−−−−−−−−−−−−−−−→
0 1+i 1−i 0 0 1 0 1+i 1−i 0 0 1
F3 ← (1/2) · F3
i 0 F2 ← (−1) · F2 1 0 i 0 i 0
1 0 i 0
0 1 −1 −i −1 0
0 −1 1 i 1 0 −−−−−−−−−−−−−−−−→
1 1 1 1 1
0 0 2 −1 + i 1 + i 1 00 1 − + i + i
2 2 2 2 2
F2 ← F2 + (1) · F3 1 0 0 1 + 1 i 1 + 1 i − 1 i
F1 ← F1 + (−i) · F3
2 2 2 2 2
1 1 1 1 1
−−−−−−−−−−−−−−−−−−−→ 0 1 0 − i − + i .
2 2 2 2 2
1 1 1 1 1
001− + i + i
2 2 2 2 2
Entonces 1 1
+ i 1 1 1
2 2 + i − i
1 1 2 2 2
1 1 1
A = − i
−1
− + i .
2 2 2 2 2
1 1 1 1 1
− + i + i
2 2 2 2 2
Se tiene entonces que
A−1 = E7 · E6 . . . E2 · E1 ,
donde las matrices elementales son:
a) Pruebe que
Ue = ne.
b) Pruebe que
U 2 = nU.
1
c) Sea α , . Encuentre β ∈ R tal que
n
(I − αU)−1 = I + βU.
1
d) Sea α = . Pruebe que
n
(I − αU)e = 0.
Desarrollo.
a) Denotamos S = Ue = (si ) ∈ Rn . Para i ∈ In , genérico, se tiene que
n
X n
X
si = ui j e j = 1 = n.
j=1 j=1
∀i ∈ In : si = n,
de manera que
n 1
∀i, j ∈ In : wi j = n,
de manera que
n . . . n 1 . . . 1
α
β= .
1 − αn
d) Se tiene que
!
1
(Idn − αU)e = Idn − U e
n
1
= e − Ue
n
1
= e − ne
n
= 0.
86 4 Operaciones elementales de fila
a,b ∧ a,c ∧ b , c.
det(A) , 0. (4.67)
Se tiene que
1 1 1
det(A) = a b c
2 2 2
a b c
= bc2 + ab2 + a2 c − a2 b − b2 c − ac2
= ab(b − a) + ac(a − c) + bc(c − b). (4.68)
a , b. (4.69)
b , c. (4.70)
a , c. (4.71)
14) Considere que x, y, z ∈ R son variables y que λ, a, b, c ∈ R son parámetros. Usando el Método de Gauss-Jordan, analice
las condiciones bajo las cuales el sistema dado es determinado, indeterminado o inconsistente.
x + y + z = 1,
+ by + cz = λ,
ax
a2 x + b2 y + c2 z = λ2 .
F3 ← F3 + (−a ) · F1
2
1 1 1 1 F2 ← F2 + (−a) · F1 1 1 1 1
T 0 = a b c λ −−−−−−−−−−−−−−−−−−−−−→ 0 b − a c − a λ − a = T 1
a b c λ 0 b −a c −a λ −a
2 2 2 2 2 2 2 2 2 2
Por tanto:
i.1) Si c = a, entonces se tiene que
1 1 1 1
T 1 = 0 0 0 λ − a
0 0 0 λ −a
2 2
o, equivalentemente:
1 − y − z
CS = 3
.
y ∈ R : y, z ∈ R
z
F1 ← F1 + (−1) · F2
F2 ← (1/(c − a)) · F2
1 1 0 c−λ
1 1 1 1 F3 ← F3 + (−(c + a)) · F2 c − a
T 1 = 0 0 c − a λ − a −−−−−−−−−−−−−−−−−−−−−−−−−→ 0 0 1
λ−a = T 2
0 0 c −a λ −a
2 2 2 2 c−a
0 0 0 (λ − a)(c + λ + 2a)
Por tanto:
i.2.a) Si λ , a y λ , −2a − c, el sistema es inconsistente, es decir
CS = ∅.
Por tanto:
ii.1) Si c = a, se tiene que
Por tanto:
ii.1.a) Si λ , a y λ , −2a − b, el sistema es inconsistente, es decir
CS = ∅.
donde
(b − λ)(c − λ) (λ − a)(c − λ) (λ − a)(λ − b)
x∗ = , y∗ = , z∗ = .
(b − a)(c − a) (b − a)(c − b) (c − a)(c − b)
4.5 Ejercicios propuestos 89
1) Usando el método de Gauss-Jordan resuelva los siguientes sistemas (reales) de ecuaciones. Indique si el sistema es
determinado, indeterminado, inconsistente y/o consistente. Para los sistemas heterogéneos resuelva también el sistema
homogéneo asociado.
3x1 − 5x2 = 0,
x1 − 5x2 = 0, 2x − y = 0,
5x1 + 4x2 = 0,
−x1 + 5x2 = 1.
3x + 4y = 0.
2x1 + 5x2 = 0.
x + y − z = 0, x1 + x2 − x3 = 2,
x − 3y = 2,
+ = 1 − 4x2 + 3x3 = 3,
−
2x 4y 3z 0,
2x
−2x + 6y = −3.
3x + 7y − z = 0.
−x1 − 7x2 − 6x3 = 0.
3x − 5y + 4z = 0,
2x1 + 3x2 − x3 = 0, x − 3y + 2z = −1,
+ =
5x 4z 0,
6x1 − 5x2 + 7x3 = 0. 3x + 6y − 3z = 5.
2x + 5y − 2z = 0.
2) Usando el método de Gauss-Jordan resuelva los siguientes sistemas (reales) de ecuaciones. Indique si el sistema es
determinado, indeterminado, inconsistente y/o consistente. Para los sistemas heterogéneos resuelva también el sistema
homogéneo asociado.
4x1 − x2 = 0,
2x − 3y − 4z + 5w = 1, 2x1 − 5x2 − 6x3 − 3x4 = 0,
7x1 + 3x2 = 0,
+ = x1 + 3x2 − 5x3 + 4x4 = −1.
7y 3w 0.
−8x1 + 6x2 = 1.
x − 2y + z + w = 2,
−2x + 7w = 0,
2x1 − x2 = 0,
+ = + + = 3x1 + 5x2 = 0,
3x 2z − 2w −3, x 2y − z 4w 0,
4y − z − w = 0, 3x − z + 5w = 0, 7x1 − 3x2 = 0,
5x + 3z − w = 0.
4x + 2y + 3z = 1.
−2x1 + 3x2 = 0.
x + y − z = 1, 4x + 10y − 6z = −1,
+ + =
3x − 5x 12x 10x 1,
1 2 3 4
4x − y + 5z = −1, −6x − 9y − 9z = 0,
5x1 + 4x2 + 20x3 − 8x4 = −1,
+ = −x + 2y − 12z = −1,
−2x y − 2z 0,
2x + 5x + 8x − 10x = 0.
3x + 2y − 6z = 1.
1 2 3 4
−x − 6y − 12z = 0.
B = Eq Eq−1 ...E2 E1 A.
1 2 −1 1
6) Considere la matriz A = −1 0 1 2 .
0 2 1 −1
α β γ
1 2 3
A4 = δ θ , A5 = 1 1 2 . (4.73)
3α − 2δ 3β − 2 3δ − 2θ 012
k = E q E q−1 ...E 1 .
A−1
k = E q E q−1 ...E 1 .
A−1
α,β ∧ α,γ ∧ β , γ.
1) Pruebe el Teorema 4.3 siguiendo el método presentado en la demostración del Teorema 4.2.
2) Sea θ ∈ R. Considere el sistema real
2x − y − θz = 0,
x − y − 2z = 1,
(4.75)
−x + 2z = θ.
Usando eliminación gaussiana, analice el sistema e indique bajo qué condiciones el sistema es inconsistente, deter-
minado o indeterminado. En cada caso, provéa el conjunto solución.
3) Sea θ ∈ R. Considere el sistema real
θx + y + z = 1,
x + θy + z = 1,
(4.76)
x + y + θz = 1.
Usando eliminación gaussiana, analice el sistema e indique bajo qué condiciones el sistema es inconsistente, deter-
minado o indeterminado. En cada caso, provéa el conjunto solución.
4) Sean a, b, c ∈ R. Resuelva, usando el método de Gauss-Jordan, el sistema real:
ax1 + bx2 + 3ax3 + 4bx4 = c,
−3ax1 + 4bx3 = 2c,
(4.77)
bx1 + ax4 = −c.
Resuelva el sistema. Para el caso en que el sistema es determinado hallar la inversa de la matriz de coeficientes.
7) Considere que x, y, z, t ∈ R son incógnitas. Resuelva el sistema real
92 4 Operaciones elementales de fila
−x + y + z + t = a,
ax + by + cz + dt = p,
x − y + z + t = b, −bx + ay + dz − ct = q,
x + y − z + t = c, −cx − dy + az + bt = r,
x + y + z − t = d.
−dx + cy − bz + at = s.
a(x + t) + b(y + z) = c,
a0 (y + t) + b0 (z + x) = c0 ,
donde a , b, a0 , b0 , a00 , b00 .
a00 (z + t) + b00 (x + y) = c00 ,
x + y + z + t = d,
1) Sea n ∈ N. Considere las matrices A = (ai j ) ∈ Mn×n (R) y b = (bi ) ∈ Rn tales que
ai j = 1, i, j = 1, 2, ..., n;
bi = 1, i = 1, 2, ..., n. (4.80)
a) Pruebe que
Ab = nb, (4.81)
A = nA.
2
(4.82)
1
b) Sea λ , . Encuentre θ ∈ R tal que
n
(I − λA)−1 = I + θA. (4.83)
1
c) Sea λ = . Pruebe que
n
(I − λA)b = 0. (4.84)
2) Sea m ∈ R. Considere el siguiente sistema real
2x + y − z = 1,
x + my + z = m,
3x + y + mz = 1,
x + (1 − m)y − 2z = 1 − m.
Analice bajo qué condiciones el sistema es determinado, inconsistente e indeterminado y, en cada caso, halle el
correspondiente conjunto solución.
3) Sea n ∈ N. Suponga que los números βi , i = 1, 2, .., n, son todos distintos. Resuelva el sistema de n ecuaciones lineales
con n incógnitas tal que la i-ésima ecuación es
n
X n
X
a) βi−1
k xk = b .
i−1
c) i xk = bi .
βk−1
k=1 k=1
n
X n
X
b) βn−k
i xk + βi = 0. d) ik · xk + 1 = 0.
k=1 k=1
4) Sean α1 , α2 , α3 , α4 ∈ R. Usando el Método de Gauss-Jordan, analice las condiciones bajo las cuales el siguiente sistema
es determinado, indeterminado o inconsistente.
x1 + x2 + x3 = 1,
α1 x1 + α2 x2 + α3 x3 = α4 ,
α2 x1 + α2 x2 + α2 x3 = α2 .
1 2 3 4
5) Considere que x, y, z, t ∈ R son variables y que α, β, γ, δ ∈ R son parámetros. Analice las condiciones bajo las cuales el
sistema dado es determinado, indeterminado o inconsistente.
4.5 Ejercicios propuestos 93
x + y = 2α,
+ z = 2β,
y
z + t = 2γ,
x + t = 2δ.
6) Considere que x, y, z, t ∈ R son variables y que λ, a, b, c, d ∈ R son parámetros. Analice las condiciones bajo las cuales
el sistema dado es determinado, indeterminado o inconsistente.
5x − 3y + 3z + 4t = 3, x + y = 2a,
(λ + 1)x + y + z = 1,
4x − 2y + 3z + 7t = 1, y + z = 2b,
x + (λ + 1)y + z = 1,
8x − 6y − z − 5t = 9, z + t = 2c,
+ + + =
7x − 3y + 7z + t = λ.
x y (λ 1)z 1.
x + t = 2d.
x + y + z = 1,
x + ay − a2 z = 1,
(3λ + 3)x + λy + (λ + 3)z = 3λ − 3,
ax + by + cz = λ, x + by − b z = 1, λx + (λ − 1)y + z = λ − 1,
2
a2 x + b2 y + c2 z = λ2 .
x + cy − c2 z = 1.
(λ + 2)x + y + z = λ − 1.
(λ + 1)x + y + z = 1,
λx + y + z = 1, λx + (λ − 3)y + 4z = 0,
x + (λ + 1)y + z = 1,
+ λy + = λ, −x + (λ − 1)y + (λ + 1)z = 0,
x z
x + y + (λ + 1)z = 1,
x + y + λz = λ2 .
−2x − 2y + z = 0.
(λ + 3)x + (2λ + 4)y + (1 − λ)z = 2.
(λ − 1)x + y − z = λ,
(λ − 1)x + (c + 2)y + z = c,
(λ − 1)x + (c + 2)y + (c + 1)z = c2 ,
(−2c − 2)y − (c + 4)z = 2λ − c2 − c.
Capı́tulo 5
Determinantes
Como comentó brevemente en la Sección 1.4, a cada matriz cuadrada B ∈ Mn (K), se le puede asociar un número,
llamado determinante de B, que ayuda a identificar rápidamente varias de sus propiedades. Definiremos por recurrencia
una función
Caso n = 1
Caso n > 1
Definición 5.1 (Matriz menor) Sean n ∈ N \ {1} y A = (ai j ) ∈ Mn (K). Para cada i, j ∈ In , se denomina matriz
menor i − j a la matriz Mi j ∈ Mn−1 (K) que resulta de A al quitarle la fila i y la columna j.
Definición 5.2 (Determinante de orden n) Sean n ∈ N \ {1} y A = (ai j ) ∈ Mn (K). Se define el determinante de A
como el número
n
X
det(A) = |A| = a1 j cof 1 j (A), (5.3)
j=1
se calcula como
que es la fórmula conocida: el producto de la diagonal principal menos el producto de la diagonal secundaria.
se calcula como
det(A) = a11 cof 11 (A) + a12 cof 12 (A) + a13 cof 13 (A)
1+1 a22 a23 1+2 a21 a23 1+3 a21 a22
= a11 (−1) + a (−1) + a (−1)
a32 a33 12 a31 a33 13 a31 a32
= a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a21 a32 − a13 a31 a22 , (5.6)
que coincide con el resultado obtenido al aplicar la Regla de Sarrus o la Regla de Cramer.
Se tiene que
4 −5 0 −5 0 4
det(D) = 2 − (−3) + 5
−1 9 1 9 1 −1
= 2 · [4 · 9 − (−1)(−5)] + 3 · [0 · 9 − 1 · (−5)] + 5 · [0 · (−1) − 1 · 4]
= 2(31) + 3(5) + 5(−4) = −62 + 15 − 20 = 57.
5.2 Propiedades de los determinantes 97
El siguiente resultado establece que el determinante de una matriz triangular se calcula como el producto de los ele-
mentos de la diagonal principal.
Teorema 5.1 (Determinante de una matriz triangular) Sean n ∈ N \ {1} y A = (ai j ) ∈ Mn (K). Si A es triangular
entonces
n
Y
det(A) = akk (5.7)
k=1
donde se ha usado el hecho de que todas las matrices menores M1 j son triangulares superiores de orden n − 1 y que, para
j > 1, tienen al número cero en la primera fila y primera columna (por tanto en la diagonal principal).
t
u
Puesto que U es triangular superior, su determinante se calcula como el producto de los elementos de la diagonal
principal:
det(U) = u11 u22 u33 u44 u55 = (−3)(2 + i)(−1 + i)(−3)(−i) = 9 + 27i.
s = r + 1.
pues
1,
si k , r,
wkk =
λ,
si k = r.
iii) Puesto que Qrs (λ) = (qi j ) es triangular, se tiene que
n
Y
det (Qrs (λ)) = qkk = 1,
k=1
pues
qkk = 1, k = 1, 2, ..., n.
Corolario 5.2 (Determinante de una matriz multiplicada por una elemental) Sean A ∈ Mn (K) y E ∈ Mn (K)
una matriz elemental. Se tiene que
det(EA) = det(E) · det(A). (5.12)
El corolario anterior establece que el intercambio de filas en una matriz cuadrada provoca que el determinante cambie de
signo.
Corolario 5.4 (Determinante de una matriz con fila ponderada) Sean n ∈ N, A, B ∈ Mn (K), r ∈ In y λ ∈ K\{0}.
Si se cumple que
Fr ← (λ) · Fr
A −−−−−−−−−−−−−→ B (5.15)
entonces
det(B) = λ det(A). (5.16)
El corolario anterior establece que ponderar una fila de una matriz provoca que se pondere todo el determinante.
Corolario 5.5 (Determinante de una matriz con una fila añadida a la ponderación de otra) Sean n ∈ N,
A, B ∈ Mn (K), r, s ∈ Im con r , s y λ ∈ K. Si se cumple que
Fr ← Fr + (λ) · F s
A −−−−−−−−−−−−−−−−−−→ B (5.17)
entonces
det(B) = det(A). (5.18)
El corolario establece que atacar una fila de una matriz con el múltiplo de otra fila no altera al determinante.
El siguiente teorema es sumamente importante pues permite probar una serie de proposiciones adicionales.
i) Supongamos que A es invertible, es decir que existen matrices elementales E1 , E2 , ..., Eq tales que
Demostración.
A = E1 E2 ...Eq−1 Eq .
ii) Supongamos que A no es invertible es decir que det(A) = 0; de manera que también det(A) det(B) = 0. Se concluye
probando que AB no es invertible.
t
u
El siguiente resultado establece que la expansión por cofactores puede hacerse a través de cualquier fila, y no única-
mente por la primera, como se introdujo en la Definición 5.2. Más aún, por (5.20), indica que también se puede avanzar a
través de una columna.
Observación 5.1 (Expansiones y operaciones con columnas) Tenga presente que todos los teoremas, proposiciones y
corolarios de la presente lección son válidos para expansiones y operaciones con columnas.
Demostración. La demostración es directa, calculando det(C) por la expansión por cofactores a través de la fila i0 -ésima.
5.2 Propiedades de los determinantes 101
t
u
2 −1 3 4 −1
1 3 −2 5 3
B = 0 2 3 4 −1 .
2 0 1
−2 3
3 −1 1 4 2
Debemos aplicar los teoremas y propiedades de los determinantes presentados en esta sección. Hay muchas maneras de
hacerlo. Por ejemplo:
2 −1 3 4 −1 2 −1 3 4 0
1 3 −2 5 3 1 3 −2 5 0
C5 ← C5 + ((−1)) · C2
det(B) = 0 2 3 4 −1 ======================= 0 2 3 4 −3
2 0 1 −2 3 2 0 1 −2 3
3 −1 1 4 2 3 −1 1 4 3
F3 ← F3 + (1) · F5 2 −1 3 4 0 2 4 3 −1 0
F4 ← F4 + ((−1)) · F5 1 3 −2 5 0 C2 ↔ C4 1 5 −2 3 0
======================= 3 1 4 8 0 =========== − 3 8 4 1 0
−1 1 0 −6 0 −1 −6 0 1 0
3 −1 1 4 3 3 4 1 −1 3
F1 ← F1 + (1) · F4
F2 ← F2 + ((−3)) · F4 1 −2 3 0 0 4 14 4 0 0
F3 ← F3 + ((−1)) · F4 4 23 −2 0 0 F1 ↔ F3 4 23 −2 0 0
======================= − 4 14 4 0 0 =========== 1 −2 3 0 0
−1 −6 0 1 0 −1 −6 0 1 0
3 4 1 −1 3 3 4 1 −1 3
4 14 4 0 0 F1 ← F1 + ((−4)) · F3 −8 22 0 0 0
C1 ↔ C3 −2 23 4 0 0 F2 ← F2 + ((−4)) · F3 −14 31 0 0 0
=========== − 3 −2 1 0 0 ======================= − 3 −2 1 0 0
0 −6 −1 1 0 0 −6 −1 1 0
1 4 3 −1 3 1 4 3 −1 3
−8 6 0 0 0 20 0 0 0 0
C2 ← C2 + (2) · C1 −14 3 0 0 0 F1 ← F1 + ((−2)) · F2 −14 3 0 0 0
==================== − 3 4 1 0 0 ======================= − 3 4 1 0 0
0 −6 −1 1 0 0 −6 −1 1 0
1 6 3 −1 3 1 6 3 −1 3
de manera que
det(B) = −(20)(3)(1)(1)(3) = −180.
Definición 5.3 (Matriz semidescompuesta inferior) Sean n, r, s ∈ N con r + s = n. Se dice que la matriz A ∈
Mn (K) es semidescompuesta inferior si se la puede escribir como
!
B 0
A= , (5.25)
CD
donde B ∈ Mr (K), D ∈ M s (K), 0 ∈ Mr×s (K) y C ∈ M s×r (K). A las matrices B y D se les denomina células
diagonales.
Teorema 5.4 (Determinante de una matriz semidescompuesta) El determinante de una matriz semidescom-
puesta es igual al producto de los determinantes de las células diagonales.
102 5 Determinantes
Corolario 5.7 (Fila / columna nula) Si A ∈ Mn (K) tiene una fila o una columna nula, entonces tiene determi-
nante nulo.
Teorema 5.5 (Invertibilidad y determinantes) Sea A ∈ Mn (K). Entonces A es invertible ssi det(A) , 0. En ese
caso se cumple que
1
det A−1 = . (5.26)
det(A)
AA−1 = Idn ,
se tiene que
1 = det (Idn ) = det AA−1 = det(A) det A−1 ;
de donde se sigue que det(A) , 0 y (5.26).
⇐) Supongamos que det(A) , 0 pero que A no es invertible. Tomamos B ∈ Mn (K) escalonada reducida equivalente a A de
manera que se puede escribir
A = Eq Eq−1 ...E2 E1 B,
donde Ek es matriz elemental, k = 1, .., q. Puesto que A no es invertible, B debe tener una fila de ceros pero entonces, por
el Corolario 5.7, se tendrı́a que det(B) = 0 y también det(A) = 0. Por tanto, se concluye que A es invertible.
t
u
2 −1 3 4 −1
1 3 −2 5 3
B = 0 −1 .
2 3 4
2
0 1 −2 3
3 −1 1 4 2
Puesto que det(B) = −180 , 0, la matriz B es invertible y, por el Teorema 5.5, se sigue que
det B−1 = −1/180.
Observe todo el tiempo que se ahorra para el último cálculo en comparación a si se tratara de calcular det B−1 a partir
de:
2 65 − 12 13 7
− 35
12
5 7 7 10
1 9 − 18 18 − 9
B = − 5 − 30 60 − 60 15 .
−1 3 11 31 1 8
− 2 − 2 7 − 7 7
57 4715 30 30 15
− 5 − 90 127 37 56
180 − 180 45
De la segunda parte de la demostración del Teorema 5.5 se deduce inmediatamente el siguiente resultado.
Corolario 5.8 (Fila / columna repetida) Si una fila de A ∈ Mn (K) es un múltiplo de otra fila, entonces det(A) =
0.
5.3 Determinantes e invertibilidad 103
Demostración. En este caso, la matriz A es equivalente a una matriz con una fila nula, de manera que no es invertible y,
por tanto, det(A) = 0.
t
u
Como consecuencia del Corolario 5.8, se tiene el siguiente resultado que nos será útil más adelante.
tal que
A(k) , si k ∈ In \ {i0 },
B(k) =
A(i) , si k = i0 .
Entonces B(i) = B(i0 ) de manera que (expandiendo por cofactores a través de la fila i0 ):
n
X n
X
0 = det(B) = bi0 j cof i0 j (B) = ai j · cof i0 , j (A).
j=1 j=1
t
u
Observación 5.2 Observe que si se hace i = i0 el lado izquierdo de 5.27 serı́a igual a det(A) (que no necesariamente es
nulo).
Definición 5.4 (Matriz adjunta) Sea A = (ai j ) ∈ Mn (K). Se denomina matriz adjunta de A a la matriz
t
adj(A) = cof i j (A) , (5.28)
se tiene que
12 −13 −7
adj(A) = −3 5 2 .
−3 2 2
Demostración. Denotemos H = (hi j ) = A adj(A). Se tiene entonces, por el Corolario 5.9 y la Observación 5.2, que
t
u
Como consecuencia del Teorema 5.6 se tiene la versión n-dimensional de la Regla de Cramer:
Ax = b, (5.32)
x∗ = A−1 b
1
= · adj(A) b
det(A)
D1
D
1 2
= · . , (5.35)
det(A) ..
Dn
t
u
de manera que
D1 29 D2 7 D3 7 D4 7
x1 = =− , x2 = = , x3 = =− , x4 = = .
|A| 10 |A| 4 |A| 20 |A| 10
Observación 5.3 La Regla de Cramer es práctica cuando n = 2, 3. También es apropiado utilizarla cuando n > 3 en tanto
que haya bastantes ceros en la matriz de coeficientes.
106 5 Determinantes
A−1 = At .
A−1 = At
det(A−1 ) = det(At )
1
= det(A)
det(A)
2
det(A) − 1 = 0
det(A) = 1 ∨ det(A) = −1
det(A) ∈ {−1, 1}.
5.5 Ejercicios resueltos 107
2) Para n ∈ N, n > 1, se tienen los escalares b0 , b1 , ..., bn−1 ∈ R y la matriz An = (ai j ) ∈ Mn (R) dada por las siguientes
condiciones:
a) ∀ j ∈ In : an j = b j−1 + λδn j ;
b) ∀k ∈ In−1 : akk = λ ∧ ak,k+1 = −1;
c) ∀k ∈ In−2 , ∀ j > k + 1 : ak j = 0;
d) Mnn ∈ Mn−1 (R) es triangular superior.
i) Pruebe que
det(A5 ) = λ5 + b4 λ4 + b3 λ3 + b2 λ2 + b1 λ1 + b0 . (5.36)
ii) Usando el punto anterior, pruebe que
det(A6 ) = λ6 + b5 λ5 + b4 λ4 + b3 λ3 + b2 λ2 + b1 λ1 + b0 .
Desarrollo.
i) Se tiene que
λ −1 0 0 0
0 λ −1 0 0
A5 = 0 λ −1 0
0
0 λ −1
0
0
b0 b1 b2 b3 b4 + λ
Operando a través de la quinta fila se tiene que
det(A5 ) = a51 cof 51 + a52 cof 52 + a53 cof 53 + a54 cof 54 + a55 cof 55 . (5.38)
Se tiene que
λ 0 0 0
−1 0 0 0
λ −1 0 0 0 −1 0 0
a51 cof 51 = b0 · = b0 , a52 cof 52 = −b1 · = b1 λ,
0 λ −1 0 0 λ −1 0
0 0 λ −1 0 0 λ −1
λ −1 0 0 λ −1 0 0
0 λ 0 0 0 λ −1 0
a53 cof 53 = b2 · = b2 λ2 , a54 cof 54 = −b3 · = b3 λ3 ,
0 0 −1 0 0 0 λ 0
0 0 λ −1 0 0 0 −1
λ
−1 0 0
0 λ −1 0
a55 cof 55 = (b4 + λ) · = b4 λ4 + λ5 .
0 0 λ −1
0 0 0 λ
λ −1 0 0
0 −1 0 0 0 0
0 λ −1 0 0 λ −1 0 0 0
det(A6 ) = λ · 0 0 λ −1 0 − b0 · 0 λ −1 0 0
0 0 0 λ −1 0 0 λ −1 0
b1 b2 b3 b4 b5 + λ 0 0 0 λ −1
h i
= λ · λ5 + b5 λ4 + b4 λ3 + b3 λ2 + b2 λ + b1 + b0
= λ6 + b5 λ5 + b4 λ4 + b3 λ3 + b2 λ2 + b1 λ1 + b0 .
iii) Usaremos la idea expuesta en el punto ii) para demostrar por inducción que
∀n ∈ N \ {1} : Pn , (5.39)
donde
n
X
Pn : det(An ) = λn + bn−k λn−k . (5.40)
k=1
Pn ⇒ Pn+1 . (5.41)
Por tanto, supongamos que Pn es verdadera (Hipótesis Inductiva) y probemos que se cumple Pn+1 (Tesis Induc-
tiva). Se tiene que
λ −1 0 0 0 . . . 0 0 0
0 λ −1 0 0 . . . 0 0 0
0 0 λ −1 0 . . . 0
0 0
0 0 0 λ −1 . . . 0 0 0
An+1 = . . . . .
.. .. .. .. .. . . . ... ..
.
..
.
0 0 0 0 0 . . . λ −1
0
0 0 0 0 0 . . . 0 λ
−1
b0 b1 b2 b3 b4 . . . bn−2 bn−1 bn + λ
Operamos a través de la primera columna para aprovechar la hipótesis inductiva:
5.5 Ejercicios resueltos 109
λ −1 0 0 . . . 0 −1 0 0 0 . . . 0 0 0
0 0
0 λ −1 0 . . . 0 0 0
λ −1 0 0 . . . 0 0 0
0 0 λ −1 . . . 0 0 0 0 λ −1 0 . . . 0 0 0
−3 0 4 1
2 2 1 −4
3) Usando la matriz adjunta, calcule la inversa de la matriz A = .
−1 4 2 3
2 40 1
Desarrollo. Se tiene que
2 1 −4 2 1 −4
cof 11 = (−1)1+1 · det (M11 ) = 4 2 3 = 44; cof 12 = (−1)1+2 · det (M12 ) = − −1 2 3 = −27;
40 1 2 0 1
2 2 −4 2 2 1
cof 13 = (−1) · det (M13 ) = −1 4 3 = 46;
1+3
cof 14 = (−1) · det (M14 ) = − −1 4 2 = 20;
1+4
2 4 1 2 4 0
0 4 1 −3 4 1
cof 21 = (−1) · det (M21 ) = − 4 2 3 = −24;
2+1
cof 22 = (−1) · det (M22 ) = −1 2 3 = 18;
2+2
4 0 1 2 0 1
−3 0 1 −3 0 4
cof 23 = (−1) · det (M23 ) = − −1 4 3 = −12;
2+3
cof 24 = (−1) · det (M24 ) = −1 4 2 = −24;
2+4
2 4 1 2 4 0
0 4 1 2 1 −4
cof 31 = (−1) · det (M31 ) = 2 1 −4 = −76;
3+1
cof 32 = (−1) · det (M32 ) = − 4 2 3 = 45;
3+2
40 1 40 1
−3 0 1 −3 0 4
cof 33 = (−1) · det (M33 ) = 2 2 −4 = −50;
3+3
cof 34 = (−1) · det (M34 ) = − 2 2 1 = −28;
3+4
2 4 1 2 4 0
0 4 1 −3 4 1
cof 41 = (−1)4+1 · det (M41 ) = − 2 1 −4 = 88; cof 42 = (−1)4+2 · det (M42 ) = 2 1 −4 = −36;
−1 2 3
42 3
−3 0 1 −3 0 4
cof 43 = (−1)4+3 · det (M43 ) = − 2 2 −4 = 56; cof 44 = (−1)4+4 · det (M44 ) = 2 2 1 = 40.
−1 4 3 −1 4 2
Por tanto:
44 −24 −76 88
t −27 18 45 −36
Adj(A) = cof i j = .
46 −12 −50 56
20 −24 −28 40
Puesto que
det(A) = a11 cof 11 + a12 cof 12 + a13 cof 13 + a14 cof 14 = 72,
se sigue que
11/18 −1/3 −19/18 11/9
1 −3/8 1/4 5/8 −1/2
A =
−1
Adj(A) = .
det(A) 23/36 −1/6 −25/36 7/9
5/18 −1/3 −7/18 5/9
5.5 Ejercicios resueltos 111
Por tanto
H = R.
Para β ∈ R se tiene que
cos(β) 0 − sen(β) 0
cof 11 = = cos(β), cof 12 = − = sen(β),
0 1 0 1
− sen(β) cos(β) sen(β) 0
cof 13 = = 0, cof 21 = − = − sen(β),
0 0 0 1
cos(β) 0 cos(β) sen(β)
cof 22 = − = cos(β), cof 23 = − = 0,
0 1 0 0
sen(β) 0 cos(β) 0
cof 31 = = 0, cof 32 = − − sen(β) 0 = 0,
cos(β) 0
cos(β) sen(β)
cof 33 = = 1.
− sen(β) cos(β)
Por tanto
cos(β) sen(β) 0
cof(Aβ ) = − sen(β) cos(β) 0
0 0 1
y entonces
cos(β) − sen(β) 0
1
A−1 = cof t
(A ) = sen(β) cos(β) 0 .
β β
det(Aβ ) 0 0 1
112 5 Determinantes
5) Sea A ∈ Mn (K).
a) Pruebe que
∀λ ∈ K : det(λA) = λn det(A). (5.42)
b) Pruebe que si A es antisimétrica, es decir At = −A, entonces
Se tiene que
det(λA) = det λA1 λA2 λA3 . . . λAn
= λ det A1 λA2 λA3 . . . λAn
= λ2 det A1 A2 λA3 . . . λAn
.. .. ..
. . .
= λn det A1 A2 A3 . . . An
= λn det(A).
c) Puesto que el determinante de una matriz es igual al determinante de su transpuesta, se tiene, usando el resultado
del literal b), que
det(A) = det(At ) = (−1)n det(A)
de manera que
[1 − (−1)n ] · det(A) = 0.
Por tanto:
(−1)n = 1 ∨ det(A) = 0,
n es par ∨ det(A) = 0,
det(A) = 0.
5.5 Ejercicios resueltos 113
6) Consideremos los puntos u, v ∈ R2 \ {0}. Denotamos por ψ(u, v) al área del paralelogramo determinado por los puntos
0, u, v y u + v. Pruebe que
ψ(u, v) = det u v ; (5.44)
∀X ∈ M2 (R) : ψ(Xu, Xv) = | det(X)| · ψ(u, v). (5.45)
v = (β, δ) u -u + v
:
Por otro lado
v u+v v
ψ(u, v) = kuk · kvk sen(θ)
q θ -
= kuk · kvk 1 − cos2 (θ) O u u = (α, γ)
s
hu, vi
= kuk · kvk 1 −
kuk2 kvk2
q
= kuk2 · kvk2 − hu, vi2
q
= (α2 + γ2 )(β2 + δ2 ) − (αβ + γδ)2
q
= (αδ − βγ)2 = |αδ − βγ|. (5.47)
7) Sean xk ∈ R, para k = N. Para n ∈ N \ {1}, considere la matriz Λn = (λi j ) ∈ Mn (R) dada, para i, j ∈ In , por
1,
si j = 1,
λi j =
x j−1 , si j > 1.
i
Pruebe que
n Y
Y k−1
∀n ∈ N \ {1} : det(Λn ) = (xk − xr ).
k=2 r=1
Supongamos entonces que Pn es verdadera. Tenemos que probar que Pn+1 es verdadera. Se tiene que
det(Λn+1 ) = ... ..
.
..
.
..
. . . . ..
. ..
.
2 3 . . . xn−1
n−1 xn
1 xn−1 xn−1 xn−1 n−1
1 xn xn xn3
2 . . . xnn−1 xnn
2 3 . . . xn−1 xn
1 xn+1 xn+1 xn+1 n+1 n+1
C2 ← C2 + (−xn+1 ) · C1
C3 ← C3 + (−xn+1 ) · C2
.. .. x12 (x1 − xn+1 ) . . . x1n−2 (x1 − xn+1 ) x1n−1 (x1 − xn+1 )
1 x1 − xn+1 x1 (x1 − xn+1 )
. .
1 x2 − xn+1 x2 (x2 − xn+1 ) x22 (x2 − xn+1 ) . . . x2n−2 (x2 − xn+1 ) x2n−1 (x2 − xn+1 )
Cn ← Cn + (−xn+1 ) · Cn−1
1 x3 − xn+1 x3 (x3 − xn+1 ) x32 (x3 − xn+1 ) . . . x3n−2 (x3 − xn+1 ) x3n−1 (x3 − xn+1 )
Cn+1 ← Cn+1 + (−xn+1 ) · Cn . .. .. .. ..
..
============================= .. . . . ... .
.
2 (x . . . n−2 (x n−1 (x
1 xn−1 − xn+1 xn−1 (xn−1 − xn+1 ) xn−1 n−1 − x n+1 ) x n−1 n−1 − xn+1 ) xn−1 n−1 − x )
n+1
1 xn − xn+1 xn (xn − xn+1 ) xn (xn − xn+1 ) . . . xn (xn − xn+1 ) xn (xn − xn+1 )
2 n−2 n+1
...
1 0 0 0 0 0
5.5 Ejercicios resueltos 115
∀i, j ∈ In : ai j = 2máx{i, j} .
Calcule det(A).
Desarrollo. Se tiene que
...
1
22 23 24 2n−1 2n
2
22 22 23 24 ... 2n−1 2n
...
3
2 23 23 24 2n−1 2n
det(A) = 2
4 24 24 24 ... 2n−1 2n
.. .. .. .. . ..
. . . . . . . .. .
2n−1 2n−1 2n−1 2n−1 . . . 2n−1 2n
. . . 2n
n
2n 2n 2n 2n
2
f c. F1
f c. F2
..
. 21 . . . 2n−2 2n−1
22 23
1
. . . 2n−3 2n−2
21 22
1
f c. Fn−1 1
n
f c. Fn Y k 1 1 . . . 2n−2 2n−3
1 21
========== 2 · . .. .. ..
. ..
.. . . . . ..
. . .
k=1
1 1 1 . . . 1 21
1
1 1 1 1 ... 1 1
F2 ← F2 + (−1) · F1
F3 ← F3 + (−1) · F2
.. ..
. .
1 f12 (2) f13 (2) . . . f1n (2)
Fn−1 ← Fn−1 + (−1) · Fn−2 0 −1 f23 (2) . . . f2n (2)
Fn ← Fn + (−1) · Fn−1
−1 . . . f3n (2)
Pn
============================ 2 k=1 · 0 0
k
.. .. .. .
. . . . . . ..
0 . . . −1
0 0
= (−1)n−1 · 2n(n+1)/2
5.5 Ejercicios resueltos 117
F1 ↔ F2
α β γ F ← F + (1) · F α β γ F ↔ F 1 1 1
3 3 2 3 2
det(A) = α2 β2 γ2 ==================== α2 β2 γ2 =========== α β γ
1 − α2 1 − β2 1 − γ2
1 1 1 α2 β2 γ2
Puesto que los números α, β, γ son distintos entre sı́, se sigue que det(A) , 0 de manera que el sistema es determinado
y, en particular, podemos aplicar la Regla de Cramer para resolverlo.
Aprovechando el procedimiento utilizado para alcanzar (5.54), se encuentra que:
τ β γ
∆1 = τ2 β2 γ2 = (β − τ)(γ − τ)(γ − β),
1 − τ2 1 − β2 1 − γ2
α τ γ
∆2 = α2 τ2 γ2 = (τ − α)(γ − α)(γ − τ),
1−α 1−τ 1−γ
2 2 2
α β τ
∆3 = α2 β2 τ2 = (β − α)(τ − α)(τ − β).
1−α 1−β 1−τ
2 2 2
donde
∆1 (β − τ)(γ − τ)
x1,∗ = = ,
det(A) (β − α)(γ − α)
∆2 (τ − α)(γ − τ)
x2,∗ = = ,
det(A) (β − α)(γ − β)
∆3 (τ − α)(τ − β)
x3,∗ = = .
det(A) (γ − α)(γ − β)
118 5 Determinantes
1) Usando únicamente operaciones de fila / columna (como en el Ejemplo 5.7), calcule el determinante dk :
10 10 −8 7 9 −5 6 −10 4
d1 = −7 0 −2 , d2 = 9 3 1 , d3 = 10 7 5 ,
−8 −8 10
10 6 9 3 9 5
2 0 3 1 −2 −10 7 0 −3 0 0 0
0 1 4 2 0 −5 4 −1 −4 7 0 0
d4 = , d5 = , d6 = ,
0 0 1 5 0 −10 0 0 5 8 −1 0
1 2 3 0 0 0 0 6 2 3 0 6
−6 8 −5 0 0 −8 0 0 −10 0 0 0 0 0 0
0 0 0 0 −3 0 −8 0 −7 1 0 7 0 0 0
d7 = −5 0 −5 −6 0 , d8 = 0 9 −3 0 −4 , d9 = −9 1 0 0 0 .
0 −8 0 0 2 −5 0 7 5 5 −6 0 0 −2 −7
0 −7 0 2 1 −2 0 −10 3 −7 9 −9 0 −5 0
2 3 4 5
−1 0 1 4
4) Usando la matriz adjunta, calcule la inversa de la matriz A = .
3 0 2 1
0 2 3 −1
1 α −1
5) Sean α ∈ R y A = 2 1 2 .
1 −1 a
bc a2 a2 bc ab ac
b2 ac b2 = ab ac bc .
2 2
c c ab ac bc ab
7) Encuentre el conjunto
H = {β ∈ R : Aβ es invertible}.
Para β ∈ H calcule A−1
β .
−β β − 1 β + 1
β + 1 −3
! !
cos(β) sen(β)
Aβ = , Aβ = 1 2 3 , Aβ = ,
5 1−β − sen(β) cos(β)
2−β β+3 β+7
− 15
0 0 1 0
3β
Aβ = cos(β) sen(β) 0 , Aβ = 25 25 15 .
e
− sen(β) cos(β) 0
− −
e4β e3β e4β
8) Sean A, B ∈ Mn (K). Muestre que, en general, no se cumple que det(A + B) = det(A) + det(B).
a + 1 1 b + 1 − a
9) Considere la matriz compleja A = a + 1 1 b − a .
a 1 a
a) Calcule det(A).
( ! )
a
b) Halle W = ∈ C2 : A es inversible .
b
!
a
c) Para ∈ W calcule A−1 .
b
10) Sean α ∈ C \ {0} y B ∈ Mn (C) una matriz invertible con B−1 = αBt .
a) Pruebe que det(B) ∈ {−α−n/2 , α−n/2 }.
b) Pruebe que si α ∈ R y n es par, entonces det(B) ⊆ R.
Calcule det(A).
2) Sea X ∈ Mn (K), antisimétrica. Pruebe que
ui j = x j + δi j , ∀i, j ∈ In .
a) Escriba Un para n = 2, 3, 4, 5, 6.
b) Pruebe que
n
X
det(Un ) = 1 + xk .
k=1
a) Pruebe que
η3 = (x2 − x1 )(x3 − x1 )(x3 − x2 ).
b) Pruebe que
η4 = (x2 − x1 )(x3 − x1 )(x3 − x2 )(x4 − x1 )(x4 − x2 )(x4 − x3 ).
c) Calcule η5 .
Indicación. Trabaje a través de la fila 5 y aproveche el resultado del literal anterior.
5) Sea n ∈ N. Suponga que los números βi , i = 1, 2, .., n, son todos distintos. Resuelva el sistema de n ecuaciones lineales
con n incógnitas tal que la i-ésima ecuación es
n
X n
X
a) βi−1
k xk = b .
i−1
c) βk−1
i xk = bi .
k=1 k=1
n
X n
X
b) βn−k
i xk + βi = 0. d) ik · xk + 1 = 0.
k=1 k=1
Ak = 0. (5.57)
Analice bajo qué condiciones el sistema es determinado, inconsistente o indeterminado. En cada caso halle el conjunto
solución.
10) Considere que x, y, z, t ∈ R son variables y que λ, a, b, c, d ∈ R son parámetros. Analice las condiciones bajo las cuales
el sistema dado es determinado, indeterminado o inconsistente.
5.6 Ejercicios propuestos 121
5x − 3y + 3z + 4t = 3, x + y = 2a,
(λ + 1)x + y + z = 1,
− 2y + 3z + 7t = 1, + z = 2b,
4x y
x + (λ + 1)y + z = 1,
8x − 6y − z − 5t = 9, z + t = 2c,
x + y + (λ + 1)z = 1.
7x − 3y + 7z + t = λ.
x + t = 2d.
x + y + z = 1,
x + ay − a2 z = 1,
(3λ + 3)x + λy + (λ + 3)z = 3λ − 3,
ax + by + cz = λ, x + by − b2 z = 1, λx + (λ − 1)y + z = λ − 1,
a2 x + b2 y + c2 z = λ2 .
x + cy − c2 z = 1.
(λ + 2)x + y + z = λ − 1.
(λ + 1)x + y + z = 1,
λx + y + z = 1, λx + (λ − 3)y + 4z = 0,
x + (λ + 1)y + z = 1,
x + λy + z = λ, −x + (λ − 1)y + (λ + 1)z = 0,
x + y + (λ + 1)z = 1,
x + y + λz = λ2 .
−2x − 2y + z = 0.
(λ + 3)x + (2λ + 4)y + (1 − λ)z = 2.
(λ − 1)x + y − z = λ,
(λ − 1)x + (c + 2)y + z = c,
(λ − 1)x + (c + 2)y + (c + 1)z = c2 ,
(−2c − 2)y − (c + 4)z = 2λ − c2 − c.
! !
a b
1) Considere los puntos u = ,v= ∈ R2 tales que a, b, c, d son no-nulos.
c d
a) Pruebe que,
σ(u, v) = |det(u v)| , (5.59)
donde σ(u, v) es el área generada por u y v, es decir el área del paralelogramo determinado por los puntos 0, u, v y
u + v.
b) ¿Qué pasa con el paralelogramo cuando σ(u, v) = 0?
c) Pruebe que
∀A ∈ M2 (R) : σ(Au, Av) = σ(u, v) · | det(A)|. (5.60)
! ! !
x x x
2) Considere los puntos u1 = 1 , u2 = 2 , u3 = 3 ∈ R2 .
y1 y2 y3
a) Pruebe que
1 1 1
1
S (u1 , u2 , u3 ) = Abs x1 x2 x3 ,
(5.61)
2
y1 y2 y3
donde S (u1 , u2 , u3 ) es el área del triángulo cuyos vértices son u1 , u2 y u3 .
Indicación. Antes de resolver este problema, resuelva el Problema 1). Considere primero el caso en que u1 = 0,
comparando las fórmulas (5.61) y (5.59).
b) Intuya una fórmula para S (Au1 , Au2 , A3 ), donde A ∈ M2 (R).
3) Sean n ∈ N, n > 2, y b0 , b1 , ..., bn−2 , bn−1 ∈ R. Considere la función
p : R −→ R (5.62)
λ 7−→ p(λ) = det(Aλ ),
donde la matriz Aλ = (ai j ) ∈ Mn (R) está dada por las siguientes condiciones:
a) ∀ j ∈ In : an j = b j−1 + λδn j ;
b) ∀k ∈ In−1 : akk = λ ∧ ak,k+1 = −1;
c) ∀k ∈ In−2 , ∀ j > k + 1 : ak j = 0;
d) Mnn ∈ Mn−1 (R) es triangular superior.
Sin usar inducción matemática, pruebe que
122 5 Determinantes
4) En el contexto del Ejercicio 4) de la Sección 5.6.2, pruebe que el determinante de Vandermonde de orden n es1
1 ...
1 1 1
x1 x2 x3 . . . xn
x32 . . .
2
x1 x22 xn2 n k−1
Y Y
ηn = .. .. .. .. .. = (xk − xr ). (5.63)
. . . . . k=2 r=1
x3n−2 . . .
n−2
x1 x2n−2 xnn−2
xn−1 x2n−1 x3n−1 . . . xn−1
1 n
y la matriz An = a(n)
i j ∈ Mn (R) dada por
a) Calcule θ2 y θ3 .
b) Pruebe que
∀n ∈ N \ {1} : θn = 1.
c) Pruebe que
∀n ∈ N \ {1} : det(An ) = λn(n+1)/2 .
Recuerde que δkl representa el delta de Kronecker.
n−1
Y
1 La fórmula (5.63) se puede escribir como ηn = (xk − xr ).
r=1, k>r
Capı́tulo 6
Espacios Vectoriales
En los Capı́tulos 2 y 3 se demostró, respectivamente, que los espacios R3 y Mm×n (K) son espacios vectoriales. En la
presente lección retomamos el concepto abstracto de espacio vectorial, presentado brevemente en el Capı́tulo 1, una vez
que contamos con herramientas como matrices y determinantes para mejorar y avanzar en su estudio.
Habı́amos señalado anteriormente que la materia se denomina Álgebra Lineal o Álgebra Vectorial pues se enfoca
principalmente en el estudio de la estructura algebraica denominada espacio lineal o espacio vectorial) cuyos elementos
son llamados vectores, una vez que se los puede sumar (operación interna) y multiplicar por un escalar (operación externa).
Las definiciones de operación interna y externa fueron presentadas en la Sección 1.1. Recordemos el concepto de
Grupo Abeliano:
Definición 6.1 (Grupo abeliano) Sea G un conjunto no-vacı́o y sea ⊕ : G ×G −→ G una operación interna sobre
G. Se dice que (G, ⊕) es un grupo si se cumplen:
i) Propiedad Asociativa:
∀u, v, w ∈ G : u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w; (6.1)
ii) Existencia del Neutro:
∃e ∈ G, ∀u ∈ G : e ⊕ u = u ⊕ e = u; (6.2)
iii) Existencia de Inversos:
∀u ∈ G, ∃v ∈ G : u ⊕ v = v ⊕ u = e. (6.3)
Se dice que (G, ⊕) es un grupo abeliano (o grupo conmutativo) si, adicionalmente, se cumple:
iv) Propiedad Conmutativa:
∀u, v ∈ G : u ⊕ v = v ⊕ u, (6.4)
En la siguiente proposición se establece la unicidad del netro aditivo y de los inversos aditivos.
Proposición 6.1 (Unicidad del neutro y de inversos) Sea (G, ⊕) un grupo. Entonces:
1) existe un único elemento neutro aditivo;
2) dado u ∈ G, existe un único inverso aditivo de u.
+ : V × V −→ V y · : K × V −→ V
operaciones interna y externa sobre V, respectivamente. Se dice que (V, +, ·) es un espacio vectorial (o espacio
lineal) si se cumple que
1) (V, +) es un grupo abeliano;
2) Propiedad Asociativa Mixta:
∀α, β ∈ K, ∀u ∈ V : (αβ)u = α(βu); (6.5)
3) Inocuidad del número 1:
∀u ∈ V : 1 · u = u; (6.6)
4) Propiedad Distributiva de Escalar:
∀α, β ∈ K, ∀u ∈ V : (α + β) · u = α · u + β · u. (6.8)
Observación 6.1 En el contexto de la Definición 6.2, a la operación interna se le denomina operación de suma de vectores
y a la operación externa se le refiere como operación de multiplicación de escalar por vector.
Observación 6.2 En el contexto de la Definición 6.2, si no hay lugar a confusión y las operaciones de suma de vectores
y de multiplicación de escalar por vector son claras, se puede decir simplemente que V es un espacio vectorial.
Observación 6.3 Si bien en la Definición 6.2 no se mencionan, hay dos operaciones adicionales involucradas: la suma
y multiplicación en el cuerpo de escalares K. A pesar de esto, el estudiante encontrará que, en la práctica, no se generan
confusiones. En todo caso, a veces es útil denotar por 0v al vector neutro aditivo del grupo abeliano (V, +).
Observación 6.4 Cuando, en el marco de la Definición 6.2 se dice que (V, +, ·) es un espacio vectorial1 sobre el cuerpo K.
Si es necesario recalcar que se está trabajando con el cuerpo de los reales, R, se dice que V es un espacio vectorial real.
En ese mismo sentido se usa el término espacio vectorial complejo.
Ejemplo 6.1 (Espacio de vectores tridimensionales) En el Ejemplo 1.7 probamos con todo detalle que (R3 , +, ·) es un
espacio vectorial. Recordemos que en el conjunto
x
R =
3
,
y : x, y, z ∈ (6.9)
R
z
la suma de vectores
+ : R3 × R3 −→ R3 (6.10)
(u, v) 7−→ u + v
corresponde a sumar las coordenadas correspondientes, esto es, dados dos vectores genéricos u, v ∈ R3 ,
x1 x2
u = y1 , v = y2 ,
z1 z2
1En el marco de la Definición 6.2 se podrı́a reemplazar el cuerpo de los escalares, K (que representa a C o R), por otro cuerpo algebraico. Sin
embargo, esto se sale completamente de los objetivos de estas notas.
6.1 Definición y ejemplos principales 125
˙ : R × R3 −→ R3 (6.12)
(λ, u) 7−→ λ · u.
corresponde a multiplicar cada una de las coordenadas correspondientes por dicho número, es decir, dado un número
λ ∈ R, se tiene que
x1 λx1
λ · u = λ y1 = λy1 . (6.13)
z1 λz1
Ejemplo 6.2 (Espacio de matrices escalares) Sean m, n ∈ N. En la demostración del Teorema 3.1 se expuso detallada-
mente que (Mm×n (K), +, ·) es un espacio vectorial. Recordemos que en el conjunto
n o
Mm×n (K) = A = (ai j ) : ai j ∈ K, para i ∈ Im , j ∈ In . (6.14)
la suma de vectores
corresponde a sumar las coordenadas correspondientes, esto es, dadas dos matrices genéricas A, B ∈ Mm×n (K),
corresponde a multiplicar cada una de las coordenadas correspondientes por dicho número, es decir, dado un número
λ ∈ K, se tiene que
λa11 λa12 . . . λa1n
λa λa . . . λa
21 22 2n
λ · A = λ · (ai j ) = (λ ai j ) = . .. .. .
(6.18)
. . . . . . .
λam1 λam2 . . . λamn
En el siguiente ejemplo mostramos que el espacio de funciones reales también consturuye un espacio vectorial.
Ejemplo 6.3 (Espacio de funciones reales) Sea Ω ⊆ R, no-vacı́o. Denotemos por F (Ω) al conjunto de funciones reales
cuyo dominio es Ω, es decir:
La suma de vectores
126 6 Espacios Vectoriales
corresponde a utilizar la función suma que el estudiante aprendió en el curso de Precálculo. Entonces, dadas dos funcio-
nes,
f : Ω −→ R g : Ω −→ R
x 7−→ f (x) x 7−→ g(x)
se define
f + g : Ω −→ R (6.21)
x 7−→ ( f + g)(x) = f (x) + g(x)
λ · f : Ω −→ R (6.23)
x 7−→ (λ · f )(x) = λ f (x)
Probemos que (F (Ω), +, ·) con las operaciones definidas en (6.20), (6.21), (6.22) y (6.23), es un espacio vectorial, es decir
probemos las cinco condiciones dadas en la Definición 6.2.
1) Probemos que (F (Ω), +) es un grupo abeliano, es decir que se cumplen las propiedades de la Definición 6.1.
i) Probemos la Propiedad Asociativa, es decir que
Tomamos elementos genéricos de u, v, w ∈ F (Ω). Para x ∈ Ω, genérico, se tiene, por la Asociatividad Aditiva de R, que
u + (v + w) = (u + v) + w.
Definimos el vector
0 f : Ω −→ R
x 7−→ 0 f (x) = 0
Tomamos un elemento genérico de u ∈ F (Ω). Para x ∈ Ω, genérico, se tiene, por la Propiedad de Existencia del
Elemento Neutro Aditivo de R, que
u + 0 f = 0 f + u = u.
v : Ω −→ R
x 7−→ v(x) = −u(x)
u+v = v+u = 0f .
Tomamos elementos genéricos u, v ∈ F (Ω). Para x ∈ Ω, genérico, se tiene, por la Conmutatividad Aditiva de R, que
u + v = v + u.
Tomamos elementos genéricos α, β ∈ R y u ∈ F (Ω). Para x ∈ Ω, genérico, se tiene, por la Conmutatividad Multiplicativa
de R, que:
[(αβ)u](x) = (αβ) u(x) = α(β u(x)) = α (βu)(x) = [α(βu)](x).
Puesto que x fue elegido arbitrariamente, se ha probado que
(αβ)u = α(βu).
1 · u = u.
[α · (u + v)](x) = α · (u + v)(x) = α[u(x) + v(x)] = αu(x) + αv(x) = (αu)(x) + (αv)(x) = (αu + αv)(x).
α · (u + v) = α · u + α · v.
Tomamos elementos genéricos α, β ∈ R y u ∈ F (Ω). Para x ∈ Ω, genérico, se tiene, por la Propiedad Distributiva de R,
que
[(α + β)u](x) = (α + β)u(x) = αu(x) + βu(x) = (αu + βu)(x).
Puesto que x fue elegida arbitrariamente, se ha probado que
(α + β) · u = α · u + β · u.
Teorema 6.1 (Propiedades de un espacio vectorial) Sea (V, +, ·) un espacio vectorial sobre el cuerpo K. Se
cumplen las siguientes propiedades:
i) ∀λ ∈ K : λ · 0v = 0v ;
ii) ∀u ∈ V : 0 · u = 0v ;
iii) ∀λ ∈ K, ∀u ∈ V:
λ · u = 0 ⇐⇒ (λ = 0 ∨ u = 0v ); (6.32)
iv) ∀u ∈ V : −1 · u = −u.
λ · 0v = λ · (0v + 0v ) = λ · 0v + λ · 0v ,
de manera que
λ · 0v = λ · 0v + λ · 0v (6.33)
Asimismo se tiene que
λ · 0v = λ · 0v + 0v . (6.34)
Por (6.33) y (6.34), se tiene que
λ · 0v + λ · 0v = λ · 0v + 0v ,
de manera que
λ · 0v = 0v .
Puesto que λ fue elegido arbitrariamente se ha probado que
∀λ ∈ K : λ · 0v = 0v .
0 · u = 0v .
Puesto que u fue elegido arbitrariamente se ha probado que
∀v ∈ V : 0 · u = 0v .
(λ = 0 ∨ u = 0v ) ⇒ λ · u = 0v .
λ−1 (λ · u) = λ−1 · 0v
(λ−1 λ) · u = 0v
1 · u = 0v
u = 0v ,
∀λ ∈ K, ∀u ∈ V : λ · u = 0 ⇐⇒ (λ = 0 ∨ u = 0v ).
−1 · u = −1 · u + 0v
= −1 · u + (u − u)
= (−1 · u + 1 · u) − u
= (1 − 1) · u − u
= 0·u−u
= −u.
∀u ∈ V : −1 · u = −u.
t
u
Al definir el concepto de espacio vectorial pedimos que un conjunto V sea estable ante una operación interna, llamada
suma, y ante una operación externa, llamada multiplicación de escalar por vector. Esto quiere decir que el resultado de
sumar dos vectores de V debe ser otro vector de V y, de igual manera, que la multiplicación de un escalar por un vector
debe resultar en otro vector que también viva en V. Ahora bien, si tomamos un conjunto no-vacı́o W ⊂ V, evidentemente
podemos operar con sus elementos pues W hereda las operaciones interna y externa de V. Cuando W también es estable
ante estas operaciones, se constituye por si mismo en espacio vectorial. Esta situación se presenta en la definición y
teorema que siguen.
130 6 Espacios Vectoriales
Definición 6.3 (Subespacio vectorial) Sean (V, +, ·) un espacio vectorial sobre un cuerpo K y W ⊆ V. Se dice
que W es un subespacio vectorial (s.e.v.) de V si (W, +, ·) es un espacio vectorial sobre el campo K.
Teorema 6.2 (Caracterización de un subespacio vectorial) Sean (V, +, ·) un espacio vectorial sobre un cuerpo
K y W ⊆ V con W , ∅. Entonces W es un s.e.v. de V ssi se cumple que
∀λ ∈ K, ∀u, v ∈ W : λu + v ∈ W. (6.39)
Supongamos entonces que se cumple (6.39) y probemos que (W, +·) es un espacio vectorial sobre el campo K.
1) Probemos que (W, +) es un grupo abeliano, es decir que se cumplen las propiedades de la Definición 1.6.
i) Probemos la Propiedad Asociativa, es decir que
∀u, v, w ∈ W : u + (v + w) = (u + v) + w. (6.40)
Tomamos elementos genéricos de u, v, w ∈ W. Puesto que los vectores u, v, w pertenencen al espacio vectorial (V, +, ·),
se cumple que
u + (v + w) = (u + v) + w.
Puesto que u, v, w fueron elegidos arbitrariamente, se ha probado (6.40).
ii) Probemos la Existencia del Neutro Aditivo, es decir que
∃ 0w ∈ W, ∀u ∈ W : u + 0 f = 0 f + u = u. (6.41)
Tomamos 0w = 0v , el neutro aditivo del grupo abeliano (V, +). Primero observemos que 0w ∈ W. En efecto, puesto que
W , ∅, existe algún vector u ∈ W. Tomando v = u y λ = −1 se tiene por (6.39) que
W 3 (−1) · u + u = 0v = 0w .
u + 0w = u + 0v = u = 0v + u = 0w + u.
∀u ∈ W, ∃w ∈ W : u + v = v + u = 0w . (6.42)
W 3 w = (−1)u + 0w = −u.
∀u, v ∈ W : u + v = v + u. (6.43)
u + v = v + u.
(αβ)u = α(βu).
1 · u = u.
∀α ∈ K, ∀u, v ∈ W : α · (u + v) = α · u + α · v. (6.46)
α · (u + v) = α · u + α · v.
∀α, β ∈ K, ∀u ∈ W : (α + β) · u = α · u + β · u. (6.47)
(α + β) · u = α · u + β · u.
t
u
Observación 6.5 Cuando se utiliza el Teorema 6.2 para probar que un conjunto W es s.e.v. de un espacio vectorial
(V, +, ·) (sobre el cuerpo K) se toman elementos genéricos λ ∈ K y u, v ∈ W y se prueba que
λu + v ∈ W. (6.48)
De la demostración del Teorema 6.2 se deriva inmediatamente el siguiente resultado, que es bastante útil para probar
que un subconjunto no es s.e.v.
Corolario 6.1 (Subconjuntos que no son s.e.v.) Sean (V, +, ·) y W ⊆ V. Si 0v < W entonces W no es s.e.v. de V.
En los siguientes ejemplos aplicaremos el Teorema 6.2 y el Corolario 6.1 para identificar si un cierto subconjunto es o
no un s.e.v. de un espacio vectorial dado.
de manera que
− 3x1 + 4y1 + t1 = 0 ∧ −3x2 + 4y2 + t2 = 0. (6.49)
Por tanto, para el vector
x3 λx1 + x2
y λy + y
λu + v = 3 = 1 2
z3 λz1 + z2
t3 λt1 + t2
se cumple, por (6.49), que
∀λ ∈ R, ∀u, v ∈ W : λu + v ∈ W,
0
0
no es un s.e.v. de R4 . Para esto, basta constatar que 0v = no pertenece a W.
0
0
Ejemplo 6.5 (Espacio de polinomios) Consideramos el espacio vectorial (F (Ω), +, ·) donde Ω ⊆ R. Probemos que el
conjunto
P(Ω) = {p ∈ F (Ω) : p es polinomio} (6.50)
es un s.e.v. de F (Ω).
Sin pérdida de generalidad podemos suponer que n ≥ m de manera que, para x ∈ R, se tiene que
(λp + q)(x) = (λa0 + b0 ) + (λa1 + b1 )x1 + ... + (λam + bm )xm + bm+1 xm+1 + ... + bn xn ,
de manera que λp + q también es un polinomio, es decir λp + q ∈ P(Ω). Puesto que λ, p, q fueron elegidos arbitrariamente,
se ha probado que
∀λ ∈ R, ∀p, q ∈ P(Ω) : λp + q ∈ P(Ω),
de manera que P(Ω) es un s.e.v. de F (Ω).
Ejemplo 6.6 (Espacio de polinomios de grado menor o igual a n) Continuando con el Ejemplo 6.5, no es difı́cil probar
que, para n ∈ N, el conjunto
Pn (Ω) = {p ∈ P(Ω) : grad(p) ≤ n} (6.51)
es s.e.v. tanto de P(Ω) como de F (Ω). Son bastante claras las siguientes inclusiones de subespacios vectoriales:
H = { f ∈ F (R) : f (2) = 1}
∀x ∈ R : 0 f (x) = 0,
El siguiente corolario, enuncia otro resultado útil derivado del Teorema 6.2.
Corolario 6.2 (Intersección de s.e.v.) Sean (V, +, ·) un espacio vectorial y W1 , W2 ⊆ V. Si W1 y W2 son s.e.v. de
V entonces W1 ∩ W2 también es s.e.v. de V.
La demostración del Corolario 6.2 se requiere como ejercicio al final del capı́tulo.
Pα (R) = P(R) ∩ Kα ,
donde
Kα = { f ∈ F (R) : f (α) = 0}.
Puesto que en el Ejemplo 6.5 ya probamos que P(R) es un s.e.v. de F (R), nos basta (por el Corolario 6.2) probar que Kα
también es un s.e.v. de F (R).
f (α) = 0 ∧ g(α) = 0,
se sigue que
(λ f + g)(α) = λ f (α) + g(α) = λ 0 + 0 = 0,
de manera que λ f + g ∈ Kα . Puesto que λ, f, g fueron elegidos arbitrariamente, se ha probado que
∀λ ∈ R, ∀ f, g ∈ Kα : λ f + g ∈ Kα ,
Para algunos de los espacios vectoriales con los que ya hemos trabajado es claro que hay ciertos vectores canónicos,
esto es ciertos vectores particulares (y normalmente simples) que ayudan a representar a otros de forma natural. Más
adelante en el curso llamaremos base canónica al conjunto que reune a estos vectores.
134 6 Espacios Vectoriales
Ejemplo 6.9 (Vectores canónicos en Rn ) Sea n ∈ N. En el espacio Rn se denomina k-ésimo vector canónico, k ∈ In , al
vector
ek = (δik ) ∈ Mn×1 (R) = Rn , (6.54)
es decir al vector que tiene 1 en la posición k y ceros en las demás posiciones. Entonces, en R5 los vectores canónicos
son
1 0 0 0 0
0 1 0 0 0
e1 = 0 , e2 = 0 , e3 = 1 , e4 = 0 , e5 = 0 .
0 0 0 1 0
0 0 0 0 1
Recordemos que en R3 los vectores canónicos tienen una notación especial:
1 0 0
i = e1 = 0 , j = e2 = 1 , k = e3 = 0 .
0 0 1
Ejemplo 6.10 (Polinomios canónicos) Sea Ω ⊆ R. En el espacio P(Ω) se denomina k-ésimo polinomio canónico, k ∈
N ∪ {0}, a:
η0 : Ω −→ R ηk : Ω −→ R
x 7−→ η0 (x) = 1 x 7−→ ηk (x) = xk
Ejemplo 6.11 (Vectores canónicos en Mm×n (K)) Sean m, n ∈ N. En el espacio Mm×n (K) se denomina kl-ésimo vector
canónico, k, l ∈ In , al vector
Ek,l = (ei j ) ∈ Mm×n (K), (6.55)
donde
1,
si i = k ∧ j = l,
ei j =
(6.56)
0,
si i , k ∨ j , l.
Entonces, en M3×2 (K) los vectores canónicos son
1 0 0 1 0 0 0 0 0 0 0 0
E1,1 = 0 0 , E1,2 = 0 0 , E2,1 = 1 0 , E2,2 = 0 1 , E3,1 = 0 0 , E3,2 = 0 0 .
00 00 0 0 0 0 1 0 0 1
Definición 6.4 (Combinación lineal) Sea (V, +, ·) un espacio vectorial sobre K. Se dice que u ∈ V es combina-
ción lineal de los vectores v1 , v2 , ..., vn ∈ V si existen coeficientes α1 , α2 , ..., αn ∈ K de manera que
u = α1 v1 + α2 v2 + ... + αn vn . (6.57)
El término base utilizado en los Ejemplos 6.12, 6.13, 6.14 y 6.15, que se presentan a continuación, será formalmente
justificado más adelante. En todo caso, tiene que ver con que cualquier vector del espacio vectorial se puede escribir en
términos de los vectores canónicos.
x1
x2
u = . ∈ Rn , (6.58)
..
xn
se puede expresar como expansión canónica, es decir que se lo puede escribir como una combinación lineal de los
vectores canónicos:
u = x1 e1 + x2 e2 + ... + xn en . (6.59)
6.3 Combinaciones lineales 135
Ejemplo 6.13 (Expansión canónica en P(Ω)) Sea Ω ⊆ R. Es claro que todo polinomio u ∈ P(Ω) se puede expresar como
expansión canónica, es decir que se lo puede escribir como una combinación lineal de los vectores canónicos. En efecto,
dado un polinomio de grado n ∈ N:
u : Ω −→ R
x 7−→ u(x) = a0 + a1 x1 + a2 x2 + ... + an xn
se tiene que:
u = a0 η0 + a1 η1 + a2 η2 + ... + an ηn . (6.62)
Cuando k ∈ In ∪ {0}, al número ak , se le denomina k-ésima coordenada de u en C(P(Ω)), la base canónica de P(Ω), donde
Ejemplo 6.14 (Expansión canónica en Pn (Ω)) Sean n ∈ N y Ω ⊆ R. Es claro que todo polinomio u ∈ Pn (Ω) se pue-
de expresar como expansión canónica, es decir que se lo puede escribir como una combinación lineal de los vectores
canónicos. En efecto, dado
u : Ω −→ R
x 7−→ u(x) = a0 + a1 x1 + a2 x2 + ... + an xn
se tiene que:
u = a0 η0 + a1 η1 + a2 η2 + ... + an ηn . (6.64)
Al número ak , k ∈ In ∪ {0}, se le denomina k-ésima coordenada de u en C(Pn (Ω)), la base canónica de Pn (Ω), donde
Cuando no se genere confusión, se puede escribir simplemente C en lugar de C(Pn (Ω)). Finalmente, señalemos que se
denomina isomorfismo canónico a la función
Φ : Pn (Ω) −→ Rn+1
u 7−→ [u]C
u(x) = a0 + a1 x1 + a2 x2 + ... + an xn , x ∈ Ω,
a0
a
1
[u]C = a2 ∈ Rn+1 ,
.
..
an
136 6 Espacios Vectoriales
es decir, es el vector columna donde ordenadamente se colocan los coeficientes del polinomio o, equivalentemente, las
coordenadas del polinomio en la base canónica.
se puede expresar como expansión canónica, es decir que se lo puede escribir como una combinación lineal de los vectores
canónicos:
X m X n
A= ai j Ei j . (6.67)
i=1 j=1
Al número ai j , para i, j ∈ In , se le denomina i − j.ésima coordenada de u en C(Mm×n (K)), la base canónica de Mm×n (K),
donde n o
C(Mm×n (K)) = Ei j : i, j ∈ In . (6.68)
Cuando no se genere confusión, se puede escribir simplemente C en lugar de C(Mm×n (K)). Finalmente, señalemos que
se denomina isomorfismo canónico a la función
donde, a la matriz
A(1)
A(2)
A = . ∈ Mm×n (K),
..
A(m)
le corresponde el vector de coordenadas en la base canónica
t
A(1)
t
A(2)
[u]C = . ∈ Rm×n ,
..
t
A(m)
es decir es el vector columna donde ordenadamente se colocan las transpuestas de las m filas de la matriz.
El siguiente ejemplo muestra el mecanismo para determinar cuando un vector se puede escribir como combinación
lineal de otros vectores.
p1 : Ω −→ R p2 : Ω −→ R
x 7−→ p1 (x) = 1 + 2x2 x 7−→ p2 (x) = 2 + x + x2
q : Ω −→ R
x 7−→ q(x) = 1 + x − x2
Para que q sea combinación lineal de p1 y p2 deben existir coeficientes α1 , α2 ∈ R de manera que
q = α1 p1 + α2 p2 ,
6.3 Combinaciones lineales 137
x0 : 1 = 1 · α1 + 2 · α2 , (6.70)
x : 1 = 0 · α1 + 1 · α2 ,
1
(6.71)
x : −1 = 2 · α1 + 1 · α2 ,
2
(6.72)
de donde se obtiene
α1 = −1, α2 = 1,
de manera que, efectivamente, q es combinación lineal de los polinomios p1 y p2 :
q = −1 · p1 + 1 · p2 .
Es importante señalar que el sistema anterior se puede escribir como ecuación matricial
Aα = b,
donde
1 2 1
α1
!
A = 0 1 , α= , b = 1 ,
α2
2 1 −1
b = q C,
es decir el vector de términos independientes es q C . Finalmente, el vector de incógnitas α está formado por los coefi-
cientes de p1 y p2 en la combinación lineal
q = α1 p1 + α2 p2 .
Observación 6.8 El contenido de la Observación 6.7 se puede generalizar. En efecto, cuando se trata de verificar si un
vector u ∈ V se puede escribir
u = α1 v1 + α2 v2 + ... + αk vk , (6.73)
es decir como combinación lineal de los vectores v1 , v2 , ..., vk ∈ V, se debe estudiar un sistema de ecuaciones lineales que
en forma matricial se escribe
Aα = b, (6.74)
donde
α1
α
2
A = [v1 ]C [v2 ]C . . . [vk ]C , α = . , b = [u]C . (6.75)
..
αk
i) Cuando el sistema (6.74) es inconsistente quiere decir que la combinación lineal (6.73) no es posible.
138 6 Espacios Vectoriales
ii) Cuando el sistema (6.74) es determinado quiere decir que la combinación lineal (6.73) es posible y que existe una única
elección de coeficientes αi , i ∈ Ik .
i) Cuando el sistema (6.74) es indeterminado quiere decir que la combinación lineal (6.73) es posible y que existen infinitas
elecciones de coeficientes αi , i ∈ Ik .
p1 : Ω −→ R p2 : Ω −→ R
x 7−→ p1 (x) = 1 + 2x 2
x 7−→ p2 (x) = 2 + x + x2
r : Ω −→ R
x 7−→ r(x) = 1 + x + 5x2
se puede escribir como combinación lineal de los vectores p1 y p2 , es decir nos preguntamos si es posible hallar coefi-
cientes α1 , α2 ∈ R tales que
r = α1 p1 + α2 p2 . (6.76)
Tenemos que:
F1 ← F1 + ((−2)) · F2
1 2 1 F3 ← F3 + ((−1)) · F2 1 0 −1 F3 ← F3 + ((−2)) · F1 1 0 −1
0 1 1 −−−−−−−−−−−−−−−−−−−−−→ 0 1 1 −−−−−−−−−−−−−−−−−−−−−→ 0 1 1
215 20 4 00 6
de manera que el sistema es inconsistente y la combinación lineal (6.76) no es posible.
α1 − α3 + α4 = −1,
α2 − α4 = 2. (6.78)
Por ejemplo, podrı́amos elegir α3 = 0 y α4 = 0, que implican que α1 = −1 y α2 = 2. En este caso se tendrı́a
G = −D1 + 2D2 .
G = −D1 + 3D2 + D3 + D4 .
Definimos a continuación el concepto de cápsula o espacio generado por un subconjunto de un espacio vectorial.
Definición 6.5 (Cápsula o espacio generado) Sean (V, +, ·) un espacio vectorial sobre el cuerpo K y S ⊆ V,
S , ∅. Se denomina cápsula de S o espacio generado por S , denotado < S >, al subconjunto de V cuyos elementos
son combinaciones lineales de elementos de S , es decir
k
X
< S >= = α α , = ..., .
u v ∈ V : ∈ v ∈ S i 1, k (6.79)
i i i K, i
i=1
Teorema 6.3 (Cápsula como s.e.v.) Sean (V, +, ·) un espacio vectorial sobre el cuerpo K y S ⊆ V, S , ∅. Enton-
ces < S > es un s.e.v. de V.
Demostración. Tomamos elementos genéricos λ ∈ K y u, w ∈< S >. Por definición de < S > los vectores u y V se pueden
escribir como
Xk r
X
u= αi vi , w = βi wi ,
i=1 i=1
donde k, r ∈ N y
∀i ∈ Ik : αi ∈ K ∧ v i ∈ S ;
∀i ∈ Ir : βi ∈ K ∧ wi ∈ S . (6.80)
En este caso
λu + v = (λα1 )v1 + (λα2 )v2 + ... + (λαk )vk + β1 w1 + β2 w2 + ... + βr wr
de manera que λu + v también es una combinación lineal de elementos de S , es decir λu + v ∈< S >. Puesto que λ, u, v
fueron elegidos arbitrariamente, se ha probado que
t
u
Teorema 6.4 (Minimalidad de la cápsula) Sean (V, +, ·) un espacio vectorial sobre el cuerpo K y S ⊆ V, S , ∅.
Se tiene que < S > resulta de intersecar todos los s.e.v. de V que contienen a S , es decir
\
< S >= W, (6.81)
W∈V(S )
donde
V(S ) = {W ⊆ V : W ⊇ S ∧ W es s.e.v. de V} . (6.82)
Demostración. Denotemos \
G= W.
W∈V(S )
i) Probemos que
G ⊆< S > . (6.84)
Por la definición de G se tiene que
∀W0 ∈ V(S ) : G ⊆ W0 .
Por tanto, por (6.83), tomamos W0 =< S > obteniéndose (6.84).
ii) Probemos que
< S >⊆ G. (6.85)
Tomamos W ∈ V(S ), genérico. Tomamos u ∈< S >, genérico. Se tiene que
k
X
u= αi vi ,
i=1
donde
∀i ∈ Ik : αi ∈ K, vi ∈ S ⊆ W,
lo que implica que u ∈ W pues W es espacio vectorial. Puesto que u fue elegido arbitrariamente se ha probado que
∀u ∈< S >: u ∈ W,
de manera que
< S >⊆ W.
Puesto que W fue elegido arbitrariamente, se ha probado que
t
u
Observación 6.9 El Teorema (6.4) establece que < S > es el s.e.v. más pequeño que contiene a S .
Observación 6.10 Tenga presente que si S genera al espacio vectorial V entonces S ∪ M también genera a M, para
cualquier M ⊆ V. En particular, S ∪ {v0 } genera a V, para cualquier vector v0 ∈ V.
Ejemplo 6.19 En el espacio P3 (R) hallemos el espacio generado por S = {p1 , p2 , p3 } donde, para x ∈ R,
p1 (x) = 1 + x,
p2 (x) = 1 + x2 ,
p3 (x) = 1 + x3 .
u = α1 p1 + α2 p2 + α3 p3 , (6.87)
de manera que
a + bx + cx2 + dx3 = α1 (1 + x) + α2 (1 + x2 ) + α3 (1 + x3 ). (6.88)
6.4 Cápsula o espacio generado 141
Puesto que dos polinomios son iguales cuando todos sus coeficientes coinciden, (6.88) entrega el siguiente sistema de
ecuaciones:
x 0 : a = 1 · α1 + 1 · α2 + 1 · α3 , (6.89)
x : b = 1 · α1 + 0 · α2 + 0 · α3 ,
1
(6.90)
x : c = 0 · α1 + 1 · α2 + 0 · α3 ,
2
(6.91)
x 3 : d = 0 · α1 + 0 · α2 + 1 · α3 . (6.92)
Aα = b,
donde
1 1 1 a
α1
1 0 0
b
A = , α = α2 , b = .
0 1 0 c
α3
0 0 1 d
Se tiene que
F1 ← F1 + ((−1)) · F2
F1 ← F1 + ((−1)) · F3
1 1 1 a 0 0 0 a − b − c − d
1 0 0 b F1 ← F1 + ((−1)) · F4 1 0 0
−−−−−−−−−−−−−−−−−−−−−→ b
0 1 0 c 0 1 0
c
001d 001 d
Por tanto, para que exista la combinación lineal (6.87), debe cumplirse la relación constitutiva:
a − b − c − d = 0.
b = [u]C ,
es decir el vector de términos independientes es [u]C , un vector con componentes indeterminados. Finalmente, el vector
de incógnitas α está formado por los coeficientes de p1 , p2 y p3 en la combinación lineal
u = α1 p1 + α2 p2 + α3 p3 .
Observación 6.12 El contenido de la Observación 6.11 se puede generalizar. En efecto, cuando se busca la cápsula de
un conjunto
S = {v1 , v2 , ..., vk } , (6.93)
se trata de encontrar la estructura de un vector genérico u ∈< S >, que, por tanto, debe ser una combinación lineal de
los vectores v1 , v2 , ..., vk ∈ S :
u = α1 v1 + α2 v2 + ... + αk vk . (6.94)
Se debe estudiar un sistema de ecuaciones lineales que en forma matricial se escribe
Aα = b, (6.95)
donde
142 6 Espacios Vectoriales
α1
α
2
A = [v1 ]C [v2 ]C . . . [vk ]C , α = . , b = [u]C , (6.96)
..
αk
teniendo presente que el vector b tendrá componentes indeterminados. Al resolver el sistema por el Método de Gauss se
encuentran relaciones constitutivas.
Ejemplo 6.20 En el espacio M2 (R) buscamos el s.e.v. generado por el conjunto S = {D1 , D2 , D3 , D4 }, donde
! ! ! !
2 6 0 −2 −2 −6 2 8
D1 = , D2 = , D3 = , D4 = .
5 −4 −3 3 −5 4 8 −7
U = α 1 D1 + α 2 D2 + α 3 D3 + α 4 D4 . (6.97)
Tenemos que
E1
.
.
2 0 −2 2 a . 1 0 −1 1 a/2
6 −2 −6 8 b El 0 1 0 −1 (3a − b)/2
−−−→
0 0 0 0 4a − 3b + 2c
5 −3 −5 8 c
−4 3 4 −7 d 0 0 0 0 a − 2c − 2d
de manera que (6.97) tiene sentido si se cumplen las relaciones constitutivas
4a + 2c
4a − 3b + 2c = 0 ⇔ b = ,
3
a − 2c
a − 2c − 2d = 0 ⇔ d = . (6.98)
2
Entonces
4a + 2c
( ! )
ab a − 2c
< S >= U = ∈ M2 (R) : b= ∧d= .
cd 3 2
6.5 Ejercicios resueltos 143
y
dim(V) = n. (6.101)
Puesto que #(B2 ) = n, por (6.101) nos basta probar que B2 es linealmente independiente para concluir que B2 es base
de V. Tomamos coeficientes α1 , α2 , ..., αn ∈ R tales que
α1 u1 + α2 u2 + ... + αn un = 0. (6.102)
(α1 + α2 + ... + αn )v1 + (α2 + ... + αn )v2 + (α3 + ... + αn )v3 + ... + αn vn = 0. (6.104)
Puesto que (6.104) es una combinación lineal nula, se sigue por (6.100) que:
α1 + α2 + α3 + ... + αn = 0,
α2 + α3 + ... + αn = 0,
α3 + ... + αn = 0,
.. ..
. .
α n−1 αn = 0,
+
αn = 0.
es un espacio vectorial sobre el cuerpo R, basta con probar que U0,1 es un s.e.v. de F ([0, 1]).
Entonces tenemos que probar que
∀λ ∈ R, ∀ f, g ∈ U0,1 : λ f + g ∈ U0,1 . (6.105)
Tomamos f, g ∈ U0,1 y λ ∈ R, genéricos. Se tiene entonces que:
Por (6.108) y (6.109) se tiene que λ f + g ∈ U0,1 . Puesto que λ, f, g fueron elegidos arbitrariamente, se ha probado
(6.105).
6.5 Ejercicios resueltos 145
3) Sea (G, +) un grupo. Pruebe que existe un único elemento neutro aditivo.
Desarrollo. Puesto que (G, +) es un grupo, existe un neutro aditivo, es decir:
∃e ∈ G, ∀u ∈ G : e + u = u + e = u. (6.110)
Tenemos que probar que existe un único neutro aditivo. Para ello, razonamos por Reducción al Absurdo (Mayeútica),
es decir supongamos que existe otro neutro aditivo, o sea:
∃e0 ∈ G, ∀u ∈ G : e0 + u = u + e0 = u e0 , e.
∧ (6.111)
e + e0 = e. (6.113)
∃!e ∈ G, ∀u ∈ G : e + u = u + e = u.
146 6 Espacios Vectoriales
W1 + W2 = {u = w1 + w2 : w1 ∈ V ∧ w2 ∈ V}.
Desarrollo.
a) Tenemos que probar que W1 ∩ W2 es un s.e.v. de V, es decir que
∀λ ∈ K, ∀u, v ∈ W1 ∩ W2 : λu + v ∈ W1 ∩ W2 . (6.114)
u, v ∈ W1 , (6.115)
u, v ∈ W2 , (6.116)
λ ∈ K. (6.117)
λu + v ∈ W1 . (6.118)
λu + v ∈ W2 . (6.119)
W1 ⊆ W2 ∨ W2 ⊆ W1 ,
∀λ ∈ K, ∀u, v ∈ W1 + W2 : λu + v ∈ W1 + W2 . (6.120)
Tomamos λ ∈ K y u, v ∈ W1 + W2 , genéricos.
Puesto que u ∈ W1 + W2 , existen w1 ∈ W1 y w2 ∈ W2 tales que
u = w1 + w2 . (6.121)
v = w3 + w4 . (6.122)
donde λw1 + w3 ∈ W1 (pues W1 es s.e.v.) y λw2 + w4 ∈ W2 (pues W2 es s.e.v.). Por (6.123) se sigue λu + v ∈ W1 + W2 .
Puesto que λ, u, v fueron elegidos arbitrariamente, se ha probado (6.120), de manera que W1 + W2 es s.e.v. de V.
6.5 Ejercicios resueltos 147
u : R −→ R
x 7−→ u(x) = a + bx + cx2
Se tiene que
u = α1 p1 + α2 p2 + α3 p3 ,
donde los coeficientes α1 , α2 y α3 se determinan con el sistema de ecuaciones
Ar = [u]C ,
con
α1
a 1 0 1
r = α2 , [u]C = b , A = p1 C p2 C p3 C = 0 4 3 .
α3 c 605
Puesto que
1 0 1
det(A) = 0 4 3 = −4 , 0,
6 0 5
el sistema es determinado de manera que no se presentan condiciones para los coeficientes de u. Por tanto
Observación. Este ejercicio se resuelve con mayor facilidad usando el concepto de base. Véase el Ejercicio Resuelto
3) del Capı́tulo 7.
148 6 Espacios Vectoriales
Desarrollo.
a) Para que S 1 sea s.e.v. de R3 , deberı́a cumplirse que
∀λ ∈ R, ∀u, v, ∈ S 1 : λu + v ∈ S 1 . (6.124)
Tomamos
1 1
λ = 1, u = 1 , v = −1 .
0 0
∀λ ∈ R, ∀u, v, ∈ S 2 : λu + v ∈ S 2 . (6.125)
Se tiene que
22x1 + 3y1 − 7z1 = 0 ∧ 22x2 + 3y2 − 7z2 = 0. (6.126)
Para el vector
x3 λx1 + x2
λu + v = y3 = λy1 + y2 ,
z3 λz1 + z2
22x3 + 3y3 − 7z3 = 22(λx1 + x2 ) + 3(λy1 + y2 ) − 7(λz1 + z2 ) = λ(22x1 + 3y1 − 7z1 ) + (22x2 + 3y2 − 7z2 ) = 0.
∀λ ∈ R, ∀u, v, ∈ S 1 : λu + v ∈ S 4 . (6.127)
Tomamos
−5 0
−5 0
λ = −1, u = , v = .
1 1
1 1
6.5 Ejercicios resueltos 149
5
5
λu + v = < S 3 .
0
0
∀λ ∈ R, ∀u, v, ∈ S 4 : λu + v ∈ S 4 . (6.128)
∀λ ∈ R, ∀u, v ∈ V1 : λu + v ∈ V1 . (6.130)
Desarrollo. Para mostrar que U es espacio vectorial, basta mostrar que es un s.e.v. de F , es decir que
∀λ ∈ R, ∀ f, g ∈ F (R) : λ f + g ∈ U. (6.131)
de manera que
∀x ∈ R : (λ f + g)(−x) = (λ f + g)(x),
es decir que la función λ f + g es par y, por ello, λ f + g ∈ U. Puesto que λ, f, g fueron elegidas arbitrariamente, se ha
probado (6.131), es decir que U es un s.e.v. de F (R).
152 6 Espacios Vectoriales
1) En los siguientes casos indique si el conjunto V es un espacio vectorial tomando como conjunto de escalares a K. En
caso de no ser espacio vectorial señale al menos una propiedad de la Definición 6.2 que no se cumple.
a) V = N, K = N con las operaciones habituales de suma y multiplicación;
b) V = Z, K = N con las operaciones habituales de suma y multiplicación;
c) V = {A ∈ Mn (R) : A es diagonal}, K = R, donde la suma se detemina por A ⊕ B = AB.
x
d) V = , K = R.
3
x ∈ : x ∈
R R
x
( ! )
0a
e) V = : a, b ∈ R , K = R.
b0
2) Sean n ∈ N y V = Pn (R). Determine si el conjunto Vk es un s.e.v. de V.
3) Sea n ∈ N. Siguiendo los pasos del Ejemplo 6.1, defina una operación interna y una operación externa para que el
conjunto
x1
x
2
K = = = ..., .
n
.
u : x ∈ k 1, 2, n (6.133)
K,
. k
.
xn
se constituya en espacio vectorial al trabajar con el cuerpo de números K. Pruebe este hecho tomando como modelo
la demostración presentada en el Ejemplo 6.3.
4) Sea V = F (R). Determine si el conjunto Uk es s.e.v. de V:
a+2 a−2
( ! ) ( ) !
a a−1
U = M2 (R), W = : a∈R ; U = M2 (R), W = : a∈R ;
0 0 0 0
U = P4 (R), W = {p ∈ P4 (R) : grad(p) = 4}; U = P4 (R), W = {p ∈ P4 (R) : p(0) = 0 ∧ p0 (0) = 0}.
7) Sea A ∈ Mm×n (R). Pruebe que
W = v ∈ Rn : Av = 0
es un s.e.v. de Rn .
x1
x
2
8) Sean a1 , a2 , ..., an ∈ R. Pruebe que el hiperplano H = .. ∈ R : k=1 ak xk = 0
n
n P
es un s.e.v. de Rn .
.
x
n
9) Halle la cápsula de S k en R : 2
( ! !) ( ! ! !)
2 10 2 10 10
S1 = , ; S2 = , , ;
10 8 10 50 8
( ! !) ( ! ! !)
1 2 3 1 −9
S3 = , ; S4 = , , .
−3 −6 −4 −4/3 12
10) Halle el espacio generado por S k en R3 :
1 −1 5 0 0 −1
S1 = 2 , 2 , 2 S2 = 5 , −1 , −1
; ;
3 3 3
1 3 5
1 0
2 3 1 7
S3 = , = 0 , 1 , 1 , 3
1 1 ; S ;
4
1 −7
1 2 1 5
−7 14 7 35
4 −8
S5 = , , , = 4 , −8 .
−6 −6 0 18 ; S
6
9 18 3 −21 −6 12
a1 t + b1
a1 t
V1 = = a2 t + b2 : t ∈ R , V2 = u = a2 t : t ∈ R .
u
a t+b
a t
3 3 3
S 5 = { f ∈ F (R) : f es decreciente} ;
S 6 = { f ∈ F (R) : f es estrictamente creciente} .
1 0 1
−1 2 0
19) Sea S = , ,
⊆ R4 . Halle el subespacio vectorial generado por S .
0
−1
1
1 2 0
V1 + V2 = {u = v1 + v2 : v1 ∈ V ∧ v2 ∈ V}.
3) Sean n ∈ N y Ω ⊆ R.
a) Pruebe que el conjunto
Pn (Ω) = {p ∈ P(Ω) : grad(p) ≤ n} (6.134)
es s.e.v. tanto de P(Ω) como de F (Ω).
6.6 Ejercicios propuestos 155
b) Pruebe que
∀α ∈ I : Wα es un s.e.v. de V.
a) Pruebe que \
W= Wα , ∅. (6.138)
α∈I
Dados dos vectores no-nulos u y v en R3 se dice que son colineales si se los puede representar sobre la misma recta.
Esto quiere decir que existe algún factor α ∈ R tal que
u = αv. (7.1)
Asimismo, dados tres vectores no-nulos u, v y w se dice que son coplanares si se los puede representar sobre un mismo
plano. Esto quiere decir que existen factores α, β ∈ R tales que
u = αv + βw. (7.2)
¿Qué tienen en común los conceptos de colinealidad y coplanaridad? Como se puede ver en (7.1) y (7.2), uno de los
vectores se puede escribir como combinación lineal de los restantes. Lo antedicho permite generalizar los conceptos de
colinealidad y coplanaridad hacia el concepto de dependencia lineal (véase la Observación 7.2).
Definición 7.1 (Independencia lineal finita) Sea V un espacio vectorial sobre el cuerpo K. Se dice que un
conjunto finito B = {u1 , u2 , ..., un } ⊆ V es linealmente independiente (abreviado l.i.) si ninguno de los vectores
de B se puede escribir como combinación lineal de los demás, es decir si se cumple que
α1
α n
2 X
∀α = . ∈ Kn : αk uk = 0 ⇒ α = 0. (7.3)
.. k=1
αn
α1
α2 n
X
∃α = . ∈ Kn \ {0} : αk uk = 0,
.. k=1
αn
α1 α2 αk−1 αk+1 αn
uk = − u1 − u2 − ... − − uk−1 − uk+1 − ... − un , (7.5)
αk αk αk αk αk
o sea que uk se puede expresar como combinación lineal de los demás elementos de B.
Observación 7.3 Cuando se quiere analizar si un conjunto B = {u1 , u2 , ..., un } es l.i. o l.d. se debe escribir la combinación
lineal nula
X n
αk u k = 0 (7.6)
k=1
Aα = 0, (7.7)
donde
α1
α2
A = [u1 ]C [u2 ]C . . . [un ]C , α = . . (7.8)
..
αn
Definición 7.2 (Independencia lineal general) Sea V un espacio vectorial sobre el cuerpo K. Se dice que un
conjunto B ⊆ V es linealmente independiente si todo subconjunto finito de B es linealmente independiente. Caso
contrario, se dice que B es linealmente dependiente.
Ejemplo 7.1 En el espacio vectorial P3 (R), analicemos si es l.i. o l.d. el conjunto B = {p1 , p2 , p3 }, donde
x0 : 0 = 1 · α1 + 0 · α2 + 2 · α3 , (7.10)
x1 : 0 = 0 · α1 + 2 · α2 + 0 · α3 , (7.11)
x : 0 = 1 · α1 + 0 · α2 + 0 · α3 ,
2
(7.12)
x : 0 = 0 · α1 + 0 · α2 + 0 · α3 .,
3
(7.13)
F1 ← F1 + ((−1)) · F3
1 0 2 0
F1 ← (1/2) · F1 0 0 1
0
0 2 0 0 F2 ← (1/2) · F2
−−−−−−−−−−−−−−−−−−−−−→ 0 1 0 0
1 0 0 0 1 0 0
0
0000 000 0
Por tanto
α1 = α2 = α3 = 0,
de manera que B es l.i.
U = {νn : n ∈ N ∪ {0} },
donde
Puesto que ningún elemento ηk de U se puede expresar como una combinación lineal finita de elementos de U \ {ηk }, se
tiene que U es l.i.
Definición 7.3 (Dimensión finita e infinita) Se dice que un espacio vectorial V tiene dimensión infinita, deno-
tado
dim(V) = ∞, (7.14)
si para todo n ∈ N, existe un subconjunto l.i. con n vectores. Caso contrario, se dice que V tiene dimensión finita,
denotado
dim(V) < ∞. (7.15)
Observación 7.5 Tenga presente que un espacio vectorial tiene dimensión finita si se puede hallar un conjunto finito y
l.d.
Ejemplo 7.3 Analicemos si el espacio M2 (K) tiene dimensión finita o infinita. Consideramos el conjunto B = {D1 , D2 , D3 , D4 , D5 },
donde ! ! ! ! !
10 01 00 00 11
D1 = , D2 = , D3 = , D4 = , D5 =
00 00 10 01 11
Consideramos la combinación lineal nula
α1 D1 + α2 D2 + α3 D3 + α4 D4 + α5 D5 = 0.
Definición 7.4 (Base) Sean V un espacio vectorial sobre el cuerpo K, y B ⊆ V. Se dice que B es una base de V
si y sólo si se cumplen las siguientes condiciones:
i) B es l.i.;
ii) B genera a V es decir < B >= V.
Si, adicionalmente, dim(V) < ∞, se denomina dimensión de V al número
Observación 7.6 El concepto de base establecido en la Definición 7.4 corresponde a una base de Hammel. Más adelante,
en la carrera de Ingenierı́a, el estudiante tendrá contacto con dos conceptos de base menos generales pero más aplicados,
bases de Schauder y de Hilbert (que da lugar a las Series de Fourier).
dim(V) = #(B),
pero, en este caso, #(B) representa la cardinalidad del conjunto B. Este es un concepto que sale fuera de los objetivos del
presente curso.
dim(Kn ) = n. (7.17)
Consideramos el conjunto de los vectores canónicos (que más adelante se denominará base canónica):
donde
ek = (δik ) ∈ Mn×1 (K) = Kn , k = 1, 2, ..., n, (7.19)
de manera que ek es el vector que tiene 1 en la posición k y ceros en las demás posiciones.
α1 = α2 = ... = αn = 0,
x1
x
2
u = . ∈ Kn .
..
xn
Puesto que
n
X
u= xk ek ,
k=1
se tiene que u es una combinación lineal de elementos de C(Kn ) por lo que u ∈< C(Kn ) >. Puesto que u fue elegido
arbitrariamente, se ha probado que
∀u ∈ Kn : u ∈< C(Kn ) >,
es decir que < C(Kn ) >⊇ Kn y
< C(Kn ) >= Kn .
Con los puntos i) y ii) hemos probado que C(Kn ) es base de Kn de manera que
dim(Kn ) = n.
Ejemplo 7.5 Analicemos si el espacio P(R) tiene dimensión finita o infinita. Dado un n ∈ N, genérico, tomamos el
conjunto de vectores canónicos
Cn = {η0 , η1 , ..., ηn−1 } .
Recordando que
η0 (x) = 1, x ∈ R;
ηk (x) = xk , x ∈ R, k = 1, 2, ..., n − 1;
es claro que ningún ηl se puede escribir como combinación lineal de los elementos de Cn \ {ηl }. Se sigue entonces que Bn
es l.i. Puesto que n fue elegido arbitrariamente, se ha probado que
Por tanto
dim(P(R)) = ∞.
No es difı́cil percatarse que todo polinomio se puede escribir como combinación lineal de elementos del conjunto
donde
η0 (x) = 1, x ∈ R;
ηk (x) = x , x ∈ R, k ∈ N,
k
es decir que < C >= P(R). Puesto que ninguno de los elementos de C se puede escribir como combinación lineal de otros
elementos de C, se sigue que es l.i. y, por tanto, es una base de P(R). De hecho se dice que C es la base canónica de P(R).
Observación 7.9 Puesto que F (R) ⊇ P(R), se sigue del Ejemplo 7.5 que
Ejemplo 7.6 (Base canónica de Pn (R)) Sea n ∈ N ∪ {0}. No es difı́cil verificar que el conjunto de todos los polinomios
canónicos es una base de Pn (R) y que
dim(Pn (R)) = n + 1. (7.22)
Ejemplo 7.7 Sean m, n ∈ N. No es difı́cil verificar que el conjunto de las matrices canónicas es una base de Mm×n (K) y
que
dim(Mm×n (K)) = m × n. (7.23)
162 7 Bases y dimensión de un espacio vectorial
Teorema 7.1 (Base - dimensión) Sean V un espacio vectorial de dimensión n y B ⊆ V. Si < B >= V y #(B) = n,
entonces B es base de V.
Demostración. Puesto que < B >= V entonces #(B) ≥ n. Si B fuera l.d. entonces existierı́a un conjunto B1 ⊆ B l.i. que
genera a V y tal que #(B1 ) < n. Pero esto implicarı́a que dim(V) < n que es una contradicción. Por tanto B es l.i. y, con
ello, es base.
t
u
Observación 7.10 Una consecuencia del Teorema 7.1 es que en un espacio vectorial de dimensión finita todas las bases
tienen el mismo número de elementos.
Ejemplo 7.8 Probemos que en el espacio P3 (R) el siguiente conjunto es una base:
B = {p1 , p2 , p3 , p4 },
Puesto que
#(B) = 4 = dim(P3 (R)),
por el Teorema 7.1, nos basta probar que
< B >= P3 (R)
para concluir que B es una base de P3 (R).
u = α1 p1 + α2 p2 + α3 p3 + α4 p4 , (7.24)
o sea
a + bx + cx2 + dx3 = α1 (1) + α2 (−1 + x) + α3 (1 − 2x + x2 ) + α4 (−1 + 3x − 3x2 + x3 ), x ∈ R,
que provée el sistema
Aα = b,
donde
1 −1 1 −1 α1 a
0 1 −2 3 α b
A = , α = 2 , b =
0 0 1 −3 α3 c
0 0 0 1 α4 d
Puesto que det(A) = 1 , 0 el sistema es determinado y (7.24) es factible. Por tanto, u ∈< B >. Puesto que u fue elegido
arbitrariamente, se ha probado que < B >= P3 (R).
Se tiene que
7.2 Dimensión y base 163
( ! )
x 2x
T = ∈ M2 (K) : x, z, t ∈ K
z t
( ! ! ! )
12 00 00
= x +z +t ∈ M2 (K) : x, z, t ∈ K
00 10 01
( ! ! !)
12 00 00
=< , , >, (7.25)
00 10 01
dim(T ) = 3.
El siguiente resultado da una pauta de cómo se pueden completar conjuntos l.i. para transformarlos en bases.
Teorema 7.2 (Adición de elementos a un conjunto l.i.) Sean V un espacio vectorial sobre el cuerpo K, B ⊆ V
y u ∈ V. Si B es l.i. y u << B >, entonces B ∪ {u} también es l.i.
i) Primero consideramos el caso en que u < B1 . Se tiene que B1 ⊆ B y, de esto, se sigue que B1 es l.i. pues B lo es.
ii) Ahora consideramos el caso en que u ∈ B1 . En este caso, existe un k ∈ Im tal que u = vk . Consideramos la combinación
lineal nula
α1 v1 + ... + αk−1 vk−1 + βu + αk+1 vk+1 + ... + αm vm = 0. (7.26)
Se tiene que β = 0 pues, caso contrario, se tendrı́a que
α1 αk−1 αk+1 αm
u=− v1 − ... − vk−1 − vk+1 − ... − vm
β β β β
es decir que u serı́a una combinación lineal de elementos de B, que contradice la hipótesis del teorema.
Por lo anterior, (7.26) equivale a
Puesto que B1 fue elegido arbitrariamente, se sigue que todo subconjunto finito de B ∪ {u} es l.i.; que implica que B ∪ {u}
es también l.i.
t
u
Corolario 7.1 (Completación de una base) Sea V un espacio vectorial sobre un cuerpo K. Si W es un s.e.v. de
V tal que dim(W) = n, entonces todo B subconjunto l.i. de W es finito y es subconjunto de una base de W.
t
u
1 1
Ejemplo 7.10 El conjunto S = 0 , −1
⊆ R3 es l.i. de manera que es posible completarlo para tener una base de
1 0
R3 . Puesto que una base de R3 tiene tres elementos basta con añadirle un vector u tal que u ∈ R3 \ S . La forma más fácil
es tomar
1 1 i j k 1
u = 0 × −1 = 1 0 1 = 1 .
1 −1 0 −1
1 0
Entonces el conjunto
1 1 1
B= 0 , −1 , 1
1 0 −1
1 1
Ejemplo 7.11 El conjunto S = 0 , −1
⊆ R3 es l.i. de manera que es posible completarlo para tener una base de
1 0
R3 . Puesto que una base de R3 tiene tres elementos basta con añadirle un vector u tal que u ∈ R3 \ S . La forma más fácil
es tomar
1 1 i j k 1
u = 0 × −1 = 1 0 1 = 1 .
1 −1 0 −1
1 0
Entonces el conjunto
1 1 1
B= 0 , −1 , 1
1 0 −1
El siguiente corolario nos permite “depurar” conjuntos que son l.d. hasta obtener un conjunto l.i. equivalente (en el
sentido de que genera el mismo espacio vectorial).
Corolario 7.2 Sean V un espacio vectorial sobre un cuerpo K y S = {v1 , v2 , .., vr } un subconjunto de V. Si S es
l.d. y vk es combinación lineal de los demás elementos de S , entonces
En la Sección 2.4 presentamos una manera sencilla de encontrar los coeficientes α1 , α2 , α3 ∈ R de un vector u ∈ R3 con
respecto a una base
B = {v1 , v2 , v3 },
esto es de manera que
u = α1 v1 + α2 v2 + α3 v3 . (7.28)
Por una aplicación de la Regla de Cramer se encontró que
dim(V) = n.
Denotemos por
C = {e1 , e2 , ..., en } (7.30)
a la base canónica de V. Se denomina isomorfismo canónico a la aplicación
Φ : V −→ Kn
γ1
γ2
7 → [u]C = .
u−
..
γn
donde,
u = γ1 e1 + γ2 e2 + ... + γn en ,
de manera que [u]C es el vector columna donde ordenadamente se colocan las coordenadas del vector u en la base canónica
C. Al elemento [u]C se le denomina vector de coordenadas de u en la base C.
ΦB : V −→ Kn
α1
α2
7 → [u]B = .
u−
..
αn
donde,
u = α1 v1 + α2 v2 + ... + αn en ,
de manera que [u]B es el vector columna donde ordenadamente se colocan las coordenadas del vector u en la base B. Al
elemento [u]B se le denomina vector de coordenadas de u en la base B.
p(x) = 1 + 2x + 3x2 .
u = α1 v1 + α2 v2 + ... + αn vn ; (7.32)
u = γ1 w1 + γ2 w2 + ... + γn wn . (7.33)
B [u] B = [u]D ,
[Id]D (7.36)
Observación 7.12 Tenga presente que, dada una base S del espacio V:
B [u] B = [u] B ,
B
[Id]D [Id]D
Ejemplo 7.13 En el espacio vectorial M2 (R) consideramos las conjuntos M1 = {A1 , A2 , A3 , A4 } y M2 = {B1 , B2 , B3 , B4 },
donde ! ! ! !
−1 5 1 4 0 1 00
A1 = , A2 = , A3 = , A4 =
0 1 −3 1 −2 0 02
y ! ! ! !
−3 0 34 01 −1 0
B1 = , B2 = , B3 = , B4 =
0 1 01 50 0 0
Se tiene que
−1 1 0 0
5 4 1 0
[A1 ]C = , [A2 ]C = , [A3 ]C = , [A4 ]C = ,
0 −3 −2 0
1 1 0 2
y
−3 3 0 −1
0 4 1 0
[B1 ]C = , [B2 ]C = , [B3 ]C = , [B4 ]C = .
0 0 5 0
1 1 0 0
Puesto que
det [A1 ]C [A2 ]C [A3 ]C [A4 ]C = 30 , 0, det [B1 ]C [B2 ]C [B3 ]C [B4 ]C = 20 , 0,
−1
0 − 41 20
1
−3 3 0 −1 1
0 1
0 4 − 20 1
4 1 0 0
C −1
[Id]CM2
= [Id] M2 = =
0 0 5 0 0 0 5 1
0
1 10 0 −1 23 − 10
3
−3
de manera que:
0 − 41 20 1
0 − 41 − 20 3
−7
1 −1 1 0 2
0 1 − 1 5 23 720
0 5 4 1 0 4 20 20 0
[Id] M2 M2
M1 = [Id]C [Id] M1
C
= 4 20 = .
0 0 15 0 0 − 35 − 52
0 0 −3 −2 0
−1 23 − 10
3 11 29 21
−3 1 1 0 2
2 10 10 −6
Por tanto:
18 2 7 38
F= B1 + B2 + B3 − B4 .
5 5 5 5
7.4 Ejercicios resueltos 169
de manera que λA + B ∈ V. Puesto que λ, A, B fueron elegidos arbitrariamente, se ha probado (7.44), de manera que
V es un subespacio vectorial de M2 (R). !
ab
b) Tomamos un elemento genérico A = ∈ V. Se tiene que AM = 0, es decir
cd
a − 2b −2a + 4b
! ! ! !
a b 1 −2 00
= =
c d −2 4 c − 2d −2c + 4d 00
Por tanto:
1 −2 0 0 0 1 −2 0 0 0
−2 4 0 0 0 0 0 0 0 0
0 0 1 −2 0 . . . −→ . . . 0 0 1 −2 0
0 0 −2 4 0 0 0 0 0 0
de manera que
a − 2b = 0, c − 2d = 0.
Se tiene:
( ! )
ab
V= ∈ M2 (R) : a − 2b = 0 ∧ c − 2d = 0
cd
( ! ! )
21 00
V= b +d : b, d ∈ R .
00 21
Por tanto ( ! !)
21 00
B= ,
00 21
es una base de V y
dim(V) = 2.
170 7 Bases y dimensión de un espacio vectorial
α3 β γ η
3
3 3
α β γ η 1 1 1 1
α2 β2 γ2 η2 α β γ η
det(v1 v2 v3 v4 ) = = 2 2 2 2 = (β − α)(γ − α)(γ − β)(η − α)(η − β)(η − γ) , 0,
1 − α 1 − β 1 − γ 1 − η α β γ η
2 2 2 2
α3 β3 γ3 η3 α3 β3 γ3 η3
se sigue inmediatamente que B es l.i. y por tanto también es base de P2 (R); en particular, < B >= P2 (R).
Se tiene que
1 1 0
∆ = det p1 C p2 C p3 C = 1 −1 1 = −9
−1 2
3
Puesto que ∆ , 0, se sigue que S es l.i. y por tanto también es base de P2 (R).
172 7 Bases y dimensión de un espacio vectorial
5) Considere el conjunto ( ! )
ab
T= ∈ M2 (R) : a−b−c = 0 ∧ a+b−d = 0 . (7.45)
cd
a) Pruebe que T es un s.e.v. de M2 (R).
b) Halle una base de T e indique su dimensión.
c) Pruebe que si A ∈ T \ {0}, entonces A es invertible y halle A−1 .
d) Indique si el conjunto
N = {A ∈ T : A−1 ∈ T } ∪ {0}
es un s.e.v. de M2 (R). En caso afirmativo, halle la dimensión y una base de N.
Desarrollo.
a) Se tiene que
( ! )
a b
T = ∈ M2 (R) : a, b ∈ R (7.46)
a−b a+b
( ! ! )
10 0 1
= a +b : a, b ∈ R . (7.47)
11 −1 1
∀λ ∈ R, ∀A, B ∈ T : λA + B ∈ T. (7.48)
Se tiene que
" ! !# " ! !#
10 0 1 10 0 1
λA + B = λ a1 + b1 + a2 + b2
11 −1 1 11 −1 1
! !
10 0 1
= (λa1 + a2 ) + (λb1 + b2 ) ,
11 −1 1
de manera que λA + B ∈ T . Puesto que λ, A, B fueron elegidos arbitrariamente, se ha probado (7.48), es decir que
T es s.e.v. de M2 (R).
b) Por (7.47) se tiene que ( ! !)
10 0 1
B= ,
1 1 −1 1
es base de T . Por tanto dim(T ) = 2.
c) Tomamos A ∈ T \ {0} de manera que, por (7.46), se tiene que
!
a b
A= ,
a−b a+b
con
a,0 ∧ b , 0. (7.49)
Por (7.49) se tiene que
det(A) = a2 + ab − ab + b2 = a2 + b2 , 0,
de manera que A es invertible. Se tiene que
a + b −a + b a + b −b
! !
cof(A) = , adj(A) = ,
−b a −a + b a
de manera que
7.4 Ejercicios resueltos 173
a + b −b
!
1 1
A−1 = adj(A) = 2 2 . (7.50)
det(A) a +b −a +b a
d) Tomamos A ∈ T \ {0} de tal manera que A−1 tiene la forma (7.50). Tomando en cuenta la definición (7.45), para
que A−1 pertenezca a T debe cumplirse que:
N = {A ∈ T : A−1 ∈ T } ∪ {0}
( ! )
a b
= ∈ M2 (R) : a, b ∈ R \ {0} ∧ 2a + b = 0 ∪ {0}
a−b a+b
( ! )
a −2a
= ∈ M2 (R) : a ∈ R \ {0} ∪ {0}
3a −a
( ! )
1 −2
= a ∈ M2 (R) : a ∈ R . (7.53)
3 −1
Se tiene que ! ! !
1 −2 1 −2 1 −2
λA1 + A2 = λa1 + a2 = (λa1 + a2 ) ,
3 −1 3 −1 3 −1
de manera que λA1 + A2 ∈ N. Puesto que λ, A1 , A2 fueron elegidos arbitrariamente, se ha probado (7.54), es decir
que N es s.e.v. de M2 (R). De hecho, por (7.53), se tiene que
( !)
1 −2
S=
3 −1
6) Sea n ∈ N.
a) Pruebe que n o
Sn (K) = A ∈ Mn (K) : A = At (7.55)
es un s.e.v. de Mn (K).
b) Deduzca que
n(n + 1)
dim (Sn (K)) = . (7.56)
2
c) Pruebe que
∀A ∈ Mn (K) : A + At ∈ Sn (K). (7.57)
d) Halle una base de Sn (K).
Desarrollo.
a) Debemos probar que
∀λ ∈ K, ∀A, B ∈ Sn (K) : λA + B ∈ Sn (K). (7.58)
Tomamos λ ∈ K y A, B ∈ Sn (K), genéricos. Se tiene que
A = At ∧ B = Bt . (7.59)
de manera que λA + B ∈ Sn (K). Puesto que λ, A, B fueron elegidos arbitrariamente, se ha probado (7.58), de manera
que Sn (K) es un s.e.v. de Mn (K).
b) Puesto que Sn (K) ⊆ Mn (K), es claro que
Tomemos un elemento genérico U ∈ Sn (K) para analizar cuántas coordenadas autónomas definen a U — este
número corresponde a la dimensión del espacio Sn (K). Puesto que U es simétrica:
Entonces los elementos incluidos en el triángulo superior (que incluye la diagonal principal) son los que realmente
se necesitan para determinar a U. Por tanto, la dimensión de Sn (K) se encuentra como el número de elementos
en el triángulo superior. Observamos que tales elementos se dividen en n diagonales. Sumamos los elementos de
dichas diagonales:
n
X n(n + 1)
dim(Sn (K)) = n + (n − 1) + (n − 2) + ... + 2 + 1 = k= .
k=1
2
(A + At )t = At + (At )t
= At + A
= A + At ,
de manera que A + At ∈ Sn (K). Puesto que A fue elegida arbitrariamente, se ha probado (7.57).
d) Por lo visto en el literal b), una base de Sn (K) está dada por el conjunto
B = {V(i, j) : i ∈ In ∧ j ∈ In ∧ j ≥ i},
donde
7.4 Ejercicios resueltos 175
V(i, j) = ei j + eti j ,
con ers denotando la matriz canónica rs-ésima.
176 7 Bases y dimensión de un espacio vectorial
x + 3y − 4z + 2t = 0, 2x + 2y − 3z + t = 0,
(7.61)
x − y + z − t = 0, y + z − t = 0
(7.60)
−x − y + 5z − 3t = 0
a) Halle V1 el conjunto solución del sistema (7.60). Pruebe que V1 es un s.e.v. de R4 y halle su dimensión.
b) Halle V2 el conjunto solución del sistema (7.61). Pruebe que V2 es un s.e.v. de R4 y halle su dimensión.
c) Halle el s.e.v. V1 ∩ V2 y halle su dimensión.
Desarrollo.
a) Se tiene que
1 3 −4 2 0 1 0 0 −3/7 0
1 −1 1 −1 0 . . . −→ . . . 0 1 0 −1/7 0
−1 −1 5 −3 0 0 0 1 −5/7 0
de manera que
x − 3t/7 = 0, y − t/7 = 0, z − 5t/7 = 0.
Por tanto:
3/7
1/7
V1 = .
t : t ∈ R (7.62)
5/7
1
∀λ ∈ R, ∀u, v ∈ V1 : λu + v ∈ V1 . (7.63)
Se tiene que
3/7 3/7 3/7
1/7 1/7 1/7
λu + v = λt1 + t = (λt1 + t2 )
5/7 ,
5/7 2 5/7
1 1 1
de manera que λu + v ∈ V1 . Puesto que λ, u, v fueron elegidos arbitrariamente, se ha probado (7.63). De (7.62) se
deduce entonces que
3/7
1/7
B1 =
5/7
1
es base de V1 y dim(V1 ) = 1.
b) Se tiene que ! !
2 2 −3 1 0 2 3 −2 0 0
. . . −→ . . .
0 1 1 −1 0 0 1 1 −1 0
de manera que
x = −3y/2 + z, t = y + z.
Por tanto:
−3y/2 + z
−3/2 1
y 1 0
V2 = ∈ R4 : = + z ∈ R4 : .
y, z ∈ R y y, z ∈ R (7.64)
z
0 1
y+z
1 1
∀λ ∈ R, ∀u, v ∈ V2 : λu + v ∈ V2 . (7.65)
−3/2 1 −3/2 1
1 0 1 0
u = y1 + z1 , v = y2 + z2 .
0 1 0 1
1 1 1 1
Se tiene que
−3/2 1
1 0
λu + v = (λy1 + y2 ) + (λz1 + z2 ) ,
0 1
1 1
de manera que λu + v ∈ V2 . Puesto que λ, u, v fueron elegidos arbitrariamente, se ha probado (7.65). De (7.64) se
deduce entonces que
−3/2 1
1 0
B2 = ,
0
1
1 1
es base de V2 y dim(V2 ) = 2.
c) Hallemos V1 ∩ V2 . Se tiene que
1 3 −4 2 0 1 0 0 0 0
1 −1 1 −1 0 0 1 0 0 0
−1 −1 5 −3 0 . . . −→ . . . 0 0 1 0
0
2 2 −3 1 0 0 0 0 1 0
0 1 1 −1 0 0000 0
de manera que
0
0
V1 ∩ V2 =
0
0
y entonces dim(V1 ∩ V2 ) = 0.
178 7 Bases y dimensión de un espacio vectorial
8) Considere el conjunto
U = p ∈ P2 (R) : p0 (1) = p(2). .
∀λ ∈ R, ∀p, q ∈ U : λp + q ∈ U. (7.67)
p : R −→ R q : R −→ R
x 7−→ p(x) = b1 (−1 + x) + c1 (−2 + x2 ), x 7−→ q(x) = b2 (−1 + x) + c2 (−2 + x2 ),
se sigue que
λp + q : R −→ R
x 7−→ (λp + q)(x) = (λb1 + b2 )(−1 + x) + (λc1 + c2 )(−2 + x2 ),
de manera que λp + q ∈ U. Puesto que λ, p, q fueron elegidos arbitrariamente, se ha probado (7.67), es decir que U es
s.e.v. de P2 (R).
7.4 Ejercicios resueltos 179
x
y
Tomamos un elemento genérico u = ∈ W1 de manera que existen coeficientes α1 , α2 ∈ R tales que
z
t
u = α1 v1 + α2 v2 .
Se tiene que
1 0 x 1 0 x
0 1 y
0 1 y
. . . →
− . . .
0 1 z 0 0 z − y
0 0 t+y
0 −1 t
Entonces, las ecuaciones generadoras de W1 son
z − y = 0, t + y = 0,
y
x
y
W1 = ∈ R4 : z − y = 0 ∧ t + y = 0 .
z
t
x
y
Tomamos un elemento genérico u = ∈ W2 de manera que existen coeficientes α3 , α4 ∈ R tales que
z
t
u = α3 v3 + α4 v4 .
Se tiene que
0 1 x 0 1 x
1 0 y
1 0 y
. . .→
− . . .
0 1 z 0 0 z − x
01 t 0 0 t−x
Entonces, las ecuaciones generadoras de W2 son
z − x = 0, t − x = 0,
y
180 7 Bases y dimensión de un espacio vectorial
x
y
W2 = ∈ R4 : z − x = 0 ∧ t − x = 0 .
z
t
c) Se tiene que
x
y
W1 ∩ W2 = ∈ R4 : z − y = 0 ∧ t + y = 0 ∧ z − x = 0 ∧ t − x = 0 .
z
t
Se tiene que
0 −1 1 0 0 1 0 0 0 0
0 1 0 1 0 0 1 0 0 0
−1 0 1 0 0 − . . . 0 0 1 0
. . . →
0
−1 0 0 1 0 0001 0
Entonces
0
0
W1 ∩ W2 =
0
0
10) Sean α, β, γ ∈ R, con γ , 0. Considere los polinomios reales cuyas fórmulas son:
q = θ1 p + θ2 p00 ,
α 2γ −1
p C p00 C | q C = β 0 0
γ 0 2
βθ1 = 0 ⇒ β = 0,
α β 2γ
det( p C p C p C ) = β 2γ 0 = −4γ3 , 0,
0 00
γ 0 0
v : R −→ R
x 7−→ v(x) = a + bx + cx2 .
en la base T .
Desarrollo. Obsérvese que
1 −1 −3
p1 C = 1 , p2 C = 1 , p3 C = 0 ,
1 0 0
2 −5 0
q1 C = −1 , q2 C = 2 , q3 C = 0 ,
0 3 −1
0 1 0
[r1 ]C = −1 , [r2 ]C = −3 , [r3 ]C = 0 .
5 2 −1
v = α1 r1 + α2 r2 + α3 r3
v(x) = α1 r1 + α2 r2 + α3 r3 ,
a + bx + cx2 = α1 (−x + 5x2 ) + α2 (1 − 3x + 2x2 ) + α3 (−x2 ). (7.78)
Entonces
0 1 0 a 0 1 0 a
−1 −3 0 b . . . −→ . . . −1 0 0 3a + b
5 2 −1 c 0 0 −1 13a + 5b + c
de manera que
α1 = −3a − b, α2 = a, α3 = −13a − 5b − c.
2) Segunda forma. Se tiene que
[v]T = [Id]TC [v]C . (7.79)
Se tiene que
−1 −1
[Id]TC = [Id]CT = [r1 ]C [r2 ]C [r3 ]C
−1
0 1 0 −3 −1 0
= −1 −3 0 = 1 0 0 , (7.80)
5 2 −1 −13 −5 −1
v1 = u1 + u2 , v2 = 2u1 − u2 ,
r(t) = 1 + 2t − t2 − t3 ,
a) ¿Es el vector r combinación lineal de los vectores p1 , p2 ? En caso afirmativo escriba una combinación lineal.
b) ¿Es el vector r combinación lineal de los vectores p1 , p3 ? En caso afirmativo escriba una combinación lineal.
c) ¿Es el vector r combinación lineal de los vectores p1 , p2 , p4 , p5 ? En caso afirmativo escriba una combinación lineal.
d) ¿Es el vector r combinación lineal de los vectores p1 , p2 , p4 , p6 ? En caso afirmativo escriba una combinación lineal.
e) ¿Es el vector r combinación lineal de los vectores p1 , p2 , p4 , p5 , p6 ? En caso afirmativo escriba una combinación
lineal.
3) Sea V = M2×3 (R). Considere las matrices reales
!
2 −1 0
U= ,
1 0 −3
! ! !
−3 5 7 0 −2 0 8 −11 −14
A1 = , A2 = , A3 = ,
1 0 −2 −2 0 4 −1 0 1
! !
0 0 −1 0 0 0
A4 = , A5 = ,
0 1 −1 5 −3 1
! !
00 0 000
A6 = , A7 = , (7.81)
0 2 −1 002
a) ¿Es el vector U combinación lineal de los vectores A1 , A2 ? En caso afirmativo escriba una combinación lineal.
b) ¿Es el vector U combinación lineal de los vectores A1 , A3 ? En caso afirmativo escriba una combinación lineal.
c) ¿Es el vector U combinación lineal de los vectores A1 , A2 , A4 , A5 , A6 , A7 ? En caso afirmativo escriba una combina-
ción lineal.
4) Determine si el conjunto Gk es linealmente independiente en P2 (R).
2x1 + 3x2 − 4x3 = 0, x − 6y + 11z + 6w = 0,
−x + 3y − 12z − 5w = 0,
x1 − x2 + x3 = 0, −15x + 26y − 13z − 10w = 0,
7x − 3y + z − 9w = 0.
2x1 + 8x2 − 10x3 = 0.
−3x + 2y + 5z + 2w = 0.
186 7 Bases y dimensión de un espacio vectorial
5x + 8y − 8z − 3w = 0,
2x1 − 6x2 + 4x3 = 0,
+ 11y − 11z − 2w = 0, −x1 + 3x2 − 2x3 = 0,
10x
12x + 11z − 8w = 0.
−3x1 + 9x2 − 6x3 = 0.
13) El conjunto Bk es una base de R2 . Escriba un vector genérico u ∈ R2 como una combinación lineal de los elementos
de Bk . ( ! !) ( ! !) ( ! !)
7 3 1 1 2 3
B1 = , , B2 = , , B3 = , ,
−12 6 1 −1 −3 −2
( ! !) ( ! !) ( ! !)
5 3 −1 −1 −7 4
B4 = , , B5 = , , B6 = , ,
7 −4 −2 2 −9 10
( ! !)
a b
B7 = , , donde ad − bc , 0.
c d
14) El conjunto Bk es una base de R3 . Escriba un vector genérico u ∈ R3 como una combinación lineal de los elementos
de Bk .
−5 1 5 1 0 1 −4 −1 0
B1 = , , , = , , , = −1 , −1 , 2 ,
0 2 2 B 0 1 1 B
2
3
3 −2 0 −1 0 1 2 1 1
2 −1 3 3 −2 4
B4 = 1 , 4 , −2 , B5 = 0 , −5 , 4 .
3 5 −4
4 −2 −5
15) El conjunto Bk es una base de P2 (R). Escriba un vector genérico p ∈ P2 (R) como una combinación lineal de los
elementos de Bk .
B1 = {p1 , p2 , p3 }, donde: p1 (x) = 1, p2 (x) = x − 1, p3 (x) = x2 − 1;
B2 = {p4 , p5 , p6 }, donde: p4 (x) = 1 + x + 4x2 , p5 (x) = −3 + 4x − 2x2 , p6 (x) = 3 − 2x + 4x2 ;
B3 = {p7 , p8 , p9 }, donde: p7 (x) = −2 − 11x − x2 , p8 (x) = −4 + 4x − 4x2 , p9 (x) = 1;
B4 = {q1 , q2 , q3 }, donde: q1 (x) = x + 1, q2 (x) = x − 1, q3 (x) = x2 − 1.
16) Considere las funciones determinadas por las fórmulas
a) Halle V1 el conjunto solución del sistema (7.82). Pruebe que V1 es un s.e.v. de R4 y halle su dimensión.
b) Halle V2 el conjunto solución del sistema (7.83). Pruebe que V2 es un s.e.v. de R4 y halle su dimensión.
c) Halle el s.e.v. V1 ∩ V2 y halle su dimensión.
d) ¿Es s.e.v. el conjunto V1 ∪ V2 ?
26) Considere el conjunto
Q = {A ∈ M3 (R) : A es antisimétrica} .
a) Pruebe que Q es un s.e.v. de M3 (R).
b) Halle una base de Q e indique su dimensión.
27) Para k = 1, 2, 3, 4, ek denota el k-ésimo vector canónico de R4 .
a) Halle las ecuaciones generadoras de W1 =< {e1 + e2 , e2 + e3 − e4 } >.
b) Halle las ecuaciones generadoras de W1 =< {e2 − e3 , e1 + e3 + e4 } >.
c) Halle la dimensión de W1 ∩ W2 y, en caso de ser posible, halle una base para W1 ∩ W2 .
28) Sea W el conjunto de polinomios reales p de grado menor o igual a 3 cuya fórmula tiene la forma
31) Halle el subespacio vectorial W ⊆ P2 (R), generado por el conjunto S = {p1 , p2 , p3 } donde, para x ∈ R:
p1 (x) = 1 + 2x − x2 , p2 (x) = 2 + x.
v : R −→ R
x 7−→ v(x) = a + bx + cx2 .
en la base T .
Sea n ∈ N ∪ {0}. Pruebe que el conjunto de todos los vectores canónicos es una base de Pn (R) y que
donde, para x ∈ R:
a) Analice el sistema y determine cuándo es determinado, inconsistente e indeterminado. En cada caso determine el
conjunto solución.
b) Con respecto al punto anterior, indique cuando el conjunto solución es un subespacio vectorial de R3 . Halle una
base para este s.e.v.
1) Sea n ∈ N. Suponga que las funciones f1 , f2 , ..., fn ∈ F (R) tienen derivadas al menos hasta de orden n − 1. Se define el
Wronskiano de f1 , f2 , ..., fn , como la función determinada por la fórmula
f2 (x) . . . fn (x)
f1 (x)
f 0 (x) f20 (x) . . . fn0 (x)
100
f200 (x) . . . fn00 (x)
W[ f1 , ..., fn ](x) = f1 (x) (7.92)
.. .. ..
. . ... .
(n−1)
f1 (x) f2(n−1) (x) . . . fn(n−1) (x)
2) Sean U y W dos s.e.v. del espacio vectorial V tales que U ⊆ W y dim(U) = dim(W) < ∞. Pruebe que U = W.
3) Sean U y W dos s.e.v. del espacio vectorial V. Considere el conjunto
T = {t = u + w : u ∈ U ∧ w ∈ W}.
4) Sea n ∈ N.
a) Pruebe que n o
Wn (K) = A ∈ Mn (K) : A = −At (7.98)
es un s.e.v. de Mn (K).
b) Deduzca que
n(n + 1)
dim (Wn (K)) = . (7.99)
2
c) Pruebe que
∀A ∈ Mn (K) : A − At ∈ Wn (K).
d) Halle una base de Wn (K).
5) Sea B1 = {v1 , v2 , ..., vn } una base del espacio vectorial V. Para cada k ∈ In , se define el vector
k
X
uk = vi .
i=1
Definición 8.1 (Suma de subespacios) Sea V un espacio vectorial sobre el cuerpo K. Si U1 y U2 son s.e.v. de
V, se define U1 + U2 como el conjunto
U1 + U2 = {v = u1 + u2 ∈ V : u1 ∈ U1 , u2 ∈ U2 }. (8.1)
Teorema 8.1 (Suma de s.e.v. es s.e.v.) Sea V un espacio vectorial sobre el cuerpo K. Si U1 y U2 son s.e.v. de V,
entonces U1 + U2 es s.e.v. de V.
t
u
Teorema 8.2 Sean V un espacio vectorial (sobre el cuerpo K) y U1 , U2 dos s.e.v. de V. Si B1 y B2 son bases de
U1 y U2 , respectivamente, entonces
U1 + U2 =< B1 ∪ B2 > . (8.2)
i) Probemos que U1 + U2 ⊆< B1 ∪ B2 >. Para esto, tomamos v ∈ U1 + U2 , genérico. Sabemos que existen
Demostración.
elementos u ∈ U1 y w ∈ U2 tales que
v = u + w.
Puesto que B1 y B2 son bases de U1 y U2 , respectivamente, existen
αi ∈ K, ui ∈ U1 : i = 1, 2, ..., n;
β j ∈ K, w j ∈ U2 : j = 1, 2, ..., m;
192 8 Suma de espacios y producto interno
tales que
n
X m
X
u= αi ui , w= β jw j.
i=1 j=1
de manera que v es una combinación lineal de elementos de B1 ∪ B2 , o sea que v ∈< B1 ∪ B2 >. Puesto que v fue elegido
arbitrariamente, se ha probado que
∀v ∈ U1 + U2 : v ∈< B1 ∪ B2 >,
es decir se ha probado que U1 + U2 ⊆< B1 ∪ B2 >.
ii) Probemos que U1 +U2 ⊇< B1 ∪ B2 >. Tomemos v ∈< B1 ∪ B2 >, genérico. Puesto que v es combinación lineal de elementos
de B1 ∪ B2 , existen
αi ∈ K, ui ∈ U1 : i = 1, 2, ..., n;
β j ∈ K, w j ∈ U2 : j = 1, 2, ..., m;
tales que
n
X m
X
v= αi ui + β jw j.
i=1 j=1
Puesto que ni=1 αi ui ∈ U1 y mj=1 β j w j ∈ U2 , se ha probado que v ∈ U1 + U2 . Puesto que v fue elegido arbitrariamente, se
P P
ha probado que
∀v ∈< B1 ∪ B2 >: v ∈ U1 + U2 ,
de manera que < B1 ∪ B2 >⊆ U1 + U2 .
t
u
Teorema 8.3 (Teorema de la Dimensión) Sea V un espacio vectorial sobre el cuerpo K. Si U1 , U2 son s.e.v. de
V con dimensión finita, entonces
La demostración del Teorema 8.3 se requiere como ejercicio al final del capı́tulo.
Ejemplo 8.1 Con un ejemplo ayudemos a comprender el contenido de los Teoremas 8.2 y 8.3. Tomemos V = R3 ,
x
x
U1 = 3
, = 3
,
y ∈ : x, y ∈ U 0 ∈ : x, z ∈
R R
2
R R
0
z
y
B1 = {i, j}, B2 = {i, k}.
Es claro que B1 es base de U1 y que B2 es base de U2 . En este caso,
Definición 8.2 (Suma Directa) Sea V un espacio vectorial sobre el cuerpo K. Sean W, U1 , U2 s.e.v. de V. Se dice
que W es la suma directa de U1 y U2 , denotado W = U1 ⊕ U2 , si se cumplen las siguientes condiciones
W = U1 + U2 , (8.4)
U1 ∩ U2 = {0}. (8.5)
8.1 Suma de subespacios vectoriales 193
Teorema 8.4 (Caracterización de la suma directa) Sea V un espacio vectorial sobre el cuerpo K. Sean
W, U1 , U2 s.e.v. de V. Entonces W = U1 ⊕ U2 ssi
∀w ∈ W, ∃!(u1 , u2 ) ∈ U1 × U2 : w = u1 + u2 . (8.7)
Observación 8.2 En varios textos se utiliza (8.7) para definir suma directa. Establece que la descomposición de un vector
w ∈ W como suma de elementos de U1 y U2 es única.
Teorema 8.5 (Completación de un s.e.v. por suma directa) Sea V un espacio vectorial sobre el cuerpo K, con
dimensión finita. Si U es un s.e.v. de V, entonces existe W s.e.v. de V tal que V = U ⊕ W.
Demostración (Esquema de la demostración). Por hipótesis, sabemos que para un cierto n ∈ N, dim(V) = n.
Si U , {0} y U , V, entonces existen k < n y B = {u1 , ..., uk } base de U. Es claro que podemos construir
base de V con
wi << B >, para todo i = 1, 2, ..., n − k.
El s.e.v. W =< {w1 , w2 , ..., wn−k } > es tal que
V = U ⊕ W.
t
u
El esquema de la demostración del Teorema 8.5 es útil, como se verá en el siguiente ejemplo.
Usando el esquema de la demostración del Teorema 8.5 encontraremos W, un s.e.v. de P3 (R) tal que
P3 (R) = U ⊕ W.
p1 (x) = 2 + x + x3 , p2 (x) = 1 + x2 − x3 , x ∈ R.
w1 (x) = 1, w2 (x) = x, x ∈ R.
Puesto que
194 8 Suma de espacios y producto interno
2 1 1 0
1 0 0 1
det( p1 C p2 C [w1 ]C [w2 ]C ) = = −1 , 0,
0 1 0 0
1 −1 0 0
el conjunto
S = B ∪ {w1 , w2 }
es una base de P3 (R). Finalmente, el s.e.v.
W =< w1 , w2 >
es tal que
P3 (R) = U ⊕ W.
Corolario 8.1 Sean V un espacio vectorial sobre el cuerpo K, y W1 , W2 s.e.v. de V. Suponga que B1 y B2 son
bases de W1 y W2 , respectivamente. Entonces,
B1 ∩ B2 = ∅ ⇒ W1 + W2 = W1 ⊕ W2 . (8.9)
Puesto que
−1 −1 0 −1/2
1 0 0 1 3
det([w1 ]C [w2 ]C [w3 ]C [w4 ]C ) = = − , 0,
0 1 0 1 2
0 0 1 0
W1 + W3 = W1 ⊕ W3 = M2 (R).
En una clase anterior abordamos el producto escalar del espacio R3 como la función h·, ·i : R3 × R3 −→ R definida
mediante
hu, vi = ut v = x1 x2 + y1 y2 + z1 z2 , (8.10)
x1 x2
donde u = y1 y v = y2 . En esta sección mostraremos que las propiedades allı́ enunciadas, como la desigualdad de
z1 z2
Cauchy-Schwartz, son válidas en un contexto más general.
196 8 Suma de espacios y producto interno
Definición 8.3 (Producto interno) Sea V un espacio vectorial sobre el cuerpo K. Se dice que una aplicación
h·, ·i : V × V −→ K es un producto escalar o producto interno si se cumplen las siguientes propiedades:
i) Pseudosimetrı́a:
∀u, v ∈ V : hu, vi = hv, ui; (8.11)
ii) Propiedad distributiva
∀u, v, w ∈ V : hu, v + wi = hu, vi + hu, wi ; (8.12)
iii) Homogeneidad:
∀λ ∈ K, ∀u, v ∈ V : hλu, vi = λ hu, vi ; (8.13)
iv) Positividad:
∀u ∈ V : hu, ui ≥ 0; (8.14)
hu, ui = 0 ⇔ u = 0. (8.15)
En este caso se dice que V es un espacio con producto interno o espacio euclidiano
Observación 8.4 Tenga presente que sobre un espacio vectorial se pueden definir varios productos escalares y, en este
caso, se cuenta con varios espacios euclidianos que trabajan con el mismo conjunto de vectores.
Ejemplo 8.4 Tomamos a, b, c ∈ R tales que a < b < c. En el espacio vectorial P2 (R) consideramos la aplicación h·, ·i :
P2 (R) × P2 (R) −→ R mediante
hp, qi = p(a)q(a) + p(b)q(b) + p(c)q(c).
Probemos que h·, ·i es un producto interior en P2 (R).
p(x) = a0 + a1 x + a2 x2 , q(x) = b0 + b1 x + b2 x2 .
p(x) = a0 + a1 x + a2 x2 , q(x) = b0 + b1 x + b2 x2 .
p(x) = a0 + a1 x + a2 x2 .
Puesto que
∀y ∈ R : y2 ≥ 0,
se tiene que
hu, ui = p2 (a) + p2 (b) + p2 (c) ≥ 0.
Puesto que p fue elegido arbitrariamente, se ha probado (8.20).
Ahora probemos (8.21). Si p = 0, es claro que hp, pi = 0.
Supongamos entonces que el polinomio determinado por la fórmula
p(x) = m0 + m1 x + m2 x2 ,
m0 + m1 a + m2 a2 = 0,
m0 + m1 b + m2 b2 = 0,
m0 + m1 c + m2 c2 = 0.
Ejemplo 8.5 Sea n ∈ N. En el espacio Rn se define el producto escalar clásico como la función
h·, ·i : Rn × Rn −→ R dada por
n
X
hu, vi = ut v = ui vi , (8.22)
i=1
Ejemplo 8.6 Sea n ∈ N. En el espacio Pn (R) se define un producto escalar con la función
h·, ·i : Pn (R) × Pn (R) −→ R dada por
n
X
hu, vi = [u]tC [v]C = ai bi , (8.23)
i=0
donde:
u(x) = a0 + a1 x + a2 x2 + ... + an xn , v(x) = b0 + b1 x1 + ... + an xn , x ∈ R.
Ejemplo 8.7 Sea n ∈ N. En el espacio Mn (R) se define un producto escalar con la función
h·, ·i : Mn (R) × Mn (R) −→ R dada por
198 8 Suma de espacios y producto interno
n X
X n
hA, Bi = [A]tC [B]C = ai j bi j , (8.24)
i=1 j=1
Ejemplo 8.8 Sea n ∈ N. En el espacio M2 (K) se define un producto escalar con la función
h·, ·i : M2 (K) × M2 (K) −→ R dada por
hA, Bi = Tr(ABt ) (8.25)
Teorema 8.6 (Propiedades del producto interno) Sea V un espacio con producto interno. Se cumplen las si-
guientes propiedades:
La demostración del Teorema 8.6 se requiere como ejercicio al final del capı́tulo.
Teorema 8.7 (Desigualdad de Cauchy-Schwartz) Sea V un espacio vectorial con producto interno. Se cumple
que
∀u, v ∈ V : |hu, vi|2 = hu, ui · hv, vi (8.30)
En el caso en que
u=0 ∨ v = 0,
la desigualdad (8.30) se cumple inmediatamente.
f : R −→ R (8.31)
t 7−→ f (t) = htu − v, tu − vi .
de manera que f es una función cuadrática. Entonces, por (8.32), se sigue que el discriminante de f es no-positivo, es
decir
0 ≥ ∆ = b2 − 4ac = (−2 hu, vi)2 − 4 hu, ui hv, vi = 4 hu, vi2 − 4 hu, ui hv, vi ,
es decir,
hu, vi2 − hu, ui hv, vi ≤ 0,
de donde se sigue que
hu, vi2 ≤ kuk2 kvk2 .
Puesto que u, v fueron elegidos arbitrariamente, se ha probado (8.30).
t
u
8.2 Producto interior 199
Definición 8.4 (Norma) Sea V un espacio vectorial sobre el cuerpo K. Se dice que una aplicación k · k : V −→ R
es una norma si se cumplen las siguientes propiedades:
i) Positividad:
∀u ∈ V : kuk ≥ 0; (8.34)
kuk = 0 ⇔ u = 0. (8.35)
ii) Homogeneidad:
∀λ ∈ K, ∀u ∈ V : kλuk = |λ| kuk; (8.36)
iii) Desigualdad triangular:
∀u, v ∈ V : ku + vk ≤ kuk + kvk. (8.37)
En este caso se dice que V es un espacio normado.
Observación 8.5 Tenga presente que sobre un espacio vectorial se pueden definir varias normas y, en este caso, se cuenta
con varios espacios normados que trabajan con el mismo conjunto de vectores.
Observación 8.6 En un espacio normado V, la distancia entre dos puntos u, v ∈ V, está dada por
Teorema 8.8 (Norma asociada a un producto interno) Sea V un espacio con producto interno. Entonces V es
un espacio normado cuando es provisto de la aplicación k · k : V → R definida mediante
En este caso se dice que k · k es la norma asociada al producto interno h·, ·i.
Demostración. La positividad y la homogeneidad son bastante fáciles de probar por lo que lo dejamos como ejercicio.
ku + vk2 = hu + v, u + vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2| hu, vi | + kvk2
≤ kuk2 + 2kuk kvk + kvk2
= (kuk + kvk)2 ,
es decir,
ku + vk2 ≤ (kuk + kvk)2 ,
de donde se obtiene:
ku + vk ≤ kuk + kvk.
Puesto que u, v fueron elegidos arbitrariamente, se ha probado que
t
u
Observación 8.7 Se debe tener presente que no todo espacio normado es un espacio euclidiano.
Observación 8.8 Por el Teorema 8.8, la desigualdad de Cauchy -Schwartz se puede escribir como
Definición 8.5 (Vector unitario o normalizado) Sea V un espacio euclidiano. Se dice que un vector u ∈ V es
unitario o normalizado si se cumple que kuk = 1.
Observación 8.9 Tenga presente que todo vector u ∈ V \ {0} se puede escribir como
u = kuk · nu , (8.41)
donde
1
nu = ·u (8.42)
kuk
es el vector unitario en la dirección de u, es decir es un vector con la misma dirección y sentido que u pero que está
normalizado.
se tiene que q √
kuk = 52 + 72 + (−2)2 = 78.
Por tanto, se tiene que √
u= 78 · nu ,
donde √
5/ 78
√
nu = 7/ 78
√
−2/ 78
es un vector unitario.
c : [0, π] −→ [−1, 1]
cos
x 7−→ cos(x)
c = cos(x).
Definición 8.6 (Ángulo entre vectores) Sean u, v ∈ V \ {0}. Se define el ángulo entre los vectores u y v mediante
!
hu, vi
θ = arc cos , (8.43)
kuk kvk
o, equivalentemente,
hu, vi
cos(θ) = . (8.44)
kuk kvk
Observación 8.10 En el marco de la definición anterior se tiene, por la desigualdad de Cauchy-Schwartz, que
| hu, vi |
≤ 1,
kuk kvk
que equivale a
hu, vi
−1 ≤ ≤1
kuk kvk
Observación 8.11 Observe que el ángulo que forman los vectores u, v ∈ V \ {0} se obtiene como el producto escalar de
sus unitarios:
cos(θ) = hnu , nv i . (8.45)
8.3 Ortogonalidad 201
8.3. Ortogonalidad
Definición 8.7 (Ortogonalidad / Paralelismo) Sea V un espacio euclidiano. Se dice que los vectores u, v ∈ V
son
a) ortogonales si se cumple que
hu, vi = 0; (8.47)
b) paralelos si se cumple que
|hu, vi| = 1. (8.48)
Observación 8.13 Dos vectores no-nulos son ortogonales cuando forman un ángulo θ = π/2, en tanto que son paralelos
cuando θ = 0 o cuando θ = π.
Definición 8.8 (Conjuntos ortogonales y ortonormales) Sea V un espacio euclidiano. Se dice que A ⊆ V es un
conjunto ortogonal si se cumple que
∀u, v ∈ A, u , v : hu, vi = 0. (8.49)
Se dice que A es un conjunto ortonormal si, adicionalmente, se cumple que
∀u ∈ A : kuk = 1. (8.50)
Teorema 8.9 (Ortogonalidad e independencia lineal) Sea V un espacio euclidiano. Si H ⊆ V \ {0} es un con-
junto ortogonal, entonces H es l.i.
Demostración. Sea B = {u1 , u2 , ..., un } ⊆ H, genérico. Puesto que H es ortogonal, se sigue que
∀u, v ∈ B, u , v : hu, vi = 0.
α1 u1 + α2 u2 + ... + αn un = 0. (8.51)
∀k ∈ In : αk = 0,
por lo que B es l.i. Puesto que B fue elegido arbitrariamente, se ha probado que todo subconjunto finito de H es l.i. por lo
que H también es l.i.
t
u
202 8 Suma de espacios y producto interno
Corolario 8.2 (Ortonormalidad e independencia lineal) En un espacio euclidiano todo subconjunto ortonor-
mal es l.i.
Definición 8.9 (Vector Proyección) Sean V espacio euclidiano y u, v ∈ V \ {0}. Se define el vector proyección de
u sobre v mediante !
hu, vi
proyv (u) = hu, nv i = · v. (8.52)
kvk2
36
u
w
- -
p v
Observación 8.15 En la definición anterior, si u , 0, se tiene que proyv (u) y u tienen la misma dirección, como lo muestra
la gráfica. Asimismo, el vector p = proyv (u) tiene 1) el mismo sentido de v si hu, vi > 0; 2) sentido opuesto de v si hu, vi < 0.
y se tiene que
hv, wi = 0. (8.54)
Teorema 8.10 (Proceso de Gram-Schmidt — G-S) Sea V un espacio euclidiano. Si B = {v1 , v2 , ..., vn } ⊆ V es
l.i., entonces existe H = {u1 , u2 , ..., un } ⊆ V ortonormal tal que
Empezamos poniendo
w1 = v1 .
Ahora, teniendo presente la Observación 8.16, tomamos
w2 = v2 − proyw1 (v2 ).
Además se cumple que < B >=< S > pues todos los elementos de S son combinaciones lineales de los elementos de B
y #(B) = #(S ).
t
u
Ejemplo 8.11 Consideramos el espacio vectorial M2 (R) con el producto interno definido en el Ejemplo 8.7. Hallemos
una base ortonormal para el s.e.v.
( ! )
ab
V= ∈ M2 (R) : 2a − b + c + 3d = 0 .
cd
Buscaremos una base para V y luego aplicaremos G-S obteniendo una base ortogonal y una base ortonormal de V.
Finalmente:
6 12
!
proyw1 (v3 ) = hv3 , u1 i · u1 = 5 5
0 0
− 51 1
!
proyw2 (v3 ) = hv3 , u2 i · u2 = 1
10
2 0
de manera que
−1 21
!
w3 = v3 − proyw1 (v3 ) − proyw2 (v3 ) =
− 12 1
y √
− √2√1
u3 = 15 .
√10
2
−√ √
10 5
Por tanto, una base ortogonal de V es
S = {w1 , w2 , w3 }
y una base ortonormal de V es
H = {u1 , u2 , u3 }.
Teorema 8.11 (Espacio ortogonal) Sean V un espacio euclidiano y W un s.e.v. de V. El conjunto ortogonal de
W,
W ⊥ = {u ∈ V : ∀w ∈ W : hu, wi = 0} (8.59)
es un s.e.v. de V.
La demostración del Teorema 8.11 se requiere como ejercicio al final del capı́tulo.
Observación 8.17 Para hallar W ⊥ es útil tener presente que si B es una base de W:
Proposición 8.1 (Ortogonalidad y suma directa) Sean V un espacio euclidiano de dimensión finita y W un
s.e.v. de V. Entonces se tiene que
V = W ⊕ W ⊥; (8.61)
dim(V) = dim(W) + dim(W ). t
(8.62)
Observación 8.18 En el marco de la proposición anterior, tenga presente que si B1 y B2 son bases ortogonales de W y
W ⊥ , respectivamente, entonces B1 ∪ B2 es una base ortogonal de V.
Definición 8.11 (Proyección sobre un s.e.v.) Sean V espacio euclidiano, H un s.e.v. de dimensión finita de V, y
u ∈ V. Se define la proyección de u sobre el s.e.v. H como el vector
n D
X E
proyH (u) = u, nv j , (8.63)
j=1
para el s.e.v.
H = {αv : α ∈ K}.
8.3 Ortogonalidad 205
Teorema 8.12 (Caracterización de la proyección sobre un s.e.v.) Sean V espacio euclidiano, H un s.e.v. de
dimensión finita de V, y u ∈ V. Se tiene que
es decir,
∀h ∈ H : ku − proyH (u)k ≤ ku − hk. (8.66)
206 8 Suma de espacios y producto interno
4) Sean λ ∈ K, V un espacio euclidiano y B un conjunto ortogonal. Pruebe que también es ortogonal el conjunto
λB = {λu : u ∈ B}.
y
a b c
H= −a + 4b − c + d = 0 ∧ a + b − c + d − e + 2 f − g + h − 3l = 0 .
d e f ∈ M3 (R) :
g h l
d) Halle una base ortonormal de V cuando se considera el producto interno definido por la fórmula
hA, Bi = Tr(ABt ).
y los s.e.v. ( ! )
ab
W1 = ∈ M2 (R) : a+d = b+c
cd
y ( ! )
xy
W2 = ∈ M2 (R) : x+t = z ∧ x−y = t .
z t
a) Determinar W1 ∩ W2 y halle una base de este s.e.v. ¿Cuál es la dimensión de w1 ∩ W2 ?
b) Determinar W1 + W2 y halle una base ortogonal B1 de este s.e.v.
c) ¿Se cumple que M2 (R) = W1 ⊕ W2 ?
d) ¿Es s.e.v. W1 ∪ W2 ?
e) Halle proyW ⊥ (U) y proyW ⊥ (U) donde
1 2 !
−3 1
U= .
2 0
11) Sean ( ! ) ( ! )
x y a b
W1 = : x, y, z ∈ R , W2 = : a, b, c ∈ R .
z −x 2b c
8.5 Ejercicios propuestos 209
ku + vk = kuk + kvk.
donde:
u(x) = a0 + a1 x + a2 x2 + ... + an xn , v(x) = b0 + b1 x1 + ... + an xn , x ∈ R,
define un producto escalar.
6) Sea n ∈ N. En el espacio M2 (R) se define la función h·, ·i : M2 (R) × M2 (R) −→ R mediante
W ⊥ = {u ∈ V : ∀w ∈ W : hu, wi = 0}
210 8 Suma de espacios y producto interno
es un s.e.v. de V.
8) En el espacio vectorial P2 (R) consideramos la aplicación h·, ·i : P2 (R) × P2 (R) −→ R definida mediante
2) Sea V un espacio con producto interno. Pruebe que se cumplen las siguientes propiedades:
V = W ⊕ W ⊥; (8.75)
dim(V) = dim(W) + dim(W ). t
(8.76)
4) Sea V un espacio vectorial sobre el cuerpo K. Suponga que U1 , U2 son s.e.v. de V con dimensión finita. Se requiere
probar que
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ). (8.77)
a) Primero suponga que alguno de los dos s.e.v. es {0}.
b) Suponga que ninguno de los s.e.v. es {0} pero que U1 ∩ U2 = {0}.
c) Suponga que ninguno de los s.e.v. es {0} y que U1 ∩ U2 , {0}.
Capı́tulo 9
Aplicaciones Lineales
Empezamos este capı́tulo con un repaso del concepto general de función o aplicación. Recuerde que en un conjunto
no se cuenta con un orden para sus elementos. Cuando el orden de los elementos es importante necesitamos algún “truco”
que permita distinguir qué elemento es el primero, el segundo, etc.
A × B = {(a, b) : a ∈ A ∧ b ∈ B},
La fórmula (9.1) permite establecer un orden en conjuntos de dos elementos. en efecto, en (9.1) el primer elemento de
(a, b) ∈ A × B, es aquel que pertenece al segundo elemento de (a, b). Se sigue inmediatamente que
En particular se pone
An = A × A × ... × A (n veces). (9.4)
Se suele escribir x r y para indicar que el par ordenado (x, y) pertenece a la relación r ⊆ A × B, es decir
xry ≡ (x, y) ∈ r.
Puesto que los elementos de r son pares ordenados, al conjunto X de las primeras componentes se le denomina conjunto
de salida, en tanto que al conjunto Y de las segundas componentes se le denomina conjunto de llegada.
x2 y2
( )
r = (x, y) ∈ R × R : + =1 .
4 9
∀x ∈ X, ∃!y ∈ Y : (x, y) ∈ f.
f : X −→ Y
x 7−→ y = f (x) (9.5)
Las notaciones (9.5) y (9.6) son especialmente útiles cuando la correspondencia entre x ∈ X e y = f (x) ∈ Y está dada
por alguna regla o fórmula especı́fica. En ese sentido puede pensarse que f (x) ∈ Y es el producto que resulta de aplicar
el proceso f a la materia prima x ∈ X. También se dice que la variable dependiente y = f (x) resulta de aplicar f a la
variable independiente x ∈ X.
El lector recordará de su curso de Precálculo que entre las funciones reales, las funciones lineales eran las más sencillas.
Este tipo de funciones tiene una generalización en el contexto de los espacios vectoriales o lineales; donde, lo importante
es “conservar” la estructura lineal.
Definición 9.5 (Aplicación lineal) Sean V y W espacios vectoriales sobre el mismo cuerpo K. Una función
f : V −→ W
v 7−→ f (v).
Observación 9.2 Tenga presente que en el lado izquierdo (9.7) la suma es en el espacio V en tanto que en el lado derecho
la suma es en W.
En todo caso, tenga presente que cuando V ⊆ W o cuando W ⊆ V también se usa el término operador para referirse a f .
Cuando W = K, se dice que f es un funcional lineal sobre V.
f (0) = f (0 · u) = 0 · f (u) = 0.
Asimismo
f (−u) = f ((−1)u) = (−1) f (u) = − f (u).
t
u
Observación 9.4 Las relaciones (9.11) y (9.12) provéen mecanismos para identificar rápidamente funciones que no son
lineales. Por ejemplo, si no es cierto que f (0) = 0, inmediatamente f no es lineal.
Teorema 9.1 (Caracterización de una aplicación lineal) Sean V y W espacios vectoriales y f : V → W. Enton-
ces f es lineal ssi
∀α ∈ K, ∀u, v ∈ V : f (αu + v) = α f (u) + f (v). (9.13)
La demostración del Teorema 9.1 es sencilla y se requiere como ejercicio al final del capı́tulo.
f : R2 −→ R2
! !
x x
u= 7−→ f (u) =
y −y
! !
x1 x2
es una aplicación lineal. Tomamos α ∈ R y u = ,v= , genéricos. Se tiene que
y1 y2
αx1 + x2
!
f (αu + v) = f
αy1 + y2
αx1 + x2
!
=
−αy1 − y2
! !
x1 x2
=α +
−y1 −y2
= α f (u) + f (v).
214 9 Aplicaciones Lineales
es decir, f es lineal.
0 f : V −→ W
v 7−→ 0 f (v) = 0
es claramente lineal.
IdV : V −→ V
u 7−→ IdV (u) = u
es claramente lineal.
f : V −→ V
v 7−→ f (v) = v + u0
Puesto que
f (0) = u0 , 0,
entonces f no es lineal.
Ejemplo 9.6 (Operadores diferenciales) Sean a, b ∈ R con a < b. Definimos los conjuntos
y, en general, para n ∈ N:
n o
Cn (a, b) = f : (a, b) → R : f, f 0 , ..., f (n−1) y f (n) son continuas en (a, b) (9.17)
No es difı́cil constatar que todos estos conjuntos son s.e.v. de F (a, b) y que
C∞ (a, b) ⊆ ... ⊆ C(n) (a, b) ⊆ C(n−1) (a, b) ⊆ C(n−2) (a, b) ⊆ ...C2 (a, b) ⊆ C1 (a, b) ⊆ C(a, b) ⊆ F (a, b). (9.19)
D1 : C1 (a, b) −→ C(a, b)
u 7−→ D1 (u) = u0 ,
de manera que el operador diferencial de primer orden hace corresponder a una función derivable su derivada. De lo
aprendido en el curso de Cálculo, el estudiante sabe que D1 es un operador lineal:
de manera que el operador diferencial de orden n hace corresponder a una función derivable su derivada de orden n. De
lo aprendido en el curso de Cálculo, el estudiante sabe que Dn es un operador lineal:
∀α ∈ R, ∀u.v ∈ C(n) (a, b) : Dn (αu + v) = (αu + v)(n) = αu(n) + v(n) = αDn (u) + Dn (v). (9.21)
Ejemplo 9.7 (Isomorfismo canónico en Pn (R)) Sea n ∈ N. Como se mencionó en una clase anterior, se denomina iso-
morfismo canónico a la función
Φ : Pn (Ω) −→ Rn+1
u 7−→ [u]C
u(x) = a0 + a1 x1 + a2 x2 + ... + an xn , x ∈ Ω,
a0
a
1
[u]C = a2 ∈ Rn+1 .
.
..
an
Ejemplo 9.8 (Isomorfismo canónico en Mm×n (R)) Sean m, n ∈ N. Como se mencionó en una clase anterior, se denomina
isomorfismo canónico a la función
donde, a la matriz
A(1)
A
(2)
A = . ∈ Mm×n (K),
..
A(m)
le corresponde el vector de coordenadas en la base canónica
t
A(1)
At
(2)
[u]C = . ∈ Rm×n ,
..
t
A(m)
es decir es el vector columna donde ordenadamente se colocan las transpuestas de las m filas de la matriz. No es difı́cil
verificar que la aplicación Φ es, efectivamente, lineal y biyectiva.
216 9 Aplicaciones Lineales
El estudiante recordará de su curso de Precálculo que se podı́an sumar funciones reales y que a una función real se le
podı́a multiplicar por una constante obteniéndose otra función real. Esto también es posible para funciones definidas de
un espacio vectorial en otro espacio vectorial.
f :I⊆V →W
Observación 9.5 Tenga presente que en la definición anterior la función f no requiere ser lineal y que el dominio I no
necesariamente coincide con V. Se denota por
F (I, W) (9.22)
al conjunto de las funciones cuyo dominio es I y cuyo codominio es W.
corresponde a utilizar la aplicación suma, similar a lo que aprendió el estudiante en el curso de Precálculo. Entonces,
dadas dos aplicaciones,
f : I −→ W g : I −→ W
u 7−→ f (u) u 7−→ g(u)
se define
f + g : I −→ W (9.24)
u 7−→ ( f + g)(u) = f (u) + g(u)
λ · f : I −→ W (9.26)
u 7−→ (λ · f )(u) = λ f (u)
Se tiene que (F (I, W), +, ·) con las operaciones definidas en (9.23), (9.24), (9.25) y (9.26), es un espacio vectorial.
Ahora estableceremos que el conjunto de las aplicaciones lineales tiene una estructura de espacio vectorial.
Teorema 9.2 (Espacio de aplicaciones lineales) Sean V, W espacios vectoriales. El conjunto L(V, W) es un s.e.v.
de F (V, W).
La demostración del Teorema 9.2 se requiere como ejercicio al final del capı́tulo. El resultado establece que la suma
de aplicaciones lineales es una aplicación lineal y que al multiplicar una aplicación lineal por un escalar el resultado es
otra aplicación lineal.
t
u
Teorema 9.4 (Linealidad de la inversa) Sean V, W espacios vectoriales sobre el cuerpo K. Si f ∈ L(V, W) es
biyectiva, entonces f −1 ∈ L(W, V).
Demostración. Nos basta rpobar que f −1 es lineal. Tomamos α ∈ K y w1 , w2 ∈ W, genéricos. Puesto que f es sobreyectiva,
existen v1 , v2 ∈ V tales que
w1 = f (v1 ), w2 = f (v2 ),
o, equivalentemente,
v1 = f −1 (w1 ), v2 = f −1 (w2 ).
Por tanto, usando la linealidad de f se tiene que:
t
u
Teorema 9.5 (Determinación de una aplicación lineal) Sean V y W espacios vectoriales sobre el cuerpo K y
f ∈ L(V, W). Si B = {v1 , v2 , ..., vn } es una base de V, entonces
n
X
∀u ∈ V : f (u) = αk f (vk ), (9.27)
k=1
α1
α2
donde [u]B = . .
..
αn
t
u
Observación 9.6 El teorema anterior establece que si se conocen las imágenes de los elementos de una base, entonces
para determinar f (u) basta encontrar las coordenadas de u en dicha base.
Puesto que ( ! !)
1 1
B = {v1 , v2 } = ,
−1 1
es una base de R 2
! , es posible determinar la fórmula asociada a la aplicación lineal f . Para esto, tomamos un vector
x
genérico u = ∈ R2 y buscamos coeficientes α1 , α2 ∈ R de manera que
y
u = α1 v1 + α2 v2
Resolviendo el sistema !
1 1x
−1 1 y
se encuentra que
x−y x+y
α1 = , α2 =
2 2
de donde se sigue que
3x + y
! 2
x
f (u) = f = α1 f (v1 ) + α2 f (v2 ) = x − 3y .
y 2
x + 2y
Corolario 9.1 (Identificación de isomorfismos) Sean V y W dos espacios vectoriales de dimensión n sobre el
cuerpo K. Si B = {v1 , ..., vn } es una base de V y S = {w1 , ..., wn } = { f (v1 ), ..., f (vn )} es una base de W, entonces f
es un isomorfismo.
∀w ∈ W, ∃v ∈ V : w = f (v). (9.28)
Tomamos un w ∈ W, genérico. Puesto que S es base, existen coeficientes α1 , α2 , ..., αn ∈ K tales que
w = α1 w1 + ... + αn wn .
Tomamos u1 , u2 ∈ V, genéricos. Supongamos que f (u1 ) = f (u2 ). Puesto que B es base de V, existen coeficientes αk , βk ∈
K, k = 1, .., n, tales que
u1 = α1 v1 + ... + αn vn , u2 = β1 v1 + ... + βn vn ,
de manera que
α1 f (v1 ) + ... + αn f (vn ) = β1 f (v1 ) + ... + βn f (vn )
o, equivalentemente,
[α1 − β1 ] f (v1 ) + ... + [αn − βn ] f (vn ) = 0
que, por la independencia lineal de S , implica que
αk − βk = 0, k = 1, 2, ..., n,
es decir
αk = βk , k = 1, 2, ..., n,
lo cual implica que u1 = u2 . Puesto que u1 , u2 fueron elegidos arbitrariamente, se ha probado (9.29).
t
u
Definimos el conjunto
−1 1 0 0
1 1 1 1
S = { f (e1 ), f (e2 ), f (e3 ), f (e4 )} = , , , .
−1
0
0
1
0
0 1 1
Puesto que
−1 1 0 0
1 1 1 1
det ( f (e1 ) f (e2 ) f (e3 ) f (e4 )) = = 2 , 0,
−1 0 0 1
0 0 1 1
S es también una base de R4 . Concluimos entonces que f es biyectiva y, por tanto, un isomorfismo.
Presentamos a continuación un resultado simple, cuya demostración se requiere como ejercicio al final del capı́tulo.
Corolario 9.2 (Igualdad de aplicaciones lineales) Sean V y W espacios vectoriales sobre el cuerpo K. Sean
T 1 , T 2 ∈ L(V, W) y B una base de V. Si se cumple que
entonces
T1 = T2. (9.31)
9.5 Matriz Canónica 221
T A : Kn −→ Km (9.32)
u 7−→ T A (u) = A u
Tomamos α ∈ K y u, v ∈ Kn , genéricos. Por las propiedades del producto matricial se tiene que
Entonces acabamos de mostrar que a cada elemento de Mm×n (K) le corresponde un elemento de L(Kn , Km ) dada
por (9.32).
Ahora nos proponemos hacer el camino de regreso, esto es, mostrar que a cada elemento de L(Kn , Km ) le corresponde
un elemento de Mm×n (K). Fijemos entonces una aplicación lineal
T : Kn −→ Km (9.33)
u 7−→ T (u)
es decir la matriz que tiene como columnas las imágenes de los vectores ek , k = 1, ..., n. Es claro que
m
X
T (e j ) = ai j ẽi , j = 1, 2, ..., n.
i=1
y
Xn n
X n
X m
X
T (u) = T α j e j =
α j T (e j ) = αj ai j ẽi .
j=1 j=1 j=1 i=1
222 9 Aplicaciones Lineales
Entonces acabamos de mostrar que a cada elemento de L(Kn , Km ) le corresponde un elemento de Mm×n (K) dado
por la fórmula (9.37). A esta matriz se le denomina matriz canónica.
Finalmente consideremos una aplicación T : V → W, donde los espacios vectoriales V y W, son tales que dim(V) = n
y dim(W) = m. En este caso se define
AT = [T (e1 )]Cm [T (e2 )]Cm . . . [T (en )]Cm = ai j , (9.37)
m×n
y se cumple que
∀u ∈ V : [T (u)]Cm = AT [u]Cn . (9.38)
y
C (M2×3 (R)) = {ẽ1 , ẽ2 , ẽ3 , ẽ4 , ẽ5 , ẽ6 },
donde ! ! ! !
10 01 00 00
e1 = , e2 = , e3 = , e4 = ,
00 00 10 01
y ! ! ! ! ! !
100 010 001 000 000 000
ẽ1 = , ẽ = , ẽ = , ẽ = , ẽ = , ẽ = .
000 2 000 3 000 4 100 5 010 6 001
Se tiene que ! ! ! !
1 0 1 −1 1 1 011 001
T (e1 ) = , T (e2 ) = , T (e3 ) = , T (e4 ) = .
0 −2 0 0 0 −2 000 031
Por tanto
1 −1 0 0
0 1 1 0
1 1 1 1
AT = [T (e1 )]C [T (e2 )]C [T (e3 )]C [T (e4 )]C = .
0 0 0 0
−2 0 0 3
0 −2 0 1
Ahora consideremos el vector !
−3 4
H= .
1 2
Al aplicar (9.39) se obtiene: !
−7 5 4
T (H) = .
0 12 −6
Asimismo:
1 −1 0 0 −7
0 1 1 0 −3 5
1 1 1 1 4 4
AT [H]C = = = [T (H)]C .
0 0 0 0 1 0
−2 0 0 3 2 12
0 −2 0 1 −6
9.6 Núcleo e imagen 223
Observación 9.7 En el marco de la Definición 9.8 el núcleo de T atrapa todos los vectores que se anulan a través de la
aplicación T . La imagen de T atrapa, como su nombre lo sugiere, todas las imágenes de la función T .
Teorema 9.6 (Núcleo e imagen como s.e.v.) Sean V y W espacios vectoriales y T ∈ L(V, W). Entonces
i) Ker(T ) es un s.e.v. de V.
ii) Im(T ) es un s.e.v. de W.
Se denomina rango de T a
rg(T ) = dim (Im(T )) . (9.43)
Cuando V, W son de dimensión finita, se puede probar que el rango de la aplicación T es igual al rango de la
matriz canónica asociada, AT .
w1 = T (v1 ), w2 = T (v2 ).
Definimos el elemento
αv1 + v2 ∈ V.
Se tiene por la linealidad ded f , que
es decir αw1 + w2 ∈ Im(T ). Puesto que α, w1 , w2 fueron elegidos arbitrariamente, se ha probado que
t
u
224 9 Aplicaciones Lineales
Una consecuencia del Teorema 9.5 es el siguiente resultado, cuya demostración se requiere como ejercicio al final de
la clase.
Corolario 9.3 (Transferencia de conjuntos generadores) Sea T ∈ L(V, W). Si < {v1 , v2 , ..., vn } >= V entonces
< {T (v1 ), T (v2 ), ..., T (vn )} >= Im(T ).
Teorema 9.7 (Caracterización de aplicaciones inyectivas) Sean V y W espacios vectoriales y T ∈ L(V, W). En-
tonces T es inyectiva ssi Ker(T ) = {0}.
T (u) − T (v) = 0,
T (u − v) = 0,
de manera que u − v ∈ Ker(T ) = {0}, es decir u − v = 0 y u = v. Puesto que u, v fueron elegidos arbitrariamente, se ha probado
que
∀u, v ∈ V : T (u) = T (v) ⇒ u = v,
o sea que T es inyectiva.
t
u
Corolario 9.4 (Inyectividad e independencia lineal) Sea T ∈ L(V, W) inyectiva. Si B = {v1 , ..., vn } ⊆ V es l.i.
entonces S = {T (v1 ), ..., T (vn )} es l.i.
α1 v1 + α2 v2 + ... + αn vn = 0
t
u
9.6 Núcleo e imagen 225
Corolario 9.5 (Transferencia de bases) Sea T ∈ L(V, W) inyectiva. Entonces {v1 , ..., vn } es base de V ssi
{T (v1 ), ..., T (vn )} es base de Im(T ).
Observación 9.9 (Cálculo del núcleo y de la imagen) Consideremos una aplicación lineal T : V → W donde dim(V) = n
y dim(W) = m. En el Ejemplo 9.16 se verá que encontrar el núcleo de T se reduce a resolver el sistema de ecuaciones
AT [u]C = 0, (9.44)
donde AT ∈ Mm×n (K) es la matriz canónica asociada a T y u ∈ Ker(T ) es un vector genérico. La tarea se reduce a
encontrar las relaciones constitutivas sobre las coordenadas de u.
donde AT ∈ Mm×n (K) es la matriz canónica asociada a T y u ∈ Ker(T ), w ∈ Im(T ) son vectores genéricos con u = T (w).
La tarea se reduce a encontrar las relaciones constitutivas sobre las coordenadas de w.
donde
F[u](x) = p(x) = (a − b + c) + (a + b + c)x + (a − 3b + c)x2 , x ∈ R.
Buscamos bases para Ker(F) y Im(F).
Determinemos n o
Ker(F) = u ∈ M1×3 (R) : F[u] = 0 p .
Tomamos un elemento genérico u = (a b c) ∈ Ker(F) de manera que
a − b + c = 0,
F[u] = 0 p ∀x ∈ R : (a − b + c) + (a + b + c)x + (a − 3b + c)x2 = 0 a + b + c = 0,
⇔ ⇔
a − 3b + c = 0.
1 −1 1 0 1 0 1 0
(AF | 0) = [F(e1 )]C [F(e2 )]C [F(e3 )]C | 0 = 1 1 1 0 → 0 1 0 0 .
−
1 −3 1 0 0000
Por tanto
Ker(F) = {u = (a b c) ∈ M1×3 (R) : a + c = 0 ∧ b = 0} .
Además
u = (a b c), a+c = 0 ∧ b = 0
u = (a 0 − a)
u = a · (1 0 − 1) (9.46)
Determinemos
Im(F) = {p ∈ P2 (R) : ∃u ∈ M1×3 (R) : F[u] = p} .
226 9 Aplicaciones Lineales
p(x) = α + βx + γx2 , x ∈ R,
1 −1 1 α α
1 0 1
AF | p C = 1 1 1 β →
− 0 1 0 β − α .
1 −3 1 γ 0 0 0 γ − 2α + β
Por tanto n o
Im(F) = p ∈ P2 (R) : p(x) = α + βx + γx2 , x ∈ R ∧ γ − 2α + β = 0 .
Además, para x ∈ R:
p(x) = α + βx + γx2 ∧ γ − 2α + β = 0
p(x) = α + βx + (2α − β)x2
p(x) = α(1 + 2x2 ) + β(x − x2 ) (9.47)
Teorema 9.8 (Teorema de la dimensión) Sea T ∈ L(V, W), donde dim(V) < ∞. Entonces
S = {u1 , u2 , ..., ur }.
es base de V.
a) Probemos que G es l.i. Consideremos la combinación lineal nula
9.6 Núcleo e imagen 227
r
X k
X
αi ui + βi vi = 0. (9.49)
i=1 i=1
Se tiene que r
X k
X
T αi ui +
βi vi = T (0)
i=1 i=1
de donde se sigue
r
X k
X
αi T (ui ) + βi T (vi ) = 0,
i=1 i=1
es decir
k
X
βi wi = 0,
i=1
o, equivalenetemente
T (v − θ1 v1 − ... − θk vk ) = 0 ⇔ v − θ1 v1 − ... − θk vk ∈ Ker(T ),
de manera que existen coeficientes γ1 , ..., γr ∈ K tales que
v − θ1 v1 − ... − θk vk = γ1 u1 + ... + γr ur ,
v = θ1 v1 + ... + θk vk + γ1 u1 + ... + γr ur
t
u
Corolario 9.6 (Caracterización de isomorfismos en dimensión finita) Sean V, W espacios vectoriales sobre el
cuerpo K, de dimensión n ∈ N. Sea T ∈ L(V, W). Entonces
Observación 9.10 Sean V, W espacios vectoriales y T ∈ L(V, W). Fijamos un elemento w ∈ W \ {0} y consideramos la
ecuación vectorial
T (u) = w, u ∈ V, (E)
denominada ecuación no-homogénea. A la ecuación vectorial
T (u) = 0, u ∈ V, (H)
se le denomina ecuación homogénea asociada a (E). Obsérvese que el conjunto solución de (H) es
CS H = Ker(T ). (9.53)
Supongamos que conocemos una solución particular de (E), es decir suponemos que conocemos un vector v0 ∈ V tal que
228 9 Aplicaciones Lineales
T (v0 ) = w.
Lo anterior implica que cualquier solución u de la ecuación (E) se puede escribir como
u = v0 + α1 u1 + ... + αn un , (9.55)
donde
S = {u1 , ..., un } (9.56)
es una base de Ker(T ) y αi ∈ K, i = 1, 2, ..., n.
T (u) = T (v0 ) = w,
se sigue que
T (u − v0 ) = 0,
es decir,
u − v0 ∈ Ker(T )
y entonces
u ∈ {v0 } + Ker(T ).
T : M2 (R) −→ P3 (R)
!
ab
G= 7−→ T [G] = p,
cd
donde
T [G](x) = p(x) = (a − b − d) + (c + b − d)x + (−a + 2b − d)x2 + (−a + b + d)x3
Buscamos el conjunto solución de la ecuación vectorial
T [G] = w, G ∈ M2 (R),
donde
w(x) = −1 + x + x3 , x ∈ R.
No es difı́cil verificar que una solución particular es
!
11
V0 = ,
11
de manera que
( ! )
ab
Ker(T ) = J= ∈ M2 (R) : a = 3d ∧ b = 2d ∧ c = −d
cd
( ! )
3d 2d
= J= ∈ M2 (R) : d ∈ R
−d d
( ! )
3 2
= J = d· ∈ M2 (R) : d ∈ R
−1 1
( !)
3 2
= < >. (9.57)
−1 1
Por tanto ( ! ! )
11 3 2
CS = {V0 } + Ker(T ) = +α· : α∈R .
11 −1 1
Observación 9.11 El mecanismo presentado en la Observación 9.10 y usado en el Ejemplo 9.17 se usa, por ejemplo,
para la resolución de Ecuaciones Diferenciales Ordinarias Lineales, que el lector abordará en un curso posterior.
En la Sección 9.5 constatamos que existe una relación biunı́voca entre las matrices AT ∈ Mm×n (K) y las aplicaciones
T ∈ L(V, W), cuando dim(V) = n y dim(W) = m. Allı́ nos bastó considerar las bases canónicas de V y W.
En esta sección ahondamos en el vı́nculo entre aplicaciones lineales y matrices. En el siguiente resultado establecemos
que no es indispensable trabajar con las bases canónicas.
Teorema 9.9 (Matriz asociada) Sean B1 = {v1 , ..., vn } una base del espacio vectorial V, B2 = {w1 , ..., wm } una
base del espacio vectorial W y T ∈ L(V, W). Entonces existe una matriz
tal que
∀v ∈ V : [T (v)]B2 = [T ]BB21 [v]B1 . (9.59)
La demostración del Teorema 9.9 se realiza de forma similar a cómo se procedió en la Sección 9.5.
Corolario 9.7 (Matriz asociada en otras bases) En el marco del Teorema 9.9, si B3 es otra base de V y B4 es
otra base de W, se tiene que
[T ]BB43 = [Id]BB42 [T ]BB21 [Id]BB13 . (9.60)
En particular,
C(W)
[T ]BB43 = [Id]C(W)
B4
[T ]C(V) [Id]C(V)
B3 . (9.61)
Si T es un isomorfismo, entonces
−1 iB3
[T ]BB43
h
= T −1 . (9.62)
B4
T : M2 (R) −→ P2 (R)
!
ab
G= 7−→ T [G] = p,
cd
donde
T [G](x) = p(x) = a + (b − c)x + dx2 , x ∈ R.
Usando el Corolario 9.7, calculemos la matriz [T ]SB ,
donde
( ! ! ! !)
1 1 0 −1 0 0 1 0
B = {G1 ,G2 ,G3 ,G4 } = , , ,
00 1 0 11 01
y
S = {p1 , p2 , p3 },
con
p1 (x) = 1 − x, p2 (x) = x2 , p3 (x) = x + x2 , x ∈ R.
Recordemos que C1 = C(M2 (R)) = {U1 , U2 , U3 , U4 } y C2 = C(P2 (R)) = {η1 , η2 , η3 }, donde
! ! ! !
10 01 00 00
U1 = , U2 = , U3 = , U4 = ,
00 00 10 01
y
η1 (x) = 1, η2 (x) = x, η3 (x) = x2 , x ∈ R.
Se tiene que
T [U1 ](x) = 1, T [U2 ](x) = x, T [U3 ](x) = −x, T [U4 ](x) = x2 , x ∈ R,
de manera que
1 0 0 0
[T ]CC2 = AT = 0 1 −1 0 .
1
00 0 1
y
C −1 1 0 0
[Id]SC2 = [Id]S 2
= −1 −1 1
1 1 0
Por tanto
1 0 0 1
1 0 0 1 0 0 0 1 0 0 1
1 −1 0 0
[T ]SB = [Id]SC2 [T ]CC2 [Id]CB1 = −1 −1 1 0 1 −1 0 = −2 2 2 0 .
1 0 1 1 0
1 1 0 0 0 0 1 2 −2 −1 1
0 0 11
Se tiene que
9.7 Matrices asociadas 231
Corolario 9.8 (Matriz asociada a una composición) Sean T ∈ L (V, W) y F ∈ L (W, U) donde los espacios vec-
toriales V, W, U tienen dimensión finita. Suponga que B1 , B2 y B3 son bases de V, W y U, respectivamente.
Entonces
B B
[F ◦ T ]B31 = [F]B32 · [T ]BB21 . (9.64)
El corolario anterior establece que la composición de aplicaciones lineales está asociada a la multiplicación de matrices.
Observación 9.13 Recuerde que una matriz A ∈ Mn (K) es ortogonal si se cumple que
At A = Idn . (9.65)
Proposición 9.2 (Matriz de transición entre bases ortonormales) Sean B1 = {u1 , ..., un } y B2 = {v1 , ..., vn } bases
ortonormales del espacio euclidiano V. Entonces la matriz de transición
[Id]BB21 = vi , u j
D E
(9.66)
n×n
es ortogonal.
√1
1
− √
B1 = {u1 , u2 } = , 1 2
2
√1
√
2 2
y
4 3
( ! !)
B2 = {v1 , v2 } = 5
3 , 5 .
5 − 45
Se tiene que
! 7√
− 1√
hu1 , v1 i hu2 , v1 i
[Id]BB21 = = 1 .
5· 2 5· 2
hu1 , v2 i hu2 , v1 i − √ − 7√
5· 2 5· 2
Teorema 9.10 (Identificación de Isomorfismos) Sean V y W espacios vectoriales tales que dim(V) = dim(W) <
∞. Entonces T ∈ L(V, W) es un isomorfismo si y sólo si AT es invertible.
9.8 Ejercicios resueltos 233
T : Mn (K) −→ Mn (K)
A 7−→ T (A) = AB.
T (λA + C) = (λA + C) B
= λAB + CB
= λ(AB) + CB
= λ T (A) + T (C).
Puesto que λ, A,C fueron elegidos arbitrariamente, se ha probado (9.67), de manera que T es aplicación lineal.
234 9 Aplicaciones Lineales
2) Considere la aplicación
T : P2 (R) −→ P4 (R)
p 7−→ T [p],
donde
T [p](x) = p(x) + x2 · p(x), x ∈ R.
a) Pruebe que T es una aplicación lineal.
b) Encuentre explı́citamente Ker(T ), Im(T ), nul(ϕ) y rg(ϕ).
c) Encuentre bases para Ker(T ) e Im(T ).
d) Determine si T es inyectiva y/o sobreyectiva.
Desarrollo.
a) Probemos que T es lineal, es decir que
Puesto que λ, p, q fueron elegidos arbitrariamente, se ha probado (9.68), es decir que T es lineal.
b) Para encontrar la matriz canónica asociada a T necesitamos la fórmula explı́cita de T . Tomamos un elemento
genérico u ∈ P2 (R):
u(x) = a + bx + cx2 , x ∈ R.
Se tiene, para x ∈ R, que
T [u](x) = (1 + x2 ) · u(x)
= (1 + x2 ) · (a + bx + cx2 )
= a + bx + (a + c)x2 + bx3 + cx4 , (9.69)
de manera que
1 0 0
0 1 0
∗
AT = [T ]CC = [T (e0 )]C∗ [T (e1 )]C∗ [T (e2 )]C∗ = 1 1 ,
0 (9.70)
0 1 0
0 0 1
donde C = {e0 , e1 , e2 } es la base canónica de P2 (R) y C∗ = {ê0 , ê1 , ê2 , ê3 , ê4 } es la base canónica de P4 (R).
Por definición, se tiene que
Para encontrar explı́citamente Ker(T ), debemos encontrar las condiciones que deben cumplir los coeficientes
a, b, c. Esto corresponde a resolver el sistema:
(AT | 0) . (9.74)
Para encontrar explı́citamente Im(T ), debemos encontrar las condiciones que deben cumplir los coeficientes
A, B,C, D, E. Esto corresponde a resolver el sistema:
AT | q C∗ . (9.75)
9.8 Ejercicios resueltos 235
1 0 0 A 1 0 0 A
0 1 0 B
0 1 0 B
C . . . →
− . . .
1 0 1 0 0 1 C − A (9.76)
0 1 0 D 0 0 0 D − B
001 E 0 0 0 E −C + A
3) Considere la aplicación
ϕ : P2 (R) −→ P4 (R)
p 7−→ ϕ[p],
donde
ϕ[p](x) = (x + x2 ) · p(x), x ∈ R.
a) Pruebe que ϕ es una aplicación lineal.
b) Halle la matriz ϕ SB , donde B = {p1 , p2 , p3 } y S = {q1 , q2 , q3 , q4 , q5 } están dadas, para x ∈ R, por:
Puesto que λ, p, q fueron elegidos arbitrariamente, se ha probado (9.83), es decir que ϕ es lineal.
b) Se tiene que
∗
ϕ B = [Id]SC∗ ϕ CC [Id]CB ,
S
(9.84)
donde C y C∗
son las bases canónicas de P2 (R) y P4 (R), respectivamente.
Se tiene que
−1 0 0
[Id]CB = 0 −2 0 . (9.85)
0 0 1
Se tiene que
1 1 0 0 0
0 1 1 0 0
∗
= 0
[Id]CS
0 1 1 0
0
0 0 1 1
0 0 0 0 1
y, aplicando Gasuss-Jordan se obtiene:
1 −1 1 −1 1
0 1 −1 1 −1
= 0 0 1 −1 1 .
[Id]SC∗
(9.86)
0
0 0 1 −1
0 0 0 0 1
Para encontrar la matriz canónica asociada a ϕ necesitamos la fórmula explı́cita de ϕ. Tomamos un elemento
genérico u ∈ P2 (R):
u(x) = a + bx + cx2 , x ∈ R.
Se tiene, para x ∈ R, que
9.8 Ejercicios resueltos 237
ϕ[u](x) = (x + x2 ) · u(x)
= (x + x2 ) · (a + bx + cx2 )
= ax + (a + b)x2 + (b + c)x3 + cx4 , (9.87)
de manera que
0 0 0
1 0 0
C∗
ϕ C = [ϕ(e0 )]C∗ [ϕ(e1 )]C∗ [ϕ(e2 )]C = 1 0 .
∗ 1 (9.88)
0 1 1
0 0 1
De (9.84), (9.85), (9.86) y (9.88) se sigue que
0 0 0
0 0 0
S
ϕ B = −1 0 0 .
0 −2
0
0 0 1
u(x) = α + βx + γx2 , x ∈ R.
Se tiene que
0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0
1 1 0 0 →
− 1 0 0 0
0 1 1 0 0 1 0 0
0010 0010
de manera que α = β = γ = 0 y, por tanto:
ker(ϕ) = {0}. (9.89)
d) De (9.89) se sigue que nul(ϕ) = 0. Por el Teorema de la Dimensión
Puesto que λ, u, v fueron elegidos arbitrariamente, se ha probado (9.90), es decir que T es lineal.
9.8 Ejercicios resueltos 239
5) Sea
θ : C2 (R) −→ C(R)
f 7−→ θ[ f ] = f 00 .
Desarrollo.
a) Probemos que θ es lineal, es decir que
θ[ f ] = f 00 = 0,
f 00 (x) = 0, ∀x ∈ R,
( f (x)) = 0,
0 0
∀x ∈ R.
Por tanto, f 0 es una función constante, es decir existe una un número a ∈ R tal que
f 0 (x) = a, ∀x ∈ R.
De manera que
f 0 (x) − (ax)0 = 0, ∀x ∈ R,
( f (x) − ax)0 = 0, ∀x ∈ R. (9.93)
f (x) − ax = b, ∀x ∈ R,
f (x) = ax + b, ∀x ∈ R. (9.94)
T : P2 (R) −→ P3 (R)
p 7−→ T [p],
donde
T [p](x) = p(x) + x p(x), x ∈ R.
Halle la matriz asociada a T desde la base B1 = {p1 , p2 , p3 } a la base B2 = {q1 , q2 , q3 , q4 }, donde, para x ∈ R:
Se tiene que
∗
[T ]BB21 = [Id]CB2∗ [T ]CC [Id]CB1
= [Id]CB2∗ AT [Id]CB1 . (9.95)
Se tiene que
1 1 1
[Id]CB1 = 0 −1 1 , (9.96)
0 0 1
1 −1 2 −6
∗ 0 1 −3 11
[Id]CB2 = , (9.97)
0 0 1 −6
0 0 0 1
1 1 1 1
B2
C∗ −1
0 1 3 7
[Id]C∗ = [Id]B2 = . (9.98)
0 0 1 6
000 1
Por otro lado, para p ∈ P2 (R) tal que
p(x) = a + bx + cx2 , x ∈ R,
se tiene que
T [p](x) = a + (a + b)x + (b + c)x2 + cx3 , x ∈ R.
Por tanto
1 0 0
1 1 0
AT = (9.99)
0 1 1
0 0 1
Por (9.95), (9.96), (9.98) y (9.99):
2 0 6
1 −3 15
[T ]BB21 = .
0 −1 8
0 0 1
9.8 Ejercicios resueltos 241
S : Mn (R) −→ R
A 7−→ S (A) = det(A).
¿S es lineal?
Desarrollo. Si S fuese lineal se cumplirı́a que
A = Idn , B = Idn .
Para encontrar explı́citamente Ker(ϕ), debemos encontrar las condiciones que deben cumplir las coordenadas
ai j . Esto corresponde a resolver el sistema:
Tϕ | 0 . (9.105)
Para encontrar explı́citamente Im(ϕ), debemos encontrar las condiciones que deben cumplir las coordenadas
ui j . Esto corresponde a resolver el sistema:
T ϕ | [U]C∗ . (9.106)
Resolvamos (9.106) pues, entonces, inmediatamente se tendrá resuelto (9.105).:
1) Determine si la transformación G : R2 → R2 con la fórmula indicada, es o no una aplicación lineal. En caso afirmativo
halle
a) la matriz canónica asociada a G;
b) Ker(G) y Im(G);
c) nul(G) y rg(G);
d) Determine si G es un isomorfismo.
! ! ! ! ! !
x −x x 1 x x
G = ; G = ; G = ;
y 0 y y y 2x
! ! ! ! ! !
x y x −x x −x
G = ; G = ; G = .
y y/(1 + x2 ) y xy y |y|
2) Determine si la transformación G : Rm → Rn con la fórmula indicada, es o no una aplicación lineal. En caso afirmativo
halle la matriz canónica asociada, el núcleo y la imagen, nulidad y rango.
x
−2x + 3y − 4z
! ! !
x x
m = 2, n = 1, G = 2x − 3y; m = 2, n = 1, G = 2x − 3y ;
2
m = 3, n = 2, G =
y ;
y y 2x + z
z
x1
x
x X m
−x + y + 2z − w
!
2 y
n = 1, G . = ak xk ; m = 4, n = 2, G = .
.. k=1
x + 3z − 4w
z
xm w
3) Sean m, n, p, q ∈ N. Determine si la aplicación indicada es una transformación lineal. En caso afirmativo halle la matriz
canónica asociada, el núcleo y la imagen, nulidad y rango. ¿Es un isomorfismo?
Fk : P2 (R) −→ P1 (R)
u 7−→ Fk [u],
donde, para x ∈ R:
u(x) = α + βx + γx2 ,
F1 [u](x) = (−3α + β) + (α − β)x; F2 [u](x) = (−3α + β) + (α2 − β)x;
F3 [u](x) = −3α + 2β; F4 [u](x) = (−3α + β)x.
5) Determine si la aplicación indicada es una transformación lineal. En caso afirmativo halle
a) la matriz canónica asociada a Fk ;
b) Ker(Fk ) y Im(Fk );
c) nul(Fk ) y rg(Fk );
d) Determine si Fk es un isomorfismo.
9.9 Ejercicios propuestos 245
Fk : M2 (R) −→ P3 (R)
A 7−→ Fk [A],
donde, para x ∈ R:
αβ
!
A= ,
γη
F1 [A](x) = (−3α + β + η) + (α − β)x + (−β + 4η)x3 ; F2 [A](x) = (−3α + β) + (α2 − β)x;
F3 [A](x) = −3α + 2β + 4η; F4 [A](x) = α + (−3α + β)x − γx3 .
6) Determine si la aplicación indicada es una transformación lineal. En caso afirmativo halle la matriz canónica asociada,
el núcleo y la imagen, nulidad y rango.
donde, para x ∈ R:
u(x) = α + βx + γx2 + ηx3 + θx4 ,
α −β + 2η − γ −2α + θ αβ γ
! !
F1 (u) = ; F2 (u) = ;
4β + γ − θ γ α + β + γ − 2η − θ η θ −α2
αβγ −α + 2β β α+β+γ+η+θ
! !
F3 (u) = ; F4 (u) = .
ηθ1 η 4γ + η − θ −α2
7) Sea V un espacio euclidiano y w ∈ V. Pruebe que el funcional
M : V −→ K
u 7−→ M(u) = hu, wi ,
donde
p1 (x) = x + 2x2 , p2 (x) = 3x2 , p3 (x) = 0, x ∈ R.
a) Determine las matrices asociadas a las aplicaciones lineales T , T2 y T − S con S ∈ L (M1×3 , P2 (R)) tal que
AS = Id3 .
b) Calcule el rango de T , T 2 y T − S .
c) Considere B1 = {G1 ,G2 ,G3 } y B2 = {q1 , q2 , q3 } tal que
v1 = u1 + u2 , v2 = 2u1 − u2 ,
246 9 Aplicaciones Lineales
x y
b) Sea T ∈ L(R2 ) tal que f = . Halle [T ]BB12 .
y x
!
p(0)
13) Sea ϕ ∈ L(P3 (R), R ) tal que ϕ[p] =
2 . Encuentre bases para ker(ϕ) e Im(ϕ).
p(1)
1 0 1
14) Sean A−1 = −1 1 0 y B1 = {p1 , p2 , p3 } y B2 = {v1 , v2 , v3 }, bases de P2 (R) y R3 , respectivamente, donde:
1 −1 1
1 0 1
p1 (t) = 1 − t, p2 (t) = 1 − t + t2 , p3 (t) = 1, v1 = 0 , v2 = 1 , v3 = 1 .
1 1 0
2 1 −1
B
tales que f B = 3 2 2 . Halle f BB11 de dos maneras diferentes.
R3
bases de
43 2
18) Sea H : V → U una aplicación lineal. Sea B = {v1 , ..., vn } ⊆ V tal que R = {H(v1 ), ..., H(vn )} ⊆ U es linealmente inde-
pendiente. Pruebe que B es linealmente independiente.
19) Sean S2 (R) = {A ∈ M2 (R) : A = At } y f : S2 (R) → R3 tal que
! 1 ! 0 ! 1
1 0 −1 2 2 −3
f = 0 , f = 1 f = 0 .
0 3 2 1 −3 1
1 1 0
∀v ∈ V : f (v) = cv.
∀u ∈ V \ {0} : f (u) , 0.
! ! ! !
1 0 0 1
21) Sea f : R2 → R2 lineal tal que f = yf = . Demuestre que el núcleo y la imagen de f son rectas en el
1 0 1 1
plano que pasan por el origen. Halle las ecuaciones de esas rectas.
9.9 Ejercicios propuestos 247
1 ! 0 −1 !
0 0
22) Sea f : R3 lineal tal que f 1 =
→ R2 = f 2 y f 2 , . Demuestre que el núcleo de f es un plano en R3
0 0
0 1 4
que pasa por el origen. Halle su ecuación.
x
x − y + 2z + 3w
y !
23) Sea f : R → R una aplicación lineal tal que f =
4 2 .
x − 3y + 4z + 5w
z
w
donde, para x ∈ R:
p1 (x) = 2β + αx, p2 (x) = αx + βx2 , p3 (x) = β + (1 − α)x.
α
( ! )
a) Halle S = ∈ R2 : T no es biyectiva .
β
α
!
b) Para ∈ S , halle bases de ker(T ) e Im(T ).
β
25) Sea T : M1×3 (R) → P2 (R) tal que
donde
p1 (x) = x + 2x2 , p2 (x) = 3x2 , p3 (x) = 0, x ∈ R.
a) Determine las matrices asociadas a las aplicaciones lineales T , T2 y T − S con S ∈ L (M1×3 , P2 (R)) tal que
AS = Id3 .
b) Calcule el rango de T , T 2 y T − S .
c) Considere B1 = {G1 ,G2 ,G3 } y B2 = {q1 , q2 , q3 } tal que
1 1 0 0 1 2 0 1
0 1 1 2 1 0 0 1
S = , S = , S = , S = .
1 1 1 1 0 1 0 1
0 0 0 0 0 0 1 1
a) Halle B f = {α ∈ R : f es biyectiva}.
b) ¿α = 1 pertenece a B f ? En caso afirmativo, halle f −1 .
c) Para α ∈ R \ B f , halle ker( f ) e Im( f ), indique sus dimensiones y provéa bases.
3) Sea V un espacio euclidiano (sobre el cuerpo C) y w ∈ V. Pruebe que el funcional
M : V −→ K
u 7−→ M(u) = hw, ui ,
S : V −→ H
n
X
v 7−→ S (u) = hv, uk i uk ,
k=1
es lineal.
5) Sean m, n ∈ N. Determine si la aplicación indicada es una transformación lineal. En caso afirmativo halle el núcleo y
la imagen, la nulidad y el rango.
T k : Pm (R) −→ Pn (R)
p 7−→ T k [p],
donde, para x ∈ R:
m = 4, n = 3, T 1 [p](x) = p0 (x);
m = 4, n = 4, T 2 [p](x) = x p0 (x) − p(x);
m = 2, n = 2, T 3 [p](x) = x2 p00 (x);
m = 2, n = 2, T 4 [p](x) = p00 (x) + 2p0 (x) + p(x);
m = 4, n = 4, T 5 [p](x) = p00 (x) + xp0 (x) + 2p(x).
6) Sea f : C → C dada mediante
f (z) = z.
a) Indique si f es lineal si se considera a C como espacio vectorial sobre el cuerpo K = C.
b) Indique si f es lineal si se considera a C como espacio vectorial sobre el cuerpo K = R.
1 −1
1 1 0
7) Sea F ∈ L P1 (R), R3 tal que [F]CB = 2 1 donde B = 1 , 0 , 1
. Halle la fórmula de F.
−2 3 0 1 1
8) Sea β ∈ R. Considere F ∈ L(R2 ) tal que
βx + y/2
! !
x
F = .
y x/2 + βy
a) ¿Para qué valores de β, F es un isomorfismo?
b) Si F no es un isomorfismo, halle Ker(F) e Im(F).
c) Calcule bases ortonormales para Ker(F) e Im(F).
9.9 Ejercicios propuestos 249
x
V = y ∈ R3 : x + 2y − z = 0 .
z
1 1 0 0 1 2 0 1
0 1 1 2 1 0 0 1
S = , S = , S = , S = .
1 1 1 1 0 1 0 1
0 0 0 0 0 0 1 1
F : P3 (R) −→ R2
!
p(−1)
p 7 → F(p) =
− .
p(−2)
hp, qi = p tC q C .
ϕ : P2 (R) −→ P4 (R)
p 7−→ ϕ[p],
donde
ϕ[p](x) = (x + x2 ) · p(x), x ∈ R.
a) Pruebe que ϕ es una aplicación lineal.
b) Halle la matriz ϕ SB , donde B = {p1 , p2 , p3 } y S = {q1 , q2 , q3 , q4 , q5 } están dadas, para x ∈ R, por:
donde
F[u](x) = p(x) = (a − b + c) + (a + b + c)x + (a − 3b + c)x2 , x ∈ R.
a) Pruebe que F es una aplicación lineal.
b) Halle la matriz [F]SB , donde B = {A1 , A2 , A3 } y S = {q1 , q2 , q3 } están dadas por:
A1 = −1 2 2 , A2 = 3 0 0 , A3 = 0 1 1 , (9.115)
q1 (x) = 1, q2 (x) = 1 + x, q3 (x) = x + x ,
2
x ∈ R. (9.116)
T : M2 (R) −→ P3 (R)
!
ab
G= 7−→ T [G] = p,
cd
donde
T [G](x) = p(x) = (a − b − d) + (c + b − d)x + (−a + 2b − d)x2 + (−a + b + d)x3 , x ∈ R.
a) Pruebe que T es una aplicación lineal.
b) Halle la matriz [T ]SB , donde B = {A1 , A2 , A3 } y S = {q1 , q2 , q3 } están dadas por:
! !
−1 2 11
A1 = , A2 = , (9.117)
2 −1 10
! !
−1 1 10
A3 = , A4 = , (9.118)
0 0 00
donde
F[u](x) = p(x) = (2a − b + c) + (a + 4b + c)x + (a − 3b + c)x2 , x ∈ R.
a) Pruebe que F es lineal.
b) Halle una base para Ker(F) e indique su dimensión.
c) Indique si F es un isomorfismo.
d) Halle una base para Im(F) e indique su dimensión.
e) Dado
w(x) = 2 + 6x − x2 , x ∈ R,
halle el conjunto solución de la ecuación
F(u) = w,
u ∈ M1×3 (R).
1 3
18) Sea J : R2 → R3 una aplicación lineal tal que B = {w1 , w2 } = −1 , 1
es una base de Im(J).
2 −1
a) Halle Ω = {a ∈ R : η no es biyectiva}.
b) Para a ∈ Ω, halle bases de Im(η) y ker(η).
c) Para a ∈ R \ Ω, halle η−1 .
20) Considere B1 = {p1 , p2 , p3 } y B2 = {q1 , q2 , q3 } bases de P2 (R), donde, para t ∈ R:
a) Halle [Id]CB2 .
b) Halle [F]CB1 .
c) Halle la fórmula F[p].
1
d) Halle F[p] B2 sabiendo que p B1 = −1 .
2
1) Determinar la aplicación S que define la simetrı́a respecto a la recta y = 2x. Verificar que esta aplicación pertenece a
L(R2 ).
Indicación.- Una fórmula asociada es
1 −3x + 4y
! !
x
S = .
y 5 4x + 3y
2) Sean a, b ∈ R, con a < b. Se define
y, para n ∈ N: n o
Cn (a, b) = f : (a, b) → R : f, f 0 , ..., f (n−1) y f (n) son continuas en (a, b)
y el operador diferencial de orden n
de manera que el operador diferencial de orden n hace corresponder a una función derivable su derivada de orden n.
252 9 Aplicaciones Lineales
Γk : C∞ (R) −→ C∞ (R)
u 7−→ Γk [u],
donde, para x ∈ R:
Γ1 [u](x) = 2u2 (x) + 3u(x); Γ2 [u](x) = 2u(x) + 3x2 u(x);
Γ3 [u](x) = u(x) + 5; Γ4 [u](x) = u(x + 5);
d
Γ5 [u](x) = (u(x)v(x)) , donde v ∈ C∞ (R);
dx
du
Γ6 [u](x) = (β), donde β ∈ R;
dx
du d2 u du
Γ7 [u](x) = (x) , Γ8 [u](x) = (x), Γ9 [u](x) = x (x)
dx dx2 dx
4) Sean n ∈ N y
θ : Mn (R) −→ Mn (R)
A 7−→ θ(A) = A − At . (9.120)
G : Pn (R) −→ Pn (R)
p 7−→ G[p],
donde, para x ∈ R:
n
X
G[p](x) = xk p(n) (x).
k=0
Determine si la aplicación indicada es una transformación lineal. En caso afirmativo trate de hallar el núcleo y la
imagen, la nulidad y el rango.
6) Sea n ∈ N. Considere la función
Φ : Pn (Ω) −→ Rn+1
u 7−→ [u]C
u(x) = a0 + a1 x1 + a2 x2 + ... + an xn , x ∈ Ω,
a0
a
1
[u]C = a2 ∈ Rn+1 .
.
..
an
donde, a la matriz
A(1)
A(2)
A = . ∈ Mm×n (K),
..
A(m)
le corresponde el vector de coordenadas en la base canónica
t
A(1)
At
(2)
[u]C = . ∈ Rm×n ,
..
t
A(m)
es decir es el vector columna donde ordenadamente se colocan las transpuestas de las m filas de la matriz. Pruebe que
la aplicación Φ es un isomorfismo.
8) Sean U, V, W espacios vectoriales, f : U → V y g : V → W.
a) Pruebe que si g es lineal y g ◦ f es lineal e inyectiva, entonces f también es lineal.
b) Halle un ejemplo en que g es lineal y g ◦ f es lineal pero f no es lineal.
9) Sean V, W espacios vectoriales. Pruebe que el conjunto L(V, W) es un s.e.v. de F (V, W), considerando las operaciones
definidas en la Sección 9.3.
10) Sean V, W espacios vectoriales sobre el cuerpo K, de dimensión n ∈ N. Sea T ∈ L(V, W). Pruebe que
T (u) = u.
Tθ : R2 −→ R2
! !
x x cos(θ) − y sen(θ)
u= 7 → T θ (u) =
− .
y x sen(θ) + y cos(θ)
10.1. Introducción
Definición 10.1 (Valores y vectores propios) Sean V un espacio vectorial sobre el cuerpo K y T ∈ L(V). Se dice
que λ ∈ K es un valor propio de T si existe un vector propio u ∈ V \ {0} tal que
T u = λu. (10.1)
Observación 10.1 En el marco de la definición anterior es importante recalcar que el cero vector de V no puede ser un
vector propio.
Observación 10.2 (Valores complejos) A lo largo de esta clase se asumirá, en la mayorı́a de los casos, que K = C de
manera que los valores apropiados asociados a una aplicación lineal pueden ser números complejos.
Teorema 10.1 (Subsespacio propio) Sean V un espacio vectorial sobre el cuerpo K, T ∈ L(V) y λ ∈ K un valor
propio de T . Entonces
ET (λ) = {u ∈ V : T (u) = λu} (10.2)
es un s.e.v. de V, denominado subespacio propio asociado a λ.
La demostración del Teorema 10.1 es fácil y se requiere como ejercicio en el listado al final del capı́tulo.
Observación 10.3 Cuando no hay peligro de confusión se escribe simplemente E(λ) en lugar de ET (λ).
Observación 10.4 Tenga presente que en un subespacio propio está incluido el vector cero, a pesar de que este no es
vector propio.
Ejemplo 10.1 (Aplicación identidad) En un espacio vectorial V , {0}, recordemos que la identidad IdV es una aplica-
ción lineal y que
∀u ∈ V : IdV (u) = 1 · u,
por lo que λ = 1 es valor propio de IdV . Además
E(1) = V.
Ejemplo 10.2 (Aplicación nula) En un espacio vectorial V , {0}, recordemos que la aplicación nula 0T es una aplica-
ción lineal y que
∀u ∈ V : 0T (u) = 0 · u,
por lo que λ = 0 es valor propio de IdV . Además
E(0) = V,
es decir todo vector no-nulo es vector propio asociado a λ = 0.
256 10 Valores y vectores propios
Ejemplo 10.3 Consideremos el siguiente operador, que es una variación del operador diferencial de primer orden:
D : C∞ (R) −→ C∞ (R)
u 7−→ D[u] = u0 ,
de manera que a una función (infinitamente derivable) le hace corresponder su derivada. Puesto que
se tiene que D ∈ L (C∞ (R)). Del curso de Cálculo, el estudiante recordará que la función exponencial
exp : R −→ R
x 7−→ exp(x) = e x ,
es tal que
D[exp](x) = e x 0 = e x = exp(x),
x ∈ R,
de manera que λ = 1 es un valor propio de D y además
por lo cual
dim (E(1)) = 1.
Observación 10.5 (Valores y vectores propios de una matriz) Sea n ∈ N y A ∈ Mn (K). Se dice que λ ∈ K es un valor
propio de A si existe un vector propio u ∈ Rn \ {0} tal que
Au = λu. (10.3)
El siguiente resultado establece que los conceptos de valores y vectores propios de aplicaciones y matrices coinciden
cuando el espacio vectorial es de dimensión finita.
Teorema 10.2 (Caracterización de valores propios) Sean n ∈ N, V un espacio vectorial sobre el cuerpo K con
dim(V) = n y T ∈ L(V). Entonces las siguientes condiciones son equivalentes:
i) λ es un valor propio de T .
ii) λ es un valor propio de AT .
iii) La aplicación T − λIdV no es biyectiva.
iv) La matriz AT − λIdn no es invertible.
v) det (AT − λIdn ) = 0.
Demostración. No haremos una demostración completa sino que mostraremos la conexión entre las afirmaciones ante-
riores.
Si det (AT − λIdn ) = 0 entonces la matriz AT − λIdn no es invertible y el sistema homogéneo de ecuaciones
(AT − λIdn ) u = 0, u ∈ Rn ,
Los vı́nculos entre i) y ii) y entre iii) y iv) provienen de lo estudiado en la clase anterior.
t
u
10.1 Introducción 257
Definición 10.2 (Polinomio caracterı́stico) Sean n ∈ N, V un espacio vectorial sobre el cuerpo K con dim(V) =
n y T ∈ L(V). Se denomina polinomio caracterı́stico asociado a T a pT : K → K dado por
pT (λ) = 0, λ ∈ K. (10.5)
Observación 10.6 Por el Teorema 10.2 se tiene que para encontrar los valores propios asociados a una aplicación lineal,
se debe resolver la ecuación caracterı́stica asociada. Por otro lado, para un valor propio especifico λ0 , los vectores
propios asociados a λ0 se encuentran al resolver el sistema
Observación 10.7 Dada una matriz A ∈ M2 (K) el polinomio caracterı́stico está determinado por la fórmula
Observación 10.8 Dada una matriz A ∈ M3 (K) el polinomio caracterı́stico está determinado por la fórmula
T : R2 ! −→ R2 !
x 10x − 18y
u= 7−→ T (u) = ,
y 6x − 11y
λ2 + λ − 2 = 0, λ ∈ C,
Buscamos ( ! ! !)
x x x
E(−2) = : AT = −2 .
y y y
Resolvemos el sistema
12 −18 0 . . . 0 0 0
! !
(AT − λ1 Id2 |0) = −−−→
6 −9 0 2 −3 0
Por tanto ( ! )
x
E(−2) = ∈ R2 : 2x − 3y = 0
y
En particular, tomando x = 3 e y = 2 encontramos que
258 10 Valores y vectores propios
!
3
u1 =
2
Buscamos ( ! ! !)
x x x
E(1) = : AT = 1· .
y y y
Resolvemos el sistema
9 −18 0 . . . 0 0 0
! !
(AT − λ2 Id2 |0) = −−−→
6 −12 0 1 −2 0
Por tanto ( ! )
x
E(−2) = ∈ R2 : x − 2y = 0
y
En particular, tomando x = 2 e y = 1 encontramos que
!
2
u2 =
1
Definición 10.3 (Multiplicidad de un valor propio) Sean n ∈ N, V un espacio vectorial sobre el cuerpo K con
dim(V) = n y T ∈ L(V). Supongamos que λ1 , ..., λm ∈ K son los m valores propios T :
m
Y
pT (λ) = (−1)n (λ − λi )ri , (10.10)
i=1
donde
m
X
ri = n.
i=1
Observación 10.9 En el marco de la Definición 10.3 se debe tener presente que la multiplicidad geométrica no puede
ser mayor que la multiplicidad algebraica, es decir:
∀i ∈ Im : dim(E(λi )) ≤ ri . (10.11)
Por tanto,
ri = 1 ⇒ gi = dim(E(λi )) = 1. (10.12)
F : P2 (R) −→ P2 (R)
u 7−→ F[u] = p,
donde
u(x) = a + bx + cx2 , x ∈ R,
y
F[u](x) = p(x) = (2a − b + c) + (3b − c)x + (2a + b + 3c)x2 , x ∈ R.
La matriz canónica asociada es
2 −1 1
AF = 0 3 −1
2 1 3
de manera que
Por tanto
n o
E(2) = u ∈ P2 (R) : u(x) = a + bx + cx2 ∧ b − c = 0 ∧ a + c = 0
n o
= u ∈ P2 (R) : u(x) = −c + cx + cx2 ∧ c ∈ K
= < {u1 } >, (10.14)
u1 (x) = −1 + x + x2 , x ∈ K.
Obsérvese que la multiplicidad geométrica de λ1 = 2 es g1 = dim(E(2)) = 1, que no coincide con la multiplicidad alge-
braica.
Por tanto
n o
E(4) = u ∈ P2 (R) : u(x) = a + bx + cx2 ∧ b − c = 0 ∧ a − c = 0
n o
= u ∈ P2 (R) : u(x) = c + cx + cx2 ∧ c ∈ K
= < {u2 } >, (10.15)
u2 (x) = 1 + x + x2 , x ∈ K.
Teorema 10.3 (Valores y vectores propios de matrices simétricas) Sea A ∈ Mn (K), simétrica.
i) Si λ es un valor propio de A, entonces λ ∈ R.
ii) Si u, v son vectores propios asociados a dos valores propios distintos de A, entonces son ortogonales.
260 10 Valores y vectores propios
Teorema 10.4 (Independencia lineal y vectores propios) Suponga que λ1 , ..., λn son valores propios distintos
asociados a T ∈ L(V) y que v1 , ..., vn ∈ V \ {0} son correspondientes vectores propios. Entonces Bn = {v1 , ..., vn } es
l.i.
α1 (λ1 − λk+1 )v1 + α2 (λ2 − λk+1 )v2 + ... + αk (λk − λk+1 )vk = 0,
αi (λi − λk+1 ) = 0, ∀i ∈ Ik ,
y, por tanto:
αi = 0, ∀i ∈ Ik . (10.20)
Por (10.17) y (10.20) se sigue que
αk+1 vk+1 = 0,
lo cual implica que αk+1 = 0 pues vk+1 , 0 (es vector propio). Se ha probado entonces que
αi = 0, ∀i ∈ Ik+1 ,
t
u
Corolario 10.1 (Base de vectores propios) Suponga que λ1 , ..., λn son valores propios distintos asociados a T ∈
L(V) y que v1 , ..., vn ∈ V \ {0} son correspondientes vectores propios. Si dim(V) = n, entonces Bn = {v1 , ..., vn } es
base de V.
Observación 10.11 El contexto del Corolario 10.1 es muy importante en aplicaciones a la Ingenierı́a. En este caso, dado
un vector u ∈ V, para conocer su imagen a través de T , basta con calcular sus coordenadas en la base Bn . En efecto, a
partir de la expansión
u = β1 v1 + β2 v2 + ... + βn vn
se tiene, al aplicar T , que
T (u) = β1 λ1 v1 + ... + βn λn vn . (10.21)
Más aún, si V tiene un producto interior y Bn es ortonormal, las coordenadas se pueden calcular como
Observación 10.12 Si dim(V) = n y λ1 , λ2 , ..., λr son sus valores propios distintos, con r < n, entonces, a priori, no es
posible conocer si existe una base de V formada por vectores propios.
Corolario 10.2 (Matriz simétrica real) Sean n ∈ N y A ∈ Mn (R). Si A es simétrica entonces tiene vectores pro-
pios v1 , v2 , ..., vn tales que B = {v1 , ..., vn } es base ortogonal de Rn .
Observación 10.13 En el marco del Corolario 10.2, es posible que alguno de los valores propios de A tenga multiplicidad
algebraica mayor a uno. En este caso, se puede aplicar Gram.Schmidt para obtener una base ortogonal de vectores
propios de A.
T : P2 (R) −→ P2 (R)
u 7−→ F[u] = p,
donde
u(x) = α + βx + γx2 , x ∈ R,
y
F[u](x) = p(x) = (2α − β + γ) + (3β − γ)x + (2α + β + 3γ)x2 , x ∈ R.
La matriz canónica asociada es
2 −1 1
AT = 0 3 −1 .
2 1 3
de manera que
λ1 = 6 es valor propio de T con multiplicidad algebraica r1 = 1 y , por tanto, con multiplicidad geométrica dim(E(6)) = 1;
λ2 = 9 es valor propio de T con multiplicidad algebraica r2 = 1 y , por tanto, con multiplicidad geométrica dim(E(9)) = 1;
λ3 = 15 es valor propio de T con multiplicidad algebraica r3 = 1 y, por tanto, con multiplicidad geométrica dim(E(15)) =
1.
Puesto que existen n = 3 = dim(P2 (R)) valores propios distintos, existe B = {u1 , u2 , u3 }, una base de P2 (R) formada por
vectores propios.
Por tanto
n o
E(6) = u ∈ P2 (R) : u(x) = α + βx + γx2 ∧ α − β = 0 ∧ β − γ = 0
n o
= u ∈ P2 (R) : u(x) = γ + γx + γx2 ∧ γ ∈ K
= < {u1 } >, (10.24)
u1 (x) = 1 + x + x2 , x ∈ K.
262 10 Valores y vectores propios
Por tanto
n o
E(9) = u ∈ P2 (R) : u(x) = α + βx + γx2 ∧ β = 0 ∧ α + γ = 0
n o
= u ∈ P2 (R) : u(x) = −γ + γx2 ∧ c ∈ K
= < {u2 } >, (10.25)
u2 (x) = −1 + x2 , x ∈ K.
Por tanto
n o
E(15) = u ∈ P2 (R) : u(x) = α + βx + γx2 ∧ α − γ = 0 ∧ β + 2γ = 0
n o
= u ∈ P2 (R) : u(x) = γ − 2γx + γx2 ∧ γ ∈ K
= < {u3 } >, (10.26)
u3 (x) = 1 − 2x + x2 , x ∈ K.
Definición 10.4 (Matrices semejantes y diagonalizables) Sean n ∈ N y A, B ∈ Mn (K). Se dice que A y B son
matrices semejantes si existe C ∈ Mn (K) tal que
B = C −1 AC. (10.27)
Observación 10.14 En el marco de la Definición 10.4, tenga presente que la relación (10.27) es equivalente a
CB = AC. (10.28)
Teorema 10.5 (Valores propios de matrices semejantes) Sean n ∈ N y A, B ∈ Mn (K) dos matrices semejantes.
Entonces
pA = p B , (10.29)
de manera que tienen los mismos valores propios.
Demostración. Puesto que A y B son semejantes existe una matriz invertible C ∈ Mn (K) tal que
B = C −1 AC.
10.3 Semejanza y diagonalización 263
∀λ ∈ K : pA (λ) = pB (λ),
de manera que pA = pB .
t
u
donde
2 4 3
C = 0 1 −1 .
35 7
Para conocer los valores propios de A y de B escogemos la matriz A pues, al ser diagonal, hace más fácil el cálculo.
Dado λ ∈ K se tiene que
1 − λ 0
0
pA (λ) = 0 −1 − λ 0 = (1 − λ)(−1 − λ)(2 − λ),
0 2 − λ
0
de manera que los valores propios de A y B son
λ1 = 1, λ2 = −1, λ3 = 2.
Observación 10.15 Tenga presente que los valores propios de una matriz diagonal son los valores que aparecen en la
diagonal.
Definición 10.5 (Aplicación diagonalizable) Sean n ∈ N, V un espacio vectorial de dimensión sobre el cuerpo
K, y T ∈ L(V). Se dice que T es una aplicación diagonalizable si [T ]CC es diagonalizable.
264 10 Valores y vectores propios
Teorema 10.6 (Proceso de diagonalización) Sean n ∈ N y A ∈ Mn (K). Entonces A es diagonalizable ssi existe
B = {v1 , ..., vn }, una base de Kn formada por vectores propios de A. En este caso,
y
P = v1 v2 . . . vn . (10.32)
Observación 10.16 De las Definiciones 10.5 y 10.4 se sigue que T ∈ L(V) es diagonalizable ssi existe una base B de V
tal que la matriz
[T ]BB = [Id]CB [T ]CC [Id]CB (10.33)
es diagonalizable. Por el Teorema 10.6 se sigue que una aplicación T ∈ L(V) es diagonalizable ssi T tiene n vectores l.i.
y en este caso
Observación 10.17 Tenga presente que si una matriz A ∈ Mn (K) tiene n valores propios distintos, inmediatamente es
diagonalizable.
Observación 10.18 De la misma forma, si A es simétrica, inmediatamente es diagonalizable y se puede elegir P ortogo-
nal, esto es se toma B = {v1 , ..., vn } base ortonormal de Kn de manera que
P−1 = Pt . (10.36)
T : P2 (R) −→ P2 (R)
u 7−→ F[u] = p,
donde
u(x) = α + βx + γx2 , x ∈ R,
y
F[u](x) = p(x) = (3α + 2β + 4γ) + (2α + 2γ)x + (4α + 2β + 3γ)x2 , x ∈ R.
La matriz canónica asociada es
3 2 4
AT = 2 0 2 .
423
Puesto que AT es simétrica, sabemos de antemano que todos los valores propios de T son números reales. También
sabemos que T tiene 3 vectores propios que forman una base de P2 (R). Más aún, si sobre P2 (R) se considera el producto
escalar dado por
hp, qi = p tC q C ,
se puede elegir los vectores propios B = {v1 , v2 , v3 } ortonormales y tales que la matriz
P = [Id]CB = [v1 ]C [v2 ]C [v3 ]C
es ortogonal.
λ1 = −1, λ2 = 8.
Asociados a λ1 = −1 se encuentran los vectores propios dados por
1 −4
[u1 ]C = −2 , [u2 ]C = −2 .
0 5
Escogemos entonces
1 4
√ − 3 √5 2
5 2 3
[v1 ]C = − √2 , [v2 ]C = − 3 √5 , [v3 ]C = 13 ,
5 2
5
0 √ 3
3 5
es decir
1 2 4 2 5 2 1 2
v1 (x) = √ − √ x, v2 = − √ − √ x + √ x2 , v3 (x) = + x + x2 , x ∈ R.
5 5 3 5 3 5 3 5 3 3 3
En este caso es ortogonal la matriz
1 4 2
√5 − 3 √ 5 3
2 2 1
P = − √5 − 3 √5 .
3
5 2
0 √
3
3 5
Se puede comprobar que
−1 0 0
[T ]BB = Pt AT P = 0 −1 0 .
0 0 8
Demostración (Demostración para el caso A diagonalizable). Puesto que A es diagonalizable, existe una matriz inversible
P tal que
D = diag(λ1 , ..., λn ) = P−1 AP
o equivalentemente
A = PDP−1 .
Entonces se tiene que
n
X
Tr(A) = Tr (PD)P−1 = Tr(P−1 (PD)) = Tr(D) = λk ,
k=1
y
n
1 Y
det(A) = det PDP−1 = det(P) det(D) = det(D) = λk .
det(P) k=1
t
u
266 10 Valores y vectores propios
T : P2 (K) −→ P2 (K)
p 7−→ T [p],
donde, para t ∈ K:
Se tiene que
0 0 1
AT = −1 1 0 (10.41)
1 −1 1
p1 (x) = 1 − x + 2x2 .
Buscamos
E(λ1 ) = E(0) = {v ∈ P2 (R) : T [v] = 0 · v = 0 p }.
10.4 Ejercicios resueltos 267
p2 (x) = 1 + x.
3) Sean n ∈ N y A ∈ Mn (K), invertible. Suponga que λ ∈ K es un valor propio de A y que v ∈ Kn es un vector propio de
A asociado a λ. Pruebe que λ−1 es un valor propio de A−1 y que v es un vector propio de A−1 asociado a λ−1 .
Desarrollo. Puesto que A es invertible,
n
Y
det(A) = λk , 0, (10.45)
k=1
Av = λv
A Av = A−1 · λv
−1
v = λA−1 v
A v = λ−1 v
−1
de donde se deduce que λ−1 es un valor propio de A−1 y que v es un vector propio de A−1 asociado a λ−1 .
270 10 Valores y vectores propios
4) Sean m ∈ N y A ∈ Mm (K). Suponga que λ ∈ K es un valor propio de A y que v ∈ Kn es un vector propio de A asociado
a λ.
a) Pruebe que para cada n ∈ N, λn es un valor propio de An y que v es un vector propio de An asociado a λn .
b) Sean n ∈ N y p ∈ Pn (K) con fórmula
p(x) = a0 + a1 x + a2 x2 + ... + an xn .
Av = λv. (10.46)
An v = λn v.
An+1 v = A(An v)
= A · λn v
= λn · Av
= λn+1 v,
de manera que p(λ) es un valor propio de la matriz p(A) y v es un vector propio de p(A) asociado a p(λ).
10.4 Ejercicios resueltos 271
5) Sean n ∈ N, A ∈ Mn (K) y λ ∈ K un valor propio de A. Pruebe que si A es ortogonal y simétrica, entonces λ ∈ {−1, 1}.
Desarrollo. Puesto que λ es un valor propio de A, existe un vector
v ∈ Kn \ {0} (10.47)
tal que
Av = λv. (10.48)
Por otro lado, puesto que A es ortogonal y simétrica:
A−1 = At ∧ At = A,
de manera que
A = A−1 . (10.49)
Usando (10.49) se tiene que
A−1 v = λ−1 v
Av = λ−1 v. (10.50)
de manera que
α1 = b + c, α2 = −a − c, α3 = −a + b + c.
Por tanto, por (10.52) y (10.51), se tiene que:
Entonces, para λ ∈ K:
det(AT − λId) = −λ3 + 12λ − 16 = −(λ − 2)2 (λ + 4).
Por tanto los valores propios de T son:
λ1 = −4 con multiplicidades r1 = 1 y mg1 = 1;
λ2 = 2 con multiplicidad r2 = 2.
i) Buscamos
E(λ1 ) = E(−4) = {u ∈ P2 (K) : T [u] = −4u} .
Tomamos u ∈ E(−4) \ {0}, genérico:
u(t) = α + βt + γt2 , t ∈ K.
Se tiene entonces que
T [u] = −4u,
AT [u]C = −4 [u]C ,
(AT + 4Id) [u]C = 0. (10.53)
de manera que
α = −γ, β = −γ.
Por tanto:
n o
E(−4) = u ∈ P2 (K) : u(t) = α + βt + γt2 ∧ α = −γ ∧ β = −γ
n o
= u ∈ P2 (K) : u(t) = −γ − γt + γt2 ∧ γ ∈ K ,
n o
= u ∈ P2 (K) : u(t) = γ(−1 − t + t2 ) ∧ γ ∈ K , (10.54)
p1 : K −→ K
t 7−→ p1 (t) = −1 − t + t2 .
ii) Buscamos
E(λ2 ) = E(2) = {u ∈ P2 (K) : T [u] = 2u} .
Tomamos u ∈ E(2) \ {0}, genérico:
u(t) = α + βt + γt2 , t ∈ K.
Se tiene entonces que
T [u] = 2u,
AT [u]C = 2 [u]C ,
(AT − 2Id) [u]C = 0. (10.55)
de manera que
α+β+γ = 0 ⇒ α = β + γ.
Por tanto:
n o
E(2) = u ∈ P2 (K) : u(t) = α + βt + γt2 ∧ α = β + γ
n o
= u ∈ P2 (K) : u(t) = (β + γ) + βt + γt2 ∧ β, γ ∈ K ,
n o
= u ∈ P2 (K) : u(t) = β(1 + t) + γ(1 + t2 ) ∧ β, γ ∈ K , (10.56)
p2 : K −→ K p3 : K −→ K
t 7−→ p2 (t) = 1 + t, t 7−→ p3 (t) = 1 + t2 .
23 1 −1
2 1 −1
3
7) Considere la matriz L = .
1 −3 2
1
−1
−1 2 −3
√
a) Muestre que los números −1 y − 29 son valores propios√de L y halle sus respectivas multiplicidades.
b) Halle los subespacios propios de L asociados a −1 y a − 29.
Desarrollo. Para λ ∈ K:
2 − λ 3
1 −1
3 2−λ 1 −1
det(L − λId) = = (λ + 1)2 (λ2 − 29).
1 1 −3 − λ 2
−1 −1 2 −3 − λ
i) Buscamos n o
E(λ1 ) = E(−1) = v ∈ K4 : Lv = −v .
α
β
Tomamos v = ∈ E(−1) \ {0}, genérico. Se tiene entonces que
γ
η
(L + Id) v = 0,
y, por ello:
3 3 1 −1 0 1 1 0 0 0
3 3 1 −1 0 0 0 1 −1 0
L + Id 0 = . . . →
− . . .
1 1 −2 2 0 0 0 0 0 0
−1 −1 2 −2 0 000 0 0
de manera que
α+β = 0 ∧ γ − η = 0.
Por tanto:
α
β √
Tomamos v = ∈ E(− 29) \ {0}, genérico. Se tiene entonces que
γ
η
√
L+ 29Id v = 0,
y, por ello:
√ √
10√ 29−52
2 + 29 1 0 0 0
3√ 1 −1 0 29−15
√
√ 2 + 29
3 1√ −1 0
10√ 29−52
− . . . 0 1 0 0
L + 29Id 0 = . . . →
29−15
1 1 −3 + 29 2√ 0 0 0 1 1 0
−3 + 29
−1 −1 2 0
000 0 0
de manera que √ √
10 29 − 52 10 29 − 52
α=− √ ·η ∧ β=− √ ·η ∧ γ = −η.
29 − 15 29 − 15
Por tanto:
α
√ √
√ β
10 29 − 52 10 29 − 52
E(− 29) = 4
α = η β = η γ =
∈ : − · ∧ − · ∧ −η
K √ √
γ
29 − 15 29 − 15
η
√
− 10√ 29−52
√29−15
− 10√ 29−52
= η 4
η ,
∈ : ∈
29−15 K K
−1
1
√
de donde se deduce que una base de E(− 29) es
√
− 10√ 29−52
√29−15
− 10√ 29−52
B2 = {v3 } = .
29−15
−1
1
276 10 Valores y vectores propios
3 2 4
8) Considere la matriz A = 2 0 2 .
423
Desarrollo. Para λ ∈ K:
3 − λ 2 4
det(A − λId) = 2 −λ 2 = −λ3 + 6λ2 + 15λ + 8 = −(λ + 1)2 (λ − 8).
4 2 3 − λ
(A − 8Id) v = 0,
y, por ello:
−5 2 4 0 0 0 0 0
A − 8Id 0 = 2 −8 2 0 . . . →
− . . . 1 −2 0 0
4 2 −5 0 0 2 −1 0
de manera que
α = 2β ∧ γ = 2β.
Por tanto:
α
2β
E(8) = β 3
α = γ = = β ∈ K3 : β ∈ K ,
∈ : 2β ∧ 2β
K
γ
2β
2
= β 3
β ,
1 ∈ : ∈
K K
2
ii) Buscamos n o
E(λ2 ) = E(−1) = v ∈ K3 : Av = −v .
α
Tomamos v = β ∈ E(−1) \ {0}, genérico. Se tiene entonces que
γ
(A + Id) v = 0,
y, por ello:
4 2 4 0 2 1 2 0
A + Id 0 = 2 1 2 0 . . . →
− . . . 0 0 0 0
424 0 0000
de manera que
10.4 Ejercicios resueltos 277
2α + β + 2γ = 0.
Por tanto:
α α
E(−1) = β 3
+ β + = = 3
α, γ ∈ K
∈ : 2α 2γ 0 −2α − 2γ ∈ K :
K
γ
γ
1 0
= α + γ −2 ∈ K3 : α, γ ∈ K ,
−2
0
1
D = P−1 AP,
con
λ1 0 0 8 0 0
2 1 0
D = 0 λ2 0 = 0 −1 0 , P = v1 v2 v3 = 1 −2 −2 .
0 0 λ2 0 0 −1 2 0 1
278 10 Valores y vectores propios
!
ab
9) Sea A = ∈ M2 (K) tal que b , 0. Suponga que m ∈ K es tal que
cd
∆ = β2 − 4αγ
= (a + d)2 − 4(1)(ad − bc)
= a2 + d2 + 2ad − 4ad + 4bc
= (a − d)2 + 4bc. (10.61)
p(λ2 ) = 0
λ2 − (a + d)λ2 + (ad − bc) = 0,
2
(A − (a + bm)Id) v = 0,
y, usando (10.66): ! !
−bm b 0 −m 1 0
A − (a + bm)Id 0 = . . .→
− ...
c d − a − bm 0 0 00
de manera que
x2 = mx1 .
10.4 Ejercicios resueltos 279
Por tanto:
(! ) ( ! )
x1 x1
E(a + bm) = ∈ K2 : x2 = mx1 = ∈ K2 : x1 ∈ K ,
x2 mx1
( ! )
1
= x1 ∈ K 2 : x1 ∈ K ,
m
10) Sean n ∈ N y A ∈ Mn (K). Suponga que existe B = {v1 , v2 , ..., vn }, una base de Kn formada por vectores propios de A.
Pruebe que
D = P−1 AP, (10.67)
donde
D = diag(λ1 , ..., λn ), P = v1 v2 . . . vn ,
y vk es un vector propio asociado al valor propio λk .
Desarrollo. Sabemos que
Avk = λk vk , k = 1, ..., n. (10.68)
Probar (10.67) es equivalente a probar que
PD = AP. (10.69)
Por un lado se tiene que
AP = A v1 v2 . . . vn
= Av1 Av2 . . . Avn
= λ1 v1 λ2 v2 . . . λn vn (10.70)
Ar v = λr v
Idv = λr v
(λr − 1)v = 0 (10.72)
Desarrollo.
a) Tomamos α, β, γ ∈ R+ \ {1}, genéricos. Aprovechando el hecho que las funciones exponencial y logarı́tmica son
inversas la una de la otra, se tiene que
logα (β) · logβ (γ) · logγ (α) = logα βlogβ (γ)·logγ (α)
= logα expβ logβ (γ) · logγ (α)
= logα expβ logβ expγ logγ (α)
= logα expβ logβ (α)
= logα (α)
= 1.
det(A) = 1 + logβ2 (β1 ) logβ3 (β2 ) logβ1 (β3 ) + logβ1 (β2 ) logβ2 (β3 ) logβ3 (β1 )
− logβ1 (β3 ) logβ3 (β1 ) − logβ1 (β2 ) logβ2 (β1 ) − logβ2 (β3 ) logβ3 (β2 ) = 0.
T : P2 (K) −→ P2 (K)
p 7−→ T [p],
donde, para t ∈ K:
Se tiene que
3 2 4
AT = 2 0 2 (10.76)
423
de manera que
α = 2β ∧ γ = 2β.
Entonces
p1 (t) = 2 + t + 2t2 .
Buscamos
E(λ2 ) = E(−1) = {p ∈ P2 (R) : T [p] = −p}.
284 10 Valores y vectores propios
de manera que
2α + β + 2γ = 0.
Entonces
D = P−1 AP,
con
8 0 0 2 1 0
D = 0 −1 0 , P = 1 −2 −2 .
0 0 −1 2 0 1
10.5 Ejercicios propuestos 285
1) Considere la matriz Ak .
a) Halle los valores propios de Ak .
b) Halle los espacios propios y bases para los mismos.
c) Indique las multiplicidades algebraicas y geométricas de los valores propios.
! ! !
−81 16 −12 7 −62 −20
A1 = ; A2 = ; A3 = ;
−420 83 −7 2 192 62
−10 −71 −19 1 −1 0 5 4 2
A4 = 3 34 9 ; A5 = −1 2 −1 ; A6 = 4 5 2 ;
−1 −61 −16 0 −1 1 222
13 3 1 0 1 0 1 2 2
A7 = −56 −13 −4 ; A8 = 0 0 1 ; A9 = 0 2 1 ;
−14 −3 −2 1 −3 3 −1 2 2
−2 5 0 7 −2 −4 4 6 6
A10 = 5 −2 0 ; A11 = 3 0 −2 ; A12 = 1 3 2 ;
0 0 1 6 −2 −3 −1 −5 −2
2) Considere la matriz Ak .
a) Halle los valores propios de Ak .
b) Halle los espacios propios y bases para los mismos.
c) Indique las multiplicidades algebraicas y geométricas de los valores propios.
18 42 26 −10 4 1 0 1 3 1 0 0
22 70 37 −17 2 3 0 1 0 3 0 0
A1 = ; A2 = ; A 3 = ;
−20 −60 −31 15 −2 1 2 −3 0
0 4 1
62 186 104 −44 2 −1 0 5 0 0 0 4
Vλ = {u ∈ V : T (u) = λu}
es un s.e.v. de V.
7) Considere la aplicación lineal
T: R3 −→ R3
3x + 2y + 4z
x
u = y 7−→ T (u) = 2x + 2z .
z 4x + 2y + 3z
F : P2 (K) −→ P2 (K)
u 7−→ F[u] = p,
donde, para x ∈ K,
u(x) = α + βx + γx2 ,
F[u](x) = p(x) = γ + (β − α)x + (α − β + γ)x2 .
1) Sea A ∈ Mn (R) antisimétrica. Demuestre que si λ ∈ C es un valor propio de Q entonces λ es un número imaginario
puro.
2) Sean n ∈ N y A ∈ Mn (K). Pruebe que pA = pAt de manera que A y At tienen los mismos valores propios.
10.5 Ejercicios propuestos 287
7) Sean A ∈ Mn (K) y r ∈ N tales que Ar = Idn . Pruebe que si λ es un valor propio de A, entonces λr = 1.
8) Sean n, r ∈ N y A ∈ Mn (K). Pruebe que
n
X
Tr(Ar ) = λrk , (10.83)
k=1
T : Pn (R) −→ Pn (R)
u 7−→ F[u] = p,
donde, para t ∈ R,
T [u](t) = p(t) = u(t + 1).
a) Pruebe que T es una aplicación lineal.
b) Pruebe que T es un isomorfismo.
c) Halle los valores y vectores propios de T .
a
a
10) Sean a, b ∈ K. Considere la matriz A = (b b . . . b) ∈ Mn (K).
. . .
a
a) Halle el polinomio caracterı́stico de A.
b) Halle los subespecios propios y sus dimensiones.
11) Sea B = {p1 , p2 , p3 } una base de P2 (R) donde
D = diag(λ1 , ..., λn ),
P = v1 v2 . . . vn
ai j = logβ j (βi ).
Γ : C∞ (0, 1) −→ C∞ (0, 1)
u 7−→ Γ[u],
donde
Γ[u](t) = t · u0 (t), t ∈ (0, 1).
a) Pruebe que Γ es aplicación lineal.
b) Determine los valores y funciones propias de Γ.
!
0 Idn
6) Considere la matriz B = con A ∈ Mn (K). Suponga que λ1 , ..., λn son los valores propios de A. Pruebe que si λ
A 0
n √ √ o
es valor propio de B, entonces λ ∈ − λk , λk : k = 1, 2, ..., n .
γ1
9) Sea V un espacio vectorial sobre el cuerpo K con dim(V) ≥ 2. Suponga que T ∈ L(V) es tal que dim(Im(T )) = 1.
Pruebe que
a) existe un vector propio de T ;
b) λ = 0 es un valor propio de T .
Capı́tulo 11
F2 ← F2 + (−α) · F1
1 F3 ← F3 + (−α) · F2 1
1 1 1
F ← F + (−α) · F
1 1 1
α β γ η 4 4 3 0 β − α γ−α η − α
det(v1 v2 v3 v4 ) = 2 ======================
α β2 γ2 η2 0 β(β − α) γ(γ − α) η(η − α)
α3 β3 γ3 η3 0 β (β − α) γ2 (γ − α) η2 (η − α)
2
β − α γ−α η − α
1 1 1
= β(β − α) γ(γ − α) η(η − α) = (β − α)(γ − α)(η − α) · β γ η
β (β − α) γ2 (γ − α) η2 (η − α) β γ η
2 2 2 2
F2 ← F2 + (−β) · F1
F3 ← F3 + (−β) · F2 1 1 1
====================== (β − α)(γ − α)(η − α) · 0 γ − β η − β
0 γ(γ − β) η(η − β)
“ Las ciencias... ”
XXXXXX
En la Sección
Soluciones y/o pautas para los problemas
Capı́tulo ??
?? Trabaje como en la demostración de (??). ?? Se tiene que
Conjunto Tip de -
producto cartesiano de -s, 211 No. 1, 2