Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Año 2024
FAMAF - UNC
LEER
Lo cual significa:
ii
ÍNDICE GENERAL
ii Álgebra lineal
4 Espacios vectoriales 111
4.1 Definición y ejemplos de espacios vectoriales . . . . . . . . . . 111
4.2 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . 116
4.2.1 Determinación implícita de un subespacio de Kn a
partir de generadores . . . . . . . . . . . . . . . . . . . . 120
4.2.2 Intersección y suma de subespacios vectoriales . . . . . 122
4.3 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4 Dimensiones de subespacios . . . . . . . . . . . . . . . . . . . . 137
5 Transformaciones lineales 143
5.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 143
5.2 Núcleo e imagen de una transformación lineal . . . . . . . . . 148
5.3 Isomorfismos de espacios vectoriales . . . . . . . . . . . . . . . 155
iii
iv índice general
iii Apéndices
a Números complejos 229
a.1 Cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
a.1.1 Un cuerpo finito . . . . . . . . . . . . . . . . . . . . . . . 230
a.2 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . 231
a.3 Raíces de la unidad en C . . . . . . . . . . . . . . . . . . . . . . 237
b Funciones polinómicas 239
b.1 Definición de funciones polinómicas . . . . . . . . . . . . . . . 239
b.2 División de polinomios . . . . . . . . . . . . . . . . . . . . . . . 242
c Multiplicación de polinomios por FFT 245
c.1 Representación de polinomios por valores . . . . . . . . . . . . 245
c.2 Transformada de Fourier discreta . . . . . . . . . . . . . . . . . 246
c.3 Transformada rápida de Fourier . . . . . . . . . . . . . . . . . 251
d Determinante 257
d.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
d.2 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
iv Índice
Indice alfabético 271
ÍNDICE DE FIGURAS
v
P R E FA C I O
Las siguientes notas se han utilizado para el dictado del curso “Álgebra
II / Álgebra / Álgebra Lineal” del primer año de las licenciaturas y profeso-
rados de FAMAF. Han sido las notas principales en el dictado del año 2018
y 2020, y se limitan casi exclusivamente al contenido dictado en el curso.
Las partes señaladas con (*) y los apéndices son optativos.
Estas notas están basadas principalmente en Apuntes de Álgebra II - Año
2005 de Silvina Riveros y han sido revisadas, modificadas y ampliadas por
Alejandro Tiraboschi y Agustín García Iglesias.
También hemos utilizado como bibliografía de apoyo los siguientes:
Contenidos mínimos
Resolución de ecuaciones lineales. Matrices. Operaciones elementales. Ma-
triz inversa. Espacios vectoriales sobre R y C. Subespacios. Independencia
lineal. Bases y dimensión Rectas y planos en Rn . Transformaciones lineales
y matrices. Isomorfismos. Cambio de bases. Núcleo e imagen de trans-
formaciones lineales. Rango fila y columna. Determinante de una matriz.
Cálculo y propiedades básicas. Espacios con producto interno. Desigual-
dad de Cauchy-Schwartz. Desigualdad triangular. Teorema de Pitágoras.
Ortonormalización de Gram-Schmidt. Ecuaciones de rectas y planos en
Rn . Distancias. Introducción a vectores y valores propios. Aplicaciones.
Diagonalización de matrices simétricas.
1
Parte I
x
-3 -2 -1 0 1 2 3
y
(−1, 2.5)
2
1 (2, 1)
x
-3 -2 -1 1 2 3
-1
-2
(−2.5, −2.5)
Figura 2: Representación gráfica de los puntos (2, 1), (−1, 2.5) y (−2.5, −2.5) en R2 .
5
6 vectores
1 v
1 y
2 1 2 3 4
3
4
x
Figura 3: Representación gráfica del punto v = (3.5, 3, 2.5) en R3 .
Rn := {(x1 , x2 , . . . , xn ) : xi ∈ R, 1 ⩽ i ⩽ n}.
largo del apunte. Para ello usaremos el sistema de coordenadas cartesianas para
representar los elementos de R2 y R3 , tal como se ha hecho en las figuras 2
y 3.
Ejemplo. Un ejemplo clásico de 3-espacio es, por supuesto, el espacio en el
que vivimos. Después de seleccionar un origen y un sistema de coordenadas,
podemos describir la posición de un punto (cuerpo, partícula, etc.) mediante
3 coordenadas. Además, como se sabía hace mucho tiempo, es conveniente
extender este espacio a un espacio de 4 dimensiones, donde la cuarta
coordenada es el tiempo, seleccionándose el origen del tiempo, por ejemplo,
como el nacimiento de Cristo, aunque esto es puramente arbitrario. Entonces,
un punto con coordenada de tiempo negativo es un punto antes de Cristo,
y un punto con coordenada de tiempo positiva es un punto después de
Cristo.
Sin embargo, no es que obligatoriamente “el tiempo es la cuarta di-
mensión”. El espacio 4-dimensional anterior es solo un ejemplo posible.
Hagamos un ejemplo relacionado a la economía: tomamos como coordena-
das la cantidad de dinero gastado por una industria a lo largo de un año.
Por ejemplo, podríamos tener un espacio de 6 dimensiones con coordenadas
correspondientes a las siguientes industrias: 1. acero, 2. automotriz, 3. pro-
ductos agrícolas, 4. productos químicos, 5. indumentaria y 6. transporte. Las
coordenadas de las 6-tuplas representarían el gasto anual de las industrias
correspondientes. Por ejemplo,
R3 = R2 × R1 .
Utilizamos el signo del producto, que no debe confundirse con otros “pro-
ductos”, como el producto de los números. Del mismo modo, podemos
escribir
R4 = R3 × R1 .
Hay otras formas de expresar R4 como un producto, a saber:
R4 = R2 × R2 .
Rn = Rn1 × Rn2 .
Generalizando,
S3. si definimos
0 = (0, . . . , 0),
el punto cuyas coordenadas son todas 0, el vector cero, entonces
v + 0 = 0 + v = v,
v + (−v) = (−v) + v = 0
(1000, 800, 550, 300, 700, 200) + (1200, 700, 600, 300, 900, 250) =
= (1000 + 1200, 800 + 700, 550 + 600, 300 + 300, 700 + 900, 200 + 250)
= (2200, 1500, 1350, 600, 1600, 450).
y (1, 4)
(2, 3)
(−1, 1)
y v+w
v + w = (4, 3).
y v+w
v
x
0
−v
v−w
w
P1. 1.v = v.
(−1)v = −v.
x
v = (1, 2)
1
2v = (0.5, 1)
x
−3v
(a) (b)
Dados v, w, u en Rn , se verifican
P1. 1.v = v.
Verán más adelante que las propiedades anteriores son muy parecidas a
los “axiomas” que se utilizan en el capítulo 4 para definir espacios vectoriales
abstractos (ver definición 4.1.1).
(x1 , ..., xn ) = x1 e1 + x2 e2 + · · · + xn en .
§ Ejercicios
1) Dados v = (−1, 2 − 0), w = (2, −3, −1) y u = (1, −1, 1), calcular:
a) 2v + 3w − 5u,
b) 5(v + w),
c) 5v + 5w (y verificar que es igual al vector de arriba).
⟨v, w⟩ := x1 y1 + x2 y2 .
⟨v, w⟩ := x1 y1 + x2 y2 + x3 y3 .
⟨v, w⟩ := x1 y1 + x2 y2 + · · · + xn yn .
entonces
⟨v, w⟩ = −1 + 12 + 6 = 17.
Por el momento, no le damos una interpretación geométrica a este pro-
ducto escalar y veremos esto en la sección 1.3. Ahora derivaremos algunas
propiedades importantes.
P2.
⟨v, w + u⟩ = ⟨v, w⟩ + ⟨v, u⟩ = ⟨w + u, v⟩.
⟨v, v⟩ > 0
w + u = (y1 + z1 , . . . , yn + zn )
⟨v, w + u⟩ = x1 y1 + · · · + xn yn + x1 z1 + · · · + xn zn ,
representados en la fig. 9
e3
y
e2
e1
x
Figura 9: Vectores canónicos en R3 .
y (a, b)
(−b, a)
x
1.3 la norma de un vector 17
§ Ejercicios
2) Dados v = (−1, 2 − 0), w = (2, −3, −1) y u = (1, −1, 1), verificar que:
4) Probar, usando sólo las propiedades P1, P2, y P3 del producto escalar,
que dados v, w, u ∈ Rn y λ1 , λ2 ∈ R,
a) se cumple:
5) Probar que
a) (2, 3, −1) y (1, −2, −4) son ortogonales.
b) (2, −1) y (1, 2) son ortogonales. Dibujar en el plano.
6) Encontrar
a) un vector no nulo ortogonal a (3, −4),
b) un vector no nulo ortogonal a (2, −1, 4),
c) un vector no nulo ortogonal a (2, −1, 4) y (0, 1, −1),
(x, y)
r
y
x
p
Figura 10: r = x2 + y2 .
y
w
(x, y)
x
p √ p
Figura 11: w = x2 + y2 , r = w2 + z2 = x2 + y2 + z2 .
||λv|| = |λ|||v||.
por lo tanto
Por otro lado, por la propiedad de la suma de los cosenos tenemos que
Es decir,
⟨v1 , v2 ⟩ = ||v1 || ||v2 || cos(α1 − α2 ), (1.3.3)
y precisamente, θ = α1 − α2 es el ángulo comprendido entre v1 y v2 .
Esto se puede generalizar a R3 y ahí en vez de la fórmula (1.3.2) se debe
usar la ley esférica de los cosenos. Los resultados se puede generalizar a Rn
y en general vale que si v1 , v2 ∈ Rn , entonces el ángulo comprendido entre
v1 y v2 es
⟨v1 , v2 ⟩
θ = arcos . (1.3.4)
||v1 || ||v2 ||
Terminaremos esta sección dando la noción de distancia entre dos vectores
o dos puntos.
v−w
w
y v+w
||v||
x
1.4 vectores afines 21
§ Ejercicios
(a) v = (2, 2), w = (1, 0), (b) v = (−5, 3, 1), w = (2, −4, −7).
1
⟨x, y⟩ = ∥x + y∥ − ∥x − y∥ ∀ x, y ∈ Rn .
2 2
4
[Ayuda: usar solo las propiedades P1, P2, P3 y P4 de la proposición
1.2.2.]
En esta sección veremos el concepto de vector afín, que nos servirá para
entender más geométricamente los conceptos de rectas y planos en R2 y R3 ,
respectivamente (secciones 1.5 y 1.6). Definimos un vector afín como un par
ordenado de puntos v y w, que escribimos − → y lo visualizamos como una
vw
flecha entre v y w. Llamamos a v el punto inicial y w el punto final del vector
afín (fig. 13).
Sean − →y−
vw → dos vectores afines. Diremos que son equivalentes si w − v =
pq
q − p.
Cada vector afín − → es equivalente a uno cuyo punto de inicial es el
vw
origen, pues − → es equivalente a −
vw
−−−−→
0(w − v) (ver fig. 14).
Claramente este es el único vector cuyo punto inicial es el origen y
que es equivalente a − → Si visualizamos la ley del paralelogramo en el
vw.
22 vectores
w
p
w−v = q−p
v
q
q
p v
w p
v w
1.5 rectas en R 2 23
§ Ejercicios
1.5 rectas en R 2
x
-2 -1 1 2 3
-1
x
-2 -1 1 2 3
-1
L = {(x, y) ∈ R2 : ax + by = c}.
a c
Observar que si b ̸= 0, entonces la recta es y = − x + y que si b = 0,
b b
c
entonces a ̸= 0 y la recta es x = .
a
Observación. Si consideramos el vector (a, b) en R2 , c ∈ R y L la recta
definida por los puntos (x, y) tal que ax + by = c, entonces L es la recta
formada por el conjunto de puntos (x, y) en R2 que satisfacen
Ejemplo. Encontrar la ecuación implícita de la recta que pasa por (2, −1) y
es perpendicular a (−2, 3).
1.5 rectas en R 2 25
v0
(a, b) v
v − v0
Solución. Por lo visto anteriormente la recta esta formada por los puntos
(x, y) tales que
−2x + 3y = c
y debemos determinar el valor de c. Como (2, −1) pertenece a la recta
c = −2 · 2 + 3 · (−1) = −7.
−2x + 3y = −7.
L = {v + tw : t ∈ R}.
Observemos que la recta L está dada por todos los puntos que se obtienen
de la función
X(t) = v + tw, para t ∈ R. (1.5.2)
En el espacio R2 , diremos que (1.5.2) es la ecuación paramétrica o la repre-
sentación paramétrica de la recta L que pasa por el punto v y es paralela a
w ̸= 0.
Podemos representar una recta dada en forma paramétrica como en la
figura 18. Cuando damos tal representación paramétrica, podemos pensar
en un móvil que comienza en el punto v en el tiempo t = 0, y moviéndose
en la dirección de w. En el momento t, el móvil está en la posición v + tw.
Por lo tanto, podemos interpretar físicamente la representación paramétrica
como una descripción del movimiento, en que w se interpreta como la
26 vectores
v + tw
tw
w
v
X(t) = v + tw.
x = x1 + tx2 , y = y1 + ty2 ,
x = 2 − t, y = 1 + 5t. (1.5.4)
Esta eliminación de t muestra que cada par (x, y) que satisface la re-
presentación paramétrica (1.5.4) para algún valor de t también satisface la
ecuación (1.5.5).
Recíprocamente, de la ecuación implícita podemos obtener la representa-
ción paramétrica.
28 vectores
5x + y = 11.
X(t) = (2 − t, 1 + 5t)
Proposición 1.5.4. Sean (a, b), (x0 , y0 ) ∈ R2 con (a, b) ̸= 0. La recta perpendi-
cular a (a, b) que pasa por (x0 , y0 ) es
Debemos observar que en R3 no alcanza una sola ecuación lineal del tipo
ax + by + cz = d para definir una recta. Veremos en la sección siguiente
que una ecuación lineal define un plano en R3 . Genéricamente hablando,
con las soluciones de una ecuación en Rn se obtiene un objeto “con una
dimensión menos”. Todo esto quedará claro al final de la materia cuando
estudiemos subespacios vectoriales de un espacio vectorial.
§ Ejercicios
5) Sea L una recta en R2 . Probar que L pasa por (0, 0) si y solo si pasa
por p + λq para todo par de puntos distintos p y q de L y para todo
λ ∈ R.
1.6 planos en R 3
z
u
. y
P
x
Figura 20: El plano P y u, un vector perpendicular al plano.
En este caso, es claro que el plano está determinado por un vector per-
pendicular al mismo, es decir si P es un plano que pasa por el origen y u es
un punto de R3 , no nulo, tal que u ⊥ P, entonces
P = {v ∈ R3 : ⟨v, u⟩ = 0}.
v ∈ P ⇔ v − v0 ∈ P0 ⇔ ⟨v − v0 , u⟩ = 0,
es decir
P = {v ∈ R3 : ⟨v − v0 , u⟩ = 0}.
Observemos que ⟨v − v0 , u⟩ = 0 sii ⟨v, u⟩ − ⟨v0 , u⟩ = 0 sii ⟨v, u⟩ = ⟨v0 , u⟩. Es
decir, si d = ⟨v0 , u⟩, tenemos
P = {v ∈ R3 : ⟨v, u⟩ = d}.
P = {(x, y, z) : ax + by + cz = d}.
2x − y + 3z = 5
3z = 5 − 2 + 1 = 4,
4
luego z = y entonces
3
4
(1, 1, )
3
es un punto en el plano.
Se dice que dos planos son paralelos (en el 3-espacio) si sus vectores norma-
les son paralelos, es decir son proporcionales. Se dice que son perpendiculares
si sus vectores normales son perpendiculares. El ángulo entre dos planos se
define como el ángulo entre sus vectores normales.
Como (a, b, c) ̸= (0, 0, 0), entonces una de las tres componentes del vector
normal al plano no es cero. Supongamos que a ̸= 0, luego es fácil despejar
x en función de las constantes a, b, c y d; y las variables y y z, por lo
tanto cada coordenada del plano depende paramétricamente de y y z y así
obtenemos una ecuación paramétrica de P (que depende de 2 parámetros).
Se puede hacer de forma análoga cuando b ̸= 0 o c ̸= 0.
Ejemplo. Dado el plano P = {(x, y, z) : x − 2y + z = 1}, hallaremos una
ecuación paramétrica de P. Como x − 2y + z = 1 sii x = 2y − z + 1, tenemos
que
P = {(2y − z + 1, y, z) : y, z ∈ R},
o, escrito de una forma más estándar,
P = {(2s − t + 1, s, t) : s, t ∈ R}.
Observemos que
P0 = {(x, y, z) : −x + 2y + z = 0}.
§ Ejercicios
Ejemplo.
(3) B1 = {(cos θ, sen θ, 0), (− sen θ, cos θ, 0), (0, 0, 1)} es una BON de R3
Demostración.
(4) B2 = {(3/5, 4/5, 0), (−4/5, 3/5, 0), (0, 0, 1)} es una BON de R3 .
Esto se prueba en fórma análoga al ítem anterior: primero se verifica
que todos los vectores tengan norma 1 y luego que dos vectores
distintos en B2 sean ortogonales.
Observación. Sea B = {v1 , . . . , vn } una base ortogonal de Rn , entonces si
vi
ui = el conjunto B ′ = {u1 , . . . , un } es una base ortonormal de Rn .
||vi ||
Recordemos que si C = {e1 , . . . , en } es la base canónica de Rn y v =
(x1 , . . . , xn ), entonces v = x1 e1 + x2 e2 + · · · + xn en . Como ⟨v, ei ⟩ = xi , pode-
mos reescribir
v = ⟨v, e1 ⟩e1 + ⟨v, e2 ⟩e2 + · · · + ⟨v, en ⟩en .
El siguiente teorema generaliza la fórmula anterior a cualquier base
ortonormal. La prueba la podremos hacer recién en el capítulo 6.
Teorema 1.7.2. Sea B = {u1 , . . . , un } una BON de Rn , y v ∈ Rn , entonces
v = ⟨v, u1 ⟩u1 + ⟨v, u2 ⟩u2 + · · · + ⟨v, un ⟩un .
La facilidad de escribir cualquier vector como combinación lineal de los
vectores de una base ortonormal es una propiedad de suma importancia
con aplicaciones en la física y la matemática.
Corolario 1.7.3. Sea B = {w1 , . . . , wn } una BO de Rn , y v ∈ Rn , entonces
⟨v, w1 ⟩ ⟨v, w2 ⟩ ⟨v, wn ⟩
v= w1 + w2 + · · · + wn .
⟨w1 , w1 ⟩ ⟨w2 , w2 ⟩ ⟨wn , wn ⟩
w1 wn
Demostración. Como {w1 , . . . , wn } es una BO, entonces ,...,
||w1 || ||wn ||
es una BON. Por lo tanto,
w1 w1 w2 w2 wn wn
v = ⟨v, ⟩ + ⟨v, ⟩ + · · · + ⟨v, ⟩
||w1 || ||w1 || ||w2 || ||w2 || ||wn || ||wn ||
⟨v, w1 ⟩ ⟨v, w2 ⟩ ⟨v, wn ⟩
= w 1 + w 2 + · · · + wn
||w1 ||2 ||w2 ||2 ||wn ||2
⟨v, w1 ⟩ ⟨v, w2 ⟩ ⟨v, wn ⟩
= w1 + w2 + · · · + wn .
⟨w1 , w1 ⟩ ⟨w2 , w2 ⟩ ⟨wn , wn ⟩
1.7 bases ortonormales en R n (*) 35
X
n X
n X
n
||v||2 = ⟨ ⟨v, ui ⟩ui , ⟨v, uj ⟩uj ⟩ = ⟨⟨v, ui ⟩ui , ⟨v, uj ⟩uj ⟩
i=1 j=1 i,j=1
X
n X
n
= ⟨v, ui ⟩⟨v, uj ⟩⟨ui , uj ⟩ = ⟨v, ui ⟩⟨v, ui ⟩
i,j=1 i1
X n
= ⟨v, ui ⟩2 .
i=1
X
k
⟨v, wj ⟩ X
k
⟨v, wj ⟩
⟨w, wi ⟩ = ⟨v − wj , wi ⟩ = ⟨v, wi ⟩ − ⟨wj , wi ⟩
⟨wj , wj ⟩ ⟨wj , wj ⟩
j=1 j=1
= ⟨v, wi ⟩ − ⟨v, wi ⟩ = 0.
⟨v, w1 ⟩ ⟨v, w2 ⟩
w = v− w1 − w2
||w1 ||2 ||w2 ||2
⟨(0, 1, 0), w1 ⟩ ⟨(0, 1, 0), w2 ⟩
= (0, 1, 0) − w1 − w2
||w1 || 2 ||w2 ||2
1 1
= (0, 1, 0) + (2, −1, 1) − (1, 1, −1)
6 3
1 1
= (0, − , − ).
2 2
es una BO.
(2) Por el corolario 1.7.3:
⟨v, w1 ⟩ ⟨v, w2 ⟩
u = v− w1 − w2
||w1 ||2 ||w2 ||2
⟨(1, 0, 0), w1 ⟩ ⟨(1, 0, 0), w2 ⟩
= (1, 0, 0) − w1 − w2
||w1 ||2 ||w2 ||2
1
= (1, 0, 0) − (1, 1, 0)
2
1 1
= ( , − , 0).
2 2
Por lo tanto la ecuación implícita del plano es
1 1
P = {(x, y, z) ∈ R3 : x − y = 0}.
2 2
§ Ejercicios
1) Probar que B2 = {(3/5, 4/5, 0), (−4/5, 3/5, 0), (0, 0, 1)} es una BON de
R3 y escribir (2, −1, 1) como combinación lineal de los vectores de la
base (ver teorema 1.7.2).
3) Sea
P = {(x, y, x) ∈ R3 : 2x − y − z = 0},
el plano definido por la ecuación normal. Encontrar la forma paramé-
trica del plano usando el procedimiento de Gram-Schmidt.
SISTEMAS LINEALES
2
En este capítulo estudiaremos en forma sistemática los sistemas de ecua-
ciones lineales, es decir las soluciones de un conjunto finito de ecuaciones
donde la relación entre las incógnitas se expresa en forma lineal.
Si hacemos 3 1 + 2 , obtenemos:
Esto nos dice que las soluciones son de la forma {(−x3 , −x3 , x3 ) : x3 ∈ R},
por ejemplo (−1, −1, 1) es solución y (1, 2, 3) no es solución.
39
40 sistemas lineales
1 x +2z = 1
2 x −3y +3z = 2 (S1)
3 2x −y +5z = 3
2 x −3y +3z = 2
(−1) 1 (−1) (x +2z) = (−1) · 1
2 −3y +z = 1
1 x +2z = 1
2 −3y +z = 1 (S2)
3 2x −y +5z = 3
Dado que (x, y, z) es solución del sistema (S2), entonces también vale que:
3 2x −y +5z = 3
(−2) 1 (−2) (x +2z) = (−2) · 1
3 −y +z = 1
1 x +2z = 1
2 −3y +z = 1 (S3)
3 −y +z = 1
2.1 sistemas de ecuaciones lineales 41
Dado que (x, y, z) es solución del sistema (S3), entonces también vale que:
2 −3y +z = 1
(−3) 3 (−3) (−y +z) = (−3) · 1
2 −2z = −2
1 x +2z = 1
2 z =1 (S4)
3 −y +z = 1
1 x +2z = 1
2 −y +z = 1 (S5)
3 z =1
Haciendo 1 −2 3 y 2 − 3 , obtenemos
x = −1
x = −1
−y =0 ⇒ y =0
z =1 z =1
y probamos que
x = −1 y = 0, z = 1.
x +2z = 1 x = −1
x −3y +3z = 2 a y = 0
2x −y +5z = 3 z = 1,
haciendo las “operaciones inversas” (que son del mismo tipo) podemos
llegar de
x = −1 x +2z = 1
y = 0 a x −3y +3z = 2.
z = 1. 2x −y +5z = 3
§ Ejercicios
Dado el sistema
(c1 a11 + c2 a21 + · · · + cm am1 )x1 + · · · + (c1 a1n + c2 a2n + · · · + cm amn )xn =
= c1 y1 + c2 y2 + · · · + cm ym ,
o, escrito de otra forma,
Xm X
m X
m
! !
ci ai1 x1 + · · · + ci ain xn = ci yi , (2.2.2)
i=1 i=1 i=1
Teorema 2.2.3. Dos sistemas de ecuaciones lineales equivalentes tienen las mismas
soluciones.
Demostración. Sea
equivalente a
1 x1 + 2x2 − 3x3 = 0
(S1)
2 3x1 − x2 + 5x3 = 0.
1 x1 + 2x2 − 3x3 = 0
(S2)
2 − 7x2 + 14x3 = 0.
2.2 equivalencia de sistemas de ecuaciones lineales 45
1 x1 + 2x2 − 3x3 = 0
(S3)
2 x2 − 2x3 = 0.
1 x1 + x3 = 0
(S4)
2 x2 − 2x3 = 0.
Luego x1 = −x3 y x2 = 2x3 , y esto nos dice que las soluciones son de la
forma {(−x3 , 2x3 , x3 ) : x3 ∈ R}.
Por otro lado, observar que
◦ a partir de (S4) podemos obtener (S3) reemplazando 1 por 1 +2 2 ;
1 2x1 − x2 + x3 = 1
2 x1 + 3x2 + 3x3 = 2
3 x1 + + 2x3 = 1.
El sistema es ahora
1 − x2 − 3x3 = −1
2 3x2 + x3 = 1
3 x1 + + 2x3 = 1.
1 − x2 − 3x3 = −1
2 −8x3 = −2
3 x1 + + 2x3 = 1.
46 sistemas lineales
1 − x2 − 3x3 = −1
2 x3 = 14
3 x1 + + 2x3 = 1.
Por lo tanto, x1 = 21 , x2 = 14 , x3 = 14 .
§ Ejercicios
2.3 matrices
a11 a12 · · · a1n x1 y1
.. .. .. .. = .. .
A= . . . . . (2.3.4)
am1 am2 · · · amn xn ym
En forma resumida:
AX = Y. (2.3.5)
Más adelante, veremos que esta notación tiene un sentido algebraico (el
término de la izquierda es un “producto de matrices”).
y
Fr + Fs = ar1 + as1 ai2 + as2 · · · ain + asn .
E1, E2 y E1 son las tres operaciones elementales por fila. Veamos más
precisamente el efecto que tienen ellas sobre matrices genéricas. Sea
F1
A = ... ,
Fm
entonces
2.3 matrices 49
Ejemplo. Sea
2 1
A = −1 0 .
4 −5
Ejemplificaremos las operaciones elementales
Teorema 2.3.3. A cada operación elemental por fila e le corresponde otra operación
elemental e′ (del mismo tipo que e) tal que e′ (e(A)) = A y e(e′ (A)) = A. En
otras palabras, la operación inversa de una operación elemental es otra operación
elemental del mismo tipo.
Demostración.
A ′ = [A|Y].
2x1 − x2 + x3 + 2x4 = 2
x1 − 4x2 − x4 = 1 (2.3.7)
2x1 + 6x2 − x3 + 3x4 = 0,
para xi ∈ R (1 ⩽ i ⩽ 4).
La matriz ampliada correspondiente a este sistema de ecuaciones es
2 −1 1 2 2
1 −4 0 −1 1 .
2 6 −1 3 0
2 −1 1 2 2 1 −4 0 −1 1
1 −4 0 −1 1 F−→ 1 ↔F2
2 −1 1 2 2
2 6 −1 3 0 2 6 −1 3 0
1 −4 0 −1 1 1 −4 0 −1 1
F2 −2F1 F −2F
−→ 0 7 1 4 0 3−→ 1 0 7 1 4 0
2 6 −1 3 0 0 14 −1 5 −2
1 −4 0 −1 1 1 −4 0 −1 1
F3 −2F2 F3 /(−3)
−→ 0 7 1 4 0 −→ 0 7 1 4 0
0 0 −3 −3 −2 0 0 1 1 23
1 −4 0 −1 1 1 −4 0 −1 1
F2 −F3 F2 /7
−→ 0 7 0 3 − 23 −→ 0 1 0 37 − 21 2
2 2
0 0 1 1 3 0 0 1 1 3
1 0 0 75 13
F1 +4F2 21
−→ 0 1 0 37 − 21 2
.
2
0 0 1 1 3
5 13
x1 + x4 =
7 21
3 2
x2 + x4 = −
7 21
2
x3 + x4 = ,
3
54 sistemas lineales
luego
5 13
x1 = − x4 +
7 21
3 2
x2 = − x4 −
7 21
2
x3 = −x4 + .
3
Por lo tanto, el conjunto de soluciones del sistema de ecuaciones (2.3.7) es
5 13 3 2 2
(− t + , − t − , −t + , t) : t ∈ R .
7 21 7 21 3
Luego, el sistema tiene infinitas soluciones parametrizadas por una variable
t ∈ R.
Ejemplo. Consideremos ahora el siguiente sistema sobre los números com-
plejos:
2x1 + ix2 = 0
−ix1 + 3x2 = 0 (2.3.8)
x1 + 2x2 = 0.
Al ser un sistema homogéneo x1 = x2 = 0 es solución. Veamos si hay otras
soluciones:
2 i 1 2 1 2 1 2
−i 3 F−→ 1 ↔F3 F +iF F −2F
−i 3 2−→1 0 3 + 2i 3−→ 1 0 3 + 2i
1 2 2 i 2 i 0 −4 + i
1 2 1 2 1 0
F2 /(3+2i) F3 −(−4+i)F2
−→ 0 1 −→ 0 1 F1−→−2F2
0 1 .
0 −4 + i 0 0 0 0
Luego el sistema (2.3.8) es equivalente al sistema x1 = x2 = 0, que resulta
ser la única solución.
§ Ejercicios
Ahora avanzaremos en una forma sistemática para hallar todas las solu-
ciones de un sistema de ecuaciones.
(la matriz cuadrada con 1’s en la diagonal y 0’s en las otras entradas).
Llamaremos a Idn la matriz identidad n × n.
Teorema 2.4.3. Toda matriz m × n sobre K es equivalente por fila a una matriz
escalón reducida por fila.
Demostración (*). Sea A = [aij ] una matriz m × n. Trabajaremos fila por fila,
de la primera a la última, de tal forma de ir encontrando matrices equiva-
lentes por fila en cada paso, con ciertas características que ya detallaremos.
Cuando terminemos llegaremos a una MRF.
Si la primera fila es nula pasamos a la segunda fila. Si la primera fila no
es nula sea a1k la primera entrada no nula, es decir
0 ··· 0 a1k · · · a1n
a21 · · · a2,k−1 a2k · · · a2n
A = .. .. .
. .
am1 · · · am,k−1 amk · · · amn
(donde los nuevos a1j son los originales divididos por a1k ).
Haciendo m − 1 equivalencias por fila (reemplazamos Fi por Fi − aik F1 )
podemos hacer nulas todas las entradas debajo del 1 principal y obtener la
matriz equivalente por fila
0 ··· 0 1 · · · a1n
a21 · · · a2,k−1 0 · · · a2n
A2 = ..
..
. .
am1 · · · am,k−1 0 · · · amn
1 1
1 − 12 1
2 −1 1 2 2 1 1 − 2 2 1
F1 /2 F2 −F1
1 −4 0 −1 −→ 1 −4 0 −1 −→ 0 − 7 − 1 −2
F −2F 2 2
2 6 −1 3 2 6 −1 3 3 1 0 7 −2 1
1 − 12 1 4 9
F2 /(− 27 ) 2 1 F1 + 1 F2 1 0 7 7
−→ 0 1 4 −→ 2 1 4
1 7 7
0 1
7 7
F3 −7F2
0 7 −2 1 0 0 −3 −3
1 0 74 97 1 0 0 57
4
F3 /(−3) F1 − 7 F3
−→ 0 1 17 47 −→ 0 1 0 3 .
7
1
0 0 1 1 F2 − 7 F3 0 0 1 1
x1 − 2x2 + x3 = 1
2x1 + x2 + x3 = 2
5x2 − x3 = 0.
donde las xj con j ̸= k1 , . . . , kr son variables libres y pueden tomar cualquier valor
en K.
Demostración. El hecho de que m < n nos garantiza que hay variable libres.
Luego en caso de habe solución, hay infinitas soluciones.
Lema 2.4.8. Sea R una matriz n × n escalón reducida por fila tal que no tiene filas
nulas. Entonces R = Idn .
Demostración. Como R es reducida por fila y no tiene filas nulas, cada fila
tiene un 1 en alguna entrada y en la columna donde está el 1 todos las
otras entradas son nulas, por lo tanto hay n 1’s principales distribuidos en
n columnas. Concluyendo: hay un 1 por columna y en esa columna todas
las demás entradas son nulas.
Ahora bien como R es una MERF, la primera fila contiene el 1 que está más
a la izquierda, que no puede estar en otra ubicación que no sea la primera
(pues si no la primera columna sería nula). Con el mismo razonamiento
vemos que en la segunda fila hay un 1 en la columna 2 y en general en la
fila k-ésima hay un 1 en la columna k. Luego R = Idn .
x1 = z1
x2 = z2
..
.
xn = zn
§ Ejercicios
es cuadrada de orden 3.
Denotaremos el conjunto de todas las matrices cuadradas de orden n con
entradas en K por Mn (K) o simplemente Mn si K está sobreentendido. Así,
en el ejemplo anterior A ∈ M3 .
Los elementos de la diagonal principal de una matriz cuadrada son aquellos
que están situados en la diagonal que va desde la esquina superior izquierda
hasta la inferior derecha. En otras palabras, la diagonal principal de una
matriz A = [aij ] está formada por los elementos a11 , a22 , . . . , ann . En el
ejemplo anterior la diagonal principal está compuesta por los elementos:
a11 = 1, a22 = 4 , a33 = 1.
Matriz diagonal y matriz escalar. Una matriz cuadrada, A = [aij ] de
orden n, es diagonal si aij = 0 , para i ̸= j . Es decir, si todos los elementos
situados fuera de la diagonal principal son cero. Por ejemplo, la siguiente
matriz es diagonal:
2 0 0 0
0 −1 0 0
0 0 5 0 . (3.1.1)
0 0 0 3
Un matriz n × n es escalar si es diagonal y todos los elementos de la
diagonal son iguales, por ejemplo, en el caso 4 × 4 las matrices escalares son
63
64 álgebra de matrices
c 0 0 0
0 c 0 0
, (3.1.2)
0 0 c 0
0 0 0 c
con c ∈ K.
Matriz unidad o identidad. Esta matriz ya la hemos definido anterior-
mente. Recordemos que es una matriz diagonal cuya diagonal principal está
compuesta de 1’s.
Más adelante veremos que la matriz identidad, respecto a la multiplica-
ción de matrices cuadradas, juega un papel similar al número 1 respecto a la
multiplicación de números reales o enteros (elemento neutro del producto).
Matriz nula. La matriz nula de orden m × n, denotada 0m×n o simplemen-
te 0 si m y n están sobreentendidos, es la matriz m × n cuyas entradas son
todas nulas (= 0).
Por ejemplo, la matriz nula 2 × 3 es
0 0 0
.
0 0 0
0 0 0 3
◦ Asociativa: A + (B + C) = (A + B) + C,
◦ Asociativa:
A Idn = A = Idm A,
◦ Distributiva:
y
(A + B)C = AC + BC, ∀ A, B ∈ Mm×n , C ∈ Mn×p .
https://es.wikipedia.org/wiki/Anillo_(matemática).
68 álgebra de matrices
A0 = Idn , Am = Am−1 A,
Observar que en el caso de que D sea una matriz escalar (es decir d1 = d2 =
· · · = dn ), DA es multiplicar por el mismo número todos los coeficientes de
A. En particular, en este caso, si A es n × n, DA = AD.
Si B es m × n, el lector podrá comprobar que
B diag(d1 , d2 , . . . , dn ) = d1 C1 d2 C2 · · · dn Cn ,
para k ∈ N.
3.2 operaciones con matrices 69
(A + B)2 = (A + B)(A + B)
= A(A + B) + B(A + B)
= AA + AB + BA + BB
= A2 + AB + BA + B2 ,
Por ejemplo,
−1 0 3 4 −2 0 6 8
2 5 1 −2 1 = 10 2 −4 2 .
3 2 1 −3 6 4 2 −6
70 álgebra de matrices
§ Ejercicios
3) Sean
1 −1 5 2 −2 3
A= , B= , C= .
3 −2 4 4 −4 1
Calcular
a) AB, b) (AB)C, c) BC, d) A(BC).
b)
A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
= .
A21 A22 B21 B22 A21 B11 + A22 B21 A21 B12 + A22 B22
c) Si c ∈ K,
A11 A12 cA11 cA12
c =
A21 A22 cA21 cA22
entonces
a11 a12 · · · a1n x1
.. .. .. ..
AX = . . . .
am1 am2 · · · amn xn
a11 x1 + a12 x2 + · · · + a1n xn y1
.
.. .
= = .. = Y
1 0 1 c
y .
c 1 0 1
0 1
.
1 0
1 si i = j e i ̸= k,
aij = c si i = j = k, (3.3.2)
̸ j.
0 si i =
Gráficamente,
k
↓
1 0 ··· 0
.. . . ..
. . .
k
→ 0 · · · c · · · 0
.. ..
..
. . .
0 ··· ··· 1
1 si i = j
aij = c si i = r, j = s, (3.3.3)
0 otro caso.
74 álgebra de matrices
Gráficamente,
r s
↓ ↓
1 0 ··· 0
.. . . . ..
. .
r 0 ··· 1 ··· c ··· 0
→.
.. .. ..
. .
. .. ..
.. . .
0 ··· ··· 1
Veamos ahora que, dada una matriz A, hacer una operación elemental
en A es igual a multiplicar A a izquierda por una matriz elemental. Más
precisamente:
Teorema 3.3.2. Sea e una operación elemental por fila y sea E la matriz elemental
E = e(Id). Entonces e(A) = EA.
Demostración. Hagamos la prueba para matrices 2 × 2. La prueba en general
es similar, pero requiere de un complicado manejo de índices.
E1. Sea c ∈ K, y sea e la operación elemental de a la fila 2 le sumarle la
fila 1 multiplicada por c. Entonces. E := e(Id2 ) resulta en la matriz
elemental:
c 0
E= .
0 1
Ahora bien,
c 0 a11 a12
EA =
0 1 a21 a22
c . a11 + 0 . a21 c . a12 + 0 . a22 c . a11 c . a12
= = = e(A).
0 . a11 + 1 . a21 0 . a12 + 1 . a22 a21 a22
3.3 matrices elementales 75
Luego
0 1 a11 a12 a21 a22
EA = = = e(A).
1 0 a21 a22 a11 a12
Demostración.
(⇒) Si B equivalente por filas a A existen operaciones elementales
e1 , . . . , ek tal que B = ek (ek−1 (· · · (e1 (A)) · · · )), más formalmente
§ Ejercicios
1) Sea
1 2 1
A = 2 3 1 .
7 11 4
Multiplicar por matrices elementales la matriz A hasta obtener la
matriz identidad.
2) Expresar
1 0
−3 3
como producto de dos matrices elementales.
3) Expresar
1 2 0
2 −1 0
3 1 2
como producto de matrices elementales.
1 1
2 −1
Ejemplo. La matriz tiene inversa 2 2 pues es fácil comprobar
0 1 0 1
que
2 −1 21 12
1 1
1 0 2 2 2 −1 1 0
= y = .
0 1 0 1 0 1 0 1 0 1 0 1
Proposición 3.4.2. Sea A ∈ Mn×n (K),
(1) sean B, C ∈ Mn×n (K) tales que BA = Idn y AC = Idn , entonces B = C;
(2) si A invertible la inversa es única.
Demostración. (1)
B = B Idn = B(AC) = (BA)C = Idn C = C.
(2) Sean B y C inversas de A, es decir BA = AB = Idn y CA = AC = Idn .
En particular, BA = Idn y AC = Idn , luego, por (1), B = C.
Definición 3.4.3. Sea A ∈ Mn×n (K) invertible. A la única matriz inversa de
A la llamamos la matriz inversa de A y la denotamos A−1 .
Veremos más adelante que si una matriz n × n admite una inversa a
izquierda, es decir si existe B tal que BA = Idn , entonces la matriz es
invertible. Lo mismo vale si A admite inversa a derecha.
Ejemplo. Sea A la matriz
2 1 −2
1 1 −2 .
−1 0 1
Entonces, A es invertible y su inversa es
1 −1 0
A−1 = 1 0 2 .
1 −1 1
Esto se resuelve comprobando que AA−1 = Id3 (por lo dicho más arriba es
innecesario comprobar que A−1 A = Id3 ).
Observación. No toda matriz tiene inversa, por ejemplo la matriz nula (cuyos
coeficientes son todos iguales a 0) no tiene inversa pues 0 . A = 0 ̸= Id.
También existen matrices no nulas no invertibles, por ejemplo la matriz
2 1
A=
0 0
no tiene inversa. Si multiplicamos a A por una cualquier matriz B = [bij ]
obtenemos
2 1 b11 b12 2b11 + b21 2b12 + b22
AB = = .
0 0 b21 b22 0 0
Luego AB, al tener una fila idénticamente nula, no puede ser nunca la
identidad.
78 álgebra de matrices
(B−1 A−1 )AB = B−1 (A−1 A)B = B−1 Idn B = B−1 B = Idn ,
Luego E1 = E−1 .
(1) Si c ̸= 0,
−1 −1
c 0 1/c 0 1 0 1 0
= y = ,
0 1 0 1 0 c 0 1/c
3.4 matrices invertibles 79
(2) si c ∈ K, ,
−1 −1
1 0 1 0 1 c 1 −c
= y = .
c 1 −c 1 0 1 0 1
(3) Finalmente,
−1
0 1 0 1
= .
1 0 1 0
k
↓
1 0 ··· 0 1 0 ··· 0
.. . . .. .. . . ..
. . . . . .
k
La inversa de → 0 · · · c · · · 0 es 0 · · · 1/c · · · 0
.. . . .. .. . . ..
. . . . . .
0 ··· ··· 1 0 ··· ··· 1
(2)
r s
↓ ↓
1 0 ··· 0
.. . . . ..
. .
r 0 ··· 1 ··· c ··· 0
→
La inversa de .
.. .. ..
. .
. .. ..
.. . .
0 ··· ··· 1
1 0 ··· 0
.
. ... ..
. .
0 · · · 1 · · · −c · · · 0
es .
.. .. .. .
. .
. .. ..
.. . .
0 ··· ··· 1
(3)
80 álgebra de matrices
r s
↓ ↓
1 ··· ··· ··· 0
.. .. ..
.
. .
r 0 ··· 0 ··· 1 ··· 0
→
.. .. ..
La inversa de . . . es la misma matriz.
s
→0 · · · 1 · · · 0 · · · 0
.. . . ..
. . .
0 ··· ··· ··· 1
(1) A es invertible,
Demostración.
(1) ⇒ (2) Sea R la matriz escalón reducida por fila equivalente por filas a
A. Entonces, existen E1 , . . . , Ek matrices elementales tal que E1 , . . . , Ek A = R.
Como las matrices elementales son invertibles, el producto de matrices
elementales es invertible, luego E1 , . . . , Ek es invertible y por lo tanto R =
E1 , . . . , Ek A es invertible.
Recordemos que las matrices escalón reducidas por fila si tienen filas
nulas, ellas se encuentran al final. Ahora bien, si la última fila de R es nula
entonces, RB tiene la última fila nula también y por lo tanto no puede ser
igual a la identidad, es decir, en ese caso R no es invertible, lo cual produce
un absurdo. Concluyendo: la última fila (la fila n) de R no es nula y como
es MERF, R no tiene filas nulas. Por lo tanto R = Idn (lema 2.4.8) y, entonces,
A es equivalente por filas a Idn .
(2) ⇒ (3) Como A es equivalente por filas a Idn , al ser la equivalencia
por filas una relación de equivalencia, tenemos que Idn es equivalente
por filas a A, es decir existen E1 , . . . , Ek matrices elementales, tales que
E1 E2 , . . . , Ek Idn = A. Por lo tanto, A = E1 E2 , . . . , Ek producto de matrices
elementales.
(3) ⇒ (1) Sea A = E1 E2 , . . . , Ek donde Ei es una matriz elemental (i =
1, . . . , k). Como cada Ei es invertible, el producto de ellos es invertible, por
lo tanto A es invertible.
Demostración.
(⇒) B es equivalente por filas a A, luego existe P matriz producto de
matrices elementales tal que B = PA. Como cada matriz elemental es
invertible (teorema 3.4.5) y el producto de matrices invertibles es invertible
(teorema 3.4.4 (2)), se deduce que P es invertible.
(⇐) Sea P matriz invertible tal que B = PA. Como P es invertible, por el
teorema anterior, P es producto de matrices elementales, luego B = PA es
equivalente por filas a A.
Corolario 3.4.8. Sea A matriz n × n. Sean e1 , . . . , ek las operaciones elementales
por filas que reducen a A a una MERF y esta MERF es la identidad, es decir
e1 (e2 (· · · (ek (A)) · · · )) = Idn . Entonces, A invertible y las mismas operaciones
elementales aplicadas a Idn nos llevan a A−1 , es decir e1 (e2 (· · · (ek (Idn )) · · · )) =
A−1 .
Demostración. Por el teorema anterior, al ser A equivalente por filas a la
identidad, A es invertible. Sean las matrices elementales Ei = ei (Idn ) para
i = 1, . . . , k, entonces (ver corolario 3.3.3) E1 E2 . . . Ek A = Idn , por lo tanto,
multiplicando por A−1 a derecha en ambos miembros,
E1 E2 . . . Ek AA−1 = Idn A−1 ⇔
E1 E2 . . . Ek Idn = A−1 ⇔
−1
e1 (e2 (· · · (ek (Idn )) · · · )) = A .
i) A es invertible.
ii) El sistema AX = Y tiene una única solución para toda matriz Y de orden
n × 1.
Demostración.
i) ⇒ ii) Sea X0 solución del sistema AX = Y, luego
1 −1 2
Ejemplo. Calcular la inversa (si tiene) de la matriz A = 3 2 4 .
0 1 −2
Solución.
1 −1 2 1 0 0 1 −1 2 1 0 0
F −3F F2 ↔F3
3 2 4 0 1 0 2−→ 1 0 5 −2 −3 1 0 −→
0 1 −2 0 0 1 0 1 −2 0 0 1
1 −1 2 1 0 0 1 0 0 1 0 1
F1 +F2 F −5F
−→ 0 1 −2 0 0 1 −→ 0 1 −2 0 0 1 3−→ 2
0 5 −2 −3 1 0 0 5 −2 −3 1 0
1 0 0 1 0 1 1 0 0 1 0 1
F3 /8 F +2F
−→ 0 1 −2 0 0 1 −→ 0 1 −2 0 0 1 2−→ 3
0 0 8 −3 1 −5 0 0 1 − 38 1
8 −8
5
1 0 0 1 0 1
−→ 0 1 0 − 34 14 − 14 .
0 0 1 − 38 18 − 58
Por lo tanto
1 0 1
A−1 = − 34 1
4 − 41
− 38 1
8 − 85
a b
Ejemplo. Dados a, b, c, d ∈ R, determinar cuando la matriz A = es
c d
invertible y en ese caso, cual es su inversa.
b b
b 1 1
a b F1 /a 1 F2 −cF1 a a
−→ a −→ =
c d b ad − bc
c d 0 d−c 0
a a
Si ad − bc = 0, entonces la matriz se encuentra reducida por filas y la última
fila es 0, luego en ese caso no es invertible. Si ad − bc ̸= 0, entonces
b
1 b
a a/(ad−bc) F2 1 F1−b/a F2 1 0
−→ a −→ .
ad − bc 0 1
0 0 1
a
Luego, en el caso a ̸= 0, ad − bc ̸= 0 hemos reducido por filas la matriz A
a la identidad y por lo tanto A es invertible. Además, podemos encontrar
84 álgebra de matrices
d 1
−
bc c 1
d −b
−1
A = = .
1 −bc −c 0
0
b
Es decir, la expresión de la inversa es igual a (3.4.1) (considerando que
a = 0).
Reuniendo los dos casos: A es invertible si a ̸= 0 y ad − bc ̸= 0 o si
a = 0 y bc ̸= 0, pero esto es lógicamente equivalente a pedir solamente
ad − bc ̸= 0, es decir
(a ̸= 0 ∧ ad − bc ̸= 0) ∨ (a = 0 ∧ bc ̸= 0) ⇔ ad − bc ̸= 0
(ejercicio).
3.4 matrices invertibles 85
a b
Resumiendo, es invertible ⇔ ad − bc ̸= 0 y en ese caso, su inversa
c d
viene dada por
−1
a b 1 d −b
= (3.4.2)
c d ad − bc −c a
Veremos en la próxima sección que el uso de determinantes permitirá
establecer la generalización de este resultado para matrices n × n con n ⩾ 1.
§ Ejercicios
3.5 determinante
El determinante puede ser pensado como una función que a cada matriz
cuadrada n × n con coeficientes en K, le asocia un elemento de K. En
esta sección veremos como se define esta función y algunas propiedades
de la misma. Algunas demostraciones se omitirán, pues se pondrá énfasis
en los usos del determinante y no tanto en sus propiedades teóricas. Las
demostraciones faltantes se pueden ver en el Apéndice D.
El determinante, permite, entre otras cosas,
◦ determinar si una matriz cuadrada es invertible,
(n) si n > 1,
det(A) = a11 det A(1|1) − a21 det A(2|1) + · · · + (−1)1+n an1 det A(n|1)
Xn
= (−1)1+i ai1 det A(i|1).
i=1
3.5 determinante 87
a22 a23 a a a a
det A = a11 − a21 12 13 + a31 12 13
a32 a33 a32 a33 a22 a23
= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 +
a12 a23 a31 − a13 a22 a31 .
88 álgebra de matrices
det A = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 +
a13 a21 a32 + a12 a23 a31 − a13 a22 a31 , (3.5.3)
+
a11 a12 a13
+
a21 a22 a23
+
a31 a32 a33 (3.5.4)
−
a11 a12 a13
−
a21 a22 a13
−
Es decir,
(a) se suman a11 a22 a33 , a21 a32 a13 , a31 a12 a23 , y
(b) se restan a31 a22 a13 , a11 a32 a23 , a21 a12 a33 .
1 −2 2
A = 3 −1 1 .
2 5 4
3.5 determinante 89
+
1 −2 2
+
3 −1 1
+
2 5 4 .
−
1 −2 2
−
3 −1 1
−
Luego
solo tiene un término, pues esta columna solo tiene un coeficiente no nulo,
el d1 en la primera posición. Por lo tanto,
(HI)
det(A) = d1 det(A(1|1)) = d1 .(d2 . . . . .dn ).
luego
ca11 ca12
det e = det = ca11 a22 − ca12 a21
a21 a22
y
′ a11 a12
det e = det = ca11 a22 − ca12 a21 .
ca21 ca22
Por lo tanto, det e(A) = det e ′ (A) = c det A.
Por lo tanto,
a11 a12
det = a11 (a22 + ca12 ) − a12 (a21 + ca11 )
a21 + ca11 a22 + ca12
= a11 a22 + ca11 a12 − a12 a21 − ca12 a11
= a11 a22 − a12 a21
= det A.
por lo tanto
a21 a22
det e(A) = det = a21 a12 − a22 a11 = − det A.
a11 a12
Por lo tanto,
Ejemplo. Si
a11 a12 a13
A = a21 a22 a23 ,
a31 a32 a33
entonces
a11 a21 a31
At = a12 a22 a32 .
a13 a23 a33
Ejemplo. Si
1 2
A = 3 4 ,
5 6
entonces
1 3 5
t
A = .
2 4 6
En general At es la matriz cuyas filas son las columnas de A y viceversa.
Ejemplo. Si
1 2 3
A = 2 −1 4 ,
3 4 7
entonces At = A, es decir A es simétrica.
Proposición 3.5.13. Sea A matriz m × n.
(1) (At )t = A.
(AB)t = Bt At .
por lo tanto
1 c 1 0
Et1 = t
= E2 y E2 = = E1 ,
0 1 c 1
por lo tanto Et = E
Demostración. (1) Si A tiene dos columnas iguales, entonces At tiene dos filas
iguales, luego, por corolario 3.5.8 (1), det At = 0 y por lo tanto det A = 0.
(2) Si A tiene una columna nula, entonces At tiene una fila nula, luego,
3.5.8 (2), det At = 0 y por lo tanto det A = 0.
X
n
det A = aij Cij
i=1
= a1j C1j + a2j C2j + · · · + anj Cnj .
3.5 determinante 97
§ Ejercicios
0 0 1 0 2 1 3 2
2) Sea A ∈ Rn×n .
a) Probar que det(−A) = (−1)n det(A).
b) Diremos que A es antisimétrica si At = −A. Probar que si n es
impar y A antisimétrica, entonces det(A) = 0.
a) Probar que
A 0
det = det(A) det(B).
0 B
e) Probar que
A B A 0
det = det .
0 Id 0 Id
[Ayuda: las operaciones elementales de fila de tipo E1 no cambian
el determinanate.]
f) Probar (3.5.7).
{t1 v + t2 w : 0 ⩽ t1 ⩽ 1, 0 ⩽ t2 ⩽ 1}
ad − bd
| sen(θ)| = .
||v||||w||
Av = λv.
Idn v = v
0 1 1
Ejemplo. 0 es un autovalor de y es un autovector asociado a
0 0 0
0 pues
0 1 1 0 1
= =0
0 0 0 0 0
1
Esta matriz tiene autovalores 1 y 5. El vector 0 tiene autovalor 5, el
−2
0 1
vector 1 tiene también autovalor 5 y el vector −1 tiene autovalor 1.
2 0
1
Comprobemos esto, por ejemplo, para el vector 0 :
−2
1 3 2 −1 1 3+0+2 5 1
B 0 = 2 3 1
0 = 2+0−2 =
0 = 5 0 .
−2 0 0 5 −2 0 + 0 − 10 −10 −2
1
Es decir, 5 es autovalor de B y 0 es un autovector asociado a 5.
−2
Análogamente,
0 3 2 −1 0 0+2−2 0 0
B 1 = 2 3 1 1 = 0 + 3 + 2 = 5 = 5 1 .
2 0 0 5 2 0 + 0 + 10 10 2
y
1 3 2 −1 1 3−2+0 1 1
B −1 = 2 3 1 −1 = 2 − 3 + 0 = −1 = 1 −1 .
2 0 0 5 0 0+0+0 0 0
Luego, por (3.6.1) y (3.6.2), −x2 = λx1 y x1 = λx2 , entonces −x2 = λx1 = λ2 x2 .
Si λ ̸= 0, entonces λ2 > 0, y eso implica que x2 = 0 y en consecuencia
x1 = 0.
x 0
Si λ = 0, también x1 = x2 = 0. Es decir, en ambos casos 1 = y no es
x2 0
autovector.
Veremos más adelante que si permitimos autovalores complejos entonces
esta matriz tiene autovalores.
Definición 3.6.3. Dado i ∈ {1, ..., n}, como ya vimos se denota ei al vector
columna de Kn cuyas coordenadas son todas ceros excepto la coordenada i
que es un 1
0
..
.
ei = 1
..
.
0
(λ − µ)vn 0
Av = λv ⇐⇒ λv − Av = 0 ⇐⇒ (λ Id −A)v = 0.
det(λ Id −A) = 0.
◦ det(λ Id −A) = 0
Esta es casi la respuesta a nuestro problema. Para dar una respuesta más
operativa introducimos el siguiente polinomio.
Demostración.
λ es autovalor ⇔ existe v ̸= 0 tal que Av = λv
⇔ 0 = λv − A = λ Id v − Av = (A − λ Id)v
(λi Id −A)X = 0.
2 − 3 2 x1 0 −1 2 x1 0
= o, equivalentemente, = (S2)
−1 2 x2 0 −1 2 x2 0
−2 2 F1 −2F2 0 0
(S1) −→ ⇒ −x1 + x2 = 0 ⇒ (t, t) es solución.
−1 1 −1 1
−1 2 F2 −F1 −1 2
(S2) −→ ⇒ −x1 + 2x2 = 0 ⇒ (2t, t) es solución.
−1 2 0 0
De lo anterior concluimos:
V1 = {t(1, 1) : t ∈ R}.
V2 = {t(2, 1) : t ∈ R}.
106 álgebra de matrices
0 −1
Ejemplo. Sea A = ∈ R2 . Encontrar los autovalores reales de A.
1 0
x 1
Solución. x Id −A = , luego
−1 x
χA (x) = x2 + 1.
y este polinomio sí tiene raíces complejas: i y −i, por lo tanto i y −i son los
autovalores de A.
Averigüemos los autovalores planteando los sistemas de ecuaciones co-
rrespondientes, es decir λ Id x − A = 0 para λ = i, −i:
i 1 x1 0
= , (S1)
−1 i x2 0
−i 1 x1 0
= . (S2)
−1 −i x2 0
Resolvamos
los
sistemas:
i 1 F2 −iF1 i 1
(S1) −→ ⇒ ix1 + x2 = 0 ⇒ (ω, −iω) es solución (ω ∈
−1 i 0 0
C).
−i 1 F1 −iF2 0 0
(S2) −→ ⇒ −x1 − ix2 = 0 ⇒ (−iω, ω) es solución
−1 −i −1 −i
(ω ∈ C).
Luego A tiene dos autovalores, i y −i, y
0 −1 1 i 1
= =i .
1 0 −i 1 −i
0 −1 −i −1 −i
= = (−i) .
1 0 1 −i 1
Para t = 1 obtenemos el autovector (1, −1, 0). Es decir, el vector con autovalor
1 del ejercicio 3.6.2.
§ Ejercicios
ÁLGEBRA LINEAL
E S PA C I O S V E C T O R I A L E S
4
En este capítulo estudiaremos en forma general las combinaciones li-
neales sobre conjuntos abstractos. En el primer capítulo desarrollamos el
método de Gauss para la resolución de sistemas de ecuaciones lineales. En
el método de Gauss se usan sistemáticamente las combinaciones lineales
de las filas de una matriz. Podemos ver estas filas como elementos de Kn
y nuestro primer impulso para el estudio de las combinaciones lineales
sería trabajar en este contexto, es decir en Kn . Sin embargo, muchos de los
resultados sobre combinaciones lineales en Kn son aplicables también a
conjuntos más generales y de gran utilidad en la matemática. Por lo tanto,
en este capítulo nuestros “espacios vectoriales” (espacios donde pueden
hacerse combinaciones lineales de vectores) serán espacios abstractos, pero
usualmente haremos referencia a los espacios vectoriales “concretos” (los
Kn ) que ya conocemos.
S4. Para cada v ∈ V, existe un único vector −v tal que v + (−v) = (−v) +
v = 0 (existencia de opuesto o inverso aditivo).
111
112 espacios vectoriales
v + w + u := (v + w) + u = v + (w + u).
v − w := v + (−w),
V = {(x1 , x2 , . . . , xn ) : xi ∈ K, 1 ⩽ i ⩽ n} = Kn .
S1. x + y = y + x, pues xi + yi = yi + xi , 1 ⩽ i ⩽ n.
Si λ ∈ K,
(λp)(x) = λan xn + · · · + λa1 x + λa0 .
Por ejemplo,
(3) si λ ∈ K, v ∈ V, v ̸= 0 y λ · v = 0, entonces λ = 0;
§ Ejercicios
3) Sea
Xm X
n
K[x, y] := aij xi yj : m, n ∈ N0 , aij ∈ K .
i=0 j=0
5) Sea
RN := {(t1 , t2 , t3 , . . .) : ti ∈ R, i ∈ N}
el conjunto de sucesiones de números reales. Probar que con la suma
coordenada a coordenada y la multiplicación por escalares coordenada
a coordenada RN es un espacio vectorial.
6) Sea
R(N) := {(t1 , t2 , t3 , . . .) : ti ∈ R ∧ |ti ̸= 0| < ∞}
el conjunto de sucesiones de finitas de números reales. Probar que con
la suma coordenada a coordenada y la multiplicación por escalares
coordenada a coordenada R(N) es un espacio vectorial.
b) si λ ∈ K y w ∈ W, entonces λw ∈ W.
Demostración. Para que W sea espacio vectorial sus operaciones deben satis-
facer los axiomas de la definición de espacio vectorial (definición 4.1.1).
Por la observación 4.2.2, el 0 del espacio vectorial pertenece al subespacio.
Por la observación 4.2.3 concluimos que −w ∈ W. Es decir el opuesto de
un vector en W también pertenece a W.
Teniendo en cuenta estos dos hechos y que las operaciones en V satisfacen
los axiomas de la definición 4.1.1 (y por lo tanto en W también), queda
demostrado que W, con las operaciones heredadas de V, es espacio vectorial.
4.2 subespacios vectoriales 117
W = {λv : λ ∈ K}
W = {(0, x2 , . . . , xn ) : xi ∈ K (2 ⩽ i ⩽ n)} .
[(A + B)t ]ij = aji + bji = [A]ji + [B]ji = [A]ij + [B]ij = [A + B]ij ,
por lo tanto A + B ∈ W.
118 espacios vectoriales
por lo tanto λA ∈ W.
v = λ1 v 1 + · · · + λn v n .
Ejemplo 4.2.6.
(1) Sean v1 = (1, 0), v2 = (0, 1) en C2 ¿es v = (i, 2) combinación lineal de
v1 , v2 ? La respuesta es sí, pues
v = iv1 + 2v2 .
v = λ 1 v 1 + λ2 v 2 ,
entonces
(i, 2) = (λ1 , 0) + (0, λ2 ) = (λ1 , λ2 ),
luego λ1 = i y λ2 = 2.
Puede ocurrir que un vector sea combinación lineal de otros vectores
de varias formas diferentes. Por ejemplo, si v = (i, 2) y v1 = (1, 0),
v2 = (0, 1), v3 = (1, 1), tenemos que
(2) Sean (0, 1, 0), (0, 1, 1) en C3 ¿es (1, 1, 0) combinación lineal de (0, 1, 0),
(0, 1, 1)? La respuesta es no, pues si (1, 1, 0) = λ1 (0, 1, 0) + λ2 (0, 1, 1),
entonces
λ1 + λ2 = 7
−5λ1 − λ2 = 5
2λ1 + λ2 = 4.
W = {λ1 v1 + · · · + λk vk : λ1 , . . . , λk ∈ K}
(λ1 v1 + · · · + λk vk ) + (µ1 v1 + · · · + µk vk ) = λ1 v1 + µ1 v1 + · · · + λk vk + µk vk
= (λ1 + µ1 )v1 + · · · + (λk + µk )vk ,
W = ⟨v1 , . . . , vk ⟩, o
W = gen {v1 , . . . , vk } o
W = span {v1 , . . . , vk } .
donde aij son las coordenadas de los vj . Como vimos en la sección 2.4,
donde estudiamos
el método de eliminación de Gauss, de la matriz am-
pliada original A b podemos obtener una MERF equivalente A ′ b ′ .
P
xk1 + a ′ xj = b1′
Pj̸=k1 ,...,kr 1j ′
xk2 + j̸=k1 ,...,kr a2j xj = b2′
.. ..
. .
P ′
xkr + j̸=k1 ,...,kr arj xj = br′
0 ′
= br+1
..
.
0 ′ ,
= bm
donde k1 < k2 < · · · < kr . Por lo tanto, el sistema tiene solución si y solo si
′
br+1 ′ = 0. Luego,
= · · · = bm
′ ′
W = {(b1 , b2 , . . . , bm ) ∈ Km : br+1 = · · · = bm = 0}.
′
Las ecuaciones br+1 ′ = 0 son las ecuaciones implícitas que
= · · · = bm
definen a W y nos permiten decidir rápidamente si un vector pertenece o
no a W, simplemente viendo si sus coordenadas satisfacen las ecuaciones.
y el subespacio W = ⟨v1 , v2 , v3 , v4 ⟩.
En otras palabras, queremos describir implícitamente el conjunto de los
b = (b1 , b2 , b3 , b4 ) ∈ R4 tales que b ∈ ⟨v1 , v2 , v3 , v4 ⟩.
O sea, los b = (b1 , b2 , b3 , b4 ) ∈ R4 tales que
b = λ 1 v 1 + λ2 v 2 + λ 3 v 3 + λ 4 v 4 (*)
⟨v1 , v2 , v3 , v4 ⟩ =
{(b1 , b2 , b3 , b4 ) ∈ R4 | b1 + 3b2 − 3b3 = 0, 3b2 − b3 + b4 = 0}.
Apliquemos este resultado a vectores concretos ¿el vector (21, 5, 12, −3)
pertenece al subespacio generado por v1 , v2 , v3 , v4 ? La respuesta es sí, pues
b1 + 3b2 − 3b3 = 21 + 3 · 5 − 3 · 12 = 21 + 15 − 36 = 0
3b2 − b3 + b4 = 3 · 5 − 12 + (−3) = 15 − 12 − 3 = 0.
b1 + 3b2 − 3b3 = −3 + 3 · 1 − 3 · 0 = −3 + 3 = 0
3b2 − b3 + b4 = 3 · 1 + 1 = 3 + 1 = −4 ̸= 0.
S1 + · · · + Sk := {s1 + · · · + sk : si ∈ Si , 1 ⩽ i ⩽ k} ,
Demostración. Sean v = v1 + · · · + vk y w = w1 + · · · + wk en W y λ ∈ K.
Entonces
y sea W = ⟨v1 , v2 , v3 ⟩.
Ahora bien, w ∈ W, si y sólo si w = λ1 v1 + λ2 v2 + λ3 v3 , con λ1 , λ2 , λ3 ∈
C. Es decir
§ Ejercicios
L := {(x, y, z) ∈ R3 : ax + by + cz = d ∧ a ′ x + b ′ y + c ′ z = d ′ }
X⊥ = {v ∈ Rn : v ⊥ x, ∀ x ∈ X}.
es un subespacio de K[x].
V = U ⊕ W,
si V = U + W y U ∩ W = 0.
a) Demostrar que V = U ⊕ W si y solo si para todo v ∈ V existen
únicos u ∈ U, w ∈ W tal que v = u + w.
b) Demostrar que si V = U ⊕ W, Entonces
Ejemplo. En R3 los vectores (1, −1, 1) y (−1, 1, 1) son LI, pues si λ1 (1, −1, 1) +
λ2 (−1, 1, 1) = 0, entonces 0 = (λ1 , −λ1 , λ1 ) + (−λ2 , λ2 , λ2 ) = (λ1 − λ2 , −λ1 +
λ2 , λ1 + λ2 ), y esto es cierto si
λ1 − λ 2 = 0
−λ1 + λ2 = 0 .
λ1 + λ 2 = 0
v1 = ( 3, 0, −3)
v2 = (−1, 1, 2)
v3 = ( 4, 2, −2)
v4 = ( 2, 1, 1)
e1 = (1, 0, 0)
e2 = (0, 1, 0)
e3 = (0, 0, 1)
λ1 v1 + · · · + λn vn = (0, . . . , 0),
(1) B genera a V, y
(2) B es LI.
4.3 bases y dimensión 129
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
......
en = (0, 0, 0, . . . , 1)
(ei es el vector con todas sus coordenadas iguales a cero, excepto la coor-
denada i que vale 1). Entonces veamos que {e1 , . . . , en } es una base de
Kn .
Probemos que e1 , . . . , en genera Kn : si (x1 , . . . , xn ) ∈ Kn , entonces
(x1 , . . . , xn ) = x1 e1 + · · · + xn en .
x1 e1 + · · · + xn en = 0,
entonces
PX = x1 C1 + · · · + xn Cn .
Y = x1 C1 + · · · + xn Cn .
1 si i = k y j = l,
[Eij ]kl =
0 otro caso.
luego {Eij }1⩽i⩽m,1⩽j⩽n genera Mm×n (K). También, por la ecuación (4.3.1),
P Pn
es claro que si m i=1 j=1 aij Eij = 0, entonces aij = 0 para todo i y j. Luego,
{Eij }1⩽i⩽m,1⩽j⩽n es LI.
Concluyendo, {Eij }1⩽i⩽m,1⩽j⩽n es una base de Mm×n (K) y se la denomina
la base canónica de Mm×n (K).
Observación. ¿Todo espacio vectorial tiene una base? La respuesta es sí. Sin
embargo, la demostración de este hecho no es sencilla y requiere de he-
rramientas de la teoría de conjuntos, en particular del Lema de Zorn. El
lector interesado podrá ver el artículos sobre bases de un espacio vecto-
rial en la Wikipedia: https://es.wikipedia.org/wiki/Base_(álgebra) y una
demostración de la existencia de bases para cualquer espacio vectorial
en http://fernandorevilla.es/blog/2014/06/22/existencia-de-base-en-todo-
espacio-vectorial.
Más allá, de la dificultad en la demostración, supondremos siempre que
todo espacio vectorial tiene una base.
Si S es un conjunto finito denotemos |S| al cardinal de S es decir, la cantidad
de elementos de S.
Teorema 4.3.3. Sea V un espacio vectorial generado por un conjunto finito de
vectores w1 , . . . , wm . Entonces todo conjunto independiente de vectores de V es
finito y contiene a lo más m elementos.
4.3 bases y dimensión 131
X
n
x1 v1 + · · · + xn vn = xj vj
j=1
Xn X
m
= xj aij wi
j=1 i=1
XX
n m
= (xj aij )wi
j=1 i=1
Xm X n
= ( xj aij )wi . (∗)
i=1 j=1
Ejemplo. Sean m, n ∈ N.
(2) dim Mm×n (K) = mn, pues la base canónica de Mm×n (K) tiene mn
elementos.
Demostración.
λ1 v1 + · · · + λn vn = 0.
Sm = S0 ∪ {w1 , . . . , wm }
Demostración. Sea
C = {|R| : R ⊆ S ∧ R es LI}.
y
{u1 , . . . , uk , w1 , . . . , wm } es una base de W2 .
Es claro que, el subespacio W1 + W2 es generado por los vectores
u1 , . . . , uk , v1 , . . . , vn , w1 , . . . , wm .
dim W1 + dim W2 = (k + n) + (k + m)
= k + (k + n + m)
= dim(W1 ∩ W2 ) + dim(W1 + W2 ).
136 espacios vectoriales
§ Ejercicios
3) Encuentre una base para cada uno de estos subespacios del espacio
K4 [x] de los polinomios de grado menor o igual a 3.
a) El subespacio de polinomios p(x) en K4 [x] tal que p(7) = 0.
b) El subespacio de polinomios p(x) tal que p(7) = 0 y p(5) = 0.
c) El subespacio de polinomios p(x) tal que p(7) = 0, p(5) = 0 y
p(3) = 0.
d) El espacio de polinomios p(x) tal que p(7) = 0, p(5) = 0, p(3) = 0.
y p(1) = 0.
Dada A ∈ Mm×n (K), ya hemos visto que las soluciones del sistema
AX = 0 forman un subespacio vectorial. Sea R la MERF equivalente por
filas a A y r la cantidad de filas no nulas de R. Ahora bien, cada fila no nula
está asociada a una variable principal y las n − r variables restantes son
variables libres que generan todas las soluciones. El hecho de que tenemos
n − r variables libres no dice que hay n − r vectores LI que generan W,
y por lo tanto, dim W = n − r. Esto lo veremos en el ejemplo que sigue.
La demostración de hecho mencionado más arriba se verá en el capítulo
correspondiente a transformaciones lineales (capítulo 5).
Ejemplo. Encontrar una base del subespacio
x − y − 3z + w = 0
W= (x, y, z, w) ∈ R : .
y + 5z + 3w = 0
x + 2z + 4w = 0
y + 5z + 3w = 0,
es decir
x = −2z − 4w
y = −5z − 3w,
y entonces
Concluimos entonces que (−2, −5, 1, 0), (−4, −3, 0, 1) es una base de W y,
por lo tanto, su dimensión es 2.
Ejemplo. Sea
1 2 0 3 0
A = 0 0 1 4 0 ∈ C3×5 ,
0 0 0 0 1
entonces, por definición, el espacio fila es el subespacio generados por las
filas de la matriz:
También, como vimos en (1) del ejemplo de la página 124, el espacio fila
puede ser caracterizado de forma implícita:
donde las filas son los vectores v1 , . . . , vm . Luego calculamos R, una MRF
equivalente por filas a A, y si R tiene r filas no nulas, las r filas no nulas son
una base de W y, por consiguiente, dim W = r.
Ejemplo. Encontrar una base de W = ⟨(1, 0, 1), (1, −1, 0), (5, −3, 2)⟩.
Solución. Formemos la matriz cuyas filas son los vectores que generan W,
es decir
1 0 1
A = 1 −1 0 .
5 −3 2
Entonces
1 0 1 1 0 1 1 0 1 1 0 1
1 −1 0 F−→
2 −F1 −F2
0 −1 −1 −→ 0 1 F −3F
1 3−→ 2 0 1 1 .
F −5F
5 −3 2 3 1 0 −3 −3 0 −3 −3 0 0 0
El método que nos provee el corolario 4.4.3 nos permite encontrar una base
de un subespacio vectorial de Kn a partir de un conjunto de generadores
del subespacio. Como vimos en el teorema 4.3.12, en todo conjunto finito
de generadores existe un subconjunto que es una base. El siguiente teorema
nos permite encontrar uno de tales subconjuntos.
140 espacios vectoriales
es la MRF de A.
Si vr ̸∈ W ′ , entonces vi1 , vi2 , . . . , vis , vr es una base de W (lema 4.3.7) y la
MRF de A tiene la última fila no nula.
Ejemplo. Sea S = {(1, 0, 1), (1, −1, 0), (5, −3, 2)} y W = ⟨S⟩. Encontrar una
base de W que sea un subconjunto de S.
y que la misma se obtiene sin usar permutaciones. Esta matriz tiene las
dos primeras filas no nulas, por lo tanto, {(1, 0, 1), (1, −1, 0)} es una base de
W.
(1) A es invertible.
(4) El sistema AX = Y tiene una única solución para toda matriz Y de orden
n × 1.
(6) det A ̸= 0.
Demostración. Por teoremas 3.4.6 y 3.4.9, tenemos que (1)⇔ (2) ⇔ (3) ⇔ (4)
⇔ (5).
(1) ⇔ (6). Por teorema 3.5.9.
(1) ⇔ (7). Por corolario 4.4.4.
(1) ⇔ (8). A invertible ⇔ At invertible ⇔ las filas de At son LI ⇔ las
columnas de A son LI.
§ Ejercicios
3) Encontrar una base de K5 [x] tal que todos los elementos de la base
sean polinomios mónicos de grado 4.
143
144 transformaciones lineales
T (vj ) = wj , j = 1, . . . , n.
v = a1 v1 + · · · + an vn .
T (v) = a1 w1 + · · · + an wn .
w = b1 v1 + · · · + bn vn ,
y sea λ ∈ K. Ahora
λv + w = λ(a1 v1 + · · · + an vn ) + b1 v1 + · · · + bn vn
= (λa1 + b1 )v1 + · · · + (λan + bn )vn
146 transformaciones lineales
y así
T (λv + w) = λT (v) + T (w).
Finalmente, debemos probar la unicidad de T . Sea S : V → W transforma-
ción lineal tal que S(vj ) = wj para 1 ⩽ j ⩽ n. Entonces, si v ∈ V un vector
P
arbitrario, v = i ai vi y
X X X X X
S(v) = S( ai v i ) ai S(vi ) = ai wi = ai T (vi ) = T ( ai vi ) = T (v)
i i i i i
Entonces,
v1 = (1, 2)
v2 = (3, 4)
T (v1 ) = (3, 2, 1)
T (v2 ) = (6, 5, 4).
5.1 transformaciones lineales 147
§ Ejercicios
T (x, y, z) = x + 2y + 3z.
y como (−2, 1, 0), (−3, 0, 1) son LI, tenemos que forman una base del núcleo.
T : Rn → Rm
v 7→ Av.
T : Rn → Rm
v 7→ Av.
1 1 1
Ejemplo. Consideremos la matriz A = .
2 2 2
Entonces si v = (x, y, z),
x
1 1 1 x+y+z
A(v) = y =
2 2 2 2x + 2y + 2z
z
v ∈ Nu T ⇔ Av = 0 ⇔ v es solución de AX = 0.
2 4 2
Luego,
x−z = 2y1 − y2
y+z = −y1 + y2
T (x, y, z) = (y1 , y2 , y3 , y4 ) ⇔ (*)
0 = 3y1 − 3y2 + y3
0 = −2y2 + y4
Demostración. Sean
n = dim V
k = dim(Nu T ).
n − k = dim(Im T ).
w = T (v)
= λ1 T (v1 ) + · · · + λk T (vk ) + λk+1 T (vk+1 ) + · · · + λn T (vn )
= 0 + · · · + 0 + λk+1 T (vk+1 ) + · · · + λn T (vn )
= λk+1 T (vk+1 ) + · · · + λn T (vn ).
luego
X
n X
n
0= µi T v i = T ( µi vi ).
i=k+1 i=k+1
5.2 núcleo e imagen de una transformación lineal 153
P
Por lo tanto v = ni=k+1 µi vi ∈ Nu(T ). Como {v1 , . . . , vk } es una base de
Nu T , existen escalares λi tales que
X
k
v= λi v i ,
i=1
es decir
X
n X
k
µj v j = λi v i .
j=k+1 i=1
Luego
X
k X
n
0= λi v i − ( µj v j )
i=1 j=k+1
= λ1 v1 + · · · + λk vk − µk+1 vk+1 − · · · − µn vn .
Como {v1 , . . . , vn } es una base, y por lo tanto un conjunto LI, tenemos que
0 = λ1 = · · · = λk = µk+1 = · · · = µn , y en particular 0 = µk+1 = · · · = µn .
Por lo tanto {T vk+1 , . . . , T vn } es un conjunto linealmente independiente.
Observar que
Nu(T ) = {X ∈ Kn×1 : AX = 0}.
Es decir Nu(T ) es el subespacio de soluciones del sistema homogéneo
AX = 0. Ahora bien, si k = rango fila (A), ya hemos dicho (capítulo 4,
sección 4.4) que la dimensión del subespacio de soluciones del sistema
homogéneo AX = 0 es n − k. Luego
Ahora bien,
a11 x1 + · · · a1n xn a11 a1n
.. . .
AX = = x1 .. + · · · + xn ..
.
am1 x1 + · · · amn xn am1 amn
y por lo tanto
§ Ejercicios
T (x, y, z) = (x + z, y − z, −x + 3y).
λ1 v1 + · · · + λn vn = 0,
lo cual implica que λ1 , . . . , λn son todos nulos. Por lo tanto, T (v1 ), . . . , T (vn )
son LI.
(1) (⇐) Sea v ∈ V tal que T (v) = 0. Veremos que eso implica que v = 0.
Ahora bien, sea {v1 , . . . , vn } una base de V, entonces existen λ1 , . . . , λn ∈ K
tales que
v = λ 1 v 1 + · · · + λn v n ,
por lo tanto
v = λ1 v1 + · · · + λn vn , para algún λ1 , . . . , λn ∈ K,
por lo tanto,
v = λ1 v 1 + · · · + λ n v n .
Demostración.
Sean w1 , w2 ∈ W, probemos que T −1 (w1 + w2 ) = T −1 (w1 ) + T −1 (w2 ).
Sean v1 = T −1 (w1 ), v2 = T −1 (w2 ). Por lo tanto T (v1 ) = w1 y T (v2 ) = w2 .
Ahora bien,
Rθ : R2 → R2
(x, y) 7→ (x cos θ − y senθ, y cos θ + x senθ)
5.3 isomorfismos de espacios vectoriales 159
Rθ (v)
v
θ
α
x
r
Figura 21: Rotación θ grados.
Rθ ◦ Rφ = Rθ+φ , (5.3.1)
Rπ/2 ◦ Sh ◦ R−π/2 = Sv . (5.3.2)
La fórmula (5.3.1) nos dice que rotar φ radianes y luego rotar θ radianes
es lo mismo que rotar θ + φ radianes. La fórmula (5.3.2) nos dice que rotar
−90◦ , luego hacer una reflexión horizontal y luego rotar 90◦ es lo mismo
que hacer una reflexión vertical.
160 transformaciones lineales
a) T es un isomorfismo.
b) T es monomorfismo.
c) T es epimorfismo.
§ Ejercicios
es un isomorfismo.
a + bx 7→ (a − b, b)
es un isomorfismo.
3) Sea T : R2 → R2 definida
v + tw con 0 ⩽ t ⩽ 1.
{t1 v1 + t2 v2 : 0 ⩽ t1 ⩽ 1, 0 ⩽ t2 ⩽ 1}
§ Ejercicios
1) Sean T , S, R : R3 → R3 definidas
T (x, y, z) = (x − z, y + z, −x + y),
S(x, y, z) = (2x − y + z, y + 3z, −2x + 2y − z),
R(x, y, z) = (3x − y + z, 4y + 3z, −x + 3y).
Calcular
a) T ◦ S. b) S ◦ R. c) (T ◦ S) ◦ R. d) T ◦ (S ◦ R).
5.5 coordenadas
v = x1 v1 + · · · + xn vn ,
[v]B = (x1 , . . . , xn ).
También nos será útil describir a v como una matriz n × 1 y en ese caso
hablaremos de la matriz de v en la base B:
x1
..
[v]B = . .
xn
Ejemplo. Sea B = {(1, −1), (2, 3)} base ordenada de R2 . Encontrar las coorde-
nadas de (1, 0) y (0, 1) en la base B.
Es decir
x1 + 2x2 = 1
−x1 + 3x2 = 0.
3
Resolviendo el sistema de ecuaciones obtenemos x1 = 5 y x2 = 15 , es decir
3 1 3 1
(1, 0) = (1, −1) + (2, 3) o equivalentemente (1, 0) = ( , )B .
5 5 5 5
De forma análoga podemos ver que
2 1 2 1
(0, 1) = − (1, −1) + (2, 3) o equivalentemente (0, 1) = (− , )B .
5 5 5 5
5.5 coordenadas 169
Demostración.
(1) Si v = x1 v1 + · · · + xn vn y w = y1 v1 + · · · + yn vn , entonces
luego,
[v + w]B = (x1 + y1 , . . . , xn + yn )
= (x1 , . . . , xn ) + (y1 , . . . , yn )
= [v]B + [w]B .
(2) Si v = x1 v1 + · · · + xn vn y ∈ K, entonces
luego,
§ Ejercicios
1 2
1) Dar las coordenadas de la matriz A = ∈ K2×2 en la base
3 4
ordenada
0 1 0 0 1 0 0 0
B= , , , .
0 0 0 1 0 0 1 0
a b
Más generalmente, dar las coordenadas de cualquier matriz
c d
en la base B.
170 transformaciones lineales
X
m
T vj = aij wi .
i=1
[T ]BB ′ = A.
[T ]BC = T v1 T v2 · · · T vn−1 T vn .
| | | |
Ejemplo. Sea T : R3 → R4 definida
Por lo tanto
2 1 0
0 3 0
[T ]C3 C4 = .
1 0 4
0 0 1
Observar que si escribimos los vectores en coordenadas con respecto a las
bases canónicas, tenemos que
2 1 0 2x + y
0 3 0 x
y = 3y
1 0 4 x + 4z
z
0 0 1 z
o más formalmente
[T ]C3 C4 [v]C3 = [T (v)]C4 .
Observación. Recordemos que si A = [aij ] matriz m × n, el operador lineal
asociado a A si se define por
T : Rn → Rm
.
v 7→ Av.
Es decir
a11 · · · a1n x1
.. .. .
.. ...
T (x1 , . . . , xn ) := . . . (5.6.2)
am1 · · · amn xn
Sean Cn y Cm las bases canónicas de Rn y Rm , respectivamente, entonces
[T ]Cn Cm = A.
172 transformaciones lineales
y sean B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} y B ′ = {(1, 0, 1), (1, 1, 0), (0, 1, 0)}, bases
ordenadas. Encontrar [T ]BB ′
Solución.
Para encontrar los coeficientes aij , debemos resolver los sistemas de ecua-
ciones
λ1 + λ 2 = x
λ2 + λ 3 = y
λ1 = z,
Es decir,
5 1 1
[T ]BB ′ = −2 2 1 .
5 1 −1
Veremos otra forma, creemos más conveniente, de calcular [T ]BB ′ en el
ejemplo 5.6.11.
Demostración. Si
X
m
T vj = aij wi
i=1
X
n X
n X
n X
m X
m Xn
T (v) = T ( xj vj ) = xj T (vj ) = xj aij wi = ( xj aij )wi =
j=1 j=1 j=1 i=1 i=1 j=1
Xn X
n X
n
=( xj a1j )w1 + ( xj a2j )w2 + · · · + ( xj amj )wm
j=1 j=1 j=1
y, por lo tanto,
Pn
xj a1j
Pn xj a2j
j=1
j=1
[T (v)]B ′ = . (5.6.4)
..
.
Pn
j=1 xj amj
Ejemplo. Sea V = R2 y sean B = {(1, 1), (1, −1)} y B ′ = {(1, 0), (0, −1)} bases
ordenadas de V. Calcular la matriz de cambio de base de B ′ a B.
Solución. Como B y B ′ son bases ordenadas de V, tenemos que
Id(1, 0) = (1, 0) = a11 (1, 1) + a21 (1, −1),
Id(0, −1) = (0, −1) = a12 (1, 1) + a22 (1, −1),
para ciertos aij ∈ R. Es decir
(1, 0) = (a11 + a21 , a11 − a21 ),
(0, −1) = (a12 + a22 , a12 − a22 ).
1
lo que implica que a12 = a21 = y −a12 = a22 = 21 . Por lo tanto,
2
1 1
−
P = [Id]B ′ B = 21 12 .
2 2
es decir
[T ]BB ′ = [aij ] y [T ′ ]BB ′ = [aij′ ],
entonces
(λT + T ′ )(vj ) = λT (vj ) + T ′ (vj )
Xm X m
=λ aij wi + aij′ wi
i=1 i=1
X
m
= (λaij + aij′ )wi ,
i=1
5.6 matriz de una transformación lineal 175
por lo tanto
X
m
T (vj ) = aij wi .
i=1
Es claro que esta aplicación tiene dominio en Mm×n (K) y su imagen es-
tá contenida en L(V, W). Más aún, es muy sencillo comprobar que es la
aplicación inversa a κ.
Demostración. Sean
y
X
m X
l
T (vj ) = aij wi , 1 ⩽ j ⩽ n; U(wi ) = bki zk , 1 ⩽ i ⩽ m.
i=1 k=1
Es decir
[T ]BB ′ = [aij ] y [U]B ′ B ′′ = [bij ].
Entonces
X
m
(UT )(vj ) = U( aij wi )
i=1
X
m
= aij U(wi )
i=1
Xm X
l
= aij bki zk
i=1 k=1
Xl X
m
= ( bki aij )zk .
k=1 i=1
176 transformaciones lineales
P
Luego el coeficiente kj de la matriz [UT ]BB ′′ es mi=1 bki aij que es igual a
la fila k de [U]B B por la columna j de [T ]BB , en símbolos, si A = [T ]BB ′ ,
′ ′′ ′
X
m
[C]kj = bki aij = Fk (B)Cj (A) = [BA]kj .
i=1
Demostración.
P−1 P = [Id]BB ′ [Id]B ′ B = [Id]B ′ = Id .
[T −1 ]B = [T ]−1
B .
(3) Id = T T −1 , luego
Id = [Id]B = [T T −1 ]B = [T ]B [T −1 ]B .
Análogamente, Id = T −1 T , luego
Id = [Id]B = [T −1 T ]B = [T −1 ]B [T ]B .
◦ [Idn ]BCn es muy fácil de calcular pues es la matriz donde las columnas
son las coordenadas canónicas de los vectores de la base ordenada B.
y B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} y B ′ = {(1, 0, 1), (1, 1, 0), (0, 1, 0)}, entonces
calculemos [T ]BB ′ con la fórmula (5.6.8).
por lo tanto,
2 1 0
[T ]CC = 0 3 0 .
1 0 4
Calculemos ahora [Id3 ]CB ′ = [Id3 ]−1
B ′C:
1 1 0 1 0 0 1 0 0 0 0 1
1 ↔F3
0 1 1 0 1 0 F−→ 0 1 1 0 1 0
1 0 0 0 0 1 1 1 0 1 0 0
1 0 0 0 0 1 1 0 0 0 0 1
F3 −F1 F2 ↔F3
−→ 0 1 1 0 1 0 −→ 0 1 0 1 0 −1
0 1 0 1 0 −1 0 1 1 0 1 0
1 0 0 0 0 1
F3 −F2
−→ 0 1 0 1 0 −1 .
0 0 1 −1 1 1
Por lo tanto,
0 0 1
[Id3 ]CB ′ = 1 0 −1 .
−1 1 1
Finalmente, por la fórmula (5.6.8) tenemos que
[T ]B ′ = P−1 [T ]B P.
Es decir
[T ]B ′ = [Id]BB ′ [T ]B [Id]B ′ B . (5.6.9)
Demostración. La demostración es muy parecida a la demostración del coro-
lario 5.6.10. Tenemos que T = Id ◦T y T = T ◦ Id, luego
[T ]B ′ B ′ = [Id ◦T ]B ′ B ′
= [Id]BB ′ [T ]B ′ B (teorema 5.6.7)
= [Id]BB ′ [T ◦ Id]B ′ B
= [Id]BB ′ [T ]BB [Id]B ′ B (teorema 5.6.7)
= P−1 [T ]BB P (corolario 5.6.8).
§ Ejercicios
Calcular [T ]BB ′ .
180 transformaciones lineales
c1 v1 + c2 v2 + · · · cm vm = 0 (∗)
c1 λ1 v1 + c2 λ1 v2 + · · · cm λ1 vm = 0. (∗∗)
c1 λ1 v1 + c2 λ2 v2 + · · · cm λm vm = 0. (∗ ∗ ∗)
entonces
x − a −b
det = (x − a)(x − d) − bc = x2 − (a + d)x + (ad − bc).
−c x − d
Es decir,
χT (x) = x2 − (a + d)x + (ad − bc).
Ejemplo 5.7.6. Consideremos la transformación lineal de T : R3 → R3 defini-
da por (con abuso de notación incluido)
x 10x − 10y + 6z
T y = 8x − 8y + 6z .
z −5x + 5y − 3z
Demostración.
(⇒) Si λ es autovalor, entonces existe v ∈ V, no nulo, tal que T v = λv,
luego
0 = λv − T v = λ Id v − T v = (λ Id −T )v.
T (vi ) = λi vi , 1 ⩽ i ⩽ n,
V0 = {(y, y, 0) : y ∈ R},
V2 = {(−2z, −z, z) : z ∈ R},
V−3 = {(−2z, −2z, z) : z ∈ R}.
Por lo tanto, {(1, 1, 0), (−2, −1, 1), (−2, −2, 1)} es una base de autovectores de
la transformación lineal.
Proposición 5.7.9. Sea V espacio vectorial de dimensión n y sea T : V → V lineal
tal que tiene una base de autovectores B = {v1 , . . . , vn } con autovalores λ1 , . . . , λn .
Entonces Nu(T ) = ⟨vi : λi = 0⟩ e Im(T ) = ⟨vi : λi ̸= 0⟩.
Demostración. Reordenemos la base de tal forma que λi = 0 para 1 ⩽ i ⩽ k
y λi ̸= 0 para k < i ⩽ n. Todo v ∈ V se escribe en términos de la base como
y entonces
T (v) = λk+1 xk+1 vk+1 + · · · + λn xn vn . (5.7.3)
Luego, T (v) = 0 si y sólo si xk+1 = · · · = xn = 0, y esto se cumple si y solo
si v = x1 v1 + · · · + xk vk , es decir v ∈ ⟨vi : λi = 0⟩. También es claro por la
ecuación (5.7.3) que
Por la proposición 5.7.7, los autovalores de T son las raíces del polinomio
característico, es decir las raíces de
x−2 1
det = (x − 2)(x − 4) + 1 = x2 − 6x + 9 = (x − 3)2 .
−1 x − 4
con
di = dim Vλi ,
para i = 1, . . . , k.
T (v) = λ1 v1 + λ2 v2 · · · + λk vk (5.7.4)
Veamos que Vλi =< vi1 , . . . , vidi > para 1 ⩽ i ⩽ k. Es claro que <
vi1 , . . . , vidi >⊂ Vλi . Probemos ahora que, Vλi ⊂< vi1 , . . . , vidi >: si v ∈ Vλi ,
entonces T (v) es como en (5.7.4) y, por lo tanto, si vj ̸= 0 para j ̸= i entonces
T (v) ̸= λj v, lo que contradice la hipótesis. Es decir v = vi ∈< vi1 , . . . , vidi >.
Hemos probado que Vλi =< vi1 , . . . , vidi > y como vi1 , . . . , vidi son LI,
entonces dim Vλi = di .
Por otro lado, la matriz de T en la base B tiene la forma
λ1 Id1 0 ··· 0
0
λ2 Id2 · · · 0
.. .. ..
. . .
0 0 · · · λn Idn
(x − λ1 )d1 . . . (x − λk )dk .
El polinomio característico de A es
x−5 6 6
χA (x) = det 1 x − 4 −2 = x3 − 5x2 + 8x − 4 = (x − 2)2 (x − 1).
−3 6 x+4
188 transformaciones lineales
¿Cuáles son las dimensiones de los espacios de los vectores propios asocia-
dos con los dos valores propios? Se deben resolver las ecuaciones asociadas
a las matrices
−3 6 6
2 Id −A = 1 −2 −2
−3 6 6
y
−4 6 6
Id −A = 1 −3 −2 .
−3 6 5
Las soluciones de estos sistemas son los autoespacios de autovalor 2 y 1
respectivamente. En el primer caso,
−3 6 6 0 0 0
1 −2 −2 F1−→ +3F2
1 −2 −2 .
F3 +3F2
−3 6 6 0 0 0
cuya dimensión es 2.
Por otro lado,
−4 6 6 0 −6 −2 0 0 0
1 −3 −2 F1−→ +4F2
1 −3 −2 F1−→
−2F3
1 0 −1 .
F3 +3F2 F2 −F3
−3 6 5 0 −3 −1 0 −3 −1
§ Ejercicios
1) Sea T : R3 → R3 definida
⟨x, y⟩ = xt y.
A = A, A + B = A + B,
αAB = α A B = A αB.
zn
xt Ax = xt Ax = xt Ax = xt λx = λxt x = λ||x||2 .
2x1 − x2 = λi x1
−x1 + 2x2 − x3 = λi x2
−x2 + 2x3 = λi x3 ,
5.8 operadores simétricos en R n 193
(i = 1, 2, 3), o equivalentemente,
(2 − λi )x1 + x2 = 0
−x1 + (2 − λi )x2 − x3 = 0
−x2 + (2 − λi )x3 = 0,
√
(i = 1, 2, 3). En el caso de λ1 = 2 + 2, resulta
√
− 2x1 + x2 = 0
√
−x1 − 2x2 − x3 = 0
√
−x2 − 2x3 = 0,
√
cuya solución es λ(1, − 2, 1). Si continuamos resolviendo los sistemas de
ecuaciones, podemos encontrar la siguiente base de autovectores:
√
v1 = (1, − 2, 1)
v2 = (−1, 0, 1)
√
v3 = (1, 2, 1).
§ Ejercicios
X
n
⟨x, y⟩ = x1 y1 + x2 y2 + · · · + xn yn = xi yi .
i=1
También recordemos
qP que si x ∈ Rn , entonces la norma de x es ||x|| =
n
p
⟨x, x⟩ = 2
i=1 xi .
Como hemos visto en el capítulo 1 el producto escalar cumple cuatro
propiedades básicas, que hemos llamado P1 (simetría), P2 y P3 (bilinealidad
o linealidad en cada variable), y P4 (positividad). Para deducir los resultados
de esta sección las únicas propiedades que usaremos son P1, P2, P3 y P4.
Nunca usaremos alguna definición explícita de producto escalar.
195
196 producto interno
P1.
⟨v, w⟩ = ⟨w, v⟩.
P2.
⟨v, w + u⟩ = ⟨v, w⟩ + ⟨v, u⟩ = ⟨w + u, v⟩.
P3. Si λ ∈ R, entonces
⟨v, v⟩ > 0
Es decir ⟨ , ⟩ es una forma bilineal (P2 y P3), simétrica (P1) y positiva (P4)
Obviamente el producto escalar en Rn es un producto interno, que lla-
maremos el producto interno canónico de Rn . Los resultados de esta sección
valen en general para un producto interno en un R-espacio vectorial de
dimensión finita, pero tendremos siempre en mente el producto escalar en
Rn .
Ejemplo. El producto escalar es uno entre muchos de los productos internos
que podemos tener en Rn , por ejemplo, en R3 , la función definida:
||u + v||2 = ⟨u + v, u + v⟩
= ⟨u, u + v⟩ + ⟨v, u + v⟩
(P2)
= ⟨u, u⟩ + ⟨u, v⟩ + ⟨v, u⟩ + ⟨v, v⟩
(P1)
= ⟨u, u⟩ + 2⟨u, v⟩ + ⟨v, v⟩
= ||u||2 + ||v||2 + 2⟨u, v⟩.
(2) Ley del Paralelogramo: ||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 .
Demostración. Ambas demostraciones se hacen desarrollando las fórmulas
y usando las propiedades del producto escalar.
Demostración de (1).
Demostración de (2).
⟨u|v⟩
u, v− u,
⟨u|u⟩
son ortogonales.
u
θ pru (v)
x
⟨u, v⟩ ⟨u, v⟩
⟨v − u, u⟩ = ⟨v, u⟩ − ⟨u, u⟩ = ⟨v, u⟩ − ⟨u, v⟩ = 0.
⟨u, u⟩ ⟨u, u⟩
⟨u, v⟩ ⟨u, v⟩
Demostración. Sea c = = , entonces, por la observación 6.1.6,
⟨u, u⟩ ||u||2
tenemos que v − cu es ortogonal a u. Ahora bien,
v = (v − cu) + cu
Como ||v − cu||2 ⩾ 0, tenemos que |c|2 ||u||2 ⩽ ||v||2 y sacando raíces cuadradas
obtenemos
|⟨u, v⟩| |⟨u, v⟩|
|c|||u|| ⩽ ||v|| ⇒ ||u|| ⩽ ||v|| ⇒ ⩽ ||v|| ⇒ |⟨u, v⟩| ⩽ ||v||||u||.
||u||2 ||u||
X
r X
r
0=⟨ ai v i , v j ⟩ = ai ⟨vi , vj ⟩ = aj ⟨vj , vj ⟩ = aj ||vj ||2 .
i=1 i=1
Ejemplo.
v1 vn
X′ = ,...,
||v1 || ||vn ||
w1 = v1 , (1)
⟨v2 , w1 ⟩
w2 = v2 − w1 , (2)
⟨w1 , w1 ⟩
⟨v3 , w1 ⟩ ⟨v3 , w2 ⟩
w3 = v3 − w1 − w2 , (3)
⟨w1 , w1 ⟩ ⟨w2 , w2 ⟩
.. ..
. .
⟨vn , w1 ⟩ ⟨vn , w2 ⟩ ⟨vn , wn−1 ⟩
wn = vn − w1 − w2 − · · · − wn−1 . (n)
⟨w1 , w1 ⟩ ⟨w2 , w2 ⟩ ⟨wn−1 , wn−1 ⟩
En forma más breve, para 1 ⩽ i ⩽ n,
X
i−1
⟨vi , wj ⟩
wi = vi − wj (i)
⟨wj , wj ⟩
j=1
X
k−1
⟨vk , wj ⟩ X
k−1
⟨vk , wj ⟩
⟨wk , wi ⟩ = ⟨vk − wj , wi ⟩ = ⟨vk , wi ⟩ − ⟨wj , wi ⟩
⟨wj , wj ⟩ ⟨wj , wj ⟩
j=1 j=1
= ⟨vk , wi ⟩ − ⟨vk , wi ⟩ = 0.
202 producto interno
X
k−1
⟨vk , wj ⟩
vk = wk + wj ,
⟨wj , wj ⟩
j=1
es una BO de W.
V1 + V2 = {v1 + v2 : v1 ∈ V1 , v2 ∈ V2 }, V1 ∩ V2 = {v : v ∈ V1 y v ∈ V2 }
Demostración.
v = v1 + v2 , v1 ∈ V1 , v2 ∈ V2
v = v + 0, v ∈ V1 , 0 ∈ V2
v = 0+v 0 ∈ V1 , v ∈ V2 .
W = V1 ⊕ V2 ⊕ · · · ⊕ Vk si y sólo si W = Vj ⊕ Wj (j = 1, . . . , k).
Pero esto determina que BV es LI (es una base). Luego, W ∩ U = {0} y por
lo tanto V = W ⊕ U.
Observar que P está bien definida y que P|W = Id|W , P|U = 0. Observar
también que si P es una proyección ortogonal, entonces U = W ⊥ , luego U
está determinado por W. .
Proposición 6.2.9. Sea P : V → V una proyección, entonces existe una base B tal
que
[P]B = diag(1, . . . , 1, 0, . . . , 0).
(una matriz diagonal con la diagonal compuesta de 1’s y a continuación 0’s).
V = Nu(P) ⊕ Im(P).
⟨T ∗ wi , vj ⟩ = ⟨wi , T vj ⟩. (6.3.2)
X
n
∗
T (wi ) = ⟨wi , T vj ⟩vj ,
j=1
X
n X
n X
n
⟨wi , T vj ⟩⟨v, vj ⟩ = ⟨wi , ⟨v, vj ⟩T vj ⟩ = ⟨wi , T ( ⟨v, vj ⟩vj )⟩ = ⟨wi , T v⟩,
j=1 j=1 j=1
por lo tanto
X
m X
m
∗
⟨v, T w⟩ = ⟨wi , w⟩⟨wi , T v⟩ = ⟨ ⟨wi , w⟩wi , T v⟩ = ⟨w, T v⟩
i=1 i=1
⟨e1 , T ∗ (x, y, z)⟩ = ⟨T (e1 ), (x, y, z)⟩ = ⟨(3, 2, 1), (x, y, z)⟩ = 3x + 2y + z
⟨e2 , T ∗ (x, y, z)⟩ = ⟨T (e2 ), (x, y, z)⟩ = ⟨(1, −1, 0), (x, y, z)⟩ = x − y
⟨e3 , T ∗ (x, y, z)⟩ = ⟨T (e3 ), (x, y, z)⟩ = ⟨(0, 3, 0), (x, y, z)⟩ = 3y.
Por lo tanto
T ∗ (x, y, z) = (3x + 2y + z, x − y, 3y).
Teorema 6.3.3. Sea V espacio vectorial de dimensión finita con producto interno
⟨ , ⟩ y sea U = {u1 , . . . , un } una BON de V. Sea T : V → V una transformación
lineal y A la matriz de T en la base U, es decir [T ]U = A.
Entonces, [T ∗ ]U = At , es decir, la matriz de T ∗ en la base U es la transpuesta de
A.
P
Demostración. Observemos que como T (uj ) = i aij ui , entonces
⟨T uj , ui ⟩ = aij .
Luego
aij = ⟨T uj , ui ⟩ = ⟨uj , T ∗ ui ⟩.
P
Es decir que T ∗ (ui ) = j aij . Es decir [T ∗ ]U = At .
(3) (R + S)∗ = R∗ + S∗ .
(4) (RS)∗ = S∗ R∗ .
(5) R∗∗ = R.
Demostración. (1) Es trivial.
(2) Por definición de adjunta (cR)∗ es la única transformación lineal tal
que
⟨cR(v), w⟩ = ⟨v, (cR)∗ (w)⟩, ∀v, w ∈ V.
Ahora bien
Ahora bien,
⟨v, (R∗ + S∗ )(w)⟩ = ⟨v, R∗ (w) + S∗ (w)⟩ = ⟨v, R∗ (w)⟩ + ⟨v, S∗ (w)⟩
= ⟨R(v), w⟩ + ⟨S(v), w⟩ = ⟨R(v) + S(v), w⟩
= ⟨(R + S)(v), w⟩.
(4)
Luego R = R∗∗ .
w ∈ Nu(T ∗ ) ⇔ T ∗ (w) = 0
⇔ ⟨v, T ∗ (w)⟩ = 0, ∀ v ∈ V
⇔ ⟨T (v), w⟩ = 0, ∀ v ∈ V
⇔ w ∈ Im(T )⊥ .
(2)
(1)
Im(T ∗ ) = (Im(T ∗ )⊥ )⊥ = Nu(T ∗∗ )⊥ = Nu(T )⊥ .
(3)
(1)
Nu(T ) = Nu(T ∗∗ ) = Im(T ∗ )⊥ .
(4)
(1)
Im(T ) = Im(T )⊥⊥ = Nu(T ∗ )⊥ .
212 producto interno
ST = (ST )∗ = T ∗ S∗ = T S,
6.4 operadores autoadjuntos (*) 213
es decir, S y T conmutan.
(⇐)
(ST )∗ = T ∗ S∗ = T S = ST .
⟨e1 , (T S)∗ (x, y)⟩ = ⟨T S(e1 ), (x, y)⟩ = ⟨T (e2 ), (x, y)⟩ = ⟨2e2 , (x, y)⟩ = 2y,
⟨e2 , (T S)∗ (x, y)⟩ = ⟨T S(e2 ), (x, y)⟩ = ⟨T (e1 ), (x, y)⟩ = ⟨e1 , (x, y)⟩ = x.
Es decir (T S)∗ (x, y) = (2y, x). Por otro lado, T S(x, y) = T (y, x) = (y, 2x).
Luego (T S)∗ ̸= T S, es decir T S no es autoadjunto.
Esto ocurre pues, T S(x, y) = (y, 2x) es distinto a ST (x, y) = S(x, 2y) =
(2y, x). Es decir, S y T no conmutan.
Ejemplo. En el ejemplo 6.4.3 vimos que si P es una proyección ortogonal,
entonces es operador autoadjunto. Veamos ahora que es diagonalizable: sea
P la proyección ortogonal a W, y tomemos U0 = {u1 , . . . , uk } una base de W
y U1 = {uk+1 , . . . , un } una base de W ⊥ , luego U = {u1 , . . . , un } es una base
de V con la siguiente particularidad
P(ui ) = ui , 1 ⩽ i ⩽ k, P(ui ) = 0, k + 1 ⩽ i ⩽ n.
P
Como por hipótesis λi ⩾ 0, tenemos que i λi a2i ⩾ 0, por lo tanto ⟨T (v), v⟩ ⩾
0.
La segunda afirmación se prueba de manera totalmente análoga (cam-
biando ⩾ por >).
Observación. En la demostración del teorema anterior hemos demostrado
que si T tiene una BON U = {u1 , . . . , un } de autovectores con autovalores
P
λ1 , . . . , λn , entonces si v = i ai ui ,
X
n
⟨T (v), v⟩ = λi a2i (6.4.1)
i=1
X
n X
k
⟨T (v), v⟩ = λi a2i = λi a2i .
i=1 i=1
luego
X X X
n
⟨A(v), v⟩ = ⟨( ai1 xi , . . . , ain xi ), (x1 , . . . , xn )⟩ = aij xi xj .
i i i,j=1
6.4 operadores autoadjuntos (*) 217
X
n
aij xi xj > 0
i,j=1
X
k p X
k X
k X
k p X
k p
⟨S(v), v⟩ = ⟨ λi v i , vj ⟩ = λi ⟨vi , vj ⟩ = λi .
i=1 j=1 i=1 j=1 i=1
218 producto interno
Además,
X
k p X
k p X
k
2
S (v) = S( λi v i ) = λi S(vi ) = λi vi = T (v).
i=1 i=1 i=1
v ∈ Nu(T ∗ T ) ⇒ T ∗ T (v) = 0
⇒ T (v) ∈ Nu(T ∗ )
⇒ T (v) ∈ Im(T )⊥ (Nu(T ∗ ) = Im(T )⊥ por teo. 6.3.5)
⇒ T (v) ∈ Im(T ) ∩ Im(T )⊥
⇒ T (v) = 0
⇒ v ∈ Nu(T ).
y por lo tanto T (vi ) = 0 para i > r. Es decir, hemos probado las afirmaciones
sobre T . Veamos ahora que T ∗ (wi ) = λi vi para i = 1, . . . , r y T ∗ (wi ) = 0 para
i > r. Si 1 ⩽ i ⩽ m, 1 ⩽ j ⩽ n ,
⟨wi , λj wj ⟩ = λj ⟨wi , wj ⟩ 1⩽j⩽r
⟨T ∗ (wi ), vj ⟩ = ⟨wi , T (vj )⟩ =
⟨wi , 0⟩ = 0 r+1 ⩽ j ⩽ n
Además,
Ejemplo. Sea T (x, y, z) = (−y + 2z, x + 3z, −2x − 3y). Veamos que T es antisi-
métrico.
T + T∗ T − T∗
T= +
2 2
222 producto interno
Ahora bien,
(T + T ∗ )∗ = T ∗ + T ∗∗ = T ∗ + T = T + T ∗ ,
(T − T ∗ )∗ = T ∗ − T ∗∗ = T ∗ − T = −(T − T ∗ ).
T + T∗ T − T∗
Es decir, es un operador simétrico y es un operador antisimé-
2 2
trico. Concluyendo: todo operador lineal es suma de un operador simétrico
y un operador antisimétrico.
Entonces
ut1
At = ...
utn
que es la matriz cuyas filas son los vectores de la base.
Si v ∈ Rn , tenemos que
t
u1 v ⟨u1 , v⟩
At v = ... = ...
Ahora bien,
X
aij = ⟨T (uj ), wi ⟩ = ⟨uj , T ∗ (wi )⟩ ⇒ T ∗ (wi ) = aij uj
j
At A = [T ∗ ]VU [T ]UV = [T ∗ T ]V ,
AAt = [T ]UV [T ∗ ]VU = [T T ∗ ]U
(1) T es ortogonal.
Teorema 6.5.9.
A = UΣV t
Demostración.
AV = A v1 · · · vn = Av1 · · · Avn = λ1 w1 · · · λr wr 0 · · · 0 .
Por lo tanto,
AV = UΣ.
Como V es una matriz ortogonal V −1 = V t , luego multiplicando a derecha
por V t la ecuación anterior, obtenemos
A = UΣV t .
Parte III
APÉNDICES
NÚMEROS COMPLEJOS
A
a.1 cuerpos
I1. a + b y a · b pertenecen a K.
I5. Distributividad. a · (b + c) = a · b + a · c.
a + b + c := (a + b) + c = a + (b + c).
229
230 números complejos
a − (−b) = a + b, −(−a) = a.
con tal que a y b sean diferentes de cero. Otras reglas útiles incluyen
−a = (−1)a
y más generalmente
−(ab) = (−a)b = a(−b),
y también
ab = (−a)(−b),
así como
a · 0 = 0,
todas reglas familiares de la aritmética elemental.
0 + 0 = 0, 0 + 1 = 1, 1 + 0 = 1, 1+1 = 0
y el producto · : F2 × F2 → F2 como
0 · 0 = 0, 0 · 1 = 0, 1 · 0 = 0, 1 · 1 = 1.
Dejamos como ejercicio para el lector comprobar que estas operaciones así
definidas satisfacen los axiomas I1 a I7 y por lo tanto F2 es un cuerpo, con
dos elementos.
A.2 números complejos 231
Zp = {0, 1, . . . , p − 1}
a+b = c si a + b ≡ c (mod p) ∧ 0 ⩽ c ⩽ p − 1,
a·b = d si a · b ≡ d (mod p) ∧ 0 ⩽ d ⩽ p − 1.
a + bi = c + di ⇔ a = c ∧ b = d.
y por lo tanto i2 + 1 = −1 + 1 = 0.
Sean 0 = 0 + i · 0, 1 = 1 + i · 0 ∈ C, es fácil comprobar que son los
elementos neutros de la suma y el producto, respectivamente. Por otro lado,
si z = a + ib, entonces −z = −a − ib es el opuesto aditivo de z. El inverso
multiplicativo es un poco más complicado. Primero observemos que dado
a + ib ∈ C,
1 1 a − ib a − ib a − ib
c + id = = = = 2
a + ib a + ib a − ib (a + ib)(a − ib) a + b2
a b
= 2 2
−i 2
a +b a + b2
(observar que como a + ib ̸= 0, entonces a2 + b2 > 0.)
Usando lo anterior, y un poco más de trabajo, obtenemos
−(a + ib) = −a − ib
a − ib
(a + ib)−1 = 2 , para a + ib ̸= 0.
a + b2
Demostración. Ejercicio.
b a + ib
3
−1 + i 2.5
2
1 2+i
-4 -3 -2 -1 1 2 3 4
-1
-2
−2.5 − i 2.5 -3
Por
√ el teorema de Pitágoras, la distancia del número complejo a + ib al 0
es a2 + b2 .
El conjugado de z es
z̄ = a − ib.
√ √
Ejemplo. |4 + 3i| = 42 + 32 = 25 = 5, 4 + 3i = 4 − 3i.
z
(2) Si z ̸= 0, z−1 = .
|z|2
(3) z + w = z + w.
(4) zw = z w.
Por lo tanto zw = z w.
i
Ejercicio. Determinar el número complejo 2 − 3i + .
1−i
i i 1+i
2 + 3i + = 2 + 3i + ·
1−i 1−i 1+i
i(1 + i)
= 2 + 3i +
(1 − i)(1 + i)
i−1
= 2 + 3i +
2
i 1
= 2 + 3i + −
2 2
3 7
= +i
2 2
A.2 números complejos 235
es decir
z = |z|(cos(θ) + i sen(θ)). (A.2.3)
z = reiθ
z1 z2 = r1 r2 ei(θ1 +θ2 ) .
No es difícil ver que i2k = (−1)k y por lo tanto i2k+1 = i2k · i = (−1)k i.
Luego, por (**),
∞
X ∞
X
iθ (−1)k 2k (−1)k 2k+1
e = θ +i θ
(2k)! (2k + 1)!
k=0 k=0
= cos(θ) + i sen(θ),
(1) El número 0.
(2) El numero 1.
A.3 raíces de la unidad en C 237
239
240 funciones polinómicas
Teorema B.1.3. Sea f un polinomio de grado ⩽ n y sea c una raíz. Entonces existe
un polinomio g de grado ⩽ n − 1 tal que para todo x se cumple
f(x) = (x − c)g(x).
Demostración. Sea
Observar que esto nos da otra prueba del teorema B.1.4: f(c) = 0, luego
por teorema del resto f(x) = q(x)(x − c).
M U LT I P L I C A C I Ó N D E P O L I N O M I O S P O R F F T
C
Como vimos en B.1 el producto de polinomios se calcula usando que
xi xj= xi+j y la propiedad distributiva. Si un polinomio tiene grado n y
el otro tiene grado m, entonces son necesarias nm multiplicaciones de
coeficientes (“todos contra todos”).
También puede plantearse de esta forma: si necesitamos multiplicar poli-
nomios de grado n entonces la multiplicación de dos polinomios requiere
n2 multiplicaciones. Como la multiplicación es la operación más costosa del
procedimiento, podemos decir que multiplicar dos polinomios de grado n
requiere alrededor de n2 operaciones.
Este nivel de complejidad (n2 ) parece ser razonable a nivel computacio-
nal, pero si los polinomios a multiplicar tiene grados muy altos puede ser
necesario contar con métodos más rápidos, o que requieran menos operacio-
nes. En este apéndice mostraremos la multiplicación de polinomios usando
la trasformada de Fourier discreta implementándola con la transformada
rápida de Fourier (FFT) y mostraremos que usando este método se puede
multiplicar dos polinomios de grado n en alrededor de n log2 (n) operaciones.
245
246 multiplicación de polinomios por fft
(1) Calcular FFT(f) y FFT(g) (del orden de 2n log2 (2n) operaciones). Esto
nos devuelve una representación por valor de f y g.
con Z1 Z1
c0 = f(x) dx y cj = f(x)e−2πijx dx para j ̸= 0.
0 0
La demostración del teorema anterior se basa en una generalización a
espacios de dimensión infinita de los conceptos de bases ortonormales en
un espacio vectorial. Diremos que la serie de la (C.2.1) es la serie de Fourier
de f.
Ahora bien, en el mundo de la computación no es posible trabajar con
funciones continuas y series y nos debemos restringir a valores de una
función y sumas finitas, respectivamente.
La discretización de teoremas análogos al teorema C.2.1 que nos permi-
tan trabajar con computadoras ha llevado a los matemáticos a definir la
transformada de Fourier discreta.
Definición C.2.2. La transformada de Fourier discreta transforma una secuencia
de n números complejos f0 , f1 , . . . , fn−1 en otra secuencia de n números
complejos:
X
n−1
ck = fj e−2πijk/n (0 ⩽ k ⩽ n − 1).
j=0
f = f0 + f1 x + · · · + fn−1 xn−1 .
f = (f0 , f1 , f2 , . . . , fn−1 ).
c = (c0 , c1 , c2 , . . . , cn−1 )
Veremos ahora esta definición desde el punto de vista del álgebra lineal.
Definición C.2.4. Dado n ∈ N, se llama raíz n-ésima de la unidad a cualquiera
de los números complejos que satisfacen la ecuación
zn = 1.
e2πik/n donde k = 0, 1, 2, . . . , n − 1.
Convolución discreta
1 i −1 −i
La transformada de Fourier discreta aplicada a f se hace calculando Ff y
devuelve f(1), f(−i), f(−1), f(i), que son los valores que interesan.
Ahora procedemos a escribir f como suma de una función par f+ , y una
impar f− . Es decir:
f = f+ + f− ,
con
f+ (x) = a0 + a2 x2 y f− (x) = a1 + a3 x3 .
Si definimos
f̃+ (x) = a0 + a2 x, y f̃− (x) = a1 + a3 x,
obtenemos entonces que
f(x) = f̃+ (x2 ) + xf̃− (x2 ).
Luego,
f(1) = f̃+ (1) + f̃− (1),
f(−i) = f̃+ (−1) − i f̃− (−1)
f(−1) = f̃+ (1) − f̃− (1), (*)
f(i) = f̃+ (−1) + i f̃− (−1),
.
252 multiplicación de polinomios por fft
Las funciones f̃+ y f̃− son de grado 1 y requieren solo una multiplicación
para ser calculadas. Por (*), para calcular la representación por valores de
f, solo debemos calcular f̃± (±1), es decir esto nos lleva 4 multiplicaciones.
Finalmente, debemos calcular i · f̃− (−1) que es una multiplicación más.
Concluyendo: con 5 multiplicaciones, en vez de 12, pudimos calcular la
representación de f por valores o, lo que es lo mismo, la transformada de
Fourier discreta.
¿Como generalizamos el ejemplo anterior? Una de las claves del ejemplo
anterior es que comenzamos trabajando en n = 4 valores y redujimos el
cálculo a n/2 = 2 valores. Veamos como hacemos esto en general.
Sea f es una función, entonces se puede obtener como la suma de una
función par y una función impar:
f+ (x) = a0 + a2 x2 + a4 x4 + · · · +, f− (x) = a1 x + a3 x3 + a5 x5 + · · ·
Luego si definimos
X
f̃+ (x) = a0 + a2 x1 + a4 x2 + · · · = a2i xi
i<n/2
X
1 2
f̃− (x) = a1 + a3 x + a5 x + · · · = a2i+1 xi ,
i<n/2
obtenemos que
f(x) = f̃+ (x2 ) + xf̃− (x2 ). (C.3.1)
Ahora bien, hemos reducido el cálculo de f(x) de grado < n al cálculo
de dos funciones de grado < n/2, pero veremos a continuación que la
ganancia en el tiempo del cálculo se obtiene debido a que los valores donde
calculamos f son raíces de la unidad.
Observación C.3.1. Si n par y w = e−2πi/n , entonces 1, w, w2 , . . . , wn−1 son
las raíces n-ésimas de la unidad, y
def FFT(f):
# pre: f = [f_0, f_1, ..., f_(n-1)], n = 2**k (k >= 0)
# post: devuelve c = [f(w**0), f(w**1), ..., f(w**(n-1))]
# donde w = e**(-2*pi*i/n)
n = len(f)
if n == 1:
c = 1
else:
w = e**(-2*pi*1j/n)
f_p, f_i = f[::2], f[1::2] # coeficientes pares e impares
c_p, c_i = FFT(f_p), FFT(f_i)
c = [0] * n # lista de longitud n con 0’s
for j in range(n // 2):
c[j] = c_p[j] + w**j * c_i[j]
c[j + n // 2] = c_p[j] - w**j * c_i[j]
return c
254 multiplicación de polinomios por fft
def IFFT(f):
# pre: c = [c_0, c_1, ..., c_(n-1)], n = 2**k (k >= 0)
# post: devuelve F**(-1)c
n = len(f)
if n == 1:
c = 1
else:
w = (1/n)*e**(2*pi*1j/n)
f_p, f_i = f[::2], f[1::2] # coeficientes pares e impares
c_p, c_i = IFFT(f_p), IFFT(f_i)
c = [0] * n # lista de longitud n con 0’s
for j in range(n // 2):
c[j] = c_p[j] + w**j * c_i[j]
c[j + n // 2] = c_p[j] - w**j * c_i[j]
return c
◦ Entonces,
fg(x) = h0 x0 + h1 x1 + · · · + hn−2 xn−2 + fn−1 xn−1 .
d.1 determinantes
Lo primero que veremos será la demostración del teorema 3.5.6. Los tres
resultados de ese teorema los demostraremos en forma separada: serán los
teoremas D.1.1, D.1.3 y D.1.4.
Teorema D.1.1. Sea A ∈ Mn (K) y sea c ∈ K y B la matriz que se obtiene de A
r cF
multiplicando la fila r por c, es decir A −→ B, entonces det B = c det A.
Demostración. Si multiplicamos la fila r por c obtenemos
a11 a12 · · · a1n
.. .. ..
.
. .
B= ca r1 ca r2 · · · ca rn
.
.. ..
..
. . .
an1 · · · ann
Observemos que al hacer el desarrollo por la primera columna obtenemos
X
r−1 X
n
|B| = ai1 CB1i + car1 CBr1 + ai1 CB1i .
i=1 i=r+1
Ahora bien, si i ̸= r, la matriz B(i|1) es la matriz A(i|1) con una fila multipli-
cada por c, luego |B(i|1)| = c|A(i|1)| y, en consecuencia CBi1 = c CAi1 . Además,
B(r|1) = A(r|1), luego CBr1 = CA r1 . Por lo tanto, reemplazando en la ecuación
B A B A
anterior Ci1 por c Ci1 si i ̸= r y Cr1 por Cr1 , obtenemos
X
r−1 X
n
|B| = ai1 c CA
1i + car1 CA
r1 + ai1 cCA
1i = c|A|.
i=1 i=r+1
257
258 determinante
y
a11 a12 ··· a1n
.. .. ..
. .
.
ar1 + br1 ar2 + br2 · · · arn + brn .
C=
.. .. ..
. . .
an1 an2 ··· ann
Es decir B es igual a A pero con la fila r cambiada y C es como A y B excepto en
la fila r donde cada coeficiente el la suma del de A y B correspondiente. Entonces
det(C) = det(A) + det(B).
Demostración. Se hará por inducción en n. Para n = 1, del resultado se
reduce a probar que det[a + b] = det[a] + det[b], lo cual es trivial, pues el
determinante en matrices 1 × 1 es la identidad.
Primero consideremos el caso r = 1. En este caso tenemos que A(1|1) =
B(1|1) = C(1|1), pues en la única fila que difieren las matrices es en la
primera. Además, si i > 1, A(i|1), B(i|1) y C(i|1) son iguales, excepto que
difieren en la primera fila donde los coeficientes de C(i|1) son la suma
de los de A(i|1) y B(i|1), entonces, por hipótesis inductiva, det C(i|1) =
det A(i|1) + det B(i|1). Concluyendo, tenemos que
CC A B
11 = C11 = C11 ,
CC A B
i1 = Ci1 + Ci1 , i>1 .
Luego
X
n
det C = (a11 + b11 )CC
11 + ai1 CC
i1
i=2
Xn
= a11 CC C
11 + b11 C11 + ai1 (CA B
i1 + Ci1 )
i=2
Xn
= a11 CA B
11 + b11 C11 + ai1 (CA B
i1 + Ci1 )
i=2
X
n X
n
= a11 CA
11 + ai1 CA
i1 + b11 CB11 + ai1 CBi1
i=2 i=2
= det A + det B.
F1
..
.
Fs
det A = c ... ,
′
Fs
..
.
Fn
y este último determinante es cero, debido a que la matriz tiene dos filas
iguales. Luego, det B = det A.
X
n X
n
det(A) = ai1 CA
i1 y det(B) = bi1 CBi1 .
i=1 i=1
−ak1 CA B
k1 = b11 C11 y − a11 CA B
11 = bk1 Ck1 . (D.1.3)
X
n
det(A) = ai1 CA
i1
i=1
X
k−1 X
n
= a11 CA
11 + ai1 CA
i1 + ak1 CA
k1 + ai1 CA
i1 (D.1.2) y (D.1.3)
i=2 i=k+1
X
k−1 Xn
= −bk1 CBk1 − bi1 CBi1 − b11 CB11 − bi1 CBi1
i=2 i=k+1
X
n
=− bi1 CBi1 = − det(B).
i=1
Luego el teorema está probado. Por lo tanto debemos probar (D.1.3). Por
simetría, basta probar la primera identidad de (D.1.3), es decir que ak1 CA k1 =
B
−b11 C11 .
Para esto, primero debemos observar que ak1 = b11 , por lo tanto sólo
hace falta probar que −CA B
k1 = C11 . En segundo lugar, debemos tener en
cuenta que B(1|1) se obtiene de A(k|1) reordenando las filas 1, 2, . . . , k − 1
de A(k|1) en el orden 2, 3, . . . , k − 1, 1. Este reordenamiento puede hacerse
permutando la fila 1 con la fila 2, luego permutando esa fila con la fila 3,
etc., terminando con una permutación con la fila k − 1. Esto es un total de
k − 2 permutaciones de fila. Asi que, por hipótesis inductiva,
(2) Sea E la matriz elemental que se obtiene a partir de Idn sumando c veces Fr a
Fs (r ̸= s). Entonces det(E) = 1.
Como R tiene la última fila nula, no es difícil ver que RB tiene tiene
también la última fila nula y por lo tanto det(RB) = 0. Luego
det(AB) = det(E−1 −1
k ) . . . det(E1 ) det(RB) = 0.
det(A) det(B) = 0.
X
n
det A = aij Cij
i=1
= a1j C1j + a2j C2j + · · · + anj Cnj .
264 determinante
X
n
det A = aij Cij
j=1
= ai1 Ci1 + ai2 Ci2 + · · · + ain Cin ;
X
n
det(B) = bi1 CBi1
i=1
Xn
= bi1 (−1)i+1 B(i|1)
i=1
Xn
= ai2 (−1)i+1 B(i|1).
i=1
X
n X
n
i+1
det(B) = ai2 (−1) A(i|2) = − ai2 Ci2 .
i=1 i=1
P
Es decir, det(A) = − det(B) = ni=1 ai2 Ci2 .
El caso j > 2 se demuestra de forma similar: si B es la matriz
B = Cj C1 C2 · · · Cj−1 Cj+1 · · · Cn .
X
n
det(A) si j = i
C1i C2i · · · Cni Cj = akj Cki =
0 si j ̸= i.
k=1
Ahora bien,
X
n
C1i C2i · · · Cni Ci = Cji aji ,
j=1
X
n
C1i C2i · · · Cni Cj = Cki akj ,
k=1
si i ̸= j.
que por el teorema D.2.1 es una matriz fila con el valor det A en la posición
i y todos los demás coeficientes iguales a 0. Luego
C11 C21 · · · Cn1
C12 C22 · · · Cn2
adj(A) · A = .. .. · A
.. . .
. . . .
C1n C2n · · · Cnn
det A 0 ··· 0
0 det A ··· 0
= ..
.. .. ..
. . . .
0 0 · · · det A
= det(A) Idn
D.2 regla de cramer 267
det Aj
luego xj = para j = 1, 2, 3.
det A
268 determinante
x1 + x2 − x3 = 6
3x1 − 2x2 + x3 = −5
x1 + 3x2 − 2x3 = 14.
Luego
6 1 −1 1 6 −1 1 1 6
A1 = −5 −2 1 , A2 = 3 −5 1 , A2 = 3 −2 −5 ,
14 3 −2 1 14 −2 1 3 14
y
det A = −3, det A1 = −3, det A2 = −9, det A3 = 6.
Por lo tanto,
det A1 −3
x1 = = =1
det A −3
det A2 −9
x2 = = =3
det A −3
det A3 6
x3 = = = −2.
det A −3
ÍNDICE
Í N D I C E A L FA B É T I C O
271
272 ÍNDICE ALFABÉTICO