Documentos de Académico
Documentos de Profesional
Documentos de Cultura
12 de diciembre de 2018
Índice general
I Sistemas de ecuaciones 7
1. Matrices 8
1.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1. Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2. Matriz cuadrada . . . . . . . . . . . . . . . . . . . . . 8
1.1.3. Matrices triangulares . . . . . . . . . . . . . . . . . . . 9
1.1.4. Matrices particulares . . . . . . . . . . . . . . . . . . . 9
1.1.5. Transposicion . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Multiplicacion por un escalar . . . . . . . . . . . . . . 10
1.2.3. Producto . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4. Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Propiedades de la suma . . . . . . . . . . . . . . . . . 11
1.3.2. Propiedades del producto por un escalar . . . . . . . . 11
1.3.3. Propiedades del producto de matrices . . . . . . . . . . 11
1.3.4. Propiedades de las matrices triangulares . . . . . . . . 12
1.3.5. Propiedades de la transposicion . . . . . . . . . . . . . 12
1.3.6. Propiedades de la traza . . . . . . . . . . . . . . . . . . 12
2. Factorizacion LDU 13
2.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1. Matriz de eliminacion . . . . . . . . . . . . . . . . . . . 13
2.1.2. Matriz de permutacion . . . . . . . . . . . . . . . . . . 13
2.1.3. Matriz no singular . . . . . . . . . . . . . . . . . . . . 13
2.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1
ÍNDICE GENERAL 2
II Espacios vectoriales 18
3. Introduccion 19
3.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1. Espacio vectorial . . . . . . . . . . . . . . . . . . . . . 19
3.1.2. Subespacio vectorial . . . . . . . . . . . . . . . . . . . 20
3.1.3. Suma de subespacios . . . . . . . . . . . . . . . . . . . 20
3.1.4. Combinacion lineal . . . . . . . . . . . . . . . . . . . . 20
3.1.5. Espacio generado . . . . . . . . . . . . . . . . . . . . . 21
3.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1. Propiedades de los espacios vectoriales . . . . . . . . . 21
3.2.2. Caracterizacion de suma directa de subespacios . . . . 21
3.2.3. Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.4. Union de espacios vectoriales . . . . . . . . . . . . . . . 23
IV Diagonalizacion 50
8. Autovalores y autovectores 51
8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
8.1.1. Autovalores y autovectores . . . . . . . . . . . . . . . . 51
8.1.2. Ecuacion y polinomios caracteristicos . . . . . . . . . . 52
8.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.1. Autovalores de una matriz triangular . . . . . . . . . . 52
8.2.2. Independencia lineal de los autoespacios . . . . . . . . 52
9. Diagonalizacion 54
9.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
9.1.1. Matrices semejantes . . . . . . . . . . . . . . . . . . . . 54
9.1.2. Matriz diagonalizable . . . . . . . . . . . . . . . . . . . 54
9.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
9.2.1. Autovalores de matrices semejantes . . . . . . . . . . . 54
9.2.2. Condicion necesaria y suciente de diagonalizabilidad . 55
9.2.3. Condicion suciente de diagonalizabilidad . . . . . . . 56
9.2.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . 56
12.Ortogonalidad 66
12.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
12.1.1. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 66
12.1.2. Complemento ortogonal . . . . . . . . . . . . . . . . . 66
12.1.3. Conjunto ortogonal . . . . . . . . . . . . . . . . . . . . 66
12.1.4. Base ortogonal . . . . . . . . . . . . . . . . . . . . . . 67
12.1.5. Conjunto ortonormal . . . . . . . . . . . . . . . . . . . 67
12.1.6. Matriz ortongonal . . . . . . . . . . . . . . . . . . . . . 67
12.1.7. Proyeccion de un vector sobre otro . . . . . . . . . . . 67
12.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
12.2.1. Proposicion . . . . . . . . . . . . . . . . . . . . . . . . 68
12.2.2. Relacion entre complemento ortogonal y espacio nulo . 68
12.2.3. Independencia lineal de conjuntos ortogonales . . . . . 69
12.2.4. Combinacion lineal ortogonal . . . . . . . . . . . . . . 69
ÍNDICE GENERAL 6
Sistemas de ecuaciones
7
Capítulo 1
Matrices
1.1. Deniciones
1.1.1. Matriz
Una matriz A de tamaño f × c con coecientes en K es una funcion
A : J1, f K × J1, cK → K. Notaremos al conjunto de todas las matrices de f
las y c columnas con coecientes en K como Kf ×c .
Es comun representar a una matriz A : J1, f K × J1, cK → K como un
arreglo rectangular
a11 a12 . . . a1c
a21 a22 . . . a2c
A= .. .. . . ..
. . . .
af 1 af 2 . . . af c
en donde aij son los llamados coecientes de la matriz A.
Diremos que dos matrices A y B son iguales si tienen la misma cantidad
de las, la misma cantidad de columnas y aij = bij para cualquier i, j .
8
CAPÍTULO 1. MATRICES 9
1.1.5. Transposicion
Dada A ∈ Km×n se dene la matriz transpuesta de A como la matriz
A ∈ Kn×m dada por (At )ij = aji .
t
1.2. Operaciones
1.2.1. Suma
Si A, B ∈ Kf ×c , la suma de A con B es la matriz C = (A + B) ∈ Kf ×c
dada por los coecientes cij = aij + bij .
Observacion Notese que solo pueden sumarse matrices del mismo tamaño.
1.2.3. Producto
Si A ∈ Km×n y B ∈ Kn×p denimos el producto de A con B como la
matriz C = (AB) ∈ Km×p dada por
n
X
cij = aik bkj
k=1
1.2.4. Traza
n
Dada A ∈ K se dene la traza de A como tr (A) = aii .
X
n×n
i=1
CAPÍTULO 1. MATRICES 11
1.3. Teoremas
1.3.1. Propiedades de la suma
Sean A, B, C ∈ Kn×m , entonces:
Asociatividad:(A + B) + C = A + (B + C);
Conmutatividad:(A + B) = (B + A);
Existencia del neutro: 0n×m + A = A + 0n×m ;
Existencia del opuesto: A + (−1A) = 0.
(αA)t = αAt ;
(A + B)t = At + B t ;
tr (AB) = tr (BA);
n X
X n
tr (AAt ) = a2ij
i=1 j=1
Capítulo 2
Factorizacion LDU
2.1. Deniciones
2.1.1. Matriz de eliminacion
Denimos la matriz Eij (−l) dada por:
−l
p=i∧q =j
epq = 1 p=q
0
13
CAPÍTULO 2. FACTORIZACION LDU 14
2.2. Teoremas
2.2.1. Unicidad de la factorizacion LDU
Enunciado Si A puede factorizarse sin intercambio de las y todos los
pivotes son distintos de 0, entonces la factorizacion LDU es unica.
Demostracion Supongamos A = L1 D1 U1 = L2 D2 U2 .
1 es triangular inferior con 1 en la diagonal.
L−1
U2−1 es triangular superior con 1 en la diagonal.
D1−1 es diagonal cuyos elementos diagonales son los reciprocos de los
elementos diagonales de D1 .
L1 D1 U1 = L2 D2 U2
−1
D1 U1 = L1 L2 D2 U2
−1 −1
U1 = D1 L1 L2 D2 U2
U1 U2−1 = D1−1 L−1
1 L2 D2
| {z } | {z }
triangular superior con 1 en la diagonal triangular inferior
2.2.4. Lema
Enunciado Sean para i, j ∈ {1, . . . , n} las funciones:
Πij : {1, . . . , n} → {1, . . . , n}
r
i 6= j 6= r
r → Πij (r) = i r=j
j r=i
Demostracion
Si k, l 6= i, j ⇒ Pij Ekl = Ekl Pij .
Si k = i ∧ l = j , como Πij (k) = j y Πij (l) = i ⇒ Pij Eij = Eji Pij .
Si k = i ∧ l 6= j , como Πij (k) = j y Πij (l) = l ⇒ Pij Eil = Ejl Pij .
COMPLETAR.
Demostracion
1. Ax = b, EP |{z}b ⇒ U x = b̃, luego como U es triangular superior
| {zA} x = EP
U b̃
sin 0 en la diagonal, existe solucion unica con substitucion hacia atras.
CAPÍTULO 2. FACTORIZACION LDU 16
U 0 w + cxj + M1 z
m2 z
M3 z
Demostracion
⇒ : Como A es no singular, entonces ∀b ∈ Rn el sistema Ax = b tiene
solucion unica. En particular para los versores ej .
| | | | | |
Sean xj /Axj = ej y B = x1 . . . xn , luego AB = Ax1 . . . Axn = I .
| | | | | |
Tenemos:
EA xj = Eej ⇒ xj = U −1 Eej .
• Axj = ej ⇒ |{z}
U
| | |
• B = U −1 Ee1 . . . U −1 Een = U −1 EI = U −1 E .
| | |
AB = I ⇐⇒ EP AB = EP ⇐⇒ U BA = EP A ⇐⇒ U BA = U ⇐⇒ BA = I
Espacios vectoriales
18
Capítulo 3
Introduccion
3.1. Deniciones
3.1.1. Espacio vectorial
Sea V un conjunto no vacio de objetos llamados elementos, K un cuerpo
de escalares y las operaciones:
+ : V × V →V · : K × V →V
(u, v) →u + v (α, u) →αu
19
CAPÍTULO 3. INTRODUCCION 20
3.2. Teoremas
3.2.1. Propiedades de los espacios vectoriales
Enunciado Sea (V, K, +, ·) un espacio vectorial, sabemos existe 0 ∈ V /0 + x = x;
y para cada v ∈ V existe v̄/v + v̄ = 0, luego:
1. Si 00 ∈ V es tal que 00 + x = x, entonces 00 = 0.
2. Dado v ∈ V , si v̄ 0 es tal que v + v̄ 0 = 0, entonces v̄ 0 = v̄ .
3. Si z + x = z + y entonces x = y .
4. α · 0 = 0.
5. 0 · v = 0.
6. (−α · v) = α · v̄ = (α · v).
7. Si α · v = 0 entonces α = 0 o v = 0.
Demostracion EJERCICIO.
Demostracion
1 ⇐⇒ 2:
3.2.3. Lema
Enunciado Sea V un espacio vectorial y v1 , v2 , . . . , vn ∈ V entonces:
1. vj ∈ h{v1 , v2 , . . . , vn }i para j ∈ {1, . . . , n}.
2. h{v1 , v2 , . . . , vn }i es un subespacio de V .
3. Si U ⊆ V es un subespacio de V tal que v1 , v2 , . . . , vn ∈ U luego
h{v1 , v2 , . . . , vn }i ⊆ U .
CAPÍTULO 3. INTRODUCCION 23
Demostracion
1. En efecto vj = (0v1 + . . . + 1vj + . . . + 0vn ) ∈ h{v1 , v2 , . . . , vn }i.
2. Nos alcanzara con ver que h{v1 , v2 , . . . , vn }i =
6 ∅ y ademas es cerrado
bajo la suma de vectores y producto por escalares:
0 ∈ h{v1 , v2 , . . . , vn }i pues 0 = 0v1 + . . . + 0vn .
Sean u, w ∈ h{v1 , v2 , . . . , vn }i luego u = α1 v1 + . . . + αn vn y w =
β1 v1 + . . . + βn vn . Sumando ambas igualdades obtenemos:
u + w = (α1 + β1 ) v1 + . . . + (αn + βn ) vn
por lo que u + w ∈ h{v1 , v2 , . . . , vn }i.
Sea α un escalar, luego αv = α (c1 v1 + . . . + cn vn ) = (αc1 ) v1 + . . . + (αcn ) vn
por lo que αv ∈ h{v1 , v2 , . . . , vn }i.
3. Sea u ∈ h{v1 , v2 , . . . , vn }i, luego u = α1 v1 +. . .+αn vn . Como v1 , . . . , vn ∈
U y U es un espacio vectorial, los axiomas de clausura nos permiten
asegurar que α1 v1 + . . . + αn vn = u ∈ U .
base
4.1. Deniciones
4.1.1. Independencia lineal
Sea V un espacio vectorial sobre K, entonces S ⊂ V se dice linealmente
dependiente si existen v1 , . . . , vn ∈ S distintos y escalares α1 , . . . , αn no todos
nulos tales que α1 v1 + · · · + αn vn = 0.
Un conjunto que no es linealmente dependiente se dice linealmente in-
dependiente. Mas precisamente un conjunto es linealmente independiente si
α1 v1 + α2 v2 + · · · + αn vn = 0 ⇒ α1 = . . . = αn = 0.
Si el conjunto S es nito, frecuentemente se dice que los vectores S son
linealmente dependientes o independientes.
Observaciones
Cualquier conjunto que contenga a 0 es linealmente dependiente.
Cualquier conjunto que contenga a otro linealmente dependiente es
linealmente dependiente.
Cualquier subconjunto de uno linealmente independiente, tambien es
linealmente independiente.
Un conjunto S es linealmente independiente si y solo si cada subcon-
junto de S es linealmente independiente.
24
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 25
4.1.2. Dimension
Todo espacio vectorial V generado por una cantidad nita de vectores n
se denomina espacio vectorial de dimension nita y lo notamos dim (V ) = n
siendo n el natural mas pequeño posible. En caso contrario diremos que V
es de dimension innita.
4.1.3. Base
En un espacio vectorial V de dimension nita, una base B es un conjunto
de vectores linealmente independientes que genera el espacio.
4.2. Teoremas
4.2.1. Unicidad de la combinacion lineal independiente
Enunciado Los vectores v1 , . . . , vn son linealmente independientes si y solo
si ∀v ∈ h{v1 , . . . , vn }i, v puede escribirse de manera unica como combinacion
lineal de v1 , . . . , vn .
Demostracion
⇒ : Sea v ∈ h{v1 , . . . , vn }i /v = α1 v1 + . . . + αn vn = β1 v1 + . . . + βn vn
luego 0 = v−v = (α1 − β1 ) v1 +. . .+(αn − βn ) vn . Como dichos vectores
son linealmente independientes resulta αi − βi = 0 ⇐⇒ αi = βi , por
lo tanto ambas combinaciones son identicas.
⇐ : Como la unica forma de escribir al 0 es 0 = 0v1 +. . .+0vn entonces
dichos vectores son linealmente independientes.
4.2.2. Lema
Enunciado Si S = {v1 , . . . , vn } es linealmente dependiente y v1 6= 0 luego
∃j ∈ {2, . . . , n} tal que se verican:
1. vj ∈ h{v1 , . . . , vj−1 , vj+1 , . . . , vn }i.
2. Si quitamos al vector vj resulta: h{v1 , . . . , vn }i = h{v1 , . . . , vj−1 , vj+1 , . . . , vn }i.
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 26
Demostracion
1. Como S es linealmente dependiente existen escalares c1 , . . . , cn ∈ K no
todos nulos tales que c1 v1 + . . . + cn vn = 0. Como v1 6= 0 entonces
c2 , . . . , cn no pueden ser todos cero.
Sea j ∈ {2, . . . , n} el mayor indice tal que cj 6= 0 luego:
cj c1 c2 cj−1 cj+1 cn
vj = vj = − v1 − v2 − . . . − vj−1 − vj+1 − . . . − vn
cj cj cj cj cj cj
i=1
Sea A = (aij )n×m , como el sistema Ax = 0 es compatible indeterminado
(pues tiene menos ecuaciones que incognitas) existe una solucion no trivial
m
x = (x1 , . . . xm ) tal que aij xj = 0.
X
j=1
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 27
4.2.4. Corolario
Enunciado Sea V un espacio vectorial de dimension nita n entonces:
1. Cualquier subconjunto de V que contenga mas de n vectores es lineal-
mente dependiente.
2. No existe un subconjunto de V que contenga menos de n vectores que
genere V .
Demostracion
1. Sea S un subconjunto de V con mas de n vectores y supongamos que
es linealmente independiente, luego por el teorema anterior resulta que
S no tiene mas de n vectores. Contradiccion.
2. Supongamos existe un conjunto con menos de n vectores que genera
V , digamos m < n vectores. Como n es la dimension de V entonces es
el minimo numero de vectores necesarios para generar V , sin embargo
tambien lo podemos generar con m < n vectores. Contradiccion.
4.2.5. Lema
Enunciado Sea S un subconjunto linealmente independiente de un espacio
vectorial V y supongamos que v ∈ V pero v ∈
/ hSi entonces S ∪ {v} es
linealmente independiente.
4.2.6. Teorema
Enunciado Si W es un subespacio de un espacio vectorial de dimension
nita V , entonces cada subconjunto linealmente independiente de W es nito
y es parte de una base nita de W .
4.2.8. Corolario
Enunciado En un espacio vectorial de dimension nita V cada conjunto
no vacio de vectores linealmente independientes es parte de una base de V .
Demostracion EJERCICIO.
j=1
luego I = CA y analogamente I = AC .
{u1 , . . . , uk , w1 , . . . , wn } es base de W2 .
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 30
n
X k
X m
X
− zl wl = xi u i + yj vj
l=1 i=1 j=1
| {z } | {z }
h∈W2 h∈W1
dim (W1 + W2 ) = k + m + n.
dim (W1 ∩ W2 ) = k .
luego,
5.1. Deniciones
5.1.1. Base ordenada
Sea V un espacio vectorial de dimension nita, una base ordenada de
V es una sucesion nita de vectores que genera el espacio V . Por abuso de
notacion diremos que B = {v1 , . . . , vn } es una base ordenada.
5.1.2. Coordenadas
Sea V un espacio vectorial de dimension nita sobre K y sea B = {v1 , . . . , vn }
una base ordenada de V entonces, dado v ∈ V resulta que existe una uni-
n
ca n-upla (x1 , . . . , xn ) de escalares tal que v = xi vi . Llamaremos a xi la
X
i=1
cordenada i-esima de v respecto de la base ordenada B .
Es decir que para cada base ordenada de V existe una funcion biyectiva:
F : V →Kn
v → (x1 , . . . , xn )
31
CAPÍTULO 5. COORDENDAS Y CAMBIOS DE BASE 32
5.2. Teoremas
5.2.1. Matriz de cambio de base
Enunciado Sea V un espacio vectorial de dimension n sobre K y sean B
y B 0 bases ordenadas de V entonces existe una unica matriz n × n inversible
A ∈ M [K] tal que: [v]B = A [v]B 0 y [v]B 0 = A−1 [v]B para todo v ∈ V .
i=1
tenemos:
n n n
! n X
n n n
!
X X X X X X
u = x01 v10 +. . .+xn vn0 = x0j vj0 = x0j x0j aij vi = x0j aij
aij vi = vi
j=1 j=1 i=1 j=1 i=1 i=1 j=1
j=1
| {z }
(∗)
x1
Sea A la matriz n×n cuyas entradas entrada ij son aij y sean x = ...
xn
x01
y x0 = ... podemos escribir (∗) como [u]B = x = Ax0 = A [u]B 0 (1).
x0n
Como B y B 0 son linealmente independientes, x = 0 ⇐⇒ x0 = 0 enton-
ces considerando (1) resulta que los vectores columna de A son linealmente
independientes luego A resulta inversible y x0 = A−1 x.
CAPÍTULO 5. COORDENDAS Y CAMBIOS DE BASE 33
5.2.2. Teorema
Enunciado Sea A una matriz inversible n × n sobre K, V un espacio vec-
torial de dimension n sobre K y B una base ordenada de V entonces existe
una unica base ordenada B 0 de V tal que:
1. [v]B = A−1 [v]B 0 .
2. [v]B 0 = A [v]B .
para 1 ≤ k ≤ n.
Vemos que para cada k pudimos expresar al vector vk como combinacion
lineal de los vectores {v10 , . . . , vn0 }, es decir que el espacio generado por B 0
contiene a B por lo tanto B 0 genera todo el espacio V . Ademas como B 0 es
linealmente independiente, luego B 0 es base de V y por su denicion y el
teorema anterior resultan (1) y (2).
Parte III
Transformaciones lineales
34
Capítulo 6
Introduccion
6.1. Deniciones
6.1.1. Transformacion lineal
Sean V y W espacios vectoriales sobre K, una funcion T : V → W es
llamada lineal si verica:
1. T (u + v) = T (u) + T (v) ∀u, v ∈ V .
2. T (αu) = αT (u) ∀u ∈ V ∀α ∈ K.
Notaremos al conjunto de todas las transformaciones lineales de V en W
como L (V, W ).
6.1.3. Rango
Si V es un espacio vectorial de dimension nita y T ∈ L (V, W ) se dice
que la dimension de img (T ) es el rango de T .
35
CAPÍTULO 6. INTRODUCCION 36
6.1.4. Homomorsmos
Las transformaciones lineales de entre espacios vectoriales son llamadas
homomorsmos de espacios vectoriales. Un homomorsmo T ∈ L (V, W ) se
llama:
Monomorsmo si T es inyectiva.
Epimorsmo si T es sobreyectiva.
Isomorsmo si T es biyectiva.
Endomorsmo si V = W .
Automormos si es un isomormo endomorfo.
Observaciones
Todo espacio vectorial es trivialmente isomorfo a si mismo.
Si V es isomorfo a W luego W es isomorfo a V .
Si V es isomorfo a W y W a Z entonces V es isomorfo a Z .
De lo anterior concluimos que la relacion ser isomorfo a es una relacion de
equivalencia en el conjunto de espacios vectoriales.
6.2. Teoremas
6.2.1. Determinacion de una TL por la actuacion en la
base
Enunciado Sea V un espacio vectorial de dimension nita y {v1 , . . . , vn }
una base ordenada de V y sean W un espacio vectorial sobre el mismo cuerpo
K y w1 , . . . , wn ∈ W entonces existe una unica T ∈ L (V, W ) /T (vi ) = wi
con i ∈ {1, . . . , n}.
CAPÍTULO 6. INTRODUCCION 37
T es lineal pues:
n n
! " n
# n
X X X X
• T (u + v) = T xi vi + yi vi =T (xi + yi ) vi = (xi + yi ) T (vi ) =
i=1 i=1 i=1 i=1
n
X n
X n
X
= (xi + yi ) wi = xi w i + yi wi = T (v) + T (w)
i=1 i=1 i=1
n
! n n
X X X
• T (αv) = T αxi vi = αxi T (vi ) = α xi wi = αT (v)
i=1 i=1 i=1
Demostracion
⇒ : Supongamos existe un vector v ∈ V /T (v) = 0 = T (0) |{z}
⇒ v = 0.
inyectiva
j=1
m
! m
luego y = T αj T (vj ). Para 1 < j < k se tiene que
X X
αj vj =
j=1 j=1
m
T (vj ) = 0 (por ser vectores de N (T )) por lo tanto y = αj T (vj ) con-
X
j=k+1
cluyendo que T (vk+1 ) , . . . , T (vm ) generan img (T ). Debemos ver ahora que
son linealmente independientes. !
m m
Supongamos existen escalares ci ∈ K tales que 0 = ci vi ,
X X
ci T (vi ) = T
i=k+1 i=k+1
m
es decir que v = ci vi ∈ N (T ). Como {v1 , . . . , vk } es base de N (T )
X
i=k+1
k
tambien existen escalares bi ∈ K tales que v = bi vi ∈ N (T ). Luego
X
i=1
k m
ci vi y como {v1 , . . . , vk , vk+1 , . . . , vm } son li-
X X
0 = v−v = bi vi −
i=1 i=k+1
nealmente independientes por ser base de V resulta que bi = ci = 0. Por lo
tanto {T (vk+1 ) , . . . , T (vm )} es base de img (T ).
rang (T ) = dim [img (T )] = m − k .
Demostracion
Clausura respecto de la suma:
• (T + S) (cv + u) = T (cv + u)+S (cv + u) = cT (v) + T (u) + cS (v) + S (u) .
• T (cv + u) + S (cv + u) = cT (v) + T (u) + cS (v) + S (u) .
EJERCICIO.
(ST ) (T −1 S −1 ) = Iv ∧ (T −1 S −1 ) (ST ) = Iz .
Demostracion
1.
⇒ : Sea T no singular y sea S un subconjunto linealmente inde-
pendiente de V , queremos ver que si v1 , . . . , vk ∈ S luego T (v1 ) , . . . , T (vk )
es linealmente independiente en W .
Demostracion Si v = x1 v1 + . . . + xn vn ∈ V entonces:
n
! n n m
! m n
!
X X X X X X
T (v) = T xj vj = xj T (vj ) = xj Aij wi = Aij xj wi
j=1 j=1 j=1 i=1 i=1 j=1
Observacion Sea A la matriz cuyas columnas son A1 , . . . , An con aij = [T (vj )]B0 ,
si S ∈ L (V, W ) y C = [C1 , . . . , Cn ] es la matriz de S relativa a las bases
ordenadas B y B 0 entonces la matriz αA + C es la matriz asociada a la
transformacion lineal αT + S relativa a B y B 0 pues:
αaij + cij = α [T (vj )]B 0 + [S (vj )]B 0 = [αT (vj ) + S (vj )]B 0 = [(αT + S) (vj )]B 0
6.2.12. Teorema
Enunciado Sea V un espacio vectorial n-dimensional sobre K y W un
espacio vectorial sobre el mismo cuerpo, para cada par de bases ordenadas
B y B 0 de V y W respectivamente la funcion
F : L (V, W ) →Km×n
T →A
Demostracion EJERCICIO.
Observaciones
Si T, S ∈ L (V ), B base ordenada de V de dimension nita entonces:
[ST ]B = [S]B [T ]B .
B .
Cuando T es inversible resulta [T −1 ]B = [T ]−1
Capítulo 7
7.1. Deniciones
7.1.1. Funcional lineal
Sea V un espacio vectorial sobre K, una transformacion lineal de V en K
se dice un funcional lineal.
Observaciones
Si f es un funcional lineal no nulo, entonces rang (f ) = 1.
Si dim (V ) = n ∈ N sabemos que dim [N (f )] = dim (V ) − rang (f ) = n − 1.
7.1.3. Hiperplano
En un espacio vectorial de dimension nita n, un subespacio de dimension
n − 1 es llamado hiperplano.
45
CAPÍTULO 7. FUNCIONALES LINEALES Y DUALIDAD 46
7.1.4. Anulador
Sea V un espacio vectorial sobre K y S ⊂ V , llamamos anulador de S al
conjunto S 0 = {f ∈ V ∗ /f (v) = 0∀v ∈ S}.
Observaciones
S 0 es subespacio vectorial de V ∗ .
Si S = {0} entonces S 0 = V ∗ .
Si S = V entonces S 0 = {0} ⊂ V ∗ .
7.2. Teoremas
7.2.1. Existencia y unicidad de la base dual
Enunciado Sea B = {v1 , . . . , vn } una base ordenada de un espacio vecto-
rial V , sabemos por el teorema de determinacion de una TL por la actuacion
en la base que para cada i ∈ {1, . . . , n} existen unicos funcionales lineales
fi sobre V tales que fi (vj ) = δij . Luego el conjunto {f1 , . . . , fn } es la unica
base de V ∗ .
n
Demostracion Veamos que son linealmente independientes: Sea f =
X
ci f i
i=1
n n
con ci ∈ K luego f (vj ) = ci δij = cj . En particular si f es
X X
ci fi (vj ) =
i=1 i=1
n
el funcional lineal nulo f0 = ci fi sera f0 (vj ) = 0 por lo tanto cj = 0
X
i=1
pudiendo concluir lo propuesto.
Ademas como sabemos que dim (V ∗ ) = dim (V ) = n surge que B ∗ = {f1 , . . . , fn }
es base para V ∗ llamada base dual de V .
i=1
n
2. Para cada v ∈ V se tiene v = fi (v) vi .
X
i=1
Demostracion
1. Sea f ∈ V ∗ , luego f es combinacion lineal de los elementos fi , es decir:
n
ci fi y como f (vi ) = c1 f1 (vi ) + . . . + cn fn (vi ) = 0 + . . . +
X
f =
i=1
n
ci fi (vi ) + . . . + 0 resulta f (vi ) = ci por lo que f = f (vi ) fi .
X
| {z }
1 i=1
n n n
2. De forma similar si v ∈ V , v = xi vi , luego fj (v) =
X X X
xi fj (vi ) = xi δij = xj
i=1 i=1 i=1
y por lo tanto xj = fj (v).
j=1
es linealmente independiente.
n
Falta ver que h{fk+1 , . . . , fn }i = W . Sea f ∈ V , f = f (vi ) fi . Si
X
0 ∗
i=1
n
f ∈ W se tiene que f (vi ) = 0 para vi ∈ W , 1 ≤ i ≤ k luego f = f (vi ) fi ,
X
0
i=k+1
es decir, f es combinacion lineal de h{fk+1 , . . . , fn }i. Asi se tiene que dim (W 0 ) = n − k .
7.2.4. Corolario
Enunciado Si W es subespacio k-dimensional de un espacio vectorial V
n-dimensional, entonces W es la interseccion de (n − k) hiperplanos de V .
7.2.5. Corolario
Enunciado Si W1 y W2 son subespacios de un espacio vectorial de dimen-
sion nita, entonces W1 = W2 ⇐⇒ W10 = W20 .
Demostracion
⇒ : Trivial.
Demostracion EJERCICIO.
Parte IV
Diagonalizacion
50
Capítulo 8
Autovalores y autovectores
8.1. Deniciones
8.1.1. Autovalores y autovectores
Sea V un espacio vectorial sobre K y sea T un operador lineal sobre V ,
un autovalor de T es un escalar λ ∈ K tal que existe un vector no nulo v ∈ V
que verica T (v) = λv . Si λ es un autovalor de T entonces:
Cualquier vector v/T (v) = λv se llama autovector de T asociado al
autovalor λ.
La coleccion de todos los autovectores asociados a un determinado au-
tovalor λ se llama autoespacio de T asociado a λ.
Observaciones
Si T es un operador lineal cuya matriz asociada es A y λ es un escalar
cualquiera, el conjunto {v ∈ V : Av = λv} es un subespacio de V . En
efecto es el espacio nulo de la matriz A−λI . Tenemos que λ es autovalor
de T si Av = λv ⇐⇒ Av − λv = 0 ⇐⇒ (A − λI) v = 0 ⇐⇒ v ∈ N (A − λI).
Si dim (V ) es nita, (A − λI) es no inyectiva cuando el determinante
de la matriz asociada a ella para alguna base B es igual a 0.
Si una matriz A tiene a 0 como autovalor, esto signica que Ax = 0x
tiene una solucion no trivial, luego A es singular y por lo tanto no
inversible.
51
CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES 52
8.2. Teoremas
8.2.1. Autovalores de una matriz triangular
Enunciado Los autovalres de una matriz triangular son las entradas de su
diagonal principal.
Diagonalizacion
9.1. Deniciones
9.1.1. Matrices semejantes
Sean 2 matrices cuadradas A y B sobre K, se dice que B es semejante o
similar a A si existe una matriz P inversible tal que B = P −1 AP .
9.2. Teoremas
9.2.1. Autovalores de matrices semejantes
Enunciado Si las matrices A, B son semejantes, entonces tienen el mismo
polinomio caracteristico y por lo tanto los mismos autovalores con la misma
multiplicidad.
54
CAPÍTULO 9. DIAGONALIZACION 55
Demostracion Si B = P −1 AP entonces:
B − λI = P −1 AP − λI = P −1 AP − λP −1 IP = P −1 (A − λI) P
luego:
Demostracion
| | |
⇒ : Sean λ1 , . . . , λn las entradas de D y sea P = v1 . . . vn luego
| | |
| | | | | |
AP = Av1 . . . Avn y P D = λ1 v1 . . . λvn .
| | | | | |
Como A es diagonalizable A = P DP −1 ⇐⇒ AP = P D, e igualando
columnas Avi = λi vi . Ademas como P es inversible resultan sus colum-
nas ser autovectores linealmente independientes de A y los elementos
diagonales de D los autovalores correspondientes.
CAPÍTULO 9. DIAGONALIZACION 56
⇐ : Dados v1 , . . . vn autovectores
linealmente
independientes de A,
| | |
construimos la matriz P = v1 . . . vn y con los correspondien-
| | |
tes autovalores armamos una matriz diagonal D. Luego vale para estas
matrices que AP = P D. Si ademas {v1 , . . . vn } es linealmente indepen-
diente resulta que P es inversible y se tiene A = P DP −1 siendo en ese
caso A diagonalizable.
9.2.4. Propiedades
Sea A una matriz de orden n cuyos autovalores diferentes son λ1 , . . . , λp
con 1 ≤ p ≤ n entonces:
1. Para 1 ≤ k ≤ p la dimension del autoespacio correspondiente a λk es
menor o igual a la multiplicidad del autovalor λk .
2. La matriz A es diagonalizable si y solo si la suma de las dimensiones
de los distintos autoespacios es igual a n. Esto sucede si y solo si la
dimension del autoespacio correspondiente a λk es igual a su multipli-
cidad.
3. Si A es diagonalizable y Bk es base para el autoespacio correspondien-
te a λk entonces la coleccion B = B1 ∪ . . . ∪ Bp forma una base de
autovectores de A.
Capítulo 10
10.1. Deniciones
10.1.1. Espacio invariante
Sea V un espacio vectorial sobre K y sea T : V → V un operador lineal,
un subespacio W de V se dice invariante por T si T aplica a W en si mismo.
Esto es, si v ∈ W ⇒ T (v) ∈ W .
Si S = {T1 , T2 , . . .} es un conjunto de operadores lineales sobre V , diremos
que un subespacio W de V es S-invariante si es invariente para cada Ti ∈ S .
Diremos ademas que V 6= {0} es un S-espacio simple si sus unicos subes-
pacios S-invarantes son V y el espacio trivial.
57
CAPÍTULO 10. FORMA NORMAL DE JORDAN 58
10.2. Teoremas
10.2.1. Invarianza de espacios nulos
Enunciado Sea T : V → V lineal y P (X) un polinomio cualqueira, en-
tonces N [P (T )] es invariante por T .
10.2.2. Teorema 4
Enunciado Sean P1 (X) , P2 (X) polinomios no constantes tales que su ma-
ximo comun divisor es 1 (es decir que no comparten raices y sus coecientes
principales son coprimos) y sean T : V → V un operador lineal. Si P (T ) es
la transformacion nula, entonces para W1 = N [P1 (T )] y W2 = N [P2 (T )]
resulta V = W1 ⊕ W2 .
10.2.3. Teorema 5
Enunciado Sea V un espacio vectorial sobre K, T : V → V un operador
lineal, P (X) = (X − α1 )m1 . . . (X − αr )mr un polinomio tal que P (T ) = 0
y Ui = N (T − αi I)mi entonces V es la suma directa de los subespacios
U1 , . . . , Ur .
10.2.4. Proposicion 1
Enunciado Sea S = {U1 , . . . , Un } un conjunto de operadores de V y
T ∈ L (V ) tal que T Ui = Ui T para toda Ui ∈ S , entonces img (T ) y N (T )
son subespacios S-invariantes de V .
Demostracion
Sea w ∈ Img (T ) tal que T (v) = w, luego Ui (w) = Ui [T (v)] = T [Ui (v)]
y como T aplica vectores dentro de su imagen resulta Ui (w) ∈ Img (T ).
Sea u ∈ N (T ), entonces T [Ui (u)] = Ui [T (u)] = Ui (0) = 0 por lo que
Ui (u) ∈ N (T ).
CAPÍTULO 10. FORMA NORMAL DE JORDAN 60
10.2.5. Proposicion 2
Enunciado Sea S un conjunto de operadores de V y T : V → V un
operador lineal. Supongamos que U T = T U para todo U ∈ S , luego si P es
un polinomio sobre K entonces P (T ) U = U P (T ).
Demostracion EJERCICIO.
Demostracion NO COMPLETAR.
Parte V
62
Capítulo 11
Producto interno
11.1. Deniciones
11.1.1. Producto interno
Dado un espacio vectorial V sobre un cuerpo K, un producto interno en
V es una funcion
V ×V → K
(u, v) → u · v = u × v = hu, vi
63
CAPÍTULO 11. PRODUCTO INTERNO 64
11.1.3. Longitud
La longitud o norma de √
un vector v ∈ Rn es un escalar no negativo que
notamos kvk denido como v · v .
11.1.4. Distancia
Para u, v ∈ Rn , la distancia entre u y v es la longitud de u − v , es decir:
dist (u, v) = ku − vk.
11.2. Teoremas
11.2.1. Ley del paralelogramo
Enunciado kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .
Demostracion
kx + yk2 = (x + y) · (x + y) = x · x + x · y + y · x + y · y .
kx − yk2 = (x − y) · (x − y) = x · x − x · y − y · x + y · y .
Demostracion
⇒ :kx + yk2 − kxk2 − kyk2 = 0 ⇐⇒ 2 (x · y) = 0 ⇐⇒ x · y = 0.
0 ≤ ku − αvk2 = u · u − u · αv − αv · u + αv · αv = u · u − 2α (u · v) + α2 (v · v)
Demostracion
ku + vk2 = kuk2 +2 (u · v)+kvk2 = kuk2 +2 |u · v|+kvk2 ≤ kuk2 +2 kuk·kvk+kvk2 = (kuk + kvk)2
Ortogonalidad
12.1. Deniciones
12.1.1. Ortogonalidad
Dos vectores u, v ∈ Rn son ortogonales si u · v = 0.
Observaciones
El vector 0 es ortogonal a todo vector.
Si u es ortogonal a v entonces tambien lo es a αv .
66
CAPÍTULO 12. ORTOGONALIDAD 67
12.2. Teoremas
12.2.1. Proposicion
Enunciado
1. Un vector x ∈ W ⊥ si y solo si x es ortogonal a todo vector de un
conjunto que genere W .
2. W ⊥ es un espacio vectorial.
Demostracion
1. Sea B = {w1 , . . . , wn } una base de W .
⇒ : Dado x ∈ W ⊥ , luego x⊥w para todo w ∈ W , en particular
para todo wi ∈ B .
⇐ : Sea w ∈ W tal que w = α1 w1 + . . . + αn wn , luego:
w · x = α1 (w1 · x) + . . . + αn (wn · x) = 0
| {z } | {z }
0 0
y · uj
z }| {
y · uj = (c1 u1 + . . . + cp up ) · uj = cj (uj · uj ) ⇒ cj =
| {z } | {z } uj · uj
(1) (2) | {z }
(2)
CAPÍTULO 12. ORTOGONALIDAD 70
U tU u1 u2 u3
ut1 ut1 · u1 ut1 · u2 ut1 · u3
ut2 ut2 · u1 ut2 · u2 ut2 · u3
ut3 ut3 · u1 ut3 · u2 ut3 · u3
Demostracion EJERCICIO.
12.2.9. Corolario
Enunciado Si y ∈ W = h{u1 , . . . , up }i entonces proyW y = y.
y · u1 y · up
z }| { z }| {
proyW y = u1 + . . . + up = c1 u1 + . . . + cp up = y
u1 · u1 up · up
| | |
entonces proyW y = (y · u1 ) u1 +. . .+(y · up ) up y ademas si U = u1 . . . up
| | |
entonces proyW y = U U y .
t
Demostracion EJERCICIO.
v2 = w2 − w2 ·v1
v
v1 ·v1 1
.
v3 = w3 − w3 ·v1
v
v1 ·v1 1
− w3 ·v2
v
v2 ·v2 2
.
..
.
vp = wp − wp ·v1
v
v1 ·v1 1
− wp ·v2
v
v2 ·v2 2
− ... − wp ·vp
v
vp ·vp p
.
Demostracion
CASO BASE: Trivial pues v1 = w1 .
CASO INDUCTIVO: Supongamos que se probo el resultado para k , es
decir que {v1 , . . . , vk } es base ortogonal de Wk = h{w1 , . . . , wk }i.
Veamos que B = {v1 , . . . , vk , vk+1 } es ortogonal. Para i, j ∈ {1, . . . , k} /i 6= j
resulta vi ⊥ vj por hipotesis inductiva. Ademas:
wk+1 · v1 wk+1 · vk wk+1 · vi
vk+1 ·vi = wk+1 − v1 − . . . − vk ·vi = wk+1 ·vi − vi ·vi = 0
v1 · v1 vk · vk vi · vi