Está en la página 1de 289

Algebra lineal

Temario

Matemticas I

Programa:

Algebra de matrices
1.1 Matrices
1.2 Matrices especiales
1.3 Operaciones con matrices
1.4 Matrices por bloques

Temario

Matemticas I

Programa:

Sistemas de ecuaciones lineales


2.1 Algoritmo de Gauss
2.2 Algoritmo de Gauss-Jordan
2.3 Existencia de soluciones
2.4 Operaciones elementales por filas y matrices elementales
2.5 Factorizacin LU
2.6 Geometra de ecuaciones lineales

Temario

Matemticas I

Programa:

Determinantes
3.1 Definicin
3.2 Propiedades
3.3 Determinantes e inversas
3.4 Regla de Cramer
3.5 Determinantes y matrices por bloques
3.6 Interpretacin geomtrica

Temario

Matemticas I

Programa:

Espacios vectoriales
Elementos de lgebra abstracta
Grupos
Todo sobre homomorfismos
Anillos
Campos
4.1 Espacios vectoriales
4.2 Subespacios vectoriales
4.3 Combinaciones lineales
4.4 Dependencia e independencia lineal
4.5 Base y dimensin
4.6 Kernel, imagen, espacio columna y espacio fila de una
matriz
4.7 Ecuaciones lineales y espacios vectoriales
4.8 Cambio de base
4.9 Espacio cociente
4.10 Sumas y sumas directas

Temario

Matemticas I

Programa:

Espacios vectoriales con producto interno


5.1 Producto interno
5.2 Desigualdad de Cauchy-Schwarz
5.3 Ortogonalidad
5.4 Procedimiento de Gram-Schmidt
5.5 Espacios normados

Temario

Matemticas I

Programa:

Transformaciones lineales
6.1 Definicin
6.2 Propiedades
6.3 Kernel e imagen de una transformacin lineal
6.4 Representacin matricial de una transformacin lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales

Temario

Matemticas I

Programa:
Valores propios y vectores propios
7.1 Definicin y propiedades
7.2 Teorema de Cayley-Hamilton
7.3 Diagonalizacin de matrices

Temario

Matemticas I

Programa:

Formas cannicas
8.1 Forma cannica de Jordan
8.2 Forma cannica racional

Descomposicin en valores singulares

Pseudoinversa

Funciones de matrices

Matrices definidas positivas


Temario

Matemticas I

Bibliografa

- B. Noble, J.W. Daniel, Applied linear algebra, Prentice


Hall.
- S. Grossman, Linear algebra, McGraw Hill.
- F.R. Gantmacher, Matrix Theory, Chelsea Publishing Co.
- G. Strang, Linear algebra and its applications, Harcourt
Brace Jovanovich Publishers.
- S. Lipschutz, Algebra lineal, McGraw Hill.

Meta y objetivo
Uso indiscriminado del lgebra lineal en
el modo de pensar del ingeniero
1. Algebra de Matrices
1.1 Matrices
1.2 Matrices especiales
1.3 Operaciones con matrices
1.4 Matrices por bloques
Matrices por bloques
a11 a12 a13 a14
a21 a22 a23 a24
a31 a32 a33 a34
a41 a42 a43 a44
b11 b12
b21 b22
b31 b32
b41 b42
Matrices por bloques
A
11
A
12
A
21
A
22
B
11
B
21
A
11
B
11
+A
12
B
21
A
21
B
11
+A
22
B
21
En este momento
Ya sabemos operar con matrices
2. Sistemas de Ecuaciones
2.1 Algoritmo de Gauss
2.2 Algoritmo de Gauss-Jordan
2.3 Existencia de soluciones
2.4 Operaciones elementales por filas y matrices elementales
2.5 Factorizacin LU
2.6 Geometra de ecuaciones lineales
Sistema de ecuaciones lineales
a
11
x
1
+a
12
x
2
+...+a
1n
x
n
=b
1
.
.
.
a
n1
x
1
+a
n2
x
2
+...+a
nn
x
n
=b
n
Sistema de ecuaciones lineales
2x
1
+3x
2
=2
x
1
+x
2
=3
x
2
=2/3-(2/3)x
1
x
2
=3-x
1
3-x
1
=2/3-(2/3)x
1
3-2/3 =x
1
-(2/3)x
1
2.333=0.333x
1
x
1
=7
x
2
=-4
Sistema de ecuaciones lineales
2x
1
+3x
2
=2
x
1
+x
2
=3
x
2
=2/3-(2/3)x
1
x
2
=3-x
1
(7,-4)
Algoritmo de Gauss
2x
1
+3x
2
=2
x
1
+x
2
=3
2 3
1 1
x
1
x
2
=
2
3
Algoritmo de Gauss
2 3
1 1
x
1
x
2
=
2
3
2 3
1 1
x
1
x
2
=
2
3
1/2 0
0 1
1/2 0
0 1
1 1.5
1 1
x
1
x
2
=
1
3
1 0
-1 1
1 0
-1 1
1 1.5
0 -.5
x
1
x
2
=
1
2
1 0
0 -2
1 0
0 -2
1 1.5
0 1
x
1
x
2
=
1
-4
1 -1.5
0 1
1 -1.5
0 1
Algoritmo de Gauss
1 0
0 1
x
1
x
2
=
7
-4
1 0
-1 1
1 0
0 -2
1 -1.5
0 1
=
-1 3
1 -2
2 3
1 1
1/2 0
0 1
-1 3
1 -2
=
1 0
0 1
Inversa Original
Notas
Si el sistema tiene soluciones Consistente
Si el sistema no tiene soluciones Inconsistente
Cada ecuacin es la ecuacin de una recta. Si todas las rectas se
intersectan en al menos un punto, el sistema es consistente, caso
contrario es inconsistente
Operaciones elementales multiplicar un rengln por una constante
diferente de cero; intercambiar renglones; sumar un mltiplo de un
rengln a otro rengln
Definicin. Se dice que una matriz de n*n es una matriz elemental
si es posible obtenerla a partir de la matriz identidad In de n*n
mediante una sola operacin elemental en los renglones
Notas
En el mtodo de Gauss slo se utilizaron matrices elementales
Inversa de una matriz
x
1
x
2
=
-1 3
1 -2
-1 3
1 -2
2 3
1 1
2
3
x
1
x
2
=
2 3
1 1
2
3
Si se tiene la inversa ...
Inversa de una matriz
La inversa de una matriz cuadrada A se define como la matriz B
que:
AB=BA=I y se denota como A
-1
Teorema. Si B Y C son invesras de A, entonces B=C
Demo.
BA=I (BA)C=IC (BA)C=B(AC)=BI=B=C
Inversa de una matriz
Teorema. Si A y B tienen inversa y son del mismo tamao,
entonces
a) AB tiene inversa
b) (AB)
-1
=B
-1
A
-1
Demo
Demostrar que: (AB)(B
-1
A
-1
)=(B
-1
A
-1
)(AB)=I
(AB)(B
-1
A
-1
)=A(BB
-1
)A
-1
=AIA
-1
=I
(B
-1
A
-1
)(AB)=B
-1
(AA
-1
)B=I
Inversa de una matriz
Notar que una matriz elemental tiene inversa. Esto es cierto ya que
es una operacin elemental por la matriz identidad.
Definicin. Si A=E
1
E
2
...E
n
B con Ei elementales, entonces A es
equivalente a B por renglones
Teorema. Si A es una matriz cuadrada, entonces las siguientes
afirmaciones son ciertas:
a) A tiene inversa
b) AX=0 nicamente tiene la solucin trivial
c) A es equivalente por renglones a I
Inversa de una matriz
Demo
a) b)
Si A tiene inversa AX=0 A
-1
AX=A
-1
0=0 X=0 es la nica
solucin
b) c) AX=0, donde la nica solucin es X=0 se puede llevar por
Gauss a la forma IX=0, pero para llevar a esta forma se tienen
que utilizar matrices elementales, i.e.
E
n
E
n-1
...E
1
A=I, como las Ei tienen inversa, entonces
E
1
-1
E
2
-1
...E
n
-1
I=A
c) a)
Como A es quivalente a I, entonces E
1
-1
E
2
-1
...E
n
-1
I=A, y por tanto
A
-1
= E
n
E
n-1
...E
1
I
En este momento
Ya resolvemos sistemas de ecuaciones y
conocemos cosas de la inversa.
3. Determinantes
Determinantes
3.1 Definicin
3.2 Propiedades
3.3 Determinantes e inversas
3.4 Regla de Cramer
3.5 Determinantes y matrices por bloques
3.6 Interpretacin geomtrica
Permutaciones
Conjunto n={1,2,...,n}, el conjunto de las
permutaciones de n es Sn.
Una permutacin oSn se escribe como
1 2 3 4
o(1) o(2) o(3) o(4)
Composicin
1 2 3 4
2 3 4 1
1 2 3 4
4 3 2 1
o=
t=
o t =
1 2 3 4
1 4 3 2
t o =
1 2 3 4
3 2 1 4
Inversas
1 2 3 4
2 3 4 1
2 3 4 1
1 2 3 4
o=
o
-1
=
o
-1
=
1 2 3 4
4 1 2 3
Transposicin
1 2 3 4
1 3 2 4
o=
Todos permanecen iguales, excepto dos que se intercambiaron
Ciclos
o=
o(1)=4, o(4)=1 -- o(2)=6, o(6)=5, o(5)=3, o(3)=2
1 2 3 4 5 6
4 6 2 1 3 5
=(1 4) (2 6 5 3)
Toda permutacin se puede escribir como el producto de ciclos
Ciclos
Chequen lo siguiente. Todo ciclo se puede escribir como un
producto de transposiciones
ejemplo (4 5 3 2 1)=(2 1)(3 1)(5 1)(4 1)
No es nica, pero todas las representaciones son pares o
impares en el nmero de transposiciones una permutacin es
par o impar.
Definicin. El signo de una permutacin es (+) 1 si es par (-1) si
es impar
Determinante
A=[aij] de n*n, el determinante de A se define como:
Det(A)=
a
1o(1)
a
2o(2)
...a
no(n)
Determinante
1 2 3
1 2 3
1 2 3
3 2 1
1 2 3
2 1 3
1 2 3
2 3 1
1 2 3
3 1 2
1 2 3
1 3 2
Ejemplo. Sea A una matriz de 3*3, entonces S3 tiene 6 elementos (3!)
Las permutaciones de arriba son pares, las de abajo impares.
Det(A)=a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
-a
12
a
21
a
33
-a
13
a
22
a
31
-a
11
a
23
a
32
Propiedades
R1

Ri+Rj

Rn
En este momento
Entendemos lo que es el determinante
4. Espacios vectoriales
Espacios vectoriales
Elementos de lgebra abstracta
Grupos
Todo sobre homomorfismos
Anillos
Campos
Algebra abstracta
Grupo: G(S,+)
S Conjunto de elementos
+ Operacin binaria
a+b=c, a,b,c S
Existe e S, a+e=e+a=a
Existe a
-1
S a
-1
+a=e
Es grupo?
Los naturales con +, *?
Z
4
, +?, Z
4
, *?
Los reales con +, *?
Los racionales con +, *?
Homomorfismos
Dos grupos (S
1
,+), (S
2
,*)
H:S
1
S
2
H(a+b)=H(a)*H(b)
H(e
1
+e
1
)=H(e
1
)+H(e
1
)=
H(e
1
)= e
2
*H(e
1
)
H(e
1
)*[H(e
1
)
-1
]= e
2
*H(e
1
)* H(e
1
)
-1
=e
2
H(e
1
)= e
2
Propiedad
H(x
-1
)=[H(x)]
-1
H(x)+ H(x
-1
)=H(x+x
-1
)=H(e
1
)=e
2
H(x
-1
)=[H(x)]
-1
Imagen
Im(H)={y|H(a)=y, aS
1
}
Son elementos de S
2
Kernel
Ker(H)={x|H(x)=e
1
}
son elementos de S
1
El kernel es una medida de la
inyectividad de la funcin
Suponer que H(x)=H(y)
H(x)+[H(y)]
-1
=e
2

H(x+y
-1
)=e
2
si y
-1
x
-1
hay ms de un elemento en el kernel de H
y por lo tanto no es inyectiva H.
La imagen es grupo
Sean a,b Im(H).
a+b=H(x)+H(y)=H(x+y) a+b tambin est
en la imagen de H.
H(e
1
)=e
2
la identidad est en la imagen
Si a est en Im(H) H(x)=a H(x
-1
) es el
inverso de a.
El kernel es grupo
Sean a,b Ker(H).
a+b=H(a)+H(b)=e2+e2 H(a+b)=e2
a+b tambin est en el kernel de H.
H(e
1
)=e
2
la identidad est en el kernel
Si a est en Ker(H) H(a)=e
2

H(a+a
-1
)=H(a)+H(a
-1
)=e
2
+e
2
a
-1
est en el
kernel
Subgrupos
Si G=(S,+) es un grupo, entonces
H=(R,+) es un subgrupo de G ssi
H=(R,+) tiene las caractersticas de un
grupo.
R es un subconjunto de S
Coconjuntos
Si H=(R,+) es un subgrupo de G
entonces para todo a elemento de G, el
conjunto aH es llamado el coconjunto
izquierdo de a debido a H.
Coconjuntos
El conjunto de todos los coconjuntos de
un grupo G debido a un grupo H es
llamado el grupo cociente G/H debido a
que tiene las propiedades de un grupo
Cada coconjunto de G/H es denotado
como [a] (el elemento que le di origen,
H est fijo)
Coconjuntos
Lo primero que hay que notar es que se
puede establecer la siguiente relacin de
equivalencia
a~b ssi a
-1
+b pertenece a H
a~a a est en aH,
a
-1
+a=e, como en H est la identidad,
entonces en aH est a
Coconjuntos
Si a~b entonces b~a
a
-1
+b est en H
(a
-1
+b)
-1
est en H
b
-1
+a est en H
Adems b est en aH
a
-1
+b est en H y e est en H y a est en aH
a
-1
+b=h a+a
-1
+b=a+h b=a+h, i.e. es un
elemento de aH
Coconjuntos
Si a~b y b~c entonces a~c a est en H
a
-1
b, b
-1
cH a
-1
c H
Adems c est en aH,
Claro
Coconjuntos
Como vemos, la relacin anterior
particiona el conjunto S del grupo
G=(S,+).
A su vez, cada particin es igual a un
coconjunto de G/H, entonces los
coconjuntos particionan a G/H
si b aH existe x H, tal que ax=b aH
a
-1
ax=a
-1
b=x H
Recordatorio
TEOREMA. Sea L una particin del
conjunto X. Defnase xRy si x, yS para
algn S L. Entonces R es reflexiva,
simtrica y transitiva.
Recordatorio
Demo.
Sea x X. Como X = L, x S para algn S L.
Entonces xRx y R es reflexiva.
Sup. xRy. Entonces x e y pertenecen a un S L. Como
y y x pertenecen a S, yRx R es simtrica.
Sup. xRy e yRx entonces x, y S L.
y, z T L.
Si S = T yS zT pero L es disjunta por
pares no es posible; entonces S = T x y z S
xRz; R es transitiva.
Recordatorio
j TEOREMA. Sea R una relacin de equivalencia sobre
un conjunto X. Para cada a X, sea
[a] = {x XxRa} entonces
L = {[a] a X} es una particin de X
Demo
Para verificar que L es una particin de X
i) X = L
ii) L es una familia disjunta por pares
Recordatorio
Sea a X; como aRa a [a]; entonces X = L
> Dem que si aRb [a] = [b]
- Sup aRb. Sea x [a], entonces xRa. Como aRb y R es
transitiva xRb. x [b] y [a] _ [b].
- Sup bRa. Sea x [b], entonces xRb. Como bRa y R es
transitiva, xRa. x [a] y [b] _ [a]
> Sup [a], [b] L con [a] = [b]. Probar [a] [b] = .
- Sup para algn x, x [a] [b], entonces xRa y xRb,
entonces [x]=[a] y [x]=[b]; consecuentemente [a]= [b]:
contradiccin [a] [b] = y L es disjunta por pares.
Grupos
En el grupo G/H el elemento [e] funciona
como la identidad.
[e]+[a]=[a]+[e]=[a] al menos el elemento
e+a est en la suma, pero este elemento
est en [a]
El inverso de [a] es [a
-1
], al sumar a+a
-1
se
genera el elemento e y por tanto [e]
Adems es cerrado
Sean X y Y dos conjuntos cualesquiera. Sea A:XY una
funcin cualquiera. Entonces se puede definir la relacin
Ker A de la siguiente forma:
x1~x2 ssi A(x1)=A(x2)
Note que la relacin Ker A es una relacin de
equivalencia.
Como es una relacin de equivalencia, entonces diremos
que x1|x2 (mod Ker A) x1 es equivalente a x2 mdulo
Ker A- -Tambin se dice que x1 es congruente a x2 va
Ker A o que la relacin Ker A es una congruencia-
Significado geomtrico de esta relacin
x2
x1
x4
x3
x6
x5
y4
y3
y2
y1
Observe que hay tantos clusters como imgenes de A
clusters
X
Y
Podemos hacer el conjunto de los clusters
Imagen de A
Significado geomtrico de esta relacin
(A menudo yo le llamo conjunto de clustercillos)
clusters
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
A este conjunto lo llamaremos X/Ker A,
o conjunto cociente X/Ker A
Significado geomtrico de esta relacin
X/Ker A
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
Noten que la relacin Ker A est dando
una medida de la inyectividad de A. Si
el nmero de clusters es igual al nmero
de elementos en X, entonces A es
inyectiva.
A los clusters se les llama coconjuntos (cosets) y son justamente los
subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se
les suele llamar las fibras de A.
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]
c4=[3 7]
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Y
X/Ker A
Aqu est A
Ejem. A(x)=x mdulo 4 -es el residuo de la divisin, no la congruencia
Como X/Ker A y la imagen de A tienen la misma cantidad de elementos,
entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A}Im(A)]
Significado geomtrico de esta relacin
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]
c4=[3 7]
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Y
X/Ker A
Aqu est A
Significado geomtrico de esta relacin
Proposicin. Sea A:XY y sea P
A
:XX/Ker A su proyeccin cannica,
entonces ng:X/ker Aim(A) tal que A=gP
A
, donde g es una biyeccin.
P
A
Demostracin
Definir g(z)=A(x) ssi z=P
A
(x). Se afirma que g(z) es
funcin
Cubre todo X. Como A es funcin, entonces a cubre todo X, y
por la definicin anterior, g tambin cubrir todo X
Un valor de X/Ker A no est asociado a dos valores de Y.
Suponer que si es as, (z,y
1
), (z,y
2
)g.
Entonces y
1
=y
2
. Por la definicin de g se tiene:
z= P
A
(x
1
), y
1
=A(x
1
) y adems
z= P
A
(x
2
), y
2
=A(x
2
)
Como P
A
(x
1
),= P
A
(x
2
) implica que A(x
1
)= A(x
2
)
Entonces y1=y2, una contradiccin, entonces
Un valor de X/Ker A no est asociado a dos valores de Y
Por tanto g(z) si es funcin.
Demostracin
Ahora veremos que g es una biyeccin.
g es inyectiva. Suponer que no es as, i.e. (z,y),(z,y)g
Entonces z=z
Entonces z=P
A
(x) y z=P
A
(x)
Adems A(x)=A(x)=y.
Como tienen la misma y, entonces P
A
(x)=P
A
(x), una
contradiccin. Por tanto es inyectiva.
g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes
de A. Por definicin de g, cualquier imagen de A tiene una
preimagen en X/Ker A. Por lo tanto g es sobre.
Como es inyectiva y sobre, es una biyeccin.
Demostracin
Por definicin A=g
o
P
A
Significado geomtrico de esta relacin
,... Y ahora
Definicin. Se dice que una relacin R1 refina (es ms fina) a R2 y se
escribe R1eR2 si (x,y)R1 entonces (x,y)R2. En otras palabras, todo
coconjunto de R1 es un subconjunto de algn coconjunto de R2.
0 4 8
1 5 9
2 6
3 7
0 4 8
1 5 9
2 6
3 7
Ahora se generalizarn estos conceptos
Proposicin. Sea f:XY y sea o una particin del conjunto X,
donde Ker f >o. Entonces existe un nico mapa g:X/oY tal
que f=gP
o
.
En pocas palabras, dice que si existe una particin ms fina que
la que deja la funcin, entonces es posible recuperar la informa-
cin de la funcin va la particin ms fina (que en este caso se
llama o).
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0
1
Y
Aqu est f
Aqu est Ker f (son los crculos
que forman las clases de equivalencia)
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0
1
Y
Aqu est f
Aqu est o (son los rectngulos
que forman las clases de equivalencia),
Se puede ver que Ker f >o
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0
1
Y
Aqu est f
e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
Aqu est P
f
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0
1
Y
Aqu est f
e1=[0 4 8]
e2=[1 5 9]
e3=[2 6]
e4=[3 7]
e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
Aqu est P
o
Aqu est P
f
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0
1
Y
Aqu est f
e1=[0 4 8]
e2=[1 5 9]
e3=[2 6]
e4=[3 7]
e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
Aqu est P
o
Aqu est P
f
Aqu est g
Significado geomtrico de esta relacin
Demostracin
1. Definir g(z)=f(x) ssi z=P
o
(x). Adems para
cada z
k
={xi|xiAio} existe una clase
[x
i
]={x
i
|f(x
i
)=y} donde z
k
[x
i
]
2. como Ker f>o, entonces [x
i
] puede ser
particionado en z
1
,...,z
n
3. g es una funcin.
a. Como z
k
pertenece a algn [x
i
], entonces este g(z
k
)
ser igual a f(x
i
), o sea todo elemento de X/o ser
asociado con un valor en Y. X/o est cubierto.
b. Si (z
k
,y
i
), (z
k
,y
j
)g, implica que z
k
[x
i
] y z
k
[x
j
], pero
por 2) esto no es cierto, por lo tanto cada z
k
se
asocia con uno y slo un valor de Y.
Significado geomtrico de esta relacin
Demostracin
Por la definicin de g, se tiene que
f(x)=g P
o
(x)
Suponer que existe g(z) tal que f=gP
o
Sea xX g(P
o
(x)) =f(x)= g(P
o
(x))
entonces g=g.
Significado geomtrico de esta relacin
Proposicin. Sea f:XY y g:XZ y sea Ker f>Ker g. Entonces
existe un mapa h:ZY tal que f=hg. Ms an, h est solamente
definida en la imagen de g; esto es la restriccin h|g(X).
Intuitivamente dice que la imagen de g deja suficiente informacin
para poder relacionar cada elemento de Z con uno y slo uno de Y.
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
X/Ker f
Aqu est f
Aqu est P
f
Hay una funcin isomrfica
e1
e2
0
1
Y
Significado geomtrico de esta relacin
e1
e2
e3
e4
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Z
X/Ker g
Aqu est g
Aqu est P
g
Hay una funcin isomrfica F
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
El Ker f> Ker g
Significado geomtrico de esta relacin
e1
e2
e3
e4
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Z
X/Ker f
Aqu est f
e1
e2
0
1
Y
X/Ker g
Aqu est g
F
Aqu est h
Significado geomtrico de esta relacin
Demostracin
h(z)=f(x) ssi z=g(x)
[x
i
]={x
i
|f(x
i
)=y}; como Ker f>Ker g implica que
[xi] puede ser particionado en z
1
,...,z
n
tal que
g(x
i
) =z
i
y por tanto h(z
i
)=y. Por la definicin, h
est definida en la imagen de g.
Como en el caso anterior h asigna a cada z
i
un
nico valor en Y.
Por la definicin de h se tiene que h(g(x)=f(x).
Se ve que se cumple, ya que como Ker f>Ker g,
un xg
-1
(z
i
) xf
-1
(y)
Significado geomtrico de esta relacin
Demostracin
Suponer que existe h(z) tal que f=hg
Sea xX h(g(x)) =f(x)= h(g(x))
entonces h=h.
Significado geomtrico de esta relacin
Proposicin. Si T,o son dos particiones tal que
Teo, entonces existe una nica funcin
f:X/TX/o tal que P
o
=fP
T
.
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
0 4 8
1 5 9
2 6
3 7
X
0 4 8
1 5 9
2 6
3 7
X
La particin o
La particin T
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
e1
e2
e3
e4
X/o
e1
e2
X/T
Aqu est P
o
Aqu est P
T
Significado geomtrico de esta relacin
0 4 8
1 5 9
2 6
3 7
X
e1
e2
e3
e4
X/o
e1
e2
X/T
Aqu est P
o
Aqu est P
T
Aqu est f
Significado geomtrico de esta relacin
Congruencias de sistemas dinmicos
Un sistema dinmico sobre un conjunto X
es un mapa :XX con la siguiente
interpretacin. Los elementos xX son
llamados estados y e es llamada funcin
de transicin de estados.
e
k
es la k-sima composicin de es
Congruencias de sistemas dinmicos
Sea T una particin de X con proyeccin
cannica P
T
:XX/ T . T es una
congruencia para e si existe un mapa e:
X/ T X/ T tal que:
e P
T
= P
T
e
P
T
P
T
e
e
X X
X/Ker T
X/Ker T
Congruencias de sistemas dinmicos
Recordando resultados previos
T es una congruencia de e ssi
Ker P
T
e Ker (P
T
e )
P
T
P
T
e
e
X/Ker T
X/Ker T
X
X
Anillos
Un anillo R=(S,+,*) es un conjunto con
dos operaciones binarias.
(S,+) es un grupo conmutativo (grupo
abeliano)
(S,*) es un semigrupo (se le pide cerrado,
pero no unidad ni inversas)
Anillos
En un anillo se deben cumplir las
propiedades distributivas
a*(b+a)=a*b+a*c
(b+c)*a=b*a+c*a
Anillos
En un anillo elemento identidad de (S,+)
ser denotado como 0.
Si (S,*) forma un grupo para sus
elementos no 0, es llamado anillo de
divisin.
Anillos
Un anillo de divisin, (S,*) si es
conmutativo ser llamado Campo
Anillos
Por ser anillo se tiene
a0=0a=0
a0=a(0+0)=a0+a0
a0+(-(a0))=a00=a0
a(-b)=-(ab)=(-a)b
0=a0=a(b+(-b))=ab+a(-b)
-ab=a(-b)
a(b-c)=ab-ac
a(b-c)=a(b+(-c))=ab+a(-c)=ab-ac
Espacios vectoriales
Espacios vectoriales
Subespacios vectoriales
Combinaciones lineales
Dependencia e independencia lineal
Base y dimensin
Espacios vectoriales
Un espacio vectorial E=(V,F)
Es un conjunto de elementos llamados
vectores sobre un campo F donde
x+y=y+x y pertenece a V
x+(y+z)=(x+y)+z
Existe el vector 0, tal que 0+x=x+0=x
Para cada vector x existe el x, tal que x-x=0
Espacios vectoriales
Cada elemento dol campo es llamado un
escalar
(x+y)= x+y
x= x
(1+ 2)x= 1(x)+ 2(y)
1x=x 1 la unidad multiplicativa del campo
Espacios vectoriales
ejemplos
Espacios vectoriales
Teorema
0v=v0=0
0v=0v+0v-0v=(0+0)v-0v=0v-0v=0
(-1)v=-v
v+(-1)v=1v+(-1)v=(1-1)v=0v=0
Agregando v a ambos lados se tiene el
resultado
Subespacio
Sea (V,F) un espacio, entonces (S,F) es
un subespacio de (V,F) si preserva todas
las caractersticas de espacio y S es un
subconjunto de V
Subespacio
ejemplos
Creacin de espacios
Teorema.
Espacio vectorial (V,F)
S subconjunto de V
Si v1,vn estn en S, entonces tambin
e1v1++envn, donde ei son elementos del
campo
(S,F) es un subespacio
Demo en clase por los alumnos
Creacin de espacios
Preguntas importantes
En qu condiciones dos conjuntos S1, S2
crean el mismo espacio vectorial?
Cal es la cardinalidad mnima de Q_S tal
que Q y S crean el mismo espacio vectorial?
Cando S crea el mismo espacio que
contiene a los vectores de S?
Dependencia e independencia
lineal
Definicin. Sea S={v1,v2,...vn} un
conjunto de vectores. El vector
y=e1v1+e2v2+...+envn donde los
coeficientes son escalares ser llamada
combinacin lineal de S.
Dependencia e independencia
lineal
Definicin. Sea S={v1,v2,...vn} un
conjunto de vectores. S es linealmente
independiente si
e1v1+e2v2+...+envn=0 tiene como
nica solucin la trivial. De lo contrario se
llamarn linealmente dependientes.
Dependencia e independencia
lineal
Definicin. Sea S={v1,v2,...vn} un
conjunto de vectores. Si S es linealmente
independiente, entonces el espacio
creado por S ser llamado espacio
generado por S.
Dependencia e independencia
lineal
Sea S={v1,v2,...vn} un conjunto de
vectores. Para mostrar si es linealmente
independiente se resuelve la ecuacin:
[v1 v2 ... vn] =0
e1
e2
...
en
Dependencia e independencia
lineal
Entonces ya podemos aplicar Gauss para
resolver el sistema y ver su solucin
Si la matriz [v1 ...vn] es de rango n entonces
tiene solucin nica
Si la matriz [v1 ... vn] es de rango menor a
n, entonces tiene ms de una solucin.
Dependencia e independencia
lineal
Ejemplos en clase
Bases, Dimensin y
coordenadas
Definicin. Sea (V,F) un espacio vectorial,
entonces el conjunto S={v1, v2, ...vn}
ser una base para (V,F) si S genera
(V,F).
S es linealmente independiente
S genera (V,F)
Bases, Dimensin y
coordenadas
ejemplos de bases en diferentes espacios
Bases, Dimensin y
coordenadas
Notita. Si z es una C.L. (combinacin lineal) de
los vectores x
1
,...,x
r
; y xi es una C.L. de los
vectores y
1
,...,y
s
. Entonces z es una C.L. de los
vectores y
1
,...,y
s
.
z=a
1
x
1
+...+a
r
x
r
z=a
1
(b
11
y
1
+...+b
1s
y
s
)+...+a
r
(b
r1
y
1
+...+b
rs
y
s
)
Es una propiedad de transitividad
Bases, Dimensin y
coordenadas
Notita. Si algunos vectores x1,...,xn son
linealmente dependientes (L.D.) entonces
todo el sistema x
1
,...,x
n
son L.D.
Suponer que x
1
,...,x
k
(k<n) son L.D.
a
1
x
1
+...+a
k
x
k
=0 con ai diferente de nulo.
a
1
x
1
+...+a
k
x
k
+0x
k+1
+...+0x
n
=0 es
solucin y el sistema es L.D.
Bases, Dimensin y
coordenadas
La base B={v1, ..., vn} es un conjunto,
pero tiene un orden para facilitar
trabajos futuros.
Representacin. Un vector v se puede
reescribir en trminos de una base.
v=e
1
v1+e
2
v2+...+e
n
vn, a donde
e
1
e
2
...
e
n
Es la representacin del vector
Coordenadas
Bases, Dimensin y
coordenadas
Ejemplos de representacin de vectores
Bases, Dimensin y
coordenadas
Teorema. La representacin del vector es
nica
v=e1v1+e2v2+...+envn=
e1v1+e2v2+...+envn
(e1-e1)v1+...+ (en-en)vn=0
base L.I. entonces la nica solucin
es cero (ei-ei)=0 ei=ei
Bases, Dimensin y
coordenadas
Notita. El teorema anterior es cierto si
dice que z=a
1
x
1
+...+a
k
x
k
los ai son
nicos ssi los xi son L.I.
Bases, Dimensin y
coordenadas
Definicin. Sea (V,F) un espacio vectorial.
Dos subespacios de (V,F); (V1,F) y (V2,F)
se dicen equivalentes si los vectores de
uno se pueden escribir como C.L. del
otro y viceversa.
Bases, Dimensin y
coordenadas
Teorema. Suponer que B={v1, ...,vp} es
una base para (V,F) y suponer que
D={u1,...,uq} es un subconjunto L.I. en
(V,F), entonces qep
Demostracin.
Como B es una base, entonces
uiD,(V,F) se puede expresar como una
C.L. de B
Bases, Dimensin y
coordenadas
S1={u1,e1,...,ep} es L.I. Existe un vector que
es C.L. de los anteriores, digamos que es ei.
Por transitividad el resto {u2,...,uq} es una C.L.
de S1-{ei} y se puede aplicar el mismo
procedimiento
Como se observa el procedimiento no puede
eliminar todos los vp vectores antes de que los
ui vectores se hayan agotado y qep.
Bases, Dimensin y
coordenadas
Teorema. Nmero de vectores en la base.
Suponer que para un espacio (V,F) se tiene una
base con p vectores. Entonces todas las bases
tienen p vectores.
Demo. Aplicar teorema anterior suponiendo que
se tiene otra base con q vectores. qep. Aplicar
partiendo de la base con q vectores peq
q=p.
Bases, Dimensin y
coordenadas
Definicin. Al nmero de vectores en la base de
un espacio (V,F) se le llama dimensin de (V,F).
En especial, todos los subespacios equivalentes
tambin tienen un conjunto de vectores que lo
generan (ya que son un espacio en s) y se tiene
una base y por tanto tambin tienen su
dimensin. En tal caso es ms adecuado hablar
de rango que de dimensin, ya que podemos
hablar de un subespacio en R
3
, pero de rango 2.
A su vez, a la dimensin del espacio completo
se le puede llamar rango, pero es mejor hablar
de dimensin.
Bases, Dimensin y
coordenadas
El espacio R
n
tiene timensin n.
Si la dimensin de un espacio es p
cualquier conjunto con s vectores s>p es
L.D.
En efecto, la base tiene p vectores y el
resto ser una C.L. de la base.
Bases, Dimensin y
coordenadas
Teorema. Un espacio tiene dimensin finita k ssi
k es el maximo nmero de vectores que se
pueden obtener en el espacio.
Demo. Si la dimensin es k la base tiene k
vectores son L.I. y cualquier otro es una C.L.
de la base (ya no es L.I.).
Si el mximo nmero de vectores L.I. es k
estos generan todo el espacio y por tanto es
una base k es la dimensin.
Bases, Dimensin y
coordenadas
Ok, regresemos a la representacin de
vectores
B1={ }
1
0
0
1
4
4
=4 +4
1
0
0
1
Bases, Dimensin y
coordenadas
El mismo vector en otra base
B2={ }
1
1
0
1
4
0
=4 +0
1
1
0
1
Bases, Dimensin y
coordenadas
Si el mismo vector se puede representar
en diferentes bases, se podr
transformar de una en otra?
1 0
0 1
1 0
1 1
4
4
4
0
=
Bases, Dimensin y
coordenadas
1 0
0 1
1 0
1 1
4
4
4
0
=
-1
Matriz de cambio de base de B1 a B2
Bases, Dimensin y
coordenadas
El concepto fcilmente se puede
generalizar a cualquier par de bases
Lo que es ms chido...
(P
[x]
2
,R) una posible base es B={1, x, x
2
}
v1=1 en la base
1
0
0
Bases, Dimensin y
coordenadas
v2=x en la base
v3=x
2
0
1
0
0
0
1
Bases, Dimensin y
coordenadas
v4=1-x
v5=3+x
v6=-2+2x+x
2
v7=2+3x+7x
2
Son L.I.?
Todo cambia a matrices!!!
Espacios vectoriales
Kernel, imagen, espacio columna y espacio fila de una
matriz
Ecuaciones lineales y espacios vectoriales
Cambio de base
Espacio cociente
Sumas y sumas directas
Pausa: Cosas de una Matriz
Kernel.
Todos los x tales que Ax=0
Kernel={x|Ax=0}
Se puede hablar de dos kerneles, el
izquierdo y el derecho
KerI={y|y
T
A=0}
KerD={x|Ax=0}
Pausa: Cosas de una Matriz
Imagen
Todos los y que son obtenidos de A
multiplicado por un vector
Imagen={y|Ax=y}
Pausa: Cosas de una Matriz
Teorema (operaciones columna y dependencia
lineal). Suponer que una secuencia de
operaciones elementales por rengln transforma
la matriz A en la matriz B, entonces:
Una coleccin de columnas de A es linealmente
dependiente (independiente) ssi la colleccin
correspondiente de columnas de B es linealmente
dependiente (independiente).
Una matriz rengln puede ser escrita como una
combinacin lineal de (esto es linealmente
dependiendte de) todos los renglones de A ssi puede
ser escrita como una combinacin lineal de todos los
renglones de B.
Pausa: Cosas de una Matriz
Demostracin caso 1.-
Sea F=E
1
E
2
...E
n
la secuencia de matrices
elementales que realizan las operaciones
elementales que transforman a A en B.
F tiene inversa=no singular
FA=B
Fx=0 x=0 (solucin nica)
Si las columnas de A son L.D. entonces
e
1
a
1
+e
2
a
2
+...+e
n
a
n
=A[e]
FA[e ]=B[e ]
Si A es LD hay muchas combinaciones e
Pausa: Cosas de una Matriz
que dan cero esas mismas combinaciones en
B dan cero y sus columnas son LI.
Si A tiene una sola combinacin que da cero,
entonces en B ser la nica posibilidad de dar
cero, ya que slo es este caso FA[e]=0
Apliquemos esto a cualquier coleccin de
columnas de A y se tendr la demostracin de la
primera parte.
Demostracin caso 2.-
Un matriz rengln y es una CL de los renglones
de A ssi y=xA para alguan matriz rengln x,
pero y=xF
-1
FA=xB, para x=xF
-1
Pausa: Cosas de una Matriz
como FA=B; y y=xB ssi y es una CL de
los renglones de B.
Pausa: Cosas de una Matriz
Veamos ms a fondo el mtodo de Gauss
1 -1 2 3
-1 1 1 2
1 2 4 1
1 3 1 2
1 -1 2 3
0 0 3 5
0 3 2 -2
0 4 -1 -1
Pausa: Cosas de una Matriz
Veamos ms a fondo el mtodo de Gauss
1 -1 2 3
0 3 2 -2
0 0 3 5
0 4 -1 -1
1 -1 2 3
0 1 2/3 5/3
0 0 2 -2
0 0 -11/3 -23/3
Pausa: Cosas de una Matriz
Veamos ms a fondo el mtodo de Gauss
1 -1 2 3
0 1 2/3 -5/3
0 0 1 -1
0 0 -11/3 -23/3
1 -1 2 3
0 1 2/3 5/3
0 0 1 -1
0 0 0 1
Pausa: Cosas de una Matriz
1 1.5
0 1
2 3
1 1
Matriz
Forma de Gauss
Columnas dominantes
Pausa: Cosas de una Matriz
1 -1
0 0
1 -1
-1 1
Matriz
Forma de Gauss
Columnas dominantes
Pausa: Cosas de una Matriz
0 1
0 0
0 -1
0 1
Matriz
Forma de Gauss
Columnas dominantes
Matrices
1. Por intercambio de renglones hacer que
el elemento (1,1) sea diferente de cero.
2. Si no es posible es porque toda la
columna 1 es igual a cero, tacharla y
tratar de hacer lo mismo para la
submatriz generada
3. El proceso se repite hasta tener un
elemento diferente de cero.
Matrices
4. Todo el rengln se divide entre el
elemento diferente de cero y se procede
a hacer cero el resto de los elementos
de esta columna de acuerdo al mtodo
de Gauss
Matrices
5. Una vez hecho esto se tacha el rengln
y se obtiene una nueva submatriz
6. Con esta nueva submatriz se procede
desde el punto 1)
7. El resultado es la matriz en la forma de
Gauss
Matrices
Si se tiene un rengln diferente de cero,
entonces a la primer columna diferente
de cero se le llamar dominante o lder.
Pausa: Cosas de una Matriz
Teorema (matrices reducidas y dependencias)
Suponer que G es una matriz en la forma de
Gauss y de rango k
a) El conjunto de las k columnas lderes es
linealmente independiente
b) Cualquier columna a la izquierda de la
primera columna lder es una columna cero.
Cualquier columna a la izquierda de la i-sima
columna lder es combinacin lineal de las
anteriores columnas lderes.
Pausa: Cosas de una Matriz
Definicin.- Sea A una matriz de p*q
a) El espacio columna de A es el
subespacio que es generado por el
conjunto de columnas de A
b) El espacio rengln de A es el
subespacio generado por los renglones
de A.
Pausa: Cosas de una Matriz
Poner ejemplos
Dar las condiciones para que el sistema
tenga solucin.
Ax=b
Pausa: Cosas de una Matriz
Teorema. Sea una matriz A de rango k.
Entonces
a) El espacio columna de A tiene diemnsin k.
Una base son las columnas lderes.
b) El espacio rengln es de dimensin k, una
base son los renglones diferentes de cero.
c) Una matriz p*p es no singular si sus
columnas son LI rango p
d) Una matriz p*p es no singular si sus
renglones son LI rango p
Matrices
Corolario
Rango por columnas = rango por filas
Teorema (espacios rengln iguales). Sea
A1 y A2 matrices de tamao r*q y s*q
respectivamente. El espacio rengln de
A1 es igual al espacio renglon de A2 ssi
los renglones no cero de las matrices de
Gauss coinciden.
El maldito Kernel otra vez
Definicin: Sea f:XY una funcin de X a Y.
Con f se asocia una relacin de equivalencia
llamada equivalencia kernel de f y se denota por
Ker f y est definida como sigue:
Vx1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que s es una relacin de equivalencia y por
tanto particiona a X)
Por qu se le llama
equivalencia kernel
Sucede que en el caso de homomorfismos si
f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e.
x1-x2 est en el kernel de f.
Claramente una matriz A puede ser considereda
como una funcin (y an ms, un
homomerfismo, chequen en clase esto y vern
que si la hace). Entonces el kernel que
definimos de A es consistente con el kernel en
homomerfismos y sucede que:
Por qu se le llama
equivalencia kernel
El kernel de A es un subespacio
La imagen de A es un subespacio
Ya qu no saben qu, A/ker A es un
espacio y se le llama espacio cociente.
Entendamos bien esto, que
est demasiado fcil, salvo la
primera vez
Encontrar Kernel, imagen (range, no
rank), A/Ker A de la siguiente matriz A.
1 -1
-1 1
Sistemas Lineales III:
Control Geomtrico-1.8
Sean X y Y dos conjuntos cualesquiera. Sea A:XY una
funcin cualquiera. Entonces se puede definir la relacin
Ker A de la siguiente forma:
x1~x2 ssi A(x1)=A(x2)
Note que la relacin Ker A es una relacin de
equivalencia.
Como es una relacin de equivalencia, entonces diremos
que x1|x2 (mod Ker A) x1 es equivalente a x2 mdulo
Ker A- -Tambin se dice que x1 es congruente a x2 va
Ker A o que la relacin Ker A es una congruencia-
Significado geomtrico de esta relacin
x2
x1
x4
x3
x6
x5
y4
y3
y2
y1
Observe que hay tantos clusters como imgenes de A
clusters
X
Y
Podemos hacer el conjunto de los clusters
Imagen de A
Significado geomtrico de esta relacin
(A menudo yo le llamo conjunto de clustercillos)
clusters
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
A este conjunto lo llamaremos X/Ker A,
o conjunto cociente X/Ker A
Significado geomtrico de esta relacin
X/Ker A
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
Noten que la relacin Ker A est dando
una medida de la inyectividad de A. Si
el nmero de clusters es igual al nmero
de elementos en X, entonces A es
inyectiva.
A los clusters se les llama coconjuntos (cosets) y son justamente los
subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se
les suele llamar las fibras de A.
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]
c4=[3 7]
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Y
X/Ker A
Aqu est A
Ejem. A(x)=x mdulo 4 -es el residuo de la divisin, no la congruencia
Como X/Ker A y la imagen de A tienen la misma cantidad de elementos,
entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker A}Im(A)]
Significado geomtrico de esta relacin
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]
c4=[3 7]
0 4 8
1 5 9
2 6
3 7
X
0
1
2
3
Y
X/Ker A
Aqu est A
Significado geomtrico de esta relacin
Proposicin. Sea A:XY y sea P
A
:XX/Ker A su proyeccin cannica,
entonces ng:X/ker Aim(A) tal que A=gP
A
, donde g es un isomorfismo.
P
A
Demostracin
Definir g(z)=A(x) ssi z=P
A
(x). Se afirma que g(z) es
funcin
Cubre todo X. Como A es funcin, entonces a cubre todo X, y
por la definicin anterior, g tambin cubrir todo X
Un valor de X/Ker A no est asociado a dos valores de Y.
Suponer que si es as, (z,y
1
), (z,y
2
)g.
Entonces y
1
=y
2
. Por la definicin de g se tiene:
z= P
A
(x
1
), y
1
=A(x
1
) y adems
z= P
A
(x
2
), y
2
=A(x
2
)
Como P
A
(x
1
),= P
A
(x
2
) implica que A(x
1
)= A(x
2
)
Entonces y1=y2, una contradiccin, entonces
Un valor de X/Ker A no est asociado a dos valores de Y
Por tanto g(z) si es funcin.
Demostracin
Ahora veremos que g es un isomorfismo.
g es inyectiva. Suponer que no es as, i.e. (z,y),(z,y)g
Entonces z=z
Entonces z=P
A
(x) y z=P
A
(x)
Adems A(x)=A(x)=y.
Como tienen la misma y, entonces P
A
(x)=P
A
(x), una
contradiccin. Por tanto es inyectiva.
g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes
de A. Por definicin de g, cualquier imagen de A tiene una
preimagen en X/Ker A. Por lo tanto g es sobre.
Como es inyectiva y sobre, es un isomorfismo.
Demostracin
Por definicin A=g
o
P
A
Significado geomtrico de esta relacin
Estamos en los lmites...
Si los conjuntos tienen estructura matemtica, p.e. X, Y son espacios
vectoriales y la funcin A resulta ser un operador lineal.
Ax1=Ax2 es la relacin Ker A. Un caso particular es para la imagen
cero.
En este caso todos los x, tales que Ax=0 formarn una clase de
equivalencia. Las dems clases de equivalencia las obtendremos al
estudiar las otras imgenes de A.
Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y
tiene un nmero infinito de elementos. Una forma ms adecuada es
estudiarlos a travs de la clase de equivalencia del 0 [0].
Significado geomtrico de esta relacin
Estamos en los lmites...
Por ejemplo, si queremos estudiar el caso para la imagen y, entonces
debemos encontrar todos los x tales que Ax=y.
x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se
tiene que x2[x] ssi (x1-x2)[0].
Como la clase [0] es un subespacio de X
De hecho si Ax=0 y Ay=0, entonces A(x+ey)=0 y por tanto es
un subespacio
entonces (x1-x2) span[0], o (x1-x2) = e
1
e
1
+e
2
e
2
+...+e
n
e
n
Si x1 est fijo, entonces x2= x1-e
1
e
1
-e
2
e
2
-...-e
n
e
n
.............................(1)
Como con la clase de equivalencia [0] se generan todas las dems, a est
clase la llamaremos genricamente Kernel de A.
Significado geomtrico de esta relacin
Estamos en los lmites...
Como se observa, la ecuacin (1) es un mtodo para calcular todas las
clases de equivalencia [x2].
Se puede ver que es un un espacio vectorial (el del Kernel) desplazado
por x1 (cualquier vector de la clase).
A esta clase de equivalencia, y slo cuando hablamos de operadores
lineales en espacios vectoriales, le llamaremos una variedad lineal. No es
un espacio, ya que en general, el cero no est includo en dicha variedad,
pero si ser un espacio vectorial va mdulo algn vector de la clase.
Ejemplos
Significado geomtrico de esta relacin
Estamos en los lmites...
A:
2

2
tal que A([x y]
T
)=[xy y-x]
T
. Claramente A es un operador
lineal y un vector de la forma [k k]
T
est en la clase de equivalencia [0] o
Kernel de A.
El vector [2 1]T no est en la clase [0], pero si est en la clase [[2 1]
T
].
Los vectores que pertenecen a esta clase, de acuerdo a la ecuacin (1)
son:
X=[2 1]
T
-e[1 1]
T
Significado geomtrico de esta relacin
Estamos en los lmites...
Clase [0]
Clase [2 1]
T
Significado geomtrico de esta relacin
Estamos en los lmites...
En realidad, cada clase forma una
lnea paralela al Kernel de A.
Significado geomtrico de esta relacin
Si tenemos un operador lineal A:VW, entonces el Kernel de A ser un
subespacio de V, y cada una de las clases de equivalencia ser una
variedad lineal paralela al Kernel de A.
Ms an, el conjunto de las clases de equivalencia se denotar en la
forma comn V/Ker A y ser llamado el espacio cociente V/Ker A.
Proposicin. Sea un operador lineal A:VW, entonces el conjunto
V/Ker A es un espacio vectorial.
Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene
Significado geomtrico de esta relacin
[v1]=[v1]+[0] para cualquier v1V. De la ecuacin (1) x2= v1-e
1
e
1
-
e
2
e
2
-...-e
n
e
n
se observa que esto es cierto, ya que x2[v1].
Los escalares, son los del campo definido en V.
La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y
x1+x2[v3]. Note que est bien definida ya que cualquier x1[v1] y
x2[v2] sirven. De hecho v1- e
1
[0]+v2- e
2
[0]=v1+v2- e[0]=[v3]
Todas las propiedades se pueden demostrar y resulta un espacio vectorial
Significado geomtrico de esta relacin
,... Pero hay ms cosas
Claramente, Im(A)}V/Ker A. Vimos que esto se cumple an en el caso
que no sean espacios vectoriales.
Ahora volvamos a los conjuntos.
Vimos que si A:XY, entonces Ker A es una relacin de equivalencia.
Por la definicin, cualquier funcin deja una relacin de equivalencia en
su dominio. Pero, adems, nosotros sabemos que una relacin de
equivalencia sobre un conjunto X es equivalente a una particin de X
Espacios vectoriales con producto interno
Espacios vectoriales con producto
interno
5.1 Producto interno
5.2 Desigualdad de Cauchy-Schwarz
5.3 Ortogonalidad
5.4 Procedimiento de Gram-Schmidt
5.5 Espacios normados
Norma
Definicin.- Una norma (o norma
vectorial) en (V,F) es una funcional que
asigna a cada vector v un nmero real no
negativo, llamado norma del vector v, y
es denotado por ||v|| y satisface:
||v||>0 para v=0, y ||0||=0
||ev||=|e| ||v|| e escalar y v vector
||u+v||e||u||+||v||
Norma
Definicin.- Para vectores x=[x
1
x
2
...
x
p
]T, las normas ||-||
1
, ||-||
2
, ||-||

son
llamadas norma 1, norma 2 y norma
infinito respectivamente y se definen
como:
||-||
1
=|x
1
|+|x
2
|+...+|x
p
|
||-||
2
=(|x
1
|
2
+|x
2
|
2
+...+|x
p
|
2
)
1/2
||-||

=max{|x
1
|, |x
2
|, ...,|x
p
|}
Norma
Definicin.- Sea ||-|| una norma en (V,F). Una
secuencia de vectores vi se dice que converje al
vector v

ssi la secuencia de nmero reales ||vi-


v

|| Para vectores x=[x


1
x
2
... x
p
]T, las normas
||-||
1
, ||-||
2
, ||-||

son llamadas norma 1,


norma 2 y norma infinito respectivamente y se
definen como:
||-||
1
=|x
1
|+|x
2
|+...+|x
p
|
||-||
2
=(|x
1
|
2
+|x
2
|
2
+...+|x
p
|
2
)
1/2
||-||

=max{|x
1
|, |x
2
|, ...,|x
p
|}
Norma
Teorema: Sean x, y dos vectores. Entonces
|x
T
y|e||x||
2
||y||
2
Demostracin.
sabemos 0e||x+ey||=(x+y)
T
(x+y)=||x||
2
2
+ e
2
||y||
2
2
+2
e |x
T
y|
si e=-||x||
2
2
/x
T
y, entonces
0e-||x||
2
2
+(||x||
2
4
||y||
2
2
/x
T
y|
2
)
Despejando se llega a la desigualdad
Producto interno
Definicin. El producto interno en (V,F) sobre un
par de vectores (u,v) que satisface:
(u,v)=(v,u)
(eu+Fv,w)= e(u,w)+ F(v,w)
(w,eu+Fv)= e(w,u)+ F(w,v)
(u,u)>0, y es igual a cero si u es cero.
Producto interno
El producto interno (u,v)
1/2
induce una norma en el espacio
vectorial.
Definicin. Sean el producto interno (-,-)
u, v son ortogonales ssi (u,v)=0
Un conjunto de vectores son ortogonales ssi cada par de vectores
(u,v) son ortogonales
Si un vector u es usado para producir u/||u|| tal que ||v||=1,
entonces u se dice ser normalizado para producir el vector
normalizado v
Un conjunto de vectores se dice ortonormal ssi es ortogonal y
||v||=1 para todo vector v
Producto interno
Diferentes productos internos
(u,v)=u
T
v
si f y g son funciones real valuadas continuas en 0ete1,
entonces (f,g)=

0
) ( ) ( dt t g t f
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial. Sea (V
0
,F) un
subespacio generado por los vectores ortogonales
S={v1,...,vq}. Defnase la proyeccin ortogonal como sigue.
Para cualquier vector v
P
0
v=e
1
v
1
+...+e
q
v
q
, donde e
i
=(v
i
,v)/(v
i
,v
i
)
entonces
v-P
0
v es ortogonal a todo vector v en (V
0
,F)
P
0
(u+v)=P
0
u+P
0
v
P
0
(ev)= eP
0
v
Proyecciones ortogonales
Demostracin
(vi,v-P
0
v)=(v
i
,v)-e1(v
i
,v
1
)-...-e
q
(v
i
,v
q
)=(v
i
,v)- e
i
(v
i
,v
i
)=0
Los otros puntos salen de la definicin de los
coeficientes e.
v
i
v
P
0
v= ev
i
v-P
0
v
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial con
producto interno y con su norma inducida por el
producto interno ||-||. Sea (V
0
,F) un subespacio
generado por los vectores ortogonales
S={v
1
,...,v
q
}. Entonces para cualquier v, P
0
v es el
nico punto ms cercano en (V
0
,F) a v, y ||v-P
0
v||
es la distancia de v a (V
0
,F)
||v-P
0
v||<||v-v
0
|| para todo v
0
diferente de P
0
v en (V
0
,F)
Proyecciones ortogonales
Demostracin.
||v-v0||2=(v-v0,v-v0)=(v-P
0
v+P
0
v-v0, v-P
0
v+P
0
v-v0)= (v-P
0
v, v-P
0
v
)+(v-P
0
v, P
0
v-v0)+(P
0
v-v0,v- P
0
v)+(P
0
v-v0, P
0
v-v0)
Sabemos que v- P
0
v es ortogonal a los vectores en (V0,F), entonces
se obtiene que:
||v-v0||=||v- P
0
v||+|| P
0
v-v0||
entonces ||v-v0||>||v- P
0
v|| a menos que v0= ||v-v0||=||v-
P
0
v||+||
Proyecciones ortogonales
Sea S={v1,...,vq} un conjunto de vectores
ortogonales, entonces estos vectores son
linealmente independientes.
si se toma el vector 0=c1v1+...+cqvq, tenemos
que saber el valor de cada ci.
0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi)
como (vi,vi)>0 ci=0 y son L.I.
Proyecciones ortogonales
Se sigue que si el vector proyectado v est en el
espacio (V
0
,F), entonces P
0
v ser el mismo v y los
valores de las e
i
ser la representacin del vector
en la base seleccionada S.
Proyecciones ortogonales
Teorema. Sea B={v1,...vq} una base ortogonal. La
representacin del vector v se calcula como
v=e
1
v
1
+...+e
q
v
q
, donde
e
i
=(v
i
,v)/(v
i
,v
i
)
Note que si la base es ortonormal, entonces los e
i
se
calculan fcilmente
Proyecciones ortogonales
Si tenemos S={v
1
,...,v
q
} un conjunto de vetores
que genera (V,F)
Tomar u
1
=v
1
,
desde 2 hasta q, u
i
=v
i
-P
i-1
v
i
Transformaciones lineales
Transformaciones lineales
6.1 Definicin
6.2 Propiedades
6.3 Kernel e imagen de una transformacin lineal
6.4 Representacin matricial de una transformacin lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales

Transformaciones lineales
Definicin. Sean (V,F) y (W,G) dos espacios vectoriales.
Una transformacin lineal T de (V,F) a (W,G) es una
correspondencia que asigna a cada vector v en V un
vector w en W tal que:
T(v1+v2)=T(v1)+T(v2)
T(ev)= eT(v)
Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo
que implica que T(0) debe ser el cero de W.
Transformaciones lineales
El espacio imagen
Todos los vectores w en (W,G) tal que w=T(v)
Solucin. Si w es fijo, entonces existe v en (V,F) tal que
T(v)=w ssi w est en la imagen de T.
Se aplica Sobre
Claramente el problema Solucin tiene solucin si T es
onto.
Transformaciones lineales
Otro problema es si la solucin es nica.
T(v1)=T(v2)=w
Se aplica Inyectividad
Claramente la solucin es nica si w esta en la imagen de
T y T es inyectiva.
T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0
Tambin T tiene kernel.
Transformaciones lineales
Ms propiedades de las transformaciones lineales
T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v)
T(e
1
v
1
+...+e
n
v
n
)= e
1
v
1
+...+e
n
v
n
Esto se puede ver por asociatividad e induccin
Teorema. Sea (V,F) un espacio vectorial de dimensin finita con
base B={v
1
,...v
n
} y T1, T2 dos transformaciones lineales. Si
T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v
en (V,F).
Demo, como cualquier vector de (V,F) se escribe como v=
e
1
v
1
+...+e
n
v
n
, entonces T1(v)=T1(e
1
v
1
+...+e
n
v
n
)=
T1(e
1
v
1
)+...+T1(e
n
v
n
)=T2(e
1
v
1
)+...+T2(e
n
v
n
)=T2(v)
Transformaciones lineales
Teorema. Sea (V,F) un espacio vectorial de dimensin
finita con base B={v
1
,...v
n
} y (W,G) un espacio vectorial
que contiene a los vectores w1,...,wn, entonces existe
una nica transformacin lineal tal que T(vi)=wi, para vi
en B.
Demo. Como cualquier vector de (V,F) se escribe como
v= e
1
v
1
+...+e
n
v
n
, entonces T se define como
T(v)=e
1
w
1
+...+e
n
w
n
T ser una transformacin lineal
T(u+v)=T[(e
1
v
1
+...+e
n
v
n
)+(F
1
v
1
+...+ F
n
v
n
)]=
=T[(e
1
+F
1
) v
1
+...+( e
n
+F
n
) v
n
] Por la definicin de T,
= (e
1
+F
1
) w
1
+...+( e
n
+F
n
) w
n
=T(u)+T(v)
Transformaciones lineales
De igual forma
T(Hu)=T[(He
1
v
1
+...+ He
n
v
n
)] Por la definicin de T,
He
1
w
1
+...+ He
n
w
n
= HT(u)
Por teorema anterior se tiene la unicidad
Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformacin lineal. Demsotrar que
el kernel de T es un subespacio de (V,F) y que la imagen
de T es un subespacio de (W,G).
Transformaciones lineales
Definicin. Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformacin lineal.
Nulidad de T = R(T) =dim (Ker (T))
rango de T = o(T) = dim (Im (T))
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformacin lineal.
R(T)+ o(T) = dim (V,F)
Demo. Suponer que R(T)=r y que {v1,...vr} es una base
para el kernel; adems o(T)=k y {w1,...wk} es una base
para la imagen de T.
Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
Transformaciones lineales
Sea un v que pertenece a (V,F). Como T(v)= e
1
w
1
+...+e
k
w
K
Al Vector v lo podemos escribir como
v= e
1
u
1
+...+e
k
u
K
-v v= e
1
u
1
+...+e
k
u
K
-v
T(v)=T(e
1
u
1
+...+e
k
u
K
-v)= e
1
T(u
1
)+...+e
k
T(u
k
)-T(v)
= e
1
w
1
+...+e
k
w
K
-T(v)=0 v est en el kernel de T
Como {v1,...vr} es una base de Kernel de T, existen escalares F
1
,.., F
r
tal que v= F
1
v
1
+ ... +F
r
v
r
=e
1
u
1
+...+e
k
u
K
-v
Por tanto v= e
1
u
1
+...+e
k
u
K
- F
1
v
1
- ... -F
r
v
r
y {u
1
,...,u
k
, v
1
,..., v
r
} genera (V,F)
Ahora hay que ver que sean L.I.
Transformaciones lineales
Sea un vector H
1
u
1
+...+ H
k
u
K
+ K
1
v
1
+ ... + K
r
v
r
=0
Entonces T(H
1
u
1
+...+ H
k
u
K
+ K
1
v
1
+ ... + K
r
v
r
)=0
Como los vi estn en el kernel
0= H
1
w
1
+...+ H
k
w
K
, como los w
i
son una base de la
magen, entonces son L.I. y la nica solucin es H
i
=0
Entonces el vector se reescribe como
K
1
v
1
+ ... + K
r
v
r
=0 , como los v
i
son una base para el
kernel son L.I., entonces la nica solucin K
i
=0 y los
vectores son L.I.
y por lo tanto es una base y la dimensin de (V,F) es
R(T)+ o(T) = dim (V,F)
Transformaciones lineales
Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) , entonces existe una nica matriz A
(dim(v), dim(W)) tal que T(x)=Ax
A est la matriz de transformacin correspondiente a T.
Demo
sea B={e1,...,en} la base cannica en (V,F)
T(ei)=wi
Se puede formar la matriz A=[w1 wn]
entonces Aei=wi (T(ei)=wi)
En general T(x)=T(F
1
e
1
+ ... +F
n
e
n
)= F
1
w
1
+ ... +F
n
w
n
Tambin Ax=A[F
1
e
1
+ ... +F
n
e
n
]= F
1
w
1
+ ... +F
n
w
n
=T(x)
Transformaciones lineales
Suponer que T(x)=Ax=Bx (A-B)x=0,
para x=ei (A-B)ei=0 que la i-sima columna de (A-B) es
cero, por lo que las matrices son iguales y A es nica.
Teorema Sea A la matriz de transformacin
correspondiente a T, entonces
i) Im T = Im A, pero isomorfo
ii)o(T)=o(A)
iii)Ker T=Ker A, pero isomorfo
iv)R(T)=R(A)
Transformaciones lineales
Teorema. Sean (V,F), (W,G) dos espacios vectoriales de
dimensiones n y m respectivamente. Sea T(V,F)(W,G)
una transformacin lineal. Sean B1={v1,...,vn} y
B2={w1,...,wm} las bases de los espacios
respectivamente. Entonces existe una nica matriz A
(m,n) tal que:
[T(x)]
B2
=A(x
B1
)
[T(x)]
B2
la representacin de T(x) en B2
T(x)= F
1
w
1
+ ... +F
m
w
m
[T(x)]
B2
=[F
1
... F
m
]
T
x
B1
es la representacin del vector en B1
La matriz A se conoce como la matriz de transformacin
correspondiente a T con respecto a las bases B1 y B2
Transformaciones lineales
Considere los vectores T(v1, ...,T(vn), escrbase
A=[[T(v
1
)]
B2 ...
[T(v
n
)]
B2
]
Como Avi
B1
=Ae
i
= [T(v
i
)]
B2
y x
B1
es la representacin del vector en B1, i.e. [e1 ... en]
T
entonces
A x
B1
=[[T(v
1
)]
B2 ...
[T(v
n
)]
B2
] x
B1
= e1[T(v
1
)]
B2
+...+[T(v
n
)]
B2
]en
Por otro lado
T(x
B1
)=T(e
1
v
1
+...+e
n
v
n
)= e
1
T(v
1
)+...+e
n
T(v
n
)
Al poner cada uno de estos vectores en la representacin
de la base B2 se obtiene que:
A x
B1
= T(x
B1
)
La unicidad es similar al teorema anterior
Transformaciones lineales
Teorema.- Sea A (m,n) la matriz de transformacin
correspondiente a T:(V,F)(W,G) con respecto a las bases
B1={v1,...,vn} y B2={w1,...,wm} respectivamente.
Suponga que hay otras bases B1={v1,...,vn} y
B2={w1,...,wm} de los espacios respectivos.
Entonces la matriz A correspondiente a la misma
transformacin T con respecto a las bases B1 y B2 est
dada por:
A=P
-1
AQ
P es la matriz de transicin (de paso) de la base B2 en B2
Q es la matriz de transicin (de paso) de la base B1 en
B1
Transformaciones lineales
Demo.
Sabemos que [T(x)]
B2
=Ax
B1
Ahora,
x
B1
=Qx
B1
y [T(x)]
B2
=P[T(x)]
B2
Por tanto
P[T(x)]
B2
=A Qx
B1
[T(x)]
B2
=P
-1
A Qx
B1
A=P
-1
AQ es la matriz de transformacin
Transformaciones lineales
En especial, si (V,F) y (W,G) son los mismos, entonces
A=P
-1
AP
Definicin. Se dice que dos matrices cuadradas A y B son
similares si existe una matriz P no singular (determinante
diferente de cero) tal que
B=P
-1
AP
Transformaciones lineales
Transformaciones T
Inyectiva Kernel T = {0}
Sobre
Teorema. T:VW una transformacin lineal y dim v=n y
dim w=m
i) si n>m, T no es inyectiva
ii) si m>n T no es sobre
Demo. Tarea.
Transformaciones lineales
Definicin. Una T.L es un Isomorfismos ssi es inyectiva y sobre.
La matriz de un isomorfismo es invertible.
Definicin. Se dice que (V,F) y (W,G) son isomorfos ssi existe un
isomorfismo entre ambos
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de
dimensin finita. Entonces (V,F) y (W,G) son isomorfos si dim
(V,F)=dim (W,G)
Demo. Obtener bases para cada uno. Entonces quedan
representados en (R
n
,R). Como son bases en el mismo espacio,
existe una matriz de cambio de base A. por teoremas anteriores
existe una T.L. asociada a A que es un isomorfismo.
Si existe el isomorfismo entre las representaciones, lo existe
entre los espacios.
Transformaciones lineales
Corolario. Cualquier espacio de dimensin n es isomorfo a (R
n
,R)
Teorema. Si T:(V,F)(W,G) es un isomorfismo
i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera
(W,G)
ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I.
iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una
base.
Demo.
i) v=F
1
v
1
+ ... +F
n
v
n
T(v)=w=F
1
T(v
1
)+ ... +F
n
T(v
n
) {T(v1),...,T(vn)}
genera (W,G)
iii) Suponga que 0=T(v)=w=F
1
T(v
1
)+ ... +F
n
T(v
n
) , entonces T(F
1
v
1
+ ...
+F
n
v
n
)=0, como T es isomorfismo T(0)=0 es el nico. Entonces F
1
v
1
+ ...
+F
n
v
n
=0, pero como son L.I. F
i
=0 y por tanto {T(v1),...,T(vn)} son L.I.
iii) se sigue de anteriores.
Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo
vector wW existe un nico vector v V tal que
T
-1
(w)=v, donde T
-1
:(W,G)(V,F) es conocida como la
transformacin inversa de T.
Demo. 2 partes T
-1
es T.L. y T
-1
(w)=v nico
T(v1)=w1; T
-1
(w1)=v1; T(v2)=w2 T
-1
(w2)=v2
T(v1+v2)=T(v1)+T(v2)=w1+w2 T
-1
(w1+w2)=v1+v2
T(ev1)= eT(v1)= ew1 T
-1
(ew1)= ev1
Como T es isomorfiso, la definicin de T
-1
hace que exista un
nico valor de regreso.
Nota. T es T.L. A es su operador
T
-1
es la inversa de T, entonces A
-1
es el operador de T
-1
Transformaciones lineales
Operaciones con transformaciones lineales
Sean (V,F) y (W,F) dos espacios vectoriales sobre el
mismo campo F. Hom(V,W) es el conjutno de todas las
transformaciones lineales entre (V,F) y (W,F).
Sean T1 y T2 dos T.L. entre (V,F) y (W,F)
Se define la suma T1+T2 como
T1+T2:VW (T1+T2)(v)=T1(v)+T2(v)
para todo eF, eT1 es
(eT1)(v)=eT1(v)
Transformaciones lineales
El conjunto Hom(V,W) definido anteriormente es un
espacio vectorial sobre el campo F.
Demo. Tarea.
Algebra de Transformaciones
lineales
Definicin. Un lgebra A sobre un campo F es un espacio
vectorial sobre F en el que se tiene definida una
operacin producto que satisface para todos los
elementos T1, T2, T3 A y e F:
T1(T2+T3)=T1T2+T1T3
(T2+T3)T1=T2T1+T3T1
e(T1T2)=(eT1)T2=T1(eT2)
Si adems se cumple que
(T1T2)T3=T1(T2T3)
entonces A es un lgebra asociativa
Algebra de Transformaciones
lineales
Definicin. Sean V, U y W espacios vectoriales sobre el mismo
campo F. Sean T1:VU y T2:UW dos transformaciones lineales.
Se define la composicin de T2 seguida de T1 T2T1 como la
funcin de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v))
Proposicin. Si T1 y T2 son TL, entonces T2T1 tambin lo es.
Demo. Sean u,v V y e,F F, entonces
(T2T1)(ev+Fu)=T2(T1(ev+Fu))=T2(eT1(v)+FT1(u))
= e (T2T1)(v)+F (T2T1)(u)
(T2T1) es T.L.
Puede verse que Hom(V,V) con la composicin es un lgebra
asociativa.
Adicional de Transformaciones
lineales
Sean A, B dos matrices de qxn y nxp con coeficientes en
el mismo campo.
Entonces o(A)+o(B)-n e o(AB) e min(o(A), o(B))
Demo
o(B)
o(A)
R(B)
R(A)
R(AB)
n(B)
n(A)
p n
d
Adicional de Transformaciones
lineales
De la figura o(AB)emin(o(A), o(B)).
Tambin o(AB)= o(B)-d (la interseccin de R(B) y n(A).
La dimensin de n(A)=n- o(A) de n+ o(A)
y se sigue que o(AB)> o(A)-n+ o(B)
Si B es no singular
o(A)+o(B)-n = o(A) e o(AB) e min(o(A),n) = o(A)
o(B)
o(A)
R(B)
R(A)
R(AB)
n(B)
n(A)
p n
d
4. Valores y vectores propios
Valores y vectores propios
Definicin y propiedades
Teorema de Cayley-Hamilton
Diagonalizacin de matrices
Valores y vectores propios
Definicin. Sea V un espacio vectorial y
T:VV una transformacin lineal del
espacio en s mismo. Sea vV un vector
diferente de cero pa el cual existe un
escalar tal que T(v)=v,
entonces se dice que es un valor propio
de T y que v es un vector propio de T
asociado a .
Valores y vectores propios
Cuando V es un espacio de dimensin finita, la
transformacin T la podemos representar como
una matriz A de n,n. Entonces podemos redefir
los valores y vectores propios de la siguiente
forma.
Definicin. Sea A una matriz de n,n. El escalar
se denomina valor propio de A si existe un
vector x diferente del nulo, tal que Ax= x
nuevamente x es el vector propio asociado a .
Valores y vectores propios
Teorema. Sea A una matriz de n,n. Entonces
es un valor propio de A ssi det(I-A)=0
Demo.
Slo si. Suponga que es un valor propio de A;
entonces existe un vector x diferente de cero tal
que Ax= x
(I-A)x=0, como x diferente de cero (I-A) es
singular det(I-A)=0
Valores y vectores propios
(si). Si det( I-A)=0 ( I-A) es singular

( I-A)x=0 tiene soluciones diferentes de


cero, entonces existe x diferente de cero
tal que Ax= x.
Valores y vectores propios
Definicin. La ecuacin det(I-A)=0 se conoce
como ecuacin caracterstica de A, y el
polinomio p()=det(I-A)
Observe que p()=(det(I-A)=a
0
+a
1
+...+a
n

por el teorema fundamental del lgebra,


cualquier polinomio de grado n tiene n races
(contando multiplicidades).
p()=(det(I-A)=a
0
+a
1
+...+a
n
=
(-
1
)
r1
...(-
m
)
rm
Los nmero ri son la multiplicidad algebraica de
los valores propios de
1
,...,
m
.
Valores y vectores propios
Teorema. Sea un valor propio de A y
E

={x|Ax= x}. Entonces E

es un
subespacio vectorial de C
n
Ntese que E

son las soluciones de (I-


A)x=0, es decir el kernel de un operador
lineal es un subespacio vectorial.
Valores y vectores propios
Definicin. Sean un valor propio de A.
Entonces E

se denomina espacio propio de A


correspondiente a .
Definicin. Sea E

el espacio propio de A debido


a . A la dimensin de E

se le conoce como
multiplicidad geomtrica de .
Multiplicidad geomtrica de =dim E

=dim{Ker
(I-A)}
Valores y vectores propios
Ejemplos y procedimientos de clculo.
4 -2
1 1
2 -1
-4 2
1 -1
2 -1
Valores y vectores propios
Teorema. Sea un valor propio de A.
Entonces se cumple que la multiplicidad
geomtrica de emultiplicidad algebraica
de
Valores y vectores propios
Teorema. Sean
1
,
2
, ...,
m
valores propios
diferentes de A (n,n), donde men y sean x
1
,
x
2
,..., x
m
sus vectores propios correspondientes.
Entonces x
1
, x
2
, ..., x
m
son linealmente
independientes.
Demostracin.
Suponga que {x
1
,...,x
m
} son L.D. y que x
s
es el
primer vector L.D. de los previos
x
s
=e
1
x
1
+e
2
x
2
+...+e
s-1
x
s-1
Multiplicando por A
Ax
s
= e
1
Ax
1
+e
2
Ax
2
+...+e
s-1
Ax
s-1
Valores y vectores propios

s
x
s
= e
1

1
x
1
+e
2

2
x
2
+...+e
s-1

s-1
x
s-1
Restando ecuaciones y multiplicando por
s
se
tiene
0=e
1
(
1
-
s
)x
1
+e
2
(
2
-
s
) x
2
+...+e
s-1
(
s-1
-
s
)x
s-1
Como xs es el primer vector L.D. entonces
e
1
(
1
-
s
)=e
2
(
2
-
s
)=...=e
s-1
(
s-1
-
s
)=0
como
i
=
s
e
i
=0 xs=0, lo cual contradice la
suposicin las vectores son L.I.

Valores y vectores propios


Teorema. La matriz A (n,n) tiene n
vectores propios L.I. ssi la multiplicidad
geomtrica de cada valor propio es igual
a su multiplicidad algebraica.
Tarea (Grossman, pag 545)
Valores y vectores propios
Definicin. Sea F(x)=a
0
+a
1
x+a
2
x
2
+...+a
n
x
n
un
polinomio y A una matriz cuadrada
Se define el polinomio f(x) en la matriz A como:
F(A)=a
0
I+a
1
A+a
2
A
2
+...+a
n
A
n
Sy f(A) es igual a la matriz cero, entonces se dice
que A es raz (o cero) del polinomio f(x).
Sea F() (n,n) una matriz polinomial en la variable
, i.e.
F()=F
0
+F
1
+...+F
m

m
= F()=F
0
+F
1
+...+
m
F
m
donde F
0
, F
1
,...,F
m
son matrices cuadradas reales.
Valores y vectores propios
Se dice que F() es de orden n; y si F
m
=0,
entonces F() es de grado m. Adems F() se dice
regular si det(F
m
)=0
Definicion. Sean F() y G() matrices polinomiales
de orden n., y G() es regular. Las matrices
polinomiales Q() y R() se conocen como
cociente derecho y residuo derecho
respectivamente de F() dicidida por G() si
F()= Q() G() + R()
y si el grado de R() es menor que el grado de
G() [R() puede ser cero]
Valores y vectores propios
De manera similar se pueden definir el
cociente izquierdo y residuo izquierdo
Sea A (n,n) y denota F(A) la evaluacin por
la derecha de A en la matriz polinomial F()
, esto es, si
F()=F
0
+F
1
+...+F
m

m
=
F()= F
0
+F
1
A+...+F
m
A
m
Valores y vectores propios
Teorema. Si la matriz polimial F() es dividida por
la derecha por la matriz (I-A) entonces el residuo
es F(A), y si es dividida por la izquierda por (I-A)
entonces el resiudo es F(A) (por la izquierdA).
Demostracin. Tarea.
(teorema generalizado de Bezout, Grantmatcher,
pag 81)

Valores y vectores propios


Corolario. La matriz polinomial F() es divisible por
la derecha por la matriz (I-A) sin residuo
(R()=0) ssi F(A)=0
(De manera similar se puede hacer por la
izquierda)
Teorema (Cayley-Hamilton). Toda matriz A (n,n) es
raz de su polinomio caracterstico.
Demostracin. P()=det(I-A)=a
0
+a
1
+...+
n
Hay que mostrar que P(A)=0
Valores y vectores propios
de teoremas previos
(I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A)
Lo cual puede verse como
P()=(I-A)Q()=Q()(I-A)
donde Q()=adj(I-A) es una matriz polinomial en
y
P()=det(I-A)I=a
0
I+a
1
I+...+
n
I
como P() es divisible por la derecha y por la
izquierda por (I-A) sin residuos, entonces
P(A)=a
0
I+a
1
AI+...+A
n
I
Valores y vectores propios
Definicin. Se dice que el polinomio F() es
un polinomio aniquilador de la matriz A
(n,n) si F(A)=0
(p.e. el polinomio caracterstico de A)
Definicin. Al polinomio aniquilador mnico
Q() de A de menor grado se le conoce
como polinomio mnimo de A.
Diagonalizacin de matrices
Definicin. Se dice que A (n,n) es
diagonalizable (bajo similaridad) si existe
una matriz no singular P tal que P-1AP es
diagonal
Diagonalizacin de matrices
Teorema. La matriz A (n,n) es diagonalizable ssi
tiene n vectores propios linealmente
independientes
Si
1
,
2
, ...,
n
son los valores propios de A y los
vectores propios x
1
, x
2
, ..., x
n
correspondientes a
estos valores propios son linealmente
independientes, entonces P
-1
AP=diag{
1
,
2
, ...,

n
}, donde P=[x
1
x
2
... X
n
]
Diagonalizacin de matrices
Demostracin.
(si) Suponga que A tiene n vectores propios L.I. x
1
x
2
... x
n
correspondientes a los valores propios
1
,

2
, ...,
n
(algunos pueden ser repetidos).
Sea P la matriz [x
1
x
2
... x
n
], entonces
AP= [Ax
1
Ax
2
... Ax
n
]= [
1
x
1

2
x
2
...
n
x
n
]
= [x
1
x
2
... x
n
]diag{
1
,
2
, ...,
n
}
=Pdiag{
1
,
2
, ...,
n
}
Como P es no singular tiene inversa
P
-1
AP=diag{
1
,
2
, ...,
n
}
Diagonalizacin de matrices
Demostracin.
(slo si) Suponga que existe una matriz no
singular P tal que
P
-1
AP=diag{
1
,
2
, ...,
n
}
AP=Pdiag{
1
,
2
, ...,
n
}
Para cada xi de P se tiene que:
Ax
i
=
i
x
xi es vector propio de A i es valor propio de A
P es no singular A tiene n vectores propios L.I.
Diagonalizacin de matrices
Corolario. La matriz A (n,n) es
diagonalizable ssi la multiplicidad
geomtrica de cada valor propio es igual a
su multiplicidad algebraica. En particular A
es diagonalizable si todos sus valores
propios son distintos
Diagonalizacin de matrices
Teorema. Si A y B son similares, entonces
tienen el mismo polinomio caracterstico, y
por consiguiente los mismos valores
propios.
Demo. det(I-B)=det(I-P
-1
AP)=det(P
-1
P-
P
-1
AP)=det(P
-1
(I-A)P)=det(P
-1
)det(I-
A)det(P)=det(I-A)
Diagonalizacin de matrices
Teorema. Si A y B son similares, i.e. existe
una matriz no singular tal que B=P
-1
AP.
Entonces:
i) B
k
=P
-1
A
k
P
ii)Si f(x)=a
0
+a
1
x+...+a
n
x
n
es un polinomio
cualquiera, entonces f(B)=P
-1
f(A)P
Diagonalizacin de matrices
Demo
B
k
=(P
-1
AP)
k
= =(P
-1
AP)(P
-1
AP)...(P
-1
AP)=
P
-1
A
k
P
ii)Si f(B)=a
0
I+a
1
(P
-1
AP)+...+a
n
(P
-1
A
n
P)=
=P
-1
(a
0
+a
1
A+...+a
n
A
n
)P=P
-1
f(A)P
Diagonalizacin de matrices
1 1 2
0 1 3
0 0 2
Diagonalizacin de matrices
Tiene dos propio valores
1
=1,
2
=2 con
multiplicidades algebraicas 2 y 1 y
geomtricas 1 y 1 respectivamente no es
posible diagonalizar A, pero es posible
encontrar una bse donde A sea casi
diagonal?
Diagonalizacin de matrices
Definicin.- Un vector v es llamado un vector
propio generalizado de rango k de A
asociado con iff
(A- I)
k
v=0
(A- I)
k-1
v=0
Note que si k=1 coincide con vector propio
Diagonalizacin de matrices
Definicin.-
v
k
=v vector propio generalizado
v
k-1
=(A-I)v=(A-I)v
k
v
k-2
=(A-I)
2
v=(A-I)v
k-1
...
v
1
=(A-I)
k-1
v=(A-I)v
2
Diagonalizacin de matrices
...
v
k-2
=(A-I)
2
v=(A-I)v
k-1
...
Entonces para 1eiek v
i
es un vector propio
generalizado de rango i, por ejemplo
(A-I)
k-2
v
k-2
=(A-I)
k-2
(A-I)
2
v=(A-I)
k
v=0
(A- I)
k-1
v
k-2
=(A-I)
k-1
v=0
Diagonalizacin de matrices
Definicin.- Lleamaremos a los vectores {v
1
,
v
2
,...,v
k
} una cadena de vectores propios
generalizados si v
k
es un vector propio
generalizado que dio origen a todos los
dems vectores
Diagonalizacin de matrices
Teorema. El conjunto de vectores propios
generalizados v
1
, v
2
, ..., v
k
definidos anteriormente
es L.I.
Demostracin.-
Suponer que v
1
, v
2
, ..., v
k
son L.D., entonces existen
soluciones diferentes de la trivial a:
e
1
v
1
+e
2
v
2
+...+e
k
v
k
=0
Multiplicando por (A-I)
k-1
y observando que
v
i
=v
k-(k-i)
=(A-I)
k-i
v por definicin
Diagonalizacin de matrices
entonces
(A-I)
k-1
v
i
=(A-I)
2k-(i+1)
v=0
para i=1,2,...,k-1
e
k
(A-I)
k-1
v
k
=0
y sabiendo de la def. de vector propio generalizado
que (A-I)
k-1
v
k
=0, e
k
=0
Aplicando ahora (A-I)
k-2
se demuestra que e
k-1
=0
Siguiendo esto se tiene que e
i
=0, lo que contradice
la suposicin. son L.I.
Diagonalizacin de matrices
Teorema: Los vectores propios generalizados de A
asociados con diferentes propio valores son L.I.
Demostracin.
Sea v vector propio generalizado
1
v
i
=(A-
1
I)v
i+1
=(A-
1
I)
k-i
v
Sea u vector propio generalizado
2
u
i
=(A-
2
I)u
i+1
=(A-
2
I)
l-i
u
Del teorema anterior los v
i
son L.I. y los u
i
son L.I,
falta ver que {u
i
}, {v
i
} son L.I.
Diagonalizacin de matrices
Suponer que vi es L.D. en {u1,...,ul}
v
i
=e
1
u
1
+e
2
u
2
+...+e
l
u
l
Aplicando (A-
1
I)
i
0= (A-
1
I)
i
[e
1
u
1
+e
2
u
2
+...+e
l
u
l
e]
Ahora aplicando (A-
2
I)
l-1
y observando que
(A-
2
I)
l-1
(A-
1
I)
i
= (A-
1
I)
i
(A-
2
I)
l-1
y el hecho de que (A-
2
I)
l-1
u
j
=0, j=1,2,..., l-1
0=e
l
(A-
1
I)
i
(A-
2
I)
l-1
u
l
=e
l
(A-
1
I)
i
u
1
Como (A-
2
I)u1=0 o Au1=
2
u1, la ecuacin anterior
se reduce a
e
l
(
2
-
1
)
i
u
1
=0
Diagonalizacin de matrices
se reduce a
e
l
(
2
-
1
)
i
u
1
=0
lo cual implica que e
l
=0.
Un procedimiento similar llega a la conclusin
de que todos los e
i
=0, lo que contradice la
suposicin y los vectores son L.I.
Diagonalizacin de matrices
Teorema. Sean u y v propio vectores de
rango o y l respectivamente, asociados con el
mismo valor propio .
v
i
=(A-I)v
i+1
=(A-
1
I)
k-i
v
u
i
=(A-I)u
i+1
=(A-
2
I)
l-i
u
Si u
1
y v
1
son L.I. las cadenas son L.I.
Diagonalizacin de matrices
El tratar de construir la forma casi diagonal (diagonal
por bloques o forma de Jordan) se convierte en un
proceso iterativo.
1.- se calculan propio valores y propio vectores de la
forma tradicional.
2.- Si la multiplicidad algebraica es mayor que la
geomtrica tratar de encontrar una cadena lo
suficientemente larga de vectores generalizados para
construir los vectores L.I. independientes faltantes,
de lo contrario construir cadenas ms pequeas
hasta completarlos
Matrices unitarias
Si P es no singular B=P
-1
AP transformacin de
similaridad
Sirven para cambio de bases
Ms conveniente si las bases son ortogonales y
ortonormales
Si {x
1
,...,x
p
} es un conjunto ortonormal x
i
T
x
i
=1 y
x
i
T
x
j
=0
Si hacemos que P=[x
1
,...,x
p
] P
T
P=I o P
T
=P
-1
Matrices unitarias
Definicin. Una matriz P (de reales) para la cual
P
T
=P
-1
tal que P
T
P=I, se dice ser unitaria.
Teorema.
a) P unitaria el conjunto de vectores columna es
ortonormal
b) P unitiaria |det(P)|=1
c) P unitaria <PX,Py>=<x,y>
d) P unitaria si valor propio de P ||=1
Demo. Clara
Matrices unitarias
Teorema.
Si B=P
-1
AP donde P es unitaria (se dice
transformacin de similaridad unitaria) todo
lo que se vi de propiedades de similaridad
sigue valiendo.
Matrices unitarias
Teorema.
Si A es una matriz de pxp.
a) A es similar unitaria a una matriz triangular
superior T; T=P
-1
AP con P unitaria y con los
propiovalores de A en su diagonal principal. T es
llamada la forma de Shur de A y la descomposicin
A=PTP
-1
= PTP
T
es la descomposicin Shur de A.
Demo.
Si p=1 ya terminamos.
Suponer que para p=k es cierto
Para p=k+1 tenemos.
Matrices unitarias

1
es el propio valor asociado a x
1
, podemos
normalizar este vector para que ||x
1
||
2
=1
Entonces x1 entra a la base que ya tenamos de
propiovectores ortonormalizados {w
1
,...,w
k
} si no es
otronormal a esta base, aplicamos Gram-Schmidt y
tenemos la nueva base {x
1
,w
1
,...,w
k
}
U= [x
1
,w
1
,...,w
k
]=[x
1
,W]
A=U
T
AU=[x
1
,W]
T
A[x
1
,W]=[x
1
,W]
T
[Ax
1
AW]=

1
x
1
T
AW
0 W
T
AW

1
b
T
0 C
=
Matrices unitarias
Definicin. Una matriz A de pxp es normal si
A
T
A=AA
T
Teorema. A normal D=P
T
AP, D es diagonal,
y P es unitaria.
Por tanto los propio vectores de A son p
linealmente independientes
Matrices unitarias
Veamos ahora el caso en que A=U7V
T
, con U
y V unitarias de pxp y qxq, 7 es pxq casi
cero, excepto en la diagonal que vale 7
ii
=o
i
que es un real no negativo.
2 0 0
0 0 0
3 0 0
0 2 0
4 0
0 6
0 0
As son 7
Matrices unitarias
Claramente se tendra AV=U7 Av
i
=o
i
u
i
para
1eiemin(p,q), dende los u
i
, v
i
son las columnas de U
y V respectivamente.
Adems
A
T
A= (U7V
T
)
T
(U7V
T
)=V7
T
U
T
U7V
T
=V(7
T
7)V
T
donde 7
T
7=D=VTA
T
AV es diagonal de qxq
que los propio vectores de A
T
A sirven para
construir V y D tiene los valores propios D=7
T
7
Similarmente para el caso
AA
T
=U(7
T
7)U
T
en este caso D= 77
T
Matrices unitarias
Definicin. A la descomposicin que hemos venido
manejando, A=U7V
T
, se le conoce como
descomposicin en valores singulares de A.
Viendo lo que hicimos para la descomposicin de
Schur, podemos ver que la descomposicin en
valores singulares siempre existe.
Los valores singulares de A son los o
i
, y el nmero
de valores no cero es el rango de A. Los u
i
son los
vetores singulares izquierdos y los v
i
los vectores
singulares derechos relacionados con o
i
.
1 1
2 2
2 2
9 9
9 9
A=
A
T
A
propiovalores 18 y 0. o1=18
(1/2)
y o2=0
Un par de vectores propios de A
T
A normalizados son
v1=[1.71/2 1.71/2]
T
y v2=[1.71/2 -1.71/2]
T
Entonces V=[V1 v2]
1 1
2 2
2 2
A=
AA
T
=
propiovalores 18 y 0. o1=18 y o2=0
Vectores propios de AA
T
normalizados son
u1=[1/3 2/3 2/3]
T
u2=[(-2)5
1/2
/5 5
1/2
/5 0]
T
u3 =[(2)5
1/2
/15 (4)5
1/2
/15 (-1)5
1/2
/3 ]
T
Entonces U=[u1 u2 u3]
2 4 4
4 8 8
4 8 8
1 1
2 2
2 2
A=
AA
T
=
2 4 4
4 8 8
4 8 8
3(2)
1/2
0
0 0
0 0
Mnimos cuadrados
Suponer que A=U7V
T
, es la descomposicin en valores
singulares, donde A es de rango k. El problema es minimizar
||Ax-b||2 con respecto a x.
||Ax-b||
2
=||U7V
T
x-b||
2
=||7y-U
T
b||
2
y=VTx ||Ax-b||
2
es mnimo cra x ssi ||7y-U
T
b||
2
es mnimo
cra y.
||7y-b||
2
2
=|o1y
1
-b
1
|
2
+...+|o
k
y
k
-b
k
|
2
+|b
k+1
|
2
+...+|b
p
|
2
b=U
T
b
Es minimizado si y
i
=b
i
/o
i
Mnimos cuadrados
Entonces para ||Ax-b||2 con respecto a x.
Encontrar A=U7V
T
Calcular b=U
T
b
Calcular y
i
=b
i
/o
i
para 1eiek, y
i
=0 otro caso
x
0
=Vy
y=VTx ||Ax-b||
2
es mnimo cra x ssi ||7y-U
T
b||
2
es mnimo
cra y.
||7y-b||
2
2
=|o1y
1
-b
1
|
2
+...+|o
k
y
k
-b
k
|
2
+|b
k+1
|
2
+...+|b
p
|
2
b=U
T
b
Es minimizado si y
i
=b
i
/o
i