Está en la página 1de 289

Algebra lineal

Temario

Matemticas I

Programa:

Algebra de matrices
1.1 Matrices
1.2 Matrices especiales
1.3 Operaciones con matrices
1.4 Matrices por bloques

Temario

Matemticas I

Programa:

Sistemas de ecuaciones lineales


2.1 Algoritmo de Gauss
2.2 Algoritmo de Gauss-Jordan
2.3 Existencia de soluciones
2.4 Operaciones elementales por filas y matrices elementales
2.5 Factorizacin LU
2.6 Geometra de ecuaciones lineales

Temario

Matemticas I

Programa:

Determinantes
3.1 Definicin
3.2 Propiedades
3.3 Determinantes e inversas
3.4 Regla de Cramer
3.5 Determinantes y matrices por bloques
3.6 Interpretacin geomtrica

Temario
Programa:

Matemticas I

Espacios vectoriales
Elementos de lgebra abstracta

Grupos

Todo sobre homomorfismos

Anillos
Campos

4.1 Espacios vectoriales


4.2 Subespacios vectoriales
4.3 Combinaciones lineales
4.4 Dependencia e independencia lineal
4.5 Base y dimensin
4.6 Kernel, imagen, espacio columna y espacio fila de una
matriz
4.7 Ecuaciones lineales y espacios vectoriales
4.8 Cambio de base
4.9 Espacio cociente
4.10 Sumas y sumas directas

Temario

Matemticas I

Programa:

Espacios vectoriales con producto interno


5.1 Producto interno
5.2 Desigualdad de Cauchy-Schwarz
5.3 Ortogonalidad
5.4 Procedimiento de Gram-Schmidt
5.5 Espacios normados

Temario

Matemticas I

Programa:

Transformaciones lineales
6.1 Definicin
6.2 Propiedades
6.3 Kernel e imagen de una transformacin lineal
6.4 Representacin matricial de una transformacin lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales

Temario

Matemticas I

Programa:

Valores propios y vectores propios


7.1 Definicin y propiedades
7.2 Teorema de Cayley-Hamilton
7.3 Diagonalizacin de matrices

Temario

Matemticas I

Programa:

Formas cannicas
8.1 Forma cannica de Jordan
8.2 Forma cannica racional

Descomposicin en valores singulares

Pseudoinversa

Funciones de matrices

Matrices definidas positivas

Temario

Matemticas I

Bibliografa

B. Noble, J.W. Daniel, Applied linear algebra, Prentice


Hall.

S. Grossman, Linear algebra, McGraw Hill.

F.R. Gantmacher, Matrix Theory, Chelsea Publishing Co.

G. Strang, Linear algebra and its applications, Harcourt


Brace Jovanovich Publishers.

S. Lipschutz, Algebra lineal, McGraw Hill.

Meta y objetivo

Uso indiscriminado del lgebra lineal en


el modo de pensar del ingeniero

1. Algebra de Matrices

1.1
1.2
1.3
1.4

Matrices
Matrices especiales
Operaciones con matrices
Matrices por bloques

Matrices por bloques


a11

a12

a13

a14

b11

b12

a21

a22

a23

a24

b21

b22

a31

a32

a33

a34

b31

b32

a41

a42

a43

a44

b41

b42

Matrices por bloques


A11

A12

B11

A11B11+A12B21

A21

A22

B21

A21B11+A22B21

En este momento

Ya sabemos operar con matrices

2. Sistemas de Ecuaciones

2.1 Algoritmo de Gauss


2.2 Algoritmo de Gauss-Jordan
2.3 Existencia de soluciones
2.4 Operaciones elementales por filas y matrices elementales
2.5 Factorizacin LU
2.6 Geometra de ecuaciones lineales

Sistema de ecuaciones lineales


a11x1+a12x2+...+a1nxn=b1
.

.
.
an1x1+an2x2+...+annxn=bn

Sistema de ecuaciones lineales


2x1+3x2=2

x2=2/3-(2/3)x1

x1+x2=3

x2=3-x1

3-x1=2/3-(2/3)x1

3-2/3 =x1-(2/3)x1

2.333=0.333x1

x1=7
x2=-4

Sistema de ecuaciones lineales

2x1+3x2=2
x1+x2=3

x2=2/3-(2/3)x1
x2=3-x1

(7,-4)

Algoritmo de Gauss
2x1+3x2=2

x1

x1+x2=3

x2

Algoritmo de Gauss
2

x1

2
=

x2

1/2

1.5

x1

-1

x2

1.5

x1

0
1

-2
-1.5

-.5
1

x2
1.5

=
x1

x2

x1

x2

-1

-2

-1.5

-4

1/2

Algoritmo de Gauss
1

x1

7
=

x2

-4

-1.5

1/2 0

-2

-1

-1
1

3
-2

Inversa

2
1

3
1

Original

-1 3
1

-2

Notas
Si el sistema tiene soluciones Consistente
Si el sistema no tiene soluciones Inconsistente

Cada ecuacin es la ecuacin de una recta. Si todas las rectas se


intersectan en al menos un punto, el sistema es consistente, caso
contrario es inconsistente
Operaciones elementales multiplicar un rengln por una
constante diferente de cero; intercambiar renglones; sumar un
mltiplo de un rengln a otro rengln
Definicin. Se dice que una matriz de n*n es una matriz elemental
si es posible obtenerla a partir de la matriz identidad In de n*n
mediante una sola operacin elemental en los renglones

Notas
En el mtodo de Gauss slo se utilizaron matrices elementales

Inversa de una matriz


2

-1 3
1

-2

x1

x2

x1

x2

2
=

Si se tiene la inversa ...

-1 3

-2

Inversa de una matriz


La inversa de una matriz cuadrada A se define como la matriz B
que:
AB=BA=I y se denota como A-1

Teorema. Si B Y C son invesras de A, entonces B=C

Demo.
BA=I (BA)C=IC (BA)C=B(AC)=BI=B=C

Inversa de una matriz


Teorema. Si A y B tienen inversa y son del mismo tamao,
entonces
a)

AB tiene inversa

b)

(AB)-1=B-1A-1

Demo
Demostrar que: (AB)(B-1A-1)=(B-1A-1)(AB)=I
(AB)(B-1A-1)=A(BB-1)A-1=AIA-1=I
(B-1A-1)(AB)=B-1(AA-1)B=I

Inversa de una matriz


Notar que una matriz elemental tiene inversa. Esto es cierto ya que
es una operacin elemental por la matriz identidad.
Definicin. Si A=E1E2...EnB con Ei elementales, entonces A es
equivalente a B por renglones

Teorema. Si A es una matriz cuadrada, entonces las siguientes


afirmaciones son ciertas:
a) A tiene inversa
b) AX=0 nicamente tiene la solucin trivial
c) A es equivalente por renglones a I

Inversa de una matriz


Demo
a) b)
Si A tiene inversa AX=0 A-1AX=A-10=0 X=0 es la nica
solucin
b) c) AX=0, donde la nica solucin es X=0 se puede llevar
por Gauss a la forma IX=0, pero para llevar a esta forma se
tienen que utilizar matrices elementales, i.e.
EnEn-1...E1A=I, como las Ei tienen inversa, entonces
E1-1E2-1...En-1I=A
c) a)
Como A es quivalente a I, entonces E1-1E2-1...En-1I=A, y por tanto
A-1= EnEn-1...E1I

En este momento

Ya resolvemos sistemas de ecuaciones y


conocemos cosas de la inversa.

3. Determinantes

Determinantes
3.1 Definicin
3.2 Propiedades
3.3 Determinantes e inversas
3.4 Regla de Cramer
3.5 Determinantes y matrices por bloques
3.6 Interpretacin geomtrica

Permutaciones

Conjunto n={1,2,...,n}, el conjunto de las


permutaciones de n es Sn.
Una permutacin Sn se escribe como
1

(1) (2) (3) (4)

Composicin

Inversas

-1=

-1=

Transposicin

Todos permanecen iguales, excepto dos que se intercambiaron

Ciclos
1
=

2
6

3
2

4
1

5
3

6
5

=(1 4) (2 6 5 3)

(1)=4, (4)=1 -- (2)=6, (6)=5, (5)=3, (3)=2


Toda permutacin se puede escribir como el producto de ciclos

Ciclos
Chequen lo siguiente. Todo ciclo se puede escribir como un
producto de transposiciones

ejemplo (4 5 3 2 1)=(2 1)(3 1)(5 1)(4 1)

No es nica, pero todas las representaciones son pares o


impares en el nmero de transposiciones una permutacin es
par o impar.

Definicin. El signo de una permutacin es (+) 1 si es par (-1) si


es impar

Determinante
A=[aij] de n*n, el determinante de A se define como:
Det(A)=

a1(1)a2(2)...an(n)

Determinante
Ejemplo. Sea A una matriz de 3*3, entonces S3 tiene 6 elementos (3!)

Las permutaciones de arriba son pares, las de abajo impares.


Det(A)=a11a22a33+a12a23a31+a13a21a32-a12a21a33-a13a22a31-a11a23a32

Propiedades
R1

Ri+Rj

Rn

En este momento

Entendemos lo que es el determinante

4. Espacios vectoriales

Espacios vectoriales

Elementos de lgebra abstracta

Grupos

Todo sobre homomorfismos

Anillos
Campos

Algebra abstracta

Grupo: G(S,+)

S Conjunto de elementos
+ Operacin binaria

a+b=c, a,b,c S
Existe e S, a+e=e+a=a
Existe a-1 S a-1+a=e

Es grupo?

Los naturales con +, *?


Z4, +?, Z4, *?
Los reales con +, *?
Los racionales con +, *?

Homomorfismos

Dos grupos (S1,+), (S2,*)


H:S1S2
H(a+b)=H(a)*H(b)

H(e1+e1)=H(e1)+H(e1)=
H(e1)= e2 *H(e1)
H(e1)*[H(e1)-1]= e2 *H(e1)* H(e1)-1=e2

H(e1)= e2

Propiedad

H(x-1)=[H(x)]-1

H(x)+ H(x-1)=H(x+x-1)=H(e1)=e2
H(x-1)=[H(x)]-1

Imagen

Im(H)={y|H(a)=y, aS1}
Son elementos de S2

Kernel

Ker(H)={x|H(x)=e1}
son elementos de S1

El kernel es una medida de la


inyectividad de la funcin

Suponer que H(x)=H(y)

H(x)+[H(y)]-1=e2
H(x+y-1)=e2
si y-1x-1
hay ms de un elemento en el kernel de H
y por lo tanto no es inyectiva H.

La imagen es grupo

Sean a,b Im(H).

a+b=H(x)+H(y)=H(x+y) a+b tambin


est en la imagen de H.
H(e1)=e2 la identidad est en la imagen
Si a est en Im(H) H(x)=a H(x-1) es el
inverso de a.

El kernel es grupo

Sean a,b Ker(H).

a+b=H(a)+H(b)=e2+e2 H(a+b)=e2
a+b tambin est en el kernel de H.
H(e1)=e2 la identidad est en el kernel
Si a est en Ker(H) H(a)=e2
H(a+a-1)=H(a)+H(a-1)=e2+e2 a-1 est en el
kernel

Subgrupos

Si G=(S,+) es un grupo, entonces


H=(R,+) es un subgrupo de G ssi
H=(R,+) tiene las caractersticas de un
grupo.
R es un subconjunto de S

Coconjuntos

Si H=(R,+) es un subgrupo de G
entonces para todo a elemento de G, el
conjunto aH es llamado el coconjunto
izquierdo de a debido a H.

Coconjuntos

El conjunto de todos los coconjuntos de


un grupo G debido a un grupo H es
llamado el grupo cociente G/H debido a
que tiene las propiedades de un grupo
Cada coconjunto de G/H es denotado
como [a] (el elemento que le di origen,
H est fijo)

Coconjuntos

Lo primero que hay que notar es que se


puede establecer la siguiente relacin de
equivalencia
a~b ssi a-1+b pertenece a H

a~a a est en aH,


a-1+a=e, como en H est la identidad,
entonces en aH est a

Coconjuntos

Si a~b entonces b~a

a-1+b est en H
(a-1+b)-1 est en H
b-1+a est en H
Adems b est en aH

a-1+b est en H y e est en H y a est en aH


a-1+b=h a+a-1+b=a+h b=a+h, i.e. es un
elemento de aH

Coconjuntos

Si a~b y b~c entonces a~c a est en


H

a-1b, b-1cH a-1c H


Adems c est en aH,

Claro

Coconjuntos

Como vemos, la relacin anterior


particiona el conjunto S del grupo
G=(S,+).
A su vez, cada particin es igual a un
coconjunto de G/H, entonces los
coconjuntos particionan a G/H

si b aH existe x H, tal que ax=b aH


a-1ax=a-1b=x H

Recordatorio
TEOREMA. Sea L una particin del
conjunto X. Defnase xRy si x, yS para
algn S L. Entonces R es reflexiva,
simtrica y transitiva.

Recordatorio

Demo.

Sea x X. Como X = L, x S para algn S L.


Entonces xRx y R es reflexiva.
Sup. xRy. Entonces x e y pertenecen a un S L. Como
y y x pertenecen a S, yRx R es simtrica.
Sup. xRy e yRx entonces
x, y S L.

y, z T L.

Si S T yS zT pero L es disjunta por


pares no es posible; entonces S = T x y z S
xRz; R es transitiva.

Recordatorio

TEOREMA. Sea R una relacin de equivalencia sobre


un conjunto X. Para cada a X, sea
[a] = {x XxRa} entonces
L = {[a] a X} es una particin de X

Demo
Para verificar que L es una particin de X

i) X = L
ii) L es una familia disjunta por pares

Recordatorio

Sea a X; como aRa a [a]; entonces X = L


> Dem que si aRb [a] = [b]
- Sup aRb. Sea x [a], entonces xRa. Como aRb y R es
transitiva xRb. x [b] y [a] [b].
- Sup bRa. Sea x [b], entonces xRb. Como bRa y R es
transitiva, xRa. x [a] y [b] [a]
> Sup [a], [b] L con [a] [b]. Probar [a] [b] = .
- Sup para algn x, x [a] [b], entonces xRa y xRb,
entonces [x]=[a] y [x]=[b]; consecuentemente [a]= [b]:
contradiccin [a] [b] = y L es disjunta por pares.

Grupos

En el grupo G/H el elemento [e] funciona


como la identidad.

[e]+[a]=[a]+[e]=[a] al menos el
elemento e+a est en la suma, pero este
elemento est en [a]
El inverso de [a] es [a-1], al sumar a+a-1 se
genera el elemento e y por tanto [e]
Adems es cerrado

Sean X y Y dos conjuntos cualesquiera. Sea A:XY una


funcin cualquiera. Entonces se puede definir la relacin
Ker A de la siguiente forma:
x1~x2 ssi A(x1)=A(x2)
Note que la relacin Ker A es una relacin de
equivalencia.
Como es una relacin de equivalencia, entonces diremos
que x1x2 (mod Ker A) x1 es equivalente a x2 mdulo
Ker A- -Tambin se dice que x1 es congruente a x2 va
Ker A o que la relacin Ker A es una congruencia-

Significado geomtrico de esta relacin


X

clusters
y1

x1
x2
x3

y2

x4
y3

x5

y4

x6
Imagen de A
Observe que hay tantos clusters como imgenes de A

Podemos hacer el conjunto de los clusters

Significado geomtrico de esta relacin


clusters
A este conjunto lo llamaremos X/Ker A,
o conjunto cociente X/Ker A
c1={x1, x2, x3}

c2={x4}
c3={x5, x6}

(A menudo yo le llamo conjunto de clustercillos)

Significado geomtrico de esta relacin


X/Ker A

c1={x1, x2, x3}

c2={x4}

Noten que la relacin Ker A est dando


una medida de la inyectividad de A. Si
el nmero de clusters es igual al nmero
de elementos en X, entonces A es
inyectiva.

c3={x5, x6}

A los clusters se les llama coconjuntos (cosets) y son justamente los


subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se
les suele llamar las fibras de A.

Significado geomtrico de esta relacin


Ejem. A(x)=x mdulo 4 -es el residuo de la divisin, no la congruencia
X
1 5 9
3 7
Aqu est A
0 4 8
2 6
Y

X/Ker A
c2=[1 5 9]
c1=[0 4 8]
c4=[3 7]

c3=[2 6]

Como X/Ker A y la imagen de A tienen la misma cantidad de elementos,


entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker AIm(A)]

Significado geomtrico de esta relacin


Proposicin. Sea A:XY y sea PA:XX/Ker A su proyeccin cannica,
entonces g:X/ker Aim(A) tal que A=gPA, donde g es una biyeccin.
X

1 5 9
0 4 8

PA

3 7

Aqu est A

2 6
Y

X/Ker A
c2=[1 5 9]
c1=[0 4 8]

0
c4=[3 7]
c3=[2 6]

Demostracin

Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es


funcin

Cubre todo X. Como A es funcin, entonces a cubre todo X, y


por la definicin anterior, g tambin cubrir todo X
Un valor de X/Ker A no est asociado a dos valores de Y.
Suponer que si es as, (z,y1), (z,y2)g.

Entonces y1y2. Por la definicin de g se tiene:


z= PA(x1), y1=A(x1) y adems
z= PA(x2), y2=A(x2)
Como PA(x1),= PA(x2) implica que A(x1)= A(x2)
Entonces y1=y2, una contradiccin, entonces
Un valor de X/Ker A no est asociado a dos valores de Y

Por tanto g(z) si es funcin.

Demostracin

Ahora veremos que g es una biyeccin.

g es inyectiva. Suponer que no es as, i.e. (z,y),(z,y)g

Entonces zz
Entonces z=PA(x) y z=PA(x)
Adems A(x)=A(x)=y.
Como tienen la misma y, entonces PA(x)=PA(x), una
contradiccin. Por tanto es inyectiva.

g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes


de A. Por definicin de g, cualquier imagen de A tiene una
preimagen en X/Ker A. Por lo tanto g es sobre.

Como es inyectiva y sobre, es una biyeccin.

Demostracin

Por definicin A=g PA


o

Significado geomtrico de esta relacin


,... Y ahora
Definicin. Se dice que una relacin R1 refina (es ms fina) a R2 y se
escribe R1R2 si (x,y)R1 entonces (x,y)R2. En otras palabras, todo
coconjunto de R1 es un subconjunto de algn coconjunto de R2.

1 5 9
0 4 8
2 6

3 7

1 5 9
0 4 8
2 6

3 7

Significado geomtrico de esta relacin


Ahora se generalizarn estos conceptos
Proposicin. Sea f:XY y sea una particin del conjunto X,
donde Ker f . Entonces existe un nico mapa g:X/Y tal
que f=gP.
En pocas palabras, dice que si existe una particin ms fina que
la que deja la funcin, entonces es posible recuperar la informacin de la funcin va la particin ms fina (que en este caso se
llama ).

Significado geomtrico de esta relacin

1 5 9
0 4 8

Aqu est f

3 7
2 6

Aqu est Ker f (son los crculos


que forman las clases de equivalencia)
0

Significado geomtrico de esta relacin

1 5 9
0 4 8

Aqu est f

3 7
2 6

Aqu est (son los rectngulos


que forman las clases de equivalencia),
Se puede ver que Ker f

Significado geomtrico de esta relacin

1 5 9
0 4 8
Aqu est Pf

Aqu est f

3 7
2 6

e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
0

Significado geomtrico de esta relacin

1 5 9
0 4 8
Aqu est Pf

Aqu est f

3 7
2 6

e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
0
Aqu est P

e2=[1 5 9]
e1=[0 4 8]
e4=[3 7]
e3=[2 6]

Significado geomtrico de esta relacin

1 5 9
0 4 8
Aqu est Pf

Aqu est f

3 7
2 6

e1=[0 2 4 6 8]
e2=[1 3 5 7 9]
0
Aqu est P

e2=[1 5 9]
e1=[0 4 8]
e4=[3 7]
e3=[2 6]

Aqu est g

Significado geomtrico de esta relacin

Demostracin
1.

2.
3.

Definir g(z)=f(x) ssi z=P(x). Adems para


cada zk={xi|xiAi} existe una clase
[xi]={xi|f(xi)=y} donde zk[xi]
como Ker f, entonces [xi] puede ser
particionado en z1,...,zn
g es una funcin.
a.

b.

Como zk pertenece a algn [xi], entonces este g(zk)


ser igual a f(xi), o sea todo elemento de X/ ser
asociado con un valor en Y. X/ est cubierto.
Si (zk,yi), (zk,yj)g, implica que zk[xi] y zk[xj], pero
por 2) esto no es cierto, por lo tanto cada zk se
asocia con uno y slo un valor de Y.

Significado geomtrico de esta relacin

Demostracin

Por la definicin de g, se tiene que


f(x)=g P(x)
Suponer que existe g(z) tal que f=gP
Sea xX g(P(x)) =f(x)= g(P(x))
entonces g=g.

Significado geomtrico de esta relacin

Proposicin. Sea f:XY y g:XZ y sea Ker fKer g. Entonces


existe un mapa h:ZY tal que f=hg. Ms an, h est solamente
definida en la imagen de g; esto es la restriccin h|g(X).
Intuitivamente dice que la imagen de g deja suficiente informacin
para poder relacionar cada elemento de Z con uno y slo uno de Y.

Significado geomtrico de esta relacin

1 5 9
0 4 8

Aqu est f
Y

3 7

2 6
1
0
Aqu est Pf
Hay una funcin isomrfica
X/Ker f

e2
e1

Significado geomtrico de esta relacin

Aqu est g

1 5 9
0 4 8

3 7

2 6

Aqu est Pg

Hay una funcin isomrfica


e1

e3
e2 e4

X/Ker g

Significado geomtrico de esta relacin

1 5 9
0 4 8

3 7

2 6
El Ker f Ker g

Significado geomtrico de esta relacin

Aqu est g
Z

1 5 9
0 4 8

3 7

Aqu est f
Y

2 6

0
2
Aqu est h

e2

e1

e3
e2 e4

X/Ker g

X/Ker f

e1

Significado geomtrico de esta relacin

Demostracin

h(z)=f(x) ssi z=g(x)


[xi]={xi|f(xi)=y}; como Ker fKer g implica que
[xi] puede ser particionado en z1,...,zn tal que
g(xi) =zi y por tanto h(zi)=y. Por la definicin, h
est definida en la imagen de g.
Como en el caso anterior h asigna a cada zi un
nico valor en Y.
Por la definicin de h se tiene que h(g(x)=f(x).
Se ve que se cumple, ya que como Ker fKer g,
un xg-1(zi) xf-1(y)

Significado geomtrico de esta relacin

Demostracin

Suponer que existe h(z) tal que f=hg


Sea xX h(g(x)) =f(x)= h(g(x))
entonces h=h.

Significado geomtrico de esta relacin

Proposicin. Si , son dos particiones tal que


, entonces existe una nica funcin
f:X/X/ tal que P=fP.

Significado geomtrico de esta relacin

1 5 9
0 4 8

3 7

2 6
X

X
1 5 9

0 4 8

1 5 9

3 7
2 6

La particin

0 4 8

3 7
2 6

La particin

Significado geomtrico de esta relacin

1 5 9
0 4 8

3 7

2 6

Aqu est P

Aqu est P

X/

X/
e2

e1

e2

e4
e3

e1

Significado geomtrico de esta relacin

1 5 9
0 4 8

3 7

2 6

Aqu est P

Aqu est P

X/

X/
e2

e1

e2
e1

e4
e3
Aqu est f

Congruencias de sistemas dinmicos

Un sistema dinmico sobre un conjunto X


es un mapa :XX con la siguiente
interpretacin. Los elementos xX son
llamados estados y es llamada funcin
de transicin de estados.
k es la k-sima composicin de s

Congruencias de sistemas dinmicos

Sea una particin de X con proyeccin


cannica P :XX/ . es una
congruencia para si existe un mapa :
X/ X/ tal que:
P = P X
X

P
X/Ker

P
X/Ker

Congruencias de sistemas dinmicos

Recordando resultados previos


es una congruencia de ssi
Ker P Ker (P )
X

P
X/Ker

P
X/Ker

Anillos

Un anillo R=(S,+,*) es un conjunto con


dos operaciones binarias.

(S,+) es un grupo conmutativo (grupo


abeliano)
(S,*) es un semigrupo (se le pide cerrado,
pero no unidad ni inversas)

Anillos

En un anillo se deben cumplir las


propiedades distributivas
a*(b+a)=a*b+a*c
(b+c)*a=b*a+c*a

Anillos

En un anillo elemento identidad de (S,+)


ser denotado como 0.
Si (S,*) forma un grupo para sus
elementos no 0, es llamado anillo de
divisin.

Anillos

Un anillo de divisin, (S,*) si es


conmutativo ser llamado Campo

Anillos

Por ser anillo se tiene

a0=0a=0

a(-b)=-(ab)=(-a)b

a0=a(0+0)=a0+a0
a0+(-(a0))=a00=a0

0=a0=a(b+(-b))=ab+a(-b)
-ab=a(-b)

a(b-c)=ab-ac

a(b-c)=a(b+(-c))=ab+a(-c)=ab-ac

Espacios vectoriales

Espacios vectoriales
Subespacios vectoriales
Combinaciones lineales
Dependencia e independencia lineal
Base y dimensin

Espacios vectoriales

Un espacio vectorial E=(V,F)


Es un conjunto de elementos llamados
vectores sobre un campo F donde

x+y=y+x y pertenece a V
x+(y+z)=(x+y)+z
Existe el vector 0, tal que 0+x=x+0=x
Para cada vector x existe el x, tal que x-x=0

Espacios vectoriales

Cada elemento dol campo es llamado un


escalar

(x+y)= x+y
x= x
(1+ 2)x= 1(x)+ 2(y)
1x=x 1 la unidad multiplicativa del campo

Espacios vectoriales

ejemplos

Espacios vectoriales

Teorema
0v=v0=0

0v=0v+0v-0v=(0+0)v-0v=0v-0v=0

(-1)v=-v

v+(-1)v=1v+(-1)v=(1-1)v=0v=0
Agregando v a ambos lados se tiene el
resultado

Subespacio

Sea (V,F) un espacio, entonces (S,F) es


un subespacio de (V,F) si preserva todas
las caractersticas de espacio y S es un
subconjunto de V

Subespacio

ejemplos

Creacin de espacios

Teorema.

Espacio vectorial (V,F)


S subconjunto de V

Si v1,vn estn en S, entonces tambin


1v1++nvn, donde i son elementos del
campo

(S,F) es un subespacio

Demo en clase por los alumnos

Creacin de espacios

Preguntas importantes

En qu condiciones dos conjuntos S1, S2


crean el mismo espacio vectorial?
Cal es la cardinalidad mnima de QS tal
que Q y S crean el mismo espacio vectorial?
Cando S crea el mismo espacio que
contiene a los vectores de S?

Dependencia e independencia
lineal

Definicin. Sea S={v1,v2,...vn} un


conjunto de vectores. El vector
y=1v1+2v2+...+nvn donde los
coeficientes son escalares ser llamada
combinacin lineal de S.

Dependencia e independencia
lineal

Definicin. Sea S={v1,v2,...vn} un


conjunto de vectores. S es linealmente
independiente si
1v1+2v2+...+nvn=0 tiene como
nica solucin la trivial. De lo contrario se
llamarn linealmente dependientes.

Dependencia e independencia
lineal

Definicin. Sea S={v1,v2,...vn} un


conjunto de vectores. Si S es linealmente
independiente, entonces el espacio
creado por S ser llamado espacio
generado por S.

Dependencia e independencia
lineal

Sea S={v1,v2,...vn} un conjunto de


vectores. Para mostrar si es linealmente
independiente se resuelve la ecuacin:
1
2

[v1 v2 ... vn] ...

=0

Dependencia e independencia
lineal

Entonces ya podemos aplicar Gauss para


resolver el sistema y ver su solucin

Si la matriz [v1 ...vn] es de rango n entonces


tiene solucin nica
Si la matriz [v1 ... vn] es de rango menor a
n, entonces tiene ms de una solucin.

Dependencia e independencia
lineal

Ejemplos en clase

Bases, Dimensin y
coordenadas

Definicin. Sea (V,F) un espacio vectorial,


entonces el conjunto S={v1, v2, ...vn}
ser una base para (V,F) si S genera
(V,F).

S es linealmente independiente
S genera (V,F)

Bases, Dimensin y
coordenadas

ejemplos de bases en diferentes espacios

Bases, Dimensin y
coordenadas

Notita. Si z es una C.L. (combinacin lineal) de


los vectores x1,...,xr; y xi es una C.L. de los
vectores y1,...,ys. Entonces z es una C.L. de los
vectores y1,...,ys.
z=a1x1+...+arxr
z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys)
Es una propiedad de transitividad

Bases, Dimensin y
coordenadas

Notita. Si algunos vectores x1,...,xn son


linealmente dependientes (L.D.) entonces
todo el sistema x1,...,xn son L.D.
Suponer que x1,...,xk (k<n) son L.D.
a1x1+...+akxk=0 con ai diferente de nulo.
a1x1+...+akxk+0xk+1+...+0xn=0 es
solucin y el sistema es L.D.

Bases, Dimensin y
coordenadas

Coordenadas

La base B={v1, ..., vn} es un conjunto,


pero tiene un orden para facilitar
1
trabajos futuros.
Representacin. Un vector v se puede 2
reescribir en trminos de una base.

v=1v1+2v2+...+nvn, a donde

Es la representacin del vector

...
n

Bases, Dimensin y
coordenadas

Ejemplos de representacin de vectores

Bases, Dimensin y
coordenadas

Teorema. La representacin del vector es


nica
v=1v1+2v2+...+nvn=
1v1+2v2+...+nvn
(1-1)v1+...+ (n-n)vn=0
base L.I. entonces la nica solucin
es cero (i-i)=0 i=i

Bases, Dimensin y
coordenadas

Notita. El teorema anterior es cierto si


dice que z=a1x1+...+akxk los ai son
nicos ssi los xi son L.I.

Bases, Dimensin y
coordenadas

Definicin. Sea (V,F) un espacio vectorial.


Dos subespacios de (V,F); (V1,F) y (V2,F)
se dicen equivalentes si los vectores de
uno se pueden escribir como C.L. del
otro y viceversa.

Bases, Dimensin y
coordenadas

Teorema. Suponer que B={v1, ...,vp} es


una base para (V,F) y suponer que
D={u1,...,uq} es un subconjunto L.I. en
(V,F), entonces qp
Demostracin.
Como B es una base, entonces
uiD,(V,F) se puede expresar como una
C.L. de B

Bases, Dimensin y
coordenadas

S1={u1,e1,...,ep} es L.I. Existe un vector


que es C.L. de los anteriores, digamos que es ei.
Por transitividad el resto {u2,...,uq} es una C.L.
de S1-{ei} y se puede aplicar el mismo
procedimiento
Como se observa el procedimiento no puede
eliminar todos los vp vectores antes de que los
ui vectores se hayan agotado y qp.

Bases, Dimensin y
coordenadas

Teorema. Nmero de vectores en la base.


Suponer que para un espacio (V,F) se tiene una
base con p vectores. Entonces todas las bases
tienen p vectores.
Demo. Aplicar teorema anterior suponiendo que
se tiene otra base con q vectores. qp.
Aplicar partiendo de la base con q vectores
pq q=p.

Bases, Dimensin y
coordenadas

Definicin. Al nmero de vectores en la base de


un espacio (V,F) se le llama dimensin de (V,F).
En especial, todos los subespacios equivalentes
tambin tienen un conjunto de vectores que lo
generan (ya que son un espacio en s) y se tiene
una base y por tanto tambin tienen su
dimensin. En tal caso es ms adecuado hablar
de rango que de dimensin, ya que podemos
hablar de un subespacio en R3, pero de rango 2.
A su vez, a la dimensin del espacio completo
se le puede llamar rango, pero es mejor hablar
de dimensin.

Bases, Dimensin y
coordenadas

El espacio Rn tiene timensin n.


Si la dimensin de un espacio es p
cualquier conjunto con s vectores s>p es
L.D.
En efecto, la base tiene p vectores y el
resto ser una C.L. de la base.

Bases, Dimensin y
coordenadas

Teorema. Un espacio tiene dimensin finita k ssi


k es el maximo nmero de vectores que se
pueden obtener en el espacio.
Demo. Si la dimensin es k la base tiene k
vectores son L.I. y cualquier otro es una C.L.
de la base (ya no es L.I.).
Si el mximo nmero de vectores L.I. es k
estos generan todo el espacio y por tanto es
una base k es la dimensin.

Bases, Dimensin y
coordenadas

Ok, regresemos a la representacin de


vectores
0
B1={ 1
0

4
4

=4

1
0

+4

0
1

Bases, Dimensin y
coordenadas

El mismo vector en otra base


B2={

4
0

1
1

=4

0
1
1
1

+0

0
1

Bases, Dimensin y
coordenadas

Si el mismo vector se puede representar


en diferentes bases, se podr
transformar de una en otra?

1
0

0
1

4
4

1 0
1 1

4
0

Bases, Dimensin y
coordenadas
1 0
1 1

-1

1
0

0
1

4
4

4
0

Matriz de cambio de base de B1 a B2

Bases, Dimensin y
coordenadas
El concepto fcilmente se puede
generalizar a cualquier par de bases
Lo que es ms chido...
(P[x]2,R) una posible base es B={1, x, x2}
v1=1 en la base

1
0
0

Bases, Dimensin y
coordenadas
v2=x en la base

0
1
0

v3=x2

0
0
1

Bases, Dimensin y
coordenadas

v4=1-x
v5=3+x
v6=-2+2x+x2
v7=2+3x+7x2
Son L.I.?

Todo cambia a matrices!!!

Espacios vectoriales

Kernel, imagen, espacio columna y espacio fila de una


matriz
Ecuaciones lineales y espacios vectoriales
Cambio de base
Espacio cociente
Sumas y sumas directas

Pausa: Cosas de una Matriz

Kernel.

Todos los x tales que Ax=0


Kernel={x|Ax=0}

Se puede hablar de dos kerneles, el


izquierdo y el derecho

KerI={y|yTA=0}
KerD={x|Ax=0}

Pausa: Cosas de una Matriz

Imagen

Todos los y que son obtenidos de A


multiplicado por un vector
Imagen={y|Ax=y}

Pausa: Cosas de una Matriz

Teorema (operaciones columna y dependencia


lineal). Suponer que una secuencia de
operaciones elementales por rengln transforma
la matriz A en la matriz B, entonces:

Una coleccin de columnas de A es linealmente


dependiente (independiente) ssi la colleccin
correspondiente de columnas de B es linealmente
dependiente (independiente).
Una matriz rengln puede ser escrita como una
combinacin lineal de (esto es linealmente
dependiendte de) todos los renglones de A ssi puede
ser escrita como una combinacin lineal de todos los
renglones de B.

Pausa: Cosas de una Matriz

Demostracin caso 1.Sea F=E1E2...En la secuencia de matrices


elementales que realizan las operaciones
elementales que transforman a A en B.
F tiene inversa=no singular
FA=B
Fx=0 x=0 (solucin nica)
Si las columnas de A son L.D. entonces
1a1+2a2+...+nan=A[]
FA[ ]=B[ ]
Si A es LD hay muchas combinaciones

Pausa: Cosas de una Matriz

que dan cero esas mismas combinaciones en


B dan cero y sus columnas son LI.
Si A tiene una sola combinacin que da cero,
entonces en B ser la nica posibilidad de dar
cero, ya que slo es este caso FA[]=0
Apliquemos esto a cualquier coleccin de
columnas de A y se tendr la demostracin de la
primera parte.
Demostracin caso 2.Un matriz rengln y es una CL de los renglones
de A ssi y=xA para alguan matriz rengln x,
pero y=xF-1FA=xB, para x=xF-1

Pausa: Cosas de una Matriz

como FA=B; y y=xB ssi y es una CL de


los renglones de B.

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss


1
-1

-1
1

2
1

3
2

1
0

-1
0

2
3

3
5

1
1

2
3

4
1

1
2

0
0

3
4

2
-1

-2
-1

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss


1
0

-1
3

2
2

3
-2

1
0

-1
1

2
2/3

0
0

0
4

3
-1

5
-1

0
0

0
0

2
-2
-11/3 -23/3

3
5/3

Pausa: Cosas de una Matriz

Veamos ms a fondo el mtodo de Gauss

1
0

-1
1

2
2/3

3
-5/3

0
0

0
0

1
-1
-11/3 -23/3

1
0

-1
1

2
2/3

3
5/3

0
0

0
0

1
0

-1
1

Pausa: Cosas de una Matriz


Columnas dominantes

1.5

Matriz

Forma de Gauss

Pausa: Cosas de una Matriz


Columnas dominantes
1

-1

-1

-1

Matriz

Forma de Gauss

Pausa: Cosas de una Matriz


Columnas dominantes
0

-1

Matriz

Forma de Gauss

Matrices
1.
2.

3.

Por intercambio de renglones hacer que


el elemento (1,1) sea diferente de cero.
Si no es posible es porque toda la
columna 1 es igual a cero, tacharla y
tratar de hacer lo mismo para la
submatriz generada
El proceso se repite hasta tener un
elemento diferente de cero.

Matrices
4.

Todo el rengln se divide entre el


elemento diferente de cero y se procede
a hacer cero el resto de los elementos
de esta columna de acuerdo al mtodo
de Gauss

Matrices
5.
6.
7.

Una vez hecho esto se tacha el rengln


y se obtiene una nueva submatriz
Con esta nueva submatriz se procede
desde el punto 1)
El resultado es la matriz en la forma de
Gauss

Matrices

Si se tiene un rengln diferente de cero,


entonces a la primer columna diferente
de cero se le llamar dominante o lder.

Pausa: Cosas de una Matriz

Teorema (matrices reducidas y dependencias)


Suponer que G es una matriz en la forma de
Gauss y de rango k
a) El conjunto de las k columnas lderes es
linealmente independiente
b) Cualquier columna a la izquierda de la
primera columna lder es una columna cero.
Cualquier columna a la izquierda de la i-sima
columna lder es combinacin lineal de las
anteriores columnas lderes.

Pausa: Cosas de una Matriz

Definicin.- Sea A una matriz de p*q


a) El espacio columna de A es el
subespacio que es generado por el
conjunto de columnas de A
b) El espacio rengln de A es el
subespacio generado por los renglones
de A.

Pausa: Cosas de una Matriz

Poner ejemplos
Dar las condiciones para que el sistema
tenga solucin.

Ax=b

Pausa: Cosas de una Matriz

Teorema. Sea una matriz A de rango k.


Entonces
a) El espacio columna de A tiene diemnsin k.
Una base son las columnas lderes.
b) El espacio rengln es de dimensin k, una
base son los renglones diferentes de cero.
c) Una matriz p*p es no singular si sus
columnas son LI rango p
d) Una matriz p*p es no singular si sus
renglones son LI rango p

Matrices

Corolario

Rango por columnas = rango por filas

Teorema (espacios rengln iguales). Sea


A1 y A2 matrices de tamao r*q y s*q
respectivamente. El espacio rengln de
A1 es igual al espacio renglon de A2 ssi
los renglones no cero de las matrices de
Gauss coinciden.

El maldito Kernel otra vez

Definicin: Sea f:XY una funcin de X a Y.


Con f se asocia una relacin de equivalencia
llamada equivalencia kernel de f y se denota por
Ker f y est definida como sigue:
x1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que s es una relacin de equivalencia y por
tanto particiona a X)

Por qu se le llama
equivalencia kernel

Sucede que en el caso de homomorfismos si


f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e.
x1-x2 est en el kernel de f.
Claramente una matriz A puede ser considereda
como una funcin (y an ms, un
homomerfismo, chequen en clase esto y vern
que si la hace). Entonces el kernel que
definimos de A es consistente con el kernel en
homomerfismos y sucede que:

Por qu se le llama
equivalencia kernel

El kernel de A es un subespacio
La imagen de A es un subespacio
Ya qu no saben qu, A/ker A es un
espacio y se le llama espacio cociente.

Entendamos bien esto, que


est demasiado fcil, salvo la
primera vez

Encontrar Kernel, imagen (range, no


rank), A/Ker A de la siguiente matriz A.
1

-1

-1

Sistemas Lineales III:


Control Geomtrico-1.8

Sean X y Y dos conjuntos cualesquiera. Sea A:XY una


funcin cualquiera. Entonces se puede definir la relacin
Ker A de la siguiente forma:

x1~x2 ssi A(x1)=A(x2)


Note que la relacin Ker A es una relacin de
equivalencia.

Como es una relacin de equivalencia, entonces diremos


que x1x2 (mod Ker A) x1 es equivalente a x2 mdulo
Ker A- -Tambin se dice que x1 es congruente a x2 va
Ker A o que la relacin Ker A es una congruencia-

Significado geomtrico de esta relacin


X

clusters
y1

x1
x2
x3

y2

x4
y3

x5

y4

x6
Imagen de A
Observe que hay tantos clusters como imgenes de A

Podemos hacer el conjunto de los clusters

Significado geomtrico de esta relacin


clusters
A este conjunto lo llamaremos X/Ker A,
o conjunto cociente X/Ker A
c1={x1, x2, x3}

c2={x4}
c3={x5, x6}

(A menudo yo le llamo conjunto de clustercillos)

Significado geomtrico de esta relacin


X/Ker A

c1={x1, x2, x3}

c2={x4}

Noten que la relacin Ker A est dando


una medida de la inyectividad de A. Si
el nmero de clusters es igual al nmero
de elementos en X, entonces A es
inyectiva.

c3={x5, x6}

A los clusters se les llama coconjuntos (cosets) y son justamente los


subconjuntos de X sobre los cuales A tiene diferente valor. Tambin se
les suele llamar las fibras de A.

Significado geomtrico de esta relacin


Ejem. A(x)=x mdulo 4 -es el residuo de la divisin, no la congruencia
X
1 5 9
3 7
Aqu est A
0 4 8
2 6
Y

X/Ker A
c2=[1 5 9]
c1=[0 4 8]
c4=[3 7]

c3=[2 6]

Como X/Ker A y la imagen de A tienen la misma cantidad de elementos,


entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker AIm(A)]

Significado geomtrico de esta relacin


Proposicin. Sea A:XY y sea PA:XX/Ker A su proyeccin cannica,
entonces g:X/ker Aim(A) tal que A=gPA, donde g es un isomorfismo.
X

1 5 9
0 4 8

PA

3 7

Aqu est A

2 6
Y

X/Ker A
c2=[1 5 9]
c1=[0 4 8]

0
c4=[3 7]
c3=[2 6]

Demostracin

Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es


funcin

Cubre todo X. Como A es funcin, entonces a cubre todo X, y


por la definicin anterior, g tambin cubrir todo X
Un valor de X/Ker A no est asociado a dos valores de Y.
Suponer que si es as, (z,y1), (z,y2)g.

Entonces y1y2. Por la definicin de g se tiene:


z= PA(x1), y1=A(x1) y adems
z= PA(x2), y2=A(x2)
Como PA(x1),= PA(x2) implica que A(x1)= A(x2)
Entonces y1=y2, una contradiccin, entonces
Un valor de X/Ker A no est asociado a dos valores de Y

Por tanto g(z) si es funcin.

Demostracin

Ahora veremos que g es un isomorfismo.

g es inyectiva. Suponer que no es as, i.e. (z,y),(z,y)g

Entonces zz
Entonces z=PA(x) y z=PA(x)
Adems A(x)=A(x)=y.
Como tienen la misma y, entonces PA(x)=PA(x), una
contradiccin. Por tanto es inyectiva.

g es sobre. Como g:X/Ker AIm(A), slo abarca las imgenes


de A. Por definicin de g, cualquier imagen de A tiene una
preimagen en X/Ker A. Por lo tanto g es sobre.

Como es inyectiva y sobre, es un isomorfismo.

Demostracin

Por definicin A=g PA


o

Significado geomtrico de esta relacin


Estamos en los lmites...
Si los conjuntos tienen estructura matemtica, p.e. X, Y son espacios
vectoriales y la funcin A resulta ser un operador lineal.
Ax1=Ax2 es la relacin Ker A. Un caso particular es para la imagen
cero.

En este caso todos los x, tales que Ax=0 formarn una clase de
equivalencia. Las dems clases de equivalencia las obtendremos al
estudiar las otras imgenes de A.
Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y
tiene un nmero infinito de elementos. Una forma ms adecuada es
estudiarlos a travs de la clase de equivalencia del 0 [0].

Significado geomtrico de esta relacin


Estamos en los lmites...
Por ejemplo, si queremos estudiar el caso para la imagen y, entonces
debemos encontrar todos los x tales que Ax=y.
x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se
tiene que x2[x] ssi (x1-x2)[0].
Como la clase [0] es un subespacio de X

De hecho si Ax=0 y Ay=0, entonces A(x+y)=0 y por tanto es


un subespacio
entonces (x1-x2) span[0], o (x1-x2) = 1e1+2e2+...+nen

Si x1 est fijo, entonces x2= x1-1e1-2e2-...-nen.............................(1)


Como con la clase de equivalencia [0] se generan todas las dems, a est
clase la llamaremos genricamente Kernel de A.

Significado geomtrico de esta relacin


Estamos en los lmites...
Como se observa, la ecuacin (1) es un mtodo para calcular todas las
clases de equivalencia [x2].
Se puede ver que es un un espacio vectorial (el del Kernel) desplazado
por x1 (cualquier vector de la clase).

A esta clase de equivalencia, y slo cuando hablamos de operadores


lineales en espacios vectoriales, le llamaremos una variedad lineal. No es
un espacio, ya que en general, el cero no est includo en dicha variedad,
pero si ser un espacio vectorial va mdulo algn vector de la clase.

Ejemplos

Significado geomtrico de esta relacin


Estamos en los lmites...

A:22 tal que A([x y]T)=[xy y-x]T. Claramente A es un operador


lineal y un vector de la forma [k k]T est en la clase de equivalencia [0] o
Kernel de A.

El vector [2 1]T no est en la clase [0], pero si est en la clase [[2 1]T].
Los vectores que pertenecen a esta clase, de acuerdo a la ecuacin (1)
son:

X=[2 1]T-[1 1]T

Significado geomtrico de esta relacin


Estamos en los lmites...

Clase [0]
Clase [2 1]T

Significado geomtrico de esta relacin


Estamos en los lmites...

En realidad, cada clase forma una


lnea paralela al Kernel de A.

Significado geomtrico de esta relacin


Si tenemos un operador lineal A:VW, entonces el Kernel de A ser un
subespacio de V, y cada una de las clases de equivalencia ser una
variedad lineal paralela al Kernel de A.

Ms an, el conjunto de las clases de equivalencia se denotar en la


forma comn V/Ker A y ser llamado el espacio cociente V/Ker A.

Proposicin. Sea un operador lineal A:VW, entonces el conjunto


V/Ker A es un espacio vectorial.

Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene

Significado geomtrico de esta relacin


[v1]=[v1]+[0] para cualquier v1V. De la ecuacin (1) x2= v1-1e12e2-...-nen se observa que esto es cierto, ya que x2[v1].

Los escalares, son los del campo definido en V.

La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y


x1+x2[v3]. Note que est bien definida ya que cualquier x1[v1] y
x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]

Todas las propiedades se pueden demostrar y resulta un espacio vectorial

Significado geomtrico de esta relacin


,... Pero hay ms cosas
Claramente, Im(A)V/Ker A. Vimos que esto se cumple an en el caso
que no sean espacios vectoriales.

Ahora volvamos a los conjuntos.

Vimos que si A:XY, entonces Ker A es una relacin de equivalencia.


Por la definicin, cualquier funcin deja una relacin de equivalencia en
su dominio. Pero, adems, nosotros sabemos que una relacin de
equivalencia sobre un conjunto X es equivalente a una particin de X

Espacios vectoriales con producto interno

Espacios vectoriales con producto


interno

5.1
5.2
5.3
5.4
5.5

Producto interno
Desigualdad de Cauchy-Schwarz
Ortogonalidad
Procedimiento de Gram-Schmidt
Espacios normados

Norma

Definicin.- Una norma (o norma


vectorial) en (V,F) es una funcional que
asigna a cada vector v un nmero real no
negativo, llamado norma del vector v, y
es denotado por ||v|| y satisface:

||v||>0 para v0, y ||0||=0


||v||=|| ||v|| escalar y v vector
||u+v||||u||+||v||

Norma

Definicin.- Para vectores x=[x1 x2 ...


xp]T, las normas ||||1, ||||2, |||| son
llamadas norma 1, norma 2 y norma
infinito respectivamente y se definen
como:

||||1=|x1|+|x2|+...+|xp|
||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}

Norma

Definicin.- Sea |||| una norma en (V,F). Una


secuencia de vectores vi se dice que converje al
vector v ssi la secuencia de nmero reales ||viv|| Para vectores x=[x1 x2 ... xp]T, las normas
||||1, ||||2, |||| son llamadas norma 1,
norma 2 y norma infinito respectivamente y se
definen como:

||||1=|x1|+|x2|+...+|xp|
||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}

Norma

Teorema: Sean x, y dos vectores. Entonces


|xTy|||x||2||y||2
Demostracin.

sabemos 0||x+y||=(x+y)T(x+y)=||x||22+ 2 ||y||22+2


|xTy|
si =-||x||22/xTy, entonces
0-||x||22+(||x||24||y||22/xTy|2)
Despejando se llega a la desigualdad

Producto interno

Definicin. El producto interno en (V,F) sobre un


par de vectores (u,v) que satisface:

(u,v)=(v,u)
(u+v,w)= (u,w)+ (v,w)
(w,u+v)= (w,u)+ (w,v)
(u,u)>0, y es igual a cero si u es cero.

Producto interno

El producto interno (u,v)1/2 induce una norma en el espacio


vectorial.
Definicin. Sean el producto interno (,)

u, v son ortogonales ssi (u,v)=0


Un conjunto de vectores son ortogonales ssi cada par de vectores
(u,v) son ortogonales
Si un vector u es usado para producir u/||u|| tal que ||v||=1,
entonces u se dice ser normalizado para producir el vector
normalizado v
Un conjunto de vectores se dice ortonormal ssi es ortogonal y
||v||=1 para todo vector v

Producto interno

Diferentes productos internos

(u,v)=uTv
si f y g son funciones real valuadas continuas en 0t1,
entonces (f,g)= f (t ) g (t )dt
0

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un


subespacio generado por los vectores ortogonales
S={v1,...,vq}. Defnase la proyeccin ortogonal como sigue.
Para cualquier vector v

P0v=1v1+...+qvq, donde i=(vi,v)/(vi,vi)

entonces

v-P0v es ortogonal a todo vector v en (V0,F)


P0(u+v)=P0u+P0v
P0(v)= P0v

Proyecciones ortogonales

Demostracin

(vi,v-P0v)=(vi,v)-1(vi,v1)-...-q(vi,vq)=(vi,v)- i(vi,vi)=0
Los otros puntos salen de la definicin de los
coeficientes .
v

v-P0v
vi
P0v= vi

Proyecciones ortogonales

Teorema. Sea (V,F) un espacio vectorial con


producto interno y con su norma inducida por el
producto interno ||||. Sea (V0,F) un subespacio
generado por los vectores ortogonales
S={v1,...,vq}. Entonces para cualquier v, P0v es el
nico punto ms cercano en (V0,F) a v, y ||v-P0v||
es la distancia de v a (V0,F)

||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)

Proyecciones ortogonales

Demostracin.

||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v, v-P0v


)+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)
Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces
se obtiene que:
||v-v0||=||v- P0v||+|| P0v-v0||
entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||vP0v||+||

Proyecciones ortogonales

Sea S={v1,...,vq} un conjunto de vectores


ortogonales, entonces estos vectores son
linealmente independientes.
si se toma el vector 0=c1v1+...+cqvq, tenemos
que saber el valor de cada ci.
0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi)
como (vi,vi)>0 ci=0 y son L.I.

Proyecciones ortogonales

Se sigue que si el vector proyectado v est en el


espacio (V0,F), entonces P0v ser el mismo v y los
valores de las i ser la representacin del vector
en la base seleccionada S.

Proyecciones ortogonales

Teorema. Sea B={v1,...vq} una base ortogonal. La


representacin del vector v se calcula como

v=1v1+...+qvq, donde
i=(vi,v)/(vi,vi)
Note que si la base es ortonormal, entonces los i se
calculan fcilmente

Proyecciones ortogonales

Si tenemos S={v1,...,vq} un conjunto de vetores


que genera (V,F)

Tomar u1=v1,
desde 2 hasta q, ui=vi-Pi-1vi

Transformaciones lineales

Transformaciones lineales

6.1 Definicin
6.2 Propiedades
6.3 Kernel e imagen de una transformacin lineal
6.4 Representacin matricial de una transformacin lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales

Transformaciones lineales

Definicin. Sean (V,F) y (W,G) dos espacios vectoriales.


Una transformacin lineal T de (V,F) a (W,G) es una
correspondencia que asigna a cada vector v en V un
vector w en W tal que:
T(v1+v2)=T(v1)+T(v2)
T(v)= T(v)
Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo
que implica que T(0) debe ser el cero de W.

Transformaciones lineales

El espacio imagen
Todos los vectores w en (W,G) tal que w=T(v)
Solucin. Si w es fijo, entonces existe v en (V,F) tal que
T(v)=w ssi w est en la imagen de T.

Se aplica Sobre

Claramente el problema Solucin tiene solucin si T es


onto.

Transformaciones lineales

Otro problema es si la solucin es nica.


T(v1)=T(v2)=w

Se aplica Inyectividad

Claramente la solucin es nica si w esta en la imagen de


T y T es inyectiva.

T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0

Tambin T tiene kernel.

Transformaciones lineales

Ms propiedades de las transformaciones lineales


T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v)
T(1v1+...+nvn)= 1v1+...+nvn
Esto se puede ver por asociatividad e induccin
Teorema. Sea (V,F) un espacio vectorial de dimensin finita con
base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si
T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v
en (V,F).
Demo, como cualquier vector de (V,F) se escribe como v=
1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)=
T1(1v1)+...+T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)

Transformaciones lineales

Teorema. Sea (V,F) un espacio vectorial de dimensin


finita con base B={v1,...vn} y (W,G) un espacio vectorial
que contiene a los vectores w1,...,wn, entonces existe
una nica transformacin lineal tal que T(vi)=wi, para vi
en B.
Demo. Como cualquier vector de (V,F) se escribe como
v= 1v1+...+nvn, entonces T se define como
T(v)=1w1+...+nwn
T ser una transformacin lineal
T(u+v)=T[(1v1+...+nvn)+(1v1+...+ nvn)]=
=T[(1+1) v1+...+( n+n) vn] Por la definicin de T,
= (1+1) w1+...+( n+n) wn=T(u)+T(v)

Transformaciones lineales

De igual forma
T(u)=T[(1v1+...+ nvn)] Por la definicin de T,
1w1+...+ nwn= T(u)
Por teorema anterior se tiene la unicidad
Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y
T:(V,F)(W,G) una transformacin lineal. Demsotrar que
el kernel de T es un subespacio de (V,F) y que la imagen
de T es un subespacio de (W,G).

Transformaciones lineales

Definicin. Sean (V,F) y (W,G) dos espacios vectoriales y


T:(V,F)(W,G) una transformacin lineal.

Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y


T:(V,F)(W,G) una transformacin lineal.

Nulidad de T = (T) =dim (Ker (T))


rango de T = (T) = dim (Im (T))

(T)+ (T) = dim (V,F)

Demo. Suponer que (T)=r y que {v1,...vr} es una base


para el kernel; adems (T)=k y {w1,...wk} es una base
para la imagen de T.
Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}

Transformaciones lineales

Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK


Al Vector v lo podemos escribir como
v= 1u1+...+kuK-v v= 1u1+...+kuK-v
T(v)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v)
= 1w1+...+kwK-T(v)=0 v est en el kernel de T
Como {v1,...vr} es una base de Kernel de T, existen escalares 1
,.., r tal que v= 1v1+ ... +rvr=1u1+...+kuK-v
Por tanto v= 1u1+...+kuK- 1v1- ... -rvr
y {u1,...,uk, v1,..., vr} genera (V,F)
Ahora hay que ver que sean L.I.

Transformaciones lineales

Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0


Entonces T(1u1+...+ kuK+ 1v1+ ... + rvr)=0
Como los vi estn en el kernel
0= 1w1+...+ kwK, como los wi son una base de la
magen, entonces son L.I. y la nica solucin es i=0
Entonces el vector se reescribe como
1v1+ ... + rvr=0 , como los vi son una base para el
kernel son L.I., entonces la nica solucin i=0 y los
vectores son L.I.
y por lo tanto es una base y la dimensin de (V,F) es

(T)+ (T) = dim (V,F)

Transformaciones lineales

Sean (V,F) y (W,G) dos espacios vectoriales y


T:(V,F)(W,G) , entonces existe una nica matriz A
(dim(v), dim(W)) tal que T(x)=Ax
A est la matriz de transformacin correspondiente a T.
Demo
sea B={e1,...,en} la base cannica en (V,F)
T(ei)=wi
Se puede formar la matriz A=[w1 wn]
entonces Aei=wi (T(ei)=wi)
En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn
Tambin Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)

Transformaciones lineales

Suponer que T(x)=Ax=Bx (A-B)x=0,


para x=ei (A-B)ei=0 que la i-sima columna de (A-B)
es cero, por lo que las matrices son iguales y A es nica.

Teorema Sea A la matriz de transformacin


correspondiente a T, entonces

i) Im T Im A, pero isomorfo
ii)(T)=(A)
iii)Ker TKer A, pero isomorfo
iv)(T)=(A)

Transformaciones lineales

Teorema. Sean (V,F), (W,G) dos espacios vectoriales de


dimensiones n y m respectivamente. Sea T(V,F)(W,G)
una transformacin lineal. Sean B1={v1,...,vn} y
B2={w1,...,wm} las bases de los espacios
respectivamente. Entonces existe una nica matriz A
(m,n) tal que:

[T(x)]B2la representacin de T(x) en B2

[T(x)]B2=A(xB1)

T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T


xB1 es la representacin del vector en B1

La matriz A se conoce como la matriz de transformacin


correspondiente a T con respecto a las bases B1 y B2

Transformaciones lineales

Considere los vectores T(v1, ...,T(vn), escrbase


A=[[T(v1)]B2 ... [T(vn)]B2]
Como AviB1=Aei= [T(vi)]B2
y xB1 es la representacin del vector en B1, i.e. [1 ... n]T
entonces
A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n
Por otro lado
T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn)
Al poner cada uno de estos vectores en la representacin
de la base B2 se obtiene que:
A xB1= T(xB1)
La unicidad es similar al teorema anterior

Transformaciones lineales

Teorema.- Sea A (m,n) la matriz de transformacin


correspondiente a T:(V,F)(W,G) con respecto a las
bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente.
Suponga que hay otras bases B1={v1,...,vn} y
B2={w1,...,wm} de los espacios respectivos.
Entonces la matriz A correspondiente a la misma
transformacin T con respecto a las bases B1 y B2 est
dada por:

A=P-1AQ

P es la matriz de transicin (de paso) de la base B2 en B2


Q es la matriz de transicin (de paso) de la base B1 en
B1

Transformaciones lineales

Demo.
Sabemos que [T(x)]B2=AxB1
Ahora,
xB1=QxB1 y [T(x)]B2=P[T(x)]B2
Por tanto
P[T(x)]B2=A QxB1
[T(x)]B2=P-1A QxB1
A=P-1AQ es la matriz de transformacin

Transformaciones lineales

En especial, si (V,F) y (W,G) son los mismos, entonces


A=P-1AP
Definicin. Se dice que dos matrices cuadradas A y B son
similares si existe una matriz P no singular (determinante
diferente de cero) tal que
B=P-1AP

Transformaciones lineales

Transformaciones T

Inyectiva Kernel T = {0}


Sobre

Teorema. T:VW una transformacin lineal y dim v=n y


dim w=m
i) si n>m, T no es inyectiva
ii) si m>n T no es sobre

Demo. Tarea.

Transformaciones lineales

Definicin. Una T.L es un Isomorfismos ssi es inyectiva y sobre.


La matriz de un isomorfismo es invertible.
Definicin. Se dice que (V,F) y (W,G) son isomorfos ssi existe un
isomorfismo entre ambos
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de
dimensin finita. Entonces (V,F) y (W,G) son isomorfos si dim
(V,F)=dim (W,G)
Demo. Obtener bases para cada uno. Entonces quedan
representados en (Rn,R). Como son bases en el mismo espacio,
existe una matriz de cambio de base A. por teoremas anteriores
existe una T.L. asociada a A que es un isomorfismo.
Si existe el isomorfismo entre las representaciones, lo existe
entre los espacios.

Transformaciones lineales

Corolario. Cualquier espacio de dimensin n es isomorfo a (Rn,R)


Teorema. Si T:(V,F)(W,G) es un isomorfismo

i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera


(W,G)
ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I.
iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una
base.

Demo.

i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)}


genera (W,G)
iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ...

iii) se sigue de anteriores.

+nvn)=0, como T es isomorfismo T(0)=0 es el nico. Entonces 1v1+ ...


+nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.

Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo
vector wW existe un nico vector v V tal que
T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la
transformacin inversa de T.
Demo. 2 partes T-1 es T.L. y T-1(w)=v nico
T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2
T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2
T(v1)= T(v1)= w1 T-1(w1)= v1
Como T es isomorfiso, la definicin de T-1 hace que exista un
nico valor de regreso.
Nota. T es T.L. A es su operador

T-1 es la inversa de T, entonces A-1 es el operador de T-1

Transformaciones lineales

Operaciones con transformaciones lineales


Sean (V,F) y (W,F) dos espacios vectoriales sobre el
mismo campo F. Hom(V,W) es el conjutno de todas las
transformaciones lineales entre (V,F) y (W,F).
Sean T1 y T2 dos T.L. entre (V,F) y (W,F)
Se define la suma T1+T2 como
T1+T2:VW (T1+T2)(v)=T1(v)+T2(v)
para todo F, T1 es
(T1)(v)=T1(v)

Transformaciones lineales

El conjunto Hom(V,W) definido anteriormente es un


espacio vectorial sobre el campo F.
Demo. Tarea.

Algebra de Transformaciones
lineales

Definicin. Un lgebra A sobre un campo F es un espacio


vectorial sobre F en el que se tiene definida una operacin
producto que satisface para todos los elementos T1, T2,
T3 A y F:
T1(T2+T3)=T1T2+T1T3
(T2+T3)T1=T2T1+T3T1
(T1T2)=(T1)T2=T1(T2)
Si adems se cumple que
(T1T2)T3=T1(T2T3)
entonces A es un lgebra asociativa

Algebra de Transformaciones
lineales

Definicin. Sean V, U y W espacios vectoriales sobre el mismo


campo F. Sean T1:VU y T2:UW dos transformaciones
lineales.
Se define la composicin de T2 seguida de T1 T2T1 como la
funcin de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v))
Proposicin. Si T1 y T2 son TL, entonces T2T1 tambin lo es.
Demo. Sean u,v V y , F, entonces
(T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u))
= (T2T1)(v)+ (T2T1)(u)
(T2T1) es T.L.
Puede verse que Hom(V,V) con la composicin es un lgebra
asociativa.

Adicional de Transformaciones
lineales

Sean A, B dos matrices de qxn y nxp con coeficientes en


el mismo campo.
Entonces (A)+(B)-n (AB) min((A), (B))
Demo
(A)
(B)

R(B)

d
n

n(B)

n(A)

R(A)

R(AB)

Adicional de Transformaciones
lineales

De la figura (AB)min((A), (B)).


Tambin (AB)= (B)-d (la interseccin de R(B) y n(A).
La dimensin de n(A)=n- (A) d n+ (A)
y se sigue que (AB) (A)-n+ (B)
Si B es no singular
(A)+(B)-n = (A) (AB) min((A),n) = (A)
(A)
(B)

R(B)

d
n

n(B)

n(A)

R(A)

R(AB)

4. Valores y vectores propios

Valores y vectores propios

Definicin y propiedades
Teorema de Cayley-Hamilton
Diagonalizacin de matrices

Valores y vectores propios

Definicin. Sea V un espacio vectorial y


T:VV una transformacin lineal del
espacio en s mismo. Sea vV un vector
diferente de cero pa el cual existe un
escalar tal que T(v)=v,
entonces se dice que es un valor propio
de T y que v es un vector propio de T
asociado a .

Valores y vectores propios

Cuando V es un espacio de dimensin finita, la


transformacin T la podemos representar como
una matriz A de n,n. Entonces podemos redefir
los valores y vectores propios de la siguiente
forma.
Definicin. Sea A una matriz de n,n. El escalar
se denomina valor propio de A si existe un
vector x diferente del nulo, tal que Ax= x
nuevamente x es el vector propio asociado a .

Valores y vectores propios

Teorema. Sea A una matriz de n,n. Entonces


es un valor propio de A ssi det(I-A)=0
Demo.
Slo si. Suponga que es un valor propio de A;
entonces existe un vector x diferente de cero tal
que Ax= x
(I-A)x=0, como x diferente de cero (I-A)
es singular det(I-A)=0

Valores y vectores propios

(si). Si det( I-A)=0 ( I-A) es singular

( I-A)x=0 tiene soluciones diferentes de


cero, entonces existe x diferente de cero
tal que Ax= x.

Valores y vectores propios

Definicin. La ecuacin det(I-A)=0 se conoce


como ecuacin caracterstica de A, y el
polinomio p()=det(I-A)
Observe que p()=(det(I-A)=a0+a1+...+an
por el teorema fundamental del lgebra,
cualquier polinomio de grado n tiene n races
(contando multiplicidades).
p()=(det(I-A)=a0+a1+...+an=
(- 1)r1...(- m)rm
Los nmero ri son la multiplicidad algebraica de
los valores propios de ,..., .

Valores y vectores propios

Teorema. Sea un valor propio de A y


E={x|Ax= x}. Entonces E es un
subespacio vectorial de Cn
Ntese que E son las soluciones de (IA)x=0, es decir el kernel de un operador
lineal es un subespacio vectorial.

Valores y vectores propios

Definicin. Sean un valor propio de A.


Entonces E se denomina espacio propio de A
correspondiente a .
Definicin. Sea E el espacio propio de A debido
a . A la dimensin de E se le conoce como
multiplicidad geomtrica de .
Multiplicidad geomtrica de =dim E=dim{Ker
(I-A)}

Valores y vectores propios

Ejemplos y procedimientos de clculo.


4

-2

-1

-1

-4

-1

Valores y vectores propios

Teorema. Sea un valor propio de A.


Entonces se cumple que la multiplicidad
geomtrica de multiplicidad algebraica
de

Valores y vectores propios

Teorema. Sean 1, 2, ..., m valores propios


diferentes de A (n,n), donde mn y sean x1,
x2,..., xm sus vectores propios correspondientes.
Entonces x1, x2, ..., xm son linealmente
independientes.
Demostracin.
Suponga que {x1,...,xm} son L.D. y que xs es el
primer vector L.D. de los previos
xs=1x1+2x2+...+s-1xs-1
Multiplicando por A
Axs= 1Ax1+2Ax2+...+s-1Axs-1

Valores y vectores propios

sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1


Restando ecuaciones y multiplicando por s se
tiene
0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1
Como xs es el primer vector L.D. entonces
1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0
como is i=0 xs=0, lo cual contradice
la suposicin las vectores son L.I.

Valores y vectores propios

Teorema. La matriz A (n,n) tiene n


vectores propios L.I. ssi la multiplicidad
geomtrica de cada valor propio es igual
a su multiplicidad algebraica.
Tarea (Grossman, pag 545)

Valores y vectores propios

Definicin. Sea F(x)=a0+a1x+a2x2+...+anxn un


polinomio y A una matriz cuadrada
Se define el polinomio f(x) en la matriz A como:
F(A)=a0I+a1A+a2A2+...+anAn
Sy f(A) es igual a la matriz cero, entonces se dice
que A es raz (o cero) del polinomio f(x).
Sea F() (n,n) una matriz polinomial en la variable
, i.e.
F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm
donde F0, F1,...,Fm son matrices cuadradas reales.

Valores y vectores propios

Se dice que F() es de orden n; y si Fm0,


entonces F() es de grado m. Adems F() se dice
regular si det(Fm)0
Definicion. Sean F() y G() matrices polinomiales
de orden n., y G() es regular. Las matrices
polinomiales Q() y R() se conocen como
cociente derecho y residuo derecho
respectivamente de F() dicidida por G() si
F()= Q() G() + R()
y si el grado de R() es menor que el grado de
G() [R() puede ser cero]

Valores y vectores propios

De manera similar se pueden definir el


cociente izquierdo y residuo izquierdo
Sea A (n,n) y denota F(A) la evaluacin por
la derecha de A en la matriz polinomial F()
, esto es, si
F()=F0+F1+...+Fmm=
F()= F0+F1A+...+FmAm

Valores y vectores propios

Teorema. Si la matriz polimial F() es dividida por


la derecha por la matriz (I-A) entonces el residuo
es F(A), y si es dividida por la izquierda por (I-A)
entonces el resiudo es F(A) (por la izquierdA).
Demostracin. Tarea.
(teorema generalizado de Bezout, Grantmatcher,
pag 81)

Valores y vectores propios

Corolario. La matriz polinomial F() es divisible por


la derecha por la matriz (I-A) sin residuo
(R()=0) ssi F(A)=0
(De manera similar se puede hacer por la
izquierda)
Teorema (Cayley-Hamilton). Toda matriz A (n,n) es
raz de su polinomio caracterstico.
Demostracin. P()=det(I-A)=a0+a1+...+n
Hay que mostrar que P(A)=0

Valores y vectores propios

de teoremas previos
(I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A)
Lo cual puede verse como
P()=(I-A)Q()=Q()(I-A)
donde Q()=adj(I-A) es una matriz polinomial en
y
P()=det(I-A)I=a0I+a1I+...+nI
como P() es divisible por la derecha y por la
izquierda por (I-A) sin residuos, entonces
P(A)=a0I+a1AI+...+AnI

Valores y vectores propios

Definicin. Se dice que el polinomio F() es


un polinomio aniquilador de la matriz A
(n,n) si F(A)=0
(p.e. el polinomio caracterstico de A)
Definicin. Al polinomio aniquilador mnico
Q() de A de menor grado se le conoce
como polinomio mnimo de A.

Diagonalizacin de matrices

Definicin. Se dice que A (n,n) es


diagonalizable (bajo similaridad) si existe
una matriz no singular P tal que P-1AP es
diagonal

Diagonalizacin de matrices

Teorema. La matriz A (n,n) es diagonalizable ssi


tiene n vectores propios linealmente
independientes
Si 1, 2, ..., n son los valores propios de A y los
vectores propios x1, x2, ..., xn correspondientes a
estos valores propios son linealmente
independientes, entonces P-1AP=diag{1, 2, ...,
n}, donde P=[x1 x2 ... Xn]

Diagonalizacin de matrices

Demostracin.
(si) Suponga que A tiene n vectores propios L.I. x1
x2 ... xn correspondientes a los valores propios 1,
2, ..., n (algunos pueden ser repetidos).
Sea P la matriz [x1 x2 ... xn], entonces
AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn]
= [x1 x2 ... xn]diag{1, 2, ..., n}
=Pdiag{1, 2, ..., n}
Como P es no singular tiene inversa
P-1AP=diag{1, 2, ..., n}

Diagonalizacin de matrices

Demostracin.
(slo si) Suponga que existe una matriz no
singular P tal que
P-1AP=diag{1, 2, ..., n}
AP=Pdiag{1, 2, ..., n}
Para cada xi de P se tiene que:
Axi= ix
xi es vector propio de A i es valor propio de A
P es no singular A tiene n vectores propios L.I.

Diagonalizacin de matrices

Corolario. La matriz A (n,n) es


diagonalizable ssi la multiplicidad
geomtrica de cada valor propio es igual a
su multiplicidad algebraica. En particular A
es diagonalizable si todos sus valores
propios son distintos

Diagonalizacin de matrices

Teorema. Si A y B son similares, entonces


tienen el mismo polinomio caracterstico, y
por consiguiente los mismos valores
propios.
Demo. det(I-B)=det(I-P-1AP)=det(P-1PP-1AP)=det(P-1(I-A)P)=det(P-1)det(IA)det(P)=det(I-A)

Diagonalizacin de matrices

Teorema. Si A y B son similares, i.e. existe


una matriz no singular tal que B=P-1AP.
Entonces:
i) Bk=P-1AkP
ii)Si f(x)=a0+a1x+...+anxn es un polinomio
cualquiera, entonces f(B)=P-1f(A)P

Diagonalizacin de matrices

Demo
Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)=
P-1AkP
ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)=
=P-1(a0+a1A+...+anAn)P=P-1f(A)P

Diagonalizacin de matrices
1

Diagonalizacin de matrices

Tiene dos propio valores 1=1, 2=2 con


multiplicidades algebraicas 2 y 1 y
geomtricas 1 y 1 respectivamente no es
posible diagonalizar A, pero es posible
encontrar una bse donde A sea casi
diagonal?

Diagonalizacin de matrices

Definicin.- Un vector v es llamado un vector


propio generalizado de rango k de A
asociado con iff

(A- I)kv=0
(A- I)k-1v0

Note que si k=1 coincide con vector propio

Diagonalizacin de matrices

Definicin.vk=v vector propio generalizado


vk-1=(A-I)v=(A-I)vk
vk-2=(A-I)2v=(A-I)vk-1
...
v1=(A-I)k-1v=(A-I)v2

Diagonalizacin de matrices

...
vk-2=(A-I)2v=(A-I)vk-1
...
Entonces para 1ik vi es un vector propio
generalizado de rango i, por ejemplo
(A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0
(A- I)k-1vk-2=(A-I)k-1v0

Diagonalizacin de matrices

Definicin.- Lleamaremos a los vectores {v1,


v2,...,vk} una cadena de vectores propios
generalizados si vk es un vector propio
generalizado que dio origen a todos los
dems vectores

Diagonalizacin de matrices

Teorema. El conjunto de vectores propios


generalizados v1, v2, ..., vk definidos anteriormente
es L.I.
Demostracin.Suponer que v1, v2, ..., vk son L.D., entonces existen
soluciones diferentes de la trivial a:

1v1+2v2+...+kvk=0

Multiplicando por (A-I)k-1 y observando que


vi=vk-(k-i)=(A-I)k-iv por definicin

Diagonalizacin de matrices

entonces
(A-I)k-1vi=(A-I)2k-(i+1)v=0
para i=1,2,...,k-1
k(A-I)k-1vk=0
y sabiendo de la def. de vector propio generalizado
que (A-I)k-1vk0, k=0
Aplicando ahora (A-I)k-2 se demuestra que k-1=0
Siguiendo esto se tiene que i=0, lo que contradice
la suposicin. son L.I.

Diagonalizacin de matrices

Teorema: Los vectores propios generalizados de A


asociados con diferentes propio valores son L.I.
Demostracin.
Sea v vector propio generalizado 1
vi=(A-1I)vi+1=(A-1I)k-iv
Sea u vector propio generalizado 2
ui=(A-2I)ui+1=(A-2I)l-iu
Del teorema anterior los vi son L.I. y los ui son L.I,
falta ver que {ui}, {vi} son L.I.

Diagonalizacin de matrices

Suponer que vi es L.D. en {u1,...,ul}


vi=1u1+2u2+...+lul
Aplicando (A-1I)i
0= (A-1I)i [1u1+2u2+...+lul ]
Ahora aplicando (A-2I)l-1 y observando que
(A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1
y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1
0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1
Como (A-2I)u1=0 o Au1=2u1, la ecuacin anterior
se reduce a
l(2-1)iu1=0

Diagonalizacin de matrices

se reduce a
l(2-1)iu1=0
lo cual implica que l=0.
Un procedimiento similar llega a la conclusin
de que todos los i=0, lo que contradice la
suposicin y los vectores son L.I.

Diagonalizacin de matrices

Teorema. Sean u y v propio vectores de


rango o y l respectivamente, asociados con el
mismo valor propio .
vi=(A-I)vi+1=(A-1I)k-iv
ui=(A-I)ui+1=(A-2I)l-iu
Si u1 y v1 son L.I. las cadenas son L.I.

Diagonalizacin de matrices

El tratar de construir la forma casi diagonal (diagonal


por bloques o forma de Jordan) se convierte en un
proceso iterativo.
1.- se calculan propio valores y propio vectores de la
forma tradicional.
2.- Si la multiplicidad algebraica es mayor que la
geomtrica tratar de encontrar una cadena lo
suficientemente larga de vectores generalizados para
construir los vectores L.I. independientes faltantes,
de lo contrario construir cadenas ms pequeas
hasta completarlos

Matrices unitarias

Si P es no singular B=P-1AP transformacin de


similaridad
Sirven para cambio de bases
Ms conveniente si las bases son ortogonales y
ortonormales
Si {x1,...,xp} es un conjunto ortonormal xiTxi=1 y
xiTxj=0
Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1

Matrices unitarias

Definicin. Una matriz P (de reales) para la cual


PT=P-1 tal que PTP=I, se dice ser unitaria.
Teorema.
a) P unitaria el conjunto de vectores columna es
ortonormal
b) P unitiaria |det(P)|=1
c) P unitaria <PX,Py>=<x,y>
d) P unitaria si valor propio de P ||=1
Demo. Clara

Matrices unitarias

Teorema.
Si B=P-1AP donde P es unitaria (se dice
transformacin de similaridad unitaria)
todo lo que se vi de propiedades de
similaridad sigue valiendo.

Matrices unitarias

Teorema.
Si A es una matriz de pxp.
a) A es similar unitaria a una matriz triangular
superior T; T=P-1AP con P unitaria y con los
propiovalores de A en su diagonal principal. T es
llamada la forma de Shur de A y la descomposicin
A=PTP-1= PTPT es la descomposicin Shur de A.
Demo.
Si p=1 ya terminamos.
Suponer que para p=k es cierto
Para p=k+1 tenemos.

Matrices unitarias

1 es el propio valor asociado a x1, podemos


normalizar este vector para que ||x1||2=1
Entonces x1 entra a la base que ya tenamos de
propiovectores ortonormalizados {w1,...,wk} si no es
otronormal a esta base, aplicamos Gram-Schmidt y
tenemos la nueva base {x1,w1,...,wk}
U= [x1,w1,...,wk]=[x1,W]
A=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=
1

x1TAW

WTAW

bT

Matrices unitarias

Definicin. Una matriz A de pxp es normal si


ATA=AAT
Teorema. A normal D=PTAP, D es
diagonal, y P es unitaria.
Por tanto los propio vectores de A son p
linealmente independientes

Matrices unitarias

Veamos ahora el caso en que A=UVT, con U


y V unitarias de pxp y qxq, es pxq casi
cero, excepto en la diagonal que vale ii=i
que es un real no negativo.
2

As son

3
0

0
2

0
0

Matrices unitarias

Claramente se tendra AV=U Avi=iui para


1imin(p,q), dende los ui, vi son las columnas de U
y V respectivamente.
Adems
ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT
donde T=D=VTATAV es diagonal de qxq
que los propio vectores de ATA sirven para
construir V y D tiene los valores propios D=T
Similarmente para el caso
AAT=U(T)UT en este caso D= T

Matrices unitarias

Definicin. A la descomposicin que hemos venido


manejando, A=UVT, se le conoce como
descomposicin en valores singulares de A.
Viendo lo que hicimos para la descomposicin de
Schur, podemos ver que la descomposicin en
valores singulares siempre existe.
Los valores singulares de A son los i, y el nmero
de valores no cero es el rango de A. Los ui son los
vetores singulares izquierdos y los vi los vectores
singulares derechos relacionados con i.

A=

1
2
2

1
2
2

ATA

propiovalores 18 y 0. 1=18(1/2) y 2=0


Un par de vectores propios de ATA normalizados son
v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T
Entonces V=[V1 v2]

A=

1
2
2

1
2
2

AAT=

propiovalores 18 y 0. 1=18 y 2=0


Vectores propios de AAT normalizados son
u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T
Entonces U=[u1 u2 u3]

u3 =[(2)51/2/15 (4)51/2/15

(-1)51/2/3 ]T

A=

1
2
2

1
2
2

AAT=

3(2)1/2

Mnimos cuadrados

Suponer que A=UVT, es la descomposicin en valores


singulares, donde A es de rango k. El problema es minimizar
||Ax-b||2 con respecto a x.
||Ax-b||2=||UVTx-b||2=||y-UTb||2
y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo
cra y.
||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2
b=UTb
Es minimizado si yi=bi/i

Mnimos cuadrados

Entonces para ||Ax-b||2 con respecto a x.


Encontrar A=UVT
Calcular b=UTb
Calcular yi=bi/i para 1ik, yi=0 otro caso
x0=Vy
y=VTx ||Ax-b||2 es mnimo cra x ssi ||y-UTb||2 es mnimo
cra y.
||y-b||22=|1y1-b1|2+...+|kyk-bk|2+|bk+1|2+...+|bp|2
b=UTb
Es minimizado si yi=bi/i

También podría gustarte