Documentos de Académico
Documentos de Profesional
Documentos de Cultura
LINEALES
Angel
Duran Martn
BIBLIOGRAF
IA BASICA
Burgos, J. de, Algebra Lineal, Mc Graw-Hill, 1997.
Collatz, L, Differential Equations, J. Willey, 1986.
Goldberg, L., Matrix Theory with Applications, McGraw-Hill, 1991.
Grossman, G. I., Algebra Lineal, McGraw-Hill, 1997.
Lipschutz, S., Algebra Lineal, Serie Schaum, McGraw-Hill, 2000.
Nagle, R.K.; Saff, E.B., Fundamentals of Differential Equations, 5th
ed., Addison-Wesley, 2000.
Noble, B.; Daniel, J. W., Algebra Lineal Aplicada, Prentice-Hall, 1989.
Ross, S. L., Introduction to Ordinary Differential Equations, John Wiley and Sons, 1989.
Simmons, G. F., Ecuaciones diferenciales con aplicaciones y notas
historicas, Mc Graw-Hill, 1993.
Strang, G., Algebra Lineal y sus Aplicaciones, Addison-Wesley, 2003.
BIBLIOGRAF
IA COMPLEMENTARIA
Aqu teneis una lista de libros de complemento a la bibliografa basica
y que puede que manejemos en alg
un momento. Todos ellos se pueden consultar en la biblioteca de la Facultad de Ciencias o en la del departamento.
Indice general
0.1. N
umeros complejos . . . . . . . . . . . . . . . . .
0.1.1. Definicion y propiedades . . . . . . . . . .
0.1.2. Potenciaci
on, radicacion y exponenciacion
0.2. Polinomios . . . . . . . . . . . . . . . . . . . . .
0.2.1. Operaciones con polinomios . . . . . . . .
0.2.2. Races de polinomios . . . . . . . . . . . .
0.3. N
umeros combinatorios . . . . . . . . . . . . . .
0.3.1. Permutaciones . . . . . . . . . . . . . . .
0.3.2. N
umeros combinatorios . . . . . . . . . .
. . . . . . .
. . . . . . .
de complejos
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
1. Eliminaci
on gaussiana. Matrices y determinantes
1.1. Algebra de matrices . . . . . . . . . . . . . . . . . .
1.1.1. Operaciones con matrices . . . . . . . . . . .
1.2. Resolucion por eliminacion gaussiana . . . . . . . . .
1.3. Interpretacion matricial de la eliminacion gaussiana .
1.3.1. Operaciones elementales . . . . . . . . . . . .
1.3.2. Sistemas escalonados . . . . . . . . . . . . . .
1.3.3. Sistema general . . . . . . . . . . . . . . . . .
1.4. Matriz inversa. Metodo de Gauss-Jordan . . . . . . .
1.5. Resolucion por determinantes . . . . . . . . . . . . .
1.5.1. Desarrollo por los elementos de una lnea . .
1.5.2. Matrices inversas y sistemas de Cramer . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
12
14
15
17
18
18
19
23
24
25
27
31
32
33
34
37
40
44
45
52
52
54
55
59
61
61
67
68
68
69
70
70
71
3. Espacios eucldeos
3.1. Producto escalar . . . . . . . . . . . . . . . .
3.2. Sistemas y bases ortogonales y ortonormales .
3.3. Metodo de ortogonalizacion de Gram-Schmidt
3.4. Matrices ortogonales. Factorizaci
on QR . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Problemas de ajuste
4.1. Ortogonales . . . . . . . .
4.2. Proyeccion ortogonal . . .
4.3. Problemas de ajuste . . .
4.3.1. Ejemplo 1 . . . . .
4.3.2. Ejemplo 2 . . . . .
4.3.3. Ejemplo 3 . . . . .
4.4. Distancia a un subespacio
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
93
. 94
. 95
. 97
. 97
. 99
. 101
. 102
.
.
.
.
.
107
. 108
. 109
. 114
. 118
. 121
.
.
.
.
.
.
126
. 127
. 130
. 133
. 138
. 138
. 144
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Matrices diagonalizables
5.1. Semejanza de matrices . . . . . . . . . . . . . . . . .
5.2. Autovalores y autovectores. Polinomio caracterstico
5.3. Diagonalizacion . . . . . . . . . . . . . . . . . . . . .
5.4. Triangularizacion . . . . . . . . . . . . . . . . . . . .
5.5. Diagonalizacion ortogonal . . . . . . . . . . . . . . .
6. Matrices no diagonalizables
6.1. Autoespacios generalizados . . . . .
6.2. Teorema de descomposicion primaria
6.3. Recurrencias vectoriales . . . . . . .
6.4. Ecuaciones en diferencias . . . . . .
6.4.1. Ecuacion homogenea . . . . .
6.4.2. Ecuacion no homogenea . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
84
85
89
Preliminares
Esta primera leccion es una introduccion a tres conceptos que manejaremos a lo largo del curso y que es apropiado conocer o recordar: el n
umero
complejo, los polinomios y los n
umeros combinatorios. Cuando los utilicemos, puede ser u
til tener presente esta leccion preliminar.
0.1.
N
umeros complejos
0.1.1.
Definici
on y propiedades
Llamamos n
umero complejo z a un par ordenado de n
umeros reales (a, b),
a, b R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real del
complejo z y b = Im(z) como la parte imaginaria. Al conjunto de n
umeros
complejos se denota por C.
Se dice que dos n
umeros complejos z1 = (a1 , b1 ), z2 = (a2 , b2 ) son iguales
z1 = z2 si y solo si a1 = a2 y b1 = b2 .
En C se definen las operaciones de suma y producto:
z1 + z2 = (a1 + a2 , b1 + b2 )
z1 z2 = (a1 a2 b1 b2 , a1 b2 + a2 b1 ).
7
b
a
, 2
.
2
2
a + b a + b2
Los n
umeros complejos son una extension de los reales. El n
umero complejo de la forma (a, 0) se identifica con el n
umero real a. De este modo, por
ejemplo, (0, 0) = 0 y (1, 0) = 1. Esta identificaci
on es compatible con las
operaciones, de modo que R se puede considerar como un subcuerpo de C.
Representaci
on geom
etrica
Los n
umeros complejos se representan geometricamente como puntos
del plano o como vectores del plano con base en el origen. La parte real
es la componente del vector en el eje horizontal y la parte imaginaria la
componente del vector en el eje vertical.
z = (a, b)
6
Forma bin
omica de un n
umero complejo
Dado (a, b) C podemos escribir:
(a, b) = (a, 0) + (b, 0) (0, 1) = a + bi
8
seg
un la identificacion ya introducida. Esta suele ser la notacion habitual
y se denomina forma binomial o bin
omica del n
umero complejo. Esta representacion identifica con la misma claridad las partes real e imaginaria de
un n
umero complejo. Ademas, permite reconocer las operaciones: sumar dos
complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos
complejos se realiza como si fuesen reales, teniendo en cuenta que i2 = 1.
Los n
umeros complejos (0, b) = bi (b R) se denominan imaginarios puros.
Conjugado de un complejo
Dado un n
umero complejo z = a + bi, se llama conjugado de z al n
umero
complejo z = a bi. Geometricamente no es sino la reflexion de z respecto
del eje real.
z = a + bi
@
@
@
@
R z = a bi
z1 z2 = z1 z2 .
(6) z = z.
(7) (z) =
z.
(8) Si z 6= 0, z 1 = (
z )1 .
2 + 6i i + 3
5 + 5i
(2 i)(1 + 3i)
=
=
1+i
1+i
1+i
(5 + 2i)
(5 + 2i)(1 i)
5 5i + 2i + 2
7 3
=
=
= i.
(1 + i)
(1 + i)(1 i)
1+1
2 2
3
1i
1
1
1+i
2i
i
=
=
=
=
= .
3
3
2
(1 i)
(1 i)
(1 i)
2i
4
2
M
odulo de un n
umero complejo
Para cada n
umero complejo z = a + bi se llama modulo de z al n
umero
real no negativo definido por
|z| =
q
p
z z = (Re(z))2 + (Im(z))2 = a2 + b2 .
z = a + bi
|z|
Forma trigonom
etrica y polar de un n
umero complejo
Para cada n
umero complejo z = a + bi no nulo, se llama argumento
principal de z al u
nico n
umero real [0, 2) tal que
cos() =
sin() =
a
Re(z)
=
|z|
a2 + b2
b
Im(z)
=
.
2
2
|z|
a +b
Este n
umero se suele denotar por = Arg(z). Geometricamente, Arg(z)
representa la medida en radianes del angulo que forma el semieje real positivo
con el vector plano definido por z (seg
un la orientaci
on habitual, el angulo
positivo es el dado por el sentido antihorario).
z = a + bi
|z|
Arg(z)
argumentos 2k, k = . . . , 2, 1, 0, 1, 2, . . .
argumentos /4 + 2k, k Z
z = 2 + 2i = 2 2(cos(/4) + i sin(/4))
z = 1 + 3i = 2(cos(/3) + i sin(/3)).
Dados dos complejos z1 y z2 cuyas formas trigonometricas son zk = rk (cos k +
i sin k ), k = 1, 2, tendremos
z1 .z2 = r1 (cos 1 + i sin 1 ).r2 (cos 2 + i sin 2 )
= r1 r2 (cos 1 cos 2 sin 1 sin 2 + i(cos 1 sin 2 + sin 1 cos 2 ))
= r1 r2 (cos(1 + 2 ) + i sin(1 + 2 )),
de suerte que acabamos de probar que el modulo del producto z1 z2 es el
producto de los modulos de z1 y de z2 . La suma de argumentos de z1 y de
z2 es un argumento de dicho producto.
Esta propiedad da la interpretaci
on geometrica de la multiplicaci
on compleja. Si tomamos en particular un complejo unitario u = (cos + i sin )
deducimos que el producto z.u no es sino el efecto de un giro de angulo
actuando sobre z.
Analogamente, para cocientes podemos formular que el modulo del cociente z2 /z1 , supuesto que z1 6= 0, es el cociente de los modulos de z2 y de
z1 . La diferencia entre el argumento de z2 menos el de z1 es un argumento
de dicho cociente.
0.1.2.
Potenciaci
on, radicaci
on y exponenciaci
on de complejos
12
= rn,
mientras que para tenemos las expresiones
k =
2
+k ,
n
n
con k entero libre. Cuando vamos dando los valores k = 0, 1, ..., n 1, los
complejos
wk = k , 0 k n 1,
recorren los vertices de un polgono regular de n lados de centro el origen y
que comienza en w0 . Al llegar a k = n caemos de nuevo en w0 , etc ... . Se
comprende pues que solo existen n races n-esimas diferentes, que son las ya
descritas wk , 0 k n 1.
ubicas de z = i. En primer lugar hallaEjemplo 1. Calculamos las races c
mos el modulo de z y su argumento principal. Tenemos |z| = 1, Arg(z) =
+
2k
de z quedan determinadas por |w| = 1, Arg(w) = 2
, k = 0, 1, 2. Es
3
decir,
k = 0,
w0 = cos(/6) + i sin(/6) = ( 3 + i)/2
k = 1,
w1 = cos(5/6) + i sin(5/6) = ( 3 + i)/2
k = 2,
w2 = cos(3/2) + i sin(3/2) = i.
+ 2k
de z quedan determinadas por |w| = 6 8 = 2, Arg(w) =
,k =
6
0, 1, 2, 3, 4, 5. Es decir,
k = 0,
w0 = 2(cos(/6) + i sin(/6)) = 2( 3 + i)/2
k = 1,
w1 = 2(cos(/2) + i sin(/2)) = 2i
k = 2,
w2 = 2(cos(5/6) + i sin(5/6)) = 2( 3 + i)/2
k = 3,
w3 = 2(cos(7/6) + i sin(7/6)) = 2( 3 + i)/2
k = 4,
w4 = 2(cos(3/2) + i sin(3/2)) = i 2
k = 5,
w5 = 2(cos(11/6) + i sin(11/6)) = 2( 3 i)/2.
En la parte de las ecuaciones diferenciales lineales sera muy importante
la exponenciacion compleja. Dado un n
umero complejo z = a + bi, con a, b
z
reales, definiremos la exponencial e como
ez = ea (cos b + i sin b),
esto es,
|ez | = ea > 0,
b argumento de
(ez ).
(ez )1
(c)
eit ,
ez
(z1 , z2 C),
(z C).
(d) Todo n
umero complejo z 6= 0 con r = |z|, = Arg(z) puede
expresarse en la forma z = rei .
Ejemplos.
i
1+i 3
z =
= cos(/3) + i sin(/3) = e 3
2
z = 2ei = 2(cos() + i sin()) = 2.
0.2.
Polinomios
Dados un n
umero natural n y los n + 1 n
umeros reales o complejos
a0 , a1 , . . . , an , los llamados coeficientes, se define el polinomio p en la variable
x como la funcion que hace corresponder al valor que tome x el valor
p(x) = a0 + a1 x + a2 x2 + + an xn .
14
0.2.1.
q(x) = b0 + b1 x + b2 x2 + + bm xm ,
i = 0, 1, . . . , n,
donde, para n > m se tiene que suponer que los coeficientes bm+1 , . . . , bn
son iguales a cero.
(1 + 2x) + (3 + x + x2 + x3 ) = 4 + 3x + x2 + x3 .
El grado de la suma sera igual a n si n > m. Para n = m, puede ocurrir que
el grado de la suma sea menor que n, precisamente si bn = an .
Se llama producto de los polinomios p(x), q(x) al polinomio
p(x)q(x) = d0 + d1 x + d2 x2 + + dn+m xn+m ,
cuyos coeficientes se determinan por
di =
aj bk ,
i = 0, 1, . . . , n + m,
j+k=i
16
0.2.2.
Races de polinomios
0.3.
N
umeros combinatorios
0.3.1.
Permutaciones
1
2
3
n
(1) (2) (3) (n)
Por ejemplo,
1
3
2 3
2 1
1
2
2 3
3 1
18
0.3.2.
N
umeros combinatorios
n
k
n!
.
k!(n k)!
n
0
n
1
= 1,
n
n
= 1.
= n.
n
nk
n+1
k
n
.
k
n
k
n
.
k1
La u
ltima propiedad permite obtener los n
umeros combinatorios de forma
recursiva, dando origen al llamado triangulo de Pascal o de Tartaglia:
n
0
1
2
3
4
5
1
1
1
1
1
2
1
1
4
5
1
3
6
10
4
10
1
5
Los n
umeros combinatorios aparecen como coeficientes del llamado binomio
de Newton: si a, b C y n 0 es un entero
(a + b)n =
=
n
0
an +
n
X
n
k=0
n
1
an1 b +
n
2
an2 b2 + +
ank bk .
n
X
n
k=0
19
n
n
bn
EJERCICIOS
Ejercicio 1. Expresa en forma binomica los siguientes n
umeros complejos:
z=
(3 + i)(1 2i)
,
2+i
w=
1 + i3
,
(1 i)3
z=
1+i
.
(3 i)2
1 + 3,5i,
3 + 2i
,
1i
4i 2
,
3+i
4 2i,
5i
,
7+i
5 4i,
3i,
3i,
1 + i,
4ei/4 ,
1 i,
2e3i/2 ,
1 + i,
1 i/2
e
,
4
1 i,
ei7/4 .
b) |z| 1,
e) z + z = 1,
c) |z| > 1,
f) z z = 1,
d) z + z = |z|,
g) z + z = i.
b) z = i,
d) z = 2 + 3i,
c) z = 1,
e) z = 1 + i,
f) z = 4 2i.
b) z = e(/2)i ,
d) z = 12 e(/6)i ,
c) z = 4e(3/4)i ,
e) z = 2e(/7)i .
1
3
cos 2 sin 2,
2
5
20
1
1
cos sin 3.
3
4
ei + e3+i + 2e2i ,
e3i + e3i ,
e3i e3i .
a) 8 1, b) 3 2 + 2i, c) 5 4 + 3i, d) 3 i, e) 1 i.
Ejercicio 9. Prueba que las races n-esimas de 1 (tambien llamadas de la
unidad) vienen dadas por , 2 , . . . , n , donde = e2i/n . Prueba que las
races distintas de 1 son tambien del n-esimo polinomio ciclotomico
1 + x + x2 + + xn1 .
Ejercicio 10. Expresa en funcion de cos() y sin():
a) cos(5),
b) cos(8),
c) cos(6),
d) sin(7).
b) cos5 ,
c) sin2 ,
d) cos2 .
Bibliografa recomendada:
Burgos, J. de, Calculo infinitesimal de una variable, Mc Graw-Hill, Ap. 1.
Spivak M. Calculus, Calculo Infinitesimal. Ed. Reverte. Cap 24.
21
BLOQUE 1: RESOLUCION DE
SISTEMAS LINEALES
Este primer bloque se dedica a la discusion y en su caso resolucion de un
sistema lineal de ecuaciones, que es nuestro primer problema a resolver. El
primer tema aborda el problema desde el punto de vista matricial mientras
que el segundo utiliza un enfoque mas formal usando la teora de espacios
vectoriales. Ambos conceptos, el de matriz y el de espacio vectorial, seran
aprovechados en los siguientes bloques.
22
Tema 1
Eliminaci
on gaussiana.
Matrices y determinantes
Ejemplo introductorio. Un ejemplo tpico de sistemas lineales es el que
viene a continuacion. Consideremos el siguiente grafico,
300
200
100
?
500
x1
?x3
400
x2
6x4
x6
?
350
600
23
600
?x5
x7
6
F
?
400
450
que representa cinco calles de una ciudad con sus cruces correspondientes.
Las flechas indican el sentido en que el trafico se mueve en cada calle (las
calles tienen sentido u
nico) y en el grafico se se
nala el flujo de trafico que entra en cada calle y que sale de ella. Ya que el trafico vara considerablemente
durante el da, se puede suponer que los n
umeros mostrados representan el
trafico promedio a las horas punta. Denotamos por x1 hasta x7 el flujo de
coches entre los cruces, se
nalados por las letras A hasta F. Para que no se
generen atascos, el flujo que entra en cada cruce debe ser igual al que sale.
El problema es determinar si, con los datos que se dan, es posible mantener
el trafico sin atascos. La cuestion puede completarse preguntando, por ejemplo, si es posible cortar un trozo de calle, digamos entre E y F, para realizar
obras, de manera que la circulacion siga siendo normal.
En este primer tema se analiza un metodo practico de discusion y en su
caso resolucion de un sistema lineal de m ecuaciones y n inc
ognitas, que es
un conjunto de expresiones de la forma
a11 x1 + a12 x2 + + a1n xn
b1
b2
am1 x1 + am2 x2 + + amn xn
(1.1)
bm ,
1.1.
Algebra de matrices
Una de las formas de tratar el problema es el llamado metodo de eliminacion gaussiana. Mas adelante veremos la sntesis del metodo y su analisis.
Ahora introducimos una notacion matricial que nos sera u
til tanto en este como en temas posteriores. Los coeficientes del sistema (1.1) se suelen disponer
24
a11
a21
A=
am1
a12
a22
am2
a1n
a2n
= (aij )
amn
(1.2)
1.1.1.
am1 am2 amn
bm1 bm2 bmn
a11 + b11
a12 + b12 a1n + b1n
a21 + b21
a22 + b22 a2n + b2n
.
=
25
a11
a21
A =
am1
a12
a22
am2
a1n
a11
a2n a21
=
amn
am1
a12
a22
am2
a1n
a2n
.
amn
A= 3
5
2
1 3
T
4 A =
2 4
6
5
6
n
X
j=1
26
aij bjk .
(1
3 2
2 1
2
1 1
0 2
1
2 0 3 4
2
1
1
2)
2 = 3
3
1 1
16
5
4
4 0
= 6
9 3 .
1 0
19 13 6
2 1
(1.3)
1.2.
Resoluci
on por eliminaci
on gaussiana
(1.4)
(1.5)
10z = 5.
Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera variable (x) solo aparece en la primera ecuacion, la
segunda (y) solo en las dos primeras ecuaciones y la u
ltima variable (z) en
todas las ecuaciones. Parece claro que los sistemas (1.4) y (1.5) son equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen
soluciones, son las mismas. Esto se debe a que el sistema (1.5) se obtiene de
(1.4) simplemente operando con sus ecuaciones.
Ahora bien, el sistema (1.5) puede discutirse sin aparente problema, y resolverse despejando las incognitas desde la u
ltima ecuacion hasta la primera.
Este proceso se llama sustitucion regresiva. As, la u
ltima ecuacion dice que
z = 5/10 = 1/2.
Llevando este valor a la segunda ecuacion, obtenemos
y=
2 z
= 1/2,
3
Notas
(1) Es importante indicar que cuando se elimina una variable, se comparan
las ecuaciones con una que queda fija mientras se este eliminando esa variable. Cuando se cambia de incognita a eliminar, tambien cambiamos de
ecuacion con la que comparar. As, en el ejemplo anterior, eliminar x implica
cambiar las ecuaciones segunda y tercera comparandolas con la primera, que
queda fija. Una vez eliminada x, nos olvidamos de la primera ecuacion; para
eliminar y cambiamos la tercera ecuacion comparandola con la segunda, que
es ahora la que queda fija. Este proceso es general: siempre se hace lo mismo
independientemente del n
umero de ecuaciones y de incognitas que tengamos:
1. Eliminar la primera incognita de todas las ecuaciones salvo la primera,
comparando aquellas con esta, que queda fija.
2. Eliminar la segunda incognita de todas las ecuaciones salvo las dos
primeras, comparando todas las ecuaciones desde la tercera con la
segunda, que queda fija.
3. Repetir el proceso hasta la pen
ultima incognita, que se elimina de la
u
ltima ecuacion, comparando esta con la pen
ultima, que queda fija.
(2) El n
umero por el que hay que multiplicar a la ecuacion fijada para eliminar la incognita depende de los coeficientes que tenga esta en las ecuaciones.
Por ejemplo, para eliminar y en la tercera ecuacion, hemos restado a esta
(9)/(3) veces la segunda ecuacion, que es lo necesario para hacer cero la
posicion de 9y: 9y (9/ 3)(3y) = 0.
(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier
sistema de ecuaciones (vease la hoja de ejercicios).
(4) El sistema final del proceso siempre ha de quedar de tipo escalonado,
en el sentido de que si hay solucion, se puedan ir despejando los valores de
las incognitas desde abajo hacia arriba , en el proceso que hemos llamado
sustitucion regresiva.
Ejemplo 2. Discute y en su caso resuelve el sistema
x y + 2z = 1
2x + y = 3
x + 2y 2z = 0
Repetimos el proceso del ejemplo 1. La eliminacion de la incognita x lleva
al sistema
x y + 2z = 1
29
3y 4z = 1
3y 4z = 1,
la eliminacion de la incognita y nos lleva a
x y + 2z = 1
3y 4z = 1
0 = 2,
Este es el sistema final. Notemos que la u
ltima ecuacion no puede darse.
Este sistema no puede tener solucion pues la u
ltima ecuacion nunca puede
cumplirse. As, el sistema final, y por tanto el original, es incompatible, no
tiene solucion.
Ejemplo 3. Discute y en su caso resuelve el sistema
3y + 14z = 4
2x + 2y 3z = 5
4x + 2y 2z = 10.
Nuestro problema aqu esta en que aparentemente no podemos empezar el
proceso, pues la incognita x no aparece en la primera ecuacion y s en las
demas. Esto se resuelve cambiando de posicion dos ecuaciones, por ejemplo
las dos primeras (esto se llama pivotaje),
2x + 2y 3z = 5
3y + 14z = 4
4x + 2y 2z = 10.
Ahora s podemos empezar. Eliminando x de la u
ltima ecuacion (en la segunda ya no aparece, por lo que no hay que tocar la segunda ecuacion)
2x + 2y 3z = 5
3y + 14z = 4
2y + 4z = 0,
y eliminando la incognita y de la u
ltima ecuacion, comparando con la segunda, tenemos
2x + 2y 3z = 5
3y + 14z = 4
16
8
z =
,
3
3
30
1.3.
Interpretaci
on matricial de la eliminaci
on gaussiana
1.3.1.
Operaciones elementales
3 2
0
A = 4 5,E = 0
6 7
1
0 1
6 7
1 0 EA = 4 5 .
0 0
3 2
A=
2
1
5 8
0 1
,E =
1 0
0 4
32
EA =
2 5 8
4 0 4
2
1
1
1 0
A= 4
5
0 ,E = 0 1
2 1 1
1 0
0
2 1
0 EA = 4 5
1
0 0
1
0.
0
Por su interes para la eliminacion gaussiana, destacamos la matriz asociada a la combinacion de operaciones elementales que consiste en sumar a
la fila r la fila s (r 6= s) multiplicada por un n
umero 6= 0. La matriz E
se obtiene de la identidad Im incorporando a esta el valor en la posicion
(r, s). Por ejemplo,
2 1
A= 4 5
2 1
1.3.2.
1
1 0 1
0 0
0 ,E = 0 1 0
EA = 4 5
1
0 0 1
2 1
0
0.
1
Sistemas escalonados
a11
a21
A=
am1
a12
a22
am2
a1n
a2n
amn
1.3.3.
Sistema general
1
2
1 1 2 | 1
2
2
1 1 1 | 1
.
A0 =
4 10
5 5 7 | 1
2 14 7 7 11 | 1
Buscamos primero la forma escalonada superior equivalente. El pivote de la
primera fila es el 1 de la posicion (1, 1). Para conseguir la forma escalonada
35
1
2
0 6
0 18
0 18
1 1 2 |
3 3 5 |
9 9 15 |
9 9 15 |
1
1
.
3
3
1 2 1 1 2 | 1
0 6
3 3 5 | 1
.
[U |~c] =
0
0
0
0
0 | 0
0 0
0
0
0 | 0
Las siguientes filas son identicamente nulas, ya no tenemos pivotes. Hemos
alcanzado la forma escalonada superior equivalente, que corresponde al sistema
x1 + 2x2 x3 + x4 2x5 = 1
6x2 + 3x3 3x4 + 5x5 = 1
Fijemonos en que como filas nulas de U (tercera y cuarta) corresponden
a componentes nulas del termino independiente, el sistema es compatible.
Puesto que solo hay dos columnas con pivote (primera y segunda) el sistema
es indeterminado y las variables libres son x3 , x4 y x5 . Pasando al termino
independiente su contribuci
on, el sistema escalonado se escribe
x1 + 2x2 = 1 + x3 x4 + 2x5
6x2 = 1 3x3 + 3x4 5x5 .
36
1.4.
Matriz inversa. M
etodo de Gauss-Jordan
Al comentar el producto de matrices, ya hemos visto que no toda matriz posee matriz inversa. Dada A Mn,n (K) se dice que otra matriz
B Mn,n (K) es inversa de A si BA = AB = In . Se denota por B = A1 .
Cuando una matriz A admite inversa, se dice que es regular o no singular.
Si A no admite inversa, se dice que es singular.
IMPORTANTE: Solo las matrices cuadradas pueden tener inversa.
La inversa de una matriz es u
til en muchas circunstancias. Por ejemplo,
en nuestro contexto, si suponemos que el sistema A~x = ~b con A Mn,n (K),
es tal que A tiene inversa, entonces el sistema tiene solucion u
nica, pues
multiplicando a ambos miembros del sistema por la inversa, se tiene
A1 A~x = A1~b x = A1~b,
de modo que la matriz inversa determina el valor de la solucion del sistema.
En esta seccion analizaremos como utilizar las operaciones elementales
para determinar si una matriz cuadrada tiene inversa y en su caso calcularla.
El metodo se llama de Gauss-Jordan y tiene relacion con la eliminacion
gaussiana. Primero una serie de propiedades basicas.
Propiedades
1. La inversa de una matriz, si existe, es u
nica.
2. Si A Mn,n (K) tiene inversa, ella es la inversa de su inversa, es decir,
(A1 )1 = A.
3. Si A, B Mn,n (K) tienen inversa, entonces AB tiene inversa, dada por
(AB)1 = B 1 A1 .
4. Si A Mn,n (K) tiene inversa, entonces su traspuesta AT Mn,n (K)
tambien tiene inversa, dada por (AT )1 = (A1 )T .
5. Toda matriz E Mn,n (K) asociada a una operacion elemental posee
inversa. En efecto,
Si se trata de permutar dos filas, E es su propia inversa.
37
0
E = 0
1
1
E = 0
0
1
E = 0
0
0
1
0
0
2
0
0
1
0
1
0 E 1 = E,
0
1 0 0
0
0 E 1 = 0 1/2 0 ,
0 0 1
1
1
1 0 0
1
0 E 1 = 0 1 0 0
1
0 0 1
0
0
1
0
1
1 0 0
00 1 0 .
1
0 0 1
1
A = 2
3
3 2
4 0
5 1
1 3 2 1 0 0
2 4
0 0 1 0
3 5 1 0 0 1
Realizamos operaciones elementales que llevan A a la matriz identidad.
Hemos de repetir las mismas operaciones elementales sobre las filas de la
matriz identidad. Las operaciones por filas suelen hacerse por orden, siguiendo el de la eliminacion gaussiana. As, en nuestro ejemplo, hacemos ceros
por debajo del primer pivote, el 1 de la posicion (1, 1), restando a la fila
segunda la primera multiplicada por dos y a la fila tercera la primera multiplicada por tres. Si hacemos esas mismas operaciones en la identidad, nos
queda
1 3 2 1 0 0
0 2
4 2 1 0
0 4 5 3 0 1
Pasando al segundo pivote, restamos a la fila tercera la segunda multiplicada
por dos,
1 3 2 1
0 0
0 2
4 2 1 0
0 0 3 1 2 1
Para la parte de la matriz A, nos acercamos a la identidad. Ya tenemos
ceros en el triangulo inferior. Nos queda hacer unos en las posiciones de la
diagonal y ceros en el triangulo superior. Para lo primero, multiplicamos por
1/2 la segunda fila y por 1/3 la tercera. Si esto lo hacemos tambien a la
derecha, nos queda,
1
0
0
3 2
1
0
0
1 2
1
1/2
0
0 1 1/3 2/3 1/3
Para la segunda tarea, hacemos lo mismo que para el triangulo inferior pero
desde abajo hacia arriba, empezando por el tercer pivote. As, hacemos ceros
39
1 3
0 1
0 0
1
0
0
0
1
0
entonces
A1
=
1/3
5/6 2/3
1/3 2/3 1/3
4
2
6 1 0 0
1 1/2 3/2 1/4 0 0
3
0
7 0 1 0 0 3/2 5/2 3/4 1 0 ,
2 1 3 0 0 1
0
0
0
1/2 0 1
y la matriz
4
2
6
A= 3
0
7
2 1 3
no tiene inversa.
1.5.
Resoluci
on por determinantes
Sn
a11
a
= 21
an1
a12
a22
an2
a1n
a2n
,
ann
a11
a21
a
31
a11
a
21
a12
a22
a32
a12
= a11 a22 a21 a12
a22
a13
a23 = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a33
= a12 a21 a33 a11 a32 a23 a31 a22 a13 .
F1
F
2
.
.
A=
. .
..
.
Fn
Las propiedades son las siguientes:
1. det(A) es lineal en cada fila, es decir, si 1 k n,
41
(a) Para K,
F1
F1
F2
F2
..
..
.
.
F = F .
k
k
.
.
..
..
Fn
F1 F1 F1
F2 F2 F2
.. .. ..
. . .
F = F 0 + F 00 .
k k k
. . .
.. .. ..
Fn
Por ejemplo
1
4 6
1 2 = 2 0
1
4 1
= 0
1
2
1
4
2
1
4
Fn
3
2
1
3 1 2 3
2 + 0 1 2 .
1 1 4 1
1 4
4 6
1
1 2 = 0 1 2 .
2 4
4 1
6
3. det(In ) = 1, n = 1, 2, . . ..
4. det(A) = n det(A).
5. Sea Sn y A la matriz obtenida al permutar las filas de A seg
un ,
F(1)
F(2)
.
A = .
.
.
..
F(n)
42
1 2
3 1
3
2
4 6 0 1 2
1 2 = 1 4 1 .
4 1 2 4 6
4
2
1
1 2
6
3 = 2 1 2
0 1
1
3
3 = 0.
1
4 6 2 4 6 2 4 6
1 2 = 0 1 2 = 0 1 2 .
4 1 0 2 2 0 0 2
4
1
4
6 2 4
2 = 0 1
1 0 0
6
2 = 4.
2
3
1 1 1
3
1 1
1
5 2 0 5
3 0
=
1 2 3 0 4
1 2
4 1 3 7
0 11 7 3
1
1
3
1
1 1 3
3
0
5
3
0 0 5
= 115.
=
2
0
7/5 2 0 0 7/5
0 0
0
115/7
0 0 68/5 3
1.5.1.
Otro metodo mas elaborado para calcular un determinante es el desarrollo por los elementos de una fila o una columna. Dada una matriz
A = (aij ) Mn,n (K) se llama menor complementario kl del elemento akl
al determinante de la matriz (n 1) (n 1) obtenida de A al suprimir su
fila k y su columna l. El cofactor de akl se define como
Akl = (1)k+l kl .
Entonces, para cualquier fila k se satisface la formula
det(A) = ak1 Ak1 + ak2 Ak2 + + akn Akn ,
llamada desarrollo del determinante por los elementos de la fila k. Hay
una formula analoga para el desarrollo del determinante por una columna
cualquiera l:
det(A) = a1l A1l + a2l A2l + + anl Anl .
Por ejemplo
4 6
1 2
0 2
0 1
= 4.
1 2 = 2
4
+ 6
4 1
1 1
1 4
4 1
4 6
0 2 2 6
6
+
42
1 2 = 4
0 2 = 4.
1 1 1 1
4 1
44
1.5.2.
Dos son las utilidades que tienen los determinantes en relacion con los
sistemas lineales: el calculo de la inversa de una matriz invertible y las llamadas formulas de Cramer. Ambas son de uso limitado, precisamente por
lo tedioso del calculo de los determinantes.
Respecto a la primera aplicacion, dada una matriz A = (aij ) Mn,n (K)
se llama matriz de adjuntos o de cofactores de A a la matriz obtenida a
partir de los cofactores de A que hemos definido anteriormente, es decir,
Aadj
A11
A21
= (Aij ) =
An1
A12
A22
An2
A1n
A2n
.
Ann
1
(Aadj )T .
det(A)
Por ejemplo, si
2 4 6
A = 0 1 2 ,
1 4 1
entonces, se puede comprobar que
9
2 1
=
20 4 4 ,
14 4
2
A1
9
20 14
1
2 4
4 .
=
4
1 4
2
adj
y por tanto
Por otra parte, se dice que un sistema de ecuaciones A~x = ~b es un sistema de Cramer si A es cuadrada y regular, es decir, si el sistema tiene
45
el mismo n
umero de ecuaciones que de incognitas y el determinante de su
matriz de coeficientes es no nulo. Son, por tanto, sistemas compatibles determinados. Para este tipo de sistemas, se puede obtener la solucion a traves
de determinantes, con las llamadas formulas de Cramer. El resultado es el
siguiente:
Teorema 4. Para un sistema A~x = ~b con matriz A Mn,n (K) son equivalentes:
(1) A~x = ~b tiene solucion cualquiera que sea ~b.
(2) El sistema homogeneo A~x = ~0 posee u
nicamente la solucion trivial
~
~x = 0.
(3) A es invertible.
Ademas, la solucion ~x = (x1 , x2 , . . . , xn )T del sistema A~x = ~b se puede
escribir como
xj =
1
det([C1 , C2 , . . . , Cj1 , b, Cj+1 , . . . , Cn ]),
det(A)
1 j n,
1 1 2
A= 3 4
5 ,
0 1 1
0 2 1
B = 3 0 5,
7 6 0
0 0 2
C = 3 1 0.
0 2 4
(1 4
3 6
2
4
,
0 2)
1
0
2 3
(1
1
1
0 2)
2 ,
3
46
1
1
2 (1 4
3
2),
(1 4
3 6
2
4
,
2)
1
0
2 3
3 2
2
4 1 1
1 1
0 2
4 0,
2 0 3
1 1 0
2 1
1
2
0
.
2
1
1
2
3 2
3 1 1
2 4
0
1 0 3
3 1 1 2
0
1 0 2
A=
6
2 1 5
3 3 1 1
1 0 1 2 4
A = 4 1 3 1 3
2 2 0 1 0
2 1 0
4 2
0
A = 0 2
1
2
1
1
2 5 2
1 0 2 1
2 2 1 3
A=
1 2
1 4
5 4 4 5
1
0
b=
5
4
4
b = 9
5
4
8
b= 4
0
12
0
0
b=
0
0
x+y+z+t=7
x+y
x+y
+ 2t = 8
2x + 2y + 3z = 10
+ 2t = 5
2x + 2y + 3z = 10
x y 2z + 2t = 0
x y 2z + 2t = 0
x y + 2z t = 8
2x + 4y z = 5
47
2x 2y + 3z 3t = 20
x + y + z = 2
x + y 3z = 9
4x + y + 2z = 9
x y + 4z + 3t = 4
Ejercicio 5. Discute los siguientes sistemas en funcion de los parametros a
y b:
x + ay + a2 z = 1
a) x + ay + abz = a
bx + a2 y + a2 bz = a2 b
x + y + az = a2
b) x + ay + z = a .
ax + y + z = 1
x1 + 2ix3 2ix4 = 2
x2 + 2x3 + 2x4 = 1
x1 + (1 + i)x3 + (1 i)x4 = 0
x1 + x2 = 0.
Ejercicio 7. Para que valores b tiene solucion el sistema Ax = b, siendo A
cualquiera de las matrices siguientes:
1 2
3
2
5 5
2
a)
2
3 1
1 1
,
2 1
2 0
2 1 2 1 2
2 3 1
2 2
b) 1 0 1 2 6 .
1
2 1 1 0
4 1 3 1 8
A= 3
5
1 2
2
4 ,B = 5 6
3 4
6
48
1
A = 3
5
2
1 2
4 , B = 0 2
6
5 6
1 2
5 2
1
2
A = 0 1 3 4 , B = 0 1
5 0 2 7
0 10
5
2
3
4
27 3
2x 3y + z = 6
x+yz =1
x+yz =4
x + y 3z = 0
x + y 3z = 5
2x 3y + z = 0
2x 3y + z = 1
x + y z = 1
x+yz =0
x + y 3z = 3
x + y 3z = 0
2 3 1 : 2 6 0 1
1
1 1 : 1 4 1
0
1 1 3 : 0 5 3 0
b) Resuelve los sistemas lineales aplicando el metodo de Gauss-Jordan a la
matriz anterior.
c) Resuelve los sistemas lineales encontrando la inversa de la matriz del
sistema y multiplicando.
Ejercicio 10. Determina cuales de las siguientes matrices tienen inversa y,
en caso afirmativo, hallala.
4
2
6
3
0
7 ,
A=
2 1 3
1
1
C=
2
1
1 2 0
B = 2 1 1
3 1 1
2
2
D=
3
6
1 1 1
2 4 2
,
1 1
5
0 2 4
49
3
4
7
9
1 2
1 5
3/2 1
3 7
4 0 0
6 7 0
E=
9 11 1
5 4 1
0
0
,
0
1
2 0 1 2
1
1 0 2
F =
2 1 3 1
3 1 4 3
Ejercicio
11. Sea A una matrizreal 4x4 cuya inversa es
1
2
3
4
2
5
7
9
A1 =
1
3
5
7
4
8
2
0
Sea B la matriz que se obtiene de A mediante las relaciones
b3,j = a3,j a4,j + a1,j a2,j 1 j 4
bi,j = ai,j
i = 1, 2, 4 1 j 4.
Halla B 1 .
Ejercicio 12. (a) Da un ejemplo de dos matrices A y B para las cuales
det(A + B) 6=detA+detB.
(b) Si B = P 1 AP , por que es detB =detA?
(c) Una matriz formada por ceros y unos, tiene determinante igual a 0, 1
o 1 ?
(d) Demuestra que el determinante de una matriz antisimetrica de orden
impar es 0.
Nota: Una matriz A es antisimetrica si AT = A.
Ejercicio 13. Sin desarrollar el determinante, demuestra que
a b + c
b a + c = 0.
c a + b
a, b, c C.
2
1
0
5
1
1 2 1
1
2 2 3 ,
0
2
3 1
1 3 4
2
3
1 1
1
5 2
,
1 2 3
4 1 3 7
1 2
1
1
1 1
1 1
2
50
2 1 3
1
1 1 2 3
1
0
2 1 .
1
2 3 4
3 1 1 2
3
.
0
5
2 + 2i
1
i
0
0
3
2
,
2 2i 6 4
4i + 5 1 3 i 0
1 i
0
2i
1
2
0 1+i
1
0
2i
2
.
1 i
0
Bibliografa recomendada:
Strang, G. Algebra Lineal y sus aplicaciones. Addison-Wesley. Cap. 1.
Lang, S. Introduccion al Algebra Lineal. Addison-Wesley. Cap. 2.
Fraleigh, J.B. & Beauregard, R.A. Algebra Lineal. Addison-Wesley. Cap 1,
apartados 1.3 - 1.7.
Burgos, J. de. Algebra Lineal. Mc Graw Hill. Cap. 1 a 4.
51
Tema 2
Espacios vectoriales y
aplicaciones lineales
El objetivo de este tema es profundizar en los conceptos tratados previamente, formalizando en un nuevo lenguaje las ideas ya expuestas. La leccion
nos servira tambien para los otros tres problemas de los que trata la asignatura, pues establece una base teorica para entender los resultados que se
presentan.
Se analiza aqu la estructura de espacio vectorial, estableciendo relaciones entre sus elementos los vectores, dando criterios para su descripcion
y analizando la conexion entre espacios vectoriales a traves de las aplicaciones lineales. Todo ello da una nueva interpretaci
on de la resolucion de un
sistema lineal.
2.1.
Espacios vectoriales
52
53
2.1.1.
m
X
k~vk .
k=1
2.1.2.
Una descripcion mas explcita de un e.v. puede darse a partir de relaciones entre sus elementos los vectores.
Sea V un e.v. Se dice que los vectores ~x1 , . . . , ~xn V son linealmente
dependientes si existen escalares 1 , . . . , n K no todos nulos verificando
1 ~x1 + + n ~xn = ~0.
Esto significa que alg
un vector del sistema es combinaci
on lineal de los
restantes. Recprocamente, si un vector ~x V es combinaci
on lineal de
los vectores ~x1 , . . . , ~xn entonces existen escalares 1 , . . . , n con
~x = 1 ~x1 + + n ~xn ,
55
es decir,
(1)~x + 1 ~x1 + + n ~xn = ~0,
y los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes.
Se dice que los vectores ~x1 , . . . , ~xn V son linealmente independientes
cuando no son linealmente dependientes, es decir, si ninguno de los vectores
es combinacion lineal de los restantes. Esto significa que si planteamos una
combinacion lineal nula
1 ~x1 + + n ~xn = ~0,
entonces necesariamente 1 = = n = 0. Luego veremos un metodo
practico para determinar la independencia lineal de un conjunto de vectores
dado.
Supongamos que los vectores ~x1 , . . . , ~xn V son linealmente independientes. Dado un vector ~x V que sea combinaci
on lineal de ellos, resulta
que los coeficientes que dan la combinaci
on lineal estan unvocamente determinados. Esto tendra su importancia al hablar de las coordenadas de un
vector.
Teorema 1. Sean ~x1 , . . . , ~xn V linealmente independientes y ~x V tal
que los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes. Entonces ~x es
combinacion lineal de ~x1 , . . . , ~xn .
Si consideramos los vectores como flechas desde el origen, no es difcil
visualizar la dependencia lineal en el espacio tridimensional. Dos vectores
son dependientes si estan en la misma recta, y tres vectores son dependientes
si estan en el mismo plano.
Por ejemplo, las columnas de la matriz
1
3
0
A= 2
6
1 ,
1 3 3
son linealmente dependientes, ya que la segunda columna es tres veces la
primera. Un poco mas complicado de ver es que las filas son tambien dependientes.
Hay espacios vectoriales que pueden describirse completamente por un
conjunto finito de vectores. Estos son los llamados espacios vectoriales de
generacion finita. Por ejemplo, todo vector de R3 (x, y, z)T es una combinacion lineal
x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T
56
de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, R3 es un espacio
vectorial de generacion finita, pues todo vector de R3 puede escribirse como
combinacion lineal de un conjunto finito de vectores.
Sea V un e.v sobre K. Un conjunto finito S V de vectores se dice que
es ligado cuando esta formado por vectores linealmente dependientes. Caso
de no ser ligado, se denomina libre.
Se dice que una parte G V es un sistema generador de V si hGi = V ,
es decir, si G genera todo el espacio V , o lo que es lo mismo, todo vector de
V es combinacion lineal de los vectores de G. El espacio se dice de generacion
finita cuando admite una parte generadora finita.
Se dice que un conjunto de vectores B V es una base de V cuando B
es un sistema generador y libre. En una palabra, no se desperdicia ning
un
vector en el conjunto B.
Por ejemplo, los vectores ~v1 = (1, 0, 0)T , ~v2 = (0, 1, 0)T y ~v3 = (2, 0, 0)T
generan un plano dentro del espacio tridimensional. Lo mismo ocurre con
los dos primeros vectores solos, mientras que el primero y el tercero solo
generan una recta.
Esta combinacion de propiedades significa que cada vector ~v V puede
expresarse de una y solo una manera como combinaci
on de los vectores de
una base.
Teorema 2. Todas las bases de un espacio vectorial de generacion finita V
son finitas y poseen el mismo n
umero de elementos. Este n
umero se denomina
dimension del e. v. V y se escribe dimK V .
Ejemplos.
(1) Bases can
onicas. Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
constituyen un sistema generador de R3 . Ademas, son linealmente independientes, pues cualquier combinaci
on lineal nula de ellos
1 (1, 0, 0)T + 2 (0, 1, 0)T + 3 (0, 0, 1)T = (0, 0, 0)T ,
genera un sistema lineal de tres ecuaciones trivial con 1 = 2 = 3 = 0.
De este modo, forman una base de R3 llamada base canonica. Por tanto
dimR R3 = 3.
(2) En general, la base canonica de Rn como espacio vectorial sobre R es el
conjunto de n vectores,
~e1 = (1, 0, 0, . . . , 0)T
~e2 = (0, 1, 0, . . . , 0)T
57
..
.
..
.
v2
v1
P
PP
P
PP
q
v3
58
2.1.3.
59
otras; las relaciones que ligan a los dos sistemas de coordenadas se llaman
ecuaciones del cambio de base.
En efecto, sea V un e. v. sobre K de dimension n. Sea B = {~b1 , ~b2 , . . . , ~bn }
una base de V , en las que las coordenadas de un vector ~x V se denotan por
M (~x, B) = (x1 , x2 , . . . , xn )T . Sea B 0 = {~b01 , ~b02 , . . . , ~b0n } otra base de V , en la
que las coordenadas de ~x V se denotan por M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T .
Supongamos que se conocen los vectores de B 0 en funcion de los de B, es
decir,
~b0 = q11~b1 + q21~b2 + + qn1~bn
1
~b0 = q12~b1 + q22~b2 + + qn2~bn
2
..
.
. = ..
~b0 = q1n~b1 + q2n~b2 + + qnn~bn .
n
M (~x, B) = QM (~x, B 0 ),
q11
q21
Q = M (B 0 , B) =
qn1
q12
q22
qn2
q1n
q2n
.
qnn
La matriz Q se llama matriz de cambio de base de B 0 a B y es una matriz invertible. Precisamente, su matriz inversa es la matriz del cambio de
coordenadas inverso, de B a B 0 , es decir
M (~x, B 0 ) = Q1 M (~x, B) = M (B, B 0 )M (~x, B).
Este es, con frecuencia, el problema a resolver.
Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la base
B 0 = {~v1 , ~v2 , ~v3 }, donde ~v1 = (1, 2, 0)T , ~v2 = (3, 7, 1)T , ~v3 = (0, 2, 1)T .
60
1 3 0
Q = 2 7 2 .
0 1
1
Luego, las nuevas coordenadas M (~x, B 0 ) = (x01 , x02 , x03 )T deben verificar el
sistema lineal
3
1 3 0
x01
2 = 2 7 2 x0 ,
2
1
0 1
1
x03
que, resolviendo, nos da x01 = 3, x02 = 2, x03 = 3.
2.2.
2.2.1.
Hasta ahora hemos sido mas bien descriptivos: sabemos lo que es una
base, pero no sabemos encontrar una. Necesitamos obtener una forma mas
o menos sistematica de calcular una base a partir de una descripcion clara
de un subespacio.
Varios son los problemas que se nos plantean en esta seccion:
1. Como describir los subespacios de un espacio vectorial de dimension
finita.
2. Como determinar una base de un subespacio.
3. Como obtener una base de un sistema generador dado.
4. Como formar una base a partir de un sistema libre dado.
Con respecto al problema 1, generalmente los subespacios (que no sean
el formado exclusivamente por el vector nulo) se describen de dos maneras.
61
sean los vectores del sistema generador. Si el subespacio viene dado por
un conjunto de restricciones, se escribira como el espacio nulo o el espacio
nulo por la izquierda de una matriz, la del sistema homogeneo dado por
las restricciones. Queda claro entonces que para determinar una base de un
subespacio tenemos que analizar la manera de determinar una base de los
subespacios fundamentales de una matriz. En ello tendra que ver su forma
escalonada obtenida por eliminacion gaussiana.
1.Espacio fila de A. La eliminacion act
ua en A para producir una matriz escalonada U ; el espacio fila de U se obtiene directamente: su dimension
es el rango r y sus filas distintas de cero constituyen una base. Ahora bien,
cada operacion elemental no altera el espacio fila, pues cada fila de la matriz
U es una combinacion de las filas originales de A. Como al mismo tiempo
cada paso puede anularse mediante una operacion elemental, entonces
f il(A) = f il(U ),
por tanto, f il(A) tiene la misma dimension r y la misma base. Hay que
notar que no comenzamos con las m filas de A, que generan el espacio fila
y descartamos m r para obtener una base. Podramos hacerlo, pero puede
ser difcil decidir cuales filas descartar; es mas sencillo tomar simplemente
las filas de U distintas de cero.
Ejemplo. Determina una base del subespacio de R4 generado por los vectores ~v1 = (1, 1, 0, 1)T , ~v2 = (1, 2, 2, 1)T , ~v3 = (3, 4, 2, 3)T .
Disponemos los vectores generadores como las filas de una matriz
1
A = 1
3
1
2
4
0 1
2 1.
2 3
1 1
A= 1 2
3 4
0
2
2
1 1
1
1 0 1
0 1
3
0
2
2
1
1 1
0 0 1
0 0
0
0
2
0
1
0 = U.
0
Puesto que U tiene dos pivotes, r = 2, de modo que la dimension del subespacio es dos. Como una base de f il(U ) lo forman las dos primeras filas,
lo mismo ocurre con f il(A), de manera que una base del subespacio es
w
~ 1 = (1, 1, 0, 1)T , w
~ 2 = (0, 1, 2, 0)T .
63
1 1 1 2
A=
2 2 1
0 .
5 5 3 2
La eliminacion gaussiana lleva a que W = Ker(U ) donde
1 1 1
U = 0 0 1
0 0 0
2
4.
0
A= 0
1
2 0
1 1
2 0
1
0,
1
1 2
U = 0 1
0 0
0
1
0
1
0.
0
Para U , las columnas con pivote son la primera y la segunda, luego una base
de col(A) esta formada por las dos primeras columnas de A: (1, 0, 1)T , (2, 1, 2)T .
4.Espacio nulo por la izquierda de A. Es el espacio nulo de AT . Como para cualquier matriz, se tiene que
65
2
4
0
2
6
2
1
0
.
A=
8
2
1
2
4 1 3 5
Explicado el procedimiento para obtener una base de un subespacio,
resolvemos los problemas pendientes.
Para obtener una base de un sistema generador (problema 3), basta con
obtener una base del espacio fila de la matriz cuyas filas son los vectores
generadores.
Ejemplo. Obtenemos una base del subespacio generado por el sistema
de generadores de R3 : ~v1 = (1, 2, 1)T , ~v2 = (3, 2, 1)T , ~v3 = (4, 0, 0)T , ~v4 =
(1, 2, 1)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma
escalonada
1 2 1
1 2
1
1 2
1
3
2 1
0 4 2
0 4 2
0 0
0 8 4
0 0
0
1 2 1
0 4
2
0 0
0
La dimension del espacio fila es dos, luego de los cuatro vectores solo dos son
independientes. Una base del subespacio lo forman los vectores (1, 2, 1)T , (0, 4, 2)T .
Para obtener una base de un espacio vectorial a partir de un sistema libre
(problema 4) basta con ampliar el espacio fila correspondiente con vectores
que van siendo independientes, hasta completar la dimension.
Ejemplo. Completamos a una base de R4 a partir de los vectores ~v1 =
(1, 1, 0, 1)T , ~v2 = (1, 2, 2, 1)T , ~v3 = (3, 0, 2, 3)T .
66
Disponemos los vectores como las filas de una matriz y reducimos a forma
escalonada.
1
1
3
1
2
0
0
2
2
1
1 1
1 0 1
3
0 3
0 1
1
2 0 0
2 0
0
1
1
0
0
2
8
1
0.
0
Si a
nadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos
que la dimension del espacio fila de la matriz que forman los tres primeros
vectores y este cuarto es cuatro, luego un vector que completa a una base
es, por ejemplo, (0, 0, 0, 1)T .
Para calcular las ecuaciones de un subespacio a partir de un sistema
generador, se dispone el sistema generador como las filas de una matriz, y a
esta se a
nade una fila con un vector generico. Se reduce la matriz as formada
por eliminacion gaussiana, obligando a que se anulen las u
ltimas filas de la
forma escalonada final.
Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores ~v1 = (1, 0, 3)T , ~v2 = (2, 3, 1)T .
Disponemos los vectores como las filas de una matriz, a
nadiendo una tercera
fila con un vector generico (x, y, z)T del subespacio y reducimos a forma
escalonada:
1
2
x
0
3
y
3
1 0
1 0 3
z
0 y
3
1 0
3
5
0 3
5
z 3x
0 0 z 3x (5/3)y
Como el vector (x, y, z)T esta en el subespacio, la dimension del espacio fila
de la matriz ha de ser dos, luego la u
ltima fila de la forma escalonada tiene
que ser nula. Por tanto, el subespacio es
W = {(x, y, z)T /z 3x (5/3)y = 0}.
Al reves, para dar un sistema generador a partir de las ecuaciones de
un subespacio, basta con calcular una base del espacio nulo de la matriz del
sistema de ecuaciones.
2.2.2.
Aplicaci
on al estudio de un sistema lineal. Teorema de
Rouch
e
2.3.
2.3.1.
Intersecci
on de subespacios
el subespacio W1 W2 es
W1 W2 = {(x, y, z)T /x + y + z = 0, x z = 0}
2.3.2.
Suma de subespacios
= {(x, y, z)T /x + y = 0, z = 0}
= {(x, y, z)T /z = 0}
En particular
dim(U V ) = dim(U ) + dim(V ).
2.4.
Aplicaciones lineales
2.4.1.
Definici
on y propiedades
~x, ~y U .
~x U, K.
Esto es
T (1 ~x1 + + m ~xm ) = 1 T (~x1 ) + + m T (~xm ),
1 , . . . , m K,
~x1 , . . . , ~xm U.
N
ucleo: Ker(T ) = {~x U/T (~x = 0} U ,
Imagen: Im(T ) = {~y V /existe~x U conT (~x) = ~y } V .
Estos subespacios se relacionan con el caracter inyectivo o sobreyectivo de
la aplicacion y con la independencia lineal en un espacio vectorial.
Teorema. Dados dos espacios vectoriales U y V sobre un mismo cuerpo K,
y T : U V una aplicacion lineal, se verifica:
(1) T es inyectiva si y solo si Ker(T ) = ~0.
(2) Si T es inyectiva, todo sistema linealmente independiente de vectores
~x1 , . . . , ~xm U se transforma en un sistema linealmente independiente
de vectores T (~x1 ), . . . , T (~xm ) en V .
(3) T es sobreyectiva si y solo si Im(T ) = V .
(4) Si T es sobreyectiva, todo sistema generador ~x1 , . . . , ~xm U se tranforma en otro sistema generador T (~x1 ), . . . , T (~xm ) en V .
2.4.2.
1
c
c
0
M (T, BR
4 , BR3 ) =
1
71
1
1
1
1 0
0 1.
1 1
[2] Para la aplicacion lineal T : P4 [X] P3 [X], T (p(x)) = p0 (x) se tiene que
en las bases canonicas
BPc 4 [X] = {1, x, x2 , x3 , x4 },
la matriz de T es
0
M (T, BPc 4 [X] , BPc 3 [X] ) =
0
0
1
0
0
0
0
2
0
0
0
0
3
0
0
0
.
0
4
Hay que notar que M (T, BU , BV ) tiene tantas filas como la dimension
de V y tantas columnas como la dimension de U . Es importante destacar
que la expresion de la matriz depende de las bases elegidas: si cambian las
bases, cambia la matriz. Insistiremos mas adelante sobre ello.
Observemos ahora que, fijadas bases en U y V , podemos expresar la aplicacion lineal como un producto matriz por vector: si ~x = x1 ~u1 + + xn ~un ,
siendo (x1 , . . . , xn )T las coordenadas del vector ~x en la base BU , entonces,
como T es lineal
x1
x2
T (x1 , x2 , x3 , x4 ) = 0
1
1
1
1
1
0
1
x
0 1
x2
1
x3 ,
1
x4
0
0
T (p(x)) =
0
0
1
0
0
0
0
2
0
0
0
0
3
0
a
0 0
a1
0
a ,
0 2
a3
4
a4
UBU
M (T, BU , BV )
- VB T (~
x)
V
M (BV0 , BV )
M (BU0 , BU )
VBV0
M (T, BU , BV ) =
1 0
2 1
1
1
Entonces
1
1
0
1
1 0
2 1
74
1
1
1 1
0 0
0 1
1
1 =?
0
Fijemonos entonces que una aplicacion lineal suele venir dada o bien en
forma explcita, es decir, dando su imagen para un vector generico, o bien,
si hemos fijado bases, a traves de un producto matriz por vector.
Otra formula de dimensiones para terminar:
Teorema. Sean U y V espacios vectoriales de dimension finita sobre un
mismo cuerpo K y T : U V una aplicacion lineal. Entonces
dim(U ) = dimKer(T ) + dimIm(T ).
En efecto, si n = dim(U ), m = dim(V ) y fijamos bases cualesquiera en
ambos espacios, sea A Mm,n (K) la matriz de T en tales bases. Por un
lado,
dimKer(T ) = dimKer(A) = n r,
siendo r el rango de la matriz A. Por otro lado,
dimIm(T ) = dimcol(A) = r,
de donde se obtiene la formula.
EJERCICIOS DEL TEMA 2
Ejercicio 1. Para los siguientes espacios vectoriales E sobre R, comprueba
que el conjunto de vectores dado es una base de dicho espacio (llamada base
can
onica):
(1) E = Rn , B = {~e1 , , ~en }, ~ej vector de tama
no n con todas sus componentes nulas excepto la j-esima que vale 1.
(2) E = Pn [X] (conjunto de polinomios de grado menor o igual que n y
coeficientes reales), B = {1, x, , xn }.
(3) E = Mmxn (R) (conjunto de matrices de m filas y n columnas con
elementos reales), B = {A1,1 , , Am,n } con Ar,s = Ir,s (ver tema 2).
(4) E = C n , B = {~e1 , , ~en , ~v1 , , ~vn } con ~vj el vector de n componentes,
todas ellas nulas salvo la j-esima que vale i y ~ej el del apartado (a).
Calcula la dimension de cada uno de ellos. Que bases canonicas se obtienen
al considerar los anteriores espacios vectoriales sobre C?.
Ejercicio 2. De los siguientes subconjuntos de R3 , identifica los que son
subespacios vectoriales de R3 , razonando tu respuesta:
75
matrices
siguientes:
1
2 0 1
1
2
0
2
1
i i 0
A= 0
1 1 0 , B = 1 2 1
1
0 ,C = 1 1 0.
2 1 3 2
1
2 3 7 2
0 0 1
Ejercicio 13. a) Construye una matriz cuyo espacio nulo este generado por
(1, 0, 1)T .
b) Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo
espacio nulo contenga al vector (1, 0, 0)T .
Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios
de grado menor o igual que 3:
p1 (x) = 1 + x + x2 + 2x3 , p2 (x) = 2 + 3x + 2x2 x3 ,
77
1
2
A=
3
4
2
3
4
5
3
4
5
6
4 5
5 6
,
6 a
b 8
1 1 1 2
a
1
1
1
.
B=
1 1
3 3
4 2
0
a
79
BLOQUE 2: ORTOGONALIDAD Y
PROBLEMAS DE AJUSTE
Nuestro segundo problema consiste en resolver un problemas de aproximacion en el sentido mnimos cuadrados. El primer tema de este bloque
presenta la nocion de espacio vectorial eucldeo, que no es mas que un espacio vectorial con un producto interno, concepto que generaliza la idea de
perpendicularidad entre vectores. La segunda leccion del bloque constituye
la parte practica, y en ella discutimos como resolver problemas de ajuste.
80
Tema 3
Espacios eucldeos
El objetivo de este tercer tema es introducir la idea de ortogonalidad
en un espacio vectorial y mostrar su influencia en los elementos del mismo.
La leccion constituye la base para entender la resolucion de problemas de
mnimos cuadrados tratada en el tema siguiente.
3.1.
Producto escalar
81
||~v || =
h~v , ~v i.
||~v || =
v12 + + vn2 ,
hf, gi =
Z 2
0
f (x)g(x)dx,
Z 2
0
1/2
f (x) dx
La desigualdad de Cauchy-Schwarz,
|h~u, ~v i| ||~u||||~v ||.
La igualdad se produce si y solo si ~u y ~v son linealmente dependientes.
La desigualdad de Minkowsky,
||~u + ~v || ||~u|| + ||~v ||.
La igualdad se cumple si y solo si los vectores ~u y ~v son proporcionales
con coeficiente de proporcionalidad positivo.
La importancia desde un punto de vista geometrico de un producto interno viene dada por su relacion con el angulo formado por dos vectores.
Pensemos por ejemplo en el plano V = R2 y el producto eucldeo
h~u, ~v i = u1 v1 + u2 v2 .
~v
~u
cos = u1 /||~u||,
sin = v2 /||~u||,
cos = v1 /||~u||.
u1 v1 + u2 v2
h~u, ~v i
=
,
||~u||||~v ||
||~u||||~v ||
(3.1)
3.2.
Z 2
0
f (x)g(x)dx,
que es un producto interno sobre V . Las funciones f (x) = e3ix , g(x) = eix
verifican
hf, gi =
Z 2
0
e3ix eix dx =
Z 2
0
e2ix dx =
e2ix 2
| = 0.
2i 0
k 6= l,
h~ek , ~ek i = 1,
k = 1, . . . , n.
h~u, ~e1 i
h~u, ~e2 i
h~u, ~em i
~e1 +
~e2 + +
~em .
||~e1 ||2
||~e2 ||2
||~em ||2
m
X
k=1
h~u, ~v i = u1 v1 + + un vn .
La obtencion de bases ortogonales y ortonormales sera importante al
tratar los problemas de mnimos cuadrados. Por eso presentamos ahora un
procedimiento para que, a partir de una base cualquiera, se pueda obtener
una base ortogonal.
3.3.
M
etodo de ortogonalizaci
on de Gram-Schmidt
(a) Existe un nuevo sistema ortogonal y libre {~e1 , ~e2 , . . . , ~em } tal que ~e1 =
~v1 y para k = 2, . . . , m el vector ~ek est
a determinado de forma u
nica
por la relacion
~ek = ~vk 1k~e1 k1,k~ek1 ,
y las relaciones de ortogonalidad,
h~ek , ~el i = 0,
l = 1, . . . , k 1.
(b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V se puede ortogonalizar.
El procedimiento enunciado en el teorema es como sigue. Dados {~v1 , ~v2 , . . . , ~vm }
linealmente independientes, el primer vector no cambia:
~e1 = ~v1 .
para obtener ~e2 , escribimos ~e2 = ~v2 12~e1 e imponemos la ortogonalidad
entre ~e1 y ~e2 ,
h~e2 , ~e1 i = 0 h~v2 , ~e1 i 12 h~e1 , ~e1 i = 0 12 =
h~v2 , ~e1 i
.
||~e1 ||2
Queda as determinado
~e2 = ~v2
h~v2 , ~e1 i
~e1 ,
||~e1 ||2
que, por construccion, es ortogonal a ~e1 . Ahora, para obtener ~e3 , se escribe
~e3 = ~v3 13~e1 23~e2 y se impone la ortogonalidad con ~e1 y ~e2 ,
h~v3 , ~e1 i
,
||~e1 ||2
h~v3 , ~e2 i
=
.
||~e2 ||2
h~v3 , ~e1 i
h~v3 , ~e2 i
~e1
~e1 .
2
||~e1 ||
||~e2 ||2
..
.
h~vk , ~e1 i
,
||~e1 ||2
..
.
h~vk , ~ek1 i
,
||~ek1 ||2
1
1
0
~v1 = 1 , ~v2 = 0 , ~v3 = 1 .
0
1
1
Entonces ~e1 = ~v1 . El vector ~e2 se obtiene de las condiciones
~e2 = ~v2 1,2~e1
h~e2 , ~e1 i = 0,
de donde
h~v2 , ~e1 i
~e1
h~e1 , ~e1 i
1
= ~v2 ~e1 ,
2
~e2 = ~v2
y, operando, es ~e2 = (1/2, 1/2, 1)T . El tercer vector viene de las condiciones
~e3 = ~v3 1,3~e1 2,3~e2
h~e3 , ~e1 i = h~e3 , ~e2 i = 0,
por lo que
h~v3 , ~e1 i
h~v3 , ~e2 i
~e1
~e2
h~e1 , ~e1 i
h~e2 , ~e2 i
1
1
= ~v3 ~e1 ~e2 ,
2
3
~e3 = ~v3
~e1
~q1 =
=
||~e1 ||
r 1
1
1 ,
~e2
~q2 =
=
||~e2 ||
r 1/2
2
1/2 ,
~e3
~q3 =
=
||~e3 ||
r 2/3
3
2/3 .
2/3
~v1
,
||~v1 ||
~v2 12 w
~ 1 e imponemos la ortogonalidad hw
~2, w
~ 1 i = 0 con lo que determi2
namos 12 = h~v2 , w
~ 1 i/||w
~ 1 || = h~v2 , w
~ 1 i y as w
~ 2 . De esta forma, definimos
w
~2 =
w
~ 2
,
||w
~ 2 ||
con lo que w
~ 2 es ortogonal a w
~ 1 y ademas ||w
~ 2 || = 1.
De este modo, el paso general es el siguiente: supongamos que tenemos
w
~ 1, . . . , w
~ k1 ortonormales y queremos obtener el siguiente w
~ k . Escribimos
w
~ k = ~vk 1k w
~ 1 k1,k w
~ k1 ,
e imponemos la ortogonalidad con w
~ 1, . . . , w
~ k1 para determinar jk =
h~vk , w
~ j i. Una vez hecho esto, basta con definir
w
~k =
w
~ k
.
||w
~ k ||
de donde
w
~ 2 = ~v2 h~v2 , w
~ 1 iw
~1
1
= ~v2 w
~ 1,
2
y, operando, es w
~ 2 = (1/2, 1/2, 1)T y, por tanto
w
~2 =
w
~ 2 /||w
~ 2 ||
1
=(
2
2 1
,
3 2
2
,
3
2 T
) .
3
1
2
= ~v3 w
~1 w
~ 2,
2
2 3
y por tanto w
~ 3 = (2/3, 2/3, 2/3)T . Finalmente
r 2/3
3
w
~3 = w
~ 3 /||w
~ 3 || =
2/3 .
4
2/3
3.4.
~x, ~y Kn .
Se define la matriz adjunta A Mn,m (K) de una matriz dada A Mm,n (K)
como su traspuesta conjugada A = AT . Se dice que una matriz cuadrada
P Mn,n (K) es ortogonal (si K = R) o unitaria (si K = C) cuando sus
columnas forman una base ortonormal de (Kn , h, i). Esto equivale a que
P P = In ,
es decir, la matriz sera ortogonal si y solo si P 1 = P T y unitaria si y solo
si P 1 = P .
89
1
A = 1
0
1 0
0 1,
1 1
es A = QR con
Q = ~q1
~q2
~q3
2 p1/2 p1/2
3/2 p1/6 ,
R = 0
0
0
4/3
donde
~q1 =
~e1
||~e1 ||
r 1
1
1 ,
=
~q2 =
~e2
||~e2 ||
r 1/2
2
1/2 ,
=
~q3 =
~e3
||~e3 ||
r 2/3
3
2/3 .
=
2/3
v2 = (4, 0, 4, 0)T ,
v3 = (1, 1, 1, 1)T .
1 1 0
A = 1 0 1
0 1 1
halla al factorizacion QR de la matriz A.
Ejercicio 4. Calcula una base ortonormal de R4 que incluya a los vectores
1
1
( , 0, , 0)T ,
2
2
1 1 1 1
( , , , )T .
2 2 2 2
0 0
A= 0 1
1 1
1
1,
1
A=
1
1
1 0
1 1,
1 0
1
1
A=
1
1
1
0
0
1
2
1
1
0
0
1
.
2
1
1
1
A=
1
1
0
1
1
1
1 0 1
0
, B = 0 0 1.
1
1 1 1
1
91
Bibliografa recomendada:
Strang G. Algebra lineal y sus aplicaciones. Addison-Wesley. Cap 3.
Grossman S.I. Algebra Lineal. Ed. Iberoamericana. Cap 4, apartados 4.10,
4.11.
Fraleigh J.B., Beauregard R.A. Algebra Lineal. Addison-Wesley. Cap 5.
92
Tema 4
Problemas de ajuste
Ejemplo introductorio. Ya hemos visto que el concepto de ortogonalidad
generaliza la nocion elemental de perpendicularidad de R2 y R3 . Su nocion
es fundamental para la aproximaci
on en espacios con producto interno.
6
JJ
]
~y JJ
~r
J
J
J
J
J
*
J
(
(
(((
(
(
(
(((
(
~v
4.1.
Ortogonales
94
ta hasta obtener una base ortonormal de V , {~e1 , ~e2 , . . . , ~em , ~em+1 , . . . , ~en }
entonces W = span(~em+1 , . . . , ~en ). Ademas, dimW = dimV dimW .
Ejemplo 1. En R3 con el producto usual,
h~x, ~y i = x1 y1 + x2 y2 + x3 y3 ,
el ortogonal de la recta W = span((1, 0, 0)T ) es el plano W = {(x, y, z)T /x =
0}. Una base de W es, naturalmente (0, 1, 0)T , (0, 0, 1)T , de modo que
(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T es una base ortonormal. Todo vector (x, y, z)T
se escribe de forma u
nica como
(x, y, z)T = x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T ,
con x(1, 0, 0)T W e y(0, 1, 0)T + z(0, 0, 1)T W .
Ejemplo 2. Sea A Mm,n (K). Entonces
(Ker(A)) = f il(A)
(Ker(AT )) = col(A)
En efecto, vamos a comprobar la primera igualdad. La segunda queda como
ejercicio y es trivial a partir de la primera. Fijemonos en que si ~x es tal que
A~x = ~0, este sistema de ecuaciones afirma que cada fila de A es ortogonal a
cualquier vector ~x Ker(A). Luego f il(A) (Ker(A)) . Como, por otra
parte, ambos subespacios tienen la misma dimension, ha de ser (Ker(A)) =
f il(A).
4.2.
Proyecci
on ortogonal
(4.1)
1 hw
~ 1, w
~ m i + + m hw
~ m, w
~ m i = h~v , w
~ mi
Las ecuaciones (4.1) se llaman ecuaciones normales del problema. Un caso particularmente sencillo es aquel en el que la base {w
~ 1, w
~ 2, . . . , w
~ m } es
ortogonal. Entonces, el sistema (4.1) tiene la forma
1 ||w
~ 1 ||2 = h~v , w
~ 1i
..
..
. = .
m ||w
~ m ||2 = h~v , w
~ mi
con lo que
PW (~v ) =
h~v , w
~ 1i
h~v , w
~ mi
w
~1 + +
w
~ m.
||w
~ 1 ||2
||w
~ m ||2
Ejemplos.
(1) Sea W = {(x, y, z, t)T /x + y z = 0, x t = 0}. Buscamos la proyecci
on
T
ortogonal de ~v = (1, 1, 1, 0) sobre W . Primero obtenemos una base de W ,
que puede ser, por ejemplo, w
~ 1 = (1, 0, 1, 1)T , w
~ 2 = (0, 1, 1, 0)T . Ahora, la
proyeccion ha de ser de la forma PW (~v ) = 1 w
~ 1 + 2 w
~ 2 . El planteamiento de
las condiciones de ortogonalidad da lugar al sistema de ecuaciones normales
31 + 2 = 2
1 + 22 = 2,
96
f (x)g(x)dx.
(
Z
0
2
Z 2
0
Z 2
1dx)1 + (
Z 2
sin xdx)1 + (
cos xdx)1 + (
0
2
Z 2
sin xdx)2 + (
sin2 xdx)2 + (
Z 2
0
cos xdx)3 =
Z 2
Z 2
0
2
cos2 xdx)3 =
Z 2
0
xdx
x sin xdx
x cos xdx.
hf, gi =
Z 1
0
f (x)g(x)dx,
4.3.
4.3.1.
Problemas de ajuste
Ejemplo 1
A Mm,n (K), ~b Km , ~x Kn ,
97
j = 1, 2, . . . , n,
o, equivalentemente
hA~xLS , Aj i = hAj , ~bi,
de modo que las ecuaciones normales en este caso nos llevan a
A AxLS = A~b.
(4.2)
1.0
2.0
3.0
4.0
5.0
15.3
29.3
46.4
66.3
1
1
A = 1
1
1
1
5
15,3
2
a
3
= 29,3 ,
b
46,4
4
5
66,3
4.3.2.
Ejemplo 2
Z 2
0
f (x)g(x)dx
Sn =
n
a0 X
+
(ak cos(kx) + bk sin(kx)), a0 R, ak , bk R, 1 k n .
2
k=1
99
80
70
(5,66.3)
60
50
(4,46.4)
40
30
(3,29.3)
20
(2,15.3)
10
(1,5)
0
1.5
2.5
3.5
V
4.5
5.5
0 si j 6= k
si j = k 6= 0
0
2 si j = k = 0
Z 2
0 si j 6= k
sin(jx) sin(kx)dx =
si j = k
0
Z 2
Z 2
0
cos(jx) cos(kx)dx =
cos(jx) sin(kx)dx = 0.
ak =
bk =
1 2
f (x) cos(kx)dx,
0
Z
1 2
f (x) sin(kx)dx,
0
100
0 k n,
1 k n.
P2
2
P1
f(x)
0
4.3.3.
Ejemplo 3
Z 1
f (x)g(x)dx
hx , x i =
Z 1
1
k+l
dx =
2
k+l+1
si k+l es par
0 si k+l es impar
101
1.2
0.8
0.6
0.4
0.2
f(x)=x4
0
p3
0.2
1
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
2
0
0
2/3
2/3
0
0
2/5
2/3
0
2/5
0
1
0
0
1 f (x)dx
R
1
1
xf (x)dx
2/5
1 =
R
.
1
0 2 1
x2 f (x)dx
R1 3
2/7
3
x f (x)dx
1
Por ejemplo, para la funcion f (x) = x4 , el termino independiente de las ecuaciones normales es (2/5, 0, 2/7, 0)T y la solucion 0 = 3/35, 1 = 0, 2 =
3
6/7, 3 = 0. La mejor aproximaci
on es entonces p3 (x) = 35
+ 76 x2 . En
la figura 4.3 se ha representado la funcion f (x) = x4 junto con su mejor
aproximacion por polinomios de grado menor o igual que tres p3 (x).
4.4.
Distancia a un subespacio
102
al subespacio W como
dist(~v , W ) = inf {||~v w||
~ :w
~ W }.
Sabemos de las secciones anteriores que esta distancia viene determinada
por la proyeccion ortogonal
dist(~v , W ) = ||~v PW (~v )||.
De este modo, para calcular una distancia lo que tenemos que hacer es
obtener una proyeccion ortogonal.
Ejemplo. Para W = {(x, y, z, t)T /x + y z = 0, x t = 0}, buscamos la
distancia del vector ~v = (1, 1, 1, 0)T a W . Calculamos la proyecci
on ortogonal
de ~v sobre W . Una base de W es, por ejemplo, w
~ 1 = (1, 0, 1, 1)T , w
~2 =
T
(0, 1, 1, 0) . Ya vimos que la proyecci
on ortogonal es
4
2
~1 + w
~ 2 = (2/5, 4/5, 6/5, 2/5)T .
PW (~v ) = w
5
5
De esta manera,
dist(~v , W ) = ||~v PW (~v )|| = ||(3/5, 1/5, 1/5, 2/5)T || =
15/5.
U = {[x, y, z, t]T /x+yz = 0, xt = 0}, V = span([0, 1, 1, 1]T , [2, 0, 1, 1]T ), W = {[x, y, z, t]T /x+y = 0
a) Da las ecuaciones que definen U , V , W .
b) Halla bases ortonormales de U , U , V , V , W y W .
c) Halla las matrices respecto de la base ordenada canonica de R4 de las
proyecciones ortogonales sobre U , V y W respectivamente.
Ejercicio 2. Dado el subespacio S = {(x, y, z)T R3 : 2x y + 3z = 0}
(a) Halla una base ortonormal de S.
(b) Calcula la proyeccion ortogonal del vector v = (3, 2, 4)T sobre S.
(c) Escribe v como suma de dos vectores, uno que este en S y otro que sea
ortogonal a todos los vectores de S.
103
1
1
1
1
0
0
1
1
x
=
2,
3 y
4
5
1 1 1
1
0
x
0
2
1
y = .
1
1
3 2
z
1 1 1
1
Ejercicio 6. Sea N un n
umero entero y x0 , x1 , . . . , xN N + 1 n
umeros reales
con xi 6= xj si i 6= j, i, j = 0, 1, . . . , N . Sobre el espacio de los polinomios
con coeficientes reales se considera la forma bilineal
() < p, q >=
N
X
p(xj )q(xj ) +
j=0
N
X
p0 (xj )q 0 (xj ).
j=0
104
f (x)g(x)dx.
f (x) =
si 1 x < 0
1 si 0 x 1/2
0 si 1/2 < x 1
105
106
Tema 5
Matrices diagonalizables
Ejemplo introductorio. Un ejemplo que puede ilustrar esta y la siguiente
leccion es la representacion vectorial de la sucesion de Fibonacci que, como es
conocido, aparece de manera insospechada en multitud de procesos. Un caso
que puede resultar interesante es su formulaci
on en modelos de trafico en
canales de comunicacion, por ejemplo lneas telefonicas, que surgen en teora
de la informacion. Consideremos un canal de informacion y supongamos que
dos informaciones elementales S1 y S2 de duraciones, por ejemplo, t1 = 1 y
t2 = 2 respectivamente (pensemos en el punto y la lnea en el alfabeto Morse)
pueden combinarse para obtener un mensaje. Uno puede estar interesado en
el n
umero de mensajes Mn de longitud n. Estos mensajes pueden dividirse
en dos tipos: aquellos que terminan con S1 y los que terminan con S2 . El
n
umero de mensajes de primer tipo es Mnt1 y el n
umero de mensajes de
segunda clase es Mnt2 . Entonces, tenemos
Mn = Mn1 + Mn2 ,
ecuacion de Fibonacci, de solucion
Mn =
c1 n1
c2 n2 ,
1+ 5
,
1 =
2
1 5
2 =
.
2
~vn+1 = A~vn =
de solucion ~vn = An (c1 , c2 )T .
107
1
1
1
~v ,
0 n
Hay problemas, como el del ejemplo, en el que se busca una representacion sencilla de la matriz que no proporciona el metodo de la eliminacion gaussiana, porque se necesita preservar una cierta estructura que la
eliminacion no proporciona.
El objetivo de este y el tema siguiente se centra en la teora de diagonalizacion de matrices. Hemos de buscar, si es posible, una representaci
on de
la matriz que permita resolver problemas como el mencionado. Imaginemos
que un vector ~v0 verificase
A~v0 = ~v0 ,
para cierto escalar . Entonces la solucion del problema sera sencilla de
obtener, pues
~vn = An~v0 = n~v0 .
La pregunta es existen vectores especiales de esa forma, de manera que
podamos escribir la condicion inicial como combinaci
on de ellos?
5.1.
Semejanza de matrices
M (T, B 0 , B 0 ) = M (T, B 0 ).
108
VB
M (T, B, B)
- VB
T (~x)
M (B 0 , B)
M (B 0 , B)
M (T, B 0 , B 0 )
VB 0
~x
VB 0
Recordemos que
la relacion entre las dos matrices de la aplicacion lineal T viene dada por la
matriz P = M (B 0 , B) de cambio de base:
M (T, B 0 ) = P 1 M (T, B)P.
Esto no es otra cosa que una relacion de semejanza: todas las matrices que
representan al endomorfismo T en las distintas bases son semejantes entre
s.
Presentada la nocion de semejanza de matrices, nos planteamos la cuestion
de si dada una matriz A Mn,n (K) puede haber una matriz semejante con
ella cuya expresion sea sencilla, mas concretamente diagonal.
5.2.
109
z C,
A~v = ~v .
Tales vectores se llaman autovectores de A asociados al autovalor .
Teorema 1. En esta situacion, las siguientes condiciones son equivalentes:
(1) es autovalor de A.
(2) Existe un vector ~v tal que A~v = ~v .
(3) La matriz In A es singular.
(4) pA () = det(In A) = 0.
As pues, los autovalores de A son las races caractersticas de la matriz
A que se encuentran en el cuerpo K considerado. Si K = C, el conjunto de
valores propios coincide con el espectro de A, mientras que si K = R, los
110
2
2 6
A = 2 1 3 ,
2 1 1
el polinomio caracterstico es
z 2 2
6
pA (z) = det(zI3 A) = det 2 z + 1
3 = (z + 2)2 (z 6).
2
1
z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 2,
m1 = 2
2 = 6
m2 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geometrica. Para 1 = 2
x
4 2 6
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 2 1 3 y = ~0}
z
2
1 3
= {(x, y, z)T /2x + y 3z = 0} = span((1, 2, 0)T , (0, 3, 1)T )
d(1 ) = 2.
111
4 2 6
x
T
1 1 0
A = 1 2 1 ,
0 1 1
el polinomio caracterstico es
z1
1
0
pA (z) = det(zI3 A) = det 1
z2
1 = z(z 1)(z 3).
0
1
z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 0,
m1 = 1
2 = 1
m2 = 1
3 = 3
m3 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geometrica. Para 1 = 0
1 1
0
x
E(A, 1 ) = Ker(A) = {(x, y, z)T / 1 2 1 y = ~0}
0
1 1
z
= {(x, y, z)T /x = y = z} = span((1, 1, 1)T ) d(1 ) = 1.
Mientras que para el segundo autovalor
x
0 1 0
E(A, 2 ) = Ker(I3 A) = {(x, y, z)T / 1 1 1 y = ~0}
z
0 1 0
= {(x, y, z)T /y = 0, z = x} = span((1, 0, 1)T ) d(2 ) = 1,
112
y, para el tercero,
2 1
E(A, 3 ) = Ker(3I3 A) = {(x, y, z)T / 1 1
0 1
0
x
1 y = ~0}
2
z
0 1 0
A = 1 0 1
0 0 2
el polinomio caracterstico es
z 1
pA (z) = det(zI3 A) = det 1 z
0 0
0
1 = (z 2)(z 2 + 1).
z2
De modo que, como matriz de elementos complejos, los autovalores con sus
multiplicidades algebraicas son
1 = 2,
m1 = 1
2 = i
m2 = 1
3 = i
m3 = 1.
Como matriz real, solo hay un valor propio 1 , mientras que el espectro
lo forman las tres races. Buscamos ahora los subespacios propios de cada
autovalor y su correspondiente multiplicidad geometrica, suponiendo que la
matriz es compleja. Para 1 = 2
2 1 0
x
T
x
i 1
0
E(A, 2 ) = Ker(iI3 A) = {(x, y, z)T / 1 i 1 y = ~0}
z
0 0 i2
= {(x, y, z)T /z = 0, x = iy} = span((1, i, 0)T ) d(2 ) = 1,
113
y, para el tercero,
i 1
E(A, 3 ) = Ker((i)I3 A) = {(x, y, z)T / 1 i
0
0
0
x
1 y = ~0}
i 2
z
5.3.
Diagonalizaci
on
A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos de definir, es clara la importancia de los autovalores y los
autovectores en la determinacion de la solucion a nuestro problema. El objetivo es por tanto encontrar una manera de tratar de transformar una matriz
cuadrada A en una matriz diagonal o triangular sin cambiar sus valores propios. Esto no se cumple para la eliminacion gaussiana: los autovalores de la
matriz triangular superior final del proceso de eliminacion no son los de la
matriz original.
Comenzamos dando un criterio para determinar cuando podemos transformar una matriz en otra diagonal.
Sea A Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable
si existe una matriz semejante con ella que es diagonal. Esto significa que
existe una matriz P Mn,n (K) no singular tal que
D = P 1 AP
es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal principal, es claro que la matriz diagonal semejante a
la matriz A tiene por entradas diagonales los autovalores de A.
Teorema 2. Sea A Mn,n (K) y 1 , . . . , r los autovalores de A. Entonces
(a) Los subespacios E(A, 1 ), . . . , E(A, r ) son independientes.
(b) La multiplicidad geometrica d(j ) de cada autovalor es a lo sumo su
multiplicidad algebraica m(j ).
(c) La matriz A es diagonalizable si y solo si se verifican las dos condiciones
siguientes:
114
2
2 6
A = 2 1 3 ,
2 1 1
115
m1 = 2, d1 = 2
2 = 6
m2 = 1, d2 = 1.
1 0 2
P = 2 3 1 ,
0 1 1
se tiene que
2 0 0
1
P AP =
0 2 0 .
0
0 6
(2) Para la matriz
1 1 0
A = 1 2 1 ,
0 1 1
se tiene
1 = 0,
m1 = 1, d1 = 1
2 = 1
m2 = 1, d2 = 1
3 = 3
m3 = 1, d3 = 1.
116
Luego si
1 1
1
P = 1 0 2 ,
1 1 1
se tiene que
0 0
P 1 AP = 0 1
0 0
0
0.
3
0 1 0
A = 1 0 1
0 0 2
se tiene
1 = 2,
m1 = 1, d1 = 1
2 = i
m2 = 1, d2 = 1
3 = i
m3 = 1, d3 = 1.
1 1
P = 2 i
5
0
1
i ,
0
se tiene que
2
1
P AP = 0
0
0 0
i 0 .
0 i
117
5.4.
Triangularizaci
on
Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del
teorema anterior, la matriz A no es diagonalizable. Cuando la segunda de las
condiciones de diagonalizacion falla manteniendose la primera (los autovalores estan en el cuerpo considerado) la matriz a
un puede reducirse a forma
triangular superior por semejanza.
Teorema 3. Sea A Mn,n (K). Entonces existen una matriz U Mn,n (K)
no singular y una matriz triangular superior S Mn,n (K) tales que S =
U 1 AU si y solo si los autovalores de A est
an en K (esta condicion se satisface
siempre cuando K = C). La matriz U puede elegirse unitaria (U = U 1 ).
La demostracion es constructiva y por tanto da la forma de actuar en los
ejemplos. Si se verifica que S = U 1 AU , entonces los autovalores de A est
an
en K, pues son los elementos de la diagonal principal de S. Recprocamente,
supongamos que los autovalores de A est
an en K y procedamos por induccion
sobre n. La propiedad es cierta para n = 1 (toda matriz 1 1 es triangular).
Supongamos entonces que la propiedad es cierta para todas las matrices de
tama
no (n 1) (n 1) y veamos que tambien es cierta si A tiene tama
no
n n.
Tomemos un autovalor 1 de A y ~v1 un autovector asociado con norma
uno. Consideremos una base ortonormal B = {~v1 , ~v2 , . . . , ~vn } que tenga a
~v1 como primer vector. Entonces, si P es la matriz cuyas columnas son los
vectores de la base, la matriz A0 = P 1 AP tiene como primera columna al
vector (1 , 0, 0, . . . , 0)T , de modo que
1
0
A0 = ..
.
0
A1
118
matriz
1
0
U = P ..
.
U1
0
U 1 AU
1
0
= ..
.
U1
0
1
0
= ..
.
U1
0
1
0
P 1 AP ..
.
U1
0
1
0
A0 ..
.
U1
0
1 1
0
0
= ..
..
.
.
U11
0
0
= ..
1
.
U1 A1 U1
0
1
0
= ..
,
.
S1
0
A1
1
0
..
.
U1
0
3
1
A=
0
2
1 1
0
1,
1
tiene un u
nico autovalor 1 = 2 con multiplicidad m(1 ) = 3. Veamos que
es triangularizable en R. El subespacio propio asociado es
x
1 1 0
0 1 y = ~0}
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 0
z
1
1
1
119
base ortonormal, por ejemplo con ~v2 = (1/ 2, 1/ 2, 0)T , ~v3 = (0, 0, 1)T .
Entonces
2
1
1/ 2
A0 = P 1 AP = 0
3
1/ 2 .
0 2
1
La matriz A1 es
A1 =
3
1/ 2
.
1
2
A1 tiene un u
nico autovalor = 2 con multiplicidad m() = 2. El subespacio
propio asociado es
1
1/
2
x
T
E(A1 , ) = Ker(2I3 A1 ) = {(x, y) /
= ~0}
2
1
y
= {(x, y)T /y = 2x} = span((1/ 3, 2/ 3)T ) d() = 1,
que no es diagonalizable. Tomamos w
~ 1 = (1/ 3, 2/ 3)Ty completamos
1/
3
2/ 3
.
U1 =
2/ 3 1/ 3
Entonces
U11 A1 U1
2
0
9/2
2
Sea
1
0
0
U =P 0
1/
3
2/ 3 .
0 2/ 3 1/ 3
Por tanto
2 2/ 3 p
1/ 6
U 1 AU = 0
2
9/2 .
0
0
2
120
5.5.
Diagonalizaci
on ortogonal
~x Kn , ~y Km .
.
(A) = A
Ademas, (A ) = A.
Una matriz A Mn,n (R) es
simetrica si AT = A = A,
antisimetrica si AT = A = A,
ortogonal si A es no singular y AT = A = A1 .
Analogamente, una matriz A Mn,n (C) es
hermtica si A = A,
antihermtica si A = A,
unitaria si A es no singular y A = A1 .
Recordemos tambien que A Mn,n (R) (resp. A Mn,n (C)) es ortogonal
(resp. unitaria) si sus columnas forman una base ortonormal de Rn (resp.
C n ).
Las matrices destacables son las simetricas en el caso real y las hermticas
en el caso complejo. Ambas son siempre diagonalizables. Ademas, la matriz
formada por la base de autovectores es ortogonal en el caso real y unitaria
en el caso complejo.
Teorema 4. Sea A Mn,n (R) una matriz simetrica. Entonces
(1) Todos los autovalores 1 , . . . , r de A son reales.
121
(2) Si y son autovalores de A distintos, los correspondientes subespacios propios E(A, ), E(A, ) son ortogonales.
(3) Existe una matriz ortogonal P Mn,n (R) tal que P T AP = P 1 AP
es diagonal.
En la practica, se procede como en una diagonalizacion normal, con
la u
nica diferencia de que para cada subespacio propio se elige una base
ortonormal.
Ejemplo. Vamos a diagonalizar ortogonalmente la matriz
3 1
A = 1 3
1 1
1
1.
3
El polinomio caracterstico es
pA (z) = (z 2)2 (z 5),
de manera que los autovalores con sus multiplicidades algebraicas son
1 = 2,
m(1 ) = 2
2 = 5,
m(2 ) = 1.
1 1 1
x
T
x
2
1 1
E(A, 2 ) = Ker(5I3 A) = {(x, y, z)T / 1 2 1 y = ~0}
z
1
1 2
= {(x, y, z)T /x 2y + z = 0, y z = 0}
1/ 6 1/3
1/ 2
P = 0 2/ 6 1/3 ,
1/ 2 1/ 6 1/ 3
es ortogonal. Ademas,
2 0
T
1
P AP = P AP = 0 2
0 0
0
0.
5
2
i 2 i 2
3
1 .
A = i2
i 2
1
3
1
0
0
1
0
0
1 1
0 0
0 0
,
1 0
1 2
2
1 1
0
1
0
1
1
0
1 1 1
0
0
,
0
2
4 1 2 1
2 2 2 1
4 2 2 2 .
1 0 1 1
4a
1
A=
6 1 a
2
1
1
2
1a
1a
B=
0
0
1
1a
0
0
0
2a
C= 0
0
0 0
2 0
0 2
2 0 3
D = 0 2 1
0 0 2
no son semejantes.
Ejercicio 5. Estudia para que valores de los parametros reales a y b son
diagonalizables las siguientes matrices
5 0 3
A = 0 1 0 ,
0 a b
2
B = 0
1
0 0
1 a.
1 1
0 1 2
1
0 3,
2 3 0
124
1 0
0 1
0 0
1
2 .
2
1 1 2
1 2
1 ,
0 1 1
7 2 4
3
0 2 ,
6 2 3
2 1
0 0
0 0
2 2
5
1
0
0
0
0
0
1,
0
0 0
0 0
,
2 1
5 2
3 1 1
1
1 1 ,
1 1 1
4
1 0 1
2
3 0 1
.
2
1 2 3
2 1 0 5
2
i 2 i 2
5 2i 4
A = i2
3
1 ,
B = 2i
8
2i .
i 2
4 2i 5
1
3
Halla matrices unitarias U , V tales que U 1 AU , V 1 BV sean diagonales, y
halla dichos productos.
Ejercicio 9. Diagonaliza ortogonalmente las matrices simetricas
4
A = 0
2
0
10
0
2
0,
4
3 1 0
B = 1 3 0 ,
0
0 2
1
C= 2
1
2 1
2 2
2 1
1 2
D = 2 4
3 6
Ejercicio 10. Sea
2 1
A = 1 1
0 1
3
6.
9
0
1.
2
Halla una matriz ortogonal P con det(P )=1 y tal que P T AP sea una matriz
diagonal con los elementos diagonales dispuestos en orden decreciente.
Bibliografa recomendada:
Grossman. Algebra Lineal. Ed. Iberoamericana. Cap 6, apartados 6.1 a 6.3.
J. de Burgos. Algebra Lineal. Ed. Mc Graw-Hill. Cap 9.
125
Tema 6
Matrices no diagonalizables
Ejemplo introductorio. Un curso de Algebra y Ecuaciones Diferenciales
1
se imparte en dos grupos, A y B. Cada semana dejan el curso de los que
4
1
1
estan en el grupo A y de los que estan en B. Ademas, del grupo B se
3
6
1
1
pasa al grupo A y de A pasa a B. Finalmente, de los que abandonaron
4
6
1
en la semana anterior se incorporaron al grupo A y al grupo B. Calcula
6
la recurrencia vectorial asociada al problema. Si inicialmente hay 108 matriculados en el grupo A, 90 en B y 12 que se matriculan pero abandonan el
curso, cual sera la distribucion de las clases y los abandonos transcurridos
dos meses de curso?.
Denotemos por A[n] los alumnos que hay en el grupo A en la semana
n, B[n] los alumnos que estan en el grupo B en la semana n y C[n] los
alumnos que dejan el curso tras la semana n. Inicialmente A[0] = 108, B[0] =
90, C[0] = 12. las relaciones entre una semana y la siguiente es, seg
un el
enunciado,
1
1
1
A[n + 1] =
A[n] + B[n] + C[n]
2
6
6
1
1
1
B[n + 1] =
A[n] + B[n] + C[n]
4
2
6
1
1
2
C[n + 1] =
A[n] + B[n] + C[n]
4
3
3
T
Matricialmente, si ~v [n] = (A[n], B[n], C[n]) , tenemos el sistema
6.1.
Autoespacios generalizados
k k0 .
1 2 3 4
0
1 1 2
.
A=
0
0
1
4
0 0
0 3
Los autovalores con sus multiplicidades algebraicas son
1 = 1,
m(1 ) = 3
2 = 3,
m(2 ) = 1.
x
0 2 3 4
0
0
1
2
y = ~0}
E(A, 1 ) = Ker(I3 A) = {(x, y, z, t)T /
0 0
z
0 4
t
0 0 0
4
= {(x, y, z, t)T /t = 0, z = 0, y = 0} = span((1, 0, 0, 0)T ) d(1 ) = 1.
128
Ker(I3 A)2
0
= {(x, y, z, t)T /
0
0
0
0
0
0
2 32
x
y
0
4
= ~0}
0 16 z
0 16
t
Ker(I3 A)3
0
= {(x, y, z, t)T /
0
0
0
0
0
0
0 120
x
y
0 16
= ~0}
0 64 z
0 64
t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
Ker(I3 A)4
0
= {(x, y, z, t)T /
0
0
0
0
0
0
0 480
x
y
0
64
= ~0}
0 256 z
0 256
t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
Luego Eg (A, ) = Ker(I3 A)3 . Para el segundo autovalor
4 2 3 4
x
0 4 1
2 y
= ~0}
E(A, 2 ) = Ker(3I3 A) = {(x, y, z, t)T /
0
0 4 4 z
0
0
0
0
t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ) d(2 ) = 1.
Ker(3I3 A)2
16 16 26
0
x
0
16
8
12
y = ~0}
= {(x, y, z, t)T /
0
0
16
16
z
0
0
0
0
t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ).
6.2.
Teorema de descomposici
on primaria
El teorema que nos da una reduccion de la matriz a traves de los autovectores generalizados es el siguiente. Mas adelante veremos ejemplos.
Teorema 1. Sea A Mn,n (K) y supongamos que todos los autovalores
de A, 1 , . . . , r , estan en K. Para cada j = 1, . . . , r pongamos d(j ) =
dimE(A, j ) la multiplicidad geometrica, m(j ) la multiplicidad algebraica
y k(j ) el primer entero donde se estabiliza la sucesion de n
ucleos {Ker(j In
k
A) }k1 . Se cumple entonces que
(1) k(j ) m(j ),
1 j r.
1 j r.
5
4
3
A = 1 0 3 .
1 2 1
130
m(1 ) = 2
2 = 2,
m(2 ) = 1.
1 4 3
x
0
E(A, 1 ) = Ker(4I3 A) = {(x, y, z)T / 1
4
3 y = 0 }
1 2
3
z
0
= {(x, y, z)T /x = z, y = z} = span((1, 1, 1)T ) d(1 ) = 1.
Luego
0 18 18
x
0
Eg (A, 1 ) = Ker(4I3 A)2 = {(x, y, z)T / 0 18
18 y = 0 }
0 18
18
z
0
= {(x, y, z)T /y = z} = span((1, 1, 1)T , (1, 0, 0)T ).
Para el segundo autovalor
7 4 3
x
0
T
4 1 0
P 1 AP = 0 4 0 .
0 0 2
donde las columnas de P 1 AP est
an formadas por las coordenadas de
A~v1 , A~v2 y A~v3 en la base nueva. Se tiene
A~v1 = 4~v1
A~v2 = (A 4I3 )~v2 + 4~v2 = ~v1 + 4~v2
A~v3 = 2~v3
131
(2)
1
0 1 0
3 2 7 5
.
A=
0
0
1 0
1 1 4 2
Calculamos los autovalores de A. Su polinomio caracterstico es, desarrollando por la tercera fila,
z 1
pA (z) = det(zI4 A) = (z 1) 3
1
0
0
z + 2 5 = (z 1)2 (z 2 + 1).
1
z 2
3
E(A, 1 ) = Ker(I A) = {(x, y, z, t)T :
0
1
0
3
0
1
1 0
x
0
y 0
7 5
= }
0 0 z 0
4 1
t
0
= {(x, y, z, t)T : z = 0, 3x + 3y 5t = 0, x + y t = 0}
= {(x, y, z, t)T : z = t = 0, y = x} = h(1, 1, 0, 0)T i.
Como la multiplicidad algebraica es 2 y la del autoespacio es 1, para obtener
el autoespacio generalizado tendremos que elevar al cuadrado la matriz (I
A),
4
Eg (A, 1 ) = Ker(I A)2 = {(x, y, z, t)T :
0
2
0
4
0
2
0
0
x
0
y 0
4 10
= }
0
0 z 0
4 4
t
0
132
i1
0
1
0
x
0
3
y 0
i
+
2
7
5
= }
0
0
i1
0 z 0
1
1
4
i2
t
0
= {(x, y, z, t)T : (i 1)x + z = 0, 3x + (i + 2)y + 7z 5t = 0,
(i 1)z = 0, x + y + 4z + (i 2)t = 0.}
= {(x, y, z, t)T : z = x = 0, y = (2 i)t} = h(0, 2 i, 0, 1)T i.
Y como el tercer autovalor es conjugado del segundo y A es real, su autoespacio generalizado esta generado por el conjugado del vector anterior,
Eg (A, 3 ) = Ker(iI A) = h(0, 2 + i, 0, 1)T i.
Tenemos ya calculada una base de autovectores generalizados,
~v1 = (1, 1, 0, 0)T , ~v2 = (6, 0, 1, 2)T , ~v3 = (0, 2i, 0, 1)T , ~v4 = (0, 2+i, 0, 1)T .
donde, recordemos que ~v1 , ~v3 y ~v4 son autovectores. Si P es la matriz cuyas
columnas son ~v1 , ~v2 , ~v3 , ~v4 , la forma reducida semejante a A tiene la forma
1 1 0 0
0 1 0 0
.
P 1 AP =
0
0 i 0
0 0 0 i
donde las columnas de P 1 AP est
an formadas por las coordenadas de
A~v1 , A~v2 , A~v3 y y A~v4 en la base nueva. Se tiene
A~v1 = ~v1
A~v2 = (A I4 )~v2 + ~v2 = ~v1 + ~v2
A~v3 = i~v3
A~v4 = i~v4
6.3.
Recurrencias vectoriales
~x[m] C n ,
133
m 0.
(6.1)
A ~x = (In + (A In )) ~x =
m
X
m
j=0
k()1
j=0
m
j
mj (A In )j ~x
= m ~x + mm1 (A In )~x +
+ +
mj (A In )j ~x
m
k() 1
m(m 1) m2
(A In )2 ~x
2
Hemos dado as una expresion general para los modos normales. En particular, si ~x es un autovector, el modo normal es simplemente
Am ~x = m ~x.
El procedimiento para resolver (6.1) con una condicion inicial ~x[0] arbitraria
es entonces el siguiente:
(1) Obtener una base de C n formada por autovectores generalizados: {~x1 , . . . , ~xn }.
(2) Expresar la condicion inicial como suma de autovectores generalizados,
calculando las coordenadas de ~x[0] en la base formada por autovectores
generalizados:
~x[0] = 1 ~x1 + + n ~xn .
134
Entonces
Am ~x[0] = 1 Am ~x1 + + n Am ~xn .
(6.2)
4 0
0
0
3 1
0
0
A=
3
2 4 0
3 3
1 4
y el vector ~x = (1, 10, 7, 12)T , vamos a calcular A10 ~x.
Los autovalores con su multiplicidad correspondiente son:
1 = 1,
m(1 ) = d(1 ) = 1
2 = 4,
m(2 ) = 3.
3 0
0 0
x
0
3
0
0
0
y
= 0 }
Eg (A, 1 ) = Ker(I4 A) = {(x, y, z, t)T :
3 2
3 0
z
0
3 3 1 3
t
0
= {(x, y, z, t)T : x = 0, z = (2/3)y, t = (11/9)y} = span((0, 9, 6, 11)T ).
Para el segundo autovalor,
0
x
0 0
0 0
3 3 0 0 y 0
}
=
E(A, 2 ) = Ker(4I A) = {(x, y, z, t)T :
3 2
0 0z 0
0
t
3 3 1 0
= {(x, y, z, t)T : x = y = z = 0} = span((0, 0, 0, 1)T ) d(2 ) = 1.
135
0
0
9
9
= {(x, y, z, t)T :
6
6
12 11
Ker(4I A)2
0 0
x
0
y 0
0 0
= }
0 0z 0
0 0
t
0
27
Eg (A, 2 ) = Ker(4I A)3 = {(x, y, z, t)T :
18
33
0
27
18
33
0
0
0
0
0
x
0
0y 0
}
=
0z 0
0
t
0
1
0
2 9
P
3 = 6
4
11
0
0
0
1
0 1
1
1
2 10
0 1
= .
1 0 3 7
0 0
4
12
1
0 1 0
3 2 7 5
,
A=
0
0
1 0
1 1 4 2
y el vector ~x = (2, 0, 1, 0)T vamos a calcular la solucion de la recurrencia
vectorial
~x[m + 1] = A~x[m],
~x[0] = ~x.
1
1 6
2 1
0
P
3 = 0
1
4
0 2
=
es
se
Si
0
0
1
2
2 0
2 i 2 + i
=
.
0
0 3 1
1
1
4
0
6.4.
Ecuaciones en diferencias
La segunda aplicacion tiene mucha relacion con la primera. Son las ecuaciones en diferencias, que son ecuaciones de la forma
xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = fj ,
j 0,
(6.3)
j 0,
(6.4)
6.4.1.
Ecuaci
on homog
enea
j 0,
x0 = 0, x1 = 0, x2 = 0, . . . , xn1 = 1,
constituyen una base del espacio de soluciones S y por tanto dim(S) = n.
138
j 0.
Entonces, {xj }
on de (6.4) si y solo si
j=0 es soluci
~x[j + 1] = A~x[j],
j 1,
(6.5)
donde
0
0
A =
0
a0
1
0
0
a1
0
1
0
a2
0
0
0
a3
0
an2
0
0
1
an1
seg
un sus diferentes races j con multiplicidades (algebraicas) mj , con m1 +
+ mr = n. Las soluciones de (6.4) son las primeras componentes de los
vectores solucion de (6.5)
x0
x1
Primera componente de ~x[1]
..
..
.
.
xj
Primera componente de ~x[j]
..
..
.
.
139
1 s r,
0 l ms 1.
j
mr 1 j
{jr }
r }j=0 .
j=0 , {jr }j=0 , . . . , {j
140
m1 = 1
2 = 1,
m2 = 1.
Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {3 }j=0 ,
j
{j2 }
j=0 = {(1) }j=0 .
j = 0, 1, 2, . . . ,
j = 0, 1, 2, . . . .
m1 = 1
2 = 1,
m2 = 2.
141
Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {2 }j=0 ,
j
{j2 }
j=0 = {(1) }j=0
j
{jj2 }
j=0 = {j(1) }j=0 .
j = 0, 1, 2, . . . ,
para constantes A, B y C.
(3) Vamos a obtener la solucion de la ecuacion en diferencias
xj+3 3xj+2 + 3xj+1 xj = 0,
con condiciones iniciales x0 = 1, x1 = 0, x2 = 1. El polinomio caracterstico
es p(z) = z 3 3z 2 + 3z 1 = (z 1)3 , de modo que las races caractersticas
con sus multiplicidades son
1 = 1,
m1 = 3.
Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {1 }j=0 ,
{jj1 }
j=0 = {j}j=0
2
{j 2 j1 }
j=0 = {j }j=0 .
j = 0, 1, 2, . . . ,
j = 0, 1, 2, . . . .
142
m1 = 2
2 = 2,
m2 = 1.
Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {1 }j=0 ,
{jj1 }
j=0 = {j}j=0
j
{j2 }
j=0 = {2 }j=0 .
j = 0, 1, 2, . . . ,
j = 0, 1, 2, . . . .
m1 = 1
2 = i,
m2 = 1.
143
Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {i }j=0 ,
j
{j2 }
j=0 = {(i) }j=0 .
j = 0, 1, 2, . . . ,
1i j
1i j 1+i
i +
(i)j = 2Re(
i ),
2
2
2
1 i ij/2
1i
= 2Re(
e
) = 2Re(
(cos(j/2) + i sin(j/2))
2
2
= cos(j/2) + sin(j/2) j = 0, 1, 2, . . . .
=
6.4.2.
Ecuaci
on no homog
enea
2
3
A=
0
3
0 3
0
2 2 1
,
0 1
0
0 2 2
4 0
0
0
3 1
0
0
.
B=
3
2 4 0
3 3
1 4
1
1
0
1 1
0
A=
2
1 2
1
3 1
0
0
,
4
2
2 0 0
0
4
2 1 5
.
B=
3 0
4
2
1 0 2 0
3 1 2 1
0
3
0
0
A=
0 5
6 3
0 2
3
0
halla A30 x donde x = [1, 2, 3, 5]T .
Ejercicio 4. Calcula la expresion de An v donde v es el vector (1, 2, 3, 4)T y
A es la matriz
1
0
1
0
0 1 0
0 0 1
,
0 1
0
1 0
0
1 1 1 1
2
1 0
2
.
0
1 0 1
2 1 1
2
Bibliografa recomendada:
Grossman. Algebra Lineal. Ed. Iberoamericana. Cap 6, apartados 6.1 a 6.3.
145
146
Tema 7
el sistema lineal
dPn (t)
dt
dP0 (t)
dt
n 1,
= P0 (t) + P1 (t).
7.1.
Presentaci
on
(7.1)
~ : J Kn
Se llama solucion de (7.1) a cualquier aplicacion diferenciable
definida en un intervalo J de R y verificando (7.1) cuando ~x se sustituye
~
por .
Dados un instante inicial t0 R y un valor inicial ~x0 Kn , se puede
plantear el llamado problema de valores iniciales (PVI)
~x0 (t) = A~x(t) + ~b(t).
(7.2)
~x(t0 ) = ~x0 .
Se dice que t0 y ~x0 son las condiciones iniciales del problema. Una solucion
~ de (7.1) tal que t0 J y
del mismo no es otra cosa que una solucion
~
ademas (t0 ) = ~x0 .
Vamos a dividir nuestro estudio en el caso homogeneo (~b(t) = ~0) y el no
homogeneo.
7.2.
(7.3)
(7.4)
~x(t0 ) = ~x0 .
La primera cuestion a tener en cuenta es la existencia y unicidad de soluciones de (7.4).
Teorema 1. Dada una condicion inicial cualquiera t0 R, ~x0 Kn se tiene
que el correspondiente PVI (7.4) posee una u
nica solucion definida en todo
R.
El segundo punto a considerar es la estructura de las soluciones de (7.3).
Esto sera importante para despues analizar la resolucion.
P
Ver que (J) es un espacio vectorial no es difcil. En efecto, si ~x1 (t), ~x2 (t)
son dos soluciones de (7.3), entonces (~x1 +~x2 )0 (t) = ~x01 (t) +~x02 (t) = A~x1 (t) +
149
A~x2 (t) = A(~x1 +~x2 )(t), luego ~x1 (t)+~x2 (t) es solucion de (7.3). Por otro lado,
si ~x(t) es solucion de (7.3) y K, entonces (~x)0 (t) = ~x0 (t) = A~x(t) =
A(~x)(t) y (~x)(t) es solucion.
Veamos ahora la dimension. Sea ~ej = (0, 0, . . . , 0, 1, 0, . . . , 0)T el j-esimo
vector de la base canonica y consideremos, para t0 J cualquiera, el problema de valores iniciales
~x0 (t) = A~x(t)
~x(t0 ) = ej .
Sabemos que existe una u
nica solucion ~xj (t) de este problema. Veamos
que las soluciones ~x1 (t), ~x2 (t), . . . , ~xn (t) as obtenidas son independientes.
Planteada una combinacion lineal nula
1 ~x1 (t) + 2 ~x2 (t) + + n ~xn (t) = 0,
t J,
~ = C1
~ 1 (t) + C2
~ 2 (t) + + Cn
~ n (t),
(t)
con C1 , C2 , . . . , Cn constantes arbitrarias.
150
En terminos matriciales, se llama matriz fundamental del sistema homogeneo a toda aplicacion matricial : J Mn,n (K) tal que para todo
P
t J, las columnas de (t) constituyen una base de (J). Para que sea
una matriz fundamental, es necesario y suficiente que
(i) 0 (t) = A(t) (las columnas son soluciones).
(ii) Existe t0 J tal que (t0 ) es una matriz no singular.
En terminos de matrices fundamentales, estamos diciendo que si es una
matriz fundamental del sistema homogeneo, generamos todas las soluciones
del mismo multiplicando (t) por cualquier vector de Kn .
Veamos como obtener entonces una matriz fundamental a traves de los
llamados modos normales (no confundir con el concepto tratado en el tema
anterior).
Ejemplo 1. Consideremos el sistema
x01 (t) = 3x1 (t) + x2 (t) + x3 (t)
x02 (t) = x1 (t) + 3x2 (t) + x3 (t)
x03 (t) = x1 (t) + x2 (t) + 3x3 (t).
En terminos matriciales, ~x0 (t) = A~x(t) donde
3 1
A= 1 3
1 1
1
1.
3
Vamos a obtener una base de soluciones del sistema a partir de los autovalores de A: Estos son
1 = 2,
m(1 ) = 2
2 = 5,
m(2 ) = 1.
e2t
(t) = [~x1 (t), ~x2 (t), ~x3 (t)] = e2t
0
e2t
0
e2t
e5t
e5t
e5t
2 0
A= 0 2
0 1
1
0.
3
m(1 ) = 1
2 = 2,
m(2 ) = 2.
donde hemos elegido ~v2 E(A, 2 ). Puesto que ~v1 , ~v2 son autovectores, como
en el ejemplo anterior, se generan dos soluciones
~x1 (t) = e1 t~v1 = (e3t , 0, e3t )T ,
~x2 (t) = e2 t~v2 = (e2t , 0, 0)T .
Necesitamos otra solucion para formar una base. No puede ser e2 t~v3 pues
~v3 no es autovector y por tanto no sera solucion. La idea consiste en a
nadir
una expresion
~x3 (t) = e2 t~v3 + te2 t w,
~
para cierto vector w.
~ Quien tiene que ser w
~ para que ~x3 (t) as expresado
sea solucion? Si derivamos
~x03 (t) = 2 e2 t~v3 + e2 t w
~ + te2 t 2 w,
~
153
k()1 j
X t
~x(t) = et
= e
j=0
j!
(A In )j ~x
!
t2
tk()1
~x + t(A In )~x + (A In )2 ~x + +
(A In )k()1 ~x
2!
(k() 1)!
11 9
A=
12
10
8 3
0
0.
3
m(1 ) = 1
2 = 1,
m(2 ) = 1
3 = 2,
m(3 ) = 1.
14
9
12 7
8
3
0
x
0
0y = 0
0
z
0
~v1 = (0, 0, 1)T ,
= span(~v1 ),
12
Eg (A, 2 ) = Ker(I3 A) = {(x, y, z)T / 12
8
= span(~v2 ),
9
0
x
0
9 0 y = 0
3 2
z
0
9
9
T
Eg (A, 3 ) = Ker(2I3 A) = {(x, y, z) / 12 12
8
3
0
x
0
0
y = 0
5
z
0
= span(~v3 ),
1
0
1
1
1
1
P 2 = 0 4/3 1
2 = 1
3
1
2
1
3
2
que tiene por solucion 1 = 1, 2 = 0, 3 = 1, luego
(1, 1, 2)T = ~v1 + ~v3 .
Construimos ahora la expresion de los modos normales, siguiendo la formula
dada en el teorema 3.
k(1 )1 j
X t
~x1 (t) = e1 t
j=0
j!
k(2 )1 j
X t
~x2 (t) = e2 t
j=0
j!
k(3 )1 j
X t
~x3 (t) = e3 t
j=0
j!
Finalmente, sea ~x(t) = ~x1 (t) + ~x3 (t) = (e2t , e2t , e2t + e3t )T . Como la
condicion inicial esta impuesta en t0 = 0, la solucion es ~x(t).
[2] Vamos a resolver el sistema homogeneo (7.3) con matriz
1
A= 1
3
1 2
2 1 .
0 4
156
m(1 ) = 1
2 = 1,
m(2 ) = 2.
4 1 2
x
0
1
1 1
y = 0
3 0 1
z
0
= span(~v1 ),
1 1 1
x
0
Eg (A, 2 ) = Ker(I3 A)2 = {(x, y, z)T / 2
2
2 y = 0
3
3
3
z
0
= span(~v2 , ~v3 ),
1
1
1
0
1
2
P 2 = 2 0
1 2 = 1
3
3 1 1
3
5
que tiene por solucion 1 = 2 = 3 = 1, luego
(2, 1, 5)T = ~v1 + ~v2 + ~v3 .
Construimos ahora la expresion de los modos normales, siguiendo la formula
dada en el teorema 3.
k(1 )1 j
X t
~x1 (t) = e1 t
j=0
j!
k(2 )1 j
X t
~x2 (t) = e2 t
j=0
j!
k(2 )1 j
X t
~x3 (t) = e2 t
j=0
j!
157
Finalmente, sea ~x(t) = ~x1 (t) + ~x2 (t) + ~x3 (t) = (e3t + (1 + 3t)et , 2e3t +
et , 3e3t (2 + 3t)et )T . Como la condicion inicial esta impuesta en t0 = 2,
la solucion es ~y (t) = ~x(t 2).
[3] Ejercicio: resuelve el sistema homogeneo (7.3) con matriz
3
1
A=
1
2
0 1
0
1 2 1
.
0 1
0
1 1 1
7.3.
Sistemas no homog
eneos
Busquemos una expresion para la solucion del problema de valores iniciales (7.2). Denotemos por (t) la matriz fundamental del sistema homogeneo (7.3) formada por los modos normales que hemos obtenido en la
seccion anterior. Tenemos entonces la llamada formula de variaci
on de las
constantes.
Teorema 6. La solucion de (7.2) puede escribirse
1
~x(t) = (t t0 )(0)
~x0 +
Z t
t0
(t s)(0)1~b(s)ds.
~x(t0 ) = ~x0 ,
~x(t0 ) = ~0.
0 1 0
A = 0 0 1,
0 1 0
condicion inicial ~x(0) = (1, 1, 2)T y termino fuente ~b(t) = (sin t, 0, cos t)T .
La primera parte de la formula es la solucion del sistema homogeneo con la
159
m(1 ) = 1
2 = i,
m(2 ) = 1
3 = i,
m(3 ) = 1.
1
1 1
1
1
1
P 2 = 0 i
i
2 = 1
3
0 1 1
3
2
que tiene por solucion 1 = 3, 2 = (i 2)/2, 3 = (i 2)/2, luego
(1, 1, 2)T = 3~v1 +
(i 2)
(i 2)
~v2 +
~v3 .
2
2
k(1 )1 j
X t
~x1 (t) = e1 t
j=0
j!
k(2 )1 j
X t
~x2 (t) = e2 t
j=0
j!
k(3 )1 j
X t
~x3 (t) = e3 t
j=0
j!
1 eit
(t) = 0 ieit
0 eit
160
eit
ieit .
eit
sin s + cos s
.
(0)1~b(s) = cos2 s
cos s
2
Entonces
1 ei(ts)
1~
(t s)(0) b(s) = 0 iei(ts)
0 ei(ts)
sin s + cos s
ei(ts)
sin s + cos s cos s cos(t s)
cos s
i(ts)
ie
2
=
cos s sin(t s)
cos s
i(ts)
e
2
cos s cos(t s)
y por tanto
~xp (t) =
Z t
0
Rt
0 (sin s
(t s)(0)1~b(s)ds =
+
cos s cos s cos(t s))ds
Rt
.
cos s sin(t s)ds
R 0t
0 cos s cos(t s)ds
(i 2)
~x2 (t) + ~xp (t).
2
0 1 2
1
0
1 .
2 1 0
Ejercicio 2. Halla la solucion general de los sistemas de ecuaciones diferenciales siguientes:
x0 = 4x + y z
y 0 = 6x + 3y 4z
z 0 = 6x + 2y 3z
x0 = 4x 7y + 24z
y 0 = 4x 14y + 56z
z 0 = x 4y + 16z
161
x0 = 3x 2y + 4z
y 0 = 4x 3y + 8z
z 0 = x y + 3z
x
1 0
d
y = 2 1
dt
z
3 2
0
x
2 y ,
1
z
x(0) = 0
y(0) = 1
z(0) = 1
x
0 1 0
x
d
y = 0 0 1y ,
dt
z
0 1 0
z
x
1 1
d
y = 0 2
dt
z
1 1
x(0) = 1
y(0) = 1
z(0) = 2
4
x
0y ,
1
z
x(0) = 1
y(0) = 3
z(0) = 0
x
1
1
d
y
=
dt z 0
w
0
x
0
d y 2
=
dt z 0
w
0
1 1 0
x
y
1 0 1
,
0 1 1 z
0 1 1
w
2 0 0
x
0 0 0 y
,
0 0 3 z
0 3 0
w
x
1
0 1 0
x
3 2 7 5 y
d
y
=
,
0
1 0 z
dt z 0
w
1 1 4 2
w
x
3
d y 2
=
dt z 4
w
1
1 6 1
x
0 0 2 y
,
2 6 0 z
1 2 1
w
x(2) = 0
y(2) = 0
z(2) = 1
w(2) = 1
x(0) = 1
y(0) = 1
z(0) = 1
w(0) = 0
x(0) = 2
y(0) = 0
z(0) = 1
w(0) = 0
x(0) = 2
y(0) = 1
z(0) = 0
w(0) = 3
x
1 1
d
y = 1 0
dt
z
0 1
1
x
e2t
0 y + et ,
0
z
0
x
4 1 1
x
et
d
y = 6 3 4
y +
0 ,
dt
z
6 2 3
z
et
0 1
x
d
y = 0 0
dt
0 1
z
sin t
x
0
1y + 0 ,
cos t
z
0
1
x
3 2 4
x
d
y + 2t ,
y = 4 3 8
dt
t
z
1 1 3
z
163
x(1) = 1
y(1) = 1
z(1) = 1
x(0) = 1
y(0) = 2
z(0) = 1
x(0) = 1
y(0) = 1
z(0) = 2
x(0) = 1
y(0) = 1
z(0) = 1
0
x
t2
1y + t ,
3
z
1
x
3 1
d
y = 0 3
dt
z
0 0
x(1) = 2
y(1) = 1
z(1) = 1
0
() 1
1
1
0
0
1
x0 (t)
2 1
3
x(t)
e2t
0
2 y (t) 1 2 3 y(t) = 0 .
0
z 0 (t)
1 2 1
z(t)
0
1 2 1
A= 2 1
5 .
0 0 2
Halla la solucion real del problema de Cauchy
~x0 = A~x + ~g .
con ~g = (0, e2t , 0)T y condiciones iniciales x(1) = 2, y(1) = 0, z(1) = 2.
(c) Halla la solucion del problema de Cauchy dado por el sistema () y la
condicion inicial x(1) = 2, y(1) = 0, z(1) = 2.
Bibliografa recomendada:
D.G.Zill. Ecuaciones diferenciales con aplicaciones. Grupo Editorial Iberoamericana. Cap 8, secciones 8.5 a 8.9.
F.Marcellan. Ecuaciones diferenciales. Problemas lineales y aplicaciones.
Ed. Mc Graw-Hill. Cap 4.
164
Tema 8
f (t)
ENTRADA
x(t)
SIST EM A
P ROCESADO
SALIDA
Cuando una se
nal atraviesa un sistema se dice que se ha procesado. A
la se
nal que introducimos se denomina excitacion y a la que obtenemos a la
salida, respuesta.
El procesado de una se
nal puede consistir en una serie de operaciones basicas
165
@
@
@
@
R
@
@
L, C > 0, R 0
E(t)
i(t)
Consta de una resistencia R, una inductancia L y una capacitancia C, as como una batera o generador E(t) que suministra corriente al circuito. La
intensidad de corriente i(t) que en cada instante recorre el circuito puede
entenderse como la respuesta a una excitacion dada por el generador a traves
de un sistema gobernado por la ecuacion diferencial
L
d2 i
di
1
dE
+R + i=
dt2
dt C
dt
166
8.1.
Teora b
asica
(8.1)
con a0 , . . . , an1 n
umeros complejos que son los coeficientes de la ecuacion y
f : I K el llamado termino fuente, una funcion definida en alg
un intervalo
real I con llegada en R o C. La ecuacion, que se dice de orden n por ser
este el orden de la derivada de mayor grado presente, viene definida por sus
coeficientes y su termino fuente. Cuando este es nulo, se dice que la ecuacion
es homogenea, siendo no homogenea en otro caso.
La funcion x(t) que aparece en (8.1) es una variable muda, siendo opcional el empleo de otras letras tanto para denominar a la variable dependiente x como a la independiente t. Por solucion de (8.1) se entiende toda
aplicacion : I R K n veces diferenciable y que satisface la igualdad
(8.1) para todo t I al sustituir x(t) por (t).
Nuestro estudio tiene un hilo conductor ya tratado, que es la teora
de sistemas diferenciales lineales de primer orden y coeficientes constantes.
Observemos que en terminos de estas nuevas variables
dx(t)
dn1 x(t)
, . . . , xn =
, ~x = (x1 , x2 , . . . , xn )T ,
dt
dtn1
podemos escribir la ecuacion (8.1) en forma de un sistema de primer orden
x1 = x, x2 =
(8.2)
donde
0
0
.
A = ..
0
a0
1
0
..
.
0
a1
0
1
..
.
0
a2
0
0
..
.
0
an2
0
0
..
,
.
1
an1
0
0
.
f~(t) = .. .
0
f (t)
~ = (, 0 , . . . , n1) )T ,
formado por ella y sus derivadas hasta el orden n 1. Recprocamente,
~ =
la forma del sistema asegura que las componentes de toda solucion
T
(1 , 2 , . . . , n ) de (8.2) van siendo las derivadas de la primera componente,
j (t) =
dj1 1 (t)
,
dtj1
j = 2, . . . , n,
n1)
x(t0 ) = 0 , x (t0 ) = 1 , . . . , x
(8.3)
(t0 ) = n1 .
(8.4)
T
~x(t0 ) = (0 , 1 , . . . , n1 ) .
Teorema 1. Si f : I K es continua, existe una u
nica solucion del problema
de valores iniciales (8.3).
168
8.2.
Representaci
on de soluciones
8.2.1.
Ecuaci
on homog
enea
(8.5)
(8.6)
con A dada en (8.2). Sabemos que toda solucion de (8.5) es la primera componente de una solucion de (8.6) y recprocamente. De este modo, podemos
169
W [1 , . . . , n ](t) =
1 (t)
01 (t)
..
.
n1)
2 (t)
02 (t)
..
.
n1)
(t) 2
n (t)
0n (t)
..
.
n1)
(t) n (t)
A su determinante w[1 , . . . , n ](t) = detW [1 , . . . , n ](t) se le llama wronskiano de las n funciones 1 (t), . . . , n (t). La identificaci
on con el sistema
equivalente permite ver que si las n funciones son soluciones de la ecuacion,
entonces las n columnas de la matriz W son soluciones del sistema. Ahora,
la independencia de las n funciones equivale a la de las columnas. Por u
ltimo, como ya se conoce del tema anterior, la independencia de estas queda
determinada por la de sus valores en cualquier instante inicial (es la segunda condicion de matriz fundamental). Esto demuestra que para analizar la
independencia de n soluciones de la ecuacion homogenea de orden n, basta
con evaluar su wronskiano en un punto:
Sean t0 I, 1 (t), . . . , n (t) soluciones de (8.5). Entonces 1 (t), . . . , n (t)
son linealmente independientes si y solo si w[1 , . . . , n ](t0 ) 6= 0.
170
8.2.2.
Ecuaci
on no homog
enea
8.3.
C
alculo efectivo de soluciones. Ecuaci
on homog
enea
El polinomio p(z) = a0 + a1 z + + an1 z n1 + z n es el polinomio caracterstico de la ecuacion y sus races son las llamadas races caractersticas
de la misma.
En analoga con la ecuacion lineal de primer orden x0 (t) = ax(t), uno
puede esperar tambien en este caso soluciones exponenciales. Fijemonos en
que si x(t) = et y sustituimos en el primer miembro de (8.5), tenemos
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t)
= (n + an1 n1 + a1 + a0 )et = p()et ,
de modo que para que x(t) = et sea solucion, el factor ha de ser una
raz caracterstica p() = 0. La terminologa del polinomio y sus races
no es casual, puesto que en el sistema equivalente (8.6) p es precisamente
el polinomio caracterstico de la matriz A y por tanto sus races son los
autovalores de esta.
Ejemplo. Para n = 3,
0
A= 0
a0
1
0
a1
0
1 ,
a2
y se tiene
det(zI3 A) = 0
a
1
0
z
1 = z 3 + a2 z 2 + a1 z + a0 = p(z).
a1 z + a2
172
lambda1
lambda2
k()1) j
X t
~ (t) = et
j=0
j!
(A In )j ~ ,
m1 + + mr = n.
(8.7)
Dado que toda solucion de la ecuacion es la primera componente de una solucion del sistema, esto significa que, recorriendo la base de modos normales,
las n funciones
0,1 (t) = e1 t , 1,1 (t) = te1 t , m1 1,1 (t) = tm1 1 e1 t
0,2 (t) = e2 t , 1,2 (t) = te2 t , m2 1,1 (t) = tm2 1 e2 t
(8.8)
r t
0,r (t) = e
r t
, 1,r (t) = te
, mr 1,1 (t) = t
mr 1 r t
n
umero de generadores) y contiene al espacio de soluciones de la ecuacion
(8.5), que sabemos que tiene dimension n, luego necesariamente coincide con
el.
Teorema 4. Supongamos K = C. Dada la factorizacion (8.7) del polinomio
caracterstico de la ecuacion (8.5), las n funciones dadas por (8.8) forman
un sistema fundamental de soluciones de la ecuacion homogenea de orden n
(8.5).
Ejemplo 1. Buscamos la solucion del problema
xiv) 2x000 + 2x00 2x0 + x = 0
x(0) = 0, x0 (0) = 1, x00 (0) = 0, x000 (0) = 1
El polinomio caracterstico es p(z) = z 4 2z 3 +2z 2 2z +1 = (z 1)2 (z 2 +1),
de manera que las races con sus multiplicidades son
1 = 1, m1 = 2, 2 = i, m2 = 1, 3 = i, m3 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{et , tet , eit , eit }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Ceit + Deit
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal
para las constantes:
(0) = A + C + D = 0
0 (0) = A + B + iC iD = 1
00 (0) = A + 2B C D = 0
000 (0) = A + 3B iC + iD = 1,
cuya solucion es A = 1, B = 1, C = (1 i)/2, D = (1 + i)/2, luego la
solucion del problema es (t) = et + tet + ((1 i)/2)eit + ((1 + i)/2)eit .
Ejemplo 2. Buscamos la solucion del problema
x000 + x00 x0 x = 0
x(0) = 1, x0 (0) = 0, x00 (0) = 1.
El polinomio caracterstico es p(z) = z 3 + z 2 z 1 = (z + 1)2 (z 1), de
manera que las races con sus multiplicidades son
1 = 1, m1 = 2, 2 = 1, m2 = 1,
y el sistema fundamental de soluciones en este caso nos queda
174
{et , tet , et }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Cet .
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal
para las constantes:
(0) = A + C = 1
0 (0) = A + B + C = 0
00 (0) = A 2B + C = 1,
cuya solucion es A = 1, B = 1, C = 0, luego la solucion del problema es
(t) = et + tet .
De este modo, hemos obtenido una base de soluciones de la ecuacion
homogenea, independientemente del caracter real o complejo de sus autovalores. En el caso de que la ecuacion tenga coeficientes reales, puede obtenerse
una base de soluciones formada por funciones reales.
Esto es debido a lo siguiente: supongamos que en (8.5) los coeficientes
a0 , . . . , an1 son n
umeros reales. Observemos que si es solucion de (8.5), el
hecho de que los coeficientes sean reales, implica que su funcion conjugada
es tambien solucion. Puesto que
Re() =
+
,
2
Im() =
,
2i
(8.9)
donde
1 , . . . , p R, j = j + ij , 1 j q.
Esto se debe a que, al ser p de coeficientes reales, las races complejas aparecen en pares conjugados j ,
j con la misma multiplicidad nj . Lo u
nico que
tenemos que hacer es distinguir las races caractersticas reales de las complejas y considerar la parte real y la imaginaria de las funciones de la base
(8.8) asociadas a estas u
ltimas.
175
(t) = et + tet +
8.4.
@
R
@
L
C
d2 i
di
1
+R + i=0
2
dt
dt C
i0 (0) = i00
i(0) = i0 ,
L, R, C > 0
i(t)
R
,
=
2L
R
2L
1
CL
As, suponiendo que todos los parametros del circuito son positivos, tenemos
> 0, i(t) = c1 e1 t + c2 e2 t . La respuesta natural es una superposicion de dos exponenciales correspondientes a las dos races, distintas, reales y negativas. Las constantes c1 , c2 quedan determinadas
imponiendo los datos iniciales.
R
R
1
< 0, i(t) = Ae
cos(1 t ), 1 = CL
2L
. Este caso
da lugar a dos races complejas conjugadas: cuando la resistencia es
177
no nula, la respuesta natural corresponde a oscilaciones con una amplitud que decrece exponencialmente a cero. La corriente oscila cada
vez a menor amplitud y la velocidad a la que se amortigua la respuesta depende directamente del valor de la resistencia, que act
ua como
atemperacion del sistema. Este es el llamado movimiento armonico
amortiguado.
La siguiente figura ilustra los tres casos comentados, fijados valores a L y
C, en funcion de una resistencia presente en le circuito. En todos ellos la
respuesta natural tiende a cero cuando t , debido a que la parte real de
las races caractersticas es en todos los casos menor que cero, porque todos
los parametros del circuito son positivos.
0.5
0.4
0.3
0.2
0.1
0.1
10
15
( < 0),
1
=
,
CL
1,2 = i
Este es el llamado movimiento armonico simple y puede obtenerse a partir del movimiento armonico amortiguado anterior. Recordando el comportamiento de las races caractersticas, que se aproximan al eje imaginario cuando la resistencia se acerca a cero, tenemos que en el movimiento
armonico amortiguado, la velocidad de decaimiento tiende a cero, de manera que la respuesta se aproxima a la respuesta natural de un circuito con
induccion y capacitancia pero libre de fuerzas de resistencia.
R
R = 0.05
0.5
0.5
0.5
0.5
10
20
30
40
10
R = 0.025
1
0.5
0.5
0.5
0.5
10
20
30
40
30
40
R=0
20
30
40
10
20
Ejemplo 3. Modulaci
on de una se
nal. La aparicion de oscilaciones libres
como respuestas naturales proporciona diversas aplicaciones de los circuitos
al procesado de se
nales. Una de ellas es la modulacion, en la que se emplea
una se
nal para controlar alg
un parametro de otra. Nosotros nos fijaremos
en una de las mas sencillas, que es la modulacion en amplitud sinusoidal.
x(t)
y(t) = x(t)cos(t )
-
6
-
LC
cos(t )
c.i.
179
10
15
20
25
RESPUESTA NATURAL DEL CIRCUITO
10
15
20
Y(t)
10
15
20
30
35
40
25
30
35
40
25
30
35
40
1
0
1
20
10
0
10
20
Se trata de la se
nal portadora modulada en la que su envolvente sigue el
perfil del mensaje.
8.5.
C
alculo efectivo de soluciones. Ecuaci
on no
homog
enea
8.5.1.
F
ormula de variaci
on de las constantes
La formula de variacion de las constantes esta basada en la correspondiente formula para el sistema equivalente de primer orden, que ya hemos
visto en el tema anterior.
180
Z t
t0
donde
[1 ] 0 satisface
n)
n1)
0 (t) + an1 0
0 (t0 ) = 0 , 00 (t0 ) = 1 , . . . , 0
(t0 ) = n1
[2 ] h : R R es la solucion de
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = 0
x(0) = 0, x0 (0) = 0, . . . , xn2) (0) = 0, xn1) (0) = 1
(Funcion de influencia)
La formula establece que la solucion del PVI (8.3) para una ecuacion
de orden n y coeficientes constantes con termino fuente continuo, se puede
escribir como suma de dos terminos: el primero es la solucion de la ecuacion
homogenea asociada con el mismo dato inicial. El segundo proporciona una
solucion particular con dato inicial nulo y representa la aportacion del termi
no no homogeneo a traves de un factor de influencia h. Este
puede obtenerse
como la solucion de la ecuacion homogenea con un conveniente dato inicial
en cero.
Para la demostracion, se considera el correspondiente problema de valores iniciales (8.4) para el sistema equivalente y sea (t) la matriz formada
por modos normales a partir de la matriz A. Por la formula de variaci
on de
las constantes para sistemas, la solucion de (8.4) puede escribirse
~x(t) = (t t0 )(0)1
~+
Z t
t0
(t s)(0)1 f~(s)ds.
0
Z t
1 ..
(t s)(0) . f (s)ds.
t0
0
1
Ahora, si consideramos el integrando salvo la funcion f (s), este es el valor,
en t s del vector
0
.
1
~h(t) = (t)(0)
.. ,
0
1
que no es otra cosa que la solucion del sistema homogeneo con dato inicial
en t0 = 0 dado por (0, 0, . . . , 0, 1)T . Por tanto, su primera componente es la
funcion de influencia h descrita.
Ejemplo. Vamos a resolver el problema de valores iniciales
x00 2x0 3x = t2 e2t
x(0) = 1, x0 (0) = 1.
La solucion del problema homogeneo
x00 2x0 3x = 0
x(0) = 1, x0 (0) = 1.
es 0 (t) = (1/2)e3t + (1/2)et . La funcion de influencia es la solucion de
x00 2x0 3x = 0
x(0) = 0, x0 (0) = 1.
esto es, h(t) = (1/4)e3t (1/4)et . Entonces
Z t
0
Z t
0
(1/2)e + (1/2)e
Z t
0
@
R
@
L
C
d2 h
1
dh
+ h=0
+R
2
dt
dt
C
h(0) = 0,
h0 (0) = 1
h(t)
R
R 2
1
, =
2L
2L
CL
Dependiendo del signo del discriminante de la ecuacion caracterstica, la
funcion de influencia puede ser de las siguientes formas:
1,2 =
183
1
1 t
1 2 (e
R
2L t
e 2 t )
> 0,
h(t) =
= 0,
< 0,
h(t) = te
R
h(t) = 1 e 2L t cos(t 2 ),
f (t) = cos(0 t)
x(t)
P.V.I.
+c.i. = 0
La formula de variacion de las constantes determina que la solucion tiene
esta forma
x(t) =
Z t
0
Z t
0
Z
0
xT (t) 0 si t
(resp. transitoria)
Z
1
xP (t) =
h(s) ei0 (ts) + ei0 (ts) ds
2 0
= a cos(0 t )
(resp. permanente)
0 )), A() =
a = |A(0 )|, = arg(A(
Z
0
h(s)eis ds
Z
0
h(s)eis ds
(respuesta en frecuencia)
La ilustracion de este resultado puede venir dada a traves de un circuito
electrico de segundo orden, donde una batera suministra electricidad, en
forma sinusoidal en tiempo, mostrada en la figura. Elegimos los parametros
de la ecuacion de modo que la funcion de influencia sea por ejempo una
oscilacion amortiguada. La tercera figura muestra la respuesta del sistema.
Aqu se puede observar que la respuesta transitoria, visible para tiempos
cortos, tiende a desaparecer, quedando una oscilacion de la misma frecuencia
que la excitacion pero amplificada.
185
EXCITACION f(t)
1
0
1
0
10
20
30
40
50
60
F. DE INFLUENCIA h(t)
70
80
90
100
10
20
30
40
70
80
90
100
10
20
30
40
70
80
90
100
1
0
1
50
60
RESPUESTA x(t)
10
0
10
50
60
Ejemplo 2. Regularizaci
on de una se
nal.
Otro efecto de la formula de convoluci
on es la regularizacion de una se
nal,
es decir, la respuesta del sistema es una funcion mas regular que la funcion
excitacion de entrada. Esto puede ilustrarse con el siguiente ejemplo. Imaginemos que la se
nal de entrada es un par de pulsos triangulares de la forma
del primer grafico de la figura.
EXCITACION f(t)
1
0
1
0
4
5
F. DE INFLUENCIA h(t)
0
3
x 10
4
RESPUESTA
0.01
0
0.01
1
0.5
0
0.5
1
0.5
0
0
4
5
6
F. DE INFLUENCIA h(t)
0
4
x 10
5
RESPUESTA
10
10
10
0.01
0.005
0
0.005
0.01
10
8.5.2.
Coeficientes indeterminados
Pasamos por u
ltimo a describir una alternativa para la resolucion de la
ecuacion no homogenea aplicable para cierto tipo de terminos fuente. Es
el metodo de coeficientes indeterminados que permite obtener una solucion
particular de la ecuacion sin recurrir a la formula de variaci
on de las constantes.
Los terminos fuente para los que es aplicable este metodo son del tipo
producto de un polinomio por una exponencial. Dentro de esta clase de
funciones se encuentran tambien las trigonometricas.
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = q(t)et
q(t) = q0 + q1 t + + qm tm ,
pn1) () n1)
pn) () n)
s (t) +
s
(t) +
n!
(n 1)!
p0 () 0
s (t) + p()s(t))et = q(t)et
+
1!
donde
p(z) = z n + an1 z n1 + + a1 z + a0
188
(8.10)
(C) En ambos casos, los coeficientes se obtienen imponiendo que p (t) sea
solucion del problema.
Ejemplos.
[1]. Buscamos una solucion particular de
x00 2x0 3x = te2t .
Las races caractersticas son 1 = 3, 2 = 1. Como = 2, ensayamos
como solucion particular x(t) = (A + Bt)e2t . Imponiendo esta funcion como
solucion e igualando en las potencias de t, tenemos el sistema
2B 3A = 0
3B = 1.
de donde x(t) = ((2/9) (t/3))e2t .
[2]. Buscamos una solucion particular de
x00 2x0 3x = tet .
Ahora, = 1 es raz simple del polinomio caracterstico. Buscamos entonces una solucion particular de la forma x(t) = t(A + Bt)et . Imponiendo
la funcion como solucion e igualando coeficientes en t, se tiene
2B 4A = 0
8B = 1.
De donde B = 1/8, A = 1/16. La ecuacion tiene una solucion particular
de la forma x(t) = t((1/16)(1/8)t)et . La solucion general es de la forma
c1 e3t + c2 et + t((1/16) (1/8)t)et , con c1 , c2 constantes arbitrarias.
Ejemplo 1. Resonancia.
La primera aplicacion de esta tecnica de coeficientes indeterminados se refiere al fenomeno de resonancia. En sistemas como el del circuito electrico
L
d2 i
di
1
+ R + i = E cos(f t)
2
dt
dt C
190
< 0, = , 6= f
Supongamos que la resistencia R es no nula. En tal caso, la solucion general
de la ecuacion homogenea es una oscilacion amortiguada
R
i0 (t) = Ae 2L t cos(t 0 ).
Asmismo, siguiendo el metodo de coeficientes indeterminados, hay una solucion particular que es una combinaci
on lineal de seno y coseno de la misma
frecuencia que el termino fuente
ip (t) = B cos f t + C sin f t
E
= q
cos(f t )
R
( f )2 + 4( 2L
f )2
Imponiendo que la funcion sea una solucion de la ecuacion, se determinan
las constantes B y C. As, la solucion del problema es suma de esta solucion
particular mas la de la homogenea
i(t) = i0 (t) + ip (t).
La imposicion de las condiciones iniciales determinan las constantes A y 0 .
Si la resistencia es no nula, la respuesta transitoria, dada por la solucion
de la ecuacion homogenea asociada, tiende a desaparecer con el tiempo,
quedando el regimen permanente representado por la solucion particular,
que es una oscilacion libre de amplitud constante e igual frecuencia que
la del termino fuente, la se
nal de entrada. Si R es nulo, la solucion de la
ecuacion homogenea no es transitoria y la respuesta es una superposicion de
dos se
nales sinusoidales de distinta frecuencia. En cualquier caso, el sistema
permanece estable con el tiempo.
191
RESPUESTA NO RESONANTE
8
10
15
20
25
30
35
40
d2 i
1
+ i = E cos(t)
dt2 C
RESPUESTA RESONANTE
40
30
20
10
10
20
30
40
10
15
20
25
30
35
40
1
d
di
d2 i
+ R + i = f (t) = E(t),
2
dt
dt C
dt
R>0
10
10
RESPUESTA ip(t)
5
193
Suponiendo que la resistencia R es no nula, el metodo de coeficientes indeterminados y el principio de superposicion proporcionan una solucion particular que es tambien una superposicion de se
nales sinusoidales con amplitud
constante y similares frecuencias.
ip (t) =
m
X
j=1
Ej
R2
1CLj2
Cj
2 sin(j t j )
196