Está en la página 1de 197

ALGEBRA Y ECUACIONES DIFERENCIALES

LINEALES

Angel
Duran Martn

ALGEBRA Y ECUACIONES DIFERENCIALES LINEALES


INGENIERO DE TELECOMUNICACION
Curso: 1o ; cuatrimestral.
Caracter: obligatoria. Creditos: 6 = 3T + 3P (4 horas semanales).
Profesores: Angel Duran. Departamento de Matematica Aplicada.
Tutoras: Martes y jueves, de 9:30 h. a 12:30 h., en el despacho 2D052 de la
ETSI Telecomunicacion.
Evaluacion: Un examen al final del cuatrimestre. Sin apuntes. Se permite
una hoja con los resultados que el alumno considere oportunos.
PROGRAMA
PRELIMINARES
N
umeros complejos, polinomios y nociones basicas de combinatoria.
BLOQUE 1. RESOLUCION DE SISTEMAS LINEALES
Tema 1. Eliminacion gaussiana. Matrices y determinantes.
Tema 2. Espacios vectoriales y aplicaciones lineales.
BLOQUE 2. ORTOGONALIDAD Y PROBLEMAS DE AJUSTE
Tema 3. Nociones basicas de espacios eucldeos.
Tema 4. problemas de ajuste.
BLOQUE 3. DIAGONALIZACION DE MATRICES
Tema 5. Matrices diagonalizables. Caso simetrico.
Tema 6. Matrices no diagonalizables. Aplicaciones.
BLOQUE 4. ECUACIONES DIFERENCIALES LINEALES
Tema 7. Sistemas de ecuaciones diferenciales lineales con coeficientes
constantes.
Tema 8. Ecuaciones diferenciales lineales de orden superior.


BIBLIOGRAF
IA BASICA
Burgos, J. de, Algebra Lineal, Mc Graw-Hill, 1997.
Collatz, L, Differential Equations, J. Willey, 1986.
Goldberg, L., Matrix Theory with Applications, McGraw-Hill, 1991.
Grossman, G. I., Algebra Lineal, McGraw-Hill, 1997.
Lipschutz, S., Algebra Lineal, Serie Schaum, McGraw-Hill, 2000.
Nagle, R.K.; Saff, E.B., Fundamentals of Differential Equations, 5th
ed., Addison-Wesley, 2000.
Noble, B.; Daniel, J. W., Algebra Lineal Aplicada, Prentice-Hall, 1989.
Ross, S. L., Introduction to Ordinary Differential Equations, John Wiley and Sons, 1989.
Simmons, G. F., Ecuaciones diferenciales con aplicaciones y notas
historicas, Mc Graw-Hill, 1993.
Strang, G., Algebra Lineal y sus Aplicaciones, Addison-Wesley, 2003.

BIBLIOGRAF
IA COMPLEMENTARIA
Aqu teneis una lista de libros de complemento a la bibliografa basica
y que puede que manejemos en alg
un momento. Todos ellos se pueden consultar en la biblioteca de la Facultad de Ciencias o en la del departamento.

Anton, H., Introduccion al Algebra lineal, Limusa, 1999.


Arves, J., Alvarez, R., Marcelln, F., Algebra lineal y aplicaciones, Sntesis, 1999.
Edwards, Penney, Ecuaciones Diferenciales elementales. Prentice-Hall
Fraleigh, J.B., Beauregard, R.A. Algebra Lineal, Addison-Wesley, 1989.
Hefferon, J., Linear Algebra
Kaplan, W. Ordinary Differential Equations, Addison-Wesley, 1961.
Lang, S., Introduccion al Algebra lineal, Addison-Wesley, 1990.
Lay, D.C. Algebra lineal y sus aplicaciones, Prentice Hall, 2000.
Marcellan, F., Casas
us, L., Zarzo, A., Ecuaciones diferenciales, problemas lineales y aplicaciones, Mc Graw Hill, 1991.
Pita, C., Ecuaciones diferenciales. Una introduccion con aplicaciones,
Limusa, 1992.
Rojo, J. Algebra lineal, Mc Graw-Hill, 2001.
Tenenbaum, M., Pollard, H., Ordinary Differential Equations, Harper
& Row, 1963.
Torregrosa, J. R., Jordan, C. Algebra lineal y sus aplicaciones, Mc
Graw-Hill, 1993.
Zill, D.G., Ecuaciones dieferenciales con aplicaciones, Int. Thompson,
1997.

Indice general
0.1. N
umeros complejos . . . . . . . . . . . . . . . . .
0.1.1. Definicion y propiedades . . . . . . . . . .
0.1.2. Potenciaci
on, radicacion y exponenciacion
0.2. Polinomios . . . . . . . . . . . . . . . . . . . . .
0.2.1. Operaciones con polinomios . . . . . . . .
0.2.2. Races de polinomios . . . . . . . . . . . .
0.3. N
umeros combinatorios . . . . . . . . . . . . . .
0.3.1. Permutaciones . . . . . . . . . . . . . . .
0.3.2. N
umeros combinatorios . . . . . . . . . .

. . . . . . .
. . . . . . .
de complejos
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .

1. Eliminaci
on gaussiana. Matrices y determinantes
1.1. Algebra de matrices . . . . . . . . . . . . . . . . . .
1.1.1. Operaciones con matrices . . . . . . . . . . .
1.2. Resolucion por eliminacion gaussiana . . . . . . . . .
1.3. Interpretacion matricial de la eliminacion gaussiana .
1.3.1. Operaciones elementales . . . . . . . . . . . .
1.3.2. Sistemas escalonados . . . . . . . . . . . . . .
1.3.3. Sistema general . . . . . . . . . . . . . . . . .
1.4. Matriz inversa. Metodo de Gauss-Jordan . . . . . . .
1.5. Resolucion por determinantes . . . . . . . . . . . . .
1.5.1. Desarrollo por los elementos de una lnea . .
1.5.2. Matrices inversas y sistemas de Cramer . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

2. Espacios vectoriales y aplicaciones lineales


2.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . .
2.1.1. Combinaciones lineales. Subespacios vectoriales . . . .
2.1.2. Dependencia e independencia lineal. Bases y dimension
2.1.3. Coordenadas de un vector respecto a una base. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Subespacios fundamentales de una matriz . . . . . . . . . . .
4

7
7
12
14
15
17
18
18
19
23
24
25
27
31
32
33
34
37
40
44
45
52
52
54
55
59
61

2.2.1. Definicion y propiedades . . . . . . . . . . . . . . . . .


2.2.2. Aplicacion al estudio de un sistema lineal. Teorema de
Rouche . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Operaciones con subespacios . . . . . . . . . . . . . . . . . . .
2.3.1. Interseccion de subespacios . . . . . . . . . . . . . . .
2.3.2. Suma de subespacios . . . . . . . . . . . . . . . . . . .
2.4. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . .
2.4.1. Definicion y propiedades . . . . . . . . . . . . . . . . .
2.4.2. Matriz de una aplicacion lineal. Cambio de base . . .

61
67
68
68
69
70
70
71

3. Espacios eucldeos
3.1. Producto escalar . . . . . . . . . . . . . . . .
3.2. Sistemas y bases ortogonales y ortonormales .
3.3. Metodo de ortogonalizacion de Gram-Schmidt
3.4. Matrices ortogonales. Factorizaci
on QR . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

4. Problemas de ajuste
4.1. Ortogonales . . . . . . . .
4.2. Proyeccion ortogonal . . .
4.3. Problemas de ajuste . . .
4.3.1. Ejemplo 1 . . . . .
4.3.2. Ejemplo 2 . . . . .
4.3.3. Ejemplo 3 . . . . .
4.4. Distancia a un subespacio

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

93
. 94
. 95
. 97
. 97
. 99
. 101
. 102

.
.
.
.
.

107
. 108
. 109
. 114
. 118
. 121

.
.
.
.
.
.

126
. 127
. 130
. 133
. 138
. 138
. 144

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

5. Matrices diagonalizables
5.1. Semejanza de matrices . . . . . . . . . . . . . . . . .
5.2. Autovalores y autovectores. Polinomio caracterstico
5.3. Diagonalizacion . . . . . . . . . . . . . . . . . . . . .
5.4. Triangularizacion . . . . . . . . . . . . . . . . . . . .
5.5. Diagonalizacion ortogonal . . . . . . . . . . . . . . .
6. Matrices no diagonalizables
6.1. Autoespacios generalizados . . . . .
6.2. Teorema de descomposicion primaria
6.3. Recurrencias vectoriales . . . . . . .
6.4. Ecuaciones en diferencias . . . . . .
6.4.1. Ecuacion homogenea . . . . .
6.4.2. Ecuacion no homogenea . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

81
81
84
85
89

7. Sistemas de EDOs lineales y de coeficientes constantes


147
7.1. Presentacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.2. Sistemas lineales homogeneos . . . . . . . . . . . . . . . . . . 149
7.3. Sistemas no homogeneos . . . . . . . . . . . . . . . . . . . . . 158
8. EDOs lineales de coeficientes constantes y orden superior 165
8.1. Teora basica . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.2. Representacion de soluciones . . . . . . . . . . . . . . . . . . 169
8.2.1. Ecuacion homogenea . . . . . . . . . . . . . . . . . . . 169
8.2.2. Ecuacion no homogenea . . . . . . . . . . . . . . . . . 171
8.3. Calculo efectivo de soluciones. Ecuacion homogenea . . . . . 171
8.4. Respuesta natural. Movimiento armonico simple y amortiguado176
8.5. Calculo efectivo de soluciones. Ecuacion no homogenea . . . . 180
8.5.1. Formula de variaci
on de las constantes . . . . . . . . . 180
8.5.2. Coeficientes indeterminados . . . . . . . . . . . . . . . 188

Preliminares
Esta primera leccion es una introduccion a tres conceptos que manejaremos a lo largo del curso y que es apropiado conocer o recordar: el n
umero
complejo, los polinomios y los n
umeros combinatorios. Cuando los utilicemos, puede ser u
til tener presente esta leccion preliminar.

0.1.

N
umeros complejos

Denotemos por R al cuerpo de los n


umeros reales. En R hay definidas
una suma + y una multiplicaci
on .de suerte que (R, +, .) es un cuerpo, es
decir:
(a) (R,+) es un grupo.
(b) (R-{0},.) es un grupo.
(c) El producto .es distributivo respecto de la suma +.
Otras propiedades muy importantes de R se derivan del hecho de que tambien hay definido un orden compatible con las operaciones y que es un orden
completo. Estas nociones se desarrollan en la asignatura Calculo.

0.1.1.

Definici
on y propiedades

Llamamos n
umero complejo z a un par ordenado de n
umeros reales (a, b),
a, b R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real del
complejo z y b = Im(z) como la parte imaginaria. Al conjunto de n
umeros
complejos se denota por C.
Se dice que dos n
umeros complejos z1 = (a1 , b1 ), z2 = (a2 , b2 ) son iguales
z1 = z2 si y solo si a1 = a2 y b1 = b2 .
En C se definen las operaciones de suma y producto:
z1 + z2 = (a1 + a2 , b1 + b2 )
z1 z2 = (a1 a2 b1 b2 , a1 b2 + a2 b1 ).
7

Con estas operaciones, se comprueba que (C, +, ) es un cuerpo, es decir


que se cumplen las propiedades (a), (b) y (c) que se
nal
abamos antes en
relacion con R. El elemento neutro para la suma es (0, 0) y para el producto
(1, 0). Por otra parte, para z = (a, b) el opuesto es z = (a, b) y si
z = (a, b) 6= (0, 0), su inverso es

b
a
, 2
.
2
2
a + b a + b2

Los n
umeros complejos son una extension de los reales. El n
umero complejo de la forma (a, 0) se identifica con el n
umero real a. De este modo, por
ejemplo, (0, 0) = 0 y (1, 0) = 1. Esta identificaci
on es compatible con las
operaciones, de modo que R se puede considerar como un subcuerpo de C.

Representaci
on geom
etrica
Los n
umeros complejos se representan geometricamente como puntos
del plano o como vectores del plano con base en el origen. La parte real
es la componente del vector en el eje horizontal y la parte imaginaria la
componente del vector en el eje vertical.

z = (a, b)
6

Se llama unidad imaginaria al n


umero complejo (0, 1), que se denota por
i. De este modo, i2 = 1, (i)2 = 1, i3 = i . . .. A veces se utiliza la letra
j, sobre todo en el contexto de la teora de circuitos, donde la letra i se
reserva para denotar la intensidad.

Forma bin
omica de un n
umero complejo
Dado (a, b) C podemos escribir:
(a, b) = (a, 0) + (b, 0) (0, 1) = a + bi
8

seg
un la identificacion ya introducida. Esta suele ser la notacion habitual
y se denomina forma binomial o bin
omica del n
umero complejo. Esta representacion identifica con la misma claridad las partes real e imaginaria de
un n
umero complejo. Ademas, permite reconocer las operaciones: sumar dos
complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos
complejos se realiza como si fuesen reales, teniendo en cuenta que i2 = 1.
Los n
umeros complejos (0, b) = bi (b R) se denominan imaginarios puros.

Conjugado de un complejo
Dado un n
umero complejo z = a + bi, se llama conjugado de z al n
umero
complejo z = a bi. Geometricamente no es sino la reflexion de z respecto
del eje real.

z = a + bi

@
@

@
@
R z = a bi

Algunas propiedades del conjugado son las siguientes:


(1) z + z = 2Re(z).
(2) z z = 2iIm(z).
(3) z z = (Re(z))2 + (Im(z))2 .
(4) z R z = z.
(5) z1 + z2 = z1 + z2 ,

z1 z2 = z1 z2 .

(6) z = z.
(7) (z) =
z.
(8) Si z 6= 0, z 1 = (
z )1 .

Ejemplos. Expresamos en forma binomica


z =
z =
z =

2 + 6i i + 3
5 + 5i
(2 i)(1 + 3i)
=
=
1+i
1+i
1+i
(5 + 2i)
(5 + 2i)(1 i)
5 5i + 2i + 2
7 3
=
=
= i.
(1 + i)
(1 + i)(1 i)
1+1
2 2
3
1i
1
1
1+i
2i
i
=
=
=
=
= .
3
3
2
(1 i)
(1 i)
(1 i)
2i
4
2

M
odulo de un n
umero complejo
Para cada n
umero complejo z = a + bi se llama modulo de z al n
umero
real no negativo definido por
|z| =

q
p

z z = (Re(z))2 + (Im(z))2 = a2 + b2 .

Por ejemplo, |22i| = 8, |1+3i| = 10. Geometricamente, |z| representa


la distancia entre el punto del plano z = (a, b) y el origen de coordenadas
(0, 0), o sea, la longitud del vector del plano asociado a z.

z = a + bi

|z|

Algunas propiedades del modulo son las siguientes:


(1) z z = |z|2 .
(2) |Re(z)| |z|, |Im(z)| |z|.
(3) |z| 0z y |z| = 0 z = 0.
(4) |
z | = |z|.
(5) |z1 z2 | = |z1 ||z2 |,

|z1 + z2 | |z1 | + |z2 |.


10

El modulo define una distancia entre n


umeros complejos. Si z1 , z2 C, entonces |z1 z2 | representa la distancia entre los dos n
umeros.

Forma trigonom
etrica y polar de un n
umero complejo
Para cada n
umero complejo z = a + bi no nulo, se llama argumento
principal de z al u
nico n
umero real [0, 2) tal que
cos() =
sin() =

a
Re(z)

=
|z|
a2 + b2
b
Im(z)

=
.
2
2
|z|
a +b

Este n
umero se suele denotar por = Arg(z). Geometricamente, Arg(z)
representa la medida en radianes del angulo que forma el semieje real positivo
con el vector plano definido por z (seg
un la orientaci
on habitual, el angulo
positivo es el dado por el sentido antihorario).

z = a + bi

|z|

Arg(z)

Se llaman argumentos de z a los angulos


Arg(z) + 2k, para k = . . . , 2, 1, 0, 1, 2, . . ..
Ejemplos
z = 1, Arg(z) = 0,

argumentos 2k, k = . . . , 2, 1, 0, 1, 2, . . .

z = 2 + 2i, Arg(z) = /4,

argumentos /4 + 2k, k Z

z = 2 + 2i, Arg(z) = 3/4,

argumentos 3/4 + 2k, k Z.

Si z = a + bi es no nulo, llamando r = |z| y = Arg(z), se dira que


(a) r es la forma polar o modulo argumental de z.
(b) z = r(cos + i sin ) es la forma trigonometrica de z.
11

Con esta representacion, dos n


umeros complejos r , r0 0 son iguales si r = r0
0
y = 2k para alg
un entero k.
Ejemplos. Pasamos a forma trigonometrica
z = 1 = 1(cos(0) + i sin(0))

z = 2 + 2i = 2 2(cos(/4) + i sin(/4))

z = 1 + 3i = 2(cos(/3) + i sin(/3)).
Dados dos complejos z1 y z2 cuyas formas trigonometricas son zk = rk (cos k +
i sin k ), k = 1, 2, tendremos
z1 .z2 = r1 (cos 1 + i sin 1 ).r2 (cos 2 + i sin 2 )
= r1 r2 (cos 1 cos 2 sin 1 sin 2 + i(cos 1 sin 2 + sin 1 cos 2 ))
= r1 r2 (cos(1 + 2 ) + i sin(1 + 2 )),
de suerte que acabamos de probar que el modulo del producto z1 z2 es el
producto de los modulos de z1 y de z2 . La suma de argumentos de z1 y de
z2 es un argumento de dicho producto.
Esta propiedad da la interpretaci
on geometrica de la multiplicaci
on compleja. Si tomamos en particular un complejo unitario u = (cos + i sin )
deducimos que el producto z.u no es sino el efecto de un giro de angulo
actuando sobre z.
Analogamente, para cocientes podemos formular que el modulo del cociente z2 /z1 , supuesto que z1 6= 0, es el cociente de los modulos de z2 y de
z1 . La diferencia entre el argumento de z2 menos el de z1 es un argumento
de dicho cociente.

0.1.2.

Potenciaci
on, radicaci
on y exponenciaci
on de complejos

Iterando el proceso utilizado en la seccion anterior para hallar el producto


de dos n
umeros complejos, encontramos tambien que si z = r(cos + i sin )
es un n
umero complejo no nulo, la potencia z n (n es un entero cualquiera)
se escribe como
z n = rn (cos n + i sin n).
En particular, tomando r = 1 en la formula anterior se obtiene la Formula
de DeMoivre:
(cos + i sin )n = (cos n + i sin n).

12

El problema de la radicacion es mas delicado. Sea n 1 un entero.


Recordemos primero que todo real positivo r 0 posee exactamente una
1
raz n-esima positiva, que sin riesgo de confusion vamos a denotar por r n .
Dado z 6= 0 de forma polar r , planteamos el problema de obtener todos
los complejos w tales que wn = z. (Se dira que w es una raz n-esima
compleja de z). Si el w buscado tiene forma polar , de consideraciones
anteriores obtendremos que wn , cuya forma polar es nn debe coincidir con
z, cuya forma polar era r , luego n = r y n = + 2k, con k entero. En
resumen, esta unvocamente determinado como
1

= rn,
mientras que para tenemos las expresiones
k =

2
+k ,
n
n

con k entero libre. Cuando vamos dando los valores k = 0, 1, ..., n 1, los
complejos
wk = k , 0 k n 1,
recorren los vertices de un polgono regular de n lados de centro el origen y
que comienza en w0 . Al llegar a k = n caemos de nuevo en w0 , etc ... . Se
comprende pues que solo existen n races n-esimas diferentes, que son las ya
descritas wk , 0 k n 1.
ubicas de z = i. En primer lugar hallaEjemplo 1. Calculamos las races c
mos el modulo de z y su argumento principal. Tenemos |z| = 1, Arg(z) =

/2. Entonces, si w = 3 z se tiene que w3 = z. De aqu obtenemos que


|w|3 = |z| = 1 y 3Arg(w) = Arg(z)+2k con k entero. Las tres races c
ubicas

+
2k
de z quedan determinadas por |w| = 1, Arg(w) = 2
, k = 0, 1, 2. Es
3
decir,

k = 0,
w0 = cos(/6) + i sin(/6) = ( 3 + i)/2

k = 1,
w1 = cos(5/6) + i sin(5/6) = ( 3 + i)/2
k = 2,

w2 = cos(3/2) + i sin(3/2) = i.

Ejemplo 2. Calculamos las races sextas de z = 8. Primero hallamos


el modulo de z y su argumento principal. Tenemos |z| = 8, Arg(z) = .

Entonces, si w = 6 z se tiene que w6 = z. De aqu obtenemos que |w|6 =


|z| = 8 y 6Arg(w) = Arg(z) + 2k con k entero. Las seis races sextas
13

+ 2k
de z quedan determinadas por |w| = 6 8 = 2, Arg(w) =
,k =
6
0, 1, 2, 3, 4, 5. Es decir,


k = 0,
w0 = 2(cos(/6) + i sin(/6)) = 2( 3 + i)/2

k = 1,
w1 = 2(cos(/2) + i sin(/2)) = 2i

k = 2,
w2 = 2(cos(5/6) + i sin(5/6)) = 2( 3 + i)/2


k = 3,
w3 = 2(cos(7/6) + i sin(7/6)) = 2( 3 + i)/2

k = 4,
w4 = 2(cos(3/2) + i sin(3/2)) = i 2


k = 5,
w5 = 2(cos(11/6) + i sin(11/6)) = 2( 3 i)/2.
En la parte de las ecuaciones diferenciales lineales sera muy importante
la exponenciacion compleja. Dado un n
umero complejo z = a + bi, con a, b
z
reales, definiremos la exponencial e como
ez = ea (cos b + i sin b),
esto es,
|ez | = ea > 0,

b argumento de

(ez ).

Se cumplen las propiedades


(a) ez1 +z2 = ez1 .ez2
(b)

(ez )1

(c)

eit ,

ez

(z1 , z2 C),

(z C).

t R, es el complejo de modulo unidad y argumento t.

(d) Todo n
umero complejo z 6= 0 con r = |z|, = Arg(z) puede
expresarse en la forma z = rei .
Ejemplos.

i
1+i 3
z =
= cos(/3) + i sin(/3) = e 3
2
z = 2ei = 2(cos() + i sin()) = 2.

0.2.

Polinomios

Dados un n
umero natural n y los n + 1 n
umeros reales o complejos
a0 , a1 , . . . , an , los llamados coeficientes, se define el polinomio p en la variable
x como la funcion que hace corresponder al valor que tome x el valor
p(x) = a0 + a1 x + a2 x2 + + an xn .
14

Se dice que el grado del polinomio p es n cuando an 6= 0. El polinomio


identicamente nulo 0(x) = 0 carece de grado.
Dos polinomios p(x) = a0 + a1 x + a2 x2 + + an xn , q(x) = b0 + b1 x +
b2 x2 + + bm xm son iguales p = q si tienen el mismo grado n = m
y son identicos los coeficientes de potencias iguales de la indeterminada:
aj = bj , j = 1, . . . , n.

0.2.1.

Operaciones con polinomios

Dados dos polinomios


p(x) = a0 + a1 x + a2 x2 + + an xn ,

q(x) = b0 + b1 x + b2 x2 + + bm xm ,

con n > m, se llama polinomio suma a


p(x) + q(x) = c0 + c1 x + c2 x2 + + cn xn ,
cuyos coeficientes se obtienen sumando los coeficientes respectivos de iguales
potencias de la indeterminada en las expresiones de p y q, es decir
ci = ai + bi ,

i = 0, 1, . . . , n,

donde, para n > m se tiene que suponer que los coeficientes bm+1 , . . . , bn
son iguales a cero.
(1 + 2x) + (3 + x + x2 + x3 ) = 4 + 3x + x2 + x3 .
El grado de la suma sera igual a n si n > m. Para n = m, puede ocurrir que
el grado de la suma sea menor que n, precisamente si bn = an .
Se llama producto de los polinomios p(x), q(x) al polinomio
p(x)q(x) = d0 + d1 x + d2 x2 + + dn+m xn+m ,
cuyos coeficientes se determinan por
di =

aj bk ,

i = 0, 1, . . . , n + m,

j+k=i

es decir, el coeficiente di es el resultado de sumar todos los productos de


aquellos coeficientes de los polinomios p y q, la suma de cuyos ndices es
igual a i.
(1 + 2x)(3 + x + x2 + x3 ) =?.
15

El grado del producto de dos polinomios es igual a la suma de sus grados.


La suma verifica las propiedades conmutativa, asociativa, elemento neutro (0(x) = 0) y elemento opuesto.
El producto verifica las propiedades conmutativa, asociativa, distributiva
respecto de la suma y elemento unidad (p(x) = 1).
Para el producto de polinomios no existe la operacion inversa, la division.
Es decir, el cociente de dos polinomios no siempre es un polinomio. Cuando
el cociente p(x)/q(x) del polinomio p y el polinomio q es otro polinomio, se
dice que q divide a p o que p es un m
ultiplo de q. La division por el polinomio
nulo no esta permitida.
En general, la division de un polinomio p dividendo por un polinomio q
divisor origina un polinomio cociente c(x) y polinomio resto r(x), de modo
que
p(x) = c(x)q(x) + r(x),
donde el grado de r es menor que el de q o bien r es nulo. As, p/q sera un
polinomio cuando r = 0. Por ejemplo,
1 + x 2x2 + x3 = (x + 1)(x2 3x + 2) + (2x 3).
El maximo com
un divisor (m.c.d) de dos polinomios p y q es el divisor
com
un de mayor grado que a la vez es divisible por cualquier otro divisor
com
un. Esta determinado salvo un factor de grado cero. Por ello, se puede
convenir que el coeficiente dominante del m.c.d. de dos polinomios sea siempre igual a la unidad. El algoritmo de Euclides permite obtener el m.c.d de
dos polinomios p y q de modo sencillo:
p(x) = c1 (x)q(x) + r1 (x)
q(x) = c2 (x)r1 (x) + r2 (x)
r1 (x) = c3 (x)r2 (x) + r3 (x)
..
.
. = ..
hasta que el resto sea nulo. El u
ltimo resto no nulo es el m.c.d. de p y q. Por
4
2
ejemplo, el m.c.d. de x 3x + 2 y x4 + x3 x 1 es x2 1.
Se dice que p y q son primos entre s si el m.c.d es el polinomio constante 1.
Por ejemplo, los polinomios 8x3 10x2 x + 3 y 2x3 5x2 x + 6 son primos
entre s.

16

0.2.2.

Races de polinomios

El teorema fundamental del Algebra


afirma que todo polinomio p de
grado n tiene al menos un cero, esto es, la ecuacion p(x) = 0 admite al
menos una solucion, real o compleja.
Teorema 1. Sea p(x) un polinomio y C. Entonces, es un cero de p
(p() = 0) si y solo si p(x) es divisible por x, es decir, existe un polinomio
q tal que p(x) = q(x)(x ).
De este modo, si es un cero de p, se puede factorizar de la forma
p(x) = q(x)(x ),
donde x es un factor lineal y el grado de q es una unidad inferior al
grado de p. Se podra volver a factorizar q y as sucesivamente hasta llegar
a la descomposicion en factores lineales de p:
p(x) = a0 + a1 x + a2 x2 + + an xn = an (x 1 )(x 2 ) (x n ).
Los n ceros obtenidos, repetidos o no, 1 , 2 , . . . , n son ceros del polinomio
p de grado n. Cuando los coeficientes del polinomio p son reales y p posee
un cero complejo = a + bi, entonces tambien el conjugado a bi es un
cero de p. En este caso, se pueden agrupar los dos factores lineales (x (a +
bi))(x (a bi)) en un factor cuadratico x2 + cx + d.
Si 1 , 2 , . . . , k son los ceros distintos del polinomio p dea grado n, con
multiplicidades m1 , m2 , . . . , mk respectivamente, se puede factorizar p de la
forma
p(x) = a0 + a1 x + a2 x2 + + an xn = an (x 1 )m1 (x 2 )m2 (x k )mk .
Se puede probar que si es un cero de p de multiplicidad m > 1, tambien
es un cero de las derivadas de p hasta el orden de derivaci
on m 1.
La regla de Ruffini se puede utilizar para evaluar un polinomio p en un
n
umero o para hallar el cociente y el resto de la division de un polinomio
p(x) y un factor lineal x .
Ejemplo. Division de p(x) = 5x4 + 10x3 + x 1 por x + 2. Aqu se tiene
= 2:
5 10 0 1 -1
-10 0 0 -2
-2 5
0
0 1 -3
El cociente de la division de p(x) por x + 2 es 5x3 + 1 y el resto 3,
precisamente el valor de p(2). Se tiene p(x) = (5x3 + 1)(x + 2) 3.
17

0.3.

N
umeros combinatorios

Se recuerda que el factorial del n


umero natural n es el producto de los
n
umeros naturales de 1 hasta n:
n! = 1 2 3 n.
Por convenio 0! = 1.

0.3.1.

Permutaciones

Sea n 1 entero. Se llama permutaci


on de orden n a toda biyecci
on
: {1, 2, . . . , n} {1, 2, . . . , n},
que tambien se suele denotar por

1
2
3

n
(1) (2) (3) (n)

Por ejemplo,

1
3

2 3
2 1

es una permutacion de tres elementos.


El n
umero de permutaciones de orden n es n!. El conjunto de tales permutaciones se denota por Sn .
Sea Sn . Tomemos dos ndices k y l con 1 k < l n. Se dira que
forman una inversion para si (k) > (l). Por ejemplo, en la permutaci
on
de orden tres anterior, 1 y 2 forman una inversi
on para , al igual que 1 y
3 o 2 y 3.
Sea inv() el n
umero total de inversiones de . La paridad de la permutaci
on
se define como
() = (1)inv() ,
que solo puede tomar los valores 1 o 1. En nuestro ejemplo anterior, () =
1.
Una trasposicion es una permutaci
on Sn tal que (i) = i, 1 i n
excepto para dos ndices , , 1 < n sobre los que
() = , () = .
Se puede demostrar que si Sn es una trasposicion, entonces ( ) = 1.
Nuestro ejemplo anterior es una trasposicion, pero no lo es por ejemplo

1
2

2 3
3 1
18

0.3.2.

N
umeros combinatorios

Sean n, k 0 enteros con n k. Se define el n


umero combinatorio n
sobre k como

n
k

n!
.
k!(n k)!

Algunas propiedades de los n


umeros combinatorios son

n
0
n
1

= 1,

n
n

= 1.

= n.

n
nk
n+1
k

n
.
k
n
k

n
.
k1

La u
ltima propiedad permite obtener los n
umeros combinatorios de forma
recursiva, dando origen al llamado triangulo de Pascal o de Tartaglia:
n
0
1
2
3
4
5
1

1
1
1

1
2

1
1
4
5

1
3

6
10

4
10

1
5

Los n
umeros combinatorios aparecen como coeficientes del llamado binomio
de Newton: si a, b C y n 0 es un entero

(a + b)n =
=

n
0

an +

n
X
n
k=0

n
1

an1 b +

n
2

an2 b2 + +

ank bk .

As, por ejemplo


2n = (1 + 1)n =

n
X
n
k=0

19

n
n

bn

EJERCICIOS
Ejercicio 1. Expresa en forma binomica los siguientes n
umeros complejos:
z=

(3 + i)(1 2i)
,
2+i

w=

1 + i3
,
(1 i)3

z=

1+i
.
(3 i)2

Ejercicio 2. Representa en el plano XY los siguientes n


umeros complejos:
3 + 2i,

1 + 3,5i,

3 + 2i
,
1i

4i 2
,
3+i

4 2i,
5i
,
7+i

5 4i,

3i,

3i,

1 + i,
4ei/4 ,

1 i,
2e3i/2 ,

1 + i,
1 i/2
e
,
4

1 i,
ei7/4 .

Ejercicio 3. Determina los valores reales de x y y que satisfacen


a) x + iy = |x + iy|, b) x + iy = (x + iy)2 .
Ejercicio 4. Describe geometricamente el conjunto de n
umeros complejos
que satisfacen las relaciones siguientes:
a) |z| = 1,

b) |z| 1,

e) z + z = 1,

c) |z| > 1,

f) z z = 1,

d) z + z = |z|,

g) z + z = i.

Ejercicio 5. Que lugares geometricos del plano estan representados por


las siguientes ecuaciones y desigualdades?
a) |z 1| = 1, b) Re(z 2 ) = 1, c) 0 arg(1/z) /2.
Ejercicio 6. (i) Representa en forma polar y en forma trigonometrica los
siguientes n
umeros complejos
a) z = 2 + 2i,

b) z = i,

d) z = 2 + 3i,

c) z = 1,

e) z = 1 + i,

f) z = 4 2i.

(ii) Representa en forma binomica los siguientes n


umeros complejos
a) z = 3e2i ,

b) z = e(/2)i ,

d) z = 12 e(/6)i ,

c) z = 4e(3/4)i ,

e) z = 2e(/7)i .

Ejercicio 7. a) Escribe en terminos de exponenciales complejas las siguientes expresiones:


cos + sin ,

1
3
cos 2 sin 2,
2
5
20

1
1
cos sin 3.
3
4

b) Escribe en terminos de senos y cosenos las siguientes expresiones:


3
1
4 + ei e2i ,
2
4

ei + e3+i + 2e2i ,

e3i + e3i ,

e3i e3i .

Ejercicio 8. Calcula todos los valores de las siguientes races de n


umeros
complejos:

a) 8 1, b) 3 2 + 2i, c) 5 4 + 3i, d) 3 i, e) 1 i.
Ejercicio 9. Prueba que las races n-esimas de 1 (tambien llamadas de la
unidad) vienen dadas por , 2 , . . . , n , donde = e2i/n . Prueba que las
races distintas de 1 son tambien del n-esimo polinomio ciclotomico
1 + x + x2 + + xn1 .
Ejercicio 10. Expresa en funcion de cos() y sin():
a) cos(5),

b) cos(8),

c) cos(6),

d) sin(7).

Ejercicio 11. Representa en forma de polinomio de primer grado en las


funciones trigonometricas de los angulos m
ultiplos de :
a) sin3 ,

b) cos5 ,

c) sin2 ,

d) cos2 .

Bibliografa recomendada:
Burgos, J. de, Calculo infinitesimal de una variable, Mc Graw-Hill, Ap. 1.
Spivak M. Calculus, Calculo Infinitesimal. Ed. Reverte. Cap 24.

21

BLOQUE 1: RESOLUCION DE
SISTEMAS LINEALES
Este primer bloque se dedica a la discusion y en su caso resolucion de un
sistema lineal de ecuaciones, que es nuestro primer problema a resolver. El
primer tema aborda el problema desde el punto de vista matricial mientras
que el segundo utiliza un enfoque mas formal usando la teora de espacios
vectoriales. Ambos conceptos, el de matriz y el de espacio vectorial, seran
aprovechados en los siguientes bloques.

22

Tema 1

Eliminaci
on gaussiana.
Matrices y determinantes
Ejemplo introductorio. Un ejemplo tpico de sistemas lineales es el que
viene a continuacion. Consideremos el siguiente grafico,
300
200
100
?

500

x1

?x3

400

x2

6x4

x6
?

350

600

23

600

?x5

x7
6

F
?

400

450

que representa cinco calles de una ciudad con sus cruces correspondientes.
Las flechas indican el sentido en que el trafico se mueve en cada calle (las
calles tienen sentido u
nico) y en el grafico se se
nala el flujo de trafico que entra en cada calle y que sale de ella. Ya que el trafico vara considerablemente
durante el da, se puede suponer que los n
umeros mostrados representan el
trafico promedio a las horas punta. Denotamos por x1 hasta x7 el flujo de
coches entre los cruces, se
nalados por las letras A hasta F. Para que no se
generen atascos, el flujo que entra en cada cruce debe ser igual al que sale.
El problema es determinar si, con los datos que se dan, es posible mantener
el trafico sin atascos. La cuestion puede completarse preguntando, por ejemplo, si es posible cortar un trozo de calle, digamos entre E y F, para realizar
obras, de manera que la circulacion siga siendo normal.
En este primer tema se analiza un metodo practico de discusion y en su
caso resolucion de un sistema lineal de m ecuaciones y n inc
ognitas, que es
un conjunto de expresiones de la forma
a11 x1 + a12 x2 + + a1n xn

b1

a21 x1 + a22 x2 + + a2n xn

b2


am1 x1 + am2 x2 + + amn xn

(1.1)

bm ,

para m, n > 1. Aqu los datos conocidos son los n


umeros aij , 1 i m, 1
j n o coeficientes del sistema y los n
umeros bi , 1 i m o terminos
independientes. El problema consiste en determinar si hay valores para las
incognitas x1 , . . . , xn que satisfagan las m ecuaciones de (1.1) y, en su caso,
obtenerlos. Tales valores constituyen las soluciones del sistema.
El sistema (1.1) se dice que es compatible si tiene alguna solucion. Cuando no tiene soluciones, se dice que es incompatible. Por otro lado, un sistema compatible o tiene una u
nica solucion, en cuyo caso el sistema se llama
determinado, o tiene infinitas, en cuyo caso el sistema se dice que es indeterminado.

1.1.

Algebra de matrices

Una de las formas de tratar el problema es el llamado metodo de eliminacion gaussiana. Mas adelante veremos la sntesis del metodo y su analisis.
Ahora introducimos una notacion matricial que nos sera u
til tanto en este como en temas posteriores. Los coeficientes del sistema (1.1) se suelen disponer

24

en lo que se llama una matriz rectangular de m filas y n columnas

a11
a21
A=

am1

a12
a22

am2

a1n
a2n
= (aij )

amn

(1.2)

de forma que el valor de aij se sit


ua en la intersecci
on de la fila iesima con
la columna jesima. El conjunto de todas las matrices m n se denota por
Mm,n (R) o Mm,n (C), dependiendo de si sus elementos son n
umeros reales
o complejos. En el caso de que el n
umero de filas y de columnas coincidan
(m = n) se dice que la matriz es cuadrada. Casos particulares de matrices
son las matrices fila (m = 1), las matrices columna (n = 1), la matriz
identidad In = In,n , etc.

1.1.1.

Operaciones con matrices

Para un uso posterior necesitamos dotar de una cierta estructura a este


conjunto de matrices Mm,n (K) donde K = R o C, es decir, describir maneras
de operar sobre ellas.
Las matrices del mismo orden se suman elemento a elemento, produciendo otra matriz del orden en cuestion:

a11 a12 a1n


b11 b12 b1n
a21 a22 a2n b21 b22 b2n



am1 am2 amn
bm1 bm2 bmn

a11 + b11
a12 + b12 a1n + b1n
a21 + b21
a22 + b22 a2n + b2n
.
=

am1 + bm1 am2 + bm2 amn + bmn


Naturalmente, para poder sumar, las matrices han de tener el mismo tama
no
m n. Las propiedades de esta operacion son:
(a) Asociativa: A, B, C Mm,n (K) (A + B) + C = A + (B + C).
(b) Conmutativa: A + B = B + A.
(c) Elemento neutro: la matriz del orden correspondiente cuyos elementos
son todos nulos.
(d) Elemento opuesto: cada matriz posee su opuesta, que es la matriz obtenida al tomar opuestos en todos los elementos.

25

Tambien se puede multiplicar una matriz A Mm,n (K) por un n


umero
real o complejo K, sin mas que multiplicar por cada elemento de A:

a11
a21
A =

am1

a12
a22

am2

a1n
a11

a2n a21
=

amn
am1

a12
a22

am2

a1n
a2n
.


amn

Las propiedades de esta operacion son las siguientes:


(a) Distributiva: ( + )A = A + A, , K, A Mm,n (K).
(b) Distributiva: (A + B) = A + B
(c) Asociativa: ()A = (A).
(d) Si A es la matriz nula, entonces o bien = 0 o bien A es la matriz
nula.
Finalmente hay otras dos operaciones sobre matrices que utilizaremos
a lo largo del curso. En primer lugar, esta la trasposicion de matrices. La
matriz traspuesta de una dada A = (aij ) Mm,n (K) es la matriz que se
obtiene intercambiando filas por columnas. Se denota por AT Mn,m (K) y
su elemento (i, j) es aji . Por ejemplo:

A= 3
5

2
1 3
T

4 A =
2 4
6

5
6

Naturalmente, se tiene que (AT )T = A y (A + B)T = AT + B T .


La otra operacion es la multiplicaci
on de matrices. Entendamos primero
como se emparejan una matriz fila X = (x1 , x2 , . . . , xn ) con una matriz
columna Y = (y1 , y2 , . . . , yn )T , ambas con el mismo n
umero de elementos.
El producto es un n
umero, dado por
XY = x1 y1 + x2 y2 + + xn yn .
Desde este punto de vista, no pueden multiplicarse matrices de cualquier
tama
no. Para que un producto AB tenga sentido, el n
umero de columnas de
A ha de ser igual al n
umero de filas de B. En ese caso, la matriz producto
C = AB tiene tantas filas como A y tantas columnas como B. La expresion
generica de la matriz producto es la siguiente: si A = (aij ) Mm,n (K) y
B = (bjk ) Mn,p (K) entonces C = AB = (cik ) Mm,p (K) donde
cik = ai1 b1k + ai2 b2k + + ain bnk =

n
X
j=1

26

aij bjk .

Es decir, cik es el producto de la fila iesima de A por la columna kesima


de B. Algunos ejemplos pueden aclarar esta idea:
Ejemplos.

(1

3 2
2 1
2
1 1
0 2
1
2 0 3 4
2

1
1

2)
2 = 3
3

1 1

16
5
4
4 0
= 6
9 3 .
1 0
19 13 6
2 1

Propiedades destacables del producto son las siguientes:


(a) Asociativa: A(BC) = (AB)C.
(b) Distributiva respecto de la suma: A(B + C) = AB + AC.
(c) Matrices cuadradas y elemento unidad; inversas: las matrices cuadradas
de un orden determinado tienen un elemento unidad para el producto, que
es la matriz identidad de tal orden. Sin embargo, hay matrices cuadradas
que son diferentes de la matriz no nula y carecen de inversa para el producto.
La nocion de matriz inversa sera tratada mas adelante.
(d) El producto de matrices no es conmutativo: en general AB 6= BA.
(e) Trasposicion y producto: (AB)T = B T AT .
Finalmente, notemos que el sistema (1.1) puede escribirse en formulaci
on
matricial como
A~x = ~b,

(1.3)

donde ~x = (x1 , x2 , . . . , xn )T y ~b = (b1 , b2 , . . . , bn )T .

1.2.

Resoluci
on por eliminaci
on gaussiana

Vamos a presentar la metodologa del proceso a traves de varios ejemplos


y despues justificaremos los pasos mas formalmente.
Ejemplo 1. Discute y en su caso resuelve el sistema
x + 2y + z = 1
2x + y + 3z = 0
4x y 3z = 3
27

(1.4)

El metodo consiste en pasar de este sistema a otro equivalente mas sencillo a


traves de un proceso de eliminacion de incognitas. A tal efecto, eliminamos
la incognita x de las ecuaciones segunda y tercera. Para ello, restamos a la
segunda ecuacion dos veces la primera y a la tercera cuatro veces la primera.
Obtenemos
x + 2y + z = 1
3y + z = 2
9y 7z = 1.
Ahora, eliminamos la incognita y de la tercera ecuacion, restando a esta tres
veces la segunda. El resultado es
x + 2y + z = 1
3y + z = 2

(1.5)

10z = 5.
Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera variable (x) solo aparece en la primera ecuacion, la
segunda (y) solo en las dos primeras ecuaciones y la u
ltima variable (z) en
todas las ecuaciones. Parece claro que los sistemas (1.4) y (1.5) son equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen
soluciones, son las mismas. Esto se debe a que el sistema (1.5) se obtiene de
(1.4) simplemente operando con sus ecuaciones.
Ahora bien, el sistema (1.5) puede discutirse sin aparente problema, y resolverse despejando las incognitas desde la u
ltima ecuacion hasta la primera.
Este proceso se llama sustitucion regresiva. As, la u
ltima ecuacion dice que
z = 5/10 = 1/2.
Llevando este valor a la segunda ecuacion, obtenemos
y=

2 z
= 1/2,
3

y sustituyendo en la primera ecuacion, se tiene


x = 1 2y z = 1/2.
Esto significa que el sistema (1.4) es compatible (tiene solucion) y determinado (la solucion es u
nica). La solucion es x = 1/2, y = 1/2, z = 1/2.
28

Notas
(1) Es importante indicar que cuando se elimina una variable, se comparan
las ecuaciones con una que queda fija mientras se este eliminando esa variable. Cuando se cambia de incognita a eliminar, tambien cambiamos de
ecuacion con la que comparar. As, en el ejemplo anterior, eliminar x implica
cambiar las ecuaciones segunda y tercera comparandolas con la primera, que
queda fija. Una vez eliminada x, nos olvidamos de la primera ecuacion; para
eliminar y cambiamos la tercera ecuacion comparandola con la segunda, que
es ahora la que queda fija. Este proceso es general: siempre se hace lo mismo
independientemente del n
umero de ecuaciones y de incognitas que tengamos:
1. Eliminar la primera incognita de todas las ecuaciones salvo la primera,
comparando aquellas con esta, que queda fija.
2. Eliminar la segunda incognita de todas las ecuaciones salvo las dos
primeras, comparando todas las ecuaciones desde la tercera con la
segunda, que queda fija.
3. Repetir el proceso hasta la pen
ultima incognita, que se elimina de la
u
ltima ecuacion, comparando esta con la pen
ultima, que queda fija.
(2) El n
umero por el que hay que multiplicar a la ecuacion fijada para eliminar la incognita depende de los coeficientes que tenga esta en las ecuaciones.
Por ejemplo, para eliminar y en la tercera ecuacion, hemos restado a esta
(9)/(3) veces la segunda ecuacion, que es lo necesario para hacer cero la
posicion de 9y: 9y (9/ 3)(3y) = 0.
(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier
sistema de ecuaciones (vease la hoja de ejercicios).
(4) El sistema final del proceso siempre ha de quedar de tipo escalonado,
en el sentido de que si hay solucion, se puedan ir despejando los valores de
las incognitas desde abajo hacia arriba , en el proceso que hemos llamado
sustitucion regresiva.
Ejemplo 2. Discute y en su caso resuelve el sistema
x y + 2z = 1
2x + y = 3
x + 2y 2z = 0
Repetimos el proceso del ejemplo 1. La eliminacion de la incognita x lleva
al sistema
x y + 2z = 1
29

3y 4z = 1
3y 4z = 1,
la eliminacion de la incognita y nos lleva a
x y + 2z = 1
3y 4z = 1
0 = 2,
Este es el sistema final. Notemos que la u
ltima ecuacion no puede darse.
Este sistema no puede tener solucion pues la u
ltima ecuacion nunca puede
cumplirse. As, el sistema final, y por tanto el original, es incompatible, no
tiene solucion.
Ejemplo 3. Discute y en su caso resuelve el sistema
3y + 14z = 4
2x + 2y 3z = 5
4x + 2y 2z = 10.
Nuestro problema aqu esta en que aparentemente no podemos empezar el
proceso, pues la incognita x no aparece en la primera ecuacion y s en las
demas. Esto se resuelve cambiando de posicion dos ecuaciones, por ejemplo
las dos primeras (esto se llama pivotaje),
2x + 2y 3z = 5
3y + 14z = 4
4x + 2y 2z = 10.
Ahora s podemos empezar. Eliminando x de la u
ltima ecuacion (en la segunda ya no aparece, por lo que no hay que tocar la segunda ecuacion)
2x + 2y 3z = 5
3y + 14z = 4
2y + 4z = 0,
y eliminando la incognita y de la u
ltima ecuacion, comparando con la segunda, tenemos
2x + 2y 3z = 5
3y + 14z = 4
16
8
z =
,
3
3
30

de donde el sistema es compatible y determinado, con solucion x = 9/4, y =


1, z = 1/2.
Ejemplo 4. Discute y en su caso resuelve el sistema
x + 2y + z = 0
3x z = 2
x y z = 1.
El proceso (compruebese como ejercicio) lleva al sistema final
x + 2y + z = 0
6y 4z = 2
0 = 0.
La u
ltima ecuacion desaparece. Esto significa que no podemos despejar la
incognita z de ella. A pesar de esto, el sistema final no da ning
uin tipo
de incompatibilidad, lo u
nico que ocurre es que la variable z puede tomar
cualquier valor. El sistema es compatible e indeterminado, es decir, tiene
infinitas soluciones. Estas dependen del valor arbitrario de z. Para cada
valor de z tenemos una solucion, obtenida del sistema
x + 2y = z
6y = 2 + 4z,
es decir, y = (1 + 2z)/3, x = (1 z)/3. El conjunto de soluciones es de
la forma x = (1 z)/3, y = (1 + 2z)/3, con z arbitrario. As pues, la
aparicion de una ecuacion trivial en el sistema final significa que la variable
afectada toma cualquier valor, es lo que se llama una variable libre. Hay
tantas variables libres como ecuaciones triviales aparezcan en el sistema
final. El sistema es indeterminado (tiene infinitas soluciones, una por cada
valor de z) y las soluciones se obtienen despejando el resto de las variables,
llamadas basicas, en funcion de las libres.

1.3.

Interpretaci
on matricial de la eliminaci
on gaussiana

Pasamos ahora a dar la interpretaci


on matricial del proceso de eliminacion de incognitas, lo que permitira justificar los pasos dados en los ejemplos anteriores.
31

1.3.1.

Operaciones elementales

La base del metodo de eliminacion gaussiana descansa sobre la idea de


operacion elemental. Se llama operacion elemental sobre las filas de una
matriz a aquella transformacion de la misma que consiste en llevar a cabo
una de las tres manipulaciones siguientes:
(1) Permutar dos filas entre s.
(2) Multiplicar todos los elementos de una fila por un mismo n
umero no
nulo.
(3) Sumar a una fila otra paralela.
Se sobreentiende que las filas no afectadas por los ndices que definen la
operacion elemental permanecen inalteradas. Fijemonos en que todos los
pasos de la eliminacion gaussiana que hemos dado en los ejemplos anteriores involucran alguno o varios de los tres tipos de operaciones elementales,
con ecuaciones en lugar de filas (ya veremos que actuar sobre las ecuaciones
equivale a actuar sobre las filas de la matriz del sistema y del termino independiente).
En terminos matriciales, la accion de una operacion elemental sobre una
matriz A equivale a multiplicar por la izquierda la matriz A por una matriz E
apropiada asociada a la operacion. Si A Mm,n (K), la matriz E Mm,m (K)
y tiene un aspecto distinto dependiendo de la operacion elemental:
(1) Si la operacion consiste en permutar las filas r y s (r 6= s), entonces E
se obtiene de Im permutando las filas r y s de esta. De este modo, EA es
una matriz que se obtiene de A permutando sus filas r y s. Por ejemplo

3 2
0
A = 4 5,E = 0
6 7
1

0 1
6 7
1 0 EA = 4 5 .
0 0
3 2

(2) Si la operacion consiste en multiplicar la fila r por un n


umero 6= 0,
entonces E se obtiene de la identidad Im sustituyendo el 1 de la posicion
(r, r) por . As, EA es una matriz que se obtiene de A multiplicando por
su fila r. Por ejemplo

A=

2
1

5 8
0 1

,E =

1 0
0 4

32

EA =

2 5 8
4 0 4

(3) Si la operacion consiste en sumar a la fila r la fila s (r 6= s) entonces E


se obtiene de Im incorporando a esta un 1 en la posicion (r, s). As, EA es
una matriz que se obtiene de A sumando a su fila r la fila s. Por ejemplo

2
1
1
1 0
A= 4
5
0 ,E = 0 1
2 1 1
1 0

0
2 1
0 EA = 4 5
1
0 0

1
0.
0

Por su interes para la eliminacion gaussiana, destacamos la matriz asociada a la combinacion de operaciones elementales que consiste en sumar a
la fila r la fila s (r 6= s) multiplicada por un n
umero 6= 0. La matriz E
se obtiene de la identidad Im incorporando a esta el valor en la posicion
(r, s). Por ejemplo,

2 1

A= 4 5
2 1

1.3.2.

1
1 0 1
0 0

0 ,E = 0 1 0
EA = 4 5
1
0 0 1
2 1

0
0.
1

Sistemas escalonados

Pasamos ahora a una explicacion mas rigurosa del metodo de eliminacion


gaussiana, utilizando una interpretaci
on matricial. Ya hemos visto que el
sistema (1.1) puede escribirse en la forma matricial (1.3) A~x = ~b, donde la
matriz m n

a11
a21

A=

am1

a12
a22

am2

a1n
a2n


amn

se llama matriz de coeficientes de (1.1). El vector columna ~b = (b1 , b2 , . . . , bm )T


es la matriz de los terminos independientes de (1.1). Las incognitas estan
dispuestas en un vector columna ~x = (x1 , x2 , . . . , xn )T .
La discusion y posible resolucion del sistema (1.1) parte justamente del
final del proceso, es decir, de la discusion de los sistemas finales como los
que hemos obtenido en los ejemplos, llamados sistemas con forma escalonada
superior. Estos sistemas U~x = ~c tienen una matriz de coeficientes U llamada
matriz con forma escalonada superior, que se caracteriza por las siguientes
propiedades:
33

(a) Las primeras filas de U corresponden a filas no identicamente nulas. El


primer elemento no nulo de cada una de estas filas se llama pivote.
(b) Debajo de cada pivote hay una columna de ceros.
(c) Cada pivote esta a la derecha del pivote de la fila anterior.
Para sistemas lineales U~x = ~c con matriz de coeficientes U en forma
escalonada superior se verifica:
(1) El sistema es compatible si y solo si filas nulas de U corresponden a
componentes nulas del termino independiente c (recuerdense los ejemplos 2 y 4).
(2) El sistema es determinado si hay tantos pivotes como incognitas, en
cuyo caso se resuelve por sustitucion regresiva.
(3) El sistema es indeterminado si hay menos pivotes que incognitas (ejemplo 4). En ese caso, la solucion general se obtiene por ejemplo dando
valores arbitrarios a las incognitas asociadas a columnas sin pivote
(variables libres) y hallando el valor de cada una de las incognitas
asociadas a columnas con pivote (variables basicas) resolviendo por
sustitucion regresiva el sistema triangular superior que se obtiene al
pasar al termino independiente la contribuci
on de las variables libres
(recuerdese el ejemplo 4).

1.3.3.

Sistema general

Consideremos ahora el sistema lineal (1.1) general y definamos su matriz


ampliada, incorporando a la matriz A del sistema el termino independiente
~b como u
ltima columna,
A0 = [A|~b] Mm,n+1 (K)
Se dice que dos sistemas lineales con el mismo n
umero de incognitas son
equivalentes si, o bien son ambos incompatibles o bien son ambos compatibles y comparten las mismas soluciones.
El primer resultado que enunciamos esta demostrado en, por ejemplo el
libro de J. de Burgos:
Teorema 1. Los sistemas lineales que se obtienen a partir de un sistema
lineal dado mediante operaciones elementales sobre las filas de la matriz
ampliada sosn equivalentes al sistema lineal de partida.
As, desde el punto de vista matricial, la eliminacion gaussiana consiste
en aplicar operaciones elementales a las filas de la matriz ampliada A0 hasta
34

llevar el sistema (1.1) a otro equivalente con matriz en forma escalonada


superior. La equivalencia entre los sistemas establecida por el Teorema 1
permite que discutir y en su caso resolver el sistema (1.1) sea equivalente
a discutir y en su caso resolver el sistema escalonado obtenido. Por otra
parte, las operaciones elementales involucradas son del tipo: sumar a una fila
(ecuacion) otra multiplicada por un n
umero y probablemente intercambiar
la posicion de dos filas (ecuaciones).
Teorema 2. Dado el sistema (1.1) con matriz ampliada A0 , existe una secuencia de operaciones elementales por filas sobre A0 que llevan el sistema
(1.1) a otro equivalente con forma escalonada superior.
As pues, los pasos para discutir y resolver un sistema por eliminacion
gaussiana son los siguientes:
1. Utilizar las operaciones elementales indicadas sobre la matriz ampliada
del sistema para llevar este a uno equivalente con forma escalonada
superior, haciendo ceros por debajo de los pivotes de cada fila.
2. Discutir el sistema escalonado resultante, segun lo indicado en la subseccion 1.3.2. En caso de que el sistema sea compatible determinado, resolver por sustitucion regresiva. Si el sistema es indeterminado,
trasladar la contribuci
on de las variables libres al segundo miembro y
resolver en las variables basicas tambien por eliminacion gaussiana.
Ejemplo. Discute y resuelve en su caso el sistema
x1 + 2x2 x3 + x4 2x5 = 1
2x1 2x2 + x3 x4 + x5 = 1
4x1 10x2 + 5x3 5x4 + 7x5 = 1
2x1 14x2 + 7x3 7x4 + 11x5 = 1
La matriz ampliada es

1
2
1 1 2 | 1

2
2
1 1 1 | 1
.
A0 =
4 10
5 5 7 | 1
2 14 7 7 11 | 1
Buscamos primero la forma escalonada superior equivalente. El pivote de la
primera fila es el 1 de la posicion (1, 1). Para conseguir la forma escalonada
35

superior, tenemos que hacer ceros en todos los elementos de la primera


columna por debajo del pivote. Para ello, restamos a la fila segunda la
primera multiplicada por dos (esta es una combinaci
on de operaciones elementales) a la fila tercera la primera multiplicada por cuatro y a la fila
cuarta la primera multiplicada por dos. Observemos que en este primer paso la fila del pivote, la primera, queda fija. El hecho de que la fila pivotal
quede fija se repite en todo el proceso. Nos queda un sistema equivalente
con matriz ampliada

1
2
0 6

0 18
0 18

1 1 2 |
3 3 5 |
9 9 15 |
9 9 15 |

1
1
.
3
3

Cambiamos ahora de fila pivotal. El pivote de la segunda fila es el 6 de


la posicion (2, 2). Para llegar a la forma escalonada superior, hay que hacer
ceros en la columna del pivote por debajo de el, es decir, en las posiciones
(3, 2) y (4, 2), comparando las filas tercera y cuarta con la del pivote, es
decir, la segunda. Se necesita entonces restar a la fila tercera la segunda
multiplicada por tres y a la cuarta la segunda multiplicada por tres. El
resultado es un sistema equivalente con matriz ampliada

1 2 1 1 2 | 1
0 6
3 3 5 | 1
.
[U |~c] =
0
0
0
0
0 | 0
0 0
0
0
0 | 0
Las siguientes filas son identicamente nulas, ya no tenemos pivotes. Hemos
alcanzado la forma escalonada superior equivalente, que corresponde al sistema
x1 + 2x2 x3 + x4 2x5 = 1
6x2 + 3x3 3x4 + 5x5 = 1
Fijemonos en que como filas nulas de U (tercera y cuarta) corresponden
a componentes nulas del termino independiente, el sistema es compatible.
Puesto que solo hay dos columnas con pivote (primera y segunda) el sistema
es indeterminado y las variables libres son x3 , x4 y x5 . Pasando al termino
independiente su contribuci
on, el sistema escalonado se escribe
x1 + 2x2 = 1 + x3 x4 + 2x5
6x2 = 1 3x3 + 3x4 5x5 .
36

Para valores arbitrarios de x3 , x4 y x5 , las soluciones del sistema original son


de la forma x2 = (1 + 3x3 3x4 + 5x5 )/6, x1 = (2 + x5 )/3.
Ejercicio: repite los ejemplos 1,2,3 y 4 con la correspondiente matriz
ampliada.

1.4.

Matriz inversa. M
etodo de Gauss-Jordan

Al comentar el producto de matrices, ya hemos visto que no toda matriz posee matriz inversa. Dada A Mn,n (K) se dice que otra matriz
B Mn,n (K) es inversa de A si BA = AB = In . Se denota por B = A1 .
Cuando una matriz A admite inversa, se dice que es regular o no singular.
Si A no admite inversa, se dice que es singular.
IMPORTANTE: Solo las matrices cuadradas pueden tener inversa.
La inversa de una matriz es u
til en muchas circunstancias. Por ejemplo,
en nuestro contexto, si suponemos que el sistema A~x = ~b con A Mn,n (K),
es tal que A tiene inversa, entonces el sistema tiene solucion u
nica, pues
multiplicando a ambos miembros del sistema por la inversa, se tiene
A1 A~x = A1~b x = A1~b,
de modo que la matriz inversa determina el valor de la solucion del sistema.
En esta seccion analizaremos como utilizar las operaciones elementales
para determinar si una matriz cuadrada tiene inversa y en su caso calcularla.
El metodo se llama de Gauss-Jordan y tiene relacion con la eliminacion
gaussiana. Primero una serie de propiedades basicas.
Propiedades
1. La inversa de una matriz, si existe, es u
nica.
2. Si A Mn,n (K) tiene inversa, ella es la inversa de su inversa, es decir,
(A1 )1 = A.
3. Si A, B Mn,n (K) tienen inversa, entonces AB tiene inversa, dada por
(AB)1 = B 1 A1 .
4. Si A Mn,n (K) tiene inversa, entonces su traspuesta AT Mn,n (K)
tambien tiene inversa, dada por (AT )1 = (A1 )T .
5. Toda matriz E Mn,n (K) asociada a una operacion elemental posee
inversa. En efecto,
Si se trata de permutar dos filas, E es su propia inversa.

37

Si se trata de multiplicar una fila dada por 6= 0, entonces la inversa


de E es la matriz asociada con la multiplicaci
on de la misma fila por
1/.
Si se trata de sumar a la fila r la fila s (r 6= s), la inversa es F EF , donde
F es la matriz asociada con la operacion elemental: multiplicaci
on de
la fila s por (1).
Por ejemplo:

0
E = 0
1

1
E = 0
0

1
E = 0
0

0
1
0
0
2
0
0
1
0

1
0 E 1 = E,
0

1 0 0
0
0 E 1 = 0 1/2 0 ,
0 0 1
1

1
1 0 0
1
0 E 1 = 0 1 0 0
1
0 0 1
0

0
1
0

1
1 0 0
00 1 0 .
1
0 0 1

El metodo de Gauss-Jordan para calcular la inversa de una matriz se basa


en los siguientes resultados:
Teorema 3. Sea A Mn,n (K). Entonces:
(1) Si existe una secuencia finita de operaciones elementales por filas que
llevan A a la matriz identidad,
Ep Ep1 E1 A = In ,
entonces A es invertible y A1 = Ep Ep1 E1 .
(2) Recprocamente, si A tiene inversa, es posible reducirla a la matriz
identidad por medio de una secuencia finita de operaciones elementales
por filas.
Este resultado proporciona la clave del metodo de Gauss-Jordan. La
inversa A1 de una matriz invertible A se puede hallar del siguiente modo:
se realizan adecuadas operaciones elementales por filas en A y las mismas
operaciones en la matriz identidad, hasta conseguir que A se transforme
en la identidad; en ese momento, la transformada de la identidad es A1 .
Espero que un ejemplo aclare el parrafo.
38

Ejemplo. Calcula la matriz inversa de

1
A = 2
3

3 2
4 0
5 1

Junto a la matriz A escribimos la matriz identidad del mismo tama


no,

1 3 2 1 0 0
2 4
0 0 1 0
3 5 1 0 0 1
Realizamos operaciones elementales que llevan A a la matriz identidad.
Hemos de repetir las mismas operaciones elementales sobre las filas de la
matriz identidad. Las operaciones por filas suelen hacerse por orden, siguiendo el de la eliminacion gaussiana. As, en nuestro ejemplo, hacemos ceros
por debajo del primer pivote, el 1 de la posicion (1, 1), restando a la fila
segunda la primera multiplicada por dos y a la fila tercera la primera multiplicada por tres. Si hacemos esas mismas operaciones en la identidad, nos
queda

1 3 2 1 0 0
0 2
4 2 1 0
0 4 5 3 0 1
Pasando al segundo pivote, restamos a la fila tercera la segunda multiplicada
por dos,

1 3 2 1
0 0
0 2
4 2 1 0
0 0 3 1 2 1
Para la parte de la matriz A, nos acercamos a la identidad. Ya tenemos
ceros en el triangulo inferior. Nos queda hacer unos en las posiciones de la
diagonal y ceros en el triangulo superior. Para lo primero, multiplicamos por
1/2 la segunda fila y por 1/3 la tercera. Si esto lo hacemos tambien a la
derecha, nos queda,

1
0
0

3 2
1
0
0
1 2
1
1/2
0
0 1 1/3 2/3 1/3

Para la segunda tarea, hacemos lo mismo que para el triangulo inferior pero
desde abajo hacia arriba, empezando por el tercer pivote. As, hacemos ceros
39

en su columna por encima del tercer pivote, restando a la fila segunda la


tercera multiplicada por 2 y a la fila primera la tercera multiplicada por
2. As,

1 3
0 1
0 0

0 1/3 4/3 2/3


0 1/3 5/6 2/3
1 1/3 2/3 1/3

Finalmente, pasando al segundo pivote, hacemos ceros por encima de el,


restando a la fila primera la segunda multiplicada por tres,

1
0
0

0
1
0

0 2/3 7/6 4/3


0 1/3
5/6 2/3
1 1/3 2/3 1/3

entonces

A1

2/3 7/6 4/3

=
1/3
5/6 2/3
1/3 2/3 1/3

Algunas advertencias a este proceso son las siguientes:


Si la primera columna de A es nula, entonces A no admite inversa.
Si en el proceso de reduccion de Gauss-Jordan encontramos un paso
en el cual la columna truncada por debajo del elemento de la derecha
del pivote anterior es nula, entonces la matriz A no admite inversa.
Por ejemplo,

4
2
6 1 0 0
1 1/2 3/2 1/4 0 0
3
0
7 0 1 0 0 3/2 5/2 3/4 1 0 ,
2 1 3 0 0 1
0
0
0
1/2 0 1
y la matriz

4
2
6
A= 3
0
7
2 1 3

no tiene inversa.

1.5.

Resoluci
on por determinantes

Otro punto de vista, mas teorico, para discutir la resolucion de un sistema


lineal, viene dado por el concepto de determinante.
40

Sea A = (aij ) Mn,n (K). Se define el determinante de A como el n


umero
det(A) =

()a1(1) a2(2) an(n)

Sn

a11

a
= 21

an1

a12
a22

an2

a1n

a2n
,

ann

donde Sn es el conjunto de permutaciones de orden n y () la paridad de


la permutacion . Cuando recorre Sn , los terminos a1(1) a2(2) , . . . , an(n)
describen todos los posibles productos de n factores extrados de los elementos de A con la propiedad de que en dichos productos siempre figura un
elemento de cada fila y de cada columna de A.
En el calculo efectivo de un determinante no suele usarse la definicion
salvo en los ejemplos clasicos con n = 2 y n = 3 (este u
ltimo es la llamada
regla de Sarrus):

a11

a21

a
31

a11

a
21

a12
a22
a32

a12
= a11 a22 a21 a12
a22

a13
a23 = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a33
= a12 a21 a33 a11 a32 a23 a31 a22 a13 .

En el calculo de un determinante tienen mucha importancia una serie de


propiedades, como las siguientes. Dada A = (aij ) Mn,n (K), denotamos
sus filas por F1 , . . . , Fn , es decir,

F1
F
2
.
.
A=
. .
..
.
Fn
Las propiedades son las siguientes:
1. det(A) es lineal en cada fila, es decir, si 1 k n,

41

(a) Para K,

F1
F1

F2
F2

..
..
.
.

F = F .
k
k

.
.
..
..

Fn

(b) Si la fila Fk = Fk0 + Fk00 es suma de otras dos, entonces

F1 F1 F1

F2 F2 F2

.. .. ..
. . .

F = F 0 + F 00 .
k k k
. . .
.. .. ..

Fn

Por ejemplo

1
4 6

1 2 = 2 0
1
4 1

= 0
1

2
1
4
2
1
4

Fn

3
2
1

3 1 2 3
2 + 0 1 2 .
1 1 4 1

2. El determinante cambia de signo al intercambiar dos filas entre s.


Por ejemplo,

1 4
4 6
1

1 2 = 0 1 2 .
2 4
4 1
6

3. det(In ) = 1, n = 1, 2, . . ..
4. det(A) = n det(A).
5. Sea Sn y A la matriz obtenida al permutar las filas de A seg
un ,

F(1)
F(2)

.
A = .
.
.
..
F(n)
42

entonces det(A ) = ()det(A).


Por ejemplo, si

1 2
3 1

3
2

entonces () = 1 y por tanto

4 6 0 1 2
1 2 = 1 4 1 .
4 1 2 4 6

6. Si A tiene dos filas iguales, entonces det(A) = 0.


Por ejemplo,

4
2
1

1 2
6

3 = 2 1 2
0 1
1

3
3 = 0.
1

7. El determinante no cambia cuando a una fila se le suma una combinaci


on
lineal de las restantes filas.
Por ejemplo,

4 6 2 4 6 2 4 6
1 2 = 0 1 2 = 0 1 2 .
4 1 0 2 2 0 0 2

8. Sia A tiene una fila nula, entonces det(A) = 0.


9. Si T = (tij ) es una matriz triangular (superior o inferior), entonces
det(T ) = t11 t22 tnn .
Por ejemplo,

4
1
4

6 2 4
2 = 0 1
1 0 0

6
2 = 4.
2

10. det(AB) = det(A)det(B). En particular, si A es invertible, entonces


det(A1 ) = 1/det(A).
11. det(AT ) = det(A). En consecuencia, cada propiedad para las filas tiene
una analoga para las columnas.
Lo aconsejable para calcular determinantes, sobre todo si son grandes,
es hacer uso de estas propiedades fundamentales, aplicandolas para ir transformando el determinante en otros mas faciles de calcular. Lo usual suele ser
43

reducir con operaciones elementales el calculo del determinante al de una


matriz triangular (vease el ejemplo en las propiedades 7 y 9). Por ejemplo,

3
1 1 1
3
1 1

1
5 2 0 5
3 0
=
1 2 3 0 4
1 2

4 1 3 7
0 11 7 3

1
1
3
1
1 1 3

3
0
5
3
0 0 5
= 115.
=

2
0
7/5 2 0 0 7/5


0 0
0
115/7
0 0 68/5 3

1.5.1.

Desarrollo por los elementos de una lnea

Otro metodo mas elaborado para calcular un determinante es el desarrollo por los elementos de una fila o una columna. Dada una matriz
A = (aij ) Mn,n (K) se llama menor complementario kl del elemento akl
al determinante de la matriz (n 1) (n 1) obtenida de A al suprimir su
fila k y su columna l. El cofactor de akl se define como
Akl = (1)k+l kl .
Entonces, para cualquier fila k se satisface la formula
det(A) = ak1 Ak1 + ak2 Ak2 + + akn Akn ,
llamada desarrollo del determinante por los elementos de la fila k. Hay
una formula analoga para el desarrollo del determinante por una columna
cualquiera l:
det(A) = a1l A1l + a2l A2l + + anl Anl .
Por ejemplo

4 6
1 2
0 2
0 1

= 4.
1 2 = 2
4
+ 6
4 1
1 1
1 4

4 1

4 6
0 2 2 6

6
+
42
1 2 = 4
0 2 = 4.
1 1 1 1

4 1

44

1.5.2.

Matrices inversas y sistemas de Cramer

Dos son las utilidades que tienen los determinantes en relacion con los
sistemas lineales: el calculo de la inversa de una matriz invertible y las llamadas formulas de Cramer. Ambas son de uso limitado, precisamente por
lo tedioso del calculo de los determinantes.
Respecto a la primera aplicacion, dada una matriz A = (aij ) Mn,n (K)
se llama matriz de adjuntos o de cofactores de A a la matriz obtenida a
partir de los cofactores de A que hemos definido anteriormente, es decir,

Aadj

A11
A21
= (Aij ) =

An1

A12
A22

An2

A1n
A2n
.

Ann

Entonces, se puede comprobar la formula


A(Aadj )T = (Aadj )T A = det(A)In .
Esto implica el siguiente resultado: A admite inversa si y solo si det(A) 6= 0,
en cuyo caso se tiene
A1 =

1
(Aadj )T .
det(A)

Por ejemplo, si

2 4 6
A = 0 1 2 ,
1 4 1
entonces, se puede comprobar que

9
2 1

=
20 4 4 ,
14 4
2

A1

9
20 14
1
2 4
4 .
=
4
1 4
2

adj

y por tanto

Por otra parte, se dice que un sistema de ecuaciones A~x = ~b es un sistema de Cramer si A es cuadrada y regular, es decir, si el sistema tiene
45

el mismo n
umero de ecuaciones que de incognitas y el determinante de su
matriz de coeficientes es no nulo. Son, por tanto, sistemas compatibles determinados. Para este tipo de sistemas, se puede obtener la solucion a traves
de determinantes, con las llamadas formulas de Cramer. El resultado es el
siguiente:
Teorema 4. Para un sistema A~x = ~b con matriz A Mn,n (K) son equivalentes:
(1) A~x = ~b tiene solucion cualquiera que sea ~b.
(2) El sistema homogeneo A~x = ~0 posee u
nicamente la solucion trivial
~
~x = 0.
(3) A es invertible.
Ademas, la solucion ~x = (x1 , x2 , . . . , xn )T del sistema A~x = ~b se puede
escribir como
xj =

1
det([C1 , C2 , . . . , Cj1 , b, Cj+1 , . . . , Cn ]),
det(A)

1 j n,

siendo C1 , . . . , Cn las columnas de A. Estas son las llamadas formulas de


Cramer.
EJERCICIOS DEL TEMA 1
Ejercicio 1. Halla con las matrices siguientes las operaciones que se indican:
A 2B, 3A C, A + B + C, A2 ;

1 1 2

A= 3 4
5 ,
0 1 1

0 2 1

B = 3 0 5,
7 6 0

0 0 2

C = 3 1 0.
0 2 4

Determina una matriz D tal que A + B + C + D sea la matriz nula 3 3.


Determina una matriz E tal que 3C 2B + 8A 4E sea la matriz nula 3 3.
Ejercicio 2. Calcula los siguientes productos de matrices

(1 4

3 6
2
4
,
0 2)
1
0
2 3

(1

1
1

0 2)
2 ,
3
46

1
1

2 (1 4
3

2),

(1 4

3 6
2
4
,
2)
1
0
2 3

3 2
2
4 1 1
1 1
0 2
4 0,
2 0 3
1 1 0

2 1

1
2
0
.
2
1
1
2
3 2

3 1 1
2 4
0
1 0 3

Ejercicio 3. Estudia y, en los casos de compatibilidad, calcula la solucion


general de los sistemas lineales Ax = b con coeficientes reales, cuando A y b
valen

3 1 1 2
0
1 0 2

A=
6
2 1 5
3 3 1 1

1 0 1 2 4
A = 4 1 3 1 3
2 2 0 1 0

2 1 0
4 2
0

A = 0 2
1

2
1
1
2 5 2

1 0 2 1
2 2 1 3

A=
1 2
1 4
5 4 4 5

1
0

b=
5
4

4
b = 9
5

4
8

b= 4

0
12

0
0

b=
0
0

Ejercicio 4. Resuelve los siguientes sistemas lineales


x+y+z+t=7

x+y+z+t=7

x+y

x+y

+ 2t = 8

2x + 2y + 3z = 10

+ 2t = 5

2x + 2y + 3z = 10

x y 2z + 2t = 0

x y 2z + 2t = 0

x y + 2z t = 8

2x + 4y z = 5

47

2x 2y + 3z 3t = 20
x + y + z = 2

x + y 3z = 9
4x + y + 2z = 9

x y + 4z + 3t = 4
Ejercicio 5. Discute los siguientes sistemas en funcion de los parametros a
y b:
x + ay + a2 z = 1
a) x + ay + abz = a
bx + a2 y + a2 bz = a2 b

x + y + az = a2
b) x + ay + z = a .
ax + y + z = 1

Ejercicio 6. Halla todas las soluciones de cada uno de los sistemas:


(3 2i)x1 + x2 6x3 + x4 = 0
x1 ix2 x4 = 0
2x1 + x2 (3 + i)x3 = 0
x1 + x2 2x3 (1 + 2i)x4 = 0.

x1 + 2ix3 2ix4 = 2
x2 + 2x3 + 2x4 = 1
x1 + (1 + i)x3 + (1 i)x4 = 0
x1 + x2 = 0.
Ejercicio 7. Para que valores b tiene solucion el sistema Ax = b, siendo A
cualquiera de las matrices siguientes:

1 2
3
2
5 5

2
a)
2

3 1
1 1
,
2 1
2 0

2 1 2 1 2
2 3 1
2 2

b) 1 0 1 2 6 .

1
2 1 1 0
4 1 3 1 8

Ejercicio 8. Calcula la matriz elemental E tal que EA = B:

A= 3
5

1 2
2

4 ,B = 5 6
3 4
6
48

1
A = 3
5

2
1 2
4 , B = 0 2
6
5 6

1 2
5 2
1
2

A = 0 1 3 4 , B = 0 1
5 0 2 7
0 10

5
2
3
4
27 3

Ejercicio 9. Dados los cuatro sistemas lineales de tres ecuaciones y tres


incognitas con la misma matriz de coeficientes
2x 3y + z = 2

2x 3y + z = 6

x+yz =1

x+yz =4

x + y 3z = 0

x + y 3z = 5

2x 3y + z = 0

2x 3y + z = 1

x + y z = 1

x+yz =0

x + y 3z = 3

x + y 3z = 0

a) Resuelve los sistemas lineales aplicando eliminacion gaussiana a la matriz


aumentada

2 3 1 : 2 6 0 1
1
1 1 : 1 4 1
0
1 1 3 : 0 5 3 0
b) Resuelve los sistemas lineales aplicando el metodo de Gauss-Jordan a la
matriz anterior.
c) Resuelve los sistemas lineales encontrando la inversa de la matriz del
sistema y multiplicando.
Ejercicio 10. Determina cuales de las siguientes matrices tienen inversa y,
en caso afirmativo, hallala.

4
2
6

3
0
7 ,
A=
2 1 3

1
1
C=
2
1

1 2 0

B = 2 1 1
3 1 1

2
2
D=
3
6

1 1 1
2 4 2
,
1 1
5
0 2 4
49

3
4
7
9

1 2
1 5

3/2 1
3 7

4 0 0
6 7 0
E=
9 11 1
5 4 1

0
0
,
0
1

2 0 1 2
1
1 0 2

F =
2 1 3 1
3 1 4 3

Ejercicio
11. Sea A una matrizreal 4x4 cuya inversa es
1
2
3
4

2
5
7
9

A1 =
1
3
5
7
4
8
2
0
Sea B la matriz que se obtiene de A mediante las relaciones
b3,j = a3,j a4,j + a1,j a2,j 1 j 4
bi,j = ai,j
i = 1, 2, 4 1 j 4.
Halla B 1 .
Ejercicio 12. (a) Da un ejemplo de dos matrices A y B para las cuales
det(A + B) 6=detA+detB.
(b) Si B = P 1 AP , por que es detB =detA?
(c) Una matriz formada por ceros y unos, tiene determinante igual a 0, 1
o 1 ?
(d) Demuestra que el determinante de una matriz antisimetrica de orden
impar es 0.
Nota: Una matriz A es antisimetrica si AT = A.
Ejercicio 13. Sin desarrollar el determinante, demuestra que

a b + c
b a + c = 0.
c a + b

a, b, c C.

Ejercicio 14. Eval


ua los determinantes siguientes:

2
1
0
5
1
1 2 1

1
2 2 3 ,

0
2
3 1
1 3 4
2

3
1 1

1
5 2
,
1 2 3
4 1 3 7

1 2
1
1
1 1
1 1
2

50

2 1 3
1
1 1 2 3

1
0
2 1 .

1
2 3 4
3 1 1 2

3
.
0
5

2 + 2i

1
i
0

0
3
2
,
2 2i 6 4
4i + 5 1 3 i 0

1 i

0
2i
1
2
0 1+i
1
0

2i

2
.
1 i
0

Bibliografa recomendada:
Strang, G. Algebra Lineal y sus aplicaciones. Addison-Wesley. Cap. 1.
Lang, S. Introduccion al Algebra Lineal. Addison-Wesley. Cap. 2.
Fraleigh, J.B. & Beauregard, R.A. Algebra Lineal. Addison-Wesley. Cap 1,
apartados 1.3 - 1.7.
Burgos, J. de. Algebra Lineal. Mc Graw Hill. Cap. 1 a 4.

51

Tema 2

Espacios vectoriales y
aplicaciones lineales
El objetivo de este tema es profundizar en los conceptos tratados previamente, formalizando en un nuevo lenguaje las ideas ya expuestas. La leccion
nos servira tambien para los otros tres problemas de los que trata la asignatura, pues establece una base teorica para entender los resultados que se
presentan.
Se analiza aqu la estructura de espacio vectorial, estableciendo relaciones entre sus elementos los vectores, dando criterios para su descripcion
y analizando la conexion entre espacios vectoriales a traves de las aplicaciones lineales. Todo ello da una nueva interpretaci
on de la resolucion de un
sistema lineal.

2.1.

Espacios vectoriales

Unicamente consideraremos espacios vectoriales sobre el cuerpo K = R


o C. Un espacio vectorial (e. v.) sobre el cuerpo K de escalares es un conjunto
no vaco V dotado de una operacion interna + : V V V y de una
operacion externa : K V V de manera que se verifican las propiedades
siguientes:
(1) Para cualesquiera ~x, ~y , ~z V
~x + (~y + ~z) = (~x + ~y ) + ~z.

52

(2) Para cualesquiera ~x, ~y V


~x + ~y = ~y + ~x.
(3) Existe un elemento neutro ~0 V tal que para cada ~x V se tiene que
~x + ~0 = ~0 + ~x = ~x.
(4) Para cada ~x V existe un elemento opuesto ~x V tal que ~x+(~x) =
(~x) + ~x = ~0.
(5) Para cada ~x V y , K,
( ~x) = () ~x.
(6) Para cada ~x V y , K,
( + ) ~x = ( ~x + ~x).
(7) Para cada ~x, ~y V y K,
(~x + ~y ) = ( ~x + ~y ).
(8) Si ~x V y K son tales que ~x = 0, entonces necesariamente
= 0 o ~x = ~0.
Los elementos de un espacio vectorial se llaman vectores.
Ejemplos
1. V = Rn con las operaciones
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
(x1 , . . . , xn ) = (x1 , . . . , xn ), R,
es un espacio vectorial para n = 1, 2, 3, . . ..
2. V = C n con las operaciones de antes puede ser un espacio vectorial sobre
R o sobre C.
3. V = Mm,n (K), con las operaciones definidas en el tema 1, es un espacio
vectorial sobre K.

53

4. V = P [X], espacio de todos los polinomios en una variable y coeficientes


complejos, es, con las operaciones habituales de suma de polinomios y producto de un polinomio por un escalar, un espacio vectorial sobre K.
5. V = Pn [X], espacio de los polinomios en una variable, coeficientes complejos y grado a lo sumo n es, con las operaciones habituales de suma de
polinomios y producto de un polinomio por un escalar, un espacio vectorial
sobre K.

2.1.1.

Combinaciones lineales. Subespacios vectoriales

As pues, un hecho importante de los espacios vectoriales es que se pueden


sumar vectores y multiplicar vectores por escalares, es decir, formar combinaciones lineales de vectores, obteniendo as nuevos elementos del espacio vectorial. Dado un e.v. V sobre K, se dice que un vector ~v V es combinaci
on
lineal del sistema finito {~v1 , ~v2 , . . . , ~vm } si existen escalares 1 , 2 , . . . , m de
manera que
~v = 1~v1 + 2~v2 + + m~vm =

m
X

k~vk .

k=1

Notemos que el vector ~0 es combinaci


on lineal de cualquier sistema de vectores.
Dentro de un espacio vectorial puede haber conjuntos que son en s mismos espacios vectoriales. Por ejemplo, cualquier plano que pase por el origen
en R3 . Son los llamados subespacios vectoriales, es decir, subconjuntos que
son cerrados bajo las operaciones del espacio vectorial.
Definici
on. Sea V un e.v. sobre K. Se dice que un subconjunto no vaco
W V es un subespacio vectorial si cumple:
(i) ~x + ~y W si ~x, ~y W .
(ii) ~x W si K, ~x W .
Esto equivale a la siguiente condicion: W es subespacio vectorial si y solo
si toda combinacion lineal de elementos de W es a su vez un elemento de
W . En particular, el vector ~0 esta en todo subespacio.
Ejemplos
(1) Para una matriz A Mm,n (K) el conjunto de soluciones del sistema
lineal homogeneo A~x = ~0 es un subespacio vectorial de Kn .
54

(2) El conjunto de vectores de R3 ,


W = {(0, 0, 1)T , (0, 1, 0)T },
no es un subespacio vectorial, pues el vector (0, 0, 1)T + (0, 1, 0)T = (0, 1, 1)T
no pertenece a W .
El concepto de subespacio sera importante al interpretar la resolucion
de un sistema lineal en terminos de vectores.
Todo conjunto de vectores G, aunque no sea un subespacio vectorial,
lleva asociado uno. Es el llamado espacio generado por G y es el conjunto de
todas las combinaciones lineales formadas con elementos de G. Es el mnimo
subespacio vectorial que contiene a G y se denota por hGi o span(G).
Ejemplos
(1) Para una matriz A Mm,n (K) se puede definir: 1. El espacio columna
de A, que es el subespacio de Km generado por las columnas de A. 2. El
espacio fila de A, que es el subespacio de Kn generado por las filas de A.
(2) El conjunto de vectores de R3 ,
G = {(0, 0, 1)T , (0, 1, 0)T },
genera el subespacio vectorial
hGi = {(x, y, z)T R3 /x = 0}.

2.1.2.

Dependencia e independencia lineal. Bases y dimensi


on

Una descripcion mas explcita de un e.v. puede darse a partir de relaciones entre sus elementos los vectores.
Sea V un e.v. Se dice que los vectores ~x1 , . . . , ~xn V son linealmente
dependientes si existen escalares 1 , . . . , n K no todos nulos verificando
1 ~x1 + + n ~xn = ~0.
Esto significa que alg
un vector del sistema es combinaci
on lineal de los
restantes. Recprocamente, si un vector ~x V es combinaci
on lineal de
los vectores ~x1 , . . . , ~xn entonces existen escalares 1 , . . . , n con
~x = 1 ~x1 + + n ~xn ,
55

es decir,
(1)~x + 1 ~x1 + + n ~xn = ~0,
y los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes.
Se dice que los vectores ~x1 , . . . , ~xn V son linealmente independientes
cuando no son linealmente dependientes, es decir, si ninguno de los vectores
es combinacion lineal de los restantes. Esto significa que si planteamos una
combinacion lineal nula
1 ~x1 + + n ~xn = ~0,
entonces necesariamente 1 = = n = 0. Luego veremos un metodo
practico para determinar la independencia lineal de un conjunto de vectores
dado.
Supongamos que los vectores ~x1 , . . . , ~xn V son linealmente independientes. Dado un vector ~x V que sea combinaci
on lineal de ellos, resulta
que los coeficientes que dan la combinaci
on lineal estan unvocamente determinados. Esto tendra su importancia al hablar de las coordenadas de un
vector.
Teorema 1. Sean ~x1 , . . . , ~xn V linealmente independientes y ~x V tal
que los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes. Entonces ~x es
combinacion lineal de ~x1 , . . . , ~xn .
Si consideramos los vectores como flechas desde el origen, no es difcil
visualizar la dependencia lineal en el espacio tridimensional. Dos vectores
son dependientes si estan en la misma recta, y tres vectores son dependientes
si estan en el mismo plano.
Por ejemplo, las columnas de la matriz

1
3
0
A= 2
6
1 ,
1 3 3
son linealmente dependientes, ya que la segunda columna es tres veces la
primera. Un poco mas complicado de ver es que las filas son tambien dependientes.
Hay espacios vectoriales que pueden describirse completamente por un
conjunto finito de vectores. Estos son los llamados espacios vectoriales de
generacion finita. Por ejemplo, todo vector de R3 (x, y, z)T es una combinacion lineal
x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T
56

de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, R3 es un espacio
vectorial de generacion finita, pues todo vector de R3 puede escribirse como
combinacion lineal de un conjunto finito de vectores.
Sea V un e.v sobre K. Un conjunto finito S V de vectores se dice que
es ligado cuando esta formado por vectores linealmente dependientes. Caso
de no ser ligado, se denomina libre.
Se dice que una parte G V es un sistema generador de V si hGi = V ,
es decir, si G genera todo el espacio V , o lo que es lo mismo, todo vector de
V es combinacion lineal de los vectores de G. El espacio se dice de generacion
finita cuando admite una parte generadora finita.
Se dice que un conjunto de vectores B V es una base de V cuando B
es un sistema generador y libre. En una palabra, no se desperdicia ning
un
vector en el conjunto B.
Por ejemplo, los vectores ~v1 = (1, 0, 0)T , ~v2 = (0, 1, 0)T y ~v3 = (2, 0, 0)T
generan un plano dentro del espacio tridimensional. Lo mismo ocurre con
los dos primeros vectores solos, mientras que el primero y el tercero solo
generan una recta.
Esta combinacion de propiedades significa que cada vector ~v V puede
expresarse de una y solo una manera como combinaci
on de los vectores de
una base.
Teorema 2. Todas las bases de un espacio vectorial de generacion finita V
son finitas y poseen el mismo n
umero de elementos. Este n
umero se denomina
dimension del e. v. V y se escribe dimK V .
Ejemplos.
(1) Bases can
onicas. Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
constituyen un sistema generador de R3 . Ademas, son linealmente independientes, pues cualquier combinaci
on lineal nula de ellos
1 (1, 0, 0)T + 2 (0, 1, 0)T + 3 (0, 0, 1)T = (0, 0, 0)T ,
genera un sistema lineal de tres ecuaciones trivial con 1 = 2 = 3 = 0.
De este modo, forman una base de R3 llamada base canonica. Por tanto
dimR R3 = 3.
(2) En general, la base canonica de Rn como espacio vectorial sobre R es el
conjunto de n vectores,
~e1 = (1, 0, 0, . . . , 0)T
~e2 = (0, 1, 0, . . . , 0)T
57

..
.

..
.

~en = (0, 0, 0, . . . , 1)T ,


de modo que dimR Rn = n, n = 1, 2, . . .. Cual sera la base canonica de C n
sobre C? Y sobre R?
(3) Considerando el plano X Y , es decir, R2 , observamos de los vectores
de la figura que el vector v1 solo es linealmente independiente, pero no
genera R2 . Los tres vectores generan R2 pero no son independientes. Finalmente, dos cualesquiera de los tres vectores, digamos ~v1 y ~v2 , tienen ambas
propiedades: generan y son independientes, luego forman una base. Tambien
de este ejemplo se puede sacar la conclusion de que un espacio vectorial no
tiene una base u
nica.

v2

v1

P
PP
P

PP
q

v3

Las siguientes propiedades establecen las formas para obtener bases de


sistemas generadores y de sistemas libres.
Teorema 3. Sea V un espacio vectorial de dimension n. Se satisfacen las
siguientes propiedades:
1. Un sistema generador G V es una base si y solo si no se puede
reducir a un nuevo sistema generador.
2. Siempre se puede obtener una base B de un sistema generador, descartando vectores si es necesario.
3. Si G es un sistema generador, card(G) n. G es una base si y solo si
card(G) = n (card(G) es el llamado cardinal de G, es decir, el n
umero
de elementos del conjunto G).

58

4. Un sistema libre L V es una base si y solo si no se puede ampliar a


otro sistema libre.
5. Cualquier sistema libre se puede extender a una base, a
nadiendo mas
vectores si es necesario.
6. Si L es un sistema libre, card(L) n. L es una base si y solo si
card(L) = n.
7. Todo subespacio W de V tiene dimension menor o igual que n. Si la
dimension de W es n, entonces W = V .
Por tanto, una base es un conjunto independiente maximo. No puede ser
mas grande porque entonces perdera la independencia. No puede ser menor
porque entonces no generara todo el espacio.

2.1.3.

Coordenadas de un vector respecto a una base. Cambio de base

Lo que hace el concepto de base algo u


til es que recurriendo a una de
ellas, cualquier vector queda identificado mediante los coeficientes de la u
nica
combinacion lineal que lo expresa en funcion de los vectores de aquella. A
estos coeficientes se les llama coordenadas. En un e. v. de dimension finita, si
se dispone de una base, conocer un vector viene a ser lo mismo que conocer
sus coordenadas en la base.
Sea V un e. v. sobre K con dim(V ) = n y sea B = {~b1 , ~b2 , . . . , ~bn }
una base de V . Cada vector ~x V se puede escribir de forma u
nica como
combinacion lineal de los elementos de B:
~x = x1~b1 + x2~b2 + + xn~bn .
Se dice que x1 , x2 , . . . , xn son las coordenadas del vector ~x respecto de la
base B. Cuando se sobreentiende cual es la base B, se suele escribir ~x =
(x1 , x2 , . . . , xn )T o bien, en otro caso, M (~x, B) = (x1 , x2 , . . . , xn )T .
Por ejemplo, el vector ~v = (1, 2, 3)T tiene coordenadas en la base canonica
~v = ~e1 + 2~e2 + 3~e3 .
Si se dispone de dos bases B y B 0 en un mismo e. v. V , cada vector ~x V
tendra dos sistemas de coordenadas, uno respecto de cada base. Si se conoce
una base respecto de la otra, va a ser posible relacionar unas coordenadas con

59

otras; las relaciones que ligan a los dos sistemas de coordenadas se llaman
ecuaciones del cambio de base.
En efecto, sea V un e. v. sobre K de dimension n. Sea B = {~b1 , ~b2 , . . . , ~bn }
una base de V , en las que las coordenadas de un vector ~x V se denotan por
M (~x, B) = (x1 , x2 , . . . , xn )T . Sea B 0 = {~b01 , ~b02 , . . . , ~b0n } otra base de V , en la
que las coordenadas de ~x V se denotan por M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T .
Supongamos que se conocen los vectores de B 0 en funcion de los de B, es
decir,
~b0 = q11~b1 + q21~b2 + + qn1~bn
1
~b0 = q12~b1 + q22~b2 + + qn2~bn
2
..
.
. = ..
~b0 = q1n~b1 + q2n~b2 + + qnn~bn .
n

Entonces, las coordenadas M (~x, B) = (x1 , x2 , . . . , xn )T vendr


an, en funcion
0
0
0
0
T
de las coordenadas M (~x, B ) = (x1 , x2 , . . . , xn ) , dadas por las formulas
~x1 = q11 ~x01 + q12 ~x02 + + q1n ~x0n
~x2 = q21 ~x01 + q22 ~x02 + + q2n ~x0n
..
.
. = ..
~xn = qn1 ~x01 + qn2 ~x02 + + qnn ~x0n ,
que matricialmente se escribe

M (~x, B) = QM (~x, B 0 ),

q11

q21
Q = M (B 0 , B) =

qn1

q12
q22

qn2

q1n
q2n
.

qnn

La matriz Q se llama matriz de cambio de base de B 0 a B y es una matriz invertible. Precisamente, su matriz inversa es la matriz del cambio de
coordenadas inverso, de B a B 0 , es decir
M (~x, B 0 ) = Q1 M (~x, B) = M (B, B 0 )M (~x, B).
Este es, con frecuencia, el problema a resolver.
Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la base
B 0 = {~v1 , ~v2 , ~v3 }, donde ~v1 = (1, 2, 0)T , ~v2 = (3, 7, 1)T , ~v3 = (0, 2, 1)T .

60

La base de referencia donde esta dispuesto el vector ~x es la base canonica.


La relacion entre las dos bases es
~v1 = ~e1 + 2~e2
~v2 = 3~e1 7~e2 + ~e3
~v1 = 2~e2 + ~e3 .
Entonces la matriz de cambio de base es

1 3 0
Q = 2 7 2 .
0 1
1
Luego, las nuevas coordenadas M (~x, B 0 ) = (x01 , x02 , x03 )T deben verificar el
sistema lineal

3
1 3 0
x01
2 = 2 7 2 x0 ,
2
1
0 1
1
x03
que, resolviendo, nos da x01 = 3, x02 = 2, x03 = 3.

2.2.
2.2.1.

Subespacios fundamentales de una matriz


Definici
on y propiedades

Hasta ahora hemos sido mas bien descriptivos: sabemos lo que es una
base, pero no sabemos encontrar una. Necesitamos obtener una forma mas
o menos sistematica de calcular una base a partir de una descripcion clara
de un subespacio.
Varios son los problemas que se nos plantean en esta seccion:
1. Como describir los subespacios de un espacio vectorial de dimension
finita.
2. Como determinar una base de un subespacio.
3. Como obtener una base de un sistema generador dado.
4. Como formar una base a partir de un sistema libre dado.
Con respecto al problema 1, generalmente los subespacios (que no sean
el formado exclusivamente por el vector nulo) se describen de dos maneras.
61

La primera consiste en dar un sistema de generadores del subespacio (en


particular, una base) que pueden disponerse como el espacio fila o el espacio
columna de una matriz. En la segunda, podemos dar una lista de restricciones acerca del subespacio; en lugar de decir cuales son los vectores en
el subespacio, se dicen las propiedades que deben satisfacer. Generalmente
estas restricciones vienen dadas mas o menos explcitamente por un conjunto de ecuaciones lineales, de modo que el subespacio queda descrito como
el conjunto de soluciones de un sistema lineal homogeneo A~x = ~0 y cada ecuacion del sistema representa una restriccion. En el primer tipo puede
haber filas o columnas redundantes y en el segundo puede haber restricciones
redundantes. En ninguno de los dos casos es posible dar una base (resolver
el problema 2) por mera inspeccion, es necesario alg
un procedimiento sistematico.
El procedimiento que aqu explicaremos esta basado en el proceso de
eliminacion gaussiana de una matriz A dado en el tema 1 y la matriz U
escalonada superior que quedaba asociada a esta al final del proceso. Con
este procedimiento vamos tambien a poder resolver los problemas 3 y 4 y el
problema a
nadido de como pasar de una representaci
on de un subespacio a
la otra.
Definici
on. Supongamos que reducimos una matriz A Mm,n (K) mediante
operaciones elementales a una matriz U de forma escalonada. Llamemos r
al n
umero de pivotes de U , de tal modo que las u
ltimas m r filas de U son
identicamente nulas. A este n
umero r se le llama rango de la matriz A.
Hay una relacion entre el rango r y la independencia lineal: precisamente,
r es el n
umero de filas linealmente independientes de la forma escalonada U
(por que?).
Los subespacios fundamentales de una matriz A Mm,n (K) son los
siguientes:
1. Espacio fila f il(A).
2. Espacio nulo Ker(A).
3. Espacio columna col(A).
4. Espacio nulo por la izquierda ker(AT ).
La relacion entre los subespacios de una matriz y un subespacio dado es la
siguiente: si el subespacio viene dado por un sistema de generadores, sera el
espacio fila (o el espacio columna) de la matriz cuyas filas (o columnas)
62

sean los vectores del sistema generador. Si el subespacio viene dado por
un conjunto de restricciones, se escribira como el espacio nulo o el espacio
nulo por la izquierda de una matriz, la del sistema homogeneo dado por
las restricciones. Queda claro entonces que para determinar una base de un
subespacio tenemos que analizar la manera de determinar una base de los
subespacios fundamentales de una matriz. En ello tendra que ver su forma
escalonada obtenida por eliminacion gaussiana.
1.Espacio fila de A. La eliminacion act
ua en A para producir una matriz escalonada U ; el espacio fila de U se obtiene directamente: su dimension
es el rango r y sus filas distintas de cero constituyen una base. Ahora bien,
cada operacion elemental no altera el espacio fila, pues cada fila de la matriz
U es una combinacion de las filas originales de A. Como al mismo tiempo
cada paso puede anularse mediante una operacion elemental, entonces
f il(A) = f il(U ),
por tanto, f il(A) tiene la misma dimension r y la misma base. Hay que
notar que no comenzamos con las m filas de A, que generan el espacio fila
y descartamos m r para obtener una base. Podramos hacerlo, pero puede
ser difcil decidir cuales filas descartar; es mas sencillo tomar simplemente
las filas de U distintas de cero.
Ejemplo. Determina una base del subespacio de R4 generado por los vectores ~v1 = (1, 1, 0, 1)T , ~v2 = (1, 2, 2, 1)T , ~v3 = (3, 4, 2, 3)T .
Disponemos los vectores generadores como las filas de una matriz

1
A = 1
3

1
2
4

0 1
2 1.
2 3

El subespacio es entonces el espacio fila de A. Reducimos por eliminacion


gaussiana,

1 1

A= 1 2
3 4

0
2
2

1 1
1

1 0 1
0 1
3

0
2
2

1
1 1

0 0 1
0 0
0

0
2
0

1
0 = U.
0

Puesto que U tiene dos pivotes, r = 2, de modo que la dimension del subespacio es dos. Como una base de f il(U ) lo forman las dos primeras filas,
lo mismo ocurre con f il(A), de manera que una base del subespacio es
w
~ 1 = (1, 1, 0, 1)T , w
~ 2 = (0, 1, 2, 0)T .
63

2.Espacio nulo de A. Es el formado por los vectores ~x tales que A~x =


~0. En la eliminacion gaussiana se reduce el sistema A~x = ~0 al sistema U~x = ~0
precisamente sin alterar ninguna de las soluciones. Por tanto, el espacio nulo
de A es el mismo que el de U ,
Ker(A) = Ker(U ).
De las m aparentes restricciones impuestas por las m ecuaciones A~x = ~0
solo r son independientes, especificadas precisamente por las r filas de U
distintas de cero. As, el espacio nulo de A tiene dimension n r, que es el
n
umero de variables libres del sistema reducido U~x = ~0, correspondientes a
las columnas de U sin pivotes. Para obtener una base, podemos dar el valor
1 a cada variable libre, cero a las restantes y resolver U~x = ~0 para las r
variables basicas por sustitucion regresiva. Los n r vectores as producidos
forman una base de Ker(A).
Ejemplo. Determina una base del subespacio W de R4 , formado por los
vectores ~x = (x1 , x2 , x3 , x4 )T tales que
x1 + x2 x3 + 2x4 = 0
2x1 2x2 + x3 = 0
5x1 5x2 + 3x3 2x4 = 0
Se tiene que W = {~x R4 /A~x = ~0} donde

1 1 1 2

A=
2 2 1
0 .
5 5 3 2
La eliminacion gaussiana lleva a que W = Ker(U ) donde

1 1 1
U = 0 0 1
0 0 0

2
4.
0

Como en este caso n = 4 y r = 2, la dimension de W es n r = 2. Las


variables basicas son x1 y x3 y las libres x2 y x4 . El sistema U~x = ~0 queda
x1 + x3 = x2 + 2x4
x3 = 4x4
Dando los valores x2 = 1, x4 = 0, tenemos el vector ~v1 = (1, 1, 0, 0)T . Con
los valores x2 = 0, x4 = 1 se obtiene ~v2 = (2, 0, 4, 1)T . Los vectores ~v1 , ~v2
forman una base de W .
64

3.Espacio columna de A. Podramos tener en cuenta que las columnas


de A son las filas de AT y actuar sobre AT . Es mejor, sin embargo, estudiar
el espacio columna en terminos de los n
umeros originales m, n y r.
Es importante destacar que A no tiene el mismo espacio columna
que U . La eliminacion gaussiana altera las columnas. Sin embargo, cada vez
que ciertas columnas de U formen una base del espacio columna de U , las
correspondientes columnas de A forman una base del espacio columna de A.
La razon es la siguiente: sabemos que A~x = ~0 si y solo si U~x = ~0. Los
dos sistemas son equivalentes y tienen las mismas soluciones. En terminos
de multiplicacion de matrices, A~x = ~0 expresa una dependencia lineal entre
las columnas de A, con coeficientes dados por las coordenadas de ~x. Por
tanto, cada una de estas dependencias corresponde a una dependencia lineal
U~x = ~0 entre las columnas de U y con los mismos coeficientes. Si el conjunto
de columnas de A es independiente, lo mismo es valido para las columnas
de U y viceversa.
Ahora, para encontrar una base de col(A), partimos de encontrar una
base de col(U ). Pero una base de col(U ) la forman las r columnas de U que
contienen los pivotes (POR QUE?). As, tenemos:
La dimension de col(A) es igual al rango r, que es la dimension de f il(A):
en cualquier matriz, el n
umero de filas independientes es igual al n
umero de
columnas independientes. Una base de col(A) esta formada por aquellas r
columnas de A correspondientes, en U , a las columnas que contienen los
pivotes.
Ejemplo. Para la matriz

A= 0
1

2 0
1 1
2 0

1
0,
1

la eliminacion gaussiana lleva a que

1 2
U = 0 1
0 0

0
1
0

1
0.
0

Para U , las columnas con pivote son la primera y la segunda, luego una base
de col(A) esta formada por las dos primeras columnas de A: (1, 0, 1)T , (2, 1, 2)T .
4.Espacio nulo por la izquierda de A. Es el espacio nulo de AT . Como para cualquier matriz, se tiene que

65

dimension del espacio columna+dimension del espacio nulo =n


umero de
columnas,
esta regla puede aplicarse a AT , que tiene m columnas. Como rango fila=rango columna = r, entonces dimKer(AT ) = mr. Se puede determinar
una base de Ker(AT ) de la misma manera que se ha hecho con el espacio
nulo de A.
Ejercicio. Determina una base de los cuatro subespacios elementales de la
matriz

2
4
0
2
6

2
1
0
.
A=
8
2
1
2
4 1 3 5
Explicado el procedimiento para obtener una base de un subespacio,
resolvemos los problemas pendientes.
Para obtener una base de un sistema generador (problema 3), basta con
obtener una base del espacio fila de la matriz cuyas filas son los vectores
generadores.
Ejemplo. Obtenemos una base del subespacio generado por el sistema
de generadores de R3 : ~v1 = (1, 2, 1)T , ~v2 = (3, 2, 1)T , ~v3 = (4, 0, 0)T , ~v4 =
(1, 2, 1)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma
escalonada

1 2 1
1 2
1
1 2
1
3

2 1
0 4 2
0 4 2

0 0
0 8 4
0 0
0
1 2 1
0 4
2
0 0
0
La dimension del espacio fila es dos, luego de los cuatro vectores solo dos son
independientes. Una base del subespacio lo forman los vectores (1, 2, 1)T , (0, 4, 2)T .
Para obtener una base de un espacio vectorial a partir de un sistema libre
(problema 4) basta con ampliar el espacio fila correspondiente con vectores
que van siendo independientes, hasta completar la dimension.
Ejemplo. Completamos a una base de R4 a partir de los vectores ~v1 =
(1, 1, 0, 1)T , ~v2 = (1, 2, 2, 1)T , ~v3 = (3, 0, 2, 3)T .
66

Disponemos los vectores como las filas de una matriz y reducimos a forma
escalonada.

1
1
3

1
2
0

0
2
2

1
1 1
1 0 1
3
0 3

0 1
1
2 0 0
2 0
0

1
1
0

0
2
8

1
0.
0

Si a
nadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos
que la dimension del espacio fila de la matriz que forman los tres primeros
vectores y este cuarto es cuatro, luego un vector que completa a una base
es, por ejemplo, (0, 0, 0, 1)T .
Para calcular las ecuaciones de un subespacio a partir de un sistema
generador, se dispone el sistema generador como las filas de una matriz, y a
esta se a
nade una fila con un vector generico. Se reduce la matriz as formada
por eliminacion gaussiana, obligando a que se anulen las u
ltimas filas de la
forma escalonada final.
Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores ~v1 = (1, 0, 3)T , ~v2 = (2, 3, 1)T .
Disponemos los vectores como las filas de una matriz, a
nadiendo una tercera
fila con un vector generico (x, y, z)T del subespacio y reducimos a forma
escalonada:

1
2
x

0
3
y

3
1 0

1 0 3
z
0 y

3
1 0
3

5
0 3
5
z 3x
0 0 z 3x (5/3)y

Como el vector (x, y, z)T esta en el subespacio, la dimension del espacio fila
de la matriz ha de ser dos, luego la u
ltima fila de la forma escalonada tiene
que ser nula. Por tanto, el subespacio es
W = {(x, y, z)T /z 3x (5/3)y = 0}.
Al reves, para dar un sistema generador a partir de las ecuaciones de
un subespacio, basta con calcular una base del espacio nulo de la matriz del
sistema de ecuaciones.

2.2.2.

Aplicaci
on al estudio de un sistema lineal. Teorema de
Rouch
e

Una aplicacion de los subespacios fundamentales de una matriz y en


especial del rango se encuentra en la discusion teorica de la resolucion de
67

un sistema lineal en terminos vectoriales. Esto completa los aspectos de


discusion explicados en el tema anterior y se complementa con la resolucion
dada por la eliminacion gaussiana.
Teorema de Rouch
e. Se considera el sistema lineal A~x = ~b con A
m
Mm,n (K), b K . Si r es el rango de A, entonces
(1) El sistema es compatible si y solo si ~b col(A), es decir, el rango de
la matriz ampliada y el de A coinciden.
(2) El sistema es compatible y determinado si y solo si ~b col(A) y r = n.
(3) En particular, el sistema homogeneo A~x = ~0 es siempre compatible
(~x = ~0 es siempre solucion) y es determinado (la u
nica solucion es
~x = ~0) si r = n.
(4) Si el sistema A~x = ~b es compatible, las soluciones se obtienen a
nadiendo a una solucion particular las soluciones del sistema homogeneo
A~x = ~0, es decir, los elementos del espacio nulo de la matriz A.

2.3.

Operaciones con subespacios

Una vez que sabemos determinar una base de un subespacio vectorial,


nos queda operar con ellos. Basicamente, se pueden realizar dos operaciones
con subespacios: intersecciones y sumas.

2.3.1.

Intersecci
on de subespacios

Sea V un e. v. y {W } una coleccion cualquiera de subespacios vectoriales de V . Denotamos su intersecci


on por W = W . Entonces, W es un
subespacio vectorial. Notese que la intersecci
on cualquiera es no vaca, pues
al menos el vector nulo esta en W .
Para describir la intersecci
on de subespacios, la manera mas natural es
poner cada subespacio en forma de un sistema de ecuaciones homogeneo. La
interseccion sera aquel subespacio que verifique todas las restricciones a la
vez.
Ejemplo. Para los subespacios
W1 = {(x, y, z)T /x + y + z = 0}
W2 = {(x, y, z)T /x z = 0}
68

el subespacio W1 W2 es
W1 W2 = {(x, y, z)T /x + y + z = 0, x z = 0}

2.3.2.

Suma de subespacios

Sea V un e. v. Dados W1 , . . . , Wm subespacios vectoriales de V , en general su union no es un subespacio.


La suma de subespacios W = W1 + + Wm se define como el espacio
generado por la union
W = hm
k=1 Wk i.
Puede comprobarse que la suma W coincide con el conjunto de vectores
formado por todas las sumas
w
~ =w
~1 + + w
~ m,
cuando wj Wj varan libremente.
La suma W = W1 + + Wm se denomina suma directa y se denota por
W = W1 Wm cuando dado w
~ W existen m sumandos unvocamente
determinados wj Wj tales que
w
~ =w
~1 + + w
~ m,
Esto equivale a decir que la intersecci
on de cada Wj con el subespacio generado por los restantes subespacios se reduce al vector cero.
Contrariamente a la intersecci
on, una manera sencilla de describir el
subespacio suma consiste en determinar un sistema generador o una base
de cada subespacio y quedarse con los independientes, obteniendose de esta
manera una base del subespacio suma.
Ejemplo. Obtenemos una base del subespacio suma V + W donde
V

= {(x, y, z)T /x + y = 0, z = 0}

= {(x, y, z)T /z = 0}

Una base de V es ~v = (1, 1, 0)T y de W , w


~ 1 = (1, 0, 0)T , w
~ 2 = (0, 1, 0)T .
Ahora, el vector ~v depende de los otros dos, luego una base del subespacio
suma esta formado por w
~ 1 = (1, 0, 0)T , w
~ 2 = (0, 1, 0)T . Es decir, V +W = W .
F
ormula de las dimensiones. Si U y V son dos subespacios vectoriales
de dimension finita
dim(U + V ) = dim(U ) + dim(V ) dim(U V ).
69

En particular
dim(U V ) = dim(U ) + dim(V ).

2.4.

Aplicaciones lineales

2.4.1.

Definici
on y propiedades

Para un uso en posteriores lecciones, introducimos aqu el concepto de


aplicacion lineal, que permite establecer relaciones entre los espacios vectoriales. Dados dos espacios vectoriales U y V sobre un mismo cuerpo K, se
dice que una transformacion T : U V es lineal cuando
(i) T (~x) + ~y ) = T (~x) + T (~y ),
(ii) T (~x) = T (~x),

~x, ~y U .

~x U, K.

Esto es
T (1 ~x1 + + m ~xm ) = 1 T (~x1 ) + + m T (~xm ),
1 , . . . , m K,

~x1 , . . . , ~xm U.

Cuando U = V , una transformacion lineal se suele llamar endomorfismo. Si


T : U V es lineal y biyectiva, se dice que es un isomorfismo.
Ejemplos. Son aplicaciones lineales las siguientes:
(1) T : R3 R3 , T ((x, y, z)T ) = (x + y, y + z)T .
(2) T : P3 [X] P2 [X], T (p(x)) = p0 (x).
Con las aplicaciones lineales se pueden realizar tres operaciones:
Suma: si T, S : U V son aplicaciones lineales, entonces la aplicacion
T + S : U V , (T + S)(~x) = T (~x) + S(~x) es una aplicacion lineal.
Producto: si T : U V es una aplicacion lineal y K, entonces la
aplicacion (T ) : U V , (T )(~x) = T (~x) es lineal.
Composicion: si U, V, W son espacios vectoriales, T : U V , S : V
W son aplicaciones lineales, entonces la aplicacion S T : U W ,
(S T )(~x) = S(T (~x)) es una aplicacion lineal.
Asociada a una aplicacion lineal, T : U V hay dos subespacios destacables:
70

N
ucleo: Ker(T ) = {~x U/T (~x = 0} U ,
Imagen: Im(T ) = {~y V /existe~x U conT (~x) = ~y } V .
Estos subespacios se relacionan con el caracter inyectivo o sobreyectivo de
la aplicacion y con la independencia lineal en un espacio vectorial.
Teorema. Dados dos espacios vectoriales U y V sobre un mismo cuerpo K,
y T : U V una aplicacion lineal, se verifica:
(1) T es inyectiva si y solo si Ker(T ) = ~0.
(2) Si T es inyectiva, todo sistema linealmente independiente de vectores
~x1 , . . . , ~xm U se transforma en un sistema linealmente independiente
de vectores T (~x1 ), . . . , T (~xm ) en V .
(3) T es sobreyectiva si y solo si Im(T ) = V .
(4) Si T es sobreyectiva, todo sistema generador ~x1 , . . . , ~xm U se tranforma en otro sistema generador T (~x1 ), . . . , T (~xm ) en V .

2.4.2.

Matriz de una aplicaci


on lineal. Cambio de base

En espacios de dimension finita, para manejarse con aplicaciones lineales,


es mejor utilizar coordenadas. Ello va a permitir relacionar las aplicaciones
lineales con las matrices, lo que hace mas sencillo el uso de las primeras.
Sean U y V espacios vectoriales de dimension finita sobre un mismo
cuerpo K. Sean BU = {~u1 , . . . , ~un }, BV = {~v1 , . . . , ~vm } bases en U y V
respectivamente. Sea T : U V una aplicacion lineal. Se define la matriz
de la aplicacion lineal T en dichas bases como la matriz M (T, BU , BV )
Mm,n (K) cuyas columnas son las coordenadas de las imagenes por T de los
vectores de la base de partida BU , expresadas en la base de llegada BV , esto
es
M (T, BU , BV ) = [M (T (~u1 ), BV ) M (T (~un ), BV )].
Ejemplos.
[1] Para la aplicacion lineal T : R4 R3 , T (x1 , x2 , x3 , x4 ) = (x1 + x2 +
x3 , x2 + x4 , x1 + x2 + x3 + x4 ), se tiene que, en las bases canonicas

1
c
c
0
M (T, BR
4 , BR3 ) =
1
71

1
1
1

1 0
0 1.
1 1

[2] Para la aplicacion lineal T : P4 [X] P3 [X], T (p(x)) = p0 (x) se tiene que
en las bases canonicas
BPc 4 [X] = {1, x, x2 , x3 , x4 },
la matriz de T es

BPc 3 [X] = {1, x, x2 , x3 },

0
M (T, BPc 4 [X] , BPc 3 [X] ) =
0
0

1
0
0
0

0
2
0
0

0
0
3
0

0
0
.
0
4

Hay que notar que M (T, BU , BV ) tiene tantas filas como la dimension
de V y tantas columnas como la dimension de U . Es importante destacar
que la expresion de la matriz depende de las bases elegidas: si cambian las
bases, cambia la matriz. Insistiremos mas adelante sobre ello.
Observemos ahora que, fijadas bases en U y V , podemos expresar la aplicacion lineal como un producto matriz por vector: si ~x = x1 ~u1 + + xn ~un ,
siendo (x1 , . . . , xn )T las coordenadas del vector ~x en la base BU , entonces,
como T es lineal

x1
x2

T (~x) = x1 T (~u1 ) + + xn T (~un ) = M (T, BU , BV ) .. .


.
xn
As, en el ejemplo [1] anterior

T (x1 , x2 , x3 , x4 ) = 0
1

1
1
1

1
0
1

x
0 1
x2
1
x3 ,
1
x4

y en el ejemplo [2], si p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ,

0
0
T (p(x)) =
0
0

1
0
0
0

0
2
0
0

0
0
3
0

a
0 0
a1
0

a ,
0 2
a3
4
a4

que es el polinomio a1 + 2a2 x + 3a3 x2 + 4a4 x3 .


Ya hemos comentado que al cambiar las bases en los espacios vectoriales
cambia la matriz de la aplicacion lineal. Veamos como afectan los cambios
de base. Planteamos el siguiente esquema
72

UBU

M (T, BU , BV )

- VB T (~
x)
V

M (BV0 , BV )

M (BU0 , BU )

M (T, BU0 , BV0 )


UBU0
~x

VBV0

Consideremos una aplicacion lineal T : U V de la que conocemos


su matriz asociada M (T, BU , BV ) cuando fijamos las bases BU , BV . Imaginemos que cambiamos las bases a BU0 , BV0 y queremos determinar la matriz
asociada a T en estas bases, M (T, BU0 , BV0 ).
Fijemonos en el esquema. Las flechas a la izquierda y a la derecha son
las que llevan, respectivamente, un vector ~u U escrito en la base BU0 en el
mismo vector expresado ahora en la base BU y cualquier vector ~v V escrito
en la base BV0 en el mismo vector expresado ahora en la base BV . Ambas
transformaciones vienen entonces dadas por las correspondientes matrices de
cambio de base M (BU0 , BU ), M (BV0 , BV ) de las que hablamos al principio de
la leccion. As, por ejemplo, la flecha de la izquierda lleva un vector ~u U
en
M (BU0 , BU )~u,
y la flecha de la derecha lleva un vector ~v V en
M (BV0 , BV )~v .
Por otro lado, las flechas de arriba y de abajo corresponden a la aplicacion
lineal T pero en bases distintas. Supongamos que conocemos la matriz aso73

ciada a T arriba, es decir M (T, BU , BV ), pero no la de abajo M (T, BU0 , BV0 ),


que es la que queremos calcular.
Fijemonos ahora en que tiene que ser igual llevar un vector ~u U desde
la esquina inferior izquierda a su imagen en la esquina superior derecha por
los dos caminos siguientes: flecha izquierda + flecha arriba o bien flecha
abajo + flecha derecha. En terminos matriciales, el primer camino es
M (T, BU , BV )M (BU0 , BU )~u,
y el segundo es
M (BV0 , BV )M (T, BU0 , BV0 )~u,
por tanto
M (T, BU , BV )M (BU0 , BU )~u = M (BV0 , BV )M (T, BU0 , BV0 )~u.
Ahora bien, el vector ~u en este razonamiento es arbitrario, de modo que la
igualdad vectorial es en realidad una igualdad matricial
M (T, BU , BV )M (BU0 , BU ) = M (BV0 , BV )M (T, BU0 , BV0 ).
De aqu despejamos la matriz que nos interesa,
M (T, BU0 , BV0 ) = M (BV0 , BV )1 M (T, BU , BV )M (BU0 , BU )
= M (BV , BV0 )M (T, BU , BV )M (BU0 , BU ).
Ejemplo. Para la aplicacion lineal T : U V , siendo U = R3 , V = R2 y
las bases
BU = {(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T },

BV = {(1, 0)T , (0, 1)T }

BU0 = {(1, 0, 0)T , (1, 0, 1)T , (1, 1, 0)T },

BV0 = {(1, 1)T , (0, 1)T },

se sabe que la matriz de T en las bases BU , BV es

M (T, BU , BV ) =

1 0
2 1

1
1

Entonces

M (T, BU0 , BV0 ) =

1
1

0
1

1 0
2 1
74

1
1

1 1
0 0
0 1

1
1 =?
0

Fijemonos entonces que una aplicacion lineal suele venir dada o bien en
forma explcita, es decir, dando su imagen para un vector generico, o bien,
si hemos fijado bases, a traves de un producto matriz por vector.
Otra formula de dimensiones para terminar:
Teorema. Sean U y V espacios vectoriales de dimension finita sobre un
mismo cuerpo K y T : U V una aplicacion lineal. Entonces
dim(U ) = dimKer(T ) + dimIm(T ).
En efecto, si n = dim(U ), m = dim(V ) y fijamos bases cualesquiera en
ambos espacios, sea A Mm,n (K) la matriz de T en tales bases. Por un
lado,
dimKer(T ) = dimKer(A) = n r,
siendo r el rango de la matriz A. Por otro lado,
dimIm(T ) = dimcol(A) = r,
de donde se obtiene la formula.
EJERCICIOS DEL TEMA 2
Ejercicio 1. Para los siguientes espacios vectoriales E sobre R, comprueba
que el conjunto de vectores dado es una base de dicho espacio (llamada base
can
onica):
(1) E = Rn , B = {~e1 , , ~en }, ~ej vector de tama
no n con todas sus componentes nulas excepto la j-esima que vale 1.
(2) E = Pn [X] (conjunto de polinomios de grado menor o igual que n y
coeficientes reales), B = {1, x, , xn }.
(3) E = Mmxn (R) (conjunto de matrices de m filas y n columnas con
elementos reales), B = {A1,1 , , Am,n } con Ar,s = Ir,s (ver tema 2).
(4) E = C n , B = {~e1 , , ~en , ~v1 , , ~vn } con ~vj el vector de n componentes,
todas ellas nulas salvo la j-esima que vale i y ~ej el del apartado (a).
Calcula la dimension de cada uno de ellos. Que bases canonicas se obtienen
al considerar los anteriores espacios vectoriales sobre C?.
Ejercicio 2. De los siguientes subconjuntos de R3 , identifica los que son
subespacios vectoriales de R3 , razonando tu respuesta:
75

(a) {(x, y, z)T /y = 0}


(b) {(x, y, z)T /x = 0, y + z = 0}
(c) {(x, y, z)T /x = y, z = 2x}
Ejercicio 3. Cuales de los siguientes subconjuntos de R4 son subespacios?
Cuando lo sean halla su dimension y una base.
a) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 x3 x4 = 0.
b) El conjunto de los vectores (x1 , x2 , x3 , x4 )T que satisfacen x1 2x2 +4x3
x4 = 0.
c) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 = 0 y x4 = 2.
Ejercicio 4. Determina una base y la dimension de hV W i y V W
donde V y W estan generados respectivamente por los vectores x1 , . . . , xk e
y1 , . . . , ym siguientes:
a) x1 = [1, 2, 1, 0]T , x2 = [1, 1, 1, 1]T , y1 = [2, 1, 0, 1]T , y2 = [1, 1, 3, 7]T .
b) x1 = [1, 2, 1, 2]T , x2 = [3, 1, 1, 1]T , x3 = [1, 0, 1, 1]T , y1 = [2, 5, 6, 5]T , y2 =
[1, 2, 7, 3]T .
Ejercicio 5. En R4 se consideran los subespacios:
(i) F generado por a1 , a2 , a3 con
a1 = [1, 1, 1, 3]T , a2 = [3, 2, 3, 4]T , a3 = [1, 6, 1, 8]T .
(ii) G = {[x, y, z, t]T /y t = 0, 2y + 3t = 0}.
(iii) H generado por b1 , b2 , b3 con
b1 = [0, 1, 0, 0]T , b2 = [1, 0, 1, 2]T ,b3 = [2, 0, 0, 2]T .
Calcula ecuaciones, dimension y una base de los subespacios F , G, H, F +G,
F + H, F H, F G.
Ejercicio 6. Determina si los siguientes conjuntos de vectores son libres o
ligados en funcion del valor del parametro a:
a) [1, 2, 4]T , [1, 2, a]T , [a, 8, 16]T , [1, 1, 5]T
b) [1, 1, 0, 1]T , [1, 2, 2, 1]T , [3, a, 2, 3]T
c) [1, 2, 1, 0]T , [1, 1, 1, 1]T , [a, 0, 1, 2]T , [0, 1, 1, 1]T .
Ejercicio 7. En el espacio de los polinomios de grado menor o igual que
2 se considera el subespacio S generado por los polinomios 1 + 2x, 2 + x2 ,
3 + 2x + x2 y 4 + 4x + x2 . Halla una base de S y da las coordenadas del
polinomio 3x2 4x + 4 en dicha base.
Ejercicio 8. Halla una base de los subespacios generados por los conjuntos
de vectores siguientes, y ampla dichas bases hasta obtener una base del
espacio R4 :
76

a) [2, 1, 3, 0]T , [1, 0, 0, 2]T , [3, 1, 1, 1]T y [4, 1, 1, 2]T .


b) [2, 0, 1, 3]T , [1, 1, 0, 1]T , [0, 2, 1, 5]T y [3, 1, 2, 7]T .
Halla las coordenadas en las bases de R4 obtenidas en los apartados a) y b)
del vector [1, 0, 2, 1]T .
Ejercicio 9. Sea P4 [X] el espacio vectorial de los polinomios de grado menor
o igual que 4 con coeficientes reales.
(1) Demuestra que B = {1, x, x(x 1), x3 , x4 } es una base de P4 [X].
Sea W el subconjunto de P4 [X] definido por
W = {p(x) P4 [X]/p(1) = p(1) = 0}.
(2) Demuestra que W es un subespacio vectorial.
(3) Encuentra la dimension y una base de W .
(4) Completa dicha base a una de P4 [X], B.
(5) Halla la matriz de cambio de base M (B, B).
(6) Encuentra un subespacio V de P4 [X] tal que P4 [X] = W V .
Ejercicio 10. Se considera el polinomio P (x) = x4 + 2x3 x2 + x 1.
a) Demuestra que los polinomios P (x), P 0 (x), P 00 (x), P 000 (x) y P 0000 (x) forman
una base del espacio vectorial de los polinomios de grado menor o igual que
4.
b) Halla las coordenadas del polinomio 5x4 3x2 + 2x 4 en dicha base.
Ejercicio 11. Dado el subespacio S de R3 generado por los vectores (1, 0, 3)T ,
(2, 3, 1)T , determina si el vector (0, 4, 6)T pertenece o no a este subespacio.
Ejercicio 12. Halla la dimension y una base de los cuatro subespacios
fundamentales
asociados a las

matrices
siguientes:

1
2 0 1
1
2
0
2
1
i i 0
A= 0
1 1 0 , B = 1 2 1
1
0 ,C = 1 1 0.
2 1 3 2
1
2 3 7 2
0 0 1
Ejercicio 13. a) Construye una matriz cuyo espacio nulo este generado por
(1, 0, 1)T .
b) Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo
espacio nulo contenga al vector (1, 0, 0)T .
Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios
de grado menor o igual que 3:
p1 (x) = 1 + x + x2 + 2x3 , p2 (x) = 2 + 3x + 2x2 x3 ,
77

p3 (x) = 1 2x + 2x3 , p4 (x) = 4x + 6x2 + 6x3 .


Ejercicio 15. Discute el rango de las siguientes matrices en funcion de los
parametros a y b

1
2
A=
3
4

2
3
4
5

3
4
5
6

4 5
5 6
,
6 a
b 8

1 1 1 2
a
1
1
1
.
B=
1 1
3 3
4 2
0
a

Ejercicio 16. Sea T la aplicacion de R4 en R3 definida por


T ([x1 , x2 , x3 , x4 ]T ) = [x1 2x2 + x3 x4 , 2x1 x2 + x4 , 3x2 2x3 + 3x4 ]T
a) Comprueba que T es una transformacion lineal.
b) Halla la dimension y una base de Im(T ).
c) Halla la dimension y una base de Ker(T ).
Ejercicio 17. Sea T la aplicacion de R3 en R2 definida por
T ((x, y, z)T ) = (2x + y, y z)T .
a) Comprueba que T es una transformacion lineal.
b) Halla la dimension y una base de Ker(T ) e Im(T ).
c) Dadas las bases {(1, 1, 1)T , (0, 1, 2)T , (0, 2, 1)T } de R3 y {(2, 1)T , (1, 0)T }
de R2 , halla las correspondientes matrices de cambio de base y la matriz de
la aplicacion en estas nuevas bases.
Ejercicio 18. Sea T la transformacion lineal de R3 definida por
T ([x1 , x2 , x3 ]T ) = [x1 x2 + x3 , 2x1 3x2 x3 , x1 + 4x2 + 5x3 ]T .
a) Halla la matriz de T en la base canonica de R3 .
b) Sean ~v1 = [1, 1, 0]T , ~v2 = [1, 3, 2]T y ~v3 = [3, 1, 2]T . Halla la matriz de T
en la nueva base B 0 = {~v1 , ~v2 , ~v3 }.
c) Demuestra que T es invertible y da una expresion para T 1 como la que
definio a T .
Ejercicio 19. Determina una aplicacion lineal T : R4 R3 tal que Ker(T )
este generado por los vectores (1, 0, 0, 1)T y (1, 3, 2, 0)T y tal que Im(T )
este generada por los vectores (1, 1, 1)T y (0, 2, 1)T .
78

Ejercicio 20. Se considera la aplicacion lineal de P4 [X] en R2 dada por:


T : P4 [X] R2
T (p) = (p(1), p(1))T .
a) Halla la matriz que representa a dicha aplicacion lineal en las bases
canonicas de ambos espacios.
b) Halla una base de Ker(T ).
c) Se consideran las bases B = {1, x 1, x2 1, x(x2 1), x4 } de P4 [X] y
B 0 = {(1, 1)T , (2, 1)T } de R2 . Halla M (T, B, B 0 ).
Ejercicio 21. Sean U , V y W tres espacios vectoriales sobre R. Sean
B = {~u1 , ~u2 , ~u3 }, B 0 = {~v1 , ~v2 } y B 00 = {w
~ 1, w
~ 2, w
~ 3 } bases de U , V y
W respectivamente. Se consideran las aplicaciones lineales f : U V y
g : V W definidas por:
f (~u1 ) = 2~v1 + 3~v2 , f (~u2 ) = 4~v1 + 5~v2 , f (~u3 ) = ~v1 + ~v2 ,
g(~v1 ) = w
~ 1 2w
~ 2 + 3w
~ 3 , g(~v2 ) = 3w
~1 + w
~ 2 6w
~ 3.
a) Calcula la matriz de la aplicacion compuesta h = g f de U en W en las
bases B y B 00 .
b) Halla una base de Ker(h) e Im(h) en funcion de los vectores de las bases
B y B 00 respectivamente.
Bibliografa recomendada:
Strang. Algebra Lineal y sus aplicaciones. Addison-Wesley, Cap 2, apartados
2.1, 2.2, 2.3.
Grossman S. Algebra Lineal. Ed. Iberoamericana, Cap 4, apartados 4.1 a
4.9.

79

BLOQUE 2: ORTOGONALIDAD Y
PROBLEMAS DE AJUSTE
Nuestro segundo problema consiste en resolver un problemas de aproximacion en el sentido mnimos cuadrados. El primer tema de este bloque
presenta la nocion de espacio vectorial eucldeo, que no es mas que un espacio vectorial con un producto interno, concepto que generaliza la idea de
perpendicularidad entre vectores. La segunda leccion del bloque constituye
la parte practica, y en ella discutimos como resolver problemas de ajuste.

80

Tema 3

Espacios eucldeos
El objetivo de este tercer tema es introducir la idea de ortogonalidad
en un espacio vectorial y mostrar su influencia en los elementos del mismo.
La leccion constituye la base para entender la resolucion de problemas de
mnimos cuadrados tratada en el tema siguiente.

3.1.

Producto escalar

Sea V un espacio vectorial sobre K = R o C. Un producto interno o


producto escalar en V es toda aplicacion
h, i : V V K,
que debe verificar las siguientes propiedades:
(1) h~u1 + ~u2 , ~v i = h~u1 , ~v i + h~u2 , ~v i.
(2) h~u, ~v i = h~u, ~v i.
(3) h~u, ~v i = h~v , ~ui.
(4) h~u, ~ui 0 y si h~u, ~ui = 0 necesariamente ~u = ~0.
Combinando estas propiedades se tienen otras dos
h~u, ~v1 + ~v2 i = h~u, ~v1 i + h~u, ~v2 i.
u, ~v i.
h~u, ~v i = h~

81

Un espacio vectorial eucldeo no es mas que un espacio vectorial dotado


de un producto interno.
Asociado a un producto interno se encuentra la norma o longitud de un
vector ~v V que se define como
q

||~v || =

h~v , ~v i.

Se verifica siempre que ||~v || = ||||~v ||, K, ~v V .


Ejemplos.
(1) V = Rn , n = 1, 2, 3, . . . El producto interno mas celebre es el eucldeo: si
~v = (v1 , . . . , vn )T , ~u = (u1 , . . . , un )T se define
h~u, ~v i = u1 v1 + + un vn .
La norma asociada es la llamada norma eucdea:
q

||~v || =

v12 + + vn2 ,

que determina geometricamente la longitud de un vector de Rn .


(2) V = C n , n = 1, 2, 3, . . . El producto interno eucldeo es
h~u, ~v i = u1 v1 + + un vn ,
y la norma es la anterior.
(3) V = {f : [0, 2] R, f

continua}. Se puede definir,

hf, gi =

Z 2
0

f (x)g(x)dx,

que es un producto interno sobre V . La correspondiente norma es


||f ||2 =

Z 2
0

1/2

f (x) dx

Hay varias desigualdades importantes asociadas a un producto interno.


Teorema 1. Sea (V, h, i) un espacio vectorial eucldeo. Entonces, se verifican
82

La desigualdad de Cauchy-Schwarz,
|h~u, ~v i| ||~u||||~v ||.
La igualdad se produce si y solo si ~u y ~v son linealmente dependientes.
La desigualdad de Minkowsky,
||~u + ~v || ||~u|| + ||~v ||.
La igualdad se cumple si y solo si los vectores ~u y ~v son proporcionales
con coeficiente de proporcionalidad positivo.
La importancia desde un punto de vista geometrico de un producto interno viene dada por su relacion con el angulo formado por dos vectores.
Pensemos por ejemplo en el plano V = R2 y el producto eucldeo
h~u, ~v i = u1 v1 + u2 v2 .

~v

~u

Los elementos ~u, ~v V pueden representarse como vectores en el plano


que parten del origen. Sean y respectivamente los angulos formados por
los vectores ~u y ~v con el eje horizontal. Se tiene,
sin = u2 /||~u||,

cos = u1 /||~u||,

sin = v2 /||~u||,

cos = v1 /||~u||.

Ahora, el angulo formado por los vectores ~u y ~v es = , de modo


que
cos = cos( ) = cos cos + sin sin =
83

u1 v1 + u2 v2
h~u, ~v i
=
,
||~u||||~v ||
||~u||||~v ||

y se tiene la formula para determinar el angulo entre los dos vectores en


funcion del producto interno y la norma:
h~u, ~v i = ||~u||||~v || cos .

(3.1)

Esta formula es general: si (V, h, i) es un espacio vectorial eucldeo, ~u, ~v V ,


entonces el angulo entre ~u y ~v viene dado por
Re(h~u, ~v i) = ||~u||||~v || cos .

3.2.

Sistemas y bases ortogonales y ortonormales

La idea de ortogonalidad es la generalizacion a un espacio eucldeo del


concepto geometrico de vectores perpendiculares. Volviendo al ejemplo anterior de R2 , los vectores ~u y ~v seran perpendiculares si forman un angulo
recto. Seg
un (3.1), esto significa que h~u, ~v i = 0.
Definici
on. Sea (V, h, i) un espacio vectorial eucldeo. Se dice que dos
vectores ~u y ~v son ortogonales cuando h~u, ~v i = 0.
Ejemplo 1. En Rn con el producto eucldeo, la ortogonalidad significa que
u1 v1 + + un vn = 0,
o, en terminos matriciales,
~uT ~v = 0.
por ejemplo, ~u = (0, 1, 0, 1)T y ~v = (1, 1, 1, 1)T son ortogonales para este
producto interno.
Ejemplo 2. Sea V = {f : [0, 2] C, f
hf, gi =

Z 2
0

continua}. Se puede definir,

f (x)g(x)dx,

que es un producto interno sobre V . Las funciones f (x) = e3ix , g(x) = eix
verifican
hf, gi =

Z 2
0

e3ix eix dx =

Z 2
0

e2ix dx =

e2ix 2
| = 0.
2i 0

Luego las funciones f y g son ortogonales para este producto interno.


Se dice que un sistema de vectores {~e1 , ~e2 , . . . , ~en } en V es
84

Ortogonal si h~ek , ~el i = 0 para k 6= l.


Ortonormal si es ortogonal y ademas todos los vectores tienen norma
uno, es decir
h~ek , ~el i = 0,

k 6= l,

h~ek , ~ek i = 1,

k = 1, . . . , n.

As, un sistema ortonormal es siempre ortogonal. Por otro lado, si uno


tiene un sistema {~e1 , ~e2 , . . . , ~en } ortogonal, basta considerar el conjunto de
~e1
~e2
~en
vectores {
,
,...,
} para obtener un sistema ortonormal. Por
||~e1 || ||~e2 ||
||~en ||
u
ltimo, se tiene que un sistema ortogonal es siempre un conjunto linealmente
independiente de vectores (por que?).
Las bases que son ortogonales u ortonormales son muy u
tiles, entre otras
cosas porque permiten obtener de forma sencilla las coordenadas de un vector en ellas.
Teorema 2. Sea (V, h, i) un espacio vectorial eucldeo y {~e1 , ~e2 , . . . , ~em } un
sistema ortogonal con espacio generado W . Si ~u W , entonces
~u =

h~u, ~e1 i
h~u, ~e2 i
h~u, ~em i
~e1 +
~e2 + +
~em .
||~e1 ||2
||~e2 ||2
||~em ||2

En particular, si {~e1 , ~e2 , . . . , ~em } es ortonormal, entonces


~u = h~u, ~e1 i~e1 + h~u, ~e2 i~e2 + + h~u, ~em i~em .
Ademas, si uk = h~u, ~ek i, k = 1, . . . , m entonces
||~u||2 =

m
X

|h~u, ~ek i|2 = (u1 , . . . , um )(u1 , . . . , um )T ,

k=1

h~u, ~v i = u1 v1 + + un vn .
La obtencion de bases ortogonales y ortonormales sera importante al
tratar los problemas de mnimos cuadrados. Por eso presentamos ahora un
procedimiento para que, a partir de una base cualquiera, se pueda obtener
una base ortogonal.

3.3.

M
etodo de ortogonalizaci
on de Gram-Schmidt

Teorema 3. Sea {~v1 , ~v2 , . . . , ~vm } un sistema libre de vectores en un espacio


vectorial eucldeo (V, h, i). Entonces,
85

(a) Existe un nuevo sistema ortogonal y libre {~e1 , ~e2 , . . . , ~em } tal que ~e1 =
~v1 y para k = 2, . . . , m el vector ~ek est
a determinado de forma u
nica
por la relacion
~ek = ~vk 1k~e1 k1,k~ek1 ,
y las relaciones de ortogonalidad,
h~ek , ~el i = 0,

l = 1, . . . , k 1.

(b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V se puede ortogonalizar.
El procedimiento enunciado en el teorema es como sigue. Dados {~v1 , ~v2 , . . . , ~vm }
linealmente independientes, el primer vector no cambia:
~e1 = ~v1 .
para obtener ~e2 , escribimos ~e2 = ~v2 12~e1 e imponemos la ortogonalidad
entre ~e1 y ~e2 ,
h~e2 , ~e1 i = 0 h~v2 , ~e1 i 12 h~e1 , ~e1 i = 0 12 =

h~v2 , ~e1 i
.
||~e1 ||2

Queda as determinado
~e2 = ~v2

h~v2 , ~e1 i
~e1 ,
||~e1 ||2

que, por construccion, es ortogonal a ~e1 . Ahora, para obtener ~e3 , se escribe
~e3 = ~v3 13~e1 23~e2 y se impone la ortogonalidad con ~e1 y ~e2 ,
h~v3 , ~e1 i
,
||~e1 ||2
h~v3 , ~e2 i
=
.
||~e2 ||2

h~e3 , ~e1 i = 0 h~v3 , ~e1 i 13 h~e1 , ~e1 i = 0 13 =


h~e3 , ~e2 i = 0 h~v3 , ~e2 i 23 h~e2 , ~e2 i = 0 23
De este modo,
~e3 = ~v3

h~v3 , ~e1 i
h~v3 , ~e2 i
~e1
~e1 .
2
||~e1 ||
||~e2 ||2

El procedimiento permite un paso general. Supongamos que hemos obtenido


~e1 , . . . , ~ek1 ortogonales y queremos obtener ~ek . Entonces escribimos ~ek =
86

~vk 1k~e1 2k~e2 k1,k~ek1 e imponemos las condiciones de ortogonalidad


h~ek , ~e1 i = 0 1k =
..
.

..
.

h~vk , ~e1 i
,
||~e1 ||2

..
.

h~ek , ~ek1 i = 0 k1,k =

h~vk , ~ek1 i
,
||~ek1 ||2

con lo que ~ek queda determinado. Continuamos el proceso hasta obtener


tantos vectores como al principio.
Ejemplo. Supongamos que los vectores dados son

1
1
0
~v1 = 1 , ~v2 = 0 , ~v3 = 1 .
0
1
1
Entonces ~e1 = ~v1 . El vector ~e2 se obtiene de las condiciones
~e2 = ~v2 1,2~e1
h~e2 , ~e1 i = 0,
de donde
h~v2 , ~e1 i
~e1
h~e1 , ~e1 i
1
= ~v2 ~e1 ,
2

~e2 = ~v2

y, operando, es ~e2 = (1/2, 1/2, 1)T . El tercer vector viene de las condiciones
~e3 = ~v3 1,3~e1 2,3~e2
h~e3 , ~e1 i = h~e3 , ~e2 i = 0,
por lo que
h~v3 , ~e1 i
h~v3 , ~e2 i
~e1
~e2
h~e1 , ~e1 i
h~e2 , ~e2 i
1
1
= ~v3 ~e1 ~e2 ,
2
3

~e3 = ~v3

y por tanto ~e3 = (2/3, 2/3, 2/3)T .


87

Para obtener una base ortonormal, tenemos dos maneras. La primera


consiste en calcular una base ortogonal {~e1 , ~e2 , . . . , ~em } a partir del metodo
de Gram-Schmidt. Para obtener la base ortonormal, basta con dividir cada
~e1
~e2
~en
vector por su norma {
,
,...,
}. As, en el ejemplo anterior,
||~e1 || ||~e2 ||
||~en ||
los vectores ortonormales finales son entonces

~e1
~q1 =
=
||~e1 ||

r 1
1
1 ,

~e2
~q2 =
=
||~e2 ||

r 1/2
2
1/2 ,

~e3
~q3 =
=
||~e3 ||

r 2/3
3
2/3 .

2/3

La otra manera se basa en una variante del metodo. Supongamos que


{~v1 , ~v2 , . . . , ~vm } es un sistema libre. Ahora definimos
w
~1 =

~v1
,
||~v1 ||

con lo que ||w


~ 1 || = 1. Para determinar el siguiente vector, escribimos w
~ 2 =

~v2 12 w
~ 1 e imponemos la ortogonalidad hw
~2, w
~ 1 i = 0 con lo que determi2

namos 12 = h~v2 , w
~ 1 i/||w
~ 1 || = h~v2 , w
~ 1 i y as w
~ 2 . De esta forma, definimos
w
~2 =

w
~ 2
,
||w
~ 2 ||

con lo que w
~ 2 es ortogonal a w
~ 1 y ademas ||w
~ 2 || = 1.
De este modo, el paso general es el siguiente: supongamos que tenemos
w
~ 1, . . . , w
~ k1 ortonormales y queremos obtener el siguiente w
~ k . Escribimos
w
~ k = ~vk 1k w
~ 1 k1,k w
~ k1 ,
e imponemos la ortogonalidad con w
~ 1, . . . , w
~ k1 para determinar jk =
h~vk , w
~ j i. Una vez hecho esto, basta con definir
w
~k =

w
~ k
.
||w
~ k ||

Al final del proceso, tenemos un sistema {w


~ 1, w
~ 2, . . . , w
~ m } que es ortonormal.

Ejemplo. Para el ejemplo anterior, tenemos w


~ 1 = ~v1 /||~v1 || = (1/ 2, 1/ 2, 0)T .
El vector w
~ 2 se obtiene de las condiciones
w
~ 2 = ~v2 1,2 w
~1
hw
~ 2 , w
~ 1 i = 0,
88

de donde
w
~ 2 = ~v2 h~v2 , w
~ 1 iw
~1
1
= ~v2 w
~ 1,
2
y, operando, es w
~ 2 = (1/2, 1/2, 1)T y, por tanto
w
~2 =

w
~ 2 /||w
~ 2 ||

1
=(
2

2 1
,
3 2

2
,
3

2 T
) .
3

El tercer vector viene de las condiciones


w
~ 3 = ~v3 1,3 w
~ 1 2,3 w
~2
hw
~ 3 , w
~ 1 i = hw
~ 3 , w
~ 2 i = 0,
por lo que
w
~ 3 = ~v3 h~v3 , w
~ 1 iw
~ 1 h~v3 , w
~ 2 iw
~2

1
2
= ~v3 w
~1 w
~ 2,
2
2 3
y por tanto w
~ 3 = (2/3, 2/3, 2/3)T . Finalmente
r 2/3
3
w
~3 = w
~ 3 /||w
~ 3 || =
2/3 .
4

2/3

3.4.

Matrices ortogonales. Factorizaci


on QR

Consideremos el espacio eucldeo ordinario (Kn , h, i) con


h~x, ~y i = ~xT ~y ,

~x, ~y Kn .

Se define la matriz adjunta A Mn,m (K) de una matriz dada A Mm,n (K)
como su traspuesta conjugada A = AT . Se dice que una matriz cuadrada
P Mn,n (K) es ortogonal (si K = R) o unitaria (si K = C) cuando sus
columnas forman una base ortonormal de (Kn , h, i). Esto equivale a que
P P = In ,
es decir, la matriz sera ortogonal si y solo si P 1 = P T y unitaria si y solo
si P 1 = P .
89

Finalmente, el metodo de Gram-Schmidt tiene una versi


on matricial. Sea
A Mm,n (K) una matriz cuyas columnas ~v1 , ~v2 , . . . , ~vn forman un sistema
libre de Km . Entonces existen matrices Q Mm,n (K) con columnas ortonormales y R Mn,n (K) triangular superior con elementos diagonales positivos
tales que
A = QR.
Esta es la llamada factorizacion QR de la matriz A. En particular, si A
Mn,n (K), la matriz Q es ortogonal (o unitaria).
La razon es la siguiente. Fijemonos en que si {~e1 , ~e2 , . . . , ~en } es el sistema
ortogonal obtenido de {~v1 , ~v2 , . . . , ~vn } por el metodo de Gram-Schmidt, basta elegir Q la matriz cuya columna iesima es ~ei /||~ei || y R la matriz triangular superior cuyo elemento diagonal iesimo es ||~ei || y cuyo elemento
(i, j) es ||~ei ||ij , 1 i < j n. Esto procede de la igualdad vectorial
~vk = 1k~e1 + 2k~e2 + + k1,k~ek1 + ~ek
~e1
~e2
~ek1
~ek
= 1k ||~e1 ||
+ 2k ||~e2 ||
+ + k1,k ||~ek1 ||
+ ||~ek ||
.
||~e1 ||
||~e2 ||
||~ek1 ||
||~ek ||
Ejemplo. Para el ejemplo usado en la seccion anterior, la factorizacion QR
de la matriz

1
A = 1
0

1 0
0 1,
1 1

es A = QR con

Q = ~q1

~q2

~q3

2 p1/2 p1/2
3/2 p1/6 ,
R = 0
0
0
4/3
donde
~q1 =

~e1
||~e1 ||

r 1
1
1 ,
=

~q2 =

~e2
||~e2 ||

r 1/2
2
1/2 ,
=

EJERCICIOS DEL TEMA 3


90

~q3 =

~e3
||~e3 ||

r 2/3
3
2/3 .
=

2/3

Ejercicio 1. (a) Que pares de vectores son ortogonales?


v1 = (1, 2, 2, 1)T ,

v2 = (4, 0, 4, 0)T ,

v3 = (1, 1, 1, 1)T .

(b) Halla en R3 todos los vectores ortogonales a la vez a v1 = (1, 1, 1)T y


v2 = (1, 1, 0)T .
Ejercicio 2. Encuentra una base ortogonal de R3 partiendo del vector
(1, 1, 1)T .
Ejercicio 3. Dada la base B = {(1, 1, 0)T , (1, 0, 1)T , (0, 1, 1)T }
(a) Construye una base ortonormal de R3 a partir de B.
(b) Escribe el vector (2, 1, 3)T en terminos de la base ortonormal antes
obtenida.
(c) Si

1 1 0
A = 1 0 1
0 1 1
halla al factorizacion QR de la matriz A.
Ejercicio 4. Calcula una base ortonormal de R4 que incluya a los vectores
1
1
( , 0, , 0)T ,
2
2

1 1 1 1
( , , , )T .
2 2 2 2

Ejercicio 5. Mediante el proceso de ortonormalizacion de Gram-Schmidt


halla una base ortonormal de los subespacios generados por los vectores
siguientes:
a) [1, 1, 1, 1]T , [0, 1, 1, 1]T y [3, 1, 1, 0]T ,
b) [1, 1, 1, 1]T , [1, 1, 2, 4]T y [1, 2, 1, 2]T .
Ejercicio 6. Halla la factorizacion QR para las matrices siguientes:

0 0

A= 0 1
1 1

1
1,
1

A=
1
1

1 0
1 1,
1 0

1
1
A=
1
1

1
0
0
1

2
1
1
0

0
1
.
2
1

Ejercicio 7. Halla una factorizacion QR para las matrices siguientes:

1
1
A=
1
1

0
1
1
1

1 0 1

0
, B = 0 0 1.
1
1 1 1
1
91

Bibliografa recomendada:
Strang G. Algebra lineal y sus aplicaciones. Addison-Wesley. Cap 3.
Grossman S.I. Algebra Lineal. Ed. Iberoamericana. Cap 4, apartados 4.10,
4.11.
Fraleigh J.B., Beauregard R.A. Algebra Lineal. Addison-Wesley. Cap 5.

92

Tema 4

Problemas de ajuste
Ejemplo introductorio. Ya hemos visto que el concepto de ortogonalidad
generaliza la nocion elemental de perpendicularidad de R2 y R3 . Su nocion
es fundamental para la aproximaci
on en espacios con producto interno.





6
JJ
]
~y  JJ
~r

J

J

 
J

J




J
*

 

J
(
(


(((



(
(
(
(((

(

~v

















Para ver por que, consideremos el problema de aproximar un vector


~y R3 por una combinaci
on lineal 1~v1 + 2~v2 de dos vectores linealmente
93

independientes ~v1 , ~v2 . Nuestro criterio para la mejor aproximaci


on requiere
minimizar la norma del residuo ~r = ~y 1~v1 2~v2 .
La situacion geometrica se ilustra en la figura. Cuando 1 y 2 varan, el
vector ~v = 1~v1 +2~v2 se mueve en un subespacio bidimensional representado
en la figura por el plano. Las lneas con trazo mas fino muestran una tpica
aproximacion ~v y el correspondiente residuo ~r. La intuici
on geometrica nos
dice que el tama
no de ~r debera hacerse mnimo cuando ~r est
a en angulo
recto al plano, como ilustran las lneas de trazo grueso.
Los problemas de los que trata este tema tienen entonces base en un
problema com
un conocido de geometra elemental, que es el siguiente: dados un vector ~x de un cierto espacio vectorial eucldeo V y un subespacio
vectorial U de V (por ejemplo, si V = R3 , U puede ser un plano vectorial)
se busca la proyeccion ortogonal de ~x sobre U , que es aquel vector ~xU U ,
si existe, tal que ~x ~xU es ortogonal a U .
La proyeccion ortogonal ~xU de ~x sobre U se suele llamar tambien la mejor
aproximacion de ~x mediante vectores de U . Ello es debido a que ||~x ~xU || es
la menor de las normas ||~x ~u|| para ~u recorriendo U . Esto es, la proyecci
on
ortogonal de ~x sobre U va a proporcionar la mnima distancia de ~x a U .

4.1.

Ortogonales

Sea (V, h, i) un espacio vectorial eucldeo. Se dice que dos subespacios


de V son ortogonales si cualquier vector de uno de ellos es ortogonal a todos
los vectores del otro.
Dado un subconjunto U de un espacio vectorial eucldeo (V, h, i) se
define su ortogonal como
U = {~v V /h~u, ~v i = 0, ~u U }.
Hay que destacar que aunque U no sea un subespacio vectorial, el ortogonal
U siempre lo es. Si, en particular, U es un subespacio vectorial, entonces
U U = {~0}.
Teorema 1. Sea (V, h, i) un espacio vectorial eucldeo y W un subespacio
de dimension finita. Entonces, el subespacio ortogonal W es suplementario
de W , es decir, V = W W . Esto significa que cada vector ~v V se escribe
de forma u
nica como una suma ~v = w
~ + ~u, con w
~ W , ~u W . Si V tiene
dimension finita, {~e1 , ~e2 , . . . , ~em } es una base ortonormal de W y se comple-

94

ta hasta obtener una base ortonormal de V , {~e1 , ~e2 , . . . , ~em , ~em+1 , . . . , ~en }
entonces W = span(~em+1 , . . . , ~en ). Ademas, dimW = dimV dimW .
Ejemplo 1. En R3 con el producto usual,
h~x, ~y i = x1 y1 + x2 y2 + x3 y3 ,
el ortogonal de la recta W = span((1, 0, 0)T ) es el plano W = {(x, y, z)T /x =
0}. Una base de W es, naturalmente (0, 1, 0)T , (0, 0, 1)T , de modo que
(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T es una base ortonormal. Todo vector (x, y, z)T
se escribe de forma u
nica como
(x, y, z)T = x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T ,
con x(1, 0, 0)T W e y(0, 1, 0)T + z(0, 0, 1)T W .
Ejemplo 2. Sea A Mm,n (K). Entonces
(Ker(A)) = f il(A)
(Ker(AT )) = col(A)
En efecto, vamos a comprobar la primera igualdad. La segunda queda como
ejercicio y es trivial a partir de la primera. Fijemonos en que si ~x es tal que
A~x = ~0, este sistema de ecuaciones afirma que cada fila de A es ortogonal a
cualquier vector ~x Ker(A). Luego f il(A) (Ker(A)) . Como, por otra
parte, ambos subespacios tienen la misma dimension, ha de ser (Ker(A)) =
f il(A).

4.2.

Proyecci
on ortogonal

Volvamos a la situacion del Teorema 1. El sumando w


~ W de la descomposicion ~v = w
~ + ~u se llama proyecci
on ortogonal de ~v sobre W y se
denota por PW (~v ).
Teorema 2. En las condiciones del Teorema 1, se tiene:
(1) La proyeccion ortogonal PW (~v ) W de ~v sobre W queda caracterizada
por la condicion
~v PW (~v ) es ortogonal a todo vector de W .
(2) La proyeccion ortogonal PW (~v ) de ~v sobre W es la mejor aproximaci
on
de ~v por elementos de W , en el sentido de que es el mas proximo a ~v
de entre todos los vectores de W , es decir:
||~v PW (~v )|| = mn{||~v w||
~ :w
~ W }.
95

La relacion del apartado (1) del teorema da un medio practico para


calcular PW (~v ). Tomemos una base cualquiera {w
~ 1, w
~ 2, . . . , w
~ m } de W . Encontrar PW (~v ) es encontrar escalares 1 , . . . , m tales que PW (~v ) = 1 w
~1 +
+ m w
~ m , puesto que la proyecci
on ha de estar en W . Por otro lado,
para que se verifique la condicion de (1) se necesita y basta que ~v PW (~v )
sea ortogonal a cada w
~ i . Por tanto, los i quedan caracterizados por las m
condiciones
h~v (1 w
~ 1 + + m w
~ m ), w
~ 1i = 0
h~v (1 w
~ 1 + + m w
~ m ), w
~ 2i = 0
..
.
. = ..
h~v (1 w
~ 1 + + m w
~ m ), w
~ m i = 0,
es decir,
1 hw
~ 1, w
~ 1 i + + m hw
~ m, w
~ 1 i = h~v , w
~ 1i
1 hw
~ 1, w
~ 2 i + + m hw
~ m, w
~ 2 i = h~v , w
~ 2i
..
..
. = .

(4.1)

1 hw
~ 1, w
~ m i + + m hw
~ m, w
~ m i = h~v , w
~ mi
Las ecuaciones (4.1) se llaman ecuaciones normales del problema. Un caso particularmente sencillo es aquel en el que la base {w
~ 1, w
~ 2, . . . , w
~ m } es
ortogonal. Entonces, el sistema (4.1) tiene la forma
1 ||w
~ 1 ||2 = h~v , w
~ 1i
..
..
. = .
m ||w
~ m ||2 = h~v , w
~ mi
con lo que
PW (~v ) =

h~v , w
~ 1i
h~v , w
~ mi
w
~1 + +
w
~ m.
||w
~ 1 ||2
||w
~ m ||2

Ejemplos.
(1) Sea W = {(x, y, z, t)T /x + y z = 0, x t = 0}. Buscamos la proyecci
on
T
ortogonal de ~v = (1, 1, 1, 0) sobre W . Primero obtenemos una base de W ,
que puede ser, por ejemplo, w
~ 1 = (1, 0, 1, 1)T , w
~ 2 = (0, 1, 1, 0)T . Ahora, la
proyeccion ha de ser de la forma PW (~v ) = 1 w
~ 1 + 2 w
~ 2 . El planteamiento de
las condiciones de ortogonalidad da lugar al sistema de ecuaciones normales
31 + 2 = 2
1 + 22 = 2,
96

de donde 1 = 2/5, 2 = 4/5. Entonces


2
4
PW (~v ) = w
~1 + w
~ 2 = (2/5, 4/5, 6/5, 2/5)T .
5
5
(2) Sea V = {f : [0, 2] R, f
hf, gi =

continua} con el producto interno


Z 2

f (x)g(x)dx.

Vamos a buscar la proyecci


on ortogonal de f (x) = x sobre el subespacio
W generado por las funciones 1, sin x, cos x. La proyecci
on tendra la forma
PW (f ) = 1 + 2 sin x + 3 cos x. El sistema de ecuaciones normales es en
este caso
(
Z 2

(
Z

0
2

Z 2
0

Z 2

1dx)1 + (
Z 2

sin xdx)1 + (

cos xdx)1 + (

0
2

Z 2

sin xdx)2 + (

sin2 xdx)2 + (

Z 2
0

cos xdx)3 =

sin x cos xdx)3 =

Z 2

sin x cos xdx)2 + (

Z 2
0
2

cos2 xdx)3 =

Z 2
0

xdx

x sin xdx

x cos xdx.

Esto es, 1 = , 2 = 2, 3 = 0: De este modo, PW (f ) = 2 sin x.


(3) A veces es mas simple calcular previamente una base ortogonal del subespacio y luego aplicar la formula de la proyecci
on para este tipo de bases. Por
ejemplo, dentro del espacio de funciones reales y continuas en el intervalo
[0, 1] con el producto interno

hf, gi =

Z 1
0

f (x)g(x)dx,

se puede buscar la proyecci


on ortogonal de la funcion f (x) = ex sobre el
subespacio W generado por las funciones 1, x, x2 .

4.3.
4.3.1.

Problemas de ajuste
Ejemplo 1

Muchos problemas de aproximaci


on o de ajuste desembocan en la resolucion de un sistema lineal
A~x = ~b,

A Mm,n (K), ~b Km , ~x Kn ,
97

sobredeterminado (m > n) e incompatible, es decir, ~b


/ W = col(A).
Supongamos que el rango de A es n, es decir, que las columnas de A son
independientes. Dado, que ~b
/ W = col(A), el sistema carece de solucion.
Puesto que, cuando ~x recorre Kn , A~x nunca coincide con ~b, podemos preguntarnos para que ~x es ||A~x ~b|| lo menor posible, siendo |||| una norma en Km
previamente elegida. Tales ~x juegan el papel de soluciones en un sentido
generalizado. Observemos que su determinacion comprende dos etapas:
(i) Hallar la mejor aproximaci
on ~b a ~b por elementos de W (proyecci
on
ortogonal).
(ii) Resolver el sistema A~x = ~b en sentido convencional. La solucion ~xLS
de este sistema se llama solucion en el sentido mnimos cuadrados,
pues hace mnima las distancias ||A~x ~b|| cuando ~x recorre Kn .
Denotemos por Ai la iesima columna de A. Puesto que ~b es la proyecci
on
ortogonal de ~b sobre W = col(A) y ~b = A~xLS , entonces la condicion de
proyeccion ortogonal nos lleva a que ~b ~b = ~b A~xLS debe ser ortogonal a
cada columna de A:
h~b A~xLS , Aj i = 0,

j = 1, 2, . . . , n,

o, equivalentemente
hA~xLS , Aj i = hAj , ~bi,
de modo que las ecuaciones normales en este caso nos llevan a
A AxLS = A~b.

(4.2)

Si las columnas de A son linealmente independientes, la solucion en el sentido


mnimos cuadrados es la u
nica solucion del sistema (4.2).
Este tipo de problemas surgen en situaciones como la siguiente: supongamos que realizamos una serie de experimentos, esperando que el resultado
sea una funcion de los datos. Por ejemplo, se esta llevando a cabo un estudio
para determinar la relacion entre la fuerza de friccion que act
ua hacia arriba
y la velocidad de cada de un paracaidista. Se llevan a cabo algunos experimentos para obtener la siguiente informacion sobre la velocidad V (medida
en centmetros por segundo) y la fuerza de rozamiento F (medida en 106
dinas):
Suponiendo por ejemplo una relacion lineal F = a+bV , la cuestion es como
calcular los coeficientes a y b a partir de los resultados de los experimentos? Si
98

1.0

2.0

3.0

4.0

5.0

15.3

29.3

46.4

66.3

la relacion es en realidad lineal y no hay error experimental, bastara con dos


medidas de F en valores distintos de V para determinar la recta F = a + bV
y todas las demas medidas estaran sobre ella. Pero si existe alg
un error
experimental, estamos ignorando las restantes medidas y el ajuste F = a+bV
sera poco fiable. Debemos promediar y trabajar con todas las observaciones,
planteando el sistema sobredeterminado

1
1

A = 1

1
1

1
5
15,3

2
a

3
= 29,3 ,
b

46,4
4
5
66,3

y buscando la solucion en el sentido mnimos cuadrados. En este caso, la


solucion de las ecuaciones normales es a = 13,65, b = 15,37. En la figura
4.1 se muestra el resultado del ajuste. Como se planteara el problema si
esperasemos una relacion cuadratica en los datos F = a + bV + cV 2 ?

4.3.2.

Ejemplo 2

Consideremos el espacio V de las funciones continuas de [0, 2] en R con


el producto interno
hf, gi =

Z 2
0

f (x)g(x)dx

y consideremos el subespacio de los polinomios trigonometricos de grado


menor o igual que n
(

Sn =

n
a0 X
+
(ak cos(kx) + bk sin(kx)), a0 R, ak , bk R, 1 k n .
2
k=1

Buscamos la mejor aproximaci


on a una funcion f de V por elementos de Sn ,
es decir, la proyeccion ortogonal de f sobre Sn . Una base de Sn es
B = {1, cos(x), sin(x), cos(2x), sin(2x), . . . , cos(nx), sin(nx)}.

99

80

70
(5,66.3)
60

50

(4,46.4)
40

30

(3,29.3)

20
(2,15.3)
10
(1,5)
0

1.5

2.5

3.5
V

4.5

5.5

Figura 4.1: Datos y recta de ajuste F = a + bV .

No es difcil ver que se tienen las formulas

0 si j 6= k
si j = k 6= 0

0
2 si j = k = 0

Z 2
0 si j 6= k
sin(jx) sin(kx)dx =
si j = k
0

Z 2

Z 2
0

cos(jx) cos(kx)dx =

cos(jx) sin(kx)dx = 0.

De este modo, la base B es ortogonal para el producto interno anterior. Por


tanto, la mejor aproximacion a f V por elementos de Sn es el polinomio
trigonometrico
n
a0 X
+
(ak cos(kx) + bk sin(kx)),
Pn (x) =
2
k=1

donde los coeficientes vienen dados por


Z

ak =
bk =

1 2
f (x) cos(kx)dx,
0
Z
1 2
f (x) sin(kx)dx,
0
100

0 k n,
1 k n.

P2

2
P1

f(x)
0

Figura 4.2: f (x) = x y aproximaciones trigonometricas de orden uno y dos.

Por ejemplo, la mejor aproximaci


on a la funcion f (x) = x por polinomios
trigonometricos de grado menor o igual que uno es P1 (x) = 2 sin x y
el de grado menor o igual que dos es P2 (x) = 2 sin x sin 2x. En la
figura 4.2 se ha representado f (x) = x junto con estas dos aproximaciones
P1 (x), P2 (x).

4.3.3.

Ejemplo 3

Consideremos el espacio V de las funciones reales continuas en [1, 1]


con el producto interno
hf, gi =

Z 1

f (x)g(x)dx

y consideremos el subespacio P3 [X] de los polonomios de grado menor o


igual que tres con coeficientes reales. Buscamos la mejor aproximaci
on a
una funcion f V por elementos de P3 [X], es decir, la proyecci
on ortogonal
de f sobre P3 [X]. Para ello consideremos por ejemplo la base canonica B =
{1, x, x2 , x3 }. Fijemonos en que
k

hx , x i =

Z 1
1

k+l

dx =

2
k+l+1

si k+l es par
0 si k+l es impar

101

1.2

0.8

0.6

0.4

0.2
f(x)=x4
0
p3
0.2
1

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

Figura 4.3: f (x) = x4 y aproximaci


on p3 (x).

La mejor aproximacion a f por polinomios de grados menor o igual que


tres es de la forma p3 (x) = 0 + 1 x + 2 x2 + 3 x3 , donde los coeficientes
satisfacen el sistema de ecuaciones normales

2
0
0
2/3

2/3
0
0
2/5

2/3
0
2/5
0

1

0
0
1 f (x)dx
R
1
1
xf (x)dx
2/5

1 =
R

.
1
0 2 1
x2 f (x)dx
R1 3
2/7
3
x f (x)dx
1

Por ejemplo, para la funcion f (x) = x4 , el termino independiente de las ecuaciones normales es (2/5, 0, 2/7, 0)T y la solucion 0 = 3/35, 1 = 0, 2 =
3
6/7, 3 = 0. La mejor aproximaci
on es entonces p3 (x) = 35
+ 76 x2 . En
la figura 4.3 se ha representado la funcion f (x) = x4 junto con su mejor
aproximacion por polinomios de grado menor o igual que tres p3 (x).

4.4.

Distancia a un subespacio

Sea W un subespacio de un espacio vectorial eucldeo (V, h, , i) con


dimension finita. Dado un vector ~v V se define la distancia de este vector

102

al subespacio W como
dist(~v , W ) = inf {||~v w||
~ :w
~ W }.
Sabemos de las secciones anteriores que esta distancia viene determinada
por la proyeccion ortogonal
dist(~v , W ) = ||~v PW (~v )||.
De este modo, para calcular una distancia lo que tenemos que hacer es
obtener una proyeccion ortogonal.
Ejemplo. Para W = {(x, y, z, t)T /x + y z = 0, x t = 0}, buscamos la
distancia del vector ~v = (1, 1, 1, 0)T a W . Calculamos la proyecci
on ortogonal
de ~v sobre W . Una base de W es, por ejemplo, w
~ 1 = (1, 0, 1, 1)T , w
~2 =
T
(0, 1, 1, 0) . Ya vimos que la proyecci
on ortogonal es
4
2
~1 + w
~ 2 = (2/5, 4/5, 6/5, 2/5)T .
PW (~v ) = w
5
5
De esta manera,
dist(~v , W ) = ||~v PW (~v )|| = ||(3/5, 1/5, 1/5, 2/5)T || =

15/5.

EJERCICIOS DEL TEMA 4


Ejercicio 1. Se consideran los subespacios U, V y W de R4 dados por:

U = {[x, y, z, t]T /x+yz = 0, xt = 0}, V = span([0, 1, 1, 1]T , [2, 0, 1, 1]T ), W = {[x, y, z, t]T /x+y = 0
a) Da las ecuaciones que definen U , V , W .
b) Halla bases ortonormales de U , U , V , V , W y W .
c) Halla las matrices respecto de la base ordenada canonica de R4 de las
proyecciones ortogonales sobre U , V y W respectivamente.
Ejercicio 2. Dado el subespacio S = {(x, y, z)T R3 : 2x y + 3z = 0}
(a) Halla una base ortonormal de S.
(b) Calcula la proyeccion ortogonal del vector v = (3, 2, 4)T sobre S.
(c) Escribe v como suma de dos vectores, uno que este en S y otro que sea
ortogonal a todos los vectores de S.
103

Ejercicio 3. Repite el ejercicio anterior para los siguientes subespacios y


vectores:
(a) S = {(x1 , x2 , x3 , x4 )T R3 : 2x1 x2 +3x3 x4 = 0}, v = (1, 1, 2, 3)T .
(b) S = {(x1 , x2 , x3 , x4 )T R3 : x1 = x2 , 3x2 = x4 }, v = (1, 2, 3, 1)T .
Ejercicio 4. Calcula la descomposicion del vector v en suma de dos vectores,
uno en el subespacio generado por los vectores wi que se indican y el otro
ortogonal a dicho subespacio:
(a) v = (5, 2, 2, 1)T , w1 = (2, 1, 1, 1)T , w2 = (1, 1, 3, 0)T .
(b) v = (1, 0, 2, 1)T , w1 = (1, 1, 1, 1)T .
Ejercicio 5. Halla la solucion en el sentido mnimos cuadrados de los sistemas

1
1

1
1

0
0

1
1
x

=
2,
3 y
4
5

1 1 1
1
0
x
0
2
1

y = .
1
1
3 2
z
1 1 1
1

Ejercicio 6. Sea N un n
umero entero y x0 , x1 , . . . , xN N + 1 n
umeros reales
con xi 6= xj si i 6= j, i, j = 0, 1, . . . , N . Sobre el espacio de los polinomios
con coeficientes reales se considera la forma bilineal
() < p, q >=

N
X

p(xj )q(xj ) +

j=0

N
X

p0 (xj )q 0 (xj ).

j=0

(a) Para que valores de k define la expresion anterior un producto interno


en el espacio Pk [X] de los polinomios de grado menor o igual que k con
coeficientes reales? Razona la respuesta.
(b) Fijemos N = 1, x0 = 1, x1 = 1. Halla una base del subespacio ortogonal
a P1 [X] en P3 [X] para el producto interno definido por ().
(c) Sea q(x) un polinomio de P4 [X] del que se sabe que q(1) = 1, q(1) =
3, q 0 (1) = 1, q 0 (1) = 2. Halla la mejor aproximaci
on, para el producto
interno definido por (), al polinomio q(x) por polinomios de grado 2.
Ejercicio 7. Sea P4 [X] el espacio de los polinomios reales de grado menor o
igual a cuatro. Sea T : P4 [X] R2 la aplicacion lineal que a cada polinomio
p lo enva al vector (p(1), p(1))T .
a) Calcula una base de Ker(T ).

104

b) En el conjunto de las funciones reales definidas en (1, 1), se considera


el producto interno
Z
hf, gi =

f (x)g(x)dx.

Aproxima en el sentido mnimos cuadrados la funcion f dada por

f (x) =

si 1 x < 0
1 si 0 x 1/2

0 si 1/2 < x 1

por elementos de Ker(T ).


Ejercicio 8. Que recta ajusta mejor los siguientes datos: y = 0 en x = 0,
y = 0 en x = 1, y = 12 en x = 3 ?.
Ejercicio 9. Calcula la distancia del vector (1, 1, 0, 1)T al subespacio S
generado por los vectores (0, 1, 1, 1)T y (1, 1, 1, 1)T .
Bibliografa recomendada:
Strang G. Algebra lineal y sus aplicaciones. Addison-Wesley. Cap 3.
Grossman S.I. Algebra Lineal. Ed. Iberoamericana. Cap 4, apartados 4.10,
4.11.
Fraleigh J.B., Beauregard R.A. Algebra Lineal. Addison-Wesley. Cap 5.

105

BLOQUE 3: REDUCCION DE MATRICES


El tercer problema que tratamos aparece en varias aplicaciones. Consiste en
encontrar una forma de una matriz cuadrada lo mas sencilla posible, pero
manteniendo una cierta estructura. Ya veremos que esto es diferente a la
eliminacion gaussiana, en el sentido de que tenemos que mantener unos elementos asociados a las matrices que son los autovalores. El primer tema
discute el problema de cuando podemos expresar una matriz cuadrada en
forma diagonal, es decir, con todos los elementos nulos excepto los de la diagonal principal, y estos no pueden ser cualesquiera. La segunda leccion del
bloque pretende responder al caso general: si no es posible diagonalizar, entonces como podemos reducir la matriz. Presenta tambien algunas primeras
aplicaciones de estos resultados, como resolver recurrencias vectoriales y
ecuaciones en diferencias.

106

Tema 5

Matrices diagonalizables
Ejemplo introductorio. Un ejemplo que puede ilustrar esta y la siguiente
leccion es la representacion vectorial de la sucesion de Fibonacci que, como es
conocido, aparece de manera insospechada en multitud de procesos. Un caso
que puede resultar interesante es su formulaci
on en modelos de trafico en
canales de comunicacion, por ejemplo lneas telefonicas, que surgen en teora
de la informacion. Consideremos un canal de informacion y supongamos que
dos informaciones elementales S1 y S2 de duraciones, por ejemplo, t1 = 1 y
t2 = 2 respectivamente (pensemos en el punto y la lnea en el alfabeto Morse)
pueden combinarse para obtener un mensaje. Uno puede estar interesado en
el n
umero de mensajes Mn de longitud n. Estos mensajes pueden dividirse
en dos tipos: aquellos que terminan con S1 y los que terminan con S2 . El
n
umero de mensajes de primer tipo es Mnt1 y el n
umero de mensajes de
segunda clase es Mnt2 . Entonces, tenemos
Mn = Mn1 + Mn2 ,
ecuacion de Fibonacci, de solucion
Mn =

c1 n1

c2 n2 ,

1+ 5
,
1 =
2

1 5
2 =
.
2

hay dos formas de resolver el problema: usar la ecuacion anterior o bien la


representacion vectorial: ~vn = (Mn , Mn1 )T ,

~vn+1 = A~vn =
de solucion ~vn = An (c1 , c2 )T .
107

1
1

1
~v ,
0 n

Hay problemas, como el del ejemplo, en el que se busca una representacion sencilla de la matriz que no proporciona el metodo de la eliminacion gaussiana, porque se necesita preservar una cierta estructura que la
eliminacion no proporciona.
El objetivo de este y el tema siguiente se centra en la teora de diagonalizacion de matrices. Hemos de buscar, si es posible, una representaci
on de
la matriz que permita resolver problemas como el mencionado. Imaginemos
que un vector ~v0 verificase
A~v0 = ~v0 ,
para cierto escalar . Entonces la solucion del problema sera sencilla de
obtener, pues
~vn = An~v0 = n~v0 .
La pregunta es existen vectores especiales de esa forma, de manera que
podamos escribir la condicion inicial como combinaci
on de ellos?

5.1.

Semejanza de matrices

Sean A, B Mn,n (K). Se dice que A es semejante con B si existe una


matriz no singular P Mn,n (K) tal que
B = P 1 AP.
Hay que notar que si A es semejante con B y K entonces In A es
semejante con In B.
Ya hemos visto un ejemplo de semejanza de matrices al hablar de la
matriz de una aplicacion lineal en una base. Imaginemos que V es un espacio
vectorial de dimension finita, B, B 0 son dos bases de V y T : V V es una
aplicacion lineal. Denotemos por
M (T, B, B) = M (T, B),

M (T, B 0 , B 0 ) = M (T, B 0 ).

108

VB

M (T, B, B)

- VB

T (~x)

M (B 0 , B)

M (B 0 , B)

M (T, B 0 , B 0 )
VB 0
~x

VB 0

Recordemos que
la relacion entre las dos matrices de la aplicacion lineal T viene dada por la
matriz P = M (B 0 , B) de cambio de base:
M (T, B 0 ) = P 1 M (T, B)P.
Esto no es otra cosa que una relacion de semejanza: todas las matrices que
representan al endomorfismo T en las distintas bases son semejantes entre
s.
Presentada la nocion de semejanza de matrices, nos planteamos la cuestion
de si dada una matriz A Mn,n (K) puede haber una matriz semejante con
ella cuya expresion sea sencilla, mas concretamente diagonal.

5.2.

Autovalores y autovectores. Polinomio caracterstico

Sea una matriz cuadrada A Mn,n (K). La expresion


pA (z) = det(zIn A),

109

z C,

es un polinomio monico de grado n,


pA (z) = z n + an1 z n1 + + a1 z + a0 ,
que se llama polinomio caracterstico de la matriz A. Las races de la ecuacion
pA (z) = 0 se llaman races caractersticas de la matriz A. Factorizando el
polinomio seg
un las distintas races,
pA (z) = (z 1 )m1 (z 2 )m2 (z r )mr ,
el n
umero mj , 1 j r se denomina multiplicidad algebraica de la raz
caracterstica j . Puesto que pA tiene grado n, se cumple siempre que
n = m1 + m2 + + mr .
mr
1
Ademas det(A) = (1)n a0 = m
1 r .
El conjunto (A) = {1 , . . . , r } se llama espectro de A.
Observemos que si A, B Mn,n (K) son semejantes, entonces comparten
el polinomio caracterstico y, por tanto, el espectro y el determinante. En
particular, como las matrices que representan a un endomorfismo T en distintas bases son semejantes, es posible definir el determinante, el polinomio
y races caractersticas y el espectro de un endomorfismo T como los correspondientes a una matriz que represente a T en alguna base.
Sea A Mn,n (K). Se dice que K es un valor propio o autovalor de
A si existe alg
un vector ~v tal que

A~v = ~v .
Tales vectores se llaman autovectores de A asociados al autovalor .
Teorema 1. En esta situacion, las siguientes condiciones son equivalentes:
(1) es autovalor de A.
(2) Existe un vector ~v tal que A~v = ~v .
(3) La matriz In A es singular.
(4) pA () = det(In A) = 0.
As pues, los autovalores de A son las races caractersticas de la matriz
A que se encuentran en el cuerpo K considerado. Si K = C, el conjunto de
valores propios coincide con el espectro de A, mientras que si K = R, los
110

autovalores son las races caractersticas que son n


umeros reales. Normalmente, para determinar los autovalores de una matriz se suele hacer uso
de la cuarta condicion del teorema, determinando si es posible los ceros del
polinomio caracterstico que estan en el cuerpo considerado.
Dado un autovalor de A, es claro que los vectores del subespacio
Ker(In A) son los autovectores asociados a y solo ellos. El subespacio
E(A, ) = Ker(In A),
se llama subespacio propio asociado a y su dimension
d() = dimE(A, ) 1,
es la multiplicidad geometrica del autovalor .
Ejemplos.
(1) Para la matriz

2
2 6
A = 2 1 3 ,
2 1 1
el polinomio caracterstico es

z 2 2
6
pA (z) = det(zI3 A) = det 2 z + 1
3 = (z + 2)2 (z 6).
2
1
z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 2,

m1 = 2

2 = 6

m2 = 1.

Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geometrica. Para 1 = 2

x
4 2 6
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 2 1 3 y = ~0}
z
2
1 3
= {(x, y, z)T /2x + y 3z = 0} = span((1, 2, 0)T , (0, 3, 1)T )
d(1 ) = 2.
111

Mientras que para el otro autovalor

4 2 6
x
T

E(A, 2 ) = Ker(6I3 A) = {(x, y, z) / 2 7 3


y = ~0}
2
1 5
z
= {(x, y, z)T /2x y + 3z = 0, y + z = 0} = span((2, 1, 1)T )
d(2 ) = 1.
(2) Para la matriz

1 1 0

A = 1 2 1 ,
0 1 1
el polinomio caracterstico es

z1
1
0
pA (z) = det(zI3 A) = det 1
z2
1 = z(z 1)(z 3).
0
1
z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 0,

m1 = 1

2 = 1

m2 = 1

3 = 3

m3 = 1.

Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geometrica. Para 1 = 0

1 1
0
x
E(A, 1 ) = Ker(A) = {(x, y, z)T / 1 2 1 y = ~0}
0
1 1
z
= {(x, y, z)T /x = y = z} = span((1, 1, 1)T ) d(1 ) = 1.
Mientras que para el segundo autovalor

x
0 1 0
E(A, 2 ) = Ker(I3 A) = {(x, y, z)T / 1 1 1 y = ~0}
z
0 1 0
= {(x, y, z)T /y = 0, z = x} = span((1, 0, 1)T ) d(2 ) = 1,

112

y, para el tercero,

2 1
E(A, 3 ) = Ker(3I3 A) = {(x, y, z)T / 1 1
0 1

0
x
1 y = ~0}
2
z

= {(x, y, z)T /x = z, y = 2z} = span((1, 2, 1)T ) d(3 ) = 1.


(3) Para la matriz

0 1 0
A = 1 0 1
0 0 2
el polinomio caracterstico es

z 1
pA (z) = det(zI3 A) = det 1 z
0 0

0
1 = (z 2)(z 2 + 1).
z2

De modo que, como matriz de elementos complejos, los autovalores con sus
multiplicidades algebraicas son
1 = 2,

m1 = 1

2 = i

m2 = 1

3 = i

m3 = 1.

Como matriz real, solo hay un valor propio 1 , mientras que el espectro
lo forman las tres races. Buscamos ahora los subespacios propios de cada
autovalor y su correspondiente multiplicidad geometrica, suponiendo que la
matriz es compleja. Para 1 = 2

2 1 0
x
T

E(A, 1 ) = Ker(2I3 A) = {(x, y, z) / 1 2 1


y = ~0}
0 0 0
z
= {(x, y, z)T /y = (2/5)z, x = (1/5)z} = span((1, 2, 5)T )
d(1 ) = 1.
Mientras que para el segundo autovalor

x
i 1
0
E(A, 2 ) = Ker(iI3 A) = {(x, y, z)T / 1 i 1 y = ~0}
z
0 0 i2
= {(x, y, z)T /z = 0, x = iy} = span((1, i, 0)T ) d(2 ) = 1,
113

y, para el tercero,

i 1
E(A, 3 ) = Ker((i)I3 A) = {(x, y, z)T / 1 i
0
0

0
x
1 y = ~0}
i 2
z

= {(x, y, z)T /z = 0, x = iy} = span((1, i, 0)T ) d(3 ) = 1.


Nota: como 2 y 3 son conjugados, los vectores que generan cada subespacio propio tambien lo son.

5.3.

Diagonalizaci
on

A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos de definir, es clara la importancia de los autovalores y los
autovectores en la determinacion de la solucion a nuestro problema. El objetivo es por tanto encontrar una manera de tratar de transformar una matriz
cuadrada A en una matriz diagonal o triangular sin cambiar sus valores propios. Esto no se cumple para la eliminacion gaussiana: los autovalores de la
matriz triangular superior final del proceso de eliminacion no son los de la
matriz original.
Comenzamos dando un criterio para determinar cuando podemos transformar una matriz en otra diagonal.
Sea A Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable
si existe una matriz semejante con ella que es diagonal. Esto significa que
existe una matriz P Mn,n (K) no singular tal que
D = P 1 AP
es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal principal, es claro que la matriz diagonal semejante a
la matriz A tiene por entradas diagonales los autovalores de A.
Teorema 2. Sea A Mn,n (K) y 1 , . . . , r los autovalores de A. Entonces
(a) Los subespacios E(A, 1 ), . . . , E(A, r ) son independientes.
(b) La multiplicidad geometrica d(j ) de cada autovalor es a lo sumo su
multiplicidad algebraica m(j ).
(c) La matriz A es diagonalizable si y solo si se verifican las dos condiciones
siguientes:
114

(i) j K, j = 1, . . . , r (esta condicion siempre se cumple si K = C).


(ii) d(j ) = m(j ), j = 1, . . . , r.
(d) La matriz A es diagonalizable si y solo si
Kn = E(A, 1 ) E(A, r ).
Esto equivale a decir que A es diagonalizable si y solo si existe una
base en Kn formada por vectores propios de A.
El criterio practico para determinar si una matriz A es diagonalizable es
el siguiente:
(1) Determinar los autovalores de A a traves de las races de su polinomio
caracterstico pA (z) = det(zIn A). Si alguna de sus races ya no
esta en K, la matriz ya no es diagonalizable.
an en K.
(2) Supongamos que todas las races caractersticas 1 , . . . , r est
La determinacion de estas races j (los autovalores) nos permite conocer cada una de las multiplicidades algebraicas m(j ) (que recordemos es la multiplicidad de j como cero del polinomio caracterstico).
A continuacion determinamos la dimension de cada subespacio propio E(A, j ) = Ker(j In A), es decir, la multiplicidad geometrica
d(j ). Para cada autovalor j comprobamos si se cumple la segunda
condicion: d(j ) = m(j ). Si para alguno falla, la matriz no es diagonalizable.
(3) Caso de que todos los autovalores verifiquen las dos condiciones (i) y
(ii) del apartado (c) del Teorema 2, determinamos una base Bj de cada
subespacio propio E(A, j ) y juntamos todas las bases para formar
una base de Kn : B = B1 Br . Entonces, si P es la matriz cuyas
columnas son los vectores de la base B, se tiene que P 1 AP es diagonal
con los elementos de la diagonal principal siendo los autovalores de A.
Ejemplos.
(1) Para la matriz

2
2 6
A = 2 1 3 ,
2 1 1
115

ya hemos visto que los autovalores con sus multiplicidades son


1 = 2,

m1 = 2, d1 = 2

2 = 6

m2 = 1, d2 = 1.

luego la matriz es diagonalizable en R. Tambien calculamos anteriormente


una base de cada subespacio propio:
E(A, 1 ) = span((1, 2, 0)T , (0, 3, 1)T )
E(A, 2 ) = span((2, 1, 1)T ).
Entonces, si

1 0 2

P = 2 3 1 ,
0 1 1
se tiene que

2 0 0
1

P AP =
0 2 0 .
0
0 6
(2) Para la matriz

1 1 0

A = 1 2 1 ,
0 1 1
se tiene
1 = 0,

m1 = 1, d1 = 1

2 = 1

m2 = 1, d2 = 1

3 = 3

m3 = 1, d3 = 1.

La matriz es diagonalizable en R. La base de autovectores es la siguiente:


E(A, 1 ) = span((1, 1, 1)T )
E(A, 2 ) = span((1, 0, 1)T )
E(A, 3 ) = span((1, 2, 1)T ).

116

Luego si

1 1
1
P = 1 0 2 ,
1 1 1
se tiene que

0 0
P 1 AP = 0 1
0 0

0
0.
3

Este es un ejemplo de un caso particular de matrices diagonalizables: aquellas


cuyos autovalores estan en el cuerpo considerado y son todas distintas.
(3) Para la matriz

0 1 0
A = 1 0 1
0 0 2
se tiene
1 = 2,

m1 = 1, d1 = 1

2 = i

m2 = 1, d2 = 1

3 = i

m3 = 1, d3 = 1.

Como matriz real, A no es diagonalizable, pues tiene dos autovalores que


no son reales. Pero como matriz compleja, A es diagonalizable. La base de
autovectores es la siguiente:
E(A, 1 ) = span((1, 2, 5)T )
E(A, 2 ) = span((1, i, 0)T )
E(A, 3 ) = span((1, i, 0)T ).
Luego si

1 1
P = 2 i
5
0

1
i ,
0

se tiene que

2
1

P AP = 0
0

0 0
i 0 .
0 i

117

5.4.

Triangularizaci
on

Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del
teorema anterior, la matriz A no es diagonalizable. Cuando la segunda de las
condiciones de diagonalizacion falla manteniendose la primera (los autovalores estan en el cuerpo considerado) la matriz a
un puede reducirse a forma
triangular superior por semejanza.
Teorema 3. Sea A Mn,n (K). Entonces existen una matriz U Mn,n (K)
no singular y una matriz triangular superior S Mn,n (K) tales que S =
U 1 AU si y solo si los autovalores de A est
an en K (esta condicion se satisface
siempre cuando K = C). La matriz U puede elegirse unitaria (U = U 1 ).
La demostracion es constructiva y por tanto da la forma de actuar en los
ejemplos. Si se verifica que S = U 1 AU , entonces los autovalores de A est
an
en K, pues son los elementos de la diagonal principal de S. Recprocamente,
supongamos que los autovalores de A est
an en K y procedamos por induccion
sobre n. La propiedad es cierta para n = 1 (toda matriz 1 1 es triangular).
Supongamos entonces que la propiedad es cierta para todas las matrices de
tama
no (n 1) (n 1) y veamos que tambien es cierta si A tiene tama
no
n n.
Tomemos un autovalor 1 de A y ~v1 un autovector asociado con norma
uno. Consideremos una base ortonormal B = {~v1 , ~v2 , . . . , ~vn } que tenga a
~v1 como primer vector. Entonces, si P es la matriz cuyas columnas son los
vectores de la base, la matriz A0 = P 1 AP tiene como primera columna al
vector (1 , 0, 0, . . . , 0)T , de modo que

1
0

A0 = ..
.
0

A1

donde A1 es una matriz de tama


no (n 1) (n 1) y denota escalares
cuyo valor es irrelevante para nuestro razonamiento.
Como A0 es semejante con A, tienen los mismos autovalores, que son 1
y los de A1 . Luego los autovalores de A1 son los de A menos 1 una vez. Por
hipotesis de induccion, existe una matriz regular y unitaria U1 de tama
no
(n 1) (n 1) tal que S1 = U11 A1 U1 es triangular superior. Sea U la

118

matriz

1
0

U = P ..
.
U1
0

entonces U es unitaria por ser producto de matrices unitarias y ademas

U 1 AU

1
0

= ..
.
U1
0

1
0

= ..
.
U1
0

1
0

P 1 AP ..
.
U1
0

1
0

A0 ..
.
U1
0

1 1
0
0


= ..
..
.
.
U11
0
0

= ..

1
.

U1 A1 U1
0

1
0

= ..
,
.

S1
0

A1

1
0

..
.
U1
0

que es una matriz triangular superior.


Ejemplo. La matriz

3
1

A=
0
2
1 1

0
1,
1

tiene un u
nico autovalor 1 = 2 con multiplicidad m(1 ) = 3. Veamos que
es triangularizable en R. El subespacio propio asociado es

x
1 1 0
0 1 y = ~0}
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 0
z
1
1
1
119

= {(x, y, z)T /z = 0, y = x} = span((1/ 2, 1/ 2, 0)T ) d(1 ) = 1.


Como las multiplicidades
no coinciden,
la matriz no es diagonalizable en

R. Consideremos ~v1 = (1/ 2, 1/ 2, 0)T y completemos


hasta formar una

base ortonormal, por ejemplo con ~v2 = (1/ 2, 1/ 2, 0)T , ~v3 = (0, 0, 1)T .
Entonces

2
1
1/ 2
A0 = P 1 AP = 0
3
1/ 2 .

0 2
1
La matriz A1 es

A1 =


3
1/ 2

.
1
2

A1 tiene un u
nico autovalor = 2 con multiplicidad m() = 2. El subespacio
propio asociado es

1
1/
2
x
T
E(A1 , ) = Ker(2I3 A1 ) = {(x, y) /
= ~0}
2
1
y


= {(x, y)T /y = 2x} = span((1/ 3, 2/ 3)T ) d() = 1,


que no es diagonalizable. Tomamos w
~ 1 = (1/ 3, 2/ 3)Ty completamos

hasta una base ortogonal de R2 , por ejemplo, con w


~ 2 = ( 2/ 3, 1/ 3)T .
Sea

1/
3
2/ 3

.
U1 =
2/ 3 1/ 3
Entonces

U11 A1 U1

2
0

9/2
2

Sea

1
0
0

U =P 0
1/
3
2/ 3 .

0 2/ 3 1/ 3
Por tanto


2 2/ 3 p
1/ 6
U 1 AU = 0
2
9/2 .
0
0
2

120

5.5.

Diagonalizaci
on ortogonal

Hemos visto que la diagonalizacion de una matriz, o de un endomorfismo,


es un problema que no siempre tiene solucion. Hay, sin embargo, un caso
particular de matrices que son siempre diagonalizables y para las que las
bases de diagonalizacion tienen estructura especial.
Recordemos que la adjunta A Mn,m (K) de una matriz dada A
Mm,n (K) se define como la traspuesta conjugada. Ademas, es importante la
relacion con el producto interno
hA~x, ~y i = h~x, A ~y i,

~x Kn , ~y Km .

La adjunta se comporta con la suma y el producto por un escalar en el


sentido siguiente:
(A + B) = A + B ,

.
(A) = A

Ademas, (A ) = A.
Una matriz A Mn,n (R) es
simetrica si AT = A = A,
antisimetrica si AT = A = A,
ortogonal si A es no singular y AT = A = A1 .
Analogamente, una matriz A Mn,n (C) es
hermtica si A = A,
antihermtica si A = A,
unitaria si A es no singular y A = A1 .
Recordemos tambien que A Mn,n (R) (resp. A Mn,n (C)) es ortogonal
(resp. unitaria) si sus columnas forman una base ortonormal de Rn (resp.
C n ).
Las matrices destacables son las simetricas en el caso real y las hermticas
en el caso complejo. Ambas son siempre diagonalizables. Ademas, la matriz
formada por la base de autovectores es ortogonal en el caso real y unitaria
en el caso complejo.
Teorema 4. Sea A Mn,n (R) una matriz simetrica. Entonces
(1) Todos los autovalores 1 , . . . , r de A son reales.
121

(2) Si y son autovalores de A distintos, los correspondientes subespacios propios E(A, ), E(A, ) son ortogonales.
(3) Existe una matriz ortogonal P Mn,n (R) tal que P T AP = P 1 AP
es diagonal.
En la practica, se procede como en una diagonalizacion normal, con
la u
nica diferencia de que para cada subespacio propio se elige una base
ortonormal.
Ejemplo. Vamos a diagonalizar ortogonalmente la matriz

3 1
A = 1 3
1 1

1
1.
3

El polinomio caracterstico es
pA (z) = (z 2)2 (z 5),
de manera que los autovalores con sus multiplicidades algebraicas son
1 = 2,

m(1 ) = 2

2 = 5,

m(2 ) = 1.

Los subespacios propios son los siguientes. Para 1 = 2

1 1 1
x
T

E(A, 1 ) = Ker(2I3 A) = {(x, y, z) / 1 1 1


y = ~0}
1 1 1
z
= {(x, y, z)T /x + y + z = 0}

= span((1/ 2, 0, 1/ 2)T , (1/ 6, 2/ 6, 1/ 6)T ) d(1 ) = 2.


Fijemonos en que hemos elegido una base ortonormal del subespacio. Esta
es la u
nica diferencia. Para el otro autovalor

x
2
1 1
E(A, 2 ) = Ker(5I3 A) = {(x, y, z)T / 1 2 1 y = ~0}
z
1
1 2
= {(x, y, z)T /x 2y + z = 0, y z = 0}

= span((1/ 3, 1/ 3, 1/ 3)T ) d(2 ) = 1.


122

Los autovectores asociados a autovalores distintos ya son ortogonales entre


s. Como las multiplicidades coinciden, la matriz es diagonalizable. La base
elegida al juntar las bases de cada subespacio propio, es ortonormal, de modo
que la matriz

1/ 6 1/3
1/ 2
P = 0 2/ 6 1/3 ,
1/ 2 1/ 6 1/ 3
es ortogonal. Ademas,

2 0
T
1

P AP = P AP = 0 2
0 0

0
0.
5

Teorema 5. Sea A Mn,n (C) una matriz hermtica. Entonces


(1) Todos los autovalores de A son reales.
(2) Si y son autovalores de A distintos, los correspondientes subespacios propios E(A, ), E(A, ) son ortogonales.
(3) Existe una matriz unitaria U Mn,n (C) tal que U AU = U 1 AU es
diagonal.
Ejercicio. Diagonaliza unitariamente la matriz

2
i 2 i 2

3
1 .
A = i2
i 2
1
3

EJERCICIOS DEL TEMA 5


Ejercicio 1. Se considera la aplicacion lineal T : R3 R3 siguiente
T ([x, y, z]T ) = [2x + z, x + y + z, x y + 3z]T .
Se considera en R3 la base B 0 = {[3, 1, 0]T , [1, 3, 0]T , [0, 0, 1]T }.
a) Halla la matriz de T respecto de la nueva base B 0 .
b) Halla una base B 00 de R3 en la cual la matriz de la aplicacion lineal sea
diagonal.
123

Ejercicio 2. Sea T : R3 R3 una aplicacion lineal que admite por vectores


propios a
v1 = (1, 1, 0)T , v2 = (1, 1, 0)T , v3 = (0, 0, 1)T .
Se sabe ademas que la imagen del vector w = (3, 1, 1)T es el vector (8, 0, 2)T .
Halla los valores propios de T .
Ejercicio 3. Encuentra los autovalores y autovectores de las siguientes matrices:

1
0
0
1

0
0
1 1

0 0
0 0
,
1 0
1 2

2
1 1
0
1
0

1
1
0
1 1 1

0
0
,
0
2

4 1 2 1
2 2 2 1

4 2 2 2 .
1 0 1 1

Ejercicio 4. Demuestra que las matrices

4a
1

A=
6 1 a
2
1

1
2
1a

1a

B=
0
0

1
1a
0

0
0
2a

son semejantes independientemente del valor de a, pero que las matrices

C= 0
0

0 0
2 0
0 2

2 0 3

D = 0 2 1
0 0 2

no son semejantes.
Ejercicio 5. Estudia para que valores de los parametros reales a y b son
diagonalizables las siguientes matrices

5 0 3
A = 0 1 0 ,
0 a b

2
B = 0
1

0 0
1 a.
1 1

Halla un sistema completo de autovectores cuando sea posible.


Ejercicio 6. Encuentra autovalores, autovectores, forma diagonal y matriz
de paso para las siguientes matrices

0 1 2
1
0 3,
2 3 0
124

1 0
0 1
0 0

1
2 .
2

Ejercicio 7. Determina si las siguientes matrices son o no diagonalizables.


En caso afirmativo, encuentra la matriz de paso y la forma diagonal asociada.

1 1 2
1 2
1 ,
0 1 1

7 2 4
3
0 2 ,
6 2 3

2 1
0 0
0 0

2 2
5
1

0
0
0
0

0
1,
0

0 0
0 0
,
2 1
5 2

3 1 1
1
1 1 ,
1 1 1

4
1 0 1
2
3 0 1

.
2
1 2 3
2 1 0 5

Ejercicio 8. Se consideran las matrices complejas siguientes:

2
i 2 i 2
5 2i 4

A = i2
3
1 ,
B = 2i
8
2i .
i 2
4 2i 5
1
3
Halla matrices unitarias U , V tales que U 1 AU , V 1 BV sean diagonales, y
halla dichos productos.
Ejercicio 9. Diagonaliza ortogonalmente las matrices simetricas

4
A = 0
2

0
10
0

2
0,
4

3 1 0
B = 1 3 0 ,
0
0 2

1
C= 2
1

2 1
2 2
2 1

encontrando matrices ortogonales P , Q y R tales que P 1 AP , Q1 BQ y


R1 CR sean diagonales. Idem para la matriz

1 2
D = 2 4
3 6
Ejercicio 10. Sea

2 1
A = 1 1
0 1

3
6.
9

0
1.
2

Halla una matriz ortogonal P con det(P )=1 y tal que P T AP sea una matriz
diagonal con los elementos diagonales dispuestos en orden decreciente.
Bibliografa recomendada:
Grossman. Algebra Lineal. Ed. Iberoamericana. Cap 6, apartados 6.1 a 6.3.
J. de Burgos. Algebra Lineal. Ed. Mc Graw-Hill. Cap 9.
125

Tema 6

Matrices no diagonalizables
Ejemplo introductorio. Un curso de Algebra y Ecuaciones Diferenciales
1
se imparte en dos grupos, A y B. Cada semana dejan el curso de los que
4
1
1
estan en el grupo A y de los que estan en B. Ademas, del grupo B se
3
6
1
1
pasa al grupo A y de A pasa a B. Finalmente, de los que abandonaron
4
6
1
en la semana anterior se incorporaron al grupo A y al grupo B. Calcula
6
la recurrencia vectorial asociada al problema. Si inicialmente hay 108 matriculados en el grupo A, 90 en B y 12 que se matriculan pero abandonan el
curso, cual sera la distribucion de las clases y los abandonos transcurridos
dos meses de curso?.
Denotemos por A[n] los alumnos que hay en el grupo A en la semana
n, B[n] los alumnos que estan en el grupo B en la semana n y C[n] los
alumnos que dejan el curso tras la semana n. Inicialmente A[0] = 108, B[0] =
90, C[0] = 12. las relaciones entre una semana y la siguiente es, seg
un el
enunciado,
1
1
1
A[n + 1] =
A[n] + B[n] + C[n]
2
6
6
1
1
1
B[n + 1] =
A[n] + B[n] + C[n]
4
2
6
1
1
2
C[n + 1] =
A[n] + B[n] + C[n]
4
3
3
T
Matricialmente, si ~v [n] = (A[n], B[n], C[n]) , tenemos el sistema

1/2 1/6 1/6


~v [n + 1] = A~v [n] = 1/4 1/2 1/6 ~v [n],
1/4 1/3 2/3
126

~v [0] = (108, 90, 12)T .


La distribucion tras dos meses de curso, es ~v [8] = A8~v [0].
En el tema anterior establecimos condiciones para la diagonalizacion de
una matriz cuadrada. Cuando una de las condiciones de diagonalizacion fallaba, a
un podamos triangularizar la matriz, hacerla semejante a una matriz
triangular superior. Esta no es, sin embargo, la representaci
on mas simple
de la matriz en el caso de que esta no diagonalice por no cumplir la segunda
condicion. Para las aplicaciones que nos interesan, que seran las que aparecen en este tema y los dos siguientes, buscaremos una representaci
on a traves
de una base de los llamados autovectores generalizados. Esta representaci
on
viene dada por el teorema de descomposicion primaria. El primer bloque de
aplicaciones de estos resultados sera tratado tambien en este tema y corresponde a las llamadas recurrencias vectoriales; en particular las ecuaciones
en diferencias.

6.1.

Autoespacios generalizados

Sea A Mn,n (K) una matriz cuadrada, que puede corresponder a un


endomorfismo sobre un espacio vectorial de dimension finita. Sea un autovalor de A. Sabemos que el autoespacio asociado a es el subespacio
E(A, ) = Ker(In A). Cuando la matriz no diagonaliza por no cumplir
la segunda condicion de diagonalizacion, es porque para alg
un autovalor la
multiplicidad geometrica d() = dimE(A, ) no coincide con la algebraica
m() (orden de como raz del polinomio caracterstico). Si eso ocurre para
nuestro , nuestra idea es tratar de encontrar un subespacio relacionado
con E(A, ) cuya dimension sea justamente m(). Este subespacio puede
encontrarse a traves de las potencias de In A.
Lema 1. Sea A Mn,n (K) y un autovalor de A. Se verifica:
(a) Cada subespacio Ker(In A)k , k 0 es invariante frente a A.
(b) Ker(In A)k Ker(In A)k+1 , k 0.
(c) Si para un entero k0 se da la igualdad
Ker(In A)k0 = Ker(In A)k0 +1 ,
entonces
Ker(In A)k = Ker(In A)k+1 ,
127

k k0 .

Fijado , se puede demostrar que la sucesion de subespacios


Ker(In A) Ker(In A)2 Ker(In A)3
estabiliza en alguna potencia de (In A). Esto significa que hay un primer
entero k() para el cual
Ker(In A)k() = Ker(In A)k()+1 ,
y, por el apartado (c) del lema 1, todos los siguientes subespacios coinciden.
El subespacio
Eg (A, ) = Ker(In A)k()
se llama autoespacio generalizado correspondiente a . Sus elementos se
llaman autovectores generalizados asociados a . Notese que si m k() se
tiene que
Eg (A, ) = Ker(In A)m .
Tambien, si A es diagonalizable, Eg (A, ) = E(A, ).
Ejemplo. Vamos a buscar los autoespacios generalizados de la matriz

1 2 3 4
0
1 1 2
.
A=
0
0
1
4
0 0
0 3
Los autovalores con sus multiplicidades algebraicas son
1 = 1,

m(1 ) = 3

2 = 3,

m(2 ) = 1.

Para el primer autovalor

x
0 2 3 4

0
0
1
2
y = ~0}
E(A, 1 ) = Ker(I3 A) = {(x, y, z, t)T /

0 0
z
0 4
t
0 0 0
4
= {(x, y, z, t)T /t = 0, z = 0, y = 0} = span((1, 0, 0, 0)T ) d(1 ) = 1.

128

Ker(I3 A)2

0
= {(x, y, z, t)T /
0
0

0
0
0
0

2 32
x
y
0
4
= ~0}
0 16 z
0 16
t

= {(x, y, z, t)T /t = 0, z = 0} = span((1, 0, 0, 0)T , (0, 1, 0, 0)T ).

Ker(I3 A)3

0
= {(x, y, z, t)T /
0
0

0
0
0
0

0 120
x
y
0 16
= ~0}
0 64 z
0 64
t

= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).

Ker(I3 A)4

0
= {(x, y, z, t)T /
0
0

0
0
0
0

0 480
x
y
0
64
= ~0}
0 256 z
0 256
t

= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
Luego Eg (A, ) = Ker(I3 A)3 . Para el segundo autovalor

4 2 3 4
x

0 4 1
2 y
= ~0}
E(A, 2 ) = Ker(3I3 A) = {(x, y, z, t)T /
0
0 4 4 z
0
0
0
0
t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ) d(2 ) = 1.

Ker(3I3 A)2

16 16 26
0
x

0
16
8
12
y = ~0}
= {(x, y, z, t)T /
0

0
16
16
z
0
0
0
0
t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ).

Luego Eg (A, ) = E(A, ) = Ker(3I3 A).


129

6.2.

Teorema de descomposici
on primaria

El teorema que nos da una reduccion de la matriz a traves de los autovectores generalizados es el siguiente. Mas adelante veremos ejemplos.
Teorema 1. Sea A Mn,n (K) y supongamos que todos los autovalores
de A, 1 , . . . , r , estan en K. Para cada j = 1, . . . , r pongamos d(j ) =
dimE(A, j ) la multiplicidad geometrica, m(j ) la multiplicidad algebraica
y k(j ) el primer entero donde se estabiliza la sucesion de n
ucleos {Ker(j In
k
A) }k1 . Se cumple entonces que
(1) k(j ) m(j ),

1 j r.

(2) dimEg (A, j ) = m(j ),

1 j r.

(3) El espacio Kn es suma directa de los autoespacios generalizados:


Kn = Eg (A, 1 ) Eg (A, 2 ) Eg (A, r ).
(4) Tomemos una base arbitraria Bj de cada autoespacio generalizado
Eg (A, j ), 1 j r. Entonces B = B1 Br es una base de
Kn . Si P es la matriz cuyas columnas son los vectores de B, entonces
P 1 AP es diagonal por bloques, es decir,
P 1 AP = diag(T1 , . . . , Tr ),
donde Tj es una matriz de tama
no m(j ) m(j ) de la forma
Tj = j Im(j )m(j ) + Nj ,
con Nj Mm(j )m(j ) (K) una matriz tal que para alguna potencia s,
Njs = 0 es la matriz nula.
Para las aplicaciones que ahora veremos y las de los temas siguientes, es
mas importante obtener la base de autovectores generalizados que la forma
diagonal por bloques semejante.
Ejemplos. Buscamos una base de autovectores generalizados para las siguientes matrices.
(1)

5
4
3
A = 1 0 3 .
1 2 1
130

El polinomio caracterstico es pA (z) = (z 4)2 (z + 2), de modo que los


autovalores con sus multiplicidades algebraicas son
1 = 4,

m(1 ) = 2

2 = 2,

m(2 ) = 1.

Para el primer autovalor

1 4 3
x
0
E(A, 1 ) = Ker(4I3 A) = {(x, y, z)T / 1
4
3 y = 0 }
1 2
3
z
0
= {(x, y, z)T /x = z, y = z} = span((1, 1, 1)T ) d(1 ) = 1.
Luego

0 18 18
x
0
Eg (A, 1 ) = Ker(4I3 A)2 = {(x, y, z)T / 0 18
18 y = 0 }
0 18
18
z
0
= {(x, y, z)T /y = z} = span((1, 1, 1)T , (1, 0, 0)T ).
Para el segundo autovalor

7 4 3
x
0
T

E(A, 2 ) = Ker(2I3 A) = {(x, y, z) /


1 2 3
y = 0 }
1 2 3
z
0
= {(x, y, z)T /y = z, x = z} = span((1, 1, 1)T ) d(2 ) = 1.
Luego los vectores ~v1 = (1, 1, 1)T , ~v2 = (1, 0, 0)T , ~v3 = (1, 1, 1)T forman
una base de autovectores generalizados, de los cuales son autovectores ~v1
y ~v3 . Si P es la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , la forma reducida
semejante a A tiene la forma

4 1 0
P 1 AP = 0 4 0 .
0 0 2
donde las columnas de P 1 AP est
an formadas por las coordenadas de
A~v1 , A~v2 y A~v3 en la base nueva. Se tiene
A~v1 = 4~v1
A~v2 = (A 4I3 )~v2 + 4~v2 = ~v1 + 4~v2
A~v3 = 2~v3
131

(2)

1
0 1 0
3 2 7 5
.
A=
0
0
1 0
1 1 4 2
Calculamos los autovalores de A. Su polinomio caracterstico es, desarrollando por la tercera fila,

z 1

pA (z) = det(zI4 A) = (z 1) 3
1

0
0
z + 2 5 = (z 1)2 (z 2 + 1).
1
z 2

De modo que, los autovalores de A, con sus multiplicidades algebraicas, son:


1 = 1, m(1 ) = 2; 2 = i, m(2 ) = 1; 3 = i, m(3 ) = 1.
Buscamos ahora una base de los autoespacios generalizados asociados a cada
autovalor de A.
Para 1 , tenemos,

3
E(A, 1 ) = Ker(I A) = {(x, y, z, t)T :
0
1

0
3
0
1

1 0
x
0
y 0
7 5
= }
0 0 z 0
4 1
t
0

= {(x, y, z, t)T : z = 0, 3x + 3y 5t = 0, x + y t = 0}
= {(x, y, z, t)T : z = t = 0, y = x} = h(1, 1, 0, 0)T i.
Como la multiplicidad algebraica es 2 y la del autoespacio es 1, para obtener
el autoespacio generalizado tendremos que elevar al cuadrado la matriz (I
A),

4
Eg (A, 1 ) = Ker(I A)2 = {(x, y, z, t)T :
0
2

0
4
0
2

0
0
x
0
y 0
4 10
= }
0
0 z 0
4 4
t
0

= {(x, y, z, t)T : 2x + 2y + 2z 5t = 0, x + y + 2(z t) = 0}


= {(x, y, z, t)T : t = 2z, x = y 6z}
= h(1, 1, 0, 0)T , (6, 0, 1, 2)T i.

132

Para el segundo autovalor,


Eg (A, 2 ) = Ker(iI A) = {(x, y, z, t)T :


i1
0
1
0
x
0
3
y 0
i
+
2
7
5

= }
0
0
i1
0 z 0
1
1
4
i2
t
0
= {(x, y, z, t)T : (i 1)x + z = 0, 3x + (i + 2)y + 7z 5t = 0,
(i 1)z = 0, x + y + 4z + (i 2)t = 0.}
= {(x, y, z, t)T : z = x = 0, y = (2 i)t} = h(0, 2 i, 0, 1)T i.
Y como el tercer autovalor es conjugado del segundo y A es real, su autoespacio generalizado esta generado por el conjugado del vector anterior,
Eg (A, 3 ) = Ker(iI A) = h(0, 2 + i, 0, 1)T i.
Tenemos ya calculada una base de autovectores generalizados,
~v1 = (1, 1, 0, 0)T , ~v2 = (6, 0, 1, 2)T , ~v3 = (0, 2i, 0, 1)T , ~v4 = (0, 2+i, 0, 1)T .
donde, recordemos que ~v1 , ~v3 y ~v4 son autovectores. Si P es la matriz cuyas
columnas son ~v1 , ~v2 , ~v3 , ~v4 , la forma reducida semejante a A tiene la forma

1 1 0 0

0 1 0 0
.
P 1 AP =
0
0 i 0
0 0 0 i
donde las columnas de P 1 AP est
an formadas por las coordenadas de
A~v1 , A~v2 , A~v3 y y A~v4 en la base nueva. Se tiene
A~v1 = ~v1
A~v2 = (A I4 )~v2 + ~v2 = ~v1 + ~v2
A~v3 = i~v3
A~v4 = i~v4

6.3.

Recurrencias vectoriales

Dada una matriz A Mn.n (C) planteamos el problema de dar la solucion


de la recurrencia vectorial
~x[m + 1] = A~x[m],

~x[m] C n ,
133

m 0.

(6.1)

Ya hemos visto un ejemplo de recurrencia vectorial en la introduccion del


tema anterior o en el ejemplo introductorio de este tema. Conocido el valor
inicial ~x[0] = ~x C n , la solucion es ~x[m] = Am ~x[0]. El problema (6.1)
quedara entonces resuelto si obtuvieramos la potencia Am . Sin embargo,
en la practica esto no es necesario. En lugar de obtener la entrada Am
es mas sencillo expresar la solucion ~x[m] como una superposicion de los
llamados modos normales. El uso de estos modos normales proporciona a su
vez un algoritmo para la obtencion de las potencias de A, caso de que las
necesitaramos. Uno de los inconvenientes del uso de modos normales es la
necesidad de conocer los autovalores de la matriz, lo que no siempre es facil.
Los modos normales son las soluciones especiales de (6.1) que corresponden a datos iniciales en alguno de los autoespacios generalizados de A.
Veamos como se puede expresar cada uno de estos modos normales. Sea
un autovalor de A y ~x Eg (A, ) = Ker(In A)k() . Para m k(),
podemos escribir
m

A ~x = (In + (A In )) ~x =

m
X
m

j=0
k()1

j=0

m
j

mj (A In )j ~x

= m ~x + mm1 (A In )~x +

+ +

mj (A In )j ~x

m
k() 1

m(m 1) m2

(A In )2 ~x
2

m(k()1) (A In )k()1 ~x.

Hemos dado as una expresion general para los modos normales. En particular, si ~x es un autovector, el modo normal es simplemente
Am ~x = m ~x.
El procedimiento para resolver (6.1) con una condicion inicial ~x[0] arbitraria
es entonces el siguiente:
(1) Obtener una base de C n formada por autovectores generalizados: {~x1 , . . . , ~xn }.
(2) Expresar la condicion inicial como suma de autovectores generalizados,
calculando las coordenadas de ~x[0] en la base formada por autovectores
generalizados:
~x[0] = 1 ~x1 + + n ~xn .
134

Entonces
Am ~x[0] = 1 Am ~x1 + + n Am ~xn .

(6.2)

(3) Calcular cada modo normal Am ~xj , 1 j n seg


un lo hemos hecho
arriba y sumar para obtener (6.2).
En el caso de necesitar calcular Am , sea P una matriz cuyas columnas sean
autovectores generalizados de A y formen una base de C n . Por lo que hemos
visto, sabemos expresar en forma cerrada
Am P = S (m) ,
de donde podemos despejar Am = S (m) P 1 .
Ejemplos
(1) Para la matriz

4 0
0
0
3 1
0
0

A=
3
2 4 0
3 3
1 4
y el vector ~x = (1, 10, 7, 12)T , vamos a calcular A10 ~x.
Los autovalores con su multiplicidad correspondiente son:
1 = 1,

m(1 ) = d(1 ) = 1

2 = 4,

m(2 ) = 3.

Buscamos una base de autovectores generalizados. Para el primer autovalor

3 0
0 0
x
0

3
0
0
0
y
= 0 }
Eg (A, 1 ) = Ker(I4 A) = {(x, y, z, t)T :
3 2

3 0
z
0
3 3 1 3
t
0
= {(x, y, z, t)T : x = 0, z = (2/3)y, t = (11/9)y} = span((0, 9, 6, 11)T ).
Para el segundo autovalor,

0
x
0 0
0 0

3 3 0 0 y 0
}
=
E(A, 2 ) = Ker(4I A) = {(x, y, z, t)T :
3 2
0 0z 0
0
t
3 3 1 0
= {(x, y, z, t)T : x = y = z = 0} = span((0, 0, 0, 1)T ) d(2 ) = 1.
135

0
0

9
9
= {(x, y, z, t)T :
6
6
12 11

Ker(4I A)2

0 0
x
0
y 0
0 0
= }
0 0z 0
0 0
t
0

= {(x, y, z, t)T : x = y = 0} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T ).

27
Eg (A, 2 ) = Ker(4I A)3 = {(x, y, z, t)T :
18
33

0
27
18
33

0
0
0
0

0
x
0

0y 0
}
=
0z 0
0
t
0

= {(x, y, z, t)T : x = y} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T , (1, 1, 0, 0)T ).


Una base de autovectores generalizados para esta matriz es entonces:
~v1 = (0, 9, 6, 11)T , ~v2 = (0, 0, 0, 1)T , ~v3 = (0, 0, 1, 0)T , ~v4 = (1, 1, 0, 0)T ,
donde ~v1 , ~v2 son autovectores.
Tenemos que obtener las coordenadas de la condicion inicial ~x[0] = ~x =
(1, 10, 7, 12)T en la nueva base. Sabemos que estas son P 1 ~x, donde P es
la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , ~v4 . No se calcula P 1 , sino que se
resuelve el sistema con matriz P y termino independiente (1, 10, 7, 12)T . Si
~x[0] = 1~v1 + 2~v2 + 3~v3 + 4~v4 , entonces

1
0
2 9

P
3 = 6
4
11

0
0
0
1

0 1
1
1
2 10
0 1

= .
1 0 3 7
0 0
4
12

De donde 1 = 1, 2 = 1, 3 = 1, 4 = 1. Entonces ~x[0] = ~v1 + ~v2 + ~v3 + ~v4


luego
A10 ~x[0] = A10~v1 + A10~v2 + A10~v3 + A10~v4
= (1)10~v1 + (4)10~v2 + (4)10~v3
+10(4)9 (A + 4I4 )~v3 + (4)10~v4
+10(4)9 (A + 4I4 )~v4 + 45(4)8 (A + 4I4 )2~v4
= (1)10~v1 + (4)10~v2 + (4)10~v3
+10(4)9~v2 + (4)10~v4 10(4)9~v3 + 45(4)8~v2 .
136

(2) Para la matriz

1
0 1 0
3 2 7 5
,
A=
0
0
1 0
1 1 4 2
y el vector ~x = (2, 0, 1, 0)T vamos a calcular la solucion de la recurrencia
vectorial
~x[m + 1] = A~x[m],

~x[0] = ~x.

Ya hemos encontrado, en el ejemplo (2) de la seccion anterior, una base de


autovectores generalizados para esta matriz:
~v1 = (1, 1, 0, 0)T , ~v2 = (6, 0, 1, 2)T , ~v3 = (0, 2i, 0, 1)T , ~v4 = (0, 2+i, 0, 1)T ,
donde
A~v1 = ~v1
A~v2 = (A I4 )~v2 + ~v2 = ~v1 + ~v2
A~v3 = i~v3
A~v4 = i~v4
Tenemos que obtener las coordenadas de la condicion inicial ~x[0] = ~x
(2, 0, 1, 0)T en la nueva base. Sabemos que estas son P 1 ~x, donde P
la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , ~v4 . No se calcula P 1 , sino que
resuelve el sistema con matriz P y termino independiente (2, 0, 1, 0)T .
~x[0] = 1~v1 + 2~v2 + 3~v3 + 4~v4 , entonces

1
1 6
2 1
0

P
3 = 0
1
4
0 2

=
es
se
Si

0
0
1
2
2 0
2 i 2 + i

=
.
0
0 3 1
1
1
4
0

De donde 1 = 4, 2 = 1, 3 = 1, 4 = 1. Entonces ~x[0] = 4~v1 + ~v2 + ~v3 + ~v4


luego
~x[m] = Am ~x[0] = 4Am~v1 + Am~v2 + Am~v3 + Am~v4
= 4~v1 + ~v2 + m(A I4 )~v2 + im~v3 + (i)m~v4
= 4~v1 + ~v2 m~v1 + 2Re(im~v3 ).
137

6.4.

Ecuaciones en diferencias

La segunda aplicacion tiene mucha relacion con la primera. Son las ecuaciones en diferencias, que son ecuaciones de la forma
xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = fj ,

j 0,

(6.3)

donde a0 , . . . , an1 K son los coeficientes de la ecuacion y {fj }


j=0 es una
sucesion conocida. Por ejemplo, la ecuacion de Fibonacci del tema anterior
Mj+2 = Mj+1 + Mj ,
es una ecuacion en diferencias.
Las soluciones de (6.3) son sucesiones {yj }
j=0 que convierten (6.3) en
una identidad cuando cada xm se sustituye por ym , m 0.
No trataremos la resolucion general de (6.3). Nos interesan el caso homogeneo, es decir
xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = 0,

j 0,

(6.4)

y algunos casos de (6.3) con terminos no homogeneos {fj }


j=0 que aparecen
en varios ejemplos y que se analizaran en los ejercicios.

6.4.1.

Ecuaci
on homog
enea

Denotamos por S al conjunto de todas las soluciones de (6.4). Es facil


ver que S es un espacio vectorial respecto de las operaciones definidas por
componentes. Fijemonos en que (6.4) puede escribirse
xj+n = an1 xj+n1 a1 xj+1 a0 xj ,

j 0,

de modo que la ecuacion posee solucion u


nica una vez que se especifican
los n valores iniciales de la sucesion x0 , x1 , . . . , xn1 . De esta manera, las n
soluciones correspondientes a los n datos iniciales
x0 = 1, x1 = 0, x2 = 0, . . . , xn1 = 0
x0 = 0, x1 = 1, x2 = 0, . . . , xn1 = 0

x0 = 0, x1 = 0, x2 = 0, . . . , xn1 = 1,
constituyen una base del espacio de soluciones S y por tanto dim(S) = n.

138

Para la descripcion de las soluciones suele ser u


til la formulaci
on matricial
de (6.4). Dada una sucesion {xj }
,
se
construye
la
sucesi
o
n
de
vectores
j=0
~x[j] = (xj , xj+1 , . . . , xj+n1 )T ,

j 0.

Entonces, {xj }
on de (6.4) si y solo si
j=0 es soluci
~x[j + 1] = A~x[j],

j 1,

(6.5)

donde

0
0

A =

0
a0

1
0

0
a1

0
1

0
a2

0
0

0
a3

0
an2

0
0

1
an1

As, la resolucion de (6.4) se reduce a la obtencion de los modos normales de


(6.5). Sin embargo, puede darse la solucion de (6.4) sin pasar directamente
por (6.5).
El polinomio p(z) = z n + an1 z n1 + + a1 z + a0 se llama polinomio
caracterstico de (6.4). Sus races se llaman races caractersticas. No es difcil
ver que
p(z) = det(zIn A),
de modo que las races caractersticas de (6.4) coinciden, junto con su multiplicidad, con los autovalores de A.
Para la obtencion de los soluciones de (6.4) consideremos la factorizacion
de p(z):
mr
1
p(z) = (z m
,
1 (z r )

seg
un sus diferentes races j con multiplicidades (algebraicas) mj , con m1 +
+ mr = n. Las soluciones de (6.4) son las primeras componentes de los
vectores solucion de (6.5)
x0

Primera componente de ~x[0]

x1
Primera componente de ~x[1]
..
..
.
.
xj
Primera componente de ~x[j]
..
..
.
.
139

y, como sabemos, toda solucion de (6.5) es combinaci


on de modos normales.
De aqu se deduce que toda solucion de (6.4) es combinaci
on lineal de la
sucesion obtenida por las primeras componentes de los modos normales.
Cada modo normal genera una sucesion de vectores
~x, A~x, A2 ~x, . . . ,
donde ~x Ker(s In A)ms . Las primeras componentes forman una solucion
de (6.4)
0 , 1 , 2 , . . . ,
y recordando la obtencion de los modos normales de la seccion anterior,
entonces se tiene que la sucesion {j }
on lineal de las sucej=0 es combinaci
siones
j
ms 1 j
{js }
s }j=0 .
j=0 , {js }j=0 , . . . , {j

Se deduce entonces que el espacio de soluciones S est


a contenido en el espacio
de sucesiones S formado por las combinaciones lineales de las n sucesiones
{j l js }
j=0 ,

1 s r,

0 l ms 1.

Por otro lado, al ser dim(S) = n, entonces necesariamente S = S y las n


sucesiones anteriores forman una base de S. De este modo, para obtener las
soluciones de (6.4) se procede de la siguiente manera:
(1) Obtener las races caractersticas 1 , . . . , r y sus multiplicidades m1 , . . . , mr .
(2) Formar las n sucesiones de la base
j
m1 1 j
{j1 }
1 }j=0
j=0 , {j1 }j=0 , . . . , {j
j
m2 1 j
2 }j=0
{j2 }
j=0 , {j2 }j=0 , . . . , {j

j
mr 1 j
{jr }
r }j=0 .
j=0 , {jr }j=0 , . . . , {j

(3) Escribir la solucion {yj }


on lineal de las sucesiones
j=0 como combinaci
anteriores. Los coeficientes de esta combinaci
on quedan determinados
al imponer las n condiciones iniciales.
Ejemplos.

140

(1) Vamos a obtener la solucion de la ecuacion en diferencias


xj+2 2xj+1 3xj = 0,
con condiciones iniciales x0 = 0, x1 = 1. El polinomio caracterstico es p(z) =
z 2 2z 3 = (z 3)(z + 1), de modo que las races caractersticas con sus
multiplicidades son
1 = 3,

m1 = 1

2 = 1,

m2 = 1.

Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {3 }j=0 ,
j
{j2 }
j=0 = {(1) }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma
yj = A3j + B(1)j ,

j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:


x0 = 0 y0 = A + B = 0,
x1 = 1 y1 = 3A B = 1.
Se obtiene un sistema lineal para las constantes, de solucion A = 1/4, B =
1/4. Luego la solucion del problema es {yj }
j=0 con
1
1
yj = 3j (1)j ,
4
4

j = 0, 1, 2, . . . .

(2) Vamos a obtener la solucion general de la ecuacion en diferencias


xj+3 3xj+1 2xj = 0.
El polinomio caracterstico es p(z) = z 3 3z 2 = (z 2)(z + 1)2 , de modo
que las races caractersticas con sus multiplicidades son
1 = 2,

m1 = 1

2 = 1,

m2 = 2.

141

Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {2 }j=0 ,
j
{j2 }
j=0 = {(1) }j=0
j
{jj2 }
j=0 = {j(1) }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma
yj = A3j + B(1)j + Cj(1)j ,

j = 0, 1, 2, . . . ,

para constantes A, B y C.
(3) Vamos a obtener la solucion de la ecuacion en diferencias
xj+3 3xj+2 + 3xj+1 xj = 0,
con condiciones iniciales x0 = 1, x1 = 0, x2 = 1. El polinomio caracterstico
es p(z) = z 3 3z 2 + 3z 1 = (z 1)3 , de modo que las races caractersticas
con sus multiplicidades son
1 = 1,

m1 = 3.

Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {1 }j=0 ,

{jj1 }
j=0 = {j}j=0
2
{j 2 j1 }
j=0 = {j }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma
yj = A + Bj + Cj 2 ,

j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las


condiciones iniciales:
x0 = 1 y0 = A = 1,
x1 = 0 y1 = A + B + C = 0
x2 = 1 y2 = A + 2B + 4C = 1.
Se obtiene un sistema lineal para las constantes, de solucion A = 1, B =
2, C = 1. Luego la solucion del problema es {yj }
j=0 con
yj = 1 2j + j 2 ,

j = 0, 1, 2, . . . .
142

(4) Vamos a obtener la solucion de la ecuacion en diferencias


xj+3 4xj+2 + 5xj+1 2xj = 0,
con condiciones iniciales x0 = 0, x1 = 1, x2 = 0. El polinomio caracterstico
es p(z) = z 3 4z 2 + 5z 2 = (z 1)2 (z 2), de modo que las races
caractersticas con sus multiplicidades son
1 = 1,

m1 = 2

2 = 2,

m2 = 1.

Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {1 }j=0 ,

{jj1 }
j=0 = {j}j=0
j
{j2 }
j=0 = {2 }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma
yj = A + Bj + C2j ,

j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las


condiciones iniciales:
x0 = 0 y0 = A + C = 0,
x1 = 1 y1 = A + B + 2C = 1
x2 = 0 y2 = A + 2B + 4C = 0.
Se obtiene un sistema lineal para las constantes, de solucion A = 2, B =
3, C = 2. Luego la solucion del problema es {yj }
j=0 con
yj = 2 + 3j 2j+1 ,

j = 0, 1, 2, . . . .

(5) Vamos a obtener la solucion de la ecuacion en diferencias


xj+2 = xj ,
con condiciones iniciales x0 = 1, x1 = 1. El polinomio caracterstico es
p(z) = z 2 + 1 = (z i)(z + i), de modo que las races caractersticas con sus
multiplicidades son
1 = i,

m1 = 1

2 = i,

m2 = 1.

143

Seg
un esto, la base de soluciones es
j
{j1 }
j=0 = {i }j=0 ,
j
{j2 }
j=0 = {(i) }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma
yj = Aij + B(i)j ,

j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:


x0 = 1 y0 = A + B = 1,
x1 = 1 y1 = iA iB = 1.
Se obtiene un sistema lineal para las constantes, de solucion A = (1
i)/2, B = (1 + i)/2. Luego la solucion del problema es {yj }
j=0 con
yj

1i j
1i j 1+i
i +
(i)j = 2Re(
i ),
2
2
2
1 i ij/2
1i
= 2Re(
e
) = 2Re(
(cos(j/2) + i sin(j/2))
2
2
= cos(j/2) + sin(j/2) j = 0, 1, 2, . . . .
=

La solucion ha de ser real, pues las condiciones iniciales lo son.

6.4.2.

Ecuaci
on no homog
enea

Se tratara en los ejercicios.


EJERCICIOS DEL TEMA 6
Ejercicio 1. Halla una base de los autoespacios generalizados de las matrices
siguientes

2
3
A=
0
3

0 3
0
2 2 1
,
0 1
0
0 2 2

4 0
0
0

3 1
0
0
.
B=
3
2 4 0
3 3
1 4

Halla A10 x y B 10 x donde x es el vector [1, 1, 0, 0]T .


144

Ejercicio 2. Se consideran las matrices

1
1
0
1 1
0
A=
2
1 2
1
3 1

0
0
,
4
2

2 0 0
0
4
2 1 5
.
B=
3 0
4
2
1 0 2 0

Halla una base de los autoespacios generalizados de A y B.


Ejercicio 3. Para la matriz

3 1 2 1
0
3
0
0

A=
0 5
6 3
0 2
3
0
halla A30 x donde x = [1, 2, 3, 5]T .
Ejercicio 4. Calcula la expresion de An v donde v es el vector (1, 2, 3, 4)T y
A es la matriz

1
0

1
0

0 1 0
0 0 1
,
0 1
0
1 0
0

1 1 1 1
2
1 0
2

.
0
1 0 1
2 1 1
2

Ejercicio 5. Halla la solucion general de las siguientes ecuaciones en diferencias:


a) uj+3 3uj+2 + 3uj+1 uj = 0,
b) uj+3 3uj+2 + 3uj+1 uj = j,
c) uj+2 2uj+1 3uj = j,
d) uj+2 2uj+1 + uj = j + j 2 ,

e) uj+2 + 8uj+1 + 15uj = 0.


f) uj+2 + 8uj+1 + 15uj = 2j .
g) uj+2 + 8uj+1 + 15uj = (3)j .
h) uj+2 2uj+1 + 2uj = 0.

Bibliografa recomendada:
Grossman. Algebra Lineal. Ed. Iberoamericana. Cap 6, apartados 6.1 a 6.3.

145

BLOQUE 4: ECUACIONES DIFERENCIALES


LINEALES
El cuarto problema del que trata la asignatura es la resolucion de ecuaciones
diferenciales ordinarias. Decir esto es demasiado general. Como introduccion
al problema nos plantearemos el estudio de los sistemas de primer orden
lineales y de coeficientes constantes, as como el de ecuaciones de orden
superior lineales de coeficientes constantes.
La formulacion de una ecuacion diferencial como modelo matematico de
una cierta realidad fsica responde, en general, al siguiente planteamiento:
x = x(t) representa la medida (un n
umero real) realizada en el instante t de
una magnitud que describe, a lo largo del tiempo, un cierto sistema fsico, biologico, economico, etc. Por ejemplo, la posicion de un movil que se desplaza
en un medio unidimensional, la temperatura de un objeto, la cantidad de
radiactividad de un lugar determinado, la densidad de una poblacion, etc;
x(t) representa pues, el estado de cierto sistema en el instante t. Por otro
lado, la variacion instantanea de la variable x(t) esta dada por su funcion
derivada x0 (t). Si la ley fsica que rige la evoluci
on del fenomeno bajo estudio queda expresada (por conjeturas basadas en la experimentaci
on y la
observacion) por una relacion matematica, valida para todo instante t, entre
x(t) y su variacion instant
anea x0 (t), obtendremos una ecuacion diferencial
ordinaria que ha de ser satisfecha por la funcion incognita x(t). La ecuacion
mas simple es
x0 (t) = ax(t),
con a un n
umero real. Las soluciones de esta ecuacion son de la forma x(t) =
at
Ce con C una constante arbitraria. Si se especifica a priori el valor que ha
de tener x(t) en un instante inicial t0 , entonces queda determinada una u
nica
at
solucion de la ecuacion: entre las funciones x(t) = Ce , la u
nica que satisface
la condicion inicial x(t0 ) = x0 es aquella tal que x(t0 ) = Ceat0 = x0 , es decir,
la correspondiente a la constante C = eat0 x0 , o sea x(t) = ea(tt0 ) x0 .

146

Tema 7

Sistemas de EDOs lineales y


de coeficientes constantes
Ejemplo introductorio. Los sistemas lineales de ecuaciones de primer
orden aparecen frecuentemente en las aplicaciones, como el movimiento de
sistemas mecanicos de varias masas unidas por muelles o el analogo de redes
electricas que involucran mas de una malla.
Puede citarse otro ejemplo relacionado con la Teora de la Comunicaci
on
y la transmision de datos. Considerese una cola de llamadas telefonicas en un
canal y sea Pn (t) la probabilidad de que lleguen n llamadas en el instante t.
Sea t la probabilidad de una sola llamada durante el intervalo de tiempo
t. Asumiremos que la probabilidad de mas de una llamada en el mismo
intervalo de tiempo es despreciable, de modo que la probabilidad de que
no haya llamadas en t es 1 t. Asmismo, sea t la probabilidad de
completar el servicio (es decir, dar salida a una llamada) en el intervalo t,
suponiendo que la probabilidad de que no haya salidas en t es 1 t.
Un modelo que describe la situacion es el siguiente:
Pn (t + t) = Pn (t)(1 t)(1 t) + Pn1 (t)t + Pn+1 (t)t, n 1,
P0 (t + t) = P0 (t)(1 t) + P1 (t)t.
Esto es, la probabilidad de n llamadas en lnea en el instante t + t es la
suma de: (1) la probabilidad de tener ya n llamadas en tiempo t multiplicada
por la probabilidad de que no lleguen llamadas durante t y la probabilidad
de que no haya salidas en el mismo intervalo; (2) la probabilidad de tener
n 1 llamadas en el instante t por la probabilidad de una nueva llegada
en t; (3) la probabilidad de tener n + 1 llamadas en el instante t por la
probabilidad de una salida en t. Tomando lmites cuando t 0 se tiene
147

el sistema lineal
dPn (t)
dt
dP0 (t)
dt

= ( + )Pn (t) + Pn1 (t) + Pn+1 (t),

n 1,

= P0 (t) + P1 (t).

Esta leccion queda mas o menos dividida en dos partes. En la primera, se


explicaran nociones elementales de la teora de sistemas lineales de primer
orden con coeficientes constantes, planteando el problema de valores iniciales y estudiando la estructura del espacio de soluciones. La segunda parte
estara dedicada a la resolucion, a la b
usqueda de soluciones, para lo que
sera necesario todo lo relatado en las lecciones previas de la asignatura.

7.1.

Presentaci
on

Un sistema lineal de n ecuaciones diferenciales ordinarias y coeficientes


constantes es una expresion de la forma siguiente:
~x0 (t) = A~x(t) + ~b(t).

(7.1)

En la expresion (7.1), A es una matriz cuadrada de orden n n, ~b(t) es


un vector conocido de n componentes que son funciones que dependen de
una variable muda t. Todas las componentes estan definidas en un intervalo
real J y son continuas como funciones de t en ese intervalo. Por su parte, el
vector ~x(t) tiene tambien n componentes. Es el vector incognita del sistema.
La expresion ~x0 (t) representa el vector de las derivadas con respecto a t de
las componentes de ~x(t). El problema que se plantea consiste en, dados A y
~b(t), encontrar el o los vectores ~x(t) que verifiquen (7.1).
Escrito en forma de ecuaciones, (7.1) se suele expresar como
x01 (t) = a11 x1 (t) + a12 x2 (t) + + a1n xn (t) + b1 (t)
x02 (t) = a21 x1 (t) + a22 x2 (t) + + a2n xn (t) + b2 (t)
..
..
. = ....
x0n (t) = an1 x1 (t) + an2 x2 (t) + + ann xn (t) + bn (t),
donde ~x(t) = (x1 (t), x2 (t), . . . , xn (t))T , ~b(t) = (b1 (t), b2 (t), . . . , bn (t))T y A =
(aij )1i,jn . Se dice que A es la matriz de coeficientes de (7.1) y ~b(t) el
termino no homogeneo o termino fuente. Cuando ~b(t) no aparece, el sistema
(7.1) se llama homogeneo. En otro caso se dice que es no homogeneo.
148

~ : J Kn
Se llama solucion de (7.1) a cualquier aplicacion diferenciable
definida en un intervalo J de R y verificando (7.1) cuando ~x se sustituye
~
por .
Dados un instante inicial t0 R y un valor inicial ~x0 Kn , se puede
plantear el llamado problema de valores iniciales (PVI)
~x0 (t) = A~x(t) + ~b(t).

(7.2)

~x(t0 ) = ~x0 .
Se dice que t0 y ~x0 son las condiciones iniciales del problema. Una solucion
~ de (7.1) tal que t0 J y
del mismo no es otra cosa que una solucion
~
ademas (t0 ) = ~x0 .
Vamos a dividir nuestro estudio en el caso homogeneo (~b(t) = ~0) y el no
homogeneo.

7.2.

Sistemas lineales homog


eneos

Veamos que podemos decir de un sistema homogeneo


~x0 (t) = A~x(t),

(7.3)

~x0 (t) = A~x(t),

(7.4)

y del correspondiente PVI

~x(t0 ) = ~x0 .
La primera cuestion a tener en cuenta es la existencia y unicidad de soluciones de (7.4).
Teorema 1. Dada una condicion inicial cualquiera t0 R, ~x0 Kn se tiene
que el correspondiente PVI (7.4) posee una u
nica solucion definida en todo
R.
El segundo punto a considerar es la estructura de las soluciones de (7.3).
Esto sera importante para despues analizar la resolucion.
P

Teorema 2. Sea J un intervalo de R y denotemos por (J) al conjunto de


P
soluciones de (7.3) que estan definidas en J. Entonces (J) es un espacio
vectorial de dimension n, el tama
no del sistema.
P

Ver que (J) es un espacio vectorial no es difcil. En efecto, si ~x1 (t), ~x2 (t)
son dos soluciones de (7.3), entonces (~x1 +~x2 )0 (t) = ~x01 (t) +~x02 (t) = A~x1 (t) +
149

A~x2 (t) = A(~x1 +~x2 )(t), luego ~x1 (t)+~x2 (t) es solucion de (7.3). Por otro lado,
si ~x(t) es solucion de (7.3) y K, entonces (~x)0 (t) = ~x0 (t) = A~x(t) =
A(~x)(t) y (~x)(t) es solucion.
Veamos ahora la dimension. Sea ~ej = (0, 0, . . . , 0, 1, 0, . . . , 0)T el j-esimo
vector de la base canonica y consideremos, para t0 J cualquiera, el problema de valores iniciales
~x0 (t) = A~x(t)
~x(t0 ) = ej .
Sabemos que existe una u
nica solucion ~xj (t) de este problema. Veamos
que las soluciones ~x1 (t), ~x2 (t), . . . , ~xn (t) as obtenidas son independientes.
Planteada una combinacion lineal nula
1 ~x1 (t) + 2 ~x2 (t) + + n ~xn (t) = 0,

t J,

tomando en particular t = t0 se tiene


1~e1 + 2~e2 + + n~en = 0,
y trivialmente 1 = = n = 0, de modo que {~x1 (t), ~x2 (t), . . . , ~xn (t)}
constituye un sistema libre de soluciones del sistema homogeneo. Ademas,
cualquier otra solucion ~x(t) depende de ~x1 (t), ~x2 (t), . . . , ~xn (t) , pues si ~x(t0 ) =
(c1 , . . . , cn )T = c1~e1 + c2~e2 + + cn~en entonces ,necesariamente ~x(t) =
c1 ~x1 (t) + c2 ~x2 (t) + + cn ~xn (t). As, {~x1 (t), ~x2 (t), . . . , ~xn (t)} es una base de
P
P
(J) y por tanto dim (J) = n.
Este resultado contiene dos afirmaciones importantes: en primer lugar, el
P
llamado principio de superposicion de soluciones. El hecho de que (J) sea
un espacio vectorial significa que cualquier combinaci
on lineal de soluciones
P
de (7.3) es una solucion. En segundo lugar, dado que (J) tiene dimension
n, esto implica que el sistema (7.3) tiene exactamente n soluciones linealmente independientes. Constituyen lo que se llama un sistema fundamental
de soluciones del sistema homogeneo (7.3). cualquier solucion es combinaci
on
lineal de n soluciones independientes, de un sistema fundamental.
~ 1 (t),
~ 2 (t), . . . ,
~ n (t)} una base de
Corolario. Sea {
neral de (7.3) es de la forma

(J). La solucion ge-

~ = C1
~ 1 (t) + C2
~ 2 (t) + + Cn
~ n (t),
(t)
con C1 , C2 , . . . , Cn constantes arbitrarias.
150

En terminos matriciales, se llama matriz fundamental del sistema homogeneo a toda aplicacion matricial : J Mn,n (K) tal que para todo
P
t J, las columnas de (t) constituyen una base de (J). Para que sea
una matriz fundamental, es necesario y suficiente que
(i) 0 (t) = A(t) (las columnas son soluciones).
(ii) Existe t0 J tal que (t0 ) es una matriz no singular.
En terminos de matrices fundamentales, estamos diciendo que si es una
matriz fundamental del sistema homogeneo, generamos todas las soluciones
del mismo multiplicando (t) por cualquier vector de Kn .
Veamos como obtener entonces una matriz fundamental a traves de los
llamados modos normales (no confundir con el concepto tratado en el tema
anterior).
Ejemplo 1. Consideremos el sistema
x01 (t) = 3x1 (t) + x2 (t) + x3 (t)
x02 (t) = x1 (t) + 3x2 (t) + x3 (t)
x03 (t) = x1 (t) + x2 (t) + 3x3 (t).
En terminos matriciales, ~x0 (t) = A~x(t) donde

3 1

A= 1 3
1 1

1
1.
3

Vamos a obtener una base de soluciones del sistema a partir de los autovalores de A: Estos son
1 = 2,

m(1 ) = 2

2 = 5,

m(2 ) = 1.

Buscamos una base de los autoespacios de cada valor propio. Para 1 = 2


tenemos
E(A, 1 ) = {(x, y, z)T /x + y + z = 0} = span(~v1 , ~v2 ),
donde ~v1 = (1, 1, 0)T , ~v2 = (1, 0, 1)T . Para 2 = 5,
E(A, 2 ) = {(x, y, z)T /x = y = z} = span(~v3 ),
donde ~v3 = (1, 1, 1)T .
151

Como d(1 ) = 2, la matriz es diagonalizable. Consideremos la funcion


vectorial
~x1 (t) = e1 t~v1 = (e2t , e2t , 0)T .
Como ~v1 es autovector,
A~x1 (t) = e1 t A~v1 = 1 e1 t~v1 = 1 ~x1 (t).
Por otro lado
~x01 (t) = 1 e1 t~v1 = 1 ~x1 (t).
Luego ~x1 (t) es solucion del sistema. Con el mismo razonamiento, se tiene
que
~x2 (t) = e1 t~v2 = (e2t , 0, e2t )T ,
~x3 (t) = e2 t~v3 = (e5t , e5t , e5t )T ,
son tambien soluciones. Como el sistema tiene tama
no tres, la dimension
del espacio de soluciones es tres. Nuestras soluciones ~x1 (t), ~x2 (t), ~x3 (t) son
candidatas a formar una base del espacio de soluciones; bastara con ver que
son independientes.
Ahora bien, si 1 ~x1 (t) + 2 ~x2 (t) + 3 ~x3 (t) = 0, en particular 1 ~x1 (0) +
2 ~x2 (0) + 3 ~x3 (0) = 0; esto significa que
1~v1 + 2~v2 + 3~v3 = 0.
pero nosotros sabemos que los autovectores ~v1 , ~v2 , ~v3 forman una base de
R3 , luego 1 = 2 = 3 = 0 y las soluciones ~x1 (t), ~x2 (t), ~x3 (t) forman una
base. Cualquier solucion es combinaci
on lineal de esta tres,
~x(t) = C1 ~x1 (t) + C2 ~x2 (t) + C3 ~x3 (t),
y la matriz

e2t
(t) = [~x1 (t), ~x2 (t), ~x3 (t)] = e2t
0

e2t
0
e2t

e5t
e5t
e5t

es una matriz fundamental del sistema.


Nuestro primer ejemplo se basa en lo comentado en la introduccion. Si
tenemos la funcion y(t) = et para alg
un , entonces y 0 (t) = y(t). Este
152

hecho se traslada a sistemas con matrices: si la matriz de coeficientes es


diagonalizable, para formar una base de soluciones, basta con formar las
exponenciales de los autovalores por los autovectores correspondientes.
Ejemplo 2. Vamos a calcular una base de soluciones del sistema
x0 (t) = 2x(t) + z(t)
y 0 (t) = 2y(t)
z 0 (t) = y(t) + 3z(t).
La matriz del sistema es

2 0

A= 0 2
0 1

1
0.
3

Sus autovalores son


1 = 3,

m(1 ) = 1

2 = 2,

m(2 ) = 2.

Se puede comprobar que la matriz no es diagonalizable, pues d(2 ) = 1.


Formamos una base de autovectores generalizados. Se puede comprobar que
Eg (A, 1 ) = E(A, 1 ) = span(~v1 ),

~v1 = (1, 0, 1)T

Eg (A, 1 ) = Ker(2I3 A)2 = span(~v2 , ~v3 ),

~v2 = (1, 0, 0)T , ~v3 = (0, 1, 1)T ,

donde hemos elegido ~v2 E(A, 2 ). Puesto que ~v1 , ~v2 son autovectores, como
en el ejemplo anterior, se generan dos soluciones
~x1 (t) = e1 t~v1 = (e3t , 0, e3t )T ,
~x2 (t) = e2 t~v2 = (e2t , 0, 0)T .
Necesitamos otra solucion para formar una base. No puede ser e2 t~v3 pues
~v3 no es autovector y por tanto no sera solucion. La idea consiste en a
nadir
una expresion
~x3 (t) = e2 t~v3 + te2 t w,
~
para cierto vector w.
~ Quien tiene que ser w
~ para que ~x3 (t) as expresado
sea solucion? Si derivamos
~x03 (t) = 2 e2 t~v3 + e2 t w
~ + te2 t 2 w,
~
153

y, por otro lado


A~x3 (t) = e2 t A~v3 + te2 t Aw.
~
De aqu podemos deducir que
(A 2 I3 )~v3 = w
~
(A 2 I3 )w
~ = ~0.
La primera ecuacion nos indica ya que w
~ = (A 2 I3 )~v3 . A partir de ella
se deduce la segunda, puesto que ~v3 Ker(2I3 A)2 . Entonces, la tercera
solucion es
~x3 (t) = e2 t~v3 + te2 t (A 2 I3 )~v3 .
Finalmente, ~x1 (t), ~x2 (t), ~x3 (t) forman una base del espacio de soluciones
puesto que ~v1 , ~v2 , ~v3 forman una base de R3 .
La soluciones formadas como en los ejemplos anteriores, a partir de autovalores y autovectores generalizados, se llaman modos normales del sistema.
Lo importante es que podemos formar una base de soluciones del sistema
homogeneo (7.3) a partir de los modos normales. El segundo ejemplo era
una introduccion a la tecnica. El caso general es el siguiente.
Dada una matriz A Mn,n (C) sea (A) el conjunto de autovalores de A.
Para cada (A) sea m() su multiplicidad algebraica y k() el primer
entero que estabiliza la sucesion de n
ucleos {Ker(In A)j }j0 .
Teorema 3. En las condiciones anteriores, dado un autovector generalizado
~x Eg (A, ) = Ker(In A)k() , entonces la funcion vectorial

k()1 j
X t

~x(t) = et

= e

j=0

j!

(A In )j ~x
!

t2
tk()1
~x + t(A In )~x + (A In )2 ~x + +
(A In )k()1 ~x
2!
(k() 1)!

es la solucion del PVI


~x0 (t) = A~x(t),
~x(0) = ~x.
En particular, si ~x es un autovector asociado a , la solucion correspondiente
es ~x(t) = et ~x.
154

Observemos que todo vector es combinaci


on lineal de autovectores generalizados, luego toda solucion es combinaci
on lineal de modos normales. Las
reglas practicas para resolver un PVI del sistema homogeneo como (7.4) son
las siguientes.
1. Obtener una base {~v1 , ~v2 , . . . , ~vn } de autovectores generalizados asociados a la matriz A.
2. Expresar la condicion inicial ~x0 como combinaci
on lineal de los autovectores generalizados
~x0 = 1~v1 + 2~v2 + + n~vn .
3. Construir el modo normal ~xk (t) que corresponde a cada autovector
generalizado ~vk que aparece en la condicion inicial.
4. Formar la superposicion
~x(t) = 1 ~x1 (t) + 2 ~x2 (t) + + n ~xn (t).
5. Si el instante inicial es t0 = 0, ~x(t) es la solucion. Si t0 6= 0, la solucion
es ~y (t) = ~x(t t0 ).
Ejemplos.
[1] Vamos a resolver el sistema homogeneo (7.3) con matriz

11 9

A=
12
10
8 3

0
0.
3

y condicion inicial ~x(0) = (1, 1, 2)T . El polinomio caracterstico de A es


pA (z) = (z 1)(z + 2)(z 3). Los autovalores son
1 = 3,

m(1 ) = 1

2 = 1,

m(2 ) = 1

3 = 2,

m(3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:


Eg (A, 1 ) = E(A, 1 ) = Ker(3I3 A) = {(x, y, z)T /
155

14
9
12 7
8
3

0
x
0
0y = 0
0
z
0
~v1 = (0, 0, 1)T ,

= span(~v1 ),

12
Eg (A, 2 ) = Ker(I3 A) = {(x, y, z)T / 12
8

~v2 = (1, 4/3, 2)T ,

= span(~v2 ),

9
0
x
0
9 0 y = 0
3 2
z
0

9
9
T
Eg (A, 3 ) = Ker(2I3 A) = {(x, y, z) / 12 12
8
3

0
x
0

0
y = 0
5
z
0

~v3 = (1, 1, 1)T .

= span(~v3 ),

Buscamos ahora las coordenadas de la condicion inicial (1, 1, 2)T en la base


de autovectores generalizados, resolviendo el sistema

1
0
1
1
1
1

P 2 = 0 4/3 1
2 = 1
3
1
2
1
3
2
que tiene por solucion 1 = 1, 2 = 0, 3 = 1, luego
(1, 1, 2)T = ~v1 + ~v3 .
Construimos ahora la expresion de los modos normales, siguiendo la formula
dada en el teorema 3.

k(1 )1 j
X t

~x1 (t) = e1 t

j=0

j!

k(2 )1 j
X t

~x2 (t) = e2 t

j=0

j!

k(3 )1 j
X t

~x3 (t) = e3 t

j=0

j!

(A 1 I3 )j ~v1 = e3t~v1 = (0, 0, e3t )T

(A 2 I3 )j ~v2 = et~v2 = (et , (4/3)et , 2et )T

(A 3 I3 )j ~v3 = e2t~v3 = (e2t , e2t , e2t )T .

Finalmente, sea ~x(t) = ~x1 (t) + ~x3 (t) = (e2t , e2t , e2t + e3t )T . Como la
condicion inicial esta impuesta en t0 = 0, la solucion es ~x(t).
[2] Vamos a resolver el sistema homogeneo (7.3) con matriz

1
A= 1
3

1 2
2 1 .
0 4
156

y condicion inicial ~x(2) = (2, 1, 5)T . El polinomio caracterstico de A es


pA (z) = (z 1)2 (z 3). Los autovalores son
1 = 3,

m(1 ) = 1

2 = 1,

m(2 ) = 2.

Buscamos una base de autovectores generalizados. Se tiene:


Eg (A, 1 ) = E(A, 1 ) = Ker(3I3 A) = {(x, y, z)T /


4 1 2
x
0
1

1 1
y = 0
3 0 1
z
0
= span(~v1 ),

~v1 = (1, 2, 3)T

1 1 1
x
0
Eg (A, 2 ) = Ker(I3 A)2 = {(x, y, z)T / 2
2
2 y = 0
3
3
3
z
0
= span(~v2 , ~v3 ),

~v2 = (1, 0, 1)T , ~v3 = (0, 1, 1)T ,

donde hemos elegido ~v2 E(A, 2 ). Buscamos ahora las coordenadas de


la condicion inicial (2, 1, 5)T en la base de autovectores generalizados,
resolviendo el sistema

1
1
1
0
1
2
P 2 = 2 0
1 2 = 1
3
3 1 1
3
5
que tiene por solucion 1 = 2 = 3 = 1, luego
(2, 1, 5)T = ~v1 + ~v2 + ~v3 .
Construimos ahora la expresion de los modos normales, siguiendo la formula
dada en el teorema 3.

k(1 )1 j
X t

~x1 (t) = e1 t

j=0

j!

k(2 )1 j
X t

~x2 (t) = e2 t

j=0

j!

k(2 )1 j
X t

~x3 (t) = e2 t

j=0

j!

(A 1 I3 )j ~v1 = e3t~v1 = (e3t , 2e3t , 3e3t )T

(A 2 I3 )j ~v2 = et~v2 = (et , 0, et )T

(A 2 I3 )j ~v3 = et (~v3 + t(A I3 )~v3 ) = (3tet , et , et 3tet )T .

157

Finalmente, sea ~x(t) = ~x1 (t) + ~x2 (t) + ~x3 (t) = (e3t + (1 + 3t)et , 2e3t +
et , 3e3t (2 + 3t)et )T . Como la condicion inicial esta impuesta en t0 = 2,
la solucion es ~y (t) = ~x(t 2).
[3] Ejercicio: resuelve el sistema homogeneo (7.3) con matriz

3
1
A=
1
2

0 1
0
1 2 1
.
0 1
0
1 1 1

y condicion inicial ~x(1) = (1, 2, 0, 2)T .

7.3.

Sistemas no homog
eneos

Tratamos ahora el caso no homogeneo (7.1)


~x0 (t) = A~x(t) + ~b(t),
y su problema de valores iniciales (7.2)
~x0 (t) = A~x(t) + ~b(t),
~x(t0 ) = ~x0 ,
donde, como se comento anteriormente, ~b : J Kn es continua, t0 J. La
cuestion de la existencia y unicidad tambien esta resuelta.
~ : J Kn
Teorema 4. El problema (7.2) posee exactamente una solucion
definida en todo el intervalo J.
En cuanto a la resolucion, fijemonos en que si tenemos dos soluciones
~1,
~ 2 del sistema no homogeneo (7.1), entonces
~ =
~1
~ 2 es solucion

del sistema homogeneo (7.3). As pues, el conocimiento de una solucion


particular de (7.1) y la estructura de las soluciones del sistema homogeno
asociado nos permiten obtener todas las soluciones de (7.1):
Teorema 5. la solucion general de (7.1) es de la forma
~ = ~xp (t) + C1
~ 1 (t) + C2
~ 2 (t) + + Cn
~ n (t),
(t)
~ 1 (t),
~ 2 (t), . . . ,
~ n (t)} es una base de soluciones del sistema hodonde {
mogeneo asociado (7.3), C1 , C2 , . . . , Cn son constantes arbitrarias y ~xp (t)
denota una solucion particular cualquiera de (7.1).
158

Busquemos una expresion para la solucion del problema de valores iniciales (7.2). Denotemos por (t) la matriz fundamental del sistema homogeneo (7.3) formada por los modos normales que hemos obtenido en la
seccion anterior. Tenemos entonces la llamada formula de variaci
on de las
constantes.
Teorema 6. La solucion de (7.2) puede escribirse
1

~x(t) = (t t0 )(0)

~x0 +

Z t
t0

(t s)(0)1~b(s)ds.

Varios comentarios a esta formula.


(1) La matriz (0) no es mas que la matriz de cambio a la base de autovectores generalizados. De este modo, (0)1 ~x0 no es mas que la
expresion de la condicion inicial ~x0 en la base de autovectores generalizados. Por otro lado, (0)1~b(s) se puede obtener resolviendo el
sistema (0)f~(s) = ~b(s).
(2) El primer sumando de la formula no es otra cosa que la solucion del
problema
~x0 (t) = A~x(t),

~x(t0 ) = ~x0 ,

mientras que el segundo sumando es solucion del problema


~x0 (t) = A~x(t) + ~b(t),

~x(t0 ) = ~0.

De este modo, se tiene el resultado del teorema 5: la solucion del


problema es la suma de una solucion particular mas la solucion del
problema homogeneo asociado.
Veamos como se aplica la formula en la practica.
Ejemplo. Vamos a resolver el sistema no homogeneo (7.2) con matriz

0 1 0
A = 0 0 1,
0 1 0
condicion inicial ~x(0) = (1, 1, 2)T y termino fuente ~b(t) = (sin t, 0, cos t)T .
La primera parte de la formula es la solucion del sistema homogeneo con la
159

condicion inicial ~x(0) = (1, 1, 2)T . La descomposicion primaria de A es la


siguiente. Los autovalores son
1 = 0,

m(1 ) = 1

2 = i,

m(2 ) = 1

3 = i,

m(3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:


Eg (A, 1 ) = E(A, 1 ) = Ker(A) = span(~v1 ),

~v1 = (1, 0, 0)T ,

~v2 = (1, i, 1)T ,

Eg (A, 2 ) = Ker(iI3 A) = span(~v2 ),


Eg (A, 3 ) = Ker(iI3 A) = span(~v3 ),

~v3 = (1, i, 1)T .

Buscamos ahora las coordenadas de la condicion inicial (1, 1, 2)T en la base


de autovectores generalizados, resolviendo el sistema

1
1 1
1
1
1

P 2 = 0 i
i
2 = 1
3
0 1 1
3
2
que tiene por solucion 1 = 3, 2 = (i 2)/2, 3 = (i 2)/2, luego
(1, 1, 2)T = 3~v1 +

(i 2)
(i 2)
~v2 +
~v3 .
2
2

Construimos ahora la expresion de los modos normales, siguiendo la


formula dada en el teorema 3.

k(1 )1 j
X t

~x1 (t) = e1 t

j=0

j!

k(2 )1 j
X t

~x2 (t) = e2 t

j=0

j!

k(3 )1 j
X t

~x3 (t) = e3 t

j=0

j!

(A 1 I3 )j ~v1 = e0t~v1 = (1, 0, 0)T

(A 2 I3 )j ~v2 = eit~v2 = (eit , ieit , eit )T

(A 3 I3 )j ~v3 = eit~v3 = (eit , ieit , eit )T .

Finalmente, sea ~x(t) = 3~x1 (t)+ (i2)


x2 (t)+ (i2)
~x3 (t) = 3~x1 (t)+2Re (i2)
x2 (t) .
2 ~
2
2 ~
Como la condicion inicial esta impuesta en t0 = 0, la solucion del problema
homogeneo es ~x(t). La matriz fundamental es

1 eit
(t) = 0 ieit
0 eit
160

eit
ieit .
eit

Vamos con la segunda parte de la formula. El vector f~(s) es solucion del


sistema (0)f~(s) = ~b(s), que resolviendo queda

sin s + cos s
.
(0)1~b(s) = cos2 s
cos s
2
Entonces

1 ei(ts)
1~
(t s)(0) b(s) = 0 iei(ts)
0 ei(ts)

sin s + cos s
ei(ts)
sin s + cos s cos s cos(t s)
cos s
i(ts)

ie
2
=
cos s sin(t s)
cos s
i(ts)
e
2
cos s cos(t s)

y por tanto

~xp (t) =

Z t
0

Rt

0 (sin s

(t s)(0)1~b(s)ds =

+
cos s cos s cos(t s))ds
Rt
.
cos s sin(t s)ds
R 0t
0 cos s cos(t s)ds

Por tanto, la solucion del problema es

~x(t) = 3~x1 (t) + 2Re

(i 2)
~x2 (t) + ~xp (t).
2

EJERCICIOS DEL TEMA 7


Ejercicio 1. (a) Halla la solucion general del sistema de ecuaciones diferenciales ordinarias x0 = Ax donde A es la matriz

0 1 2
1
0
1 .
2 1 0
Ejercicio 2. Halla la solucion general de los sistemas de ecuaciones diferenciales siguientes:
x0 = 4x + y z
y 0 = 6x + 3y 4z
z 0 = 6x + 2y 3z

x0 = 4x 7y + 24z
y 0 = 4x 14y + 56z
z 0 = x 4y + 16z

161

x0 = 3x 2y + 4z
y 0 = 4x 3y + 8z
z 0 = x y + 3z

Ejercicio 3. Da la solucion de los problemas de Cauchy siguientes:


x
1 0
d
y = 2 1
dt
z
3 2

0
x
2 y ,
1
z

x(0) = 0
y(0) = 1
z(0) = 1

x
0 1 0
x
d
y = 0 0 1y ,
dt
z
0 1 0
z

x
1 1
d
y = 0 2
dt
z
1 1

x(0) = 1
y(0) = 1
z(0) = 2

4
x
0y ,
1
z

x(0) = 1
y(0) = 3
z(0) = 0

Ejercicio 4. Halla la solucion de los problemas de valores iniciales siguientes:

x
1
1
d
y
=
dt z 0
w
0

x
0

d y 2
=
dt z 0
w
0

1 1 0
x
y
1 0 1
,
0 1 1 z
0 1 1
w

2 0 0
x

0 0 0 y
,
0 0 3 z
0 3 0
w

x
1
0 1 0
x
3 2 7 5 y
d
y
=
,
0
1 0 z
dt z 0
w
1 1 4 2
w

x
3

d y 2
=
dt z 4
w
1

1 6 1
x

0 0 2 y
,
2 6 0 z
1 2 1
w

x(2) = 0
y(2) = 0
z(2) = 1
w(2) = 1
x(0) = 1
y(0) = 1
z(0) = 1
w(0) = 0
x(0) = 2
y(0) = 0
z(0) = 1
w(0) = 0
x(0) = 2
y(0) = 1
z(0) = 0
w(0) = 3

Ejercicio 5. Consideremos dos especies que compiten entre s en un mismo


habitat y sean x1 (t) y x2 (t) las poblaciones de cada una de las especies
que cohabitan en el instante de tiempo t. Supongamos que las poblaciones
iniciales son x1 (0) = 500 y x2 (0) = 200. Si el crecimiento de las especies
viene dado por el sistema diferencial
x01 = 3x1 + 6x2
x02 = x1 2x2
162

Cual es la poblacion de cada especie en cualquier instante de tiempo t?


Ejercicio 6. Nuestro amigo A.D. acostumbra a ir los sabados por la noche a
una casa de juego y perdicion. Siempre va despues de que le pagan su sueldo
semanal de 100$ y juega desde las 11:00 P.M. hasta la 1:00 A.M.. El domingo
entrega a su amada esposa 80$. La se
nora de A.D. acepta este tipo de perdidas del monto del ingreso familiar, pues reconoce que esas dos horas de juego,
en compa
na de algunos amigos y de un par de cervezas, relajan bastante
la estupidez innata de su marido. A.D. es una persona muy metodica en
el juego: siempre apuesta cantidades directamente proporcionales al dinero
que tiene y su velocidad de perdidaes tambien proporcional al dinero que
tiene (este dato lo conoce la se
nora de A.D.). El u
ltimo fin de semana acontecio algo distinto: la se
nora de A.D. se enter
o de que el pillo de su marido
no haba llegado a las 11:00 P.M. a la casa de juego, sino que ese sabado
llego a las 10:00 P.M.. Sin embargo, el domingo siguiente su marido le entrego los mismos 80$ de siempre. Conociendo demasiado bien a su esposo,
la se
nora de A.D. concluyo que ese sabado el no haba jugado 2, sino 3 horas y que sin embargo la cantidad neta recibida para el gasto de la familia
era la misma (80$). Tras unos minutos con papel y lapiz, la se
nora de A.D.
llamo a su amado esposo y le dijo:Escucha, sinverg
uenza, se que recibiste
un aumento de sueldo de X$, as que la proxima semana espero que, por tu
bien, sigas jugando solo dos horas y me entregues la cantidad de Y$ que me
corresponde.
Cuanto valen X e Y?.
Ejercicio 7. Halla la solucion de los siguientes problemas de valores iniciales:

x
1 1
d
y = 1 0
dt
z
0 1

1
x
e2t
0 y + et ,
0
z
0

x
4 1 1
x
et
d

y = 6 3 4
y +
0 ,
dt
z
6 2 3
z
et
0 1
x
d
y = 0 0
dt
0 1
z

sin t
x
0
1y + 0 ,
cos t
z
0

1
x
3 2 4
x
d

y + 2t ,
y = 4 3 8
dt
t
z
1 1 3
z
163

x(1) = 1
y(1) = 1
z(1) = 1
x(0) = 1
y(0) = 2
z(0) = 1
x(0) = 1
y(0) = 1
z(0) = 2
x(0) = 1
y(0) = 1
z(0) = 1

0
x
t2
1y + t ,
3
z
1

x
3 1
d
y = 0 3
dt
z
0 0

x(1) = 2
y(1) = 1
z(1) = 1

Ejercicio 8. Se considera el sistema de ecuaciones diferenciales

0
() 1
1

1
0
0

1
x0 (t)
2 1
3
x(t)
e2t
0
2 y (t) 1 2 3 y(t) = 0 .
0
z 0 (t)
1 2 1
z(t)
0

(a) Reescribe el sistema en forma estandar ~x0 = A~x + ~g .


(b) Se considera la matriz

1 2 1

A= 2 1
5 .
0 0 2
Halla la solucion real del problema de Cauchy
~x0 = A~x + ~g .
con ~g = (0, e2t , 0)T y condiciones iniciales x(1) = 2, y(1) = 0, z(1) = 2.
(c) Halla la solucion del problema de Cauchy dado por el sistema () y la
condicion inicial x(1) = 2, y(1) = 0, z(1) = 2.
Bibliografa recomendada:
D.G.Zill. Ecuaciones diferenciales con aplicaciones. Grupo Editorial Iberoamericana. Cap 8, secciones 8.5 a 8.9.
F.Marcellan. Ecuaciones diferenciales. Problemas lineales y aplicaciones.
Ed. Mc Graw-Hill. Cap 4.

164

Tema 8

EDOs lineales de coeficientes


constantes y orden superior
Ejemplo introductorio. El estudio teorico del procesado de se
nales de
tipo continuo se lleva a cabo a traves de la teora de sistemas. Un sistema se
puede definir como un dispositivo fsico o logico que realiza una operacion
sobre una se
nal.

f (t)
ENTRADA

x(t)
SIST EM A
P ROCESADO

SALIDA

Cuando una se
nal atraviesa un sistema se dice que se ha procesado. A
la se
nal que introducimos se denomina excitacion y a la que obtenemos a la
salida, respuesta.
El procesado de una se
nal puede consistir en una serie de operaciones basicas

165

sobre ella. Se puede amplificar una se


nal (multiplicarla por una constante
mayor que uno) multiplicarla por otra, integrarla, derivarla, etc, en funcion
de las necesidades. Practicamente, toda operacion que pueda realizarse sobre
una funcion de variable continua, que represente a una se
nal, constituye un
sistema.
De todos los sistemas, los de mayor importancia son los llamados lineales.
Estos verifican que la respuesta a dos excitaciones de entrada es la suma de
las respuestas a cada una de las excitaciones por separado. La mayor parte
de los sistemas contiene un n
umero importante de componentes lineales, o
que al menos lo son aproximadamente, como para considerar el estudio de
los sistemas lineales de gran utilidad practica.
En este sentido, una ecuacion diferencial ordinaria lineal, en particular de
coeficientes constantes, puede interpretarse en terminos de un sistema. El
ejemplo clasico, que manejaremos a lo largo de la leccion, es el de un circuito
electrico como el que aparece en la figura.

@
@

@
@
R

@
@

L, C > 0, R 0

E(t)

i(t)

Consta de una resistencia R, una inductancia L y una capacitancia C, as como una batera o generador E(t) que suministra corriente al circuito. La
intensidad de corriente i(t) que en cada instante recorre el circuito puede
entenderse como la respuesta a una excitacion dada por el generador a traves
de un sistema gobernado por la ecuacion diferencial
L

d2 i
di
1
dE
+R + i=
dt2
dt C
dt
166

Su deduccion se basa en la segunda ley de Newton. El segundo sumando


representa las fuerzas de resistencia al movimiento.
Son tambien de interes algunas analogas del sistema electrico, como el
sistema mecanico de masa, resorte y amortiguamiento.
La u
ltima leccion de la asignatura trata de las ecuaciones diferenciales
ordinarias lineales de coeficientes constantes y orden superior a uno. Consiste en estudiar ecuaciones en las que aparecen derivadas de orden mayor
que uno. La correspondencia entre una EDO lineal de orden n > 1 y cierto
sistema lineal de EDOs de primer orden nos permite enfocar aspectos teoricos desde el punto de vista de la leccion anterior. Por tanto, aqu seguiremos
esencialmente la misma estructura que aquella. Discutiremos entonces aspectos sobre la forma de las soluciones para mas adelante centrarnos en la
resolucion y su utilizacion en algunas aplicaciones.

8.1.

Teora b
asica

Una EDO lineal de orden n > 1 y coeficientes constantes es una expresion


del tipo
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t),

(8.1)

con a0 , . . . , an1 n
umeros complejos que son los coeficientes de la ecuacion y
f : I K el llamado termino fuente, una funcion definida en alg
un intervalo
real I con llegada en R o C. La ecuacion, que se dice de orden n por ser
este el orden de la derivada de mayor grado presente, viene definida por sus
coeficientes y su termino fuente. Cuando este es nulo, se dice que la ecuacion
es homogenea, siendo no homogenea en otro caso.
La funcion x(t) que aparece en (8.1) es una variable muda, siendo opcional el empleo de otras letras tanto para denominar a la variable dependiente x como a la independiente t. Por solucion de (8.1) se entiende toda
aplicacion : I R K n veces diferenciable y que satisface la igualdad
(8.1) para todo t I al sustituir x(t) por (t).
Nuestro estudio tiene un hilo conductor ya tratado, que es la teora
de sistemas diferenciales lineales de primer orden y coeficientes constantes.
Observemos que en terminos de estas nuevas variables
dx(t)
dn1 x(t)
, . . . , xn =
, ~x = (x1 , x2 , . . . , xn )T ,
dt
dtn1
podemos escribir la ecuacion (8.1) en forma de un sistema de primer orden
x1 = x, x2 =

~x0 (t) = A~x(t) + f~(t),


167

(8.2)

donde

0
0

.
A = ..

0
a0

1
0
..
.
0
a1

0
1
..
.
0
a2

0
0
..
.
0
an2

0
0
..

,
.

1
an1

0
0

.
f~(t) = .. .

0
f (t)

El sistema (8.2) es equivalente a la ecuacion (8.1) en el siguiente sentido. A


cada solucion de (8.1) le corresponde la solucion del sistema (8.2) dado
por

~ = (, 0 , . . . , n1) )T ,
formado por ella y sus derivadas hasta el orden n 1. Recprocamente,
~ =
la forma del sistema asegura que las componentes de toda solucion
T
(1 , 2 , . . . , n ) de (8.2) van siendo las derivadas de la primera componente,
j (t) =

dj1 1 (t)
,
dtj1

j = 2, . . . , n,

y, de esta forma, teniendo en cuenta la u


ltima ecuacion del sistema, la
primera componente 1 es solucion de (8.1). As pues, toda solucion de
(8.2) tiene como primera componente una solucion de (8.1).
El sistema equivalente nos permite entonces aprovechar el resultado de
existencia y unicidad para el problema de valores iniciales de un sistema
diferencial de este tipo y aplicarlo a nuestro caso. Ahora, un problema de
valores iniciales para la ecuacion de orden n se construye con la ecuacion
(8.1) y n condiciones iniciales, para la funcion x(t) y sus derivadas hasta el
orden n 1 en un punto,
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t)
0

n1)

x(t0 ) = 0 , x (t0 ) = 1 , . . . , x

(8.3)

(t0 ) = n1 .

Esto equivale a imponer el siguiente PVI para el sistema,


~x0 (t) = A~x(t) + f~(t),

(8.4)
T

~x(t0 ) = (0 , 1 , . . . , n1 ) .
Teorema 1. Si f : I K es continua, existe una u
nica solucion del problema
de valores iniciales (8.3).
168

De este modo, resolvemos un primer problema asegurando la existencia y


unicidad de solucion de todo PVI de la ecuacion (8.1) con coeficientes constantes y termino fuente f continuo. Precisamente, la solucion es la primera
componente de la solucion del correspondiente PVI (8.4) para el sistema
equivalente.
La interpretacion de este resultado cuando manejamos la ecuacion en
el contexto de sistemas de procesado de se
nales es clara. En este caso, el
sistema consta de dos tipos de excitaciones de entrada: la dada por las
condiciones iniciales y la del termino fuente, entendido como una se
nal de
variable continua. Entonces, el teorema de existencia y unicidad asegura
que fijados los dos tipos de excitacion, con una se
nal de entrada continua,
el sistema genera una y solo una respuesta.

8.2.

Representaci
on de soluciones

Pasamos a un segundo punto de la teora basica, el referente a la descripcion de soluciones.

8.2.1.

Ecuaci
on homog
enea

Nos detendremos primero en analizar las soluciones de la ecuacion homogenea,


xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = 0,

(8.5)

Denotamos por (I) al espacio de soluciones de la ecuacion (8.5). El primer


resultado es muy similar al obtenido en el tema anterior.
Teorema 2.

(I) es un espacio vectorial de dimension n.

La demostracion es la siguiente. En primer lugar, la linealidad y el


caracter homogeneo de esta ecuacion nos demuestran que el conjunto de
sus soluciones es un espacio vectorial. Esto indica un primer principio de
superposicion: toda combinaci
on lineal de soluciones de (8.5) es a su vez
solucion de (8.5).
Por otra parte, ya hemos visto la equivalencia de (8.5) con el sistema homogeneo
~x0 (t) = A~x(t),

(8.6)

con A dada en (8.2). Sabemos que toda solucion de (8.5) es la primera componente de una solucion de (8.6) y recprocamente. De este modo, podemos
169

identificar (I) con el espacio de soluciones de (8.6). Por el tema anterior,


P
este u
ltimo tiene dimension n, de manera que dim (I) = n.
Por tanto, toda solucion de (8.5) puede escribirse como una combinaci
on
de n soluciones linealmente independientes.
Teorema 3. la solucion general de (8.5) es de la forma
(t) = c1 1 (t) + + cn n (t),
donde c1 , . . . , cn son constantes arbitrarias en K y 1 (t), . . . , n (t) son n
soluciones independientes de (8.5). El conjunto {1 (t), . . . , n (t)} se llama
un sistema fundamental de soluciones.
Ya sabemos entonces que para determinar la solucion general de una
ecuacion homogenea necesitamos n soluciones linealmente independientes.
Surge entonces la cuestion de como comprobar de forma sencilla la independencia de n soluciones dadas. Esta independencia puede venir caracterizada
por la independencia de sus datos iniciales en cualquier punto. En efecto,
consideremos n funciones 1 (t), . . . , n (t) derivables hasta el orden n 1 y
formemos la matriz

W [1 , . . . , n ](t) =

1 (t)
01 (t)
..
.

n1)

2 (t)
02 (t)
..
.

n1)

(t) 2

n (t)
0n (t)
..
.

n1)
(t) n (t)

A su determinante w[1 , . . . , n ](t) = detW [1 , . . . , n ](t) se le llama wronskiano de las n funciones 1 (t), . . . , n (t). La identificaci
on con el sistema
equivalente permite ver que si las n funciones son soluciones de la ecuacion,
entonces las n columnas de la matriz W son soluciones del sistema. Ahora,
la independencia de las n funciones equivale a la de las columnas. Por u
ltimo, como ya se conoce del tema anterior, la independencia de estas queda
determinada por la de sus valores en cualquier instante inicial (es la segunda condicion de matriz fundamental). Esto demuestra que para analizar la
independencia de n soluciones de la ecuacion homogenea de orden n, basta
con evaluar su wronskiano en un punto:
Sean t0 I, 1 (t), . . . , n (t) soluciones de (8.5). Entonces 1 (t), . . . , n (t)
son linealmente independientes si y solo si w[1 , . . . , n ](t0 ) 6= 0.

170

8.2.2.

Ecuaci
on no homog
enea

Pasamos ahora a estudiar las soluciones de la ecuacion no homogenea


(8.1). En primer lugar, tenemos aqu tambien un principio de superposicion
relacionado con el termino fuente.
Pongamos f (t) = f1 (t) + + fM (t) y sea i (t) solucion de (8.1) con
fi (t) en lugar de f (t), i = 1, . . . , M . Entonces, (t) = 1 (t) + +
M (t) es solucion de (8.1) con termino fuente f (t).
En terminos de sistemas, el principio afirma que la respuesta dada a una
excitacion que es superposicion de excitaciones mas simples es la suma de
las respuestas a las excitaciones por separado.
Aplicando este principio, tenemos:
Si 1 , 2 son dos soluciones de (8.1), entonces = 1 2 es solucion
de la ecuacion homogenea (8.5).
De este modo, la combinaci
on del principio de superposicion con la representacion general de las soluciones de la ecuacion homogenea permite dar
una descripcion de las soluciones de la ecuacion no homogenea.
La solucion general de (8.1) puede escribirse
(t) = p (t) + c1 1 (t) + + cn n (t),
donde
p (t) es una solucion particular cualquiera de (8.1).
c1 , . . . , cn K son constantes arbitrarias.
{1 (t), . . . , n (t)} es un sistema fundamental de soluciones de la
ecuacion homogenea (8.5).
Las constantes determinan la generalidad, de manera que nuestro problema de calcular la solucion general de la ecuacion no homogenea se reduce
a la determinacion de una solucion particular.

8.3.

C
alculo efectivo de soluciones. Ecuaci
on homog
enea

Pasamos al calculo de soluciones, siguiendo la estructura previamente


descrita y comenzando por tanto con la ecuacion homogenea (8.5).
171

El polinomio p(z) = a0 + a1 z + + an1 z n1 + z n es el polinomio caracterstico de la ecuacion y sus races son las llamadas races caractersticas
de la misma.
En analoga con la ecuacion lineal de primer orden x0 (t) = ax(t), uno
puede esperar tambien en este caso soluciones exponenciales. Fijemonos en
que si x(t) = et y sustituimos en el primer miembro de (8.5), tenemos
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t)
= (n + an1 n1 + a1 + a0 )et = p()et ,
de modo que para que x(t) = et sea solucion, el factor ha de ser una
raz caracterstica p() = 0. La terminologa del polinomio y sus races
no es casual, puesto que en el sistema equivalente (8.6) p es precisamente
el polinomio caracterstico de la matriz A y por tanto sus races son los
autovalores de esta.
Ejemplo. Para n = 3,

0
A= 0
a0

1
0
a1

0
1 ,
a2

y se tiene

det(zI3 A) = 0
a

1
0
z
1 = z 3 + a2 z 2 + a1 z + a0 = p(z).
a1 z + a2

Las races caractersticas determinan pues soluciones de la ecuacion. Para


el ejemplo del clasico circuito RLC, el valor de las races depende de los
parametros de resistencia, inductancia y capacitancia. Para valores fijos de
L y C, en la figura representamos la evoluci
on de cada una de las races en
funcion de la resistencia R, con R decreciendo en la direccion de las flechas.
Son destacables varias cosas: en los casos practicos las races tienen parte
real menor o igual que cero, colapsan para un cierto valor de la resistencia y a
medida que esta se acerca a cero, las races se aproximan al eje imaginario. Ya
veremos que esto influye en el tipo de respuesta que proporciona el circuito.

172

lambda1

lambda2

La identificacion de los autovalores de la matriz del sistema equivalente


(8.6) con las races caractersticas de la ecuacion (8.5) habilita el calculo de
un conjunto fundamental de soluciones.
En efecto, sabemos que el sistema (8.6) admite una base de soluciones formada por modos normales que son funciones del tipo

k()1) j
X t

~ (t) = et

j=0

j!

(A In )j ~ ,

con k() menor o igual que la multiplicidad algebraica del autovalor , ~


un autovector generalizado asociado al autovalor. Lo que nos interesa de
la formula es el hecho de que las componentes de esta funcion vectorial,en
particular la primera, son de la forma et q(t) con q(t) un polinomio de
grado a lo sumo la multiplicidad del autovalor menos uno. Factorizamos el
polinomio caracterstico,
p(z) = (z 1)m1 (z 2 )m2 (z r )mr ,

m1 + + mr = n.

(8.7)

Dado que toda solucion de la ecuacion es la primera componente de una solucion del sistema, esto significa que, recorriendo la base de modos normales,
las n funciones
0,1 (t) = e1 t , 1,1 (t) = te1 t , m1 1,1 (t) = tm1 1 e1 t
0,2 (t) = e2 t , 1,2 (t) = te2 t , m2 1,1 (t) = tm2 1 e2 t

(8.8)
r t

0,r (t) = e

r t

, 1,r (t) = te

, mr 1,1 (t) = t

mr 1 r t

constituyen un sistema generador del espacio de soluciones de (8.5). Ahora,


el espacio generado por estas funciones tiene dimension a lo sumo n (el
173

n
umero de generadores) y contiene al espacio de soluciones de la ecuacion
(8.5), que sabemos que tiene dimension n, luego necesariamente coincide con
el.
Teorema 4. Supongamos K = C. Dada la factorizacion (8.7) del polinomio
caracterstico de la ecuacion (8.5), las n funciones dadas por (8.8) forman
un sistema fundamental de soluciones de la ecuacion homogenea de orden n
(8.5).
Ejemplo 1. Buscamos la solucion del problema
xiv) 2x000 + 2x00 2x0 + x = 0
x(0) = 0, x0 (0) = 1, x00 (0) = 0, x000 (0) = 1
El polinomio caracterstico es p(z) = z 4 2z 3 +2z 2 2z +1 = (z 1)2 (z 2 +1),
de manera que las races con sus multiplicidades son
1 = 1, m1 = 2, 2 = i, m2 = 1, 3 = i, m3 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{et , tet , eit , eit }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Ceit + Deit
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal
para las constantes:
(0) = A + C + D = 0
0 (0) = A + B + iC iD = 1
00 (0) = A + 2B C D = 0
000 (0) = A + 3B iC + iD = 1,
cuya solucion es A = 1, B = 1, C = (1 i)/2, D = (1 + i)/2, luego la
solucion del problema es (t) = et + tet + ((1 i)/2)eit + ((1 + i)/2)eit .
Ejemplo 2. Buscamos la solucion del problema
x000 + x00 x0 x = 0
x(0) = 1, x0 (0) = 0, x00 (0) = 1.
El polinomio caracterstico es p(z) = z 3 + z 2 z 1 = (z + 1)2 (z 1), de
manera que las races con sus multiplicidades son
1 = 1, m1 = 2, 2 = 1, m2 = 1,
y el sistema fundamental de soluciones en este caso nos queda
174

{et , tet , et }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Cet .
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal
para las constantes:
(0) = A + C = 1
0 (0) = A + B + C = 0
00 (0) = A 2B + C = 1,
cuya solucion es A = 1, B = 1, C = 0, luego la solucion del problema es
(t) = et + tet .
De este modo, hemos obtenido una base de soluciones de la ecuacion
homogenea, independientemente del caracter real o complejo de sus autovalores. En el caso de que la ecuacion tenga coeficientes reales, puede obtenerse
una base de soluciones formada por funciones reales.
Esto es debido a lo siguiente: supongamos que en (8.5) los coeficientes
a0 , . . . , an1 son n
umeros reales. Observemos que si es solucion de (8.5), el
hecho de que los coeficientes sean reales, implica que su funcion conjugada
es tambien solucion. Puesto que
Re() =

+
,
2

Im() =


,
2i

y por el principio de superposicion, tenemos que las partes real e imaginaria


de toda solucion de (8.5) son tambien soluciones.
De esta manera, la base anterior (8.8) nos va a proporcionar una base real.
Ahora, el polinomio caracterstico puede factorizarse en la forma
p(z) = = (z 1 )m1 (z p )mp
(z 1 )n1 (z q )nq
(z
1 )n1 (z
q )nq ,

(8.9)

donde
1 , . . . , p R, j = j + ij , 1 j q.
Esto se debe a que, al ser p de coeficientes reales, las races complejas aparecen en pares conjugados j ,
j con la misma multiplicidad nj . Lo u
nico que
tenemos que hacer es distinguir las races caractersticas reales de las complejas y considerar la parte real y la imaginaria de las funciones de la base
(8.8) asociadas a estas u
ltimas.
175

Teorema 5. Supongamos que K = R y consideremos la factorizacion del


polinomio caracterstico de la ecuacion (8.5) dada en (8.9). Entonces, las n
funciones
tk ets ,
1 s p, 0 k ms 1
k
t
s
t e cos s t,
1 s q, 0 k ns 1
tk ets sin s t,
1 s q, 0 k ns 1
forman una base del espacio real de las soluciones reales de la ecuacion
(8.5).
Ejemplo. As, en el ejemplo 1 anterior, como
eit = cos t + i sin t,

eit = cos t i sin t,

la base real de soluciones es


{et , tet , cos t, sin t},
y la solucion del problema es, escrita en esta base,
1 i it 1 + i it
e +
e
2
2
1 i it
= et + tet + 2Re(
e )
2
= et + tet + cos t + sin t.

(t) = et + tet +

Tambien se puede obtener planteando la solucion general real (t) = Aet +


Btet + C cos t + D sin t e imponiendo las condiciones iniciales para despejar
los valores de A, B, C y D.

8.4.

Respuesta natural. Movimiento arm


onico simple y amortiguado

la interpretacion de estas soluciones al considerar la ecuacion como la ley


que gobierna un sistema de procesado de se
nales es la siguiente. Recordemos que un sistema de este tipo puede recibir dos formas de excitacion: en
terminos de una se
nal continua (termino fuente) o en terminos de condiciones iniciales. Cuando la ecuacion es homogenea, no hay excitacion del
primer tipo, de modo que la solucion de un PVI de la ecuacion homogenea
es la respuesta del sistema debida a la excitacion dada por las condiciones
iniciales. Se dice entonces que es la respuesta natural.
176

Ejemplo 1. Movimiento arm


onico amortiguado
Un ejemplo clasico que ilustra distintas respuestas naturales de una ecuacion
homogenea viene dado por el circuito electrico RLC.

@
R
@

L
C

d2 i
di
1
+R + i=0
2
dt
dt C
i0 (0) = i00

i(0) = i0 ,
L, R, C > 0

i(t)

Planteadas condiciones iniciales a la ecuacion, la respuesta natural es


diferente en funcion del caracter real o complejo de las races caractersticas,
1,2

R
,
=
2L

R
2L

1
CL

As, suponiendo que todos los parametros del circuito son positivos, tenemos
> 0, i(t) = c1 e1 t + c2 e2 t . La respuesta natural es una superposicion de dos exponenciales correspondientes a las dos races, distintas, reales y negativas. Las constantes c1 , c2 quedan determinadas
imponiendo los datos iniciales.
R

= 0, i(t) = (c1 + c2 t)e 2L t . La u


nica raz caracterstica proporciona como solucion un polinomio de grado menor o igual que uno por
la correspondiente exponencial.
r
R
2L
t

R
1
< 0, i(t) = Ae
cos(1 t ), 1 = CL
2L
. Este caso
da lugar a dos races complejas conjugadas: cuando la resistencia es

177

no nula, la respuesta natural corresponde a oscilaciones con una amplitud que decrece exponencialmente a cero. La corriente oscila cada
vez a menor amplitud y la velocidad a la que se amortigua la respuesta depende directamente del valor de la resistencia, que act
ua como
atemperacion del sistema. Este es el llamado movimiento armonico
amortiguado.
La siguiente figura ilustra los tres casos comentados, fijados valores a L y
C, en funcion de una resistencia presente en le circuito. En todos ellos la
respuesta natural tiende a cero cuando t , debido a que la parte real de
las races caractersticas es en todos los casos menor que cero, porque todos
los parametros del circuito son positivos.

0.5

0.4

0.3

0.2

0.1

0.1

10

15

Ejemplo 2. Movimiento arm


onico simple. En las respuestas naturales
antes comentadas hemos tenido en cuenta en el modelo la presencia de una
resistencia que act
ua como amortiguamiento del sistema. La desaparicion de
la misma (R = 0 en la ecuacion) cambia el modelo y por tanto la respuesta
natural.
R=0

( < 0),

1
=
,
CL

1,2 = i

Ahora las races caractersticas son imaginarias puras y la respuesta es una


oscilacion libre de amplitud constante y frecuencia , la llamada frecuencia
natural.
i(t) = A1 cos(t) + A2 sin(t) = A cos(t )
178

Este es el llamado movimiento armonico simple y puede obtenerse a partir del movimiento armonico amortiguado anterior. Recordando el comportamiento de las races caractersticas, que se aproximan al eje imaginario cuando la resistencia se acerca a cero, tenemos que en el movimiento
armonico amortiguado, la velocidad de decaimiento tiende a cero, de manera que la respuesta se aproxima a la respuesta natural de un circuito con
induccion y capacitancia pero libre de fuerzas de resistencia.
R

iR (t) = Ae 2L t cos(1 t ) i(t) = A cos(t )


R 0
R = 0.1

R = 0.05

0.5

0.5

0.5

0.5

10

20

30

40

10

R = 0.025
1

0.5

0.5

0.5

0.5

10

20

30

40

30

40

R=0

20

30

40

10

20

Ejemplo 3. Modulaci
on de una se
nal. La aparicion de oscilaciones libres
como respuestas naturales proporciona diversas aplicaciones de los circuitos
al procesado de se
nales. Una de ellas es la modulacion, en la que se emplea
una se
nal para controlar alg
un parametro de otra. Nosotros nos fijaremos
en una de las mas sencillas, que es la modulacion en amplitud sinusoidal.
x(t)

y(t) = x(t)cos(t )
-

6
-

LC

cos(t )

c.i.
179

Vamos a considerar el siguiente sistema. Este consta de una se


nal que
act
ua de mensaje y otra, que actuara de portadora, que es una onda sinusoidal con una apropiada frecuencia , que puede considerarse como respuesta natural de un circuito electrico LC sin resistencia. El sistema procesa
ademas ambas se
nales usando un multiplicador. La respuesta se muestra en
la figura.
X(t)
20
10
0
10
20
0

10

15
20
25
RESPUESTA NATURAL DEL CIRCUITO

10

15

20
Y(t)

10

15

20

30

35

40

25

30

35

40

25

30

35

40

1
0
1

20
10
0
10
20

Se trata de la se
nal portadora modulada en la que su envolvente sigue el
perfil del mensaje.

8.5.

C
alculo efectivo de soluciones. Ecuaci
on no
homog
enea

Pasamos ahora al calculo de soluciones de una ecuacion no homogenea.


Siguiendo la estructura previamente comentada de las soluciones de la ecuacion,
describiremos aqu dos caminos de resolucion. Uno es general y viene dado
por la formula de variacion de las constantes. El otro es un metodo practico
de coeficientes indeterminados para calcular una solucion particular, valido
solo para cierto tipo de terminos fuente.

8.5.1.

F
ormula de variaci
on de las constantes

La formula de variacion de las constantes esta basada en la correspondiente formula para el sistema equivalente de primer orden, que ya hemos
visto en el tema anterior.

180

Teorema 6. La solucion del PVI (8.3)


xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t)
x(t0 ) = 0 , x0 (t0 ) = 1 , . . . , xn1) (t0 ) = n1
con f : (a, b) K continua, es
(t) = 0 (t) +

Z t
t0

h(t s)f (s)ds

donde
[1 ] 0 satisface
n)

n1)

0 (t) + an1 0

(t) + + a1 00 (t) + a0 0 (t) = 0


n1)

0 (t0 ) = 0 , 00 (t0 ) = 1 , . . . , 0

(t0 ) = n1

[2 ] h : R R es la solucion de
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = 0
x(0) = 0, x0 (0) = 0, . . . , xn2) (0) = 0, xn1) (0) = 1
(Funcion de influencia)
La formula establece que la solucion del PVI (8.3) para una ecuacion
de orden n y coeficientes constantes con termino fuente continuo, se puede
escribir como suma de dos terminos: el primero es la solucion de la ecuacion
homogenea asociada con el mismo dato inicial. El segundo proporciona una
solucion particular con dato inicial nulo y representa la aportacion del termi
no no homogeneo a traves de un factor de influencia h. Este
puede obtenerse
como la solucion de la ecuacion homogenea con un conveniente dato inicial
en cero.
Para la demostracion, se considera el correspondiente problema de valores iniciales (8.4) para el sistema equivalente y sea (t) la matriz formada
por modos normales a partir de la matriz A. Por la formula de variaci
on de
las constantes para sistemas, la solucion de (8.4) puede escribirse
~x(t) = (t t0 )(0)1
~+

Z t
t0

(t s)(0)1 f~(s)ds.

Por la equivalencia entre ecuacion y sistema, la primera componente de este


vector es la solucion que buscamos. pasamos entonces a analizar la formula.
181

El primer sumando es la solucion del sistema homogeneo (8.6) con dato


inicial ~x(t0 ) =
~ , de manera que su primera componente es en efecto la
funcion 0 , solucion de la ecuacion homogenea con dato inicial
~ . por otro
lado, podemos escribir la integral como

0
Z t

1 ..
(t s)(0) . f (s)ds.

t0
0

1
Ahora, si consideramos el integrando salvo la funcion f (s), este es el valor,
en t s del vector

0

.
1
~h(t) = (t)(0)
.. ,

0

1
que no es otra cosa que la solucion del sistema homogeneo con dato inicial
en t0 = 0 dado por (0, 0, . . . , 0, 1)T . Por tanto, su primera componente es la
funcion de influencia h descrita.
Ejemplo. Vamos a resolver el problema de valores iniciales
x00 2x0 3x = t2 e2t
x(0) = 1, x0 (0) = 1.
La solucion del problema homogeneo
x00 2x0 3x = 0
x(0) = 1, x0 (0) = 1.
es 0 (t) = (1/2)e3t + (1/2)et . La funcion de influencia es la solucion de
x00 2x0 3x = 0
x(0) = 0, x0 (0) = 1.
esto es, h(t) = (1/4)e3t (1/4)et . Entonces
Z t
0

h(t s)f (s)ds =

Z t
0

(1/4)e3(ts) (1/4)e(ts) s2 e2s ds.


182

La solucion del problema es


3t

(1/2)e + (1/2)e

Z t
0

(1/4)e3(ts) (1/4)e(ts) s2 e2s ds.

La formula de variacion de las constantes tiene un interes a


nadido por su
interpretacion cuando la ecuacion diferencial gobierna un sistema de procesado de se
nales continuas. La formula muestra que la respuesta del sistema
es suma de la respuesta debida a la excitacion de las condiciones iniciales, es
decir, la respuesta natural, mas la respuesta a la excitacion exclusivamente
de la se
nal de entrada.
Ya hemos hablado de la respuesta natural, por lo que ahora nos vamos a
centrar en diversas aplicaciones que tiene el segundo sumando de la formula. Para ilustrar estas vamos a usar de nuevo el circuito electrico RLC de
segundo orden y por comodidad manejaremos condiciones iniciales en t0 = 0.
Circuito RLC

@
R
@

L
C

d2 h
1
dh
+ h=0
+R
2
dt
dt
C

h(0) = 0,

h0 (0) = 1

h(t)

R
R 2
1
, =

2L
2L
CL
Dependiendo del signo del discriminante de la ecuacion caracterstica, la
funcion de influencia puede ser de las siguientes formas:
1,2 =

183

1
1 t
1 2 (e
R
2L t

e 2 t )

> 0,

h(t) =

= 0,
< 0,

h(t) = te
R
h(t) = 1 e 2L t cos(t 2 ),

Ejemplo 1. Respuesta a una excitaci


on sinusoidal.
El primer ejemplo que tratamos es el estudio de la respuesta de un sistema
a una excitacion sinusoidal. Imaginemos un sistema de procesado de se
nales
que se rige por una EDO lineal de orden n y coeficientes constantes, con una
se
nal de entrada del tipo coseno y condiciones iniciales nulas en t = 0.

f (t) = cos(0 t)

x(t)

P.V.I.

+c.i. = 0
La formula de variacion de las constantes determina que la solucion tiene
esta forma
x(t) =

Z t
0

h(t s) cos(0 s)ds

con h la correspondiente funcion de influencia. Un sencillo cambio de variable


permite escribir la integral de esta manera
x(t) =

Z t
0

h(s) cos(0 (t s))ds.

Imaginemos que el sistema es estable en el sentido de que toda solucion


de la ecuacion homogenea tiende a cero cuando t . Dada la forma
conocida ya de una base de soluciones, tk et 0, t esto se consigue si
nosotros imponemos que la parte real de toda raz caracterstica es menor
que cero,
Re() < 0 raz caracterstica.
Bajo estas condiciones, descomponemos la respuesta en esta dos integrales,
x(t) =

Z
0

h(s) cos(0 (t s))ds

h(s) cos(0 (t s))ds = xP + xT


184

xT (t) 0 si t
(resp. transitoria)
Z

1
xP (t) =
h(s) ei0 (ts) + ei0 (ts) ds
2 0
= a cos(0 t )
(resp. permanente)

0 )), A() =
a = |A(0 )|, = arg(A(

Z
0

h(s)eis ds

Con las hipotesis impuestas, la segunda integral tiende a cero cuando t .


De este modo, cuando t es grande, la aportacion de la segunda integral
es cada vez menor y la respuesta tiende a comportarse seg
un la primera
integral. Es por ello que a esta se le llama respuesta permanente, mientras
que el segundo sumando se denomina respuesta transitoria.
Observemos ademas que la respuesta permanente puede tambien escribirse
como un coseno de la misma frecuencia que la se
nal de entrada. La conclusion
es que para un sistema de este tipo, la respuesta a una excitacion sinusoidal
es asintoticamente sinusoidal, con la misma frecuencia (0 ), y magnitud y
fase determinadas por
A() =

Z
0

h(s)eis ds

(respuesta en frecuencia)
La ilustracion de este resultado puede venir dada a traves de un circuito
electrico de segundo orden, donde una batera suministra electricidad, en
forma sinusoidal en tiempo, mostrada en la figura. Elegimos los parametros
de la ecuacion de modo que la funcion de influencia sea por ejempo una
oscilacion amortiguada. La tercera figura muestra la respuesta del sistema.
Aqu se puede observar que la respuesta transitoria, visible para tiempos
cortos, tiende a desaparecer, quedando una oscilacion de la misma frecuencia
que la excitacion pero amplificada.

185

EXCITACION f(t)
1
0
1
0

10

20

30

40
50
60
F. DE INFLUENCIA h(t)

70

80

90

100

10

20

30

40

70

80

90

100

10

20

30

40

70

80

90

100

1
0
1
50
60
RESPUESTA x(t)

10
0
10
50

60

Ejemplo 2. Regularizaci
on de una se
nal.
Otro efecto de la formula de convoluci
on es la regularizacion de una se
nal,
es decir, la respuesta del sistema es una funcion mas regular que la funcion
excitacion de entrada. Esto puede ilustrarse con el siguiente ejemplo. Imaginemos que la se
nal de entrada es un par de pulsos triangulares de la forma
del primer grafico de la figura.
EXCITACION f(t)
1
0
1
0

4
5
F. DE INFLUENCIA h(t)

0
3
x 10

4
RESPUESTA

0.01
0
0.01

1
0.5
0
0.5
1

Supongamos que el circuito de segundo orden tiene una funcion de influencia


del tipo mostrado en el segundo grafico, correspondiente a un valor nulo del
discriminante. El tercer dibujo muestra la respuesta con condiciones iniciales
nulas. Observamos as que es una representaci
on mas regular de la se
nal de
entrada. Es mas regular pero tambien pierde amplitud, debido especialmente
186

a que la excitacion no esta muy alejada y es preciso tomar la funcion de


influencia h bastante baja para representar de forma mas o menos fiel la
excitacion. Esto puede arreglarse a
nadiendo al sistema un amplificador de
se
nal. Finalmente, podemos vernos tambien afectados de un desfase con respecto a la se
nal de entrada, que puede corregirse introduciendo en el sistema
un retardo.
Ejemplo 3. Se
nales discontinuas.
La formula de variacion de las constantes es necesaria para tratar el caso
general. Sin embargo, requiere que la ecuacion diferencial se adapte como
modelo matematico al fenomeno que se pretende describir. Ello exige que
la se
nal de entrada del sistema, el termino fuente de la ecuacion, sea una
funcion continua. Cuando la funcion f deja de ser continua en alg
un punto,
la ecuacion carece de soluciones en sentido estricto. Esta es, sin embargo, una
situacion que puede darse en la realidad. Imaginemos una se
nal de entrada
consistente en un mensaje codificado en ceros y unos. Esto significa que el
termino fuente es una funcion de tipo pulso, como la que aparece en la figura
(primer grafico), discontinua en un n
umero finito de puntos.
EXCITACION f(t)
1

0.5

0
0

4
5
6
F. DE INFLUENCIA h(t)

0
4
x 10

5
RESPUESTA

10

10

10

0.01
0.005
0
0.005
0.01
10

Uno puede estar interesado en la respuesta del sistema a este tipo de


excitacion. Naturalmente, no puede proceder de una solucion en el sentido
clasico de la ecuacion. Sin embargo, se puede hacer el siguiente razonamiento:
se integra la ecuacion diferencial en el intervalo entre 0 y 2 con termino
fuente nulo y condiciones iniciales nulas. A continuaci
on se integra en el
siguiente intervalo, entre 2 y 4, con termino fuente identicamente uno y
condiciones iniciales dadas por la solucion del problema anterior. Repitiendo
este procedimiento en cada intervalo de continuidad del termino fuente se
187

obtiene una funcion continua en todo punto y que satisface la ecuacion


diferencial en aquellos puntos donde el termino fuente es continuo. En forma
cerrada, esta funcion viene dada por la convoluci
on que aparece en la formula
de variacion de las constantes. As, la formula permite dar respuesta a se
nales
mas generales y proporciona un sentido mas amplio a la idea de solucion de
la ecuacion diferencial, como la funcion continua que satisface la ecuacion
en los puntos donde el termino fuente es continuo.
Esto puede observarse en las figuras. Para un termino fuente formado por
dos pulsos rectangulares, tomando la funcion de influencia correspondiente
al circuito de segundo orden con discriminante nulo, la respuesta del sistema
es una regularizacion de la se
nal de entrada que ademas permite identificar
el mensaje de unos y ceros.

8.5.2.

Coeficientes indeterminados

Pasamos por u
ltimo a describir una alternativa para la resolucion de la
ecuacion no homogenea aplicable para cierto tipo de terminos fuente. Es
el metodo de coeficientes indeterminados que permite obtener una solucion
particular de la ecuacion sin recurrir a la formula de variaci
on de las constantes.
Los terminos fuente para los que es aplicable este metodo son del tipo
producto de un polinomio por una exponencial. Dentro de esta clase de
funciones se encuentran tambien las trigonometricas.
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = q(t)et
q(t) = q0 + q1 t + + qm tm ,

El metodo parte de la idea intuitiva de que cuando el termino fuente de


la ecuacion es de esta forma, uno espera una solucion del mismo tipo. El
procedimiento es como sigue. Cuando consideramos un producto x(t) =
s(t)et de una funcion s(t) por una exponencial de la misma forma que el
termino fuente, la sustitucion en el primer miembro de la ecuacion diferencial
da lugar a
(

pn1) () n1)
pn) () n)
s (t) +
s
(t) +
n!
(n 1)!
p0 () 0
s (t) + p()s(t))et = q(t)et
+
1!

donde
p(z) = z n + an1 z n1 + + a1 z + a0
188

(8.10)

es el polinomio caracterstico de la ecuacion. Esta formula puede demostrarse


usando la regla de derivacion de un producto y reordenando terminos. La
expresion (8.10) simplifica la discusion del procedimiento de coeficientes indeterminados. Imaginemos que el termino fuente es un polinomio de grado
menor o igual que m por la exponencial y que la solucion a ensayar es del mismo tipo, con s un polinomio. Simplificando en (8.10) se tiene una ecuacion
diferencial para el polinomio s. Dado que q es un polinomio de grado menor
o igual que m, la expresion de la izquierda es entonces un polinomio de grado
menor o igual que m. La determinacion del grado de s depende entonces de
los coeficientes de la formula.
De este modo, si no es raz del polinomio caracterstico, s tiene que ser
un polinomio de grado menor o igual que m, pues aparece a la izquierda de
la igualdad. Esto permite ensayar una solucion particular como el termino
fuente, es decir, un polinomio de grado menor o igual que m por la exponencial.
Ahora, si por ejemplo es raz caracterstica simple, la anulaci
on del u
ltimo
sumando indica que la derivada de s es un polinomio de grado menor o igual
que m, luego s es un polinomio de grado menor o igual que m + 1. Si la raz
es doble, s00 tiene grado menor o igual que m, de manera que s tiene grado
a los sumo m + 2. As, en general, si es raz caracterstica de multiplicidad
d, podemos ensayar como s un polinomio de grado menor o igual que m + d,
s(t) = A0 + A1 t + + Ad1 td1 + Ad td + + Am+d tm+d .
Aqu podemos avanzar un poco mas; teniendo en cuenta que es raz con
esa multiplicidad, la parte de la solucion correspondiente al polinomio de
grado menor o igual que d 1 es una solucion de la ecuacion homogenea. De
este modo, podemos ensayar a partir del coeficiente de td . Tenemos entonces
el criterio siguiente:
(A) Si p() 6= 0, entonces s(t) = r0 + r1 t + + rm tm y existe una solucion particular de la forma
p (t) = (r0 + r1 t + + rm tm )et
(B) Si p(z) = (z )d p0 (z) con p0 () 6= 0, entonces
s(t) = r0 + + rd1 td1 + rd td + + rd+m td+m
y existe una solucion particular de la forma
p (t) = td (rd + rd+1 t + + rd+m tm )et
189

(C) En ambos casos, los coeficientes se obtienen imponiendo que p (t) sea
solucion del problema.
Ejemplos.
[1]. Buscamos una solucion particular de
x00 2x0 3x = te2t .
Las races caractersticas son 1 = 3, 2 = 1. Como = 2, ensayamos
como solucion particular x(t) = (A + Bt)e2t . Imponiendo esta funcion como
solucion e igualando en las potencias de t, tenemos el sistema
2B 3A = 0
3B = 1.
de donde x(t) = ((2/9) (t/3))e2t .
[2]. Buscamos una solucion particular de
x00 2x0 3x = tet .
Ahora, = 1 es raz simple del polinomio caracterstico. Buscamos entonces una solucion particular de la forma x(t) = t(A + Bt)et . Imponiendo
la funcion como solucion e igualando coeficientes en t, se tiene
2B 4A = 0
8B = 1.
De donde B = 1/8, A = 1/16. La ecuacion tiene una solucion particular
de la forma x(t) = t((1/16)(1/8)t)et . La solucion general es de la forma
c1 e3t + c2 et + t((1/16) (1/8)t)et , con c1 , c2 constantes arbitrarias.
Ejemplo 1. Resonancia.
La primera aplicacion de esta tecnica de coeficientes indeterminados se refiere al fenomeno de resonancia. En sistemas como el del circuito electrico
L

d2 i
di
1
+ R + i = E cos(f t)
2
dt
dt C

190

y en general en sistemas lineales de se


nales aparecen funciones fuente de
naturaleza sinusoidal. Es interesante estudiar el comportamiento de la respuesta del circuito cuando el discriminate de la ecuacion caracterstica es
negativo y la frecuencia de excitacion f no coincide con la frecuencia natural del sistema

< 0, = , 6= f
Supongamos que la resistencia R es no nula. En tal caso, la solucion general
de la ecuacion homogenea es una oscilacion amortiguada
R

i0 (t) = Ae 2L t cos(t 0 ).
Asmismo, siguiendo el metodo de coeficientes indeterminados, hay una solucion particular que es una combinaci
on lineal de seno y coseno de la misma
frecuencia que el termino fuente
ip (t) = B cos f t + C sin f t
E
= q
cos(f t )
R
( f )2 + 4( 2L
f )2
Imponiendo que la funcion sea una solucion de la ecuacion, se determinan
las constantes B y C. As, la solucion del problema es suma de esta solucion
particular mas la de la homogenea
i(t) = i0 (t) + ip (t).
La imposicion de las condiciones iniciales determinan las constantes A y 0 .
Si la resistencia es no nula, la respuesta transitoria, dada por la solucion
de la ecuacion homogenea asociada, tiende a desaparecer con el tiempo,
quedando el regimen permanente representado por la solucion particular,
que es una oscilacion libre de amplitud constante e igual frecuencia que
la del termino fuente, la se
nal de entrada. Si R es nulo, la solucion de la
ecuacion homogenea no es transitoria y la respuesta es una superposicion de
dos se
nales sinusoidales de distinta frecuencia. En cualquier caso, el sistema
permanece estable con el tiempo.

191

RESPUESTA NO RESONANTE
8

10

15

20

25

30

35

40

Notemos sin embargo que si la resistencia es peque


na y la frecuencia natural del sistema es cercana a la de excitacion, la amplitud de la respuesta
permanente se puede hacer muy grande.
Esta observacion nos lleva a investigar lo que ocurre cuando la resistencia
es nula y las dos frecuencias coinciden
L

d2 i
1
+ i = E cos(t)
dt2 C

En este caso, el metodo de coeficientes indeterminados permite encontrar


una solucion particular de la forma
ip (t) = Bt sin t + Ct cos t
E
=
t sin(t )
2
dado que i y su conjugado, que aparecen en el termino fuente, son races
caractersticas simples. A
nadiendo la solucion de la ecuacion homogenea
i0 (t) = A cos(t 0 )
i(t) = i0 (t) + ip (t),
la solucion de nuestro problema sera la suma de ambas. Ahora, la respuesta
es inestable, pues la solucion particular va haciendose, de manera oscilatoria,
mayor en amplitud a medida que transcurre el tiempo, debido al factor
lineal t. Este es el fenomeno conocido como resonancia: la frecuencia de la
excitacion es resonante con la de la respuesta natural, que es un movimiento
armonico simple.
192

RESPUESTA RESONANTE
40

30

20

10

10

20

30

40

10

15

20

25

30

35

40

Ejemplo 2. Filtrado de una se


nal.
Otra de las aplicaciones del metodo de coeficientes indeterminados se encuentra en el filtrado de se
nales. Imaginemos que al circuito electrico la
batera le suministra un voltaje que es una superposicion de m sinusoides
de diferentes frecuencias,
L

1
d
di
d2 i
+ R + i = f (t) = E(t),
2
dt
dt C
dt

R>0

E(t) = E1 sin(1 t) + + Em sin(m t)


excitacion que aparece en la primera figura para siete frecuencias distintas.
EXCITACION E(t)
5

10

10

RESPUESTA ip(t)
5

193

Suponiendo que la resistencia R es no nula, el metodo de coeficientes indeterminados y el principio de superposicion proporcionan una solucion particular que es tambien una superposicion de se
nales sinusoidales con amplitud
constante y similares frecuencias.
ip (t) =

m
X
j=1

Ej

R2

1CLj2
Cj

2 sin(j t j )

Observemos que la amplitud asociada a una de las frecuencias, digamos K ,


1
sera maxima cuando la frecuencia natural coincida con ella, = CL
= K .
De este modo, ajustando los parametros del circuito C y L para que as ocurra, podemos hacer que la amplitud de la respuesta para la se
nal de entrada
con frecuencia K sea mucho mayor que las restantes amplitudes. El sistema
electrico act
ua as como un filtro, respondiendo a aquellas entradas cuyas
frecuencias esten cerca de K e ignorando aquellas se
nales con frecuencias
mas lejanas. En nuestro ejemplo los parametros del circuito se ajustan para
1
este cerca de la tercera frecuencia, y la respuesta permanente
que = CL
de salida se muestra en la segunda figura del grafico. Observemos que se ha
filtrado la se
nal de entrada, de manera que la amplitud de la tercera se
nal
respuesta es mucho mayor que la de las demas y esta es la que se observa
en la grafica.
EJERCICIOS DEL TEMA 8
Ejercicio 1. Encuentra la solucion general de las siguientes ecuaciones diferenciales ordinarias homogeneas:
a) x000 + 4x00 + x0 6x = 0,
b) x000 + 6x00 + 9x0 = 0,
c) x00 2x0 + 2x = 0,
d) x0v 2x00 + x = 0,
e) x00 x0 12x = 0,
f) x000 6x00 + 12x0 8x = 0,
g) x0000 2x000 + 2x00 2x0 + x = 0,
h) x0000 + 2x00 + x = 0,
i) x000 2x00 x0 + 2x = 0,
j) x0000 5x000 + 6x00 + 4x0 8x = 0,
Ejercicio 2. Halla la solucion de los siguientes problemas de valores iniciales:
194

a) x0000 + x = 0, x(0) = 1, x0 (0) = x00 (0) = 0, x000 (0) = 1


b) x000 3x00 + 3x0 x = 0, x(0) = 1, x0 (0) = 2, x00 (0) = 3
c) x00 2x0 + 3x = 0, x(0) = x0 (0) = 0
d) x0000 2x00 + x = 0, x(0) = x0 (0) = x00 (0) = 0, x000 (0) = 1.
Ejercicio 3. Cual es el menor orden de una ecuacion diferencial lineal
homogenea de coeficientes constantes que tiene entre sus soluciones a las
funciones sin (2t), 4t2 e2t y et ? Halla una de tales ecuaciones.
Ejercicio 4. Se considera la ecuacion
ax00 + bx0 + cx = 0

donde b > b2 4ac, a > 0. Demuestra que si x = x(t) es cualquier


solucion de esta ecuacion, entonces lmt x(t) = 0.
Ejercicio 5. Halla la solucion general de la ecuacion
x2 y 00 (x) + 3xy 0 (x) + y(x) = 0
x > 0.
(Indicacion: haced el cambio de variable x = et y obtened una ecuacion
diferencial en la variable t).
Ejercicio 6. Encuentra la solucion general de las ecuaciones diferenciales
siguientes, hallando una solucion particular de las mismas ensayando con
funciones adecuadas.
a) x00 9x = 3t,
b) x00 + 4x = sin (2t),
c) x00 4x = t exp (2t),
d) x000 + x0 = sin (2t),
e) x000 + 3x00 + 3x0 + x = t2 exp (t),
f) x00 3x0 + 2x = 2t exp (3t) + 3 sin t,
g) x00000 + 2x000 + x0 = 2t + sin t + cos t,
h) x00 + 4x0 + 4x = 3t exp (2t),
Ejercicio 7. Halla la solucion de los siguientes problemas de valores iniciales
(1) x00 5x0 + 6x = (12t 7)et x(0) = x0 (0) = 0
(2) x00 + 4x = 4(sin 2t + cos 2t) x() = x0 () = 2
(3) x000 x0 = 2t x(0) = 0, x0 (0) = 1, x00 (0) = 2
(4) x0000 x = 8et x(0) = 0, x0 (0) = 2, x00 (0) = 4, x000 (0) = 6.
Ejercicio 8. Halla la solucion general de las ecuaciones diferenciales ordinarias siguientes:
195

a) x00 4x0 + 3x = (1 + exp (t))1


b) x00 x = t exp t
c) x00 x = (1 + exp (t))2
d) x000 5x00 + 8x0 4x = 3 exp (2t)
e) x00 3x0 + 2x = 3 sin (2t)
f) x00 2x0 3x = t2 exp (2t)
g) x00000 x000 = 2t2
Bibliografa recomendada:
Marcellan. Ecuaciones Diferenciales, problemas lineales y aplicaciones. Ed.
Mc Graw-Hill, cap 4.
Krasnov, Kiseliov, Makarenko. Problemas de Ecuaciones Diferenciales Ordinarias. Ed. Mir, cap 14.
Edwards, Penney. Ecuaciones Diferenciales elementales. Prentice-Hall ,cap
2.
Pita, C., Ecuaciones diferenciales. Una introduccion con aplicaciones.
D.G.Zill. Ecuaciones Diferenciales con aplicaciones. Grupo Editorial Iberoamericana. Cap 4.

196

También podría gustarte