Está en la página 1de 196

Apuntes de la asignatura

ALGEBRA LINEAL
E.T.S.I.T.

17 de septiembre de 2010
Contenidos

1. Preliminares 3
1.1. N
umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. N
umeros combinatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2. Eliminaci on gaussiana. Matrices y determinantes 21


2.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3. Resolucion por eliminacion gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Interpretacion matricial de la eliminacion gaussiana . . . . . . . . . . . . . . . . . . 28
2.4.1. Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2. Sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.3. Sistema general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5. Matriz inversa. Metodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6. Resolucion por determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6.1. Desarrollo por los elementos de una lnea . . . . . . . . . . . . . . . . . . . 38
2.6.2. Matrices inversas y sistemas de Cramer . . . . . . . . . . . . . . . . . . . . 39

3. Espacios vectoriales y aplicaciones lineales 46


3.1. Ejemplo. Vectores en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1. Combinaciones lineales. Subespacios vectoriales . . . . . . . . . . . . . . . . 48
3.2.2. Dependencia e independencia lineal. Bases y dimension . . . . . . . . . . . 49
3.2.3. Coordenadas de un vector respecto a una base. Cambio de base . . . . . . . 52
3.3. Subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.1. Definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.1. Interseccion de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.2. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5.1. Definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.2. Matriz de una aplicacion lineal. Cambio de base . . . . . . . . . . . . . . . 64

4. Espacios eucldeos 75
4.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

1
4.3. Sistemas y bases ortogonales y ortonormales . . . . . . . . . . . . . . . . . . . . . . 79
4.4. Metodo de ortogonalizacion de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . 81
4.5. Subespacio ortogonal a uno dado y proyecci on ortogonal sobre un susbespacio . . . 83
4.6. Problemas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.6.1. Ejemplo 1. Sistemas sobredeterminados . . . . . . . . . . . . . . . . . . . . 87
4.6.2. Ejemplo 2. Aproximaci on trigonometrica . . . . . . . . . . . . . . . . . . . . 88
4.6.3. Ejemplo 3. Aproximaci on con polinomios . . . . . . . . . . . . . . . . . . . 91
4.7. Apendice. Formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.2. Formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.7.3. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango . . . . . . . . . . . . . . . . 102
4.7.5. Formas definidas y semidefinidas . . . . . . . . . . . . . . . . . . . . . . . . 103

5. Reducci on de matrices. Caso diagonalizable 106


5.1. Semejanza de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2. Autovalores y autovectores. Polinomio caracterstico . . . . . . . . . . . . . . . . . 108
5.3. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.4. Triangularizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.5. Diagonalizacion ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6. Reducci on de matrices. Caso no diagonalizable 127


6.1. Autoespacios generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.2. Teorema de descomposicion primaria . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3. Recurrencias vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.4. Ecuaciones en diferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.4.1. Ecuacion homogenea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.4.2. Ecuacion no homogenea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

7. Sistemas de EDOs lineales y de coeficientes constantes 150


7.1. Presentacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2. Sistemas lineales homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.3. Sistemas no homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

8. EDOs lineales de coeficientes constantes y orden superior 168


8.1. Teora basica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
8.2. Representacion de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.2.1. Ecuacion homogenea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.2.2. Ecuacion no homogenea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
8.3. Calculo efectivo de soluciones. Ecuacion homogenea . . . . . . . . . . . . . . . . . 173
8.4. Respuesta natural. Movimiento armonico simple y amortiguado . . . . . . . . . . . 177
8.5. Calculo efectivo de soluciones. Ecuacion no homogenea . . . . . . . . . . . . . . . . 180
8.5.1. Formula de variacion de las constantes . . . . . . . . . . . . . . . . . . . . . 180
8.5.2. Coeficientes indeterminados . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

2
Tema 1

Preliminares

Este captulo preliminar presenta una serie de herramientas que utilizaremos a lo largo del
curso. Es necesario que todo lo que aqu se explica sobre los n
umeros complejos, los polinomios
y los n
umeros combinatorios se asimile como algo que va a ser manejado a lo largo del curso.

1.1. N
umeros complejos
La resolucion de problemas cientficos ha estado siempre en los orgenes del desarrollo de las
Matematicas. En particular, la construccion de los diversos tipos de n umeros se ha llevado a
cabo a medida que surgan problemas que los n umeros ya establecidos no podan resolver. As,
a partir de los numeros naturales aparecieron los n umeros enteros como necesarios, por ejemplo,
para mediciones negativas (temperaturas, por ejemplo). El salto de los n umeros enteros a los
numeros racionales (cocientes de n umeros enteros) parece igualmente natural; la resolucion de
una ecuacion tan sencilla como 2x 3 = 0 los hace necesarios. A su vez, la b usqueda del valor x
del lado de un cuadrado de area dos (es decir, la solucion de la ecuacion x2 = 2) es un ejemplo
de una serie de problemas (especialmente geometricos) para los que los n umeros racionales no
proporcionan respuesta. Surgen entonces los n umeros irracionales y, como union de estos ultimos
con los racionales, los n
umeros reales.
La necesidad de los n umeros complejos tiene un origen similar, aunque su construccion
tardo en llevarse a cabo. La aparicion de races de ecuaciones, surgidas en problemas geometricos,
sin naturaleza real (por ejemplo, las races de x2 + 1 = 0) haca pensar que la creacion de n
umeros
no acababa con los reales.

Definici
on y propiedades
Denotamos por R al conjunto de los n umeros reales. La definicion de los n umeros complejos
puede hacerse de varias formas. Nosotros llamaremos n umero complejo z a un par ordenado de
n
umeros reales (a, b), a, b R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real del
complejo z y b = Im(z) como la parte imaginaria. Al conjunto de n umeros complejos se denota
por C.
Se dice que dos n umeros complejos z1 = (a1 , b1 ), z2 = (a2 , b2 ) son iguales z1 = z2 si y solo si
a1 = a2 y b1 = b2 .
Una vez definido un conjunto de n umeros, su utilizacion requiere la construccion de opera-

3
ciones entre ellos. En C se puede definir la suma y el producto:
z1 + z2 = (a1 + a2 , b1 + b2 )
z1 z2 = (a1 a2 b1 b2 , a1 b2 + a2 b1 ).
La definicion de estas operaciones no es arbitraria, pues estas tienen que cumplir una serie de
propiedades que de a la nueva construccion coherencia con las operaciones entre los tipos de
n
umeros anteriores. As, se cumplen las propiedades
(1) Para z1 , z2 n
umeros complejos cualesquiera, z1 + z2 = z2 + z1 , z1 z2 = z2 z1 .
(2) Para z1 , z2 , z3 n
umeros complejos cualesquiera, z1 +(z2 +z3 ) = (z1 +z2 )+z3 , z1 (z2 z3 ) =
(z1 z2 ) z3 .
(3) El elemento 0 = (0, 0) es neutro para la suma (z + 0 = z para cualquier complejo z) y el
elemento 1 = (1, 0) es neutro para el producto (z 1 = z para cualquier complejo z).
(4) Para z1 , z2 , z3 n
umeros complejos cualesquiera, z1 (z2 + z3 ) = z1 z2 + z1 z3 .
(5) Para z = (a, b) cualquier n umero complejo, el elemento z =(a, b) es su opuesto

a b
(z + (z) = (0, 0)) y si z = (a, b) 6= (0, 0), el elemento z 1 = , es su
a2 + b2 a2 + b2
inverso (z z 1 = (1, 0)).
Los numeros complejos son una extension de los reales. El n
umero complejo de la forma
(a, 0) se identifica con el n
umero real a. De este modo, por ejemplo, (0, 0) = 0 y (1, 0) = 1.
Esta identificacion es compatible con las operaciones, de modo que las operaciones definidas
anteriormente en C y restringida al conjunto de n umeros con parte imaginaria nula coinciden
con las operaciones usuales de suma y producto de n umeros reales. De este modo, R se puede
considerar como un subconjunto de C.

Representaci
on geom
etrica
Los numeros complejos se representan geometricamente como puntos del plano o como vec-
tores del plano con base en el origen. La parte real es la componente del vector en el eje horizontal
y la parte imaginaria la componente del vector en el eje vertical.

b z = (a, b)
6




-
a

Se llama unidad imaginaria al n umero complejo (0, 1), que se denota por i. De este modo,
i2 2 3
= 1, (i) = 1, i = i . . .. A veces se utiliza la letra j, sobre todo en el contexto de la
teora de circuitos, donde la letra i se reserva para denotar la intensidad.

4
Forma bin
omica de un n
umero complejo
Dado (a, b) C podemos escribir:

(a, b) = (a, 0) + (b, 0) (0, 1) = a + bi,

segun la identificacion ya introducida. Esta suele ser la notacion habitual y se denomina forma
binomial o bin omica del n umero complejo. Esta representaci on identifica con la misma claridad
las partes real e imaginaria de un n umero complejo. Ademas, permite reconocer las operaciones:
sumar dos complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos complejos
se realiza como si fuesen reales, teniendo en cuenta que i2 = 1. Los n umeros complejos (0, b) =
bi (b R) se denominan imaginarios puros.

Conjugado de un complejo
Dado un numero complejo z = a + bi, se llama conjugado de z al n umero complejo z = a bi.
Geometricamente no es sino la reflexion de z respecto del eje real.

z = a + bi






@
@
@
@
@
R z = a bi

Algunas propiedades del conjugado son las siguientes:

(1) z + z = 2Re(z).

(2) z z = 2iIm(z).

(3) z z = (Re(z))2 + (Im(z))2 .

(4) z R z = z.

(5) z1 + z2 = z1 + z2 , z1 z2 = z1 z2 .

(6) z = z.

(7) (z) =
z.

z )1 .
(8) Si z 6= 0, z 1 = (

Ejemplos. Expresamos en forma binomica

(2 i)(1 + 3i) 2 + 6i i + 3 5 + 5i
z = = =
1+i 1+i 1+i

5
(5 + 2i) (5 + 2i)(1 i) 5 5i + 2i + 2 7 3
z = = = = i.
(1 + i) (1 + i)(1 i) 1+1 2 2
1 + i3 1i 1 1 2i i
z = = = = = = .
(1 i)3 (1 i)3 (1 i)2 2i 4 2

M
odulo de un n
umero complejo
Para cada numero complejo z = a + bi se llama modulo de z al n umero real no negativo
definido por
q p
|z| = z z = (Re(z))2 + (Im(z))2 = a2 + b2 .

Por ejemplo, |2 2i| = 8, |1 + 3i| = 10. Geometricamente, |z| representa la distancia entre
el punto del plano z = (a, b) y el origen de coordenadas (0, 0), o sea, la longitud del vector del
plano asociado a z.

z = a + bi



|z|

Algunas propiedades del modulo son las siguientes:


(1) z z = |z|2 .
(2) |Re(z)| |z|, |Im(z)| |z|.
(3) |z| 0 z y |z| = 0 z = 0.
(4) |
z | = |z|.
(5) |z1 z2 | = |z1 ||z2 |, |z1 + z2 | |z1 | + |z2 |.
El modulo define una distancia entre n
umeros complejos. Si z1 , z2 C, entonces |z1 z2 | representa
la distancia entre los dos n
umeros.

Forma trigonom
etrica y polar de un n
umero complejo
Hay otras formas igualmente u tiles de representar n
umeros complejos, que utilizan ademas su
representacion geometrica. Para cada n umero complejo z = a + bi no nulo, se llama argumento
principal de z al u
nico numero real [0, 2) tal que
a Re(z)
cos() = =
2
a +b 2 |z|
b Im(z)
sin() = = .
2
a +b 2 |z|

6
Este n
umero se suele denotar por = Arg(z). Geometricamente, Arg(z) representa la medida en
radianes del angulo que forma el semieje real positivo con el vector plano definido por z (tomamos
como angulo positivo al dado por el sentido contrario a las agujas del reloj).

z = a + bi



|z|

Arg(z)

Se llaman argumentos de z a los angulos


Arg(z) + 2k, para k = . . . , 2, 1, 0, 1, 2, . . ..

Ejemplos

z = 1, Arg(z) = 0, argumentos 2k, k = . . . , 2, 1, 0, 1, 2, . . .


z = 2 + 2i, Arg(z) = /4, argumentos /4 + 2k, k Z
z = 2 + 2i, Arg(z) = 3/4, argumentos 3/4 + 2k, k Z.

Si z = a + bi es no nulo, llamando r = |z| y = Arg(z), fijemonos en que

z = a + bi = |z| cos + i|z| sin = r(cos + i sin ),

de manera que los numeros r = |z| (m odulo) y = Arg(z) (argumento principal) determinan
tambien al complejo z, al igual que su parte real y su parte imaginaria. Esto proporciona dos
nuevas representaciones de un numero complejo:

(a) z = r es la forma polar o modulo argumental de z.


(b) z = r(cos + i sin ) es la forma trigonometrica de z.

umeros complejos r , r0 0 son iguales si


Con estas representaciones, hay que observar que dos n
0 0
r = r y = 2k para algun entero k.
Ejemplos. Pasamos a forma trigonometrica

z = 1 = 1(cos(0) + i sin(0))

z = 2 + 2i = 2 2(cos(/4) + i sin(/4))

z = 1 + 3i = 2(cos(/3) + i sin(/3)).

Potencias, races y exponenciales de complejos


las nuevas representaciones de los n
umeros complejos permiten definir otras operaciones con
estos numeros.

7
Vamos primero a recuperar el producto de complejos definido al principio y a dar su inter-
pretacion. Dados dos complejos z1 y z2 cuyas formas trigonometricas son zk = rk (cos k +i sin k ),
k = 1, 2, tendremos

z1 z2 = r1 (cos 1 + i sin 1 ).r2 (cos 2 + i sin 2 )


= r1 r2 (cos 1 cos 2 sin 1 sin 2 + i(cos 1 sin 2 + sin 1 cos 2 ))
= r1 r2 (cos(1 + 2 ) + i sin(1 + 2 )).

Esto proporciona la interpretacion geometrica del producto, en el sentido siguiente: el producto


z1 z2 de dos complejos z1 y z2 es el numero complejo cuyo modulo es el producto de los modulos
de z1 y de z2 , mientras que uno de sus argumentos viene dado por la suma de argumentos de z1
y de z2 .
Analogamente, para cocientes podemos formular que el modulo del cociente z2 /z1 , supuesto
que z1 6= 0, es el cociente de los modulos de z2 y de z1 . La diferencia entre el argumento de z2
menos el de z1 es un argumento de dicho cociente.
De la formula anterior para el producto z1 z2 , si en particular el complejo es el mismo z =
z1 = z2 = r(cos + i sin ), entonces

z 2 = r2 (cos 2 + i sin 2),


z 3 = r3 (cos 3 + i sin 3),
.. .
. = ..

y en general, para un entero n cualquiera

z n = rn (cos(n) + i sin(n)).

En particular, se tiene la formula de DeMoivre:

(cos + i sin )n = (cos(n) + i sin(n)), n = 0, 1, 2, . . .

As, calcular la potencia de un numero complejo z es sencillo, una vez que se tiene su for-
ma trigonometrica: el complejo resultante se puede expresar en forma trigonometrica, donde su
modulo se obtiene elevando a la potencia el modulo de z y uno de sus argumentos se calcula
multiplicando por la potencia el argumento de z.
Pasamos al problema de calcular races de n
umeros complejos. Sea n 1 un entero. Recorde-
mos primero que todo real positivo r 0 posee exactamente una raz n-esima positiva, que vamos
1
a denotar por n r o bien r n .
Dado z 6= 0 de forma trigonometrica z = r(cos + i sin ), planteamos el problema de obtener
todos los complejos w tales que wn = z. (Se dira que w es una raz n-esima compleja de z). Si
el w buscado tiene forma trigonometrica w = (cos + i sin ), del calculo de potencia anterior
tenemos que

wn = n (cos(n) + i sin(n)).

Como wn debe coincidir con z, cuya forma trigonometrica es z = r(cos +i sin ), entonces n = r
y n = + 2k, con k entero. De este modo, esta determinado como

= n r,

8
mientras que para tenemos
2
k = +k ,
n n
con k entero. En principio, cualquier valor de k proporciona una raz de z. Sin embargo para los
valores k = 0, 1, ..., n 1, los complejos correspondientes

wk = k , 0 k n 1,

son las n races distintas, pues al llegar a k = n caemos de nuevo en w0 , con k = n + 1 en


w1 etc ... (igualmente con los valores negativos de k). Por tanto, un n umero complejo no nulo
tienexactamente n races n-esimas diferentes, que son las ya descritas wk , 0 k n 1. Hay que
notar que los numeros reales no poseen esta propiedad.

Ejemplo 1. Calculamos las races c ubicas de z = i. En primer lugar hallamos el modulo de z



y su argumento principal. Tenemos |z| = 1, Arg(z) = /2. Entonces, si w = 3 z se tiene que
w3 = z. De aqu obtenemos que |w|3 = |z| = 1 y 3Arg(w) = Arg(z) + 2k con k entero. Las tres

+ 2k
ubicas de z quedan determinadas por |w| = 1, Arg(w) = 2
races c , k = 0, 1, 2. Es decir,
3

k = 0, w0 = cos(/6) + i sin(/6) = ( 3 + i)/2

k = 1, w1 = cos(5/6) + i sin(5/6) = ( 3 + i)/2
k = 2, w2 = cos(3/2) + i sin(3/2) = i.

Ejemplo 2. Calculamos las races sextas de z = 8. Primero hallamos el modulo de z y su



argumento principal. Tenemos |z| = 8, Arg(z) = . Entonces, si w = 6 z se tiene que w6 = z. De
aqu obtenemos que |w|6 = |z| = 8 y 6Arg(w) = Arg(z) + 2k con k entero. Las seis races sextas
+ 2k
de z quedan determinadas por |w| = 6 8 = 2, Arg(w) = , k = 0, 1, 2, 3, 4, 5. Es decir,
6

k = 0, w0 = 2(cos(/6) + i sin(/6)) = 2( 3 + i)/2

k = 1, w1 = 2(cos(/2) + i sin(/2)) = 2i

k = 2, w2 = 2(cos(5/6) + i sin(5/6)) = 2( 3 + i)/2

k = 3, w3 = 2(cos(7/6) + i sin(7/6)) = 2( 3 + i)/2

k = 4, w4 = 2(cos(3/2) + i sin(3/2)) = i 2

k = 5, w5 = 2(cos(11/6) + i sin(11/6)) = 2( 3 i)/2.

La u
ltima operacion que vamos a definir es la exponencial compleja. Dado un n
umero complejo
z = a + bi, con a, b reales, definiremos la exponencial ez como el n
umero complejo

ez = ea (cos b + i sin b),

esto es,
|ez | = ea > 0, b argumento de (ez ).
Algunas propiedades de la exponencial compleja son las siguientes:

9
(a) ez1 +z2 = ez1 .ez2 (z1 , z2 C),
(b) (ez )1 = ez (z C).
(c) ei = cos + i sin , R, es el complejo de modulo unidad y argumento .
(d) Todo numero complejo z 6= 0 con r = |z|, = Arg(z) puede expresarse en la forma
z = rei .
La u
ltima propiedad proporciona una nueva representaci on de un n umero complejo, la forma
exponencial. Procede de reescribir la forma trigonometrica utilizando la definicion de exponencial
compleja:
z = r(cos + i sin ) = rei .

Ejemplos.

1+i 3 i
z = = cos(/3) + i sin(/3) = e 3
2
z = 2ei = 2(cos() + i sin()) = 2.
Por su parte, la propiedad (c) da lugar a dos formulas muy u tiles que es conveniente recordar.
Si es un angulo cualquiera, la definicion de exponencial dice que
ei = cos + i sin ,
e, igualmente
ei = cos () + i sin () = cos i sin ,
es decir, que los dos complejos ei y ei son conjugados. Si ahora sumamos ambas igualdades,
tenemos
ei + ei
ei + ei = 2 cos cos = . (1.1)
2
Si en lugar de sumar, restamos, tendremos
ei ei
ei ei = 2i sin sin = . (1.2)
2i
Las formulas (1.1) y (1.2) permiten reescribir, respectivamente, el coseno y el seno de un angulo
en terminos de exponenciales complejas (veanse, por ejemplo, los ejercicios 10 y 11).

1.2. Polinomios
Dados un n umero natural n y los n + 1 n
umeros reales o complejos a0 , a1 , . . . , an , los llamados
coeficientes, se define el polinomio p en la variable x como la funcion que hace corresponder al
valor que tome x el valor
p(x) = a0 + a1 x + a2 x2 + + an xn .
Se dice que el grado del polinomio p es n cuando an 6= 0.
Dos polinomios p(x) = a0 + a1 x + a2 x2 + + an xn , q(x) = b0 + b1 x + b2 x2 + + bm xm son
iguales p = q si tienen el mismo grado n = m y son identicos los coeficientes de potencias iguales
de la indeterminada: aj = bj , j = 1, . . . , n.

10
Operaciones con polinomios
Dados dos polinomios

p(x) = a0 + a1 x + a2 x2 + + an xn , q(x) = b0 + b1 x + b2 x2 + + bm xm ,

con n > m, se llama polinomio suma a

p(x) + q(x) = c0 + c1 x + c2 x2 + + cn xn ,

cuyos coeficientes se obtienen sumando los coeficientes respectivos de iguales potencias de la


indeterminada en las expresiones de p y q, es decir

ci = ai + bi , i = 0, 1, . . . , n,

donde, para n > m se tiene que suponer que los coeficientes bm+1 , . . . , bn son iguales a cero.

(1 + 2x) + (3 + x + x2 + x3 ) = 4 + 3x + x2 + x3 .

El grado de la suma sera igual a n si n > m. Para n = m, puede ocurrir que el grado de la suma
sea menor que n, precisamente si bn = an .
Se llama producto de los polinomios p(x), q(x) al polinomio

p(x)q(x) = d0 + d1 x + d2 x2 + + dn+m xn+m ,

cuyos coeficientes se determinan por


X
di = aj bk , i = 0, 1, . . . , n + m,
j+k=i

es decir, el coeficiente di es el resultado de sumar todos los productos de aquellos coeficientes de


los polinomios p y q, la suma de cuyos ndices es igual a i.

(1 + 2x)(3 + x + x2 + x3 ) =?.

El grado del producto de dos polinomios es igual a la suma de sus grados.


La suma verifica las propiedades conmutativa, asociativa, elemento neutro (0(x) = 0) y ele-
mento opuesto.
El producto verifica las propiedades conmutativa, asociativa, distributiva respecto de la suma
y elemento unidad (p(x) = 1).
Para el producto de polinomios no existe la operacion inversa, la division. Es decir, el cociente
de dos polinomios no siempre es un polinomio. Cuando el cociente p(x)/q(x) del polinomio p y
el polinomio q es otro polinomio, se dice que q divide a p o que p es un m
ultiplo de q. La division
por el polinomio nulo no esta permitida.
En general, la division de un polinomio p dividendo por un polinomio q divisor origina un
polinomio cociente c(x) y polinomio resto r(x), de modo que

p(x) = c(x)q(x) + r(x),

donde el grado de r es menor que el de q o bien r es nulo. As, p/q sera un polinomio cuando
r = 0. Por ejemplo,

1 + x 2x2 + x3 = (x + 1)(x2 3x + 2) + (2x 3).

11
Races de polinomios. Algoritmo de Horner

El teorema fundamental del Algebra afirma que todo polinomio p de grado n tiene al menos
un cero, esto es, la ecuacion p(x) = 0 admite al menos una solucion, real o compleja. Utilizando
la division de polinomios, se tiene el siguiente resultado:

Teorema 1. Sea p(x) un polinomio y C. Entonces, es un cero de p (p() = 0) si y solo si


p(x) es divisible por x , es decir, existe un polinomio q tal que p(x) = q(x)(x ).

Puede ser interesante hacer varios comentarios con respecto al calculo de races de un poli-
nomio:
(i) El resultado anterior (Teorema 1) afirma que si 1 es raz de un polinomio p(x), este se
puede factorizar en la forma
p(x) = q1 (x)(x 1 ),
donde (x 1 ) es naturalmente un polinomio de grado uno y q1 (x) es un polinomio con
grado uno menos que el de p(x) y que procede de la division de p(x) entre x 1 . De este
modo, si se conociese una raz de q1 (x), podra aplicarse el mismo procedimiento a q1 (x) y
escribir
p(x) = q1 (x)(x 1 ) = q2 (x)(x 2 )(x 1 ),
con q2 (x) de grado dos unidades inferior al de p(x). El conocimiento de todas las races
de p(x) permite entonces, a traves de este procedimiento, llegar a una descomposicion en
factores lineales de p(x):
p(x) = a0 + a1 x + + an xn = an (x 1 ) (x n ),
con 1 , . . . , an los n ceros, repetidos o no, del polinomio p(x). Por ejemplo, el polinomio
p(x) = 2 + 5x 4x2 + x3 tiene por races 1 = 1, 2 = 1, 3 = 2, de modo que puede
escribirse
p(x) = (x 1)2 (x 2).

(ii) Cuando los coeficientes de p(x) son n


umeros reales y p(x) posee una raz compleja = a+bi,
entonces su conjugado = a bi es tambien una raz de p(x) (por que?). En este caso,
los dos factores lineales de la descomposicion de p(x), (x (a + bi))(x (a bi)) pueden
agruparse en un factor cuadratico x2 + cx + d con c y d ciertos n
umeros reales. Por ejemplo,
el polinomio p(x) = x3 x2 + x 1 tiene por races 1 = 1, 2 = i, 3 = i y puede
factorizarse de dos formas:
p(x) = (x 1)(x i)(x + i) = (x 1)(x2 + 1).

(iii) Si 1 , . . . k son los ceros distintos de un polinomio p(x) de cierto grado n, con multiplici-
dades m1 , . . . , mk respectivamente, entonces p(x) puede factorizarse en la forma
p(x) = a0 + a1 x + + an xn = an (x 1 )m1 (x k )mk .
Por ejemplo, el polinomio anterior p(x) = 2 + 5x 4x2 + x3 tena por races distintas
1 = 1, 2 = 2. La multiplicidad de la primera es m1 = 2 y de la segunda m2 = 1; como
hemos visto, puede escribirse p(x) = (x 1)2 (x 2).

12
(iv) Si es una raz de p(x) con multiplicidad dos, entonces es tambien raz de su derivada
p0 (x). En efecto, si es raz de p(x), puede escribirse

p(x) = q(x)(x ),

con q(x) un polinomio de un grado inferior al de p(x). Hay que observar que puesto que
tiene multiplicidad dos como raz de p(x), tambien es raz de q(x), es decir, q() = 0.
Derivando la expresion anterior, se tiene

p0 (x) = q 0 (x)(x ) + q(x).

Entonces p0 () = q() = 0 y, por tanto, es raz de la derivada p0 (x).


Este resultado puede generalizarse en el siguiente sentido: si es un cero de p(x) de multi-
plicidad m > 1, entonces es cero de las sucesivas derivadas de p(x) hasta el orden m 1.
Por ejemplo, = 1 es raz de p(x) = x3 3x2 + 3x 1, con multiplicidad m = 3, luego
tambien es raz de su derivada p0 (x) = 3x2 6x+3 y de su derivada segunda p00 (x) = 6x6.

Algoritmo de Horner. Evaluaci


on de un polinomio
En muchas ocasiones es necesario evaluar un polinomio en un valor determinado de la variable
x. El llamado metodo de Horner o regla de Ruffini proporciona una tecnica para ello. Consiste en
escribir el polinomio como un conjunto de multiplicaciones encajadas. Por ejemplo, para evaluar
un polinomio
p(x) = a0 + a1 x + a2 x2 + a3 x3
en x = c, puede escribirse
p(c) = a0 + c(a1 + c(a2 + ca3 ))
y, a continuacion ir evaluando los parentesis a partir del mas interno. Este procedimiento parece
mas apropiado que el elemental de multiplicar las sucesivas potencias de c y sumar las correspon-
dientes combinaciones de los coeficientes del polinomio.
Una de las ventajas del metodo de Horner es que tiene una estructura de algoritmo, de
modo que uno puede automatizarlo. Vamos a describir el procedimiento general. Consideremos
un polinomio cualquiera
p(x) = a0 + a1 x + + an xn ,
que deseamos evaluar en x = c. Escribimos

p(c) = a0 + c(a1 + c(a2 + + c(an1 + can ) )).

Entonces, definimos bn = an y a continuaci


on

bn1 = an1 + cbn (primer parentesis),


bn2 = an2 + cbn1 (segundo parentesis),
.. .
. = ..
bk = ak + bk+1 , (1.3)
.. .
. = ..
b1 = a1 + cb2 ,
b0 = a0 + cb1 = p(c).

13
La formula (1.3) corresponde a un paso general del algoritmo: para calcular el siguiente valor bk
(es decir el correpondiente parentesis) se suma al coeficiente ak la constante c por el u
ltimo valor
de las b calculado, bk+1 (es decir, el u
ltimo parentesis calculado). Esto puede representarse en la
siguiente tabla:

an an1 an2 ak a1 a0
c cbn cbn1 cbk+1 cb2 cb1
bn bn1 bn2 bk b1 b0 = p(c)

o bien en el algoritmo que puede facilmente representarse en el ordenador:


b(n) = a(n)
Para k = n 1 : 1 : 0
b(k) = a(k) + c b(k + 1)
La tabla anterior no solo proporciona el valor del polinomio p(x) en x = c; con ella tambien
se obtienen los coeficientes de la division de p(x) por x c. Esto es as por la siguiente razon: si
consideramos el polinomio

q(x) = b1 + b2 x + + bn1 xn2 + bn xn1 ,

con los coeficientes obtenidos de la tabla, entonces

(x c)q(x) + b0 = bn xn + (bn1 cbn )xn1 + + (b2 cb3 )x2 + (b1 cb2 )x + b0 cb1
= an xn + an1 xn1 + + a2 x2 + a1 x + a0 = p(x),

donde hemos utilizado la formula (1.3) en cada uno de los parentesis. De esta manera, los n umeros
b1 , . . . , bn son los coeficientes del polinomio cociente de p(x) entre x c, con b0 = p(c) el resto de
la division.

Ejemplo. Division de p(x) = 5x4 + 10x3 + x 1 por x + 2. Aqu se tiene = 2:

5 10 0 1 -1
-10 0 0 -2
-2 5 0 0 1 -3
El cociente de la division de p(x) por x + 2 es 5x3 + 1 y el resto 3, precisamente el valor de
p(2). Se tiene p(x) = (5x3 + 1)(x + 2) 3.

1.3. N
umeros combinatorios
Finalmente, en alg
un momento necesitaremos mencionar algunas ideas de combinatoria. Recorde-
mos primero que se define el factorial del n
umero natural n como el producto de los n
umeros
naturales de 1 hasta n:

n! = 1 2 3 n.

Por convenio 0! = 1. Hay que observar que el factorial de n es el n


umero de ordenaciones posibles
de n elementos.

14
Permutaciones
Se llaman permutaciones a las agrupaciones de un determinado n umero de elementos, orde-
nados de tal forma que cada grupo se diferencia de los demas por el orden de colocacion de dichos
elementos.
Una forma de representar las permutaciones es la siguiente: dados un n umero n 1 de elemen-
tos, denotados por a1 , . . . an , una permutacion es una reordenacion de los elementos a(1) , a(2)
, . . . , a(n) , de manera que el primer elemento pasa a estar en la posicion (1), el segundo en la
posicion (2), etc. As, una permutaci on puede identificarse con una aplicacion

: {1, 2, . . . , n} {1, 2, . . . , n}, j 7 (j),

que tambien se suele denotar por



1 2 3 n
: .
(1) (2) (3) (n)
Por ejemplo,

1 2 3
:
3 2 1
es una permutacion de tres elementos.
El numero de permutaciones de orden n es n!. El conjunto de tales permutaciones se denota por
Sn .
Sea Sn . Tomemos dos ndices k y l con 1 k < l n. Se dira que forman una inversi on
para si (k) > (l). Por ejemplo, en la permutaci on de orden tres anterior, 1 y 2 forman una
inversion para , al igual que 1 y 3 o 2 y 3.
Sea inv() el numero total de inversiones de . La paridad de la permutacion se define como

() = (1)inv() ,

que solo puede tomar los valores 1 o 1. En nuestro ejemplo anterior, () = 1.

N
umeros combinatorios
Sean n, k 0 enteros con n k. Se llaman combinaciones de n elementos tomados de k
en k a las agrupaciones que pueden formarse con n elementos tomados de k en k, de manera
que cada grupo se distingue de los demas por lo menos en uno de los elementos que lo forman,
independientemente del orden de su colocacion.
Por ejemplo, con n = 4 elementos, podemos formar las combinaciones

k=1 a, b, c, d 4
k=2 ab, ac, ad 6
bc, bd
cd
k=3 abc, abd, acd 4
bcd
k=4 abcd 1

15
El n
umero de combinaciones distintas de n elementos tomados de k en k se llama n
umero com-
binatorio n sobre k y se define como

n n!
= ,
k k!(n k)!

n
donde si k = 0 recordemos que = 1. As, del ejemplo anterior
0

4 4 4 4 4
= 1, = 4, = 6, = 4, = 1.
0 1 2 3 4

Algunas propiedades de los n


umeros combinatorios son

n n
= 1, = 1.
0 n

n
= n.
1

n n
= .
nk k

n+1 n n
= + .
k k k1
La ultima propiedad permite obtener los n
umeros combinatorios de forma recursiva, dando origen
al llamado triangulo de Pascal o de Tartaglia:

n
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1

El triangulo puede explicarse del siguiente modo: dado un numero n de la columna de la izquierda,
los elementos de la correspondiente fila del triangulo son los n
umeros combinatorios

n n n
, ,..., .
0 1 n

As, por ejemplo, para n = 3, la fila correspondiente esta formada por



3 3 3 3
= 1, = 3, = 3, = 1.
0 1 2 3

El primer y el u
ltimo elemento de cada fila valen siempre uno, dado que

n n
= = 1.
0 n

16
Por otra parte, la ultima propiedad de los n
umeros combinatorios es la que va generando las filas
del triangulo. Un elemento interior cualquiera del mismo se obtiene subiendo a la fila anterior y
sumando los elementos mas proximos a izquierda y derecha
Los numeros combinatorios aparecen tambien como coeficientes del llamado binomio de New-
ton: si a, b son dos numeros reales o complejos y n 0 es un entero, entonces

n n n n n1 n n2 2 n
(a + b) = a + a b+ a b + + bn
0 1 2 n
n
X n
= ank bk .
k
k=0

As, por ejemplo, usando el triangulo de Tartaglia,



2 2 2 2
(a + b)2 = a2 + ab + b = a2 + 2ab + b2 .
0 1 2

3 3 3 3 3
(a + b)3 = 3
a + 2
a b+ 2
ab + b
0 1 2 3
= a3 + 3a2 b + 3ab2 + b3 .
(a + b)4 =

Hay que recordar que los coeficientes del desarrollo de una potencia n de un binomio a + b no
son otra cosa que los n
umeros combinatorios

n n n
, ,..., .
0 1 n
Una de las aplicaciones del binomio de Newton que mas se suele utilizar se refiere al desarrollo
de polinomios en potencia de x, vease el ejercicio 14.

EJERCICIOS

Ejercicio 1. Expresa en forma binomica los siguientes n


umeros complejos:
(3 + i)(1 2i) 1 + i3 1+i
z= , w= , z= .
2+i (1 i)3 (3 i)2

Ejercicio 2. Representa en el plano XY los siguientes n


umeros complejos:

3 + 2i, 1 + 3,5i, 4 2i, 5 4i, 1 + i, 1 i, 1 + i, 1 i,


3 + 2i 4i 2 5i 1 i/2
, , , 3i, 3i, 4ei/4 , 2e3i/2 , e , ei7/4 .
1i 3+i 7+i 4

Ejercicio 3. Determina los valores reales de x y y que satisfacen


a) x + iy = |x + iy|, b) x + iy = (x + iy)2 .

Ejercicio 4. Describe geometricamente el conjunto de n


umeros complejos que satisfacen las
relaciones siguientes:

17
a) |z| = 1, b) |z| 1, c) |z| > 1, d) z + z = |z|,
e) z + z = 1, f) z z = 1, g) z + z = i.

Ejercicio 5. Que lugares geometricos del plano estan representados por las siguientes ecuaciones
y desigualdades?
a) |z 1| = 1, b) Re(z 2 ) = 1, c) 0 arg(1/z) /2.

Ejercicio 6. (i) Representa en forma polar y en forma trigonometrica los siguientes n


umeros
complejos
a) z = 2 + 2i, b) z = i, c) z = 1,
d) z = 2 + 3i, e) z = 1 + i, f) z = 4 2i.
(ii) Representa en forma binomica los siguientes n
umeros complejos
a) z = 3e2i , b) z = e(/2)i , c) z = 4e(3/4)i ,
d) z = 12 e(/6)i , e) z = 2e(/7)i .

Ejercicio 7. a) Escribe en terminos de exponenciales complejas las siguientes expresiones:


1 3 1 1
cos + sin , cos 2 sin 2, cos sin 3.
2 5 3 4
b) Escribe en terminos de senos y cosenos las siguientes expresiones:
3 1
4 + ei e2i , ei + e3+i + 2e2i , e3i + e3i , e3i e3i .
2 4

Ejercicio 8. Calcula todos los valores de las siguientes races de n


umeros complejos:

8
3

5
3

a) 1, b) 2 + 2i, c) 4 + 3i, d) i, e) 1 i.

Ejercicio 9. Si y son dos angulos cualesquiera, comprueba las formulas trigonometricas

cos( + ) = cos() cos() sin() sin().


cos( ) = cos() cos() + sin() sin().
sin( + ) = sin() cos() + sin() cos().
sin( ) = sin() cos() sin() cos().

Ejercicio 10. Expresa en funcion de cos() y sin():


a) cos(5), b) cos(8), c) cos(6), d) sin(7).

Ejercicio 11. Representa en forma de polinomio de primer grado en las funciones trigonometricas
de los angulos m
ultiplos de :
a) sin3 , b) cos5 , c) sin2 , d) cos2 .

Ejercicio 12. (Obtenido del libro: Curso practico de Algebra, de J. Gardo y A. Miquel, inten-
dentes mercantiles y censores jurados de cuentas, ed. Cultura, Barcelona, 1950). 10 estudiantes
propusieron a su patrona gratificarla esplendidamente el da en que les viera sentados a la mesa

18
en el mismo orden. Haciendo tres comidas diarias, cuantos das tenan que transcurrir antes de
verse obligados a repetir una de las colocaciones precedentes?

Ejercicio 13. (Del mismo libro que el ejercicio anterior). En un cuartel hay 20 guardias los cuales
tienen un servicio por parejas, variando la composicion de las parejas diariamente. Empezaron
el servicio en determinada fecha y los relevaron cuando se vean obligados a repetir las parejas.
?Cuantos das duro dicho servicio extraordinario?

Ejercicio 14. Utilizando el binomio de Newton, desarrolla en potencias de x los polinomios: (a)
(x 1)3 . (b) (x + 2)4 . (c) (x + 1)5 .

ALGUNOS EJERCICIOS RESUELTOS

Ejercicio 3.
(a) x 0, y = 0.
(b) x = y = 0 o bien x = 1, y = 0.

Ejercicio 4.
(a) Circunferencia centrada en el origen de radio uno.
(b) Crculo centrado en el origen de radio uno sin incluir la circunferencia.

Ejercicio 5.
(a) Circunferencia centrada en (1, 0) de radio uno.
(b) Hiperbola y 2 x2 = 1.
(c) Cuadrante inferior derecho del plano.

Ejercicio 7.
a)

ei + ei ei ei (1 i)ei + (1 + i)ei
cos + sin = + = .
2 2i 2
1 3 5 + 6i 2i 5 6i 2i
cos 2 sin 2 = ( )e + ( )e .
2 5 20 20
1 1 1 i 1
cos sin 3 = (e + ei ) (e3 e3 ).
3 4 6 8i
b)
3 1 3 1
4 + ei e2i = 4 + (cos + i sin ) (cos 2 + i sin 2),
2 4 2 4
i 3+i 2i 3
e +e + 2e = cos i sin + e (cos + i sin ) + 2(cos 2 + i sin 2),
e3i + e3i = 2 cos 3,
e3i e3i = 2i sin 3.

Ejercicio 8.
ki
a) Las races son zk = e 4 , k = 0, 1, 2, 3, 4, 5, 6, 7.

19
b) Las races son

6
z0 = 8(cos(/4) + i sin(/4)),

6
z1 = 8(cos(11/12) + i sin(11/12)),

6
z2 = 8(cos(19/12) + i sin(19/12)).
arctg(3/4)+2k
c) Las races son zk = 5
5ei 5 , k = 0, 1, 2, 3, 4.

Ejercicio 10.
a) cos(5) = cos5 () 10 cos3 () sin2 () + 5 cos() sin4 ().
d) sin(7) = 7 cos6 sin 35 cos4 sin3 + 21 cos2 sin5 sin7 .

Ejercicio 11.
a) sin3 = (1/4) sin(3) + (3/4) sin .
b) cos5 = (1/16) cos(5) + (5/16) cos(3) + (5/8) cos .

20
Tema 2

Eliminaci
on gaussiana. Matrices y
determinantes

2.1. Ejemplo introductorio.


Hay varios tipos de problemas que se basan en una red de conductores por la que fluye alguna
clase de fluido, como redes de riego, de calles o de trafico. A menudo hay puntos en el sistema
por los que el fluido entra en la red o sale de ella. El principio basico de tales sistemas es que el
fluido que entra a cada nudo del sistema debe ser igual al que sale.
Supongamos que en el diagrama que aqu aparece se describe una red de canales de riego.
Cuando la demanda es maxima, los flujos en las intersecciones A,B,C,D aparecen indicados en la
figura. Buscamos resolver los dos problemas siguientes:
(a) Determinar los posibles flujos en cada canal de la red.
(b) Si se cierra el canal BC, que cantidad de flujo debe mantenerse para que ning un canal lleve
un flujo superior a 30 litros?

55 A x1 B 20
- - -




/


?x4 x2 x3

?


D x5 C
-

?20 ?15

Partiendo entonces del principio de que en cada nudo de la red la cantidad de lquido que

21
entra debe ser igual a la cantidad que sale, tenemos las siguientes relaciones

Nudo A: x1 + x4 = 55,

Nudo B: x1 = x2 + x3 + 20,

Nudo C: x3 + x5 = 15,

Nudo D: x2 + x4 = x5 + 20.

Nos queda entonces el sistema

x1 + x4 = 55
x1 x2 x3 = 20
x3 + x5 = 15
x2 + x4 x5 = 20.

Con las tecnicas que presentamos en este tema, comprobaremos mas adelante que el sistema tiene
infinitas soluciones, dependientes del valor del flujo en dos canales, pongamos x4 y x5 , en la forma

x1 = 55 x4 , x3 = 15 x5 , x2 = 20 x4 + x5 .

De manera que para que la red funcione, el flujo entre AD y entre DC puede ser arbitrario, pero
los restantes denen estar sujetos a las relaciones antes obtenidas.
Fijemonos, por otro lado, en que si se cierra el canal BC, entonces x3 = 0, de manera que de
las ecuaciones de arriba, ha de ser x5 = 15 y x1 = 55 x4 , x2 = 35 x4 . para que ning
un canal
lleve un flujo superior a 30, ha de ser (razona por que)

25 x4 30, x1 = 55 x4 , x2 = 35 x4

El problema a resolver en este tema sera encontrar y analizar un metodo practico de discusion
y en su caso resolucion de un sistema lineal de m ecuaciones y n incognitas, que es un conjunto
de expresiones de la forma (recuerda el sistema del ejemplo)

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
(2.1)
am1 x1 + am2 x2 + + amn xn = bm ,

para m, n > 1. Aqu los datos conocidos son los n umeros aij , 1 i m, 1 j n o coeficientes
del sistema y los n umeros bi , 1 i m o terminos independientes. El problema consiste en
determinar si hay valores para las incognitas x1 , . . . , xn que satisfagan las m ecuaciones de (2.1)
y, en su caso, obtenerlos. Tales valores constituyen las soluciones del sistema.
El sistema (2.1) se dice que es compatible si tiene alguna solucion. Cuando no tiene soluciones,
se dice que es incompatible. Por otro lado, un sistema compatible o tiene una u nica solucion, en
cuyo caso el sistema se llama determinado, o tiene infinitas, en cuyo caso el sistema se dice que
es indeterminado.

22
2.2. Algebra de matrices
Necesitamos primero introducir una notacion matricial que nos sera u til tanto en este como
en temas posteriores. Los coeficientes del sistema (2.1) se suelen disponer en lo que se llama una
matriz rectangular de m filas y n columnas

a11 a12 a1n
a21 a22 a2n
A=

= (aij ) (2.2)

am1 am2 amn

de forma que el valor de aij se sit


ua en la intersecci
on de la fila iesima con la columna jesima.
El conjunto de todas las matrices m n se denota por Mm,n (R) o Mm,n (C), dependiendo de si
sus elementos son numeros reales o complejos. En el caso de que el n umero de filas y de columnas
coincidan (m = n) se dice que la matriz es cuadrada. Casos particulares de matrices son las
matrices fila (m = 1), las matrices columna (n = 1), la matriz identidad In = In,n , etc.

Operaciones con matrices


Para un uso posterior necesitamos dotar de una cierta estructura a este conjunto de matrices
Mm,n (K) donde K = R o C, es decir, describir maneras de operar sobre ellas.
Las matrices del mismo orden se suman elemento a elemento, produciendo otra matriz del
orden en cuestion:

a11 a12 a1n b11 b12 b1n
a21 a22 a2n b21 b22 b2n
+

am1 am2 amn bm1 bm2 bmn

a11 + b11 a12 + b12 a1n + b1n
a21 + b21 a22 + b22 a2n + b2n
=
.


am1 + bm1 am2 + bm2 amn + bmn

Naturalmente, para poder sumar, las matrices han de tener el mismo tama no m n. Las
propiedades de esta operacion son:
(a) Asociativa: A, B, C Mm,n (K) (A + B) + C = A + (B + C).
(b) Conmutativa: A + B = B + A.
(c) Elemento neutro: la matriz del orden correspondiente cuyos elementos son todos nulos.
(d) Elemento opuesto: cada matriz posee su opuesta, que es la matriz obtenida al tomar opuestos
en todos los elementos.

Tambien se puede multiplicar una matriz A Mm,n (K) por un n


umero real o complejo K,
sin mas que multiplicar por cada elemento de A:

a11 a12 a1n a11 a12 a1n
a21 a22 a2n a21 a22 a2n
A =

= .

am1 am2 amn am1 am2 amn

Las propiedades de esta operacion son las siguientes:

23
(a) Distributiva: ( + )A = A + A, , K, A Mm,n (K).
(b) Distributiva: (A + B) = A + B
(c) Asociativa: ()A = (A).
(d) Si A es la matriz nula, entonces o bien = 0 o bien A es la matriz nula.

Finalmente hay otras dos operaciones sobre matrices que utilizaremos a lo largo del curso.
En primer lugar, esta la trasposicion de matrices. La matriz traspuesta de una dada A = (aij )
Mm,n (K) es la matriz que se obtiene intercambiando filas por columnas. Se denota por AT
Mn,m (K) y su elemento (i, j) es aji . Por ejemplo:

1 2
T 1 3 5
A= 3 4 A = .
2 4 6
5 6

Naturalmente, se tiene que (AT )T = A y (A + B)T = AT + B T .


La otra operacion es la multiplicaci on de matrices. Entendamos primero como se emparejan
una matriz fila X = (x1 , x2 , . . . , xn ) con una matriz columna Y = (y1 , y2 , . . . , yn )T , ambas con el
mismo numero de elementos. El producto es un n umero, dado por

XY = x1 y1 + x2 y2 + + xn yn .

Desde este punto de vista, no pueden multiplicarse matrices de cualquier tama no. Para que un
producto AB tenga sentido, el n umero de columnas de A ha de ser igual al n umero de filas
de B. En ese caso, la matriz producto C = AB tiene tantas filas como A y tantas columnas
como B. La expresion generica de la matriz producto es la siguiente: si A = (aij ) Mm,n (K) y
B = (bjk ) Mn,p (K) entonces C = AB = (cik ) Mm,p (K) donde
n
X
cik = ai1 b1k + ai2 b2k + + ain bnk = aij bjk .
j=1

Es decir, cik es el producto de la fila iesima de A por la columna kesima de B. Algunos


ejemplos pueden aclarar esta idea:

Ejemplos.

1
1
(1 4 0 2)
2 = 3
3

4 1 1
3 2 2 1 16 5 4
2 4 0
1 1 0 2 1
= 6 9 3 .
1 0
2 0 3 4 19 13 6
2 2 1

Propiedades destacables del producto son las siguientes:


(a) Asociativa: A(BC) = (AB)C.
(b) Distributiva respecto de la suma: A(B + C) = AB + AC.
(c) Matrices cuadradas y elemento unidad; inversas: las matrices cuadradas (n = m) de un orden
determinado tienen un elemento unidad para el producto, que es la matriz identidad de tal orden.

24
Sin embargo, hay matrices cuadradas que son diferentes de la matriz no nula y carecen de inversa
para el producto. La nocion de matriz inversa sera tratada mas adelante.
(d) El producto de matrices no es conmutativo: en general AB 6= BA.
(e) Trasposicion y producto: (AB)T = B T AT .
Finalmente, notemos que el sistema (2.1) puede escribirse en formulaci on matricial como

A~x = ~b, (2.3)

donde ~x = (x1 , x2 , . . . , xn )T y ~b = (b1 , b2 , . . . , bn )T .

2.3. Resoluci
on por eliminaci
on gaussiana
Vamos a presentar el metodo de eliminacion gaussiana a traves de varios ejemplos y despues
justificaremos los pasos mas formalmente.
Ejemplo 1. Discute y en su caso resuelve el sistema

x + 2y + z = 1
2x + y + 3z = 0 (2.4)
4x y 3z = 3

El metodo consiste en pasar de este sistema a otro equivalente mas sencillo a traves de un proceso
de eliminacion de incognitas. Buscamos primero eliminar la incognita x de las ecuaciones segunda
y tercera. Para ello, restamos a la segunda ecuacion dos veces la primera y a la tercera cuatro
veces la primera. Obtenemos

x + 2y + z = 1
3y + z = 2
9y 7z = 1.

Ahora, eliminamos la incognita y de la tercera ecuacion, restando a esta tres veces la segunda.
El resultado es

x + 2y + z = 1
3y + z = 2 (2.5)
10z = 5.

Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera
variable (x) solo aparece en la primera ecuacion, la segunda (y) solo en las dos primeras ecuaciones
y la ultima variable (z) en todas las ecuaciones. Parece claro que los sistemas (2.4) y (2.5) son
equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen soluciones, son las
mismas. Esto se debe a que el sistema (2.5) se obtiene de (2.4) simplemente operando con sus
ecuaciones.
Ahora bien, el sistema (2.5) puede discutirse sin aparente problema, y resolverse despejando las
incognitas desde la ultima ecuacion hasta la primera. Este proceso se llama sustitucion regresiva.
As, la u
ltima ecuacion dice que

z = 5/10 = 1/2.

25
Llevando este valor a la segunda ecuacion, obtenemos
2 z
y= = 1/2,
3
y sustituyendo en la primera ecuacion, se tiene
x = 1 2y z = 1/2.
Esto significa que el sistema (2.4) es compatible (tiene solucion) y determinado (la solucion es
u
nica). La solucion es x = 1/2, y = 1/2, z = 1/2.

Notas
(1) Es importante indicar que cuando se elimina una variable, se comparan las ecuaciones con
una que queda fija mientras se este eliminando esa variable. Cuando se cambia de incognita
a eliminar, tambien cambiamos de ecuacion con la que comparar. As, en el ejemplo anterior,
eliminar x implica cambiar las ecuaciones segunda y tercera comparandolas con la primera, que
queda fija. Una vez eliminada x, nos olvidamos de la primera ecuacion; para eliminar y cambiamos
la tercera ecuacion comparandola con la segunda, que es ahora la que queda fija. Este proceso es
general: siempre se hace lo mismo independientemente del n umero de ecuaciones y de incognitas
que tengamos:
1. Eliminar la primera incognita de todas las ecuaciones salvo la primera, comparando aquellas
con esta, que queda fija.
2. Eliminar la segunda incognita de todas las ecuaciones salvo las dos primeras, comparando
todas las ecuaciones desde la tercera con la segunda, que queda fija.
3. Repetir el proceso hasta la penultima incognita, que se elimina de la u
ltima ecuacion,
comparando esta con la pen
ultima, que queda fija.
(2) El numero por el que hay que multiplicar a la ecuacion fijada para eliminar la incognita
depende de los coeficientes que tenga esta en las ecuaciones. Por ejemplo, para eliminar y en la
tercera ecuacion, hemos restado a esta (9)/(3) veces la segunda ecuacion, que es lo necesario
para hacer cero la posicion de 9y: 9y (9/ 3)(3y) = 0.
(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier sistema de ecua-
ciones (vease la hoja de ejercicios).
(4) El sistema final del proceso siempre ha de quedar de tipo escalonado, en el sentido de que si
hay solucion, se puedan ir despejando los valores de las incognitas desde abajo hacia arriba , en
el proceso que hemos llamado sustitucion regresiva.
Ejemplo 2. Discute y en su caso resuelve el sistema
x y + 2z = 1
2x + y = 3
x + 2y 2z = 0
Repetimos el proceso del ejemplo 1. La eliminacion de la incognita x lleva al sistema
x y + 2z = 1
3y 4z = 1
3y 4z = 1,

26
la eliminacion de la incognita y nos lleva a

x y + 2z = 1
3y 4z = 1
0 = 2.

Este es el sistema final. Notemos que la u ltima ecuacion no puede darse. Este sistema no puede
tener solucion pues la u
ltima ecuacion nunca puede cumplirse. As, el sistema final, y por tanto
el original, es incompatible, no tiene solucion.
Ejemplo 3. Discute y en su caso resuelve el sistema

3y + 14z = 4
2x + 2y 3z = 5
4x + 2y 2z = 10.

Nuestro problema aqu esta en que aparentemente no podemos empezar el proceso, pues la
incognita x no aparece en la primera ecuacion y s en las demas. Esto se resuelve cambiando de
posicion dos ecuaciones, por ejemplo las dos primeras (esto se llama pivotaje),

2x + 2y 3z = 5
3y + 14z = 4
4x + 2y 2z = 10.

Ahora s podemos empezar. Eliminando x de la u ltima ecuacion (en la segunda ya no aparece,


por lo que no hay que tocar la segunda ecuacion)

2x + 2y 3z = 5
3y + 14z = 4
2y + 4z = 0,

y eliminando la incognita y de la u
ltima ecuacion, comparando con la segunda, tenemos

2x + 2y 3z = 5
3y + 14z = 4
16 8
z = ,
3 3
de donde el sistema es compatible y determinado, con solucion x = 9/4, y = 1, z = 1/2.
Ejemplo 4. Discute y en su caso resuelve el sistema

x + 2y + z = 0
3x z = 2
x y z = 1.

El proceso (compruebese como ejercicio) lleva al sistema final

x + 2y + z = 0
6y 4z = 2
0 = 0.

27
La ultima ecuacion desaparece. Esto significa que no podemos despejar la incognita z de ella. A
pesar de esto, el sistema final no da ning
un tipo de incompatibilidad, lo unico que ocurre es que
la variable z puede tomar cualquier valor. El sistema es compatible e indeterminado, es decir,
tiene infinitas soluciones. Estas dependen del valor arbitrario de z. Para cada valor de z tenemos
una solucion, obtenida del sistema
x + 2y = z
6y = 2 + 4z,
es decir, y = (1+2z)/3, x = (1z)/3. El conjunto de soluciones es de la forma x = (1z)/3, y =
(1 + 2z)/3, con z arbitrario. As pues, la aparicion de una ecuacion trivial en el sistema final
significa que la variable afectada toma cualquier valor, es lo que se llama una variable libre.
Hay tantas variables libres como ecuaciones triviales aparezcan en el sistema final. El sistema es
indeterminado (tiene infinitas soluciones, una por cada valor de z) y las soluciones se obtienen
despejando el resto de las variables, llamadas basicas, en funcion de las libres.

2.4. Interpretaci
on matricial de la eliminaci
on gaussiana
Pasamos ahora a dar la interpretaci on matricial del proceso de eliminacion de incognitas, lo
que permitira justificar los pasos dados en los ejemplos anteriores.

2.4.1. Operaciones elementales


Puede hacerse una interpretacion del metodo de eliminacion gaussiana utilizando las llamadas
operaciones elementales. Se llama operacion elemental sobre las filas de una matriz a aquella
transformacion de la misma que consiste en llevar a cabo una de las tres manipulaciones siguientes:
(1) Permutar dos filas entre s.
(2) Multiplicar todos los elementos de una fila por un mismo n
umero no nulo.
(3) Sumar a una fila otra fila.
Se sobreentiende que las filas no afectadas por los ndices que definen la operacion elemental
permanecen inalteradas. Fijemonos en que todos los pasos de la eliminacion gaussiana que hemos
dado en los ejemplos anteriores involucran alguno o varios de los tres tipos de operaciones ele-
mentales, con ecuaciones en lugar de filas (ya veremos que actuar sobre las ecuaciones equivale a
actuar sobre las filas de la matriz del sistema y del termino independiente).
En terminos matriciales, la accion de una operacion elemental sobre las filas de una matriz
A equivale a multiplicar por la izquierda la matriz A por una matriz E apropiada asociada a la
operacion. Si A Mm,n (K), la matriz E Mm,m (K) y tiene un aspecto distinto dependiendo
de la operacion elemental. Denotemos por Im a la matriz identidad de m filas y m columnas.
Entonces:

(1) Si la operacion consiste en permutar las filas r y s (r 6= s), entonces E se obtiene de Im per-
mutando las filas r y s de esta. De este modo, EA es una matriz que se obtiene de A permutando
sus filas r y s. Por ejemplo

3 2 0 0 1 6 7
A = 4 5,E = 0 1 0 EA = 4 5.
6 7 1 0 0 3 2

28
(2) Si la operacion consiste en multiplicar la fila r por un n
umero 6= 0, entonces E se obtiene
de la identidad Im sustituyendo el 1 de la posicion (r, r) por . As, EA es una matriz que se
obtiene de A multiplicando por su fila r. Por ejemplo


2 5 8 1 0 2 5 8
A= ,E = EA = .
1 0 1 0 4 4 0 4

(3) Si la operacion consiste en sumar a la fila r la fila s (r 6= s) entonces E se obtiene de Im


incorporando a esta un 1 en la posicion (r, s). As, EA es una matriz que se obtiene de A sumando
a su fila r la fila s. Por ejemplo


2 1 1 1 0 0 2 1 1
A= 4 5 0
,E = 0
1 0 EA = 4 5 0.
2 1 1 1 0 1 0 0 0
Por su interes para la eliminacion gaussiana, destacamos la matriz asociada a la combinaci on
de operaciones elementales que consiste en sumar a la fila r la fila s (r 6= s) multiplicada por un
n
umero 6= 0. La matriz E se obtiene de la identidad Im incorporando a esta el valor en la
posicion (r, s). Por ejemplo,


2 1 1 1 0 1 0 0 0
A = 4 5 0,E = 0 1 0 EA = 4 5 0.
2 1 1 0 0 1 2 1 1

2.4.2. Sistemas escalonados


Pasamos ahora a una explicacion mas rigurosa del metodo de eliminacion gaussiana, utilizando
una interpretacion matricial. Ya hemos visto que el sistema (2.1) puede escribirse en la forma
matricial (2.3) A~x = ~b, donde la matriz m n


a11 a12 a1n
a21 a22 a2n
A=



am1 am2 amn

se llama matriz de coeficientes de (2.1). El vector columna ~b = (b1 , b2 , . . . , bm )T es la matriz


de los terminos independientes de (2.1). Las incognitas estan dispuestas en un vector columna
~x = (x1 , x2 , . . . , xn )T .
La discusion y posible resolucion del sistema (2.1) parte justamente del final del proceso,
es decir, de la discusion de los sistemas finales como los que hemos obtenido en los ejemplos,
llamados sistemas con forma escalonada superior. Estos sistemas U~x = ~c tienen una matriz de
coeficientes U llamada matriz con forma escalonada superior, que se caracteriza por las siguientes
propiedades:

(a) Las primeras filas de U corresponden a filas no identicamente nulas. El primer elemento no
nulo de cada una de estas filas se llama pivote.
(b) Debajo de cada pivote hay una columna de ceros.

29
(c) Cada pivote esta a la derecha del pivote de la fila anterior.

Para sistemas lineales U~x = ~c con matriz de coeficientes U en forma escalonada superior se
verifica:

(1) El sistema es compatible si y solo si filas nulas de U corresponden a componentes nulas del
termino independiente c (recuerdense los ejemplos 2 y 4).

(2) El sistema es determinado si hay tantos pivotes como incognitas, en cuyo caso se resuelve
por sustitucion regresiva.

(3) El sistema es indeterminado si hay menos pivotes que incognitas (ejemplo 4). En ese caso,
la solucion general se obtiene por ejemplo identificando las incognitas no asociadas a ning un
pivote (variables libres) as como cada una de las incognitas asociadas a los pivotes (variables
basicas) resolviendo por sustitucion regresiva el sistema triangular superior que se obtiene al
pasar al termino independiente la contribuci on de las variables libres (recuerdese el ejemplo
4).

2.4.3. Sistema general


Consideremos ahora el sistema lineal (2.1) general y definamos su matriz ampliada, incorpo-
rando a la matriz A del sistema el termino independiente ~b como u
ltima columna,

A0 = [A|~b] Mm,n+1 (K)

Se dice que dos sistemas lineales con el mismo n umero de incognitas son equivalentes si, o bien
son ambos incompatibles o bien son ambos compatibles y comparten las mismas soluciones.
Hemos visto que un paso tpico del metodo de eliminacion gaussiana consiste en llevar un
sistema lineal a otro mediante operaciones elementales sobre las ecuaciones del sistema. Esta
manera de obtener las ecuaciones del sistema resultante a partir de las del sistema original hace
que los dos sistemas sean equivalentes. Pero, en terminos matriciales, una operacion elemental
entre ecuaciones del sistema es en realidad una operacion elemental entre las filas de la matriz
ampliada (las filas de la matriz de coeficientes mas las correspondientes componentes del termino
independiente).
De nuevo, como ocurra con el metodo de Horner para evaluar un polinomio, una de las ven-
tajas del metodo de eliminacion gaussiana es su caracter algortmico, que facilita su aprendizaje.
Ademas, nada impide que pueda aplicarse a cualquier sistema
La equivalencia entre los sistemas permite afirmar entonces que discutir y en su caso resolver
el sistema (2.1) sea equivalente a discutir y en su caso resolver el sistema escalonado obtenido. Por
otra parte, las operaciones elementales involucradas son del tipo: sumar a una fila (ecuacion) otra
multiplicada por un n umero y probablemente intercambiar la posicion de dos filas (ecuaciones).

As pues, los pasos para discutir y resolver un sistema por eliminacion gaussiana son los
siguientes:

1. Utilizar las operaciones elementales indicadas sobre la matriz ampliada del sistema para
llevar este a uno equivalente con forma escalonada superior, haciendo ceros por debajo de
los pivotes de cada fila.

30
2. Discutir el sistema escalonado resultante, segun lo indicado en el apartado anterior. En
caso de que el sistema sea compatible determinado, resolver por sustitucion regresiva. Si
el sistema es indeterminado, trasladar la contribuci on de las variables libres al segundo
miembro y resolver en las variables basicas por sustitucion regresiva.

Ejemplo. Discute y resuelve en su caso el sistema


x1 + 2x2 x3 + x4 2x5 = 1
2x1 2x2 + x3 x4 + x5 = 1
4x1 10x2 + 5x3 5x4 + 7x5 = 1
2x1 14x2 + 7x3 7x4 + 11x5 = 1
La matriz ampliada es

1 2 1 1 2 | 1
0
2 2 1 1 1 | 1
A =
4 10
.
5 5 7 | 1
2 14 7 7 11 | 1
Buscamos primero la forma escalonada superior equivalente. El pivote de la primera fila es el 1
de la posicion (1, 1). Para conseguir la forma escalonada superior, tenemos que hacer ceros en
todos los elementos de la primera columna por debajo del pivote. Para ello, restamos a la fila
segunda la primera multiplicada por dos (esta es una combinaci on de operaciones elementales) a
la fila tercera la primera multiplicada por cuatro y a la fila cuarta la primera multiplicada por
dos. Observemos que en este primer paso la fila del pivote, la primera, queda fija. El hecho de
que la fila pivotal quede fija se repite en todo el proceso. Nos queda un sistema equivalente con
matriz ampliada

1 2 1 1 2 | 1
0 6 3 3 5 | 1
.
0 18 9 9 15 | 3
0 18 9 9 15 | 3
Cambiamos ahora de fila pivotal. El pivote de la segunda fila es el 6 de la posicion (2, 2). Para
llegar a la forma escalonada superior, hay que hacer ceros en la columna del pivote por debajo
de el, es decir, en las posiciones (3, 2) y (4, 2), comparando las filas tercera y cuarta con la del
pivote, es decir, la segunda. Se necesita entonces restar a la fila tercera la segunda multiplicada
por tres y a la cuarta la segunda multiplicada por tres. El resultado es un sistema equivalente
con matriz ampliada

1 2 1 1 2 | 1
0 6 3 3 5 | 1
[U |~c] =
0
.
0 0 0 0 | 0
0 0 0 0 0 | 0
Las siguientes filas son identicamente nulas, ya no tenemos pivotes. Hemos alcanzado la forma
escalonada superior equivalente, que corresponde al sistema

x1 + 2x2 x3 + x4 2x5 = 1
6x2 + 3x3 3x4 + 5x5 = 1

31
Fijemonos en que como filas nulas de U (tercera y cuarta) corresponden a componentes nulas del
termino independiente, el sistema es compatible. Puesto que solo hay dos variables con pivote
(primera y segunda) el sistema es indeterminado y las variables libres son x3 , x4 y x5 . Pasando
al termino independiente su contribuci
on, el sistema escalonado se escribe

x1 + 2x2 = 1 + x3 x4 + 2x5
6x2 = 1 3x3 + 3x4 5x5 .

Para valores arbitrarios de x3 , x4 y x5 , las soluciones del sistema original son de la forma x2 =
(1 + 3x3 3x4 + 5x5 )/6, x1 = (2 + x5 )/3.

2.5. Matriz inversa. M


etodo de Gauss-Jordan
Cuando se tiene una ecuacion con una sola incognita ax = b, uno sabe de que manera se puede
despejar x: si a 6= 0, entonces x = a1 b = b/a. Esto, que para una sola ecuacion parece ridculo de
explicar, cambia en el caso de tener un sistema lineal con mas ecuaciones e incognitas, de forma
matricial A~x = ~b, debido a que no se pueden dividir matrices. El metodo de eliminacion gaussiana
nos resuelve el problema de hallar ~x. Sin embargo, en algunos casos puede darse una alternativa
que es importante mencionar. Imaginemos que tenemos un sistema A~x = ~b con el mismo n umero
de ecuaciones que de incognitas, es decir A Mnn (K), compatible y determinado. Supongamos
que conociesemos una matriz B Mnn (K) tal que

AB = BA = In , (2.6)

con In la matriz identidad de tama


no nn. Entonces, multiplicando ambos miembros del sistema
por B, tendramos
BA~x = B~b ~x = B~b,
de manera que tal matriz B determinara la solucion del sistema. Dada una matriz A Mnn (K),
la matriz B Mnn (K) que verifica (2.6) se llama matriz inversa de A y se denota por A1 .
Cuando una matriz A admite inversa, se dice que es regular o no singular. Si A no admite inversa,
se dice que es singular. De la propia definicion se deduce algo muy importante:

MUY IMPORTANTE: Solo las matrices cuadradas pueden tener inversa.

Ademas:
MUY IMPORTANTE: No todas las matrices cuadradas poseen matriz inversa.
TAMBIEN

En esta seccion vamos a ver como determinar si una matriz cuadrada admite matriz inversa
y en su caso calcularla.

Propiedades de la inversa de una matriz


1. La inversa de una matriz, si existe, es unica.
2. Si A Mn,n (K) tiene inversa, ella es la inversa de su inversa, es decir, (A1 )1 = A.
3. Si A, B Mn,n (K) tienen inversa, entonces AB tiene inversa, dada por (AB)1 = B 1 A1 .
4. Si A Mn,n (K) tiene inversa, entonces su traspuesta AT Mn,n (K) tambien tiene inversa,
dada por (AT )1 = (A1 )T .

32
5. Toda matriz E Mn,n (K) asociada a una operacion elemental posee inversa.
La u
ltima propiedad mencionada tiene una importancia especial, pues hay un metodo para
determinar si una matriz tiene inversa, y en su caso calcularla, utilizando operaciones elementales
de un modo parecido al proceso de eliminacion gaussiana. El metodo se llama de Gauss-Jordan.
Empezamos con un ejemplo.

Ejemplo. Vamos a determinar la matriz inversa de



1 3 2
A = 2 4 0 ,
3 5 1
si es que existe. El metodo de Gauss-Jordan consiste en las siguientes etapas, que depues jus-
tificaremos. Se trata de realizar apropiadas operaciones elementales sobre las filas de A, con el
objetivo de transformar A en la matriz identidad del mismo tama no. Esas mismas operaciones
elementales han de realizarse sobre las filas de la matriz identidad. Entonces la matriz resultante
de realizar las mismas operaciones elementales sobre la matriz identidad, si el proceso no ha dado
ningun problema, es la inversa de A. As, junto a la matriz A escribimos la matriz identidad del
mismo tama no,

1 3 2 1 0 0
2 4 0 0 1 0
3 5 1 0 0 1
Realizamos operaciones elementales que llevan A a la matriz identidad. Hemos de repetir las
mismas operaciones elementales sobre las filas de la matriz identidad. Las operaciones por filas
suelen hacerse por orden, siguiendo el de la eliminacion gaussiana. As, en nuestro ejemplo,
hacemos ceros por debajo del primer pivote, el 1 de la posicion (1, 1), restando a la fila segunda
la primera multiplicada por dos y a la fila tercera la primera multiplicada por tres. Si hacemos
esas mismas operaciones en la identidad, nos queda

1 3 2 1 0 0
0 2 4 2 1 0
0 4 5 3 0 1
Pasando al segundo pivote, restamos a la fila tercera la segunda multiplicada por dos,

1 3 2 1 0 0
0 2 4 2 1 0
0 0 3 1 2 1
Para la parte de la matriz A, nos acercamos a la identidad. Ya tenemos ceros en el triangulo
inferior. Nos queda hacer unos en las posiciones de la diagonal y ceros en el triangulo superior.
Para lo primero, multiplicamos por 1/2 la segunda fila y por 1/3 la tercera. Si esto lo hacemos
tambien a la derecha, nos queda,

1 3 2 1 0 0
0 1 2 1 1/2 0
0 0 1 1/3 2/3 1/3
Para la segunda tarea, hacemos lo mismo que para el triangulo inferior pero desde abajo hacia
arriba, empezando por el tercer pivote. As, hacemos ceros en su columna por encima de el,

33
restando a la fila segunda la tercera multiplicada por 2 y a la fila primera la tercera multiplicada
por 2. As,

1 3 0 1/3 4/3 2/3
0 1 0 1/3 5/6 2/3
0 0 1 1/3 2/3 1/3

Finalmente, pasando al segundo pivote, hacemos ceros por encima de el, restando a la fila primera
la segunda multiplicada por tres,

1 0 0 2/3 7/6 4/3
0 1 0 1/3 5/6 2/3
0 0 1 1/3 2/3 1/3
entonces

2/3 7/6 4/3
B = 1/3 5/6 2/3 ,
1/3 2/3 1/3

es la inversa de A, pues es un ejercicio comprobar que AB = BA = I3 .


Para justificar el procedimiento, necesitamos volver a mencionar la interpretaci
on matricial de
las operaciones elementales, de la que ya hablamos en apartados anteriores. Vimos que la accion
de una operacion elemental sobre las filas de una matriz A equivale a multiplicar la matriz E
asociada a la operacion por la matriz A. Recordemos que la matriz E tiene una forma distinta
segun sea la operacion elemental a realizar.
Teniendo esto presente, fijemonos en que si podemos realizar operaciones elementales sobre
las filas de una matriz A Mn,n (K) que consiguen transformar esta en la identidad, entonces
matricialmente esto significa que podemos encontrar matrices elementales E1 , . . . , Ep de modo
que

Ep Ep1 E1 A = In .

Si llamamos B a la matriz producto B = Ep Ep1 E1 , la igualdad anterior significa que BA = In


y que AB = In , es decir, que B es la inversa de A. Queda solo justificar la manera de construir
la inversa que hemos visto en el ejemplo. Si consideramos la matriz ampliada

[ A | In ] ,

tal y como hemos hecho en el ejemplo, y realizamos la primera operacion elemental tanto en A
como en la identidad In , nos queda

[ E1 A | E1 In ] = [ E1 A | E1 ] .

Tras la segunda operacion elemental, se tiene

[ E2 E1 A | E2 E1 ] .

As hasta completar todas las operaciones elementales; el resultado final es

[ Ep Ep1 E2 E1 A | Ep Ep1 E2 E1 ] ,

34
es decir
[ In | B].
Esto justifica la aparicion de la inversa de A a la derecha, donde inicialmente estaba la matriz
identidad.
Hay algunos detalles a tener en cuenta en este metodo.
El metodo sirve tambien para identificar si la matriz en cuestion admite inversa. Es el mismo
procedimiento el que nos advierte; si hay un momento en el que no podemos continuar al
pretender transformar la matriz A en la identidad, entonces la matriz no sera invertible.
Esto se da cuando:
(i) La primera columna de A es nula; pues entonces no podremos colocar un 1 en el
elemento (1, 1) por muchas operaciones por filas que realicemos.
(ii) La columna por debajo del elemento de la derecha de un pivote es nula; pues entonces
nunca podremos colocar un 1 en la siguiente posicion de la diagonal principal de la
matriz, por muchas operaciones elementales que hagamos. Por ejemplo,

4 2 6 1 0 0 1 1/2 3/2 1/4 0 0
3 0 7 0 1 0 0 3/2 5/2 3/4 1 0 ,

2 1 3 0 0 1 0 0 0 1/2 0 1
y la matriz
4 2 6
A= 3 0 7
2 1 3
no tiene inversa.
De nuevo, al igual que ocurra con la eliminacion gaussiana, hay que destacar la estructura
algortmica del metodo, lo que facilita su aprendizaje.
Hay que observar tambien que, al calcular la inversa de una matriz, en ning un momento se
obtienen explcitamente las matrices elementales E1 , . . . , Ep . Lo que importa es el producto
final Ep E1 , es decir, la matriz inversa.

2.6. Resoluci
on por determinantes
En el caso de sistemas lineales con el mismo n
umero de ecuaciones que de incognitas y con
solucion u
nica, hay que mencionar una alternativa para construir tal solucion, que viene dada
por el concepto de determinante de una matriz.
Desde un punto de vista geometrico y en dimensiones dos y tres, podra definirse el determi-
nante de una matriz en terminos de areas y vol
umenes. Por ejemplo, dada una matriz 2 2,

a11 a12
A= ,
a21 a22
podra definirse el determinante de A, denotado por det(A), como el area encerrada por el par-
alelogramo de aristas determinadas por las columnas de A, entendidas como vectores en el plano,
de modo que

a11 a12
det = a11 a22 a21 a12 .
a21 a22

35
En el caso de una matriz 3 3,

a11 a12 a13
A = a21 a22 a23 ,
a31 a32 a33
el determinante de A podra definirse igualmente como el volumen del paraleleppedo cuyas aristas
estan generadas por las columnas de A, entendidas como vectores en el espacio. En este caso, la
formula es un poco mas complicada de obtener y se llama regla de Sarrus,

a11 a12 a13
det a21 a22 a23 = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a31 a32 a33
= a12 a21 a33 a11 a32 a23 a31 a22 a13 .
Para matrices de mayor tama no no podemos dar una referencia geometrica realista, de manera
que la definicion sigue otro enfoque.
Sea A = (aij ) Mn,n (K). Se define el determinante de A como el n
umero
X
det(A) = ()a1(1) a2(2) an(n)
Sn

a11 a12 a1n

a21 a22 a2n
= ,



an1 an2 ann
donde Sn es el conjunto de permutaciones de orden n y () la paridad de la permutaci on
(vease el tema preliminar). Cuando recorre Sn , los terminos a1(1) a2(2) , . . . , an(n) describen
todos los posibles productos de n factores extrados de los elementos de A con la propiedad de
que en dichos productos siempre figura un elemento de cada fila y de cada columna de A.
En el calculo efectivo de un determinante no suele usarse la definicion salvo en los ejemplos
clasicos con n = 2 y n = 3, que hemos mencionado previamente.
El calculo de un determinante puede hacerse de varias formas, y aqu mencionaremos algunas.
La primera esta basada en propiedades fundamentales del determinante, que pasamos a describir.
Dada A = (aij ) Mn,n (K), denotamos sus filas por F1 , . . . , Fn , es decir,

F1
F
2
.
A= .
. .
..
.
Fn
Las propiedades son las siguientes:
1. det(A) es lineal en cada fila, es decir, si 1 k n,
(a) Para K,

F1 F1

F2 F2

.. ..
. .

F = F .
k k
. .
.. ..

F F
n n

36
(b) Si la fila Fk = Fk0 + Fk00 es suma de otras dos, entonces

F1 F1 F1

F2 F2 F2

.. .. ..
. . .

F = F 0 + F 00 .
k k k
. . .
.. .. ..

Fn
Fn Fn

Por ejemplo

2 4 6 1 2 3

0 1 2 = 2 0 1 2

1 4 1 1 4 1

1 2 3 1 2 3

= 0 1 2 + 0 1 2 .
1 4 1 1 4 1

2. El determinante cambia de signo al intercambiar dos filas entre s.


Por ejemplo,

2 4 6 1 4 1

0
1 2 = 0 1 2 .

1 4 1 2 4 6

3. det(In ) = 1, n = 1, 2, . . ..
4. det(A) = n det(A).
5. Sea Sn y A la matriz obtenida al permutar las filas de A seg
un ,


F(1)
F(2)

.
A = .
. .

.
..
F(n)

entonces det(A ) = ()det(A).


Por ejemplo, si

1 2 3
= ,
3 1 2

entonces () = 1 y por tanto



2 4 6 0 1 2

0 1 2 = 1 4 1 .

1 4 1 2 4 6

6. Si A tiene dos filas iguales, entonces det(A) = 0.

37
Por ejemplo,

2 4 6 1 2 3

1 2 3 = 2 1 2 3 = 0.

0 1 1 0 1 1

7. El determinante no cambia cuando a una fila se le suma una combinaci


on lineal de las restantes
filas.
Por ejemplo,

2 4 6 2 4 6 2 4 6

0 1 2 = 0 1 2 = 0 1 2 .

1 4 1 0 2 2 0 0 2

8. Si A tiene una fila nula, entonces det(A) = 0.


9. Si T = (tij ) es una matriz triangular (superior o inferior), entonces det(T ) = t11 t22 tnn .
Por ejemplo,

2 4 6 2 4 6

0 1 2 = 0 1 2 = 4.

1 4 1 0 0 2

10. det(AB) = det(A)det(B). En particular, si A es invertible, entonces det(A1 ) = 1/det(A).


11. det(AT ) = det(A). En consecuencia, cada propiedad para las filas tiene una analoga para las
columnas.

Lo aconsejable para calcular determinantes, sobre todo si son grandes, es hacer uso de estas
propiedades fundamentales, aplicandolas para ir transformando el determinante en otros mas
faciles de calcular. Lo usual suele ser reducir con operaciones elementales el calculo del determi-
nante al de una matriz triangular (vease el ejemplo en las propiedades 7 y 9). Por ejemplo,

1 3 1 1 1 3 1 1

2 1 5
2 0 5 3 0
=
1 1 2 3 0 4 1 2


4 1 3 7 0 11 7 3

1 3 1 1 1 3 1 1

0 5 3
0 0 5 3 0
= = 115.
0 0
7/5 2 0 0 7/5 2


0 0 68/5 3 0 0 0 115/7

2.6.1. Desarrollo por los elementos de una lnea


Otro metodo mas elaborado para calcular un determinante es el desarrollo por los elementos
de una fila o una columna. Dada una matriz A = (aij ) Mn,n (K) se llama menor complementario
kl del elemento akl al determinante de la matriz (n 1) (n 1) obtenida de A al suprimir su
fila k y su columna l. El cofactor de akl se define como

Akl = (1)k+l kl .

38
Entonces, para cualquier fila k se satisface la formula
det(A) = ak1 Ak1 + ak2 Ak2 + + akn Akn ,
llamada desarrollo del determinante por los elementos de la fila k. Hay una formula analoga para
el desarrollo del determinante por una columna cualquiera l:
det(A) = a1l A1l + a2l A2l + + anl Anl .
Por ejemplo

2 4 6
1 2 0 2 0 1
0
1 2 = 2 4 + 6 = 4.
4 1 1 1 1 4
1 4 1

2 4 6
0 2 2 6 2 6
0
1 2 = 4 + 4 = 4.
1 1 1 1 0 2
1 4 1

Como se ve, el metodo reduce el calculo de un determinante de una matriz al de determinantes


de matrices de un orden menos.

2.6.2. Matrices inversas y sistemas de Cramer


Dos son las utilidades que tienen los determinantes en relacion con los sistemas lineales: el
calculo de la inversa de una matriz invertible y las llamadas formulas de Cramer. Ambas son de
uso limitado, precisamente por lo tedioso del calculo de los determinantes.
Respecto a la primera aplicacion, dada una matriz A = (aij ) Mn,n (K) se llama matriz de
adjuntos o de cofactores de A a la matriz obtenida a partir de los cofactores de A que hemos
definido anteriormente, es decir,

A11 A12 A1n
A21 A22 A2n
Aadj = (Aij ) =

.

An1 An2 Ann
Entonces, se puede comprobar la formula
A(Aadj )T = (Aadj )T A = det(A)In .
Esto implica el siguiente resultado: A admite inversa si y solo si det(A) 6= 0, en cuyo caso se tiene
1
A1 = (Aadj )T .
det(A)
Por ejemplo, si

2 4 6
A = 0 1 2 ,
1 4 1
entonces, se puede comprobar que

9 2 1
Aadj = 20 4 4 ,
14 4 2

39
y por tanto

9 20 14
1
A1 = 2 4 4 .
4
1 4 2

Por otra parte, en el caso de un sistema A~x = ~b con el mismo n umero de ecuaciones que
incognitas (A cuadrada) y con solucion u
nica (det(A) 6= 0), se puede obtener esta a traves de las
llamadas formulas de Cramer. Utilizando la expresion anterior de A1 , tenemos
1
~x = A1~b = (Aadj )T ~b,
det(A)

lo que lleva a que la solucion ~x = (x1 , . . . , xn )T se pueda escribir como


det(Aj )
xj = , j = 1, . . . , n,
det(A)
siendo Aj la matriz obtenida a partir de la matriz A sustituyendo la columna j de esta por el
vector ~b = (b1 , . . . , bn )T . Estas son las llamadas formulas de Cramer.

EJERCICIOS DEL TEMA 1

Ejercicio 1. Resuelve los dos apartados del ejemplo introductorio.

Ejercicio 2. Halla con las matrices siguientes las operaciones que se indican: A 2B, 3A C, A +
B + C, A2 ;

1 1 2 0 2 1 0 0 2
A = 3 4 5 , B = 3 0 5, C = 3 1 0.
0 1 1 7 6 0 0 2 4
Determina una matriz D tal que A + B + C + D sea la matriz nula 3 3. Determina una matriz
E tal que 3C 2B + 8A 4E sea la matriz nula 3 3.

Ejercicio 3. Calcula los siguientes productos de matrices



3 6 1 1
2 4 1 1
(1 4 0 2)
1
, (1 4 0 2)
2 ,

2 (1 4 0 2),
0
2 3 3 3

3 6
2 3 2 2 4 1 1
4
(1 4 0 2)
1
, 1 1 0 2 4 0,
0
2 0 3 1 1 0
2 3

2 1
3 1 1 1
2 0
2 4 0 2 1
.
1
1 0 3 2
3 2

40
Ejercicio 4. Estudia y, en los casos de compatibilidad, calcula la solucion general de los sistemas
lineales Ax = b con coeficientes reales, cuando A y b valen

3 1 1 2 1
0 1 0 2 0
A= 6
b=
2 1 5 5
3 3 1 1 4

1 0 1 2 4 4
A = 4 1 3 1 3 b = 9
2 2 0 1 0 5

2 1 0 4
4 2 0 8


A = 0 2 1 b= 4

2 1 1 0
2 5 2 12

1 0 2 1 0
2 2 1 3 0
A= 1 2
b=
1 4 0
5 4 4 5 0

Ejercicio 5. Resuelve los siguientes sistemas lineales

x+y+z+t=7 x+y+z+t=7
x+y + 2t = 8 x+y + 2t = 5
2x + 2y + 3z = 10 2x + 2y + 3z = 10
x y 2z + 2t = 0 x y 2z + 2t = 0

x y + 2z t = 8 2x + 4y z = 5
2x 2y + 3z 3t = 20 x + y 3z = 9
x + y + z = 2 4x + y + 2z = 9
x y + 4z + 3t = 4

Ejercicio 6. Discute los siguientes sistemas en funcion de los parametros a y b:


x + ay + a2 z = 1 x + y + az = a2
a) x + ay + abz = a b) x + ay + z = a .
bx + a2 y + a2 bz = a2 b ax + y + z = 1

Ejercicio 7. Halla todas las soluciones de cada uno de los sistemas:

(3 2i)x1 + x2 6x3 + x4 = 0
x1 ix2 x4 = 0
2x1 + x2 (3 + i)x3 = 0
x1 + x2 2x3 (1 + 2i)x4 = 0.

41
x1 + 2ix3 2ix4 = 2
x2 + 2x3 + 2x4 = 1
x1 + (1 + i)x3 + (1 i)x4 = 0
x1 + x2 = 0.

Ejercicio 8. Se considera el sistema lineal



x1
x2 b1
~
A = b = b2 .

x3
b3
x4

donde
0 1 2 1
A= 1 4 1 0.
1 3 3 1
Establece una relacion entre las componentes del termino independiente ~b = (b1 , b2 , b3 )T para que
el sistema anterior sea compatible.

Ejercicio 9. Calcula la matriz elemental E tal que EA = B:



1 2 1 2
A = 3 4,B = 5 6
5 6 3 4

1 2 1 2
A = 3 4 , B = 0 2
5 6 5 6

1 2 5 2 1 2 5 2
A = 0 1 3 4 , B = 0 1 3 4
5 0 2 7 0 10 27 3

Ejercicio 10. Dados los cuatro sistemas lineales de tres ecuaciones y tres incognitas con la misma
matriz de coeficientes

2x 3y + z = 2 2x 3y + z = 6
x + y z = 1 x+yz =4
x + y 3z = 0 x + y 3z = 5

2x 3y + z = 0 2x 3y + z = 1
x+yz =1 x+yz =0
x + y 3z = 3 x + y 3z = 0

42
a) Resuelve los sistemas lineales aplicando eliminacion gaussiana a la matriz aumentada

2 3 1 : 2 6 0 1
1 1 1 : 1 4 1 0
1 1 3 : 0 5 3 0

b) Resuelve los sistemas lineales aplicando el metodo de Gauss-Jordan a la matriz anterior.


c) Resuelve los sistemas lineales encontrando la inversa de la matriz del sistema y multiplicando.

Ejercicio 11. Determina cuales de las siguientes matrices tienen inversa y, en caso afirmativo,
hallala.
4 2 6 1 2 0
A= 3 0 7 , B = 2 1 1

2 1 3 3 1 1

1 1 1 1 2 3 1 2
1 2 4 2 2 4 1 5
C=
2
, D=
1 1 5 3 7 3/2 1
1 0 2 4 6 9 3 7

4 0 0 0 2 0 1 2
6 7 0 0 1 1 0 2
E=
9 11 1 0 , F =
2 1 3 1
5 4 1 1 3 1 4 3

Ejercicio 12. Sea A una matrizreal 4x4 cuya inversa es


1 2 3 4
2 5 7 9
A1 = 1

3 5 7
4 8 2 0
Sea B la matriz que se obtiene de A mediante las relaciones
b3,j = a3,j a4,j + a1,j a2,j 1 j 4
bi,j = ai,j i = 1, 2, 4 1 j 4.
Halla B 1 .

Ejercicio 13. Calcula, utilizando la definicion, las formulas para el determinante de una matriz
A 2 2 cualquiera y de una matriz A 3 3 cualquiera.

Ejercicio 14. (a) Da un ejemplo de dos matrices A y B para las cuales det(A+B) 6=detA+detB.
(b) Si B = P 1 AP , por que es detB =detA?
(c) Una matriz formada por ceros y unos, tiene determinante igual a 0, 1 o 1 ?
(d) Demuestra que el determinante de una matriz antisimetrica de orden impar es 0.
Nota: Una matriz A es antisimetrica si AT = A.

Ejercicio 15. Sin desarrollar el determinante, demuestra que



1 a b + c

1 b a + c = 0. a, b, c C.

1 c a + b

43
Ejercicio 16. Eval
ua los determinantes siguientes:

6 2 1 0 5 1 2 1 3 1

2 1 1 2 1 2 1 1 2 3


1 1 2 2 3 , 3 1 0 2 1 .

3 0 2 3 1 5 1 2 3 4

1 1 3 4 2 2 3 1 1 2

1 3 1 1 1 1 2 4

2 1 5 2 0 1 1 3
, .
1 1 2 3 2 1 1 0


4 1 3 7 1 1 2 5

1 1 i 0 1 i 0 2i 2i

i 0 3 2 0 1 2 2
, .
2 + 2i2 2i 6 4 1 0 1 + i 1 i


4i + 5 1 3 i 0
1 1 0 0

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 1

Ejercicio 4.
Primer sistema: compatible determinado. Solucion: x1 = 1, x2 = 2, x3 = 0, x4 = 1.
Segundo sistema: compatible indeterminado.
Tercer sistema: incompatible.
Cuarto sistema: compatible determinado. Solucion: x1 = 0, x2 = 0, x3 = 0, x4 = 0.

Ejercicio 5.
Primer sistema: compatible indeterminado. Solucion: x = 8 y, z = 4, t = 3.
Segundo sistema: incompatible.
Tercer sistema: compatible determinado. Solucion: x = 7, y = 3, z = 2, t = 2.
Cuarto sistema: compatible determinado. Solucion: x = 1, y = 1, z = 3.

Ejercicio 6.
Sistema (a). Tres casos:

Si a 6= 0 y a 6= b, sistema compatible determinado.

Si a = 0, sistema incompatible.

Si a = b, el sistema es compatible indeterminado si a = 1 e incompatible si a 6= 1.

Sistema (b). Tres casos:

Si a 6= 1 y a 6= 2, sistema compatible determinado.

Si a = 2, sistema incompatible.

Si a = 1, sistema compatible indeterminado.

44
Ejercicio 7. El primer sistema es compatible indeterminado. Las soluciones son de la forma
2i 2
x1 = 1+i x3 , x2 = 1+i x3 , x4 = 0.

Ejercicio 8. b2 + b3 b1 = 0.

Ejercicio 9.

1 0 0 1 0 0 1 0 0

E= 0 0
1 , E = 3 1 0 , E = 0 1 0.
0 1 0 0 0 1 5 0 1

Ejercicio 10. Las soluciones de los sistemas son los siguientes:


Primer sistema: x = 4/14, y = 13/14, z = 3/14. Segundo sistema: x = 34/14, y =
19/14, z = 41/14. Tercer sistema: x = 1, y = 1, z = 1. Cuarto sistema: x = 1/7, y = 2/7, z =
1/7.

Ejercicio 11. A no tiene inversa.



2 2 2
1
B 1 = 5 1 1 .
8
1 5 3

C no tiene inversa. D no tiene inversa.



7 0 0 0 3 0 3 3
1 6 4 0 0 1 3 5 5 3
E 1 =

, F 1 =

.
28 3 44 28 0 3 3 2 2 0
14 28 28 28 0 1 4 3

Ejercicio 12.
2 5 3 7
5 12 7 16
B 1 =
4
.
8 5 12
2 10 2 2

Ejercicio 15.

1 a b + c 1 a a + b + c 1 a 1

1
b a + c = 1 b a + b + c = (a + b + c) 1 b 1 = 0.

1 c a + b 1 c a + b + c 1 c 1

Ejercicio 16.
Primer determinante = 24. Segundo determinante = 32.Tercer determinante = 115.Cuarto
determinante = 4.Quinto determinante = 0.Sexto determinante = 4 + 8i.

45
Tema 3

Espacios vectoriales y aplicaciones


lineales

Varios son los objetivos de este tema. A diferencia de la leccion anterior, que trataba de
resolver problemas concretos encontrando algoritmos apropiados para ello, aqu buscamos reglas
para manejar vectores. Cuando se habla de vectores, uno piensa en principio en los vectores del
plano (que ya hemos tratado someramente al explicar los n umeros complejos) o los vectores en el
espacio tridimensional. Estos son, sin embargo, ejemplos de una estructura, la de espacio vectorial,
que tiene sentido sin la referencia geometrica. De esta forma, la palabra vector ha de entenderse
en un sentido mas general, como elemento de un conjunto que tiene unas reglas operacionales
determinadas. As, los polinomios son vectores, las matrices son vectores, etc. Tenemos entonces
que explicar lo que se entiende por espacio vectorial, las operaciones entre sus elementos, los
vectores, y las relaciones entre espacios vectoriales a traves de las aplicaciones lineales.

3.1. Ejemplo. Vectores en el plano


Para introducir la idea de lo que es un espacio vectorial, vamos a recordar alguno de los mas
conocidos y utilizados. Vamos a considerar el conjunto de vectores ~v en el plano con base en el
origen, que naturalmente se puede identificar con el conjunto de puntos (x, y), con x, y R, es
decir, R2 . Recordemos que para generar nuevos elementos en R2 podemos sumar vectores

x1 x2 x1 + x2
~v1 = , ~v2 = ~v1 + ~v2 = ,
y1 y2 y1 + y2

o multiplicar un n
umero real por un vector:

x x
R, ~v = ~v = .
y y

El hecho de que estas dos operaciones entre vectores en el plano verifiquen una serie de reglas
(vease la definicion general) significa que el conjunto de vectores en el plano con base en el origen
o R2 adquiere lo que se llama estructura de espacio vectorial. De manera que, en general, para
obtener un espacio vectorial, necesitamos un conjunto de elementos y dos operaciones sobre ese
conjunto que permitan generar nuevos elementos y que sigan unas reglas apropiadas.

46
3.2. Espacios vectoriales

Unicamente consideraremos espacios vectoriales sobre el cuerpo K = R o C. Un espacio
vectorial (e. v.) sobre el cuerpo K de escalares es un conjunto no vaco V formado por elementos
~x V , dotado de una operacion interna + : V V V y de una operacion externa : KV V
de manera que se verifican las propiedades siguientes:
(1) Para cualesquiera ~x, ~y , ~z V
~x + (~y + ~z) = (~x + ~y ) + ~z.

(2) Para cualesquiera ~x, ~y V


~x + ~y = ~y + ~x.

(3) Existe un elemento neutro ~0 V tal que para cada ~x V se tiene que ~x + ~0 = ~0 + ~x = ~x.
(4) Para cada ~x V existe un elemento opuesto ~x V tal que ~x + (~x) = (~x) + ~x = ~0.
(5) Para cada ~x V y , K,
( ~x) = () ~x.

(6) Para cada ~x V y , K,


( + ) ~x = ( ~x + ~x).

(7) Para cada ~x, ~y V y K,


(~x + ~y ) = ( ~x + ~y ).

(8) Si ~x V y K son tales que ~x = 0, entonces necesariamente = 0 o ~x = ~0.


Los elementos de un espacio vectorial se llaman vectores.

Ejemplos

1. V = Rn con las operaciones


(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
(x1 , . . . , xn ) = (x1 , . . . , xn ), R,
es un espacio vectorial para n = 1, 2, 3, . . ..

2. V = C n con las operaciones de antes puede ser un espacio vectorial sobre R o sobre C.

3. V = Mm,n (K), con las operaciones definidas en el tema 1, es un espacio vectorial sobre K.

4. V = P [X], espacio de todos los polinomios en una variable y coeficientes complejos, es, con
las operaciones habituales de suma de polinomios y producto de un polinomio por un escalar, un
espacio vectorial sobre K.

5. V = Pn [X], espacio de los polinomios en una variable, coeficientes complejos y grado a lo sumo
n es, con las operaciones habituales de suma de polinomios y producto de un polinomio por un
escalar, un espacio vectorial sobre K.

47
3.2.1. Combinaciones lineales. Subespacios vectoriales
As pues, un hecho importante de los espacios vectoriales es que se pueden sumar vectores y
multiplicar vectores por escalares, es decir, formar combinaciones lineales de vectores, obteniendo
as nuevos elementos del espacio vectorial. Dado un e.v. V sobre K, se dice que un vector ~v V es
combinacion lineal del sistema finito {~v1 , ~v2 , . . . , ~vm } si existen escalares 1 , 2 , . . . , m de manera
que
m
X
~v = 1~v1 + 2~v2 + + m~vm = k~vk .
k=1

Notemos que el vector ~0 es combinaci on lineal de cualquier sistema de vectores.


Dentro de un espacio vectorial puede haber conjuntos que son en s mismos espacios vecto-
riales. Por ejemplo, cualquier plano que pase por el origen en R3 . Son los llamados subespacios
vectoriales, es decir, subconjuntos que son cerrados bajo las operaciones del espacio vectorial.
Definicion. Sea V un e.v. sobre K. Se dice que un subconjunto no vaco W V es un subespacio
vectorial si cumple:
(i) ~x + ~y W si ~x, ~y W .
(ii) ~x W si K, ~x W .
Esto equivale a la siguiente condicion: W es subespacio vectorial si y solo si toda combinaci
on
lineal de elementos de W es a su vez un elemento de W . En particular, el vector ~0 esta en todo
subespacio.

Ejemplos

(1) Para una matriz A Mm,n (K) el conjunto de soluciones del sistema lineal homogeneo A~x = ~0
es un subespacio vectorial de Kn .
(2) El conjunto de vectores de R3 ,
W = {(0, 0, 1)T , (0, 1, 0)T },
no es un subespacio vectorial, pues el vector (0, 0, 1)T + (0, 1, 0)T = (0, 1, 1)T no pertenece a W .
Todo conjunto de vectores G, aunque no sea un subespacio vectorial, lleva asociado uno. Es
el llamado espacio generado por G y es el conjunto de todas las combinaciones lineales formadas
con elementos de G. Es el mnimo subespacio vectorial que contiene a G y se denota por hGi o
span(G).

Ejemplos
(1) Para una matriz A Mm,n (K) se puede definir: 1. El espacio columna de A, que es el
subespacio de Km generado por las columnas de A. 2. El espacio fila de A, que es el subespacio
de Kn generado por las filas de A.
(2) El conjunto de vectores de R3 ,
G = {(0, 0, 1)T , (0, 1, 0)T },
genera el subespacio vectorial
hGi = {(x, y, z)T R3 /x = 0}.

48
3.2.2. Dependencia e independencia lineal. Bases y dimensi
on
Una descripcion mas explcita de un e.v. puede darse a partir de relaciones entre sus elementos
los vectores.
Sea V un e.v. Se dice que los vectores ~x1 , . . . , ~xn V son linealmente dependientes si existen
escalares 1 , . . . , n K no todos nulos verificando

1 ~x1 + + n ~xn = ~0.

Esto significa que alg


un vector del sistema es combinaci
on lineal de los restantes. Recprocamente,
si un vector ~x V es combinacion lineal de los vectores ~x1 , . . . , ~xn entonces existen escalares
1 , . . . , n con

~x = 1 ~x1 + + n ~xn ,

es decir,

(1)~x + 1 ~x1 + + n ~xn = ~0,

y los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes.


Se dice que los vectores ~x1 , . . . , ~xn V son linealmente independientes cuando no son lineal-
mente dependientes, es decir, si ninguno de los vectores es combinaci on lineal de los restantes.
Esto significa que si planteamos una combinaci on lineal nula

1 ~x1 + + n ~xn = ~0,

entonces necesariamente 1 = = n = 0. Luego veremos un metodo practico para determinar


la independencia lineal de un conjunto de vectores dado.

Si consideramos los vectores como flechas desde el origen, no es difcil visualizar la dependencia
lineal en el espacio tridimensional. Dos vectores son dependientes si estan en la misma recta, y
tres vectores son dependientes si estan en el mismo plano.
Por ejemplo, las columnas de la matriz

1 3 0
A= 2 6 1 ,
1 3 3
son linealmente dependientes, ya que la segunda columna es tres veces la primera. Un poco mas
complicado de ver es que las filas son tambien dependientes.
Se dice que un conjunto finito de vectores {~x1 , . . . , ~xn } es libre cuando los vectores ~x1 , . . . , ~xn
son linealmente independientes. Caso de no ser libre, el conjunto se denomina ligado.
Pasamos ahora a explicar lo que es una base en un espacio vectorial. Para manejar en la
practica muchos espacios vectoriales, se suele buscar un conjunto finito y destacado de vectores,
de manera que cualquier otro vector del espacio vectorial pueda escribirse como combinaci on lineal
de los vectores de este conjunto. Esto no siempre puede hacerse, pues hay espacio vectoriales que
no pueden describirse completamente por un conjunto finito de vectores. Sin embargo, hay otros
que s admiten tal propiedad; son los llamados espacios vectoriales de generacion finita. Por
ejemplo, todo vector de R3 (x, y, z)T es una combinaci on lineal

x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T

49
de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, el espacio vectorial R3 es de generacion
finita, pues todo vector de R3 puede escribirse como combinaci on lineal de un conjunto finito de
vectores.
Vamos a restringirnos a partir de ahora a espacios vectoriales de generacion finita. Se dice
que un conjunto G = {~x1 , . . . , ~xn } de vectores de un espacio vectorial V es un sistema generador
de V si todo vector de V puede escribirse como combinaci on lineal de los vectores de G.
Para poder describir completamente todos los vectores de un espacio vectorial, necesitaremos
entonces que este admita un sistema de generadores. Sin embargo, no es suficiente con esto. Para
ver el porque, consideremos el siguiente ejemplo de vectores en el plano:

~v1 = (1, 0)T , ~v2 = (0, 1)T , ~v3 = (1, 1)T .

Cualquier vector ~v = (x, y)T de R2 se puede escribir como combinaci


on lineal de estos tres
vectores; por ejemplo,

~v = x~v1 + y~v2 + 0~v3 .

De esta manera, el conjunto G = {~v1 , ~v2 , ~v3 } es un conjunto de generadores de R2 . Sin embargo,
hay un problema. Por ejemplo, el vector ~v = (1, 1)T se puede escribir como

~v = 2~v1 + 0~v2 ~v3 ,

o tambien como

~v = ~v1 + ~v2 + 2~v3 .

El hecho de que un mismo vector se pueda escribir como combinaci on lineal de los tres vectores de
mas de una forma da lugar a confusion. As, necesitamos que los vectores del sistema generador
que tomemos verifiquen que cualquier vector se pueda escribir como combinaci on lineal de ellos
solo de una forma.
Siguiendo con el mismo ejemplo, observemos que si ahora tomamos el conjunto G0 = {~v1 , ~v2 },
este sigue siendo un sistema de generadores de vectores del plano, pues si ~v = (x, y)T es cualquiera,
se puede escribir

~v = x~v1 + y~v2 .

La diferencia entre G y G0 es que el primero es un sistema libre y el segundo es ligado. El hecho de


conseguir que los vectores que formen G0 sean linealmente independientes implica que cualquier
vector se puede escribir como combinaci on lineal de tales vectores solo de una forma. En efecto,
si tenemos un vector cualquiera ~v escrito, con respecto a G0 , de dos formas

~v = x~v1 + y~v2 = x0~v1 + y 0~v2 ,

entonces se tiene

(x x0 )~v1 + (y y 0 )~v2 = ~0,

y como ~v1 y ~v2 son independientes, necesariamente x x0 = y y 0 = 0, es decir, x = x0 , y = y 0 ;


luego ~v se escribe solo de una forma con respecto a los vectores de G0 .
Generalizando lo razonado para el ejemplo a un espacio vectorial cualquiera, observamos que
para evitar que un vector pueda expresarse de mas de una forma como combinaci on lineal de los

50
vectores de un sistema generador, hay que exigir a estos que sean linealmente independientes.
Esto da lugar a la definicion de base. Se dice que un conjunto de vectores B = {~x1 , . . . , ~xn } V
es una base de V cuando B es un sistema generador y libre. A nadir la propiedad de independencia
lineal a la de generador implica que cada vector ~v V puede expresarse de una y solo una manera
como combinacion de los vectores de una base.
A todo esto hay que a nadir dos cosas: la primera es que podemos tener mas de una base en
un espacio vectorial de generacion finita. As, en el ejemplo anterior, G0 forma una base, pero
tambien G00 = {~v1 , ~v3 } forma una base, o tambien G000 = {~v2 , ~v3 }. Lo segundo a mencionar es el
llamado teorema de la base:

Teorema 2. Todas las bases de un espacio vectorial de generacion finita V son finitas y poseen el
mismo n
umero de elementos. Este n
umero se denomina dimension del e. v. V y se escribe dimK V .

Ejemplos.

(1) Bases can onicas (vease el ejercicio 1). Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
constituyen un sistema generador de R3 . Ademas, son linealmente independientes, pues cualquier
combinacion lineal nula de ellos

1 (1, 0, 0)T + 2 (0, 1, 0)T + 3 (0, 0, 1)T = (0, 0, 0)T ,

genera un sistema lineal de tres ecuaciones trivial con 1 = 2 = 3 = 0. De este modo, forman
una base de R3 llamada base canonica. Por tanto dimR R3 = 3.

(2) En general, la base canonica de Rn como espacio vectorial sobre R es el conjunto de n vectores,

~e1 = (1, 0, 0, . . . , 0)T


~e2 = (0, 1, 0, . . . , 0)T
.. ..
. .
~en = (0, 0, 0, . . . , 1)T ,

de modo que dimR Rn = n, n = 1, 2, . . ..

(3) En el espacio de los polinomios de grado menor o igual que un entero no negativo n y
coeficientes reales, denotado por Pn [X], la base canonica viene dada por los monomios

1, x, x2 , . . . , xn ,

de manera que dimR Pn [X] = n + 1, n = 0, 1, . . ..

Las siguientes propiedades establecen las formas para obtener bases de sistemas generadores
y de sistemas libres.

Teorema 2. Sea V un espacio vectorial de dimension n. Se satisfacen las siguientes propiedades:


1. Un sistema generador G V es una base si y solo si no se puede reducir a un nuevo sistema
generador.

2. Siempre se puede obtener una base B de un sistema generador, descartando vectores si es


necesario.

51
3. Si G es un sistema generador, entonces tiene como mnimo n elementos. Ademas, G es una
base si y solo si contiene exactamente n elementos.

4. Un sistema libre L V es una base si y solo si no se puede ampliar a otro sistema libre.

5. Cualquier sistema libre se puede extender a una base, a


nadiendo mas vectores si es necesario.

6. Si L es un sistema libre, entonces tiene a lo sumo n elementos. Ademas, L es una base si y


solo si tiene exactamente n elementos.

7. Todo subespacio W de V tiene dimension menor o igual que n. Si la dimension de W es n,


entonces W = V .

Por tanto, una base es un conjunto independiente maximo. No puede ser mas grande porque
entonces perdera la independencia (propiedad 4 del Teorema 2). No puede ser menor porque
entonces no generara todo el espacio (propiedad 1 del Teorema 2).
En terminos generales, para determinar si un conjunto de vectores forma una base, hemos
de comprobar que es un sistema generador y que es un sistema libre. Sin embargo, los distintos
resultados del Teorema 2 tienen su aplicacion a la hora de determinar bases de un espacio vectorial.
En este sentido, las propiedades 3 y 6 son bastante u tiles cuando se conoce la dimension del
espacio en el que esta uno trabajando. As, la propiedad 3 dice, por ejemplo, que si tenemos
tres vectores en R3 que forman un sistema generador, entonces directamente forman una base,
pues su numero es exactamente la dimension de R3 . Nos ahorramos entonces comprobar que son
linealmente independientes. Igualmente, si uno conoce dos vectores en R2 que son linealmente
independientes, la propiedad 6 nos dice que entonces forman una base. No es necesario por tanto
estudiar si generan todo R2 .

3.2.3. Coordenadas de un vector respecto a una base. Cambio de base


Hemos visto que lo que hace el concepto de base algo u til es que recurriendo a una de ellas,
cualquier vector queda identificado mediante los coeficientes de la u nica combinaci on lineal que
lo expresa en funcion de los vectores de aquella. A estos coeficientes se les llama coordenadas. En
un e. v. de dimension finita, si se dispone de una base, conocer un vector viene a ser lo mismo
que conocer sus coordenadas en la base.
Sea V un e. v. sobre K con dim(V ) = n y sea B = {~b1 , ~b2 , . . . , ~bn } una base de V . Cada vector
~x V se puede escribir de forma u nica como combinaci on lineal de los elementos de B:

~x = x1~b1 + x2~b2 + + xn~bn .

Se dice que x1 , x2 , . . . , xn son las coordenadas del vector ~x respecto de la base B. Cuando se
sobreentiende cual es la base B, se suele escribir ~x = (x1 , x2 , . . . , xn )T o bien, en otro caso,
M (~x, B) = (x1 , x2 , . . . , xn )T .
Por ejemplo, el vector ~v = (1, 2, 3)T tiene coordenadas en la base canonica

~v = ~e1 + 2~e2 + 3~e3 .

Si se dispone de dos bases B y B 0 en un mismo e. v. V , cada vector ~x V tendr a dos


sistemas de coordenadas, uno respecto de cada base. Si se conoce una base respecto de la otra,

52
va a ser posible relacionar unas coordenadas con otras; las relaciones que ligan a los dos sistemas
de coordenadas se llaman ecuaciones del cambio de base.
Pongamos primero un ejemplo. Como hemos visto, dada la base canonica B = {~e1 , ~e2 , ~e3 } de
R , el vector ~v = ~e1 + 2~e2 + 3~e3 tiene por coordenadas ~v = (1, 2, 3)T en la base B. Consideramos
3

ahora otra base de R3 , por ejemplo B 0 = {~v1 , ~v2 , ~v3 }, donde ~v1 = (1, 1, 0)T , ~v2 = (0, 1, 1)T , ~v3 =
(1, 1, 1)T . Nuestro problema es expresar el vector ~v con respecto a la nueva base B 0 , es decir,
calcular sus coordenadas en esta base. Imaginemos que tales coordenadas son

~v = x01~v1 + x02~v2 + x03~v3 .

Observemos que los vectores de B 0 se expresan con respecto a la base canonica B del siguiente
modo:

~v1 = (1, 1, 0)T = ~e1 + ~e2 ,


~v2 = (0, 1, 1)T = ~e2 ~e3 ,
~v3 = (1, 1, 1)T = ~e1 + ~e2 ~e3 .

Sustituyendo, se tiene:

~v = x01~v1 + x02~v2 + x03~v3 = x01 (~e1 + ~e2 ) + x02 (~e2 ~e3 ) + x03 (~e1 + ~e2 ~e3 )
= (x01 x03 )~e1 + (x01 + x02 + x03 )~e2 + (x02 x03 )~e3 .

pero, por otro lado,

~v = (1, 2, 3)T = ~e1 + 2~e2 + 3~e3 .

Tenemos entonces dos expresiones de un mismo vector en la base B; deben por tanto coincidir.
Entonces,

x01 x03 = 1
x01 + x02 + x03 = 2
x02 x03 = 3.

Es decir, que las nuevas coordenadas satisfacen el sistema



1 0 1 x01 1
1 1 1 x02 = 2 ,
0 1 1 x03 3

que, resolviendo, proporciona los valores x01 = 5, x02 = 7, x03 = 4 y M (~v , B) = (5, 7, 4)T . Hay
que fijarse en la matriz del sistema: su primera columna esta formada por las coordenadas del
vector ~v1 en la base B, la segunda columna esta formada por las coordenadas del vector ~v2 en la
base B y la tercera tiene por elementos las coordenadas del vector ~v3 en la base B.
Este procedimiento se puede generalizar. Sea V un e. v. sobre K de dimension n. Sea B =
{b1 , ~b2 , . . . , ~bn } una base de V , en las que las coordenadas de un vector ~x V se denotan por
~
M (~x, B) = (x1 , x2 , . . . , xn )T . Sea B 0 = {~b01 , ~b02 , . . . , ~b0n } otra base de V , en la que las coordenadas

53
de ~x V se denotan por M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T . Supongamos que se conocen los vectores
de B 0 en funcion de los de B, es decir,
~b0 = q11~b1 + q21~b2 + + qn1~bn
1
~b0 = q12~b1 + q22~b2 + + qn2~bn
2
.. .
. = ..
~b0 = q1n~b1 + q2n~b2 + + qnn~bn .
n

Entonces, las coordenadas M (~x, B) = (x1 , x2 , . . . , xn )T vendran, en funcion de las coordenadas


M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T , dadas por las formulas
x1 = q11 x01 + q12 x02 + + q1n x0n
x2 = q21 x01 + q22 x02 + + q2n x0n
.. .
. = ..
xn = qn1 x01 + qn2 x02 + + qnn x0n ,
que matricialmente se escribe

q11 q12 q1n
q21 q22 q2n
M (~x, B) = QM (~x, B 0 ), Q = M (B 0 , B) =

.

qn1 qn2 qnn
La matriz Q se llama matriz de cambio de base de B 0 a B y es una matriz invertible. Como ha
mostrado la construccion del sistema, hay que observar que las columnas de Q = M (B 0 , B) son
las coordenadas de los vectores de la base B 0 con respecto a la base B. Precisamente, su matriz
inversa es la matriz del cambio de coordenadas inverso, de B a B 0 , es decir
M (~x, B 0 ) = Q1 M (~x, B) = M (B, B 0 )M (~x, B).
Este es, con frecuencia, el problema a resolver.

Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la base B 0 = {~v1 , ~v2 , ~v3 }, donde
~v1 = (1, 2, 0)T , ~v2 = (3, 7, 1)T , ~v3 = (0, 2, 1)T . La base de referencia donde esta dispuesto el
vector ~x es la base canonica. La relacion entre las dos bases es
~v1 = ~e1 + 2~e2
~v2 = 3~e1 7~e2 + ~e3
~v1 = 2~e2 + ~e3 .
Entonces la matriz de cambio de base es

1 3 0
Q = 2 7 2 .
0 1 1
Luego, las nuevas coordenadas M (~x, B 0 ) = (x01 , x02 , x03 )T deben verificar el sistema lineal

3 1 3 0 x01
2 = 2 7 2 x0 ,
2
1 0 1 1 x03
que, resolviendo, nos da x01 = 3, x02 = 2, x03 = 3.

54
3.3. Subespacios fundamentales de una matriz
3.3.1. Definici
on y propiedades
Pasamos ahora a describir un procedimiento para resolver en la practica varios problemas que
se han ido planteando en secciones anteriores. Concretamente:

1. Como describir los subespacios de un espacio vectorial de dimension finita.

2. Como determinar una base de un subespacio.

3. Como obtener una base de un sistema generador dado.

4. Como formar una base a partir de un sistema libre dado.

Con respecto al problema 1, generalmente los subespacios (que no sean el formado exclusiva-
mente por el vector nulo) se describen de dos maneras. La primera consiste en dar un sistema de
generadores del subespacio (en particular, una base) que pueden disponerse como el espacio fila o
el espacio columna de una matriz. En la segunda, podemos dar una lista de restricciones acerca del
subespacio; en lugar de decir cuales son los vectores en el subespacio, se dicen las propiedades que
deben satisfacer. Generalmente estas restricciones vienen dadas mas o menos explcitamente por
un conjunto de ecuaciones lineales, de modo que el subespacio queda descrito como el conjunto
de soluciones de un sistema lineal homogeneo A~x = ~0 y cada ecuacion del sistema representa una
restriccion. En el primer tipo puede haber filas o columnas redundantes y en el segundo puede
haber restricciones redundantes. En ninguno de los dos casos es posible dar una base (resolver el
problema 2) por mera inspeccion, es necesario alg un procedimiento sistematico.
El metodo que aqu explicaremos esta basado en el proceso de eliminacion gaussiana de una
matriz A dado en el tema 1 y la matriz U escalonada superior que quedaba asociada a esta al
final del proceso. Con este procedimiento vamos tambien a poder resolver los problemas 3 y 4 y
el problema a nadido de como pasar de una representaci on de un subespacio a la otra.

Definicion. Supongamos que reducimos una matriz A Mm,n (K) mediante operaciones elemen-
tales a una matriz U de forma escalonada. Llamemos r al n umero de pivotes de U , de tal modo
que las u
ltimas m r filas de U son identicamente nulas. A este n
umero r se le llama rango de
la matriz A.

Hay una relacion entre el rango r y la independencia lineal: precisamente, r es el n


umero de
filas linealmente independientes de la forma escalonada U .
Los subespacios fundamentales de una matriz A Mm,n (K) son los siguientes:

1. Espacio fila f il(A): es el espacio generado por las filas de A.

2. Espacio nulo Ker(A) = {~x/A~x = ~0}.

3. Espacio columna col(A): es el espacio generado por las columnas de A.

4. Espacio nulo por la izquierda Ker(AT ) = {~x/AT ~x = ~0}.

La relacion entre los subespacios fundamentales de una matriz y los subespacios vectoriales es
la siguiente: si el subespacio viene dado por un sistema de generadores, sera el espacio fila (o el
espacio columna) de la matriz cuyas filas (o columnas) sean los vectores del sistema generador. Si

55
el subespacio viene dado por un conjunto de restricciones, se escribira como el espacio nulo o el
espacio nulo por la izquierda de una matriz, la del sistema homogeneo dado por las restricciones.
Queda claro entonces que para determinar una base de un subespacio tenemos que analizar
la manera de determinar una base de los subespacios fundamentales de una matriz. En ello
tendra que ver su forma escalonada obtenida por eliminacion gaussiana.

1. Espacio fila de A. La eliminacion act


ua en A para producir una matriz escalonada U ; el
espacio fila de U se obtiene directamente: su dimension es el rango r y sus filas distintas de cero
constituyen una base. Ahora bien, cada operacion elemental no altera el espacio fila, pues cada
fila de la matriz U es una combinacion de las filas originales de A. Como al mismo tiempo cada
paso puede anularse mediante una operacion elemental, entonces

f il(A) = f il(U ),

por tanto, f il(A) tiene la misma dimension r y la misma base. Hay que notar que no comen-
zamos con las m filas de A, que generan el espacio fila y descartamos m r para obtener una
base. Podramos hacerlo, pero puede ser difcil decidir cuales filas descartar; es mas sencillo tomar
simplemente las filas de U distintas de cero.

Ejemplo. Determina una base del subespacio de R4 generado por los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 4, 2, 3)T .
Disponemos los vectores generadores como las filas de una matriz

1 1 0 1
A = 1 2 2 1.
3 4 2 3

El subespacio es entonces el espacio fila de A. Reducimos por eliminacion gaussiana,



1 1 0 1 1 1 0 1 1 1 0 1
A = 1 2 2 1 0 1 2 0 0 1 2 0 = U.
3 4 2 3 0 1 2 0 0 0 0 0

Puesto que U tiene dos pivotes, r = 2, de modo que la dimension del subespacio es dos. Como
una base de f il(U ) lo forman las dos primeras filas, lo mismo ocurre con f il(A), de manera que
una base del subespacio es w~ 1 = (1, 1, 0, 1)T , w
~ 2 = (0, 1, 2, 0)T .

2. Espacio nulo de A. Es el formado por los vectores ~x tales que A~x = ~0. En la eliminacion
gaussiana se reduce el sistema A~x = ~0 al sistema U~x = ~0 precisamente sin alterar ninguna de las
soluciones. Por tanto, el espacio nulo de A es el mismo que el de U ,

Ker(A) = Ker(U ).

De las m aparentes restricciones impuestas por las m ecuaciones A~x = ~0 solo r son independientes,
especificadas precisamente por las r filas de U distintas de cero. As, el espacio nulo de A tiene
dimension nr, que es el numero de variables libres del sistema reducido U~x = ~0, correspondientes
a las columnas de U sin pivotes. Para obtener una base, podemos dar el valor 1 a cada variable
libre, cero a las restantes y resolver U~x = ~0 para las r variables basicas por sustitucion regresiva.
Los n r vectores as producidos forman una base de Ker(A).

56
Ejemplo. Determina una base del subespacio W de R4 , formado por los vectores ~x = (x1 , x2 , x3 , x4 )T
tales que

x1 + x2 x3 + 2x4 = 0
2x1 2x2 + x3 = 0
5x1 5x2 + 3x3 2x4 = 0

Se tiene que W = {~x R4 /A~x = ~0} donde



1 1 1 2
A= 2 2 1 0 .
5 5 3 2

La eliminacion gaussiana lleva a que W = Ker(U ) donde



1 1 1 2
U= 0 0 1 4 .
0 0 0 0

Como en este caso n = 4 y r = 2, la dimension de W es n r = 2. Las variables basicas son x1


y x3 y las libres x2 y x4 . El sistema U~x = ~0 queda

x1 + x3 = x2 + 2x4
x3 = 4x4

Dando los valores x2 = 1, x4 = 0, tenemos el vector ~v1 = (1, 1, 0, 0)T . Con los valores x2 = 0, x4 =
1 se obtiene ~v2 = (2, 0, 4, 1)T . Los vectores ~v1 , ~v2 forman una base de W .

3. Espacio columna de A. Podramos tener en cuenta que las columnas de A son las filas
de AT y actuar sobre AT . Es mejor, sin embargo, estudiar el espacio columna en terminos de los
numeros originales m, n y r.
Es importante destacar que A no tiene el mismo espacio columna que U . La eliminacion
gaussiana altera las columnas. Sin embargo, cada vez que ciertas columnas de U formen una base
del espacio columna de U , las correspondientes columnas de A forman una base del espacio
columna de A.
La razon es la siguiente: sabemos que A~x = ~0 si y solo si U~x = ~0. Los dos sistemas son equiva-
lentes y tienen las mismas soluciones. En terminos de multiplicaci on de matrices, A~x = ~0 expresa
una dependencia lineal entre las columnas de A, con coeficientes dados por las coordenadas de ~x.
Por tanto, cada una de estas dependencias corresponde a una dependencia lineal U~x = ~0 entre las
columnas de U y con los mismos coeficientes. Si el conjunto de columnas de A es independiente,
lo mismo es valido para las columnas de U y viceversa.
Ahora, para encontrar una base de col(A), partimos de encontrar una base de col(U ). Pero
una base de col(U ) la forman las r columnas de U que contienen los pivotes. As, tenemos:
La dimension de col(A) es igual al rango r, que es la dimension de f il(A): en cualquier matriz,
el n
umero de filas independientes es igual al n umero de columnas independientes. Una base de
col(A) esta formada por aquellas r columnas de A correspondientes, en U , a las columnas que
contienen los pivotes.

57
Ejemplo. Para la matriz

1 2 0 1

A= 0 1 1 0,
1 2 0 1
la eliminacion gaussiana lleva a que

1 2 0 1

U= 0 1 1 0.
0 0 0 0
Para U , las columnas con pivote son la primera y la segunda, luego una base de col(A) esta for-
mada por las dos primeras columnas de A: (1, 0, 1)T , (2, 1, 2)T .

4. Espacio nulo por la izquierda de A. Es el espacio nulo de AT . Como para cualquier


matriz, se tiene que

dimension del espacio columna+dimension del espacio nulo =n


umero de columnas,

esta regla puede aplicarse a AT , que tiene m columnas. Como rango fila=rango columna = r,
entonces dimKer(AT ) = m r. Se puede determinar una base de Ker(AT ) de la misma manera
que se ha hecho con el espacio nulo de A.

Ejercicio. Determina una base de los cuatro subespacios elementales de la matriz



2 4 0 2
6 2 1 0
A=
8
.
2 1 2
4 1 3 5

Explicado el procedimiento para obtener una base de un subespacio, resolvemos los problemas
pendientes.
Para obtener una base de un sistema generador (problema 3), basta con hallar una base del
espacio fila de la matriz cuyas filas son los vectores generadores.

Ejemplo. Obtenemos una base del subespacio generado por el sistema de generadores de R3 :
~v1 = (1, 2, 1)T , ~v2 = (3, 2, 1)T , ~v3 = (4, 0, 0)T , ~v4 = (1, 2, 1)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada

1 2 1 1 2 1 1 2 1
3 2 1 0 4 2 0 4 2

4 0 0 0 8 4 0 0 0
1 2 1 0 4 2 0 0 0
La dimension del espacio fila es dos, luego de los cuatro vectores solo dos son independientes.
Una base del subespacio lo forman los vectores (1, 2, 1)T , (0, 4, 2)T .

Para obtener una base de un espacio vectorial a partir de un sistema libre (problema 4) basta
con ampliar el espacio fila correspondiente con vectores que van siendo independientes, hasta
completar la dimension.

58
Ejemplo. Completamos a una base de R4 a partir de los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 0, 2, 3)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada.

1 1 0 1 1 1 0 1 1 1 0 1
1 2 2 1 0 1 2 0 0 1 2 0.
3 0 2 3 0 3 2 0 0 0 8 0

nadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos que la dimension
Si a
del espacio fila de la matriz que forman los tres primeros vectores y este cuarto es cuatro, luego
un vector que completa a una base es, por ejemplo, (0, 0, 0, 1)T .

Para calcular las ecuaciones de un subespacio a partir de un sistema generador, se dispone el


sistema generador como las filas de una matriz, y a esta se a
nade una fila con un vector generico.
Se reduce la matriz as formada por eliminacion gaussiana, obligando a que se anulen las u
ltimas
filas de la forma escalonada final.

Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores ~v1 = (1, 0, 3)T , ~v2 =
(2, 3, 1)T .
Disponemos los vectores como las filas de una matriz, a nadiendo una tercera fila con un vector
generico (x, y, z)T del subespacio y reducimos a forma escalonada:

1 0 3 1 0 3 1 0 3
2 3
1 0 3 5
0 3 5
x y z 0 y z 3x 0 0 z 3x (5/3)y

Como el vector (x, y, z)T esta en el subespacio, la dimension del espacio fila de la matriz ha de
ser dos, luego la u
ltima fila de la forma escalonada tiene que ser nula. Por tanto, el subespacio es

W = {(x, y, z)T /z 3x (5/3)y = 0}.

Al reves, para dar un sistema generador a partir de las ecuaciones de un subespacio, basta
con calcular una base del espacio nulo de la matriz del sistema de ecuaciones.

3.4. Operaciones con subespacios


Una vez que sabemos determinar una base de un subespacio vectorial, nos queda operar con
ellos. Basicamente, se pueden realizar dos operaciones con subespacios: intersecciones y sumas.

3.4.1. Intersecci
on de subespacios
Sea V un e. v. y W1 , W2 subespacios vectoriales de V . La intersecci on W = W1 W2 es el
conjunto de vectores de V que estan a la vez en W1 y W2 . No es difcil ver que W es un subespacio
vectorial. Notese que la interseccion cualquiera es no vaca, pues al menos el vector nulo esta en
W.
Para describir la interseccion de subespacios, la manera mas natural es poner cada subespacio
en forma de un sistema de ecuaciones homogeneo. La intersecci on sera aquel subespacio que
verifique todas las restricciones a la vez.

59
Ejemplo. Para los subespacios

W1 = {(x, y, z)T /x + y + z = 0}
W2 = {(x, y, z)T /x z = 0}

el subespacio W1 W2 es

W1 W2 = {(x, y, z)T /x + y + z = 0, x z = 0}

3.4.2. Suma de subespacios


Sea V un e. v. y W1 , W2 subespacios vectoriales de V . Observemos que, en general, la union
de subespacios W1 W2 (el conjunto de vectores que estan en algunos de los dos subespacios)
no es un subespacio vectorial. Por ejemplo, si W1 es el subespacio de R2 generado por el vector
~ 1 = (1, 0)T y W2 es el subespacio generado por w
w ~ 2 = (0, 1)T , naturalmente los vectores w
~1 y w
~2
estan en W1 W2 , pero la suma w~1 + w~ 2 = (1, 1)T no esta en W1 W2 .
Se puede definir, sin embargo, la suma de subespacios W = W1 + W2 como el subespacio
generador por la union W = hW1 W2 i.
Contrariamente a la interseccion, una manera sencilla de describir el subespacio suma con-
siste en determinar un sistema generador o una base de cada subespacio y quedarse con los
independientes, obteniendose de esta manera una base del subespacio suma.

Ejemplo. Obtenemos una base del subespacio suma W1 + W2 donde

W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0}.

Una base de W1 es w ~ 1 = (1, 1, 0)T y de W2 , w


~ 2 = (1, 0, 0)T , w
~ 3 = (0, 1, 0)T . Entonces, w~ 1, w
~2
yw~ 3 forman un sistema generador de W1 + W2 . Ahora, el vector w ~ 1 depende de los otros dos,
luego una base del subespacio suma esta formado por w ~ 2 = (1, 0, 0)T , w~ 3 = (0, 1, 0)T . Es decir,
W1 + W2 = W2 .

La forma de determinar una base del subespacio suma muestra que todo vector w ~ de W =
W1 + W2 puede escribirse como suma w ~ =w ~1 + w~ 2 donde w~ 1 W1 y w
~ 2 W2 .
Cuando los subespacios solo tiene en com un el vector nulo, W1 W2 = {~0}, el subespacio suma
se denomina suma directa de W1 y W2 y se denota por W = W1 W2 . En este caso, los vectores
componentes w~ 1, w
~ 2 de la descomposicion w ~ =w ~1 + w~ 2 de cualquier vector w
~ de la suma que
mencionabamos antes son u nicos: los vectores de W s olo pueden descomponerse de una forma.

Ejercicio. Determina una base del subespacio suma de

W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0},

~ = (1, 1, 2)T como suma de un vector de W1 y otro de W2 .


y escribe el vector w
Respecto a las dimensiones de los subespacios suma e intersecci
on, se tiene el siguiente resul-
tado:

60
F
ormula de las dimensiones. Si W1 y W2 son dos subespacios vectoriales de dimension finita

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).

En particular, si W1 W2 = {~0},

dim(W1 W2 ) = dim(W1 ) + dim(W2 ).

3.5. Aplicaciones lineales


Se pueden establecer relaciones entre espacios vectoriales, a traves de las llamadas aplicaciones
lineales. Antes de dar la definicion formal, vamos a mostrar algunos ejemplos para intentar explicar
que significa que una aplicacion entre espacios vectoriales sea lineal.
En el plano R2 pueden darse varias transformaciones, con interpretaci on geometrica, entre
vectores. Por ejemplo, se puede aumentar o reducir de tama no un vector (homotecias).





~v = (x, y) T~v = ( 21 x, 12 y) T ~
v = (2x, 2y)








Desde el punto de vista algebraico, esto significa multiplicar cada componente del vector por
una constante R. Si 0 < < 1, el vector se reduce de tama no, si > 1, aumenta. En el caso
de que < 0, el vector cambia ademas de sentido. Todo ello genera una transformacion entre
vectores (homotecia de centro el origen y razon ),
2 2
T : R
R
x x
7 T (x, y) = .
y y

Este es un primer ejemplo de una transformacion lineal entre espacios vectoriales. Se dice que es
lineal por lo siguiente: si uno toma una combinaci on de dos vectores cualesquiera y le aplica la
homotecia, el vector resultante es el mismo que si aplicamos primero la homotecia a los vectores
originales y luego hacemos la combinaci on lineal a los vectores transformados. Fijemonos por
u
ltimo en que la aplicacion se puede escribir como el producto de una matriz por el vector
generico, en la forma

x x 0 x
7 T (x, y) = = .
y y 0 y

El siguiente ejemplo tiene tambien su interpretaci


on geometrica. Se trata de girar los vectores
del plano un angulo determinado .

61

T (~
v)

~v = (x, y)
*






Para dar una expresion a esta tranformacion entre vectores podemos hacer uso de los numeros
complejos que tratamos en el tema preliminar. Recordemos que un vector en el plano con base
en el origen y coordenadas ~v = (x, y)T representa tambien el complejo z = x p+ iy o, en forma
trigonometrica z = r cos + ir sin , donde x = r cos , y = r sin , r = |z| = x2 + y 2 y es el
argumento principal de z. Observemos entonces que un giro de angulo proporciona un nuevo
vector, es decir, un nuevo complejo, cuyo modulo es similar al del vector de inicio, mientras que
uno de sus argumentos se obtiene sumando al argumento . De este modo, el nuevo complejo
puede escribirse
T (z) = r cos ( + ) + ir sin ( + ),
es decir, el vector transformado tiene por coordenadas
T (~v ) = (r cos ( + ), r sin ( + ))T .
En terminos de las componentes originales x e y, hay que tener en cuenta que x = r cos , y =
r sin y las relaciones
cos( + ) = cos() cos() sin() sin(),
sin( + ) = cos() sin() + sin() cos().
Podemos entonces escribir que

T cos sin x
T (~v ) = T (x, y) = (x cos() y sin(), x sin() + y cos()) = ,
sin cos y
transformacion que se expresa como producto de una matriz por el vector de salida. La aplicacion
2 2
T : R
R
x cos sin x
7 T (x, y) =
y sin cos y
es lineal. Esto puede razonarse como antes. Si combinamos dos vectores y el vector resultante gira
un angulo , el resultado es el mismo que si primero giramos los vectores originales un angulo
y luego hacemos la combinacion lineal a los vectores resultantes del giro.
Naturalmente, no todas las aplicaciones son lineales. Por ejemplo, otra de las transformaciones
que pueden hacerse en R2 es a nadir una cantidad fija a cada componente , 6= 0 de los vectores.
Por ejemplo, podemos generar la aplicacion
2 2
T : R
R
x x+1
7 T (x, y) = .
y y+1

62
Esta transformacion no es lineal. Si, por ejemplo, sumamos dos vectores y a la suma se anade el
vector (, )T = (1, 1)T , el resultado no es el mismo que si primero a
nadimos (, )T = (1, 1)T a
los vectores originales y luego sumamos. Hay que observar tambien que esta transformacion no
puede escribirse como producto matriz por vector.
Estos ejemplos pretenden mostrar que para que una aplicacion entre espacios vectoriales sea
lineal, su actuacion sobre los vectores debe conmutar con las operaciones de los subespacios:
combinar los vectores y transformar debe dar el mismo resultado que transformar primero los
vectores y luego combinarlos.

3.5.1. Definici
on y propiedades
Para un uso en posteriores lecciones, introducimos aqu el concepto de aplicacion lineal, que
permite establecer relaciones entre los espacios vectoriales. Dados dos espacios vectoriales U y V
sobre un mismo cuerpo K, se dice que una transformacion T : U V es lineal cuando

(i) T (~x + ~y ) = T (~x) + T (~y ), ~x, ~y U .

(ii) T (~x) = T (~x), ~x U, K.

Esto es

T (1 ~x1 + + m ~xm ) = 1 T (~x1 ) + + m T (~xm ),


1 , . . . , m K, ~x1 , . . . , ~xm U.

Ejemplos. Con la definicion, se puede comprobar que las aplicaciones siguientes

(1) T : R3 R3 , T ((x, y, z)T ) = (x + y, y + z)T .

(2) T : P3 [X] P2 [X], T (p(x)) = p0 (x),


son lineales.

Con las aplicaciones lineales se pueden realizar tres operaciones:

Suma: si T, S : U V son aplicaciones lineales, entonces la aplicacion T + S : U V ,


(T + S)(~x) = T (~x) + S(~x) es una aplicacion lineal.

Producto: si T : U V es una aplicacion lineal y K, entonces la aplicacion (T ) : U


V , (T )(~x) = T (~x) es lineal.

Composicion: si U, V, W son espacios vectoriales, T : U V , S : V W son aplicaciones


lineales, entonces la aplicacion S T : U W , (S T )(~x) = S(T (~x)) es una aplicacion
lineal.

Asociada a una aplicacion lineal, T : U V hay dos subespacios destacables:

N
ucleo: Ker(T ) = {~x U/T (~x = 0} U ,

Imagen: Im(T ) = {~y V / existe ~x U con T (~x) = ~y } V .

63
3.5.2. Matriz de una aplicaci
on lineal. Cambio de base
En espacios de dimension finita, para manejarse con aplicaciones lineales, es mejor utilizar
coordenadas. Ello va a permitir relacionar las aplicaciones lineales con las matrices, lo que hace
mas sencillo el uso de las primeras.
Sean U y V espacios vectoriales de dimension finita sobre un mismo cuerpo K. Sean BU =
{~u1 , . . . , ~un }, BV = {~v1 , . . . , ~vm } bases en U y V respectivamente. Sea T : U V una aplicacion
lineal. Se define la matriz de la aplicacion lineal T en dichas bases como la matriz M (T, BU , BV )
Mm,n (K) cuyas columnas son las coordenadas de las imagenes por T de los vectores de la base
de partida BU , expresadas en la base de llegada BV , esto es

M (T, BU , BV ) = [M (T (~u1 ), BV ) M (T (~un ), BV )].

Ejemplos.

[1] Para la aplicacion lineal T : R4 R3 , T (x1 , x2 , x3 , x4 ) = (x1 +x2 +x3 , x2 +x4 , x1 +x2 +x3 +x4 ),
se tiene que, en las bases canonicas

1 1 1 0
c c
M (T, BR 4 , B R3 ) = 0 1 0 1.
1 1 1 1
La razon es la siguiente: la primera columna de la matriz corresponde al vector imagen por T del
primer vector de la base canonica en R4 , escrito con respecto a la base canonica en R3 , esto es

T ((1, 0, 0, 0)T ) = (1, 0, 1)T ,

(imagen del vector de coordenadas x1 = 1, x2 = 0, x3 = 0, x4 = 0). As, las otras columnas se


obtienen como

T ((0, 1, 0, 0)T ) = (1, 1, 1)T ,


T ((0, 0, 1, 0)T ) = (1, 0, 1)T ,
T ((0, 0, 0, 1)T ) = (0, 1, 1)T .

[2] Para la aplicacion lineal T : P4 [X] P3 [X], T (p(x)) = p0 (x) se tiene que en las bases canonicas

BPc 4 [X] = {1, x, x2 , x3 , x4 }, BPc 3 [X] = {1, x, x2 , x3 },

la matriz de T es

0 1 0 0 0
0 0 2 0 0
M (T, BPc 4 [X] , BPc 3 [X] ) =
0
.
0 0 3 0
0 0 0 0 4
Veamos como se van generando las columnas. La primera es la imagen por T del primer vector, el
polinomio p(x) = 1. Como p0 (x) = 0, entonces T (p(x)) es el polinomio nulo, luego sus coordenadas
son todas nulas en cualquier base. La segunda columna de la matriz es la imagen por T del
polinomio p(x) = x. esto es

T (p(x)) = p0 (x) = 1 = 1 + 0x + 0x2 + 0x3 ,

64
de coordenadas (1, 0, 0, 0) en la base canonica de P3 [X]. Estas coordenadas forman la segunda
columna de la matriz. As sucesivamente,

T (x2 ) = 2x = 0 1 + 2x + 0x2 + 0x3 (0, 2, 0, 0),


T (x3 ) = 3x2 = 1 = 0 1 + 0x + 3x2 + 0x3 (0, 0, 3, 0),
T (x4 ) = 4x3 = 0 1 + 0x + 0x2 + 4x3 (0, 0, 0, 4),

vamos generando las columnas de la matriz.


Hay que destacar tres cosas importantes:
(i) La matriz de una aplicacion M (T, BU , BV ) tiene tantas filas como la dimension del espacio
de llegada V y tantas columnas como la dimension del espacio de partida U (veanse los
ejemplos anteriores).

(ii) La expresion de la matriz depende de las bases elegidas: si cambian las bases, cambia la
matriz. Insistiremos mas adelante sobre ello.

(iii) En la practica, fijadas bases en U y V , podemos expresar la aplicacion lineal como un


producto matriz por vector: si ~x = x1 ~u1 + + xn ~un , siendo (x1 , . . . , xn )T las coordenadas
del vector ~x en la base BU , entonces, como T es lineal

x1
x2

T (~x) = x1 T (~u1 ) + + xn T (~un ) = M (T, BU , BV ) .. .
.
xn
Esto facilita el manejo de las aplicaciones lineales. As, en el ejemplo [1] anterior

x
1 1 1 0 1
x2

T (x1 , x2 , x3 , x4 ) = 0 1 0 1 x3 ,
1 1 1 1
x4

y en el ejemplo [2], si p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ,



a
0 1 0 0 0 0
0 0 2 0 0 a1
T (p(x)) =
a ,

0 0 0 3 0 2
a3
0 0 0 0 4
a4

que es el polinomio a1 + 2a2 x + 3a3 x2 + 4a4 x3 .

Cambio de base en las aplicaciones lineales

Ya hemos comentado que al cambiar las bases en los espacios vectoriales cambia la matriz
de la aplicacion lineal. Veamos como afectan los cambios de base. Consideremos una aplicacion
lineal T : U V de la que conocemos su matriz asociada M (T, BU , BV ) cuando fijamos las
bases BU , BV . Imaginemos que cambiamos las bases a BU0 , BV0 y queremos determinar la matriz
asociada a T en estas bases, M (T, BU0 , BV0 ). Planteamos el siguiente esquema

65
M (T, BU , BV ) - VB T (~
UBU V
x)
6 6

M (BU0 , BU ) M (BV0 , BV )

M (T, BU0 , BV0 )


-
UBU0 VBV0
~x

Las flechas a la izquierda y a la derecha son las que llevan, respectivamente, un vector escrito
en la base BU0 en el mismo vector expresado ahora en la base BU y cualquier vector escrito en
la base BV0 en el mismo vector expresado ahora en la base BV . Ambas transformaciones vienen
entonces dadas por las correspondientes matrices de cambio de base M (BU0 , BU ), M (BV0 , BV ) de
las que hablamos al principio de la leccion (coordenadas de un vector respecto a una base y
cambio de base). As, por ejemplo, la flecha de la izquierda lleva un vector ~u U en

M (BU0 , BU )~u,

y la flecha de la derecha lleva un vector ~v V en

M (BV0 , BV )~v .

Por otro lado, las flechas de arriba y de abajo corresponden a la aplicacion lineal T pero en bases
distintas. Supongamos que conocemos la matriz asociada a T arriba, es decir M (T, BU , BV ), pero
no la de abajo M (T, BU0 , BV0 ), que es la que queremos calcular.
Fijemonos ahora en que tiene que ser igual llevar un vector ~x U desde la esquina inferior
izquierda a su imagen T (~x) en la esquina superior derecha por los dos caminos siguientes: flecha
izquierda + flecha arriba o bien flecha abajo + flecha derecha. En terminos matriciales, el primer
camino es

M (T, BU , BV )M (BU0 , BU )~x,

y el segundo es

M (BV0 , BV )M (T, BU0 , BV0 )~x,

66
por tanto

M (T, BU , BV )M (BU0 , BU )~x = M (BV0 , BV )M (T, BU0 , BV0 )~x.

Ahora bien, el vector ~x en este razonamiento es arbitrario, de modo que la igualdad vectorial es
en realidad una igualdad matricial

M (T, BU , BV )M (BU0 , BU ) = M (BV0 , BV )M (T, BU0 , BV0 ).

De aqu despejamos la matriz que nos interesa,

M (T, BU0 , BV0 ) = M (BV0 , BV )1 M (T, BU , BV )M (BU0 , BU )


= M (BV , BV0 )M (T, BU , BV )M (BU0 , BU ).

Ejemplo. Para la aplicacion lineal T : U V , siendo U = R3 , V = R2 y las bases

BU = {(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T }, BV = {(1, 0)T , (0, 1)T }
BU0 = {(1, 0, 0)T , (1, 0, 1)T , (1, 1, 0)T }, BV0 = {(1, 1)T , (0, 1)T },

se sabe que la matriz de T en las bases BU , BV es



1 0 1
M (T, BU , BV ) = .
2 1 1
Entonces

1 1 1 1
1 0 1 0 1
M (T, BU0 , BV0 ) = 0 0 1 =?
1 1 2 1 1
0 1 0

Fijemonos entonces que una aplicacion lineal suele venir dada o bien en forma explcita, es
decir, dando su imagen para un vector generico, o bien, si hemos fijado bases, a traves de un
producto matriz por vector.
Por ultimo, la siguiente formula de dimensiones relaciona en su demostracion el n
ucleo y la
imagen de una aplicacion lineal con subespacios fundamentales de una cualquiera de sus matrices
asociadas.

Teorema 3. Sean U y V espacios vectoriales de dimension finita sobre un mismo cuerpo K y


T : U V una aplicacion lineal. Entonces

dim(U ) = dimKer(T ) + dimIm(T ).

En efecto, si n = dim(U ), m = dim(V ) y fijamos bases cualesquiera en ambos espacios, sea


A Mm,n (K) la matriz de T en tales bases. Por un lado,

dimKer(T ) = dimKer(A) = n r,

siendo r el rango de la matriz A. Por otro lado,

dimIm(T ) = dimcol(A) = r,

de donde se obtiene la formula.

67
EJERCICIOS DEL TEMA 2

Ejercicio 1. Para los siguientes espacios vectoriales E sobre R, comprueba que el conjunto de
vectores dado es una base de dicho espacio (llamada base can onica):
(1) E = Rn , B = {~e1 , , ~en }, ~ej vector de tama no n con todas sus componentes nulas excepto
la j-esima que vale 1.
(2) E = Pn [X] (conjunto de polinomios de grado menor o igual que n y coeficientes reales),
B = {1, x, , xn }.
(3) E = Mmxn (R) (conjunto de matrices de m filas y n columnas con elementos reales), B =
{A1,1 , , Am,n } con Ar,s = Ir,s (matriz de m filas y n columnas con todos sus elementos nulos
excepto el 1 de la posicion (r, s)).
(4) E = C n , B = {~e1 , , ~en , ~v1 , , ~vn } con ~vj el vector de n componentes, todas ellas nulas
salvo la j-esima que vale i y ~ej el del apartado (1).
Calcula la dimension de cada uno de ellos. Que bases canonicas se obtienen al considerar los
anteriores espacios vectoriales sobre C?.

Ejercicio 2. De los siguientes subconjuntos de R3 , identifica los que son subespacios vectoriales
de R3 , razonando tu respuesta:
(a) {(x, y, z)T /y = 0}
(b) {(x, y, z)T /x = 0, y + z = 0}
(c) {(x, y, z)T /x = y, z = 2x}

Ejercicio 3. Cuales de los siguientes subconjuntos de R4 son subespacios? Cuando lo sean halla
su dimension y una base.
a) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 x3 x4 = 0.
b) El conjunto de los vectores (x1 , x2 , x3 , x4 )T que satisfacen x1 2x2 + 4x3 x4 = 0.
c) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 = 0 y x4 = 2.

Ejercicio 4. Determina una base y la dimension de V +W y V W donde V y W est an generados


respectivamente por los vectores x1 , . . . , xk e y1 , . . . , ym siguientes:
a) x1 = [1, 2, 1, 0]T , x2 = [1, 1, 1, 1]T , y1 = [2, 1, 0, 1]T , y2 = [1, 1, 3, 7]T .
b) x1 = [1, 2, 1, 2]T , x2 = [3, 1, 1, 1]T , x3 = [1, 0, 1, 1]T , y1 = [2, 5, 6, 5]T , y2 = [1, 2, 7, 3]T .

Ejercicio 5. En R4 se consideran los subespacios:


(i) F generado por a1 , a2 , a3 con
a1 = [1, 1, 1, 3]T , a2 = [3, 2, 3, 4]T , a3 = [1, 6, 1, 8]T .
(ii) G = {[x, y, z, t]T /y t = 0, 2y + 3t = 0}.
(iii) H generado por b1 , b2 , b3 con
b1 = [0, 1, 0, 0]T , b2 = [1, 0, 1, 2]T ,b3 = [2, 0, 0, 2]T .
Calcula ecuaciones, dimension y una base de los subespacios F , G, H, F + G, F + H, F H,
F G.

Ejercicio 6. Determina si los siguientes conjuntos de vectores son libres o ligados en funcion del
valor del parametro a:
a) [1, 2, 4]T , [1, 2, a]T , [a, 8, 16]T , [1, 1, 5]T
b) [1, 1, 0, 1]T , [1, 2, 2, 1]T , [3, a, 2, 3]T
c) [1, 2, 1, 0]T , [1, 1, 1, 1]T , [a, 0, 1, 2]T , [0, 1, 1, 1]T .

68
Ejercicio 7. En el espacio de los polinomios de grado menor o igual que 2 se considera el
subespacio S generado por los polinomios 1 + 2x, 2 + x2 , 3 + 2x + x2 y 4 + 4x + x2 . Halla una
base de S y da las coordenadas del polinomio 3x2 4x + 4 en dicha base.

Ejercicio 8. Halla una base de los subespacios generados por los conjuntos de vectores siguientes,
y ampla dichas bases hasta obtener una base del espacio R4 :
a) [2, 1, 3, 0]T , [1, 0, 0, 2]T , [3, 1, 1, 1]T y [4, 1, 1, 2]T .
b) [2, 0, 1, 3]T , [1, 1, 0, 1]T , [0, 2, 1, 5]T y [3, 1, 2, 7]T .
Halla las coordenadas en las bases de R4 obtenidas en los apartados a) y b) del vector [1, 0, 2, 1]T .

Ejercicio 9. Sea P4 [X] el espacio vectorial de los polinomios de grado menor o igual que 4 con
coeficientes reales.
(1) Demuestra que B = {1, x, x(x 1), x3 , x4 } es una base de P4 [X].
Sea W el subconjunto de P4 [X] definido por
W = {p(x) P4 [X]/p(1) = p(1) = 0}.
(2) Demuestra que W es un subespacio vectorial.
(3) Encuentra la dimension y una base de W .
(4) Completa dicha base a una de P4 [X], B.
(5) Halla la matriz de cambio de base M (B, B).
(6) Encuentra un subespacio V de P4 [X] tal que P4 [X] = W V .

Ejercicio 10. Se considera el polinomio P (x) = x4 + 2x3 x2 + x 1.


a) Demuestra que los polinomios P (x), P 0 (x), P 00 (x), P 000 (x) y P 0000 (x) forman una base del espacio
vectorial de los polinomios de grado menor o igual que 4.
b) Halla las coordenadas del polinomio 5x4 3x2 + 2x 4 en dicha base.

Ejercicio 11. Dado el subespacio S de R3 generado por los vectores (1, 0, 3)T , (2, 3, 1)T ,
determina si el vector (0, 4, 6)T pertenece o no a este subespacio.

Ejercicio 12. Halla la dimension y una base de los cuatro subespacios fundamentales asociados
a las matrices
siguientes:
1 2 0 1 1 2 0 2 1 i i 0
A= 0 1 1 0 , B = 1 2 1 1 0 ,C = 1 1 0.
2 1 3 2 1 2 3 7 2 0 0 1

Ejercicio 13. a) Construye una matriz cuyo espacio nulo este generado por (1, 0, 1)T .
b) Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo espacio nulo contenga
al vector (1, 0, 0)T .

Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios de grado menor o
igual que 3:
p1 (x) = 1 + x + x2 + 2x3 , p2 (x) = 2 + 3x + 2x2 x3 ,
p3 (x) = 1 2x + 2x3 , p4 (x) = 4x + 6x2 + 6x3 .

Ejercicio 15. Sea T la aplicacion de R4 en R3 definida por

T ([x1 , x2 , x3 , x4 ]T ) = [x1 2x2 + x3 x4 , 2x1 x2 + x4 , 3x2 2x3 + 3x4 ]T

69
a) Comprueba que T es una transformacion lineal.
b) Halla la dimension y una base de Im(T ).
c) Halla la dimension y una base de Ker(T ).

Ejercicio 16. Sea T la aplicacion de R3 en R2 definida por

T ((x, y, z)T ) = (2x + y, y z)T .

a) Comprueba que T es una transformacion lineal.


b) Halla la dimension y una base de Ker(T ) e Im(T ).
c) Dadas las bases {(1, 1, 1)T , (0, 1, 2)T , (0, 2, 1)T } de R3 y {(2, 1)T , (1, 0)T } de R2 , halla las cor-
respondientes matrices de cambio de base y la matriz de la aplicacion en estas nuevas bases.

Ejercicio 17. Sea T la transformacion lineal de R3 definida por

T ([x1 , x2 , x3 ]T ) = [x1 x2 + x3 , 2x1 3x2 x3 , x1 + 4x2 + 5x3 ]T .

a) Halla la matriz de T en la base canonica de R3 .


b) Sean ~v1 = [1, 1, 0]T , ~v2 = [1, 3, 2]T y ~v3 = [3, 1, 2]T . Halla la matriz de T en la nueva base
B 0 = {~v1 , ~v2 , ~v3 }.
c) Demuestra que T es invertible y da una expresion para T 1 como la que definio a T .

Ejercicio 18. Determina una aplicacion lineal T : R4 R3 tal que Ker(T ) este generado por
los vectores (1, 0, 0, 1)T y (1, 3, 2, 0)T y tal que Im(T ) este generada por los vectores (1, 1, 1)T
y (0, 2, 1)T .

Ejercicio 19. Se considera la aplicacion lineal de P4 [X] en R2 dada por:


T : P4 [X] R2
T (p) = (p(1), p(1))T .
a) Halla la matriz que representa a dicha aplicacion lineal en las bases canonicas de ambos
espacios.
b) Halla una base de Ker(T ).
c) Se consideran las bases B = {1, x 1, x2 1, x(x2 1), x4 } de P4 [X] y B 0 = {(1, 1)T , (2, 1)T }
de R2 . Halla M (T, B, B 0 ).

ALGUNOS EJERCICIOS RESUELTOS. TEMA 2

Ejercicio 3.
(a) No es subespacio.
(b) Subespacio de dimension tres. Una base es, por ejemplo

{(2, 1, 0, 0)T , (4, 0, 1, 0)T , (1, 0, 0, 1)T }.

(c) No es subespacio.

Ejercicio 5.
F = {(x, y, z, t)T /z x = 0, 2x + y + t = 0}. dim(F ) = 2. Base: {(1, 1, 1, 3)T , (0, 5, 0, 5)T }.
G = {(x, y, z, t)T /y t = 0, 2y + 3t = 0}. dim(G) = 2. Base: {(1, 0, 0, 0)T , (0, 0, 1, 0)T }.

70
H = {(x, y, z, t)T /x+z +t = 0}. dim(H) = 3. Base: {(0, 1, 0, 0)T , (1, 0, 1, 2)T , (2, 0, 0, 2)T }.
F + G = R4 , F + H = R4 .
F H = {(x, y, z, t)T /t = 0, x = z, y = 2z}. dim(F H) = 1. Base: {(1, 2, 1, 0)T }.

Ejercicio 6.
(a) Ligados para todo valor de a.
(b) Libres si a 6= 4. En otro caso, ligados.
(c) Libres si a 6= 1.

Ejercicio 7. Una base de S esta formada, por ejemplo, por los polinomios p1 (x) = 1+2x, p2 (x) =
4x + x2 . Buscamos ahora escribir el polinomio p(x) = 4 4x + 3x2 como combinaci on lineal de
p1 y p2 , es decir, p(x) = 1 p1 (x) + 2 p2 (x). En coordenadas, 1 y 2 deben satisfacer el sistema

1 0 4
2 4 1 = 4 ,
2
0 1 3

de donde las coordenadas son 1 = 4, 2 = 3.

Ejercicio 8.
a) Una base la forman, por ejemplo, los tres primeros vectores. Se puede ampliar esa base con,
por ejemplo, el vector (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva base forman la
solucion del sistema
2 1 3 0 x1 1
1 0 1 0 x2 0
= ,
3 0 1 0 x3 2
0 2 1 1 x4 1
que es (x1 , x2 , x3 , x4 )T = (1, 2, 1, 6)T .
b) Una base esta formada por los vectores (1, 1, 0, 1)T , (0, 2, 1, 5)T . Se pueden completar a una
base de R4 con, por ejemplo (0, 0, 1, 0)T , (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva
base forman la solucion del sistema

1 0 0 0 x1 1
1 2 0 0 x2 0
= ,
0 1 1 0 x3 2
1 5 0 1 x4 1

que es (x1 , x2 , x3 , x4 )T = (1, 1/2, 3/2, 1/2)T .

Ejercicio 9.
(1) Los cinco polinomios son linealmente independientes y como dimP4 [X] = 5, forman una base.
(2) En terminos de coordenadas en la base canonica de P4 [X], W se puede describir como

W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 /p(1) = a0 + a1 + a2 + a3 + a4 = 0,
p(1) = a0 a1 + a2 a3 + a4 = 0},

que es un sistema homogeneo de dos ecuaciones para cinco incognitas, luego W es un subespacio
vectorial.

71
(3) Resolviendo el sistema, W nos queda

W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 /a0 = a2 a4 , a1 = a3 },

luego su dimension es tres. Una base puede estar formada por los polinomios

p1 (x) = 1 + x4 (1, 0, 0, 0, 1)T


p2 (x) = x + x3 (0, 1, 0, 1, 0)T
p3 (x) = 1 + x2 (1, 0, 1, 0, 0)T .

(4) Se puede completar esta base a una de P4 [X] con, por ejemplo, los polinomios

p4 (x) = x3 (0, 0, 0, 1, 0)T


p5 (x) = x5 (0, 0, 0, 0, 1)T .

B 0 = {p1 , p2 , p3 , p4 , p5 }.
(5) El esquema para hallar la matriz de cambio de base es el siguiente

I5 - P4 [X]B
P4 [X]Bc c

6 6

M (B 0 , Bc ) M (B 0 , Bc )

M (B 0 , B)
-
P4 [X]B 0 P4 [X]B

de modo que

1 0 1 0 0
1 1 0 0 0

0 1 0
M (B , B) = M (B, Bc ) M (B , Bc ) = 1 0 0 0 0.

0 1 0 1 0
0 0 1 0 1

(6) V es el subespacio generado por los polinomios p4 (x) y p5 (x).

72
Ejercicio 10.
(b) Coordenadas: (5, 5/2, 17/12, 25/24, 113/144)T .

Ejercicio 11. No pertenece al subespacio.

Ejercicio 12.
Para la matriz A:

dimf il(A) = 2. Base: (1, 2, 0, 1)T , (0, 1, 1, 0)T .

dimcol(A) = 2. Base: (1, 0, 2)T , (2, 1, 1)T .

dimKer(A) = 2. Base: (2, 1, 1, 0)T , (1, 0, 0, 1)T .

dimKer(AT ) = 1. Base: (2, 3, 1)T .

Para la matriz B:

dimf il(B) = 2. Base: (1, 2, 0, 2, 1)T , (0, 0, 1, 3, 1)T .

dimcol(B) = 2. Base: (1, 1, 1)T , (0, 1, 3)T .

dimKer(B) = 3. Base: (1, 0, 1, 0, 1)T , (2, 0, 3, 1, 0)T , (2, 1, 0, 0, 0)T .

dimKer(B T ) = 1. Base: (2, 3, 1)T .

Para la matriz C:

dimf il(C) = 3. Base: (i, i, 0)T , (1, 1, 0)T , (0, 0, 1)T .

dimcol(C) = 3. Base: (i, 1, 0)T , (i, 1, 0)T , (0, 0, 1)T .

Ker(C) = {(0, 0, 0)T }.

Ker(C T ) = {(0, 0, 0)T }.


0 1 0
Ejercicio 13. (a) Por ejemplo A = .
1 0 1
(b) No.

Ejercicio 14. Rango tres.

Ejercicio 15.
a) T es producto de matriz por vector, luego es una aplicacion lineal; concretamente:

x1 x
1 2 1 1 1
x2 x2
T ((x1 , x2 , x3 , x4 )T ) = A
x3 = 2 1 0 1
x3 .
0 3 2 3
x4 x4

b) dimIm(T ) = dimcol(A) = 2. Base:{(1, 2, 0)T , (2, 1, 3)T }. c) dimKer(T ) = dimKer(A) =


2. Base: {(1, 2, 3, 0)T , (1, 0, 3, 2)T }.

73
Ejercicio 16. La matriz de T en las bases canonicas es

2 1 0
A= .
0 1 1

b) Ker(T ) = Ker(A) = h(1, 2, 2)T i, Im(T


) = col(A)
T T
= h(2, 0) , (1, 1) i.
0 1 1
c) la matriz de T en las nuevas bases es .
3 3 0

Ejercicio 17.
a)
1 1 1
A = M (T, Bc , Bc ) = 2 3 1 .
1 4 5
b)
7/2 51/2 17/2
0 0
M (T, B , B ) = 1/2 3 2 .
1 15/2 7/2
c) T es invertible si una matriz cualquiera asociada a T es invertible. Como por ejemplo det(A) =
3, entonces T es invertible. Ademas,

11/3 3 4/3
M (T 1 , Bc , Bc ) = 3 2 1 .
5/3 1 1/3

Nota: Para discutir si existe T 1 es necesario que T act


ue entre espacios de la misma dimension.

Ejercicio 19.
a) Si p(x) = a0 + a1
x+ a2 x2 + a3 x3 + a4 x4 , entonces T (p) = (a0 a1 + a2 a3 + a4 , a0 a1 +
a0
a
1

a2 a3 + a4 )T = A a2 donde

a3
a4

1 1 1 1 1
A= .
1 1 1 1 1

b) dimKer(T ) = dimKer(A) = 3. Una base puede estar formada, por ejemplo, por los polinomios
p1 (x) = 1 + x2 , p2 (x) = x + x3 , p3 (x) = 1 + x4 .
c)
1 1 1 0 0
0 1 0 1 0
1 2 1 1 2 0 0 1

0
M (T, B, B ) = A0 0 1 0 0 = .
1 1 0 2 0 0 0
0 0 0 1 0
0 0 0 0 1

74
Tema 4

Espacios eucldeos

El objetivo de este tema es la resolucion de ciertos problemas de aproximaci on en espacios


vectoriales. Para ello necesitaremos utilizar la idea de ortogonalidad entre vectores.

4.1. Ejemplo introductorio.


Volvemos al espacio vectorial R2 . Aqu, se puede decir que dos vectores son perpendiculares u
ortogonales si forman angulo recto. Podemos traducir esta condicion en terminos de coordenadas
para una mejor manipulacion en la practica. Sean ~u = (u1 , u2 )T , ~v = (v1 , v2 )T dos vectores en
R2 ortogonales. Esto significa que si, por ejemplo, giramos ~v un angulo de noventa grados, el
resultado es un vector que debe estar en la misma recta que ~u, es decir, que debe ser proporcional
a ~u. Recordemos del tema anterior que un giro de noventa grados transforma ~v = (v1 , v2 )T en el
vector

0 1 v1 v2
= .
1 0 v2 v1

Si este vector es proporcional a ~u = (u1 , u2 )T , entonces es de la forma



v2 u1
= , (4.1)
v1 u2

para cierta constante R. Si u1 6= 0, u2 6= 0, esto significa que


v2 v1
= = .
u1 u2
Entonces

u1 v1 + u2 v2 = 0.

Si u1 = 0, entonces de (4.1) tambien es v2 = 0 y se verifica u1 v1 + u2 v2 = 0. Analogamente, si


es u2 = 0, entonces de (4.1) tambien es v1 = 0 y tambien se verifica u1 v1 + u2 v2 = 0. Luego la
condicion de ortogonalidad entre los vectores en terminos de coordenadas es

T v1
~u ~v = (u1 , u2 ) = u1 v1 + u2 v2 = 0.
v2

75
La operacion

v1
h~u, ~v i = ~uT ~v = (u1 , u2 ) = u1 v1 + u2 v2 ,
v2

se llama producto escalar eucldeo en R2 .


La importancia de la ortogonalidad entre vectores del plano aparece en muchos problemas,
sobre todo geometricos. Algunos de ellos estan relacionados con la proyecci
on ortogonal de un
vector sobre un subespacio. Por ejemplo, en la figura

AK
~v A
A ~v P~v
A



A
A
*P~
v







se muestra el vector P~v que es proyecci on ortogonal de un vector ~v sobre una recta que pasa
por el origen. Tal proyeccion se determina obligando a que la diferencia entre los dos vectores
~v P~v sea perpendicular a la recta. Esta construccion proporciona ademas la distancia entre el
punto ~v = (x, y) del plano y la recta, como el modulo del vector diferencia entre ~v y su proyecci
on
ortogonal. Fijemonos en que esta distancia es la mnima posible entre (x, y) y los puntos de la
recta, y se determina a traves de la proyeccion ortogonal.
No parece difcil extender esta idea al espacio tridimensional, donde la ortogonalidad es tam-
bien visualizable. El problema ahora es buscar la manera de hablar de ortogonalidad y proyecci on
ortogonal en un espacio vectorial cualquiera. Necesitamos en principio definir algo que generalice
el producto escalar eucldeo de R2 .

4.2. Producto escalar


Sea V un espacio vectorial sobre K = R
o C. Un producto interno o producto escalar en V es
toda aplicacion

h, i : V V K,

que debe verificar las siguientes propiedades:


(1) h~u1 + ~u2 , ~v i = h~u1 , ~v i + h~u2 , ~v i.

(2) h~u, ~v i = h~u, ~v i.

(3) h~u, ~v i = h~v , ~ui.

(4) h~u, ~ui 0 y si h~u, ~ui = 0 necesariamente ~u = ~0.

76
Combinando estas propiedades se tienen otras dos
h~u, ~v1 + ~v2 i = h~u, ~v1 i + h~u, ~v2 i.
u, ~v i.
h~u, ~v i = h~
Un espacio vectorial eucldeo no es mas que un espacio vectorial dotado de un producto
interno.
Asociado a un producto interno se encuentra la norma o longitud de un vector ~v V que se
define como
q
||~v || = h~v , ~v i.

Se verifica siempre que ||~v || = ||||~v ||, K, ~v V .

Ejemplos.

[1] V = Rn , n = 1, 2, 3, . . .. Como hemos mencionado, el producto interno mas celebre es el


eucldeo: si ~v = (v1 , . . . , vn )T , ~u = (u1 , . . . , un )T se define

h~u, ~v i = u1 v1 + + un vn .

La norma asociada es la llamada norma eucdea:


q
||~v || = v12 + + vn2 ,

que determina geometricamente la longitud de un vector de Rn .

[2] V = C n , n = 1, 2, 3, . . .. En este caso se puede definir el producto interno

h~u, ~v i = u1 v1 + + un vn ,

y la norma es la del ejemplo anterior,


q
||~v || = v12 + + vn2 .

[3] V = {f : [0, 2] R, f continua}. Se puede definir,


Z 2
hf, gi = f (x)g(x)dx,
0

que es un producto interno sobre V (esto es, verifica las propiedades (1)-(4) de la definicion). La
correspondiente norma es
Z 2 1/2
||f ||2 = f (x)2 dx .
0

En principio, en un mismo espacio vectorial pueden definirse productos internos diferentes.


Por otro lado, hay varias desigualdades importantes asociadas a un producto interno.

Teorema 1. Sea (V, h, i) un espacio vectorial eucldeo. Entonces, se verifican

77
La desigualdad de Cauchy-Schwarz: si ~u, ~v V

|h~u, ~v i| ||~u||||~v ||.

La igualdad se produce si y solo si ~u y ~v son linealmente dependientes.

La desigualdad de Minkowsky: si ~u, ~v V

||~u + ~v || ||~u|| + ||~v ||.

La igualdad se cumple si y solo si los vectores ~u y ~v son proporcionales con coeficiente de


proporcionalidad positivo.

Ya hemos visto en R2 que la importancia desde un punto de vista geometrico de un producto


interno viene dada por su relacion con el angulo formado por dos vectores. Esto puede gener-
alizarse a cualquier producto interno en cualquier espacio vectorial. Vamos a buscar una formula
que relacione el producto escalar con el angulo entre vectores. Pensemos por ejemplo en el plano
V = R2 y el producto eucldeo

h~u, ~v i = u1 v1 + u2 v2 .

~v
~u






Los elementos ~u, ~v V pueden representarse como vectores en el plano que parten del origen.
Sean y respectivamente los angulos formados por los vectores ~u y ~v con el eje horizontal. Se
tiene,

sin = u2 /||~u||, cos = u1 /||~u||,


sin = v2 /||~v ||, cos = v1 /||~v ||.

Ahora, el angulo formado por los vectores ~u y ~v es = , de modo que

u1 v1 + u2 v2 h~u, ~v i
cos = cos( ) = cos cos + sin sin = = ,
||~u||||~v || ||~u||||~v ||

y se tiene la formula para determinar el angulo entre los dos vectores en funcion del producto
interno y la norma:

h~u, ~v i = ||~u||||~v || cos . (4.2)

78
Esta formula es general: si (V, h, i) es un espacio vectorial eucldeo, ~u, ~v V , entonces el angulo
entre ~u y ~v viene dado por

Re(h~u, ~v i) = ||~u||||~v || cos .

(En el lado izquierdo se toma la parte real pues la formula es valida para cualquier producto
interno, sea real o complejo).

4.3. Sistemas y bases ortogonales y ortonormales


Esta idea de ortogonalidad es entonces la generalizacion a un espacio eucldeo del concepto
geometrico de vectores perpendiculares. Volviendo al ejemplo anterior de R2 , los vectores ~u y
~v seran perpendiculares si forman un angulo recto. Segun (4.2), esto significa que h~u, ~v i = 0
(recuerdese la introduccion). Ello motiva la siguiente

Definicion. Sea (V, h, i) un espacio vectorial eucldeo. Se dice que dos vectores ~u y ~v son orto-
gonales cuando h~u, ~v i = 0.

Ejemplo 1. En Rn con el producto eucldeo, la ortogonalidad significa que

u1 v1 + + un vn = 0,

o, en terminos matriciales,

~uT ~v = 0.

por ejemplo, ~u = (0, 1, 0, 1)T y ~v = (1, 1, 1, 1)T son ortogonales para este producto interno.

Ejemplo 2. Sea V = {f : [0, 2] C, f continua}. Se puede definir,


Z 2
hf, gi = f (x)g(x)dx,
0

que es un producto interno sobre V . Las funciones f (x) = e3ix , g(x) = eix verifican
Z 2 Z 2
e2ix 2
hf, gi = e3ix eix dx = e2ix dx = | = 0.
0 0 2i 0
Luego las funciones f y g son ortogonales para este producto interno.

Se dice que un sistema de vectores no nulos {~e1 , ~e2 , . . . , ~en } en V es

Ortogonal si h~ek , ~el i = 0 para k 6= l.

Ortonormal si es ortogonal y ademas todos los vectores tienen norma uno, es decir

h~ek , ~el i = 0, k 6= l, h~ek , ~ek i = 1, k = 1, . . . , n.

As, por ejemplo, los vectores ~e1 = (1, 1)T , ~e2 = (1, 1)T forman un sistema ortogonal para el
producto interno eucldeo en R2 y los vectores ~e1 = (1, 0)T , ~e2 = (0, 1)T forman un sistema

79
ortonormal. La diferencia esta en que los vectores ortonormales, ademas de ser ortogonales, han
de tener norma uno.
As, un sistema ortonormal es siempre ortogonal. Por otro lado, si uno tiene un sistema
{~e1 , ~e2 , . . . , ~en } ortogonal de vectores no nulos, basta considerar el conjunto de vectores

~e1 ~e2 ~en


{ , ,..., }
||~e1 || ||~e2 || ||~en ||

para obtener un sistema ortonormal. Por ejemplo, el sistema ortogonal anterior {~e1 = (1, 1)T , ~e2 =
(1, 1)T } genera el sistema ortonormal { ||~~ee11 || = ( 12 , 12 )T , ||~~ee22 || = ( 12 , 12 )T }.
Por u ltimo, un sistema ortogonal de vectores no nulos es siempre un conjunto linealmente
independiente de vectores. En efecto, consideremos un sistema ortogonal {~e1 , ~e2 , . . . , ~en } y una
combinacion nula cualquiera

1~e1 + 2~e2 + + n~en = ~0.

Para comprobar que los vectores son independientes tenemos que llegar a que los coeficientes de
la combinacion son todos nulos. Si hacemos el producto interno de la combinaci
on lineal con ~e1 ,
tenemos

~0 = h~0, ~e1 i = h1~e1 + 2~e2 + + n~en , ~e1 i


= 1 h~e1 , ~e1 i + 2 h~e2 , ~e1 i + + n h~en , ~e1 i = 1 h~e1 , ~e1 i = 1 ||~e1 ||2 ,

donde hemos utilizado la ortogonalidad de los vectores ~e1 , ~e2 , . . . , ~en . De aqu, necesariamente
1 = 0. Este razonamiento puede repetirse con los vectores ~e2 , ~e3 hasta ~en , concluyendo que
2 = 3 = = n = 0 y, por tanto, los vectores son independientes.

Las bases que son ortogonales u ortonormales son muy utiles, entre otras cosas porque per-
miten obtener de forma sencilla las coordenadas de un vector en ellas. Esto es lo que afirma el
siguiente resultado.

Teorema 2. Sea (V, h, i) un espacio vectorial eucldeo y {~e1 , ~e2 , . . . , ~em } un sistema ortogonal
con espacio generado W . Si ~u W , entonces

h~u, ~e1 i h~u, ~e2 i h~u, ~em i


~u = 2
~e1 + 2
~e2 + + ~em .
||~e1 || ||~e2 || ||~em ||2

En particular, si {~e1 , ~e2 , . . . , ~em } es ortonormal, entonces

~u = h~u, ~e1 i~e1 + h~u, ~e2 i~e2 + + h~u, ~em i~em .

Por ejemplo, el sistema B = {~e1 , ~e2 , ~e3 } con ~e1 = (1, 1, 1)T , ~e2 = (1, 1, 0)T , ~e3 = (1, 1, 2)T ,
es un sistema ortogonal, y por tanto forma una base ortogonal, de R3 para el producto escalar
eucldeo. Si ~u = (3, 2, 4)T , podemos calcular las coordenadas de ~u con respecto a la base B de
dos maneras: la primera, utilizando las formulas de cambio de base analizadas en el tema 2, es
decir, si ~u = 1~e1 + 2~e2 + 3~e3 , entonces las coordenadas 1 , 2 , 3 resuelven el sistema lineal

1 1 1 1 3
1 1 1 2 = 2 ,
1 0 2 3 4

80
de donde 1 = 1, 2 = 5/2, 3 = 3/2. La segunda forma utiliza el teorema 2. Como la base es
ortogonal, entonces

h~u, ~e1 i h~u, ~e2 i h~u, ~e3 i


~u = 1~e1 + 2~e2 + 3~e3 = 2
~e1 + 2
~e2 + ~e3 .
||~e1 || ||~e2 || ||~e3 ||2

Calculando los productos internos, se tiene

h~u, ~e1 i h~u, ~e2 i 5 h~u, ~e3 i 9


= 1, = , = ,
||~e1 ||2 ||~e2 ||2 2 ||~e3 ||2 6

obteniendose las mismas coordenadas que con la primera forma.


La obtencion de bases ortogonales y ortonormales sera importante al tratar los problemas de
aproximacion en este tema. Por eso presentamos ahora un procedimiento para que, a partir de
una base cualquiera, se pueda obtener una base ortogonal.

4.4. M
etodo de ortogonalizaci
on de Gram-Schmidt
Teorema 3 (Metodo de ortogonalizacion de Gram-Schmidt). Sea {~v1 , ~v2 , . . . , ~vm } un sistema
libre de vectores en un espacio vectorial eucldeo (V, h, i). Entonces,

(a) Existe un nuevo sistema ortogonal y libre {~e1 , ~e2 , . . . , ~em } tal que ~e1 = ~v1 y para k =
2, . . . , m el vector ~ek esta determinado de forma u
nica por la relacion

~ek = ~vk 1k~e1 k1,k~ek1 ,

y las relaciones de ortogonalidad,

h~ek , ~el i = 0, l = 1, . . . , k 1.

(b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V
se puede ortogonalizar.

El procedimiento enunciado en el teorema es como sigue. Dados {~v1 , ~v2 , . . . , ~vm } linealmente
independientes, el primer vector no cambia:

~e1 = ~v1 .

para obtener ~e2 , escribimos ~e2 = ~v2 12~e1 e imponemos la ortogonalidad entre ~e1 y ~e2 ,

h~v2 , ~e1 i
h~e2 , ~e1 i = 0 h~v2 , ~e1 i 12 h~e1 , ~e1 i = 0 12 = .
||~e1 ||2

Queda as determinado

h~v2 , ~e1 i
~e2 = ~v2 ~e1 ,
||~e1 ||2

81
que, por construccion, es ortogonal a ~e1 . Ahora, para obtener ~e3 , se escribe ~e3 = ~v3 13~e1 23~e2
y se impone la ortogonalidad con ~e1 y ~e2 ,
h~v3 , ~e1 i
h~e3 , ~e1 i = 0 h~v3 , ~e1 i 13 h~e1 , ~e1 i = 0 13 = ,
||~e1 ||2
h~v3 , ~e2 i
h~e3 , ~e2 i = 0 h~v3 , ~e2 i 23 h~e2 , ~e2 i = 0 23 = .
||~e2 ||2
De este modo,
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 2
~e1 ~e1 .
||~e1 || ||~e2 ||2
El procedimiento permite un paso general. Supongamos que hemos obtenido ~e1 , . . . , ~ek1 ortog-
onales y queremos obtener ~ek . Entonces escribimos ~ek = ~vk 1k~e1 2k~e2 k1,k~ek1 e
imponemos las condiciones de ortogonalidad
h~vk , ~e1 i
h~ek , ~e1 i = 0 1k = ,
||~e1 ||2
.. .. ..
. . .
h~vk , ~ek1 i
h~ek , ~ek1 i = 0 k1,k = ,
||~ek1 ||2
con lo que ~ek queda determinado. Continuamos el proceso hasta obtener tantos vectores como al
principio.
Ejemplo. Supongamos que los vectores dados son

1 1 0
~v1 = 1 , ~v2 = 0 , ~v3 = 1 .
0 1 1
Entonces ~e1 = ~v1 . El vector ~e2 se obtiene de las condiciones
~e2 = ~v2 1,2~e1
h~e2 , ~e1 i = 0,
de donde
h~v2 , ~e1 i
~e2 = ~v2 ~e1
h~e1 , ~e1 i
1
= ~v2 ~e1 ,
2
y, operando, es ~e2 = (1/2, 1/2, 1)T . El tercer vector viene de las condiciones
~e3 = ~v3 1,3~e1 2,3~e2
h~e3 , ~e1 i = h~e3 , ~e2 i = 0,
por lo que
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 ~e1 ~e2
h~e1 , ~e1 i h~e2 , ~e2 i
1 1
= ~v3 ~e1 ~e2 ,
2 3

82
y por tanto ~e3 = (2/3, 2/3, 2/3)T .
Para obtener una base ortonormal, podemos primero calcular una base ortogonal {~e1 , ~e2 , . . . , ~em }
~e1 ~e2 ~en
a partir del metodo de Gram-Schmidt y luego dividir cada vector por su norma { , ,..., }.
||~e1 || ||~e2 || ||~en ||
As, en el ejemplo anterior, los vectores ortonormales finales son entonces

r 1 r 1/2 r 2/3
~e1 1 ~e2 2 ~e3 3
~q1 = = 1 , ~q2 = = 1/2 , ~q3 = = 2/3 .
||~e1 || 2 ||~e2 || 3 ||~e3 || 4
0 1 2/3
Pueden darse otras alternativas para calcular una base ortonormal, basadas en modificaciones
del metodo de Gram-Schmidt.

4.5. Subespacio ortogonal a uno dado y proyecci


on ortogonal
sobre un susbespacio
Al principio del tema mencionamos la proyecci on ortogonal de un vector sobre un subespacio
al hablar de la distancia de un punto del plano a una recta. Puesto que hemos extendido la
ortogonalidad a un espacio vectorial cualquiera a traves del producto interno, intentamos ahora
hacer lo mismo con la proyeccion ortogonal. Del ejemplo en R2 debemos retener lo siguiente: la
proyeccion ortogonal de un vector sobre un subespacio es un vector del mismo subespacio cuya
diferencia con el original genera un vector que es ortogonal a todos los del subespacio sobre el que
proyectamos. Ademas, la proyeccion ortogonal es la mejor aproximaci on del vector por elementos
del subespacio, en el sentido de proporcionar la mnima distancia del vector al subespacio.
Dado un subconjunto U de un espacio vectorial eucldeo (V, h, i) se define su ortogonal como
U = {~v V /h~u, ~v i = 0, ~u U }.
Es decir, U esta formado por aquellos vectores que son ortogonales a todos los vectores de U .
Hay que destacar que aunque U no sea un subespacio vectorial, el ortogonal U siempre lo es.
Si, en particular, U es un subespacio vectorial, entonces U U = {~0}.
El siguiente resultado proporciona la forma de manipular ortogonales en la practica.

Teorema 4. Sea (V, h, i) un espacio vectorial eucldeo y W un subespacio de dimension finita.


Entonces,
(i) Un vector ~v esta en W si y solo si ~v es ortogonal a un sistema de generadores (en particular
a una base) cualquiera de W .
(ii) El subespacio ortogonal W es suplementario de W , es decir, V = W W .
(iii) Cada vector ~v V se escribe de forma u
nica como una suma de dos vectores ~v = w
~ + ~u,
con w
~ W , ~u W .
(iv) Si V tiene dimension finita, entonces dimW = dimV dimW .
Vamos a ilustrar estos resultados.

Ejemplo 1. En R3 con el producto usual,


h~x, ~y i = x1 y1 + x2 y2 + x3 y3 ,

83
consideramos el subespacio W generado por el vector ~e1 = (1, 0, 0)T . Seg un el apartado (i) del
teorema 4, un vector ~v = (x, y, z)T est
a en W si es ortogonal a un sistema generador cualquiera
de W ; como W esta generado solo por ~e1 = (1, 0, 0)T entonces

1
~v W h~v , ~e1 i = (x, y, z) 0 = x = 0.
0

Esto nos proporciona las ecuaciones del ortogonal de W ,

W = {~v = (x, y, z)T R3 /x = 0}.

Una base de W T es, por ejemplo {~e2 = (0, 1, 0)T , ~e3 = (0, 0, 1)T }. Entonces, tenemos que
{~e1 , ~e2 , ~e3 } es una base de R3 . Esto es lo que significa el apartado (ii) del teorema 4; en este
caso R3 = W W .
Por otro lado, todo vector ~v = (x, y, z)T R3 se escribe como

~v = x~e1 + y~e2 + z~e3 = w


~ + ~u,

~ = x~e1 = (x, 0, 0)T W y ~u = y~e2 + z~e3 = (0, y, z)T W . Esta es la descomposicion


donde w
ltimo, como dimW = 1, entonces dimW = dimR3
deducida en (iii) para este caso. Por u
dimW = 2, como ya habamos obtenido al deducir las ecuaciones del subespacio W .
Ejemplo 2. Sea A Mm,n (K). Entonces

(Ker(A)) = f il(A)
(Ker(AT )) = col(A)

En efecto, vamos a comprobar la primera igualdad. La segunda queda como ejercicio y es trivial
a partir de la primera. Fijemonos en que si ~x es tal que A~x = ~0, este sistema de ecuaciones afirma
que cada fila de A es ortogonal a cualquier vector ~x Ker(A). Luego f il(A) (Ker(A)) . Como,
por otra parte, ambos subespacios tienen la misma dimension, ha de ser (Ker(A)) = f il(A).
Volvamos a la situacion del teorema 4. El sumando w ~ W de la descomposicion ~v = w ~ + ~u
se llama proyeccion ortogonal de ~v sobre W y se denota por PW (~v ).

Teorema 5. En las condiciones del teorema 4, se tiene:

(1) La proyeccion ortogonal PW (~v ) W de ~v sobre W queda caracterizada por la condicion


~v PW (~v ) es ortogonal a todo vector de W .

(2) La proyeccion ortogonal PW (~v ) de ~v sobre W es la mejor aproximaci on de ~v por elementos


de W , en el sentido de que es el mas proximo a ~v de entre todos los vectores de W , es decir:

||~v PW (~v )|| = mn{||~v w||


~ :w~ W }.

La relacion del apartado (1) del teorema da un medio practico para calcular PW (~v ). Tomemos
una base cualquiera {w ~ 1, w
~ 2, . . . , w
~ m } de W . Encontrar PW (~v ) es encontrar escalares 1 , . . . , m
tales que PW (~v ) = 1 w
~ 1 + + m w ~ m , puesto que la proyecci
on ha de estar en W . Por otro lado,

84
para que se verifique la condicion de (1) se necesita y basta que ~v PW (~v ) sea ortogonal a cada
w
~ i . Por tanto, los i quedan caracterizados por las m condiciones

h~v (1 w
~ 1 + + m w
~ m ), w
~ 1i = 0
h~v (1 w
~ 1 + + m w
~ m ), w
~ 2i = 0
.. .
. = ..
h~v (1 w
~ 1 + + m w
~ m ), w
~ m i = 0,

es decir,

1 hw
~ 1, w
~ 1 i + + m hw
~ m, w
~ 1 i = h~v , w
~ 1i
1 hw
~ 1, w
~ 2 i + + m hw
~ m, w
~ 2 i = h~v , w
~ 2i (4.3)
.. .
. = ..
1 hw
~ 1, w
~ m i + + m hw
~ m, w
~ m i = h~v , w
~ mi

Las ecuaciones (4.3) se llaman ecuaciones normales del problema. Un caso particularmente sencillo
es aquel en el que la base {w
~ 1, w
~ 2, . . . , w
~ m } es ortogonal. Entonces, el sistema (4.3) tiene la forma

~ 1 ||2 = h~v , w
1 ||w ~ 1i
.. .
. = ..
~ m ||2 = h~v , w
m ||w ~ mi

con lo que se obtiene la formula cerrada

h~v , w
~ 1i h~v , w
~ mi
PW (~v ) = w
~1 + + w
~ m.
||w~ 1 ||2 ||w~ m ||2

Hay que insistir en que esta formula s olo es v


alida cuando la base elegida en W , {w ~ 1, w~ 2, . . . , w
~ m}
es ortogonal. En caso contrario, hay que utilizar las ecuaciones normales para determinar la
proyeccion ortogonal.
Ejemplos.
(1) Sea W = {(x, y, z, t)T /x + y z = 0, x t = 0}. Buscamos la proyecci on ortogonal de
~v = (1, 1, 1, 0)T sobre W . Primero obtenemos una base de W , que puede ser, por ejemplo, w ~1 =
(1, 0, 1, 1)T , w
~ 2 = (0, 1, 1, 0)T . Ahora, la proyecci
on ha de ser de la forma PW (~v ) = 1 w
~ 1 + 2 w ~ 2.
Para determinar las coordenadas 1 , 2 , debemos obligar a que el vector diferencia ~v PW (~v )
sea ortogonal al sistema generador de W . El planteamiento de las condiciones de ortogonalidad
da lugar al sistema de ecuaciones normales

31 + 2 = 2
1 + 22 = 2,

de donde 1 = 2/5, 2 = 4/5. Entonces


2 4
PW (~v ) = w~1 + w~ 2 = (2/5, 4/5, 6/5, 2/5)T .
5 5

85
(2) Consideremos ahora el espacio V de funciones reales y acotadas, definidas en el intervalo
[1, 1] y dotado con el producto interno
Z 1
f, g V, hf, gi = f (x)g(x)dx.
1

La funcion f : [1, 1] R dada por



1 si x [1, 0]
f (x) =
1 si x (0, 1]

esta en V , as como los polinomios 1, x, x2 . Vamos a buscar la proyecci


on ortogonal de f sobre
el subespacio de polinomios de grado menor o igual que dos y coeficientes reales W , generado
por tanto por los polinomios 1, x, x2 . Al tener que ser un elemento de W , la proyecci
on tendra la
forma

PW (f )(x) = 0 + 1 x + 2 x2 .

Para determinar los coeficientes de este polinomio, debemos obligar a que la funcion diferencia
f PW (f ) sea ortogonal al sistema generador de W . Esto nos lleva al sistema de ecuaciones
normales

f PW (f ) 1 0 h1, 1i + 1 hx, 1i + 2 hx2 , 1i = hf, 1i


f PW (f ) x 0 h1, xi + 1 hx, xi + 2 hx2 , xi = hf, xi
f PW (f ) x2 0 h1, x2 i + 1 hx, x2 i + 2 hx2 , x2 i = hf, x2 i,

que, utilizando la definicion del producto interno, tiene la forma


Z 1 Z 1 Z 1 Z 1
0 1dx + 1 xdx + 2 x2 dx = f (x)dx ,
1 1 1 1
Z 1 Z 1 Z 1 Z 1
2 3
0 xdx + 1 x dx + 2 x dx = xf (x)dx ,
1 1 1 1
Z 1 Z 1 Z 1 Z 1
2 3 4 2
0 x dx + 1 x dx + 2 x dx = x f (x)dx .
1 1 1 1

Calculando las integrales, tenemos el sistema


2
20 + 2 = 0,
3
2
1 = 1,
3
2 2
0 + 2 = 0,
3 5
de donde 0 = 2 = 0, 1 = 23 y, por tanto, la proyecci
on ortogonal buscada es el polinomio
3
PW (f )(x) = 2 x.
(3) Sea V = {f : [0, 2] R, f continua} con el producto interno
Z 2
hf, gi = f (x)g(x)dx.
0

86
Vamos a buscar la proyeccion ortogonal de f (x) = x sobre el subespacio W generado por las
funciones 1, sin x, cos x. La proyeccion tendra la forma PW (f ) = 1 +2 sin x+3 cos x. Fijemonos
en que
Z 2
h1, sin xi = sin xdx = cos x|2
0 = 0,
0
Z 2
h1, cos xi = cos xdx = sin x|2
0 = 0,
0
Z 2
1
hsin x, cos xi = sin x cos xdx = cos 2x|2
0 = 0.
0 2
Esto significa que la base elegida en W es ortogonal. Entonces, la proyecci
on ortogonal puede
calcularse como
hf, 1i hf, sin xi hf, cos xi
PW (f ) = 1+ sin x + cos x
h1, 1i hsin x, sin xi hcos x, cos xi
R 2 R 2 R 2
xdx x sin xdx x cos xdx
= R02 + R02 2
sin x + R02 cos x.
0 1dx 0 sin xdx 0 cos2 xdx

Calculando las integrales, tenemos que PW (f )(x) = 2 sin x. En este caso podemos usar la
formula cerrada para hallar la proyecci
on, pues la base del subespacio sobre el que se proyecta es
ortogonal. Esto no poda hacerse en los anteriores ejemplos.

4.6. Problemas de ajuste


Hay muchos problemas (en Fsica, Economa, Comunicaci on, etc) cuyo planteamiento matematico
de fondo consiste en aproximar un cierto elemento de un espacio vectorial por elementos de un
subespacio de la mejor manera posible, en el sentido de que la distancia del elemento aproxima-
do a la aproximacion sea mnima. De este modo, tales problemas involucran el calculo de una
proyeccion ortogonal. En esta seccion intentaremos presentar varios ejemplos clasicos.

4.6.1. Ejemplo 1. Sistemas sobredeterminados


Muchos problemas de aproximaci
on o de ajuste desembocan en la resolucion de un sistema
lineal

A~x = ~b, A Mm,n (R), ~b Rm , ~x Rn ,

sobredeterminado (m > n, muchas mas ecuaciones que incognitas), con las columnas de A inde-
pendientes (rango (A) = n) e incompatible, es decir, ~b
/ W = col(A). Por ejemplo,

1 1 5
1 2 15
x
1
1 3 = 24 , (4.4)
x2
1 4 32
1 5 40

es de este tipo.

87
Si el sistema A~x = ~b no tiene solucion, entonces ~b no puede ser combinaci on de las columnas
de A, es decir, ~b / W = col(A). Han de buscarse entonces valores de ~x de modo que, puesto
que A~x no puede ser ~b, este lo mas cerca posible de ~b, en el sentido de que la norma eucldea
||A~x ~b|| sea la menor posible. Tales ~x juegan el papel de soluciones en un sentido generalizado.
Su determinacion comprende dos etapas:
(i) Hallar la mejor aproximacion ~b a ~b por elementos de W (proyecci
on ortogonal).

(ii) Resolver el sistema A~x = ~b en sentido convencional. La solucion ~xLS de este sistema se
llama solucion en el sentido mnimos cuadrados, pues por la caracterizacion de la proyecci
on
~ n
ortogonal, hace mnima las distancias ||A~x b|| cuando ~x recorre R .
En la practica, estas dos etapas se suelen reunir de la siguiente forma. Denotemos por Ai la
iesima columna de A. Puesto que ~b es la proyecci on ortogonal de ~b sobre W = col(A) y
~b = A~xLS , entonces la condicion de proyecci
on ortogonal nos lleva a que ~b ~b = ~b A~xLS debe
ser ortogonal a cada columna de A:

h~b A~xLS , Aj i = 0, j = 1, 2, . . . , n,

o, equivalentemente

hA~xLS , Aj i = hAj , ~bi,

de modo que las ecuaciones normales en este caso nos llevan a

AT A~xLS = AT ~b. (4.5)

Si las columnas de A son linealmente independientes, el sistema de ecuaciones normales (4.5) tiene
nica, y como hemos visto, es la solucion de A~x = ~b en el sentido mnimos cuadrados.
solucion u
De manera que para calcular la solucion mnimos cuadrados de un sistema A~x = ~b, en la practica
no se siguen las etapas (i) y (ii), sino que se plantea y resuelve directamente el sistema (4.5). Por
ejemplo, para el sistema (4.4) tenemos

T 5 15 T~ 116
A A= ,A b = ,
15 55 435

y la solucion del sistema (4.5) en este caso es ~xLS = (2,9, 8,7)T .

4.6.2. Ejemplo 2. Aproximaci


on trigonom
etrica
Otra situacion en la que aparece la proyecci on ortogonal tiene que ver con la aproximaci on
entre funciones. Tomemos como ilustracion el siguiente ejemplo, tomado del conjunto de practicas
computacionales The MATLAB Notebook, disponible en la web
http://dmpeli.math.mcmaster.ca/Matlab/Math1J03/ComputerLabs.
El odo humano reconoce ondas de sonido, que son variaciones en el tiempo de la presion del
aire. Las ondas de sonido entran al odo con diferentes frecuencias y el odo activa se
nales nerviosas
con las mismas frecuencias, que se envan al cerebro. De este modo, las se nales representan para
nosotros el sonido. Sin embargo, el odo humano reconoce ondas de sonido con un rango limitado
de frecuencias, mas o menos de 20 a 20000 ciclos por segundo. As, los sonidos con frecuencias
fuera de este intervalo solo pueden ser aproximados por el odo humano, que trunca estas se nales
eliminando tales frecuencias.

88
1

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

1
5 0 5 10 15
4
x 10

Figura 4.1: Funci


on p(t).

Para ilustrar esto matematicamente, vamos a considerar una onda de sonido con forma de
diente de sierra y frecuencia basica de 2000 ciclos por segundo. Tal onda es periodica en tiempo con
perodo T = 1/2000 = ,0005 segundos. La funcion p(t) que expresa dicha onda matematicamente
puede escribirse:

2 T
p(t) = t ,
T 2
para t [0, T ), repitiendose periodicamente en intervalos de longitud T . El odo humano reconoce
solo ondas de sonido que son funciones trigonometricas del tiempo
n
a0 X 2kt 2kt
q(t) = + (ak cos( ) + bk sin( )), a0 R, ak , bk R, 1 k n,
2 k=1
T T

donde ak , bk son las amplitudes de las componentes sinusoidales de la onda, mientras que las
frecuencias k/T se truncan al entero n tal que n/T 20000. La funcion q(t) es tambien periodica
de perodo T . Sin embargo, mientras que q(t) es una suma finita de ondas sinusoidales, la funcion
p(t) no lo es. Por tanto, la onda de sonido p(t) produce una respuesta del odo humano q(t) que
es solo una aproximacion de la onda p(t), obtenida truncando las frecuencias mayores de n/T .
El calculo de la aproximacion q(t) puede hacerse como una proyecci on ortogonal en un espacio
apropiado. La funcion q((t) debe hacer mnima la distancia entre p(t) y cualquier expresion
combinacion de funciones seno y coseno con frecuencias n/T 20000 (es decir, cualquier se nal
para el odo humano). Tal distancia se expresa a traves de la integral
Z T
E= (p(t) q(t))2 dt,
0

es decir, la funcion que buscamos debe aproximarse lo mas posible al sonido original.

89
Vamos a resolver el problema en terminos de una proyecci
on ortogonal. Fijemos un numero
n con n/T 20000. Consideremos el espacio V de las funciones acotadas de [0, T ] en R con el
producto interno
Z T
hf, gi = f (x)g(x)dx
0

as como el subespacio de los llamados polinomios trigonometricos de grado menor o igual que n
( n
)
a0 X 2kt 2kt
Sn = + (ak cos( ) + bk sin( )), a0 R, ak , bk R, 1 k n, .
2 k=1
T T

Esto es, el subespacio Sn es el conjunto de combinaciones lineales de las funciones


2t 2t 4t 4t 2nt 2nt
{1, cos( ), sin( ), cos( ), sin( ), . . . , cos( ), sin( )}.
T T T T T T
Teniendo en cuenta el producto interno definido en este espacio, la funcion q(t) que buscamos es
la mejor aproximacion a la funcion p(t) por elementos de Sn , es decir, la proyecci
on ortogonal de
p(t) sobre Sn . Observemos que las funciones anteriores que generan Sn son ortogonales para este
producto interno, porque se verifica
Z
2kt T 2kt T 2kt T
h1, cos( )i = cos( )dt = sin( ) = 0,
T 0 T 2k T 0
Z T
2kt 2kt T 2kt T
h1, sin( )i = sin( )dt = cos( ) = 0,
T 0 T 2k T 0
Z T
2jt 2kt 2jt 2kt
hsin( ), cos( )i = sin( ) cos( )dt
T T 0 T T

T 1 2(j + k)t 2(j + k)t T
= sin( ) + sin( ) = 0.
2k 2 T T 0

Por tanto, la proyeccion ortogonal puede calcularse usando la formula cerrada valida cuando
la base es ortogonal. En este caso
n
a0 X 2kt 2kt
q(t) = + (ak cos( ) + bk sin( )), a0 R, ak , bk R
2 k=1
T T

donde los coeficientes vienen dados por


RT
hp(t), 1i 0 p(t)dt
a0 = = RT = 0,
h1, 1i 0 dt
RT
hp(t), cos( 2kt
T )i
2kt
0 p(t) cos( T )dt
ak = = R T
= 0, 1 k n,
hcos( 2kt 2kt
T ), cos( T )i
2 2kt
0 cos ( T )dt
RT
hp(t), sin( 2kt
T )i
2kt
0 p(t) sin( T )dt 2
bk = 2kt 2kt
= R T 2kt
= , 1 k n.
hsin( T ), sin( T )i 2
0 sin ( T )dt
k

La figura 4.2 muestra la funcion p(t) y el polinomio q(t) con n = 10. Hay que observar como q(t)
da una aceptable aproximacion excepto en los extremos.

90
1.5

0.5

0.5

1.5
0 2 4 6
4
x 10

Figura 4.2: Funcion p(t) (lnea continua) y aproximaci


on q(t) (lnea discontinua) con n = 10.

4.6.3. Ejemplo 3. Aproximaci


on con polinomios
Los dos ejemplos anteriores han pretendido ilustrar dos aplicaciones de una misma idea de
aproximacion por mnimos cuadrados. En el primer ejemplo, la aproximaci
on es discreta, mientras
que en el segundo se trata de una aproximacion funcional. Es decir, cambia el espacio vectorial y
el producto interno, pero no la necesidad de aproximar usando proyecciones ortogonales.
Estas dos aplicaciones pueden hacer uso de una misma herramienta. Por ejemplo, los poli-
nomios pueden servir, en este contexto, para ajustar datos o para aproximar funciones.
Un problema de aproximacion discreta por polinomios puede plantearse de la forma siguiente:
dado un conjunto de n + 1 datos

(x1 , y1 ), (x2 , y2 ), . . . , (xn+1 , yn+1 ),

hay que encontrar un polinomio y = pm (x) de grado m < n que mejor se ajuste a los n + 1 datos.
Lo de mejor ajuste se entiende en el sentido de que el polinomio debe minimizar las distancias a
los datos del problema: si ~x = (x1 , . . . , xn+1 ), ~y = (y1 , . . . , yn+1 ), entonces
1/2
n+1
X
2
mn ||~y ~z|| = (yj pm (xj )) .
z Rn+1
~
j=1

El origen del problema podra ser el siguiente: normalmente los datos proceden de la medicion
de un determinado fenomeno. Si bien en la practica (por ejemplo, al utilizar el ordenador) el uso
directo de los datos no da ningun problema, si se quiere averiguar algo sobre el fenomeno, no hay
mas remedio que pasar de lo discreto a algo continuo, tratando de sustituir los datos por una
funcion que los aproxime con suficiente precision y que sea lo suficientemente manejable para que
podamos representar el fenomeno a traves de ella y as establecer conjeturas sobre el mismo. La
eleccion primaria de los polinomios se debe a que son las funciones mas simples de manipular.

91
8

0
0 1 2 3 4 5 6 7

Figura 4.3: Representacion de los datos correspondientes a una se


nal afectada de ruido.

El planteamiento de este problema de aproximaci on sugiere una primera solucion. Podramos


interpolar los datos, es decir, construir un polinomio de grado n, qn , que pasase por todos los
puntos: qn (xj ) = yj , j = 1, . . . , n + 1. Esto, sin embargo, presenta varios problemas. Entre ellos,
esta el grado del polinomio, que ha de ser alto si el n umero de datos es grande (algo bastante
habitual) con el consiguiente coste en el calculo de los coeficientes.
En lugar de interpolar, se busca un polinomio de grado bajo que se ajuste a los datos en el
sentido antes mencionado. El polinomio no tiene por que pasar por los datos (de hecho, no suele
pasar por ninguno) sino que debe hacer mnima su distancia a ellos. Fijemonos en el siguiente
ejemplo. La figura 4.3 muestra un conjunto de valores correspondientes a una se nal que viene
afectada de un ruido. El n umero de datos es n + 1 = 256. Necesitamos, para representar la se nal
de un modo mas fiable (evitando el ruido) un polinomio que ajuste convenientemente la nube de
puntos. Observamos que si existiese un polinomio
y = pm (x) = a0 + a1 x + + am xm
que pasase por todos los datos, los coeficientes aj cumpliran que
pm (x1 ) = a0 + a1 x1 + + am xm
1 = y1
pm (x2 ) = a0 + a1 x2 + + am xm
2 = y2
.. .. ..
. . .
pm (xn+1 ) = a0 + a1 xn+1 + + am xm
n+1 = yn+1 ,

es decir, el sistema lineal A~x = ~b con



1 x1 x21 xm1 y1 a0
1 x2 x22 xm y2 a1
2 ~b =
A = .. .. .. .. , .. , ~x = .. .
. . . . . .
1 xn+1 x2n+1 xm
n+1 yn+1 am

92
8

0
0 1 2 3 4 5 6 7

Figura 4.4: Datos correspondientes a una se


nal afectada de ruido y polinomio de ajuste de grado
m = 9.

Como tal polinomio no existe, hemos llegado a un sistema sobredeterminado sin solucion. Del
primer ejemplo sabemos que la solucion mnimos cuadrados del problema satisface el sistema

AT A~x = AT ~b,

que proporciona los coeficientes del polinomio que buscamos, pues estos minimizan la distancia
1/2
n+1
X
||A~x ~b|| = (yj pm (xj ))2 . (4.6)
j=1

As, en la figura 4.4 hemos dibujado los datos de la se


nal distorsionada por un ruido junto con el
polinomio de grado m = 9 que mejor ajuste los datos, cuyos coeficientes se obtienen resolviendo
(4.6) para las correspondientes matrices A y ~b. Recordemos que en este caso, el numero de datos
es n + 1 = 256 (de modo que A tiene n + 1 = 256 filas y m + 1 = 10 columnas). As, con
un polinomio de grado comparativamente bajo conseguimos una representaci on aceptable de la
se
nal.
El segundo problema, en este contexto, que afecta a los polinomios, tiene que ver con la
aproximacion entre funciones. En muchos modelos puede haber funciones difciles de manipular
y, a efectos practicos, puede ser recomendable sus sustitucion por polinomios apropiados.
Por ejemplo, tomemos la funcion
Z t
2
x(t) = ex dx, 1 t 1,
1

que puede representar, por ejemplo, el valor de la intensidad de corriente en un determinado


circuito electrico. El integrando carece de primitiva, de manera que no tenemos una expresion mas

93
1.5 2

1.5
1
1

0.5
0.5
0

0 0.5
1 0.5 0 0.5 1 1 0.5 0 0.5 1

1.5 1.5

1 1

0.5 0.5

0 0
1 0.5 0 0.5 1 1 0.5 0 0.5 1

Figura 4.5: Grafico aproximado de la funcion x(t) (izquierda) y polinomios de ajuste de grados 2
(derecha arriba) y 3 (derecha abajo).

explcita de x(t). Vamos entonces a buscar un polinomio que aproxime a x(t). La aproximaci on
se realizara en el sentido mnimos cuadrados, de modo que, de entre todas las funciones reales
continuas definidas en [1, 1], sea el polinomio p(t) el que minimice la distancia con la funcion
x(t). Tal distancia esta referida al producto interno
Z 1
hf, gi = f (t)g(t)dt,
1

de modo que si V es el espacio de funciones f : [1, 1] R continuas, entonces


Z 1 1/2
||x p|| = (x(t) p(t))2 dt = mn ||x(t) f (t)||.
1 f V

De este modo, si n es el grado del polinomio p(t), este debe encontrarse como la proyecci on
ortogonal de x(t) sobre el espacio de polinomios de grado menor o igual que n y coeficientes reales,
con respecto al producto interno antes definido. Por ejemplo, si n = 2, p(t) = a0 + a1 t + a2 t2 debe
verificar el sistema de ecuaciones normales

x(t) p(t) 1 a0 h1, 1i + a1 ht, 1i + a2 ht2 , 1i = hx(t), 1i


x(t) p(t) t a0 h1, ti + a1 ht, ti + a2 ht2 , ti = hx(t), ti
x(t) p(t) t2 a0 h1, t2 i + a1 ht, t2 i + a2 ht2 , t2 i = hx(t), t2 i,

que en este caso tiene la forma


Z 1
2 2
2a0 + a2 = x(1) = ex dx,
3 1
2 1
a1 = ,
3 e

94
2 2 1
a0 + a2 = x(1),
3 5 3
de donde a0 = 12 x(1), a1 = 4e 3
+ 38 x(1), a2 = 0. La figura 4.5 muestra el grafico aproximado de la
funcion x(t) en el intervalo [1, 1] y el de su polinomio de aproximaci on de grados 2 y 3. Hay que
observar el buen ajuste de este u ltimo con la funcion.

EJERCICIOS DEL TEMA 3

Ejercicio 1. (a) Que pares de vectores son ortogonales?

v1 = (1, 2, 2, 1)T , v2 = (4, 0, 4, 0)T , v3 = (1, 1, 1, 1)T .

(b) Halla en R3 todos los vectores ortogonales a la vez a v1 = (1, 1, 1)T y v2 = (1, 1, 0)T .

Ejercicio 2. Encuentra una base ortogonal de R3 partiendo del vector (1, 1, 1)T .

Ejercicio 3. Dada la base B = {(1, 1, 0)T , (1, 0, 1)T , (0, 1, 1)T }


(a) Construye una base ortonormal de R3 a partir de B.
(b) Escribe el vector (2, 1, 3)T en terminos de la base ortonormal antes obtenida.

Ejercicio 4. Calcula una base ortonormal de R4 que incluya a los vectores


1 1 1 1 1 1
( , 0, , 0)T , ( , , , )T .
2 2 2 2 2 2

Ejercicio 5. Halla una base ortonormal de los subespacios generados por los vectores siguientes:
a) [1, 1, 1, 1]T , [0, 1, 1, 1]T y [3, 1, 1, 0]T ,
b) [1, 1, 1, 1]T , [1, 1, 2, 4]T y [1, 2, 1, 2]T .

Ejercicio 6. Se considera la matriz



0 1 0
A = 1 1 1.
1 1 0

(i) calcula una base ortonormal del subespacio columna col(A) utilizando el metodo de Gram-
Schmidt.
(ii) Llama Q a la matriz que tiene por columnas la base ortonormal obtenida en (i). Determina
larelacion entre las columnas de A y las de Q.
(iii) Determina una matriz R de tres filas y tres columnas tal que A = QR. Esto es lo que se
llama factorizacion QR de la matriz A.
(iv) Repite el procedimiento con la matriz

1 1 2 0
1 0 1 1
A=
1
.
0 1 2
1 1 0 1

95
Ejercicio 7. Se consideran los subespacios U, V y W de R4 dados por:

U = {[x, y, z, t]T /x+yz = 0, xt = 0}, V = span([0, 1, 1, 1]T , [2, 0, 1, 1]T ), W = {[x, y, z, t]T /x+y = 0}.

a) Da las ecuaciones que definen U , V , W .


b) Halla bases ortonormales de U , U , V , V , W y W .

Ejercicio 8. Dado el subespacio S = {(x, y, z)T R3 : 2x y + 3z = 0}


(a) Halla una base ortonormal de S.
(b) Calcula la proyeccion ortogonal del vector v = (3, 2, 4)T sobre S.
(c) Escribe v como suma de dos vectores, uno que este en S y otro que sea ortogonal a todos los
vectores de S.

Ejercicio 9. Repite el ejercicio anterior para los siguientes subespacios y vectores:


(a) S = {(x1 , x2 , x3 , x4 )T R3 : 2x1 x2 + 3x3 x4 = 0}, v = (1, 1, 2, 3)T .
(b) S = {(x1 , x2 , x3 , x4 )T R3 : x1 = x2 , 3x2 = x4 }, v = (1, 2, 3, 1)T .

Ejercicio 10. Calcula la descomposicion del vector v en suma de dos vectores, uno en el sube-
spacio generado por los vectores wi que se indican y el otro ortogonal a dicho subespacio:
(a) v = (5, 2, 2, 1)T , w1 = (2, 1, 1, 1)T , w2 = (1, 1, 3, 0)T .
(b) v = (1, 0, 2, 1)T , w1 = (1, 1, 1, 1)T .

Ejercicio 11. Halla la solucion en el sentido mnimos cuadrados de los sistemas



1 0 0 1 1 1 1
x

1 1 x 1 0 2 1 0
= y = .
1 3 y 2, 1 3 2 1
z
1 4 5 1 1 1 1

Ejercicio 12. Sea P3 [X] el espacio de los polinomios reales de grado menor o igual a tres. Sea
T : P3 [X] R2 la aplicacion lineal que a cada polinomio p lo enva al vector (p(1), p(1))T .
a) Calcula una base de Ker(T ).
b) En el conjunto de las funciones reales definidas en (1, 1), se considera el producto interno
Z 1
hf, gi = f (x)g(x)dx.
1

Aproxima en el sentido mnimos cuadrados la funcion f dada por




0 si 1 x < 0
f (x) = 1 si 0 x 1/2

0 si 1/2 < x 1

por elementos de Ker(T ).

Ejercicio 13. Que recta ajusta mejor los siguientes datos: y = 0 en x = 0, y = 0 en x = 1,


y = 12 en x = 3 ?.

96
Ejercicio 14. Se considera la matriz

1 0 1 0
2 1 3 2
A=
4
.
2 2 4
1 3 4 6
(i) Calcula la dimension, una base y las ecuaciones del subespacio W generado por las filas de A.

(ii) Con el producto interno eucldeo de R4 , determina la proyecci


on ortogonal del vector ~v =
(1, 1, 1, 1)T sobre W .

on ortogonal sobre W es (1, 1, 0, 2)T y su proyecci


(iii) De un vector ~u se conoce que su proyecci on
T
ortogonal sobre W es (1, 1, 1, 1) . Determina el vector ~u, razonando la respuesta.

Ejercicio 15. Se considera el espacio P2 [X] de polinomios de grado menor o igual que dos y
coeficientes reales, con el producto interno

hp, qi = p(0)q(0) + p(1)q(1) + p(2)q(2), p(x), q(x) P2 [X]. (4.7)

(i) Determina una base ortogonal de P2 [X] para el producto (4.7), a partir de la base canonica
de P2 [X].

(ii) Sea P1 [X] el subespacio de P2 [X] de polinomios de grado menor o igual que uno y coeficientes
reales. Calcula la mejor aproximacion al polinomio p(x) = 1 x2 por elementos de P1 [X], usando
el producto interno (4.7).

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA3

Ejercicio 2. ~v1 = (1, 1, 1)T , ~v2 = (1, 0, 1)T , ~v3 = (1, 2, 1)T .

Ejercicio 4. Aparte de los dos que se dan, se pueden completar con



~v3 = (0, 1/ 2, 0, 1/ 2)T , ~v4 = (1/2, 1/2, 1/2, 1/2)T .

Ejercicio 5.
~e1 ~e2 ~e3
a) Una base ortonormal sera w
~1 = ,w
~2 = ,w
~3 = donde
||~e1 || ||~e2 || ||~e3 ||

~e1 = (1, 1, 1, 1)T , ||~e1 || = 2,



~e2 = (1/4, 5/4, 3/4, 3/4)T , ||~e2 || = 11/2,

~e3 = (26/11, 13/11, 1/11, 12/11)T , ||~e3 || = 990/11.
~e1 ~e2 ~e3
b) Una base ortonormal sera w
~1 = ,w
~2 = ,w
~3 = donde
||~e1 || ||~e2 || ||~e3 ||

~e1 = (1, 1, 1, 1)T , ||~e1 || = 2,



~e2 = (1, 1, 0, 2)T , ||~e2 || = 6,

~e3 = (1/6, 5/6, 1, 1/3)T , ||~e3 || = 66/6.

97
Ejercicio 7.
a)
U = {(x, y, z, t)T /x + y z = 0, x t = 0} = span((1, 0, 1, 1)T , (0, 1, 1, 0)T )
U = {(x, y, z, t)T /x + z + t = 0, y + z = 0} = span((1, 1, 1, 0)T , (1, 0, 0, 1)T )
V = span((0, 1, 1, 1)T , (2, 0, 1, 1)T )
V = {(x, y, z, t)T /y + z t = 0, 2x + z + t = 0} = span((0, 2, 1, 1)T , (1, 2, 0, 2)T )
W = {(x, y, z, t)T /x + y = 0} = span((1, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T )
W = {(x, y, z, t)T /x y = 0, z = t = 0} = span((1, 1, 0, 0)T )
b)
Base ortonormal de U :~e1 = 1 (1, 0, 1, 1)T , ~
e2 = 115 (1, , 3, 2, 1)T .
3
Base ortonormal de U :~e1 = 13 (1, 1, 1, 0)T , ~e2 = 115 (2, 1, 1, 3)T .
Base ortonormal de V :~e1 = 13 (0, 1, 1, 1)T , ~e2 = 16 (2, 0, 1, 1)T .
Base ortonormal de V :~e1 = 16 (0, 2, 1, 1)T , ~e2 = 13 (1, 0, 1, 1)T .
Base ortonormal de W :~e1 = 12 (1, 1, 0, 0)T , ~e2 = (0, 0, 1, 0)T , ~e3 = (0, 0, 0, 1)T .
Base ortonormal de W :~e1 = 12 (1, 1, 0, 0)T .

Ejercicio 8. q
5
~ 1 = (1/ 5, 2/ 5, 0)T , w
a) Base ortonormal, por ejemplo: w ~ 2 = 14 (6/5, 3/5, 1)T .
q
b) PS (~v ) = h~v , w
~ 1 iw
~ 1 + h~v , w ~ 2 = 15 w
~ 2 iw ~1 4
5
5
14 w
~ 2.
c) Basta con escribir ~v = ~v1 + ~v2 , donde
~v1 = PS (~v ) S, ~v2 = ~v PS (~v ) S .

Ejercicio 10.
(a) ~v = ~v1 + ~v2 donde ~v1 es la proyecci
on ortogonal de ~v sobre el subespacio generado por w
~ 1, w
~ 2,
1
~v1 = P~v = (973, 322, 336, 651)T ,
287
mientras que
1
~v2 = ~v ~v1 = (462, 252, 238, 938)T .
287
(b) ~v = ~v1 + ~v2 = 12 (1, 1, 1, 1)T + (3/2, 1/2, 3/2, 1/2)T .

Ejercicio 11.
Primer sistema: x = 1/5, y = 11/10.
Segundo sistema: x = 1, y = 0, z = 0.

Ejercicio 12.
a) Una base es, por ejemplo: p1 (x) = 1 + x2 , p2 (x) = x + x3 .
b) PKer(T ) (f )(x) = 1 p1 (x) + 2 p2 (x) donde 1 , 2 verifica el sistema de ecuaciones normales

16/15 0 1 11/24
= ,
0 16/105 2 7/64
de donde 1 = 55/128, 2 = 735/1024.
30 12
Ejercicio 13. La recta y = 7 x 7 .

98
4.7. Ap
endice. Formas cuadr
aticas
4.7.1. Formas bilineales
Sea E un espacio vectorial real. Una forma bilineal en E es toda aplicacion : E E R
que verifique:

(1 ~x1 + 2 ~x2 , ~y ) = 1 (~x1 , ~y ) + 2 (~x2 , ~y ) (4.8)


para cualesquiera ~x1 , ~x2 , ~y E y 1 , 2 R y

(~x, 1 ~y1 + 2 ~y2 ) = 1 (~x, ~y1 ) + 2 (~x, ~y2 ) (4.9)


para cualesquiera ~x, ~y1 , ~y2 E y 1 , 2 R.
Una forma bilineal en E se dice que es simetrica cuando (~x, ~y ) = (~y , ~x) para cualesquiera
~x, ~y E.
Supongamos que E es de dimension finita y sea B = {~bk }nk=1 una base de E. Dada una forma
bilineal : E E R se define la matriz de dicha forma en la base B como la matriz

M (, B) = {(bk , bl )}nk,l=1 .

Sean ~x, ~y E y pongamos

X = [x1 , x2 , . . . , xn ]T = M (~x, B),

Y = [y1 , y2 , . . . , yn ]T = M (~y , B).


Tendremos n n
X X
(~x, ~y ) = ( xk~bk , yl~bl )
k=1 l=1
n
X n
X
= xk yl (~bk , ~bl ) = X T M (, B) Y,
k=1 l=1
es decir,
(~x, ~y ) = M (~x, B)T M (, B) M (~y , B).
Se puede ver que esta unvocamente determinada por su matriz M (, B). Mas precisamente,
se puede probar que dada A Mn,n (K) y dada una base B de E existe exactamente una forma
bilineal : E E R tal que A = M (, B). Se cumple tambien que es simetrica si, y solo si,
A es simetrica.
Consideremos ahora dos bases B y B 0 de E y llamemos P = M (B 0 , B). Dada una forma
bilineal : E E R, tendremos las matrices

A = M (, B), A0 = M (, B 0 ).

Tomemos dos vectores cualesquiera ~x, ~y E y denotemos

X = M (~x, B), Y = M (~y , B), X 0 = M (~x, B 0 ), Y 0 = M (~y , B 0 ).

Recordando las relaciones de cambio de base

X = P X 0, Y = P Y 0,

99
podremos escribir
(~x, ~y ) = X T AY = X 0T A0 Y 0 ,
luego
X 0T A0 Y 0 = X T AY = (P X 0 )T AP Y 0
= X 0T P T AP Y 0 = X 0T (P T AP )Y 0 ,
y al poder ser X 0 , Y 0 Mn1 (R) arbitrarios, se deduce que necesariamente

A0 = P T AP.

Esta es pues la formula del cambio de base para las formas bilineales.
Dos matrices cuadradas A, B Mn,n (R) se llaman congruentes cuando existe P Mn,n (R)
regular con
B = P T A P.
Como acabamos de ver, las distintas matrices que representan a una misma forma bilineal son
dos a dos congruentes.

4.7.2. Formas cuadr


aticas
Sea E un espacio vectorial real y sea : E E R una forma bilineal simetrica. La forma
cuadr
atica generada por es la nueva aplicacion : E R definida por

(~x) = (~x, ~x), (~x E).

Sea : E E R una forma bilineal simetrica. Dados ~x, ~y E, tenemos

(~x + ~y ) = (~x + ~y , ~x + ~y )
= (~x, ~x) + (~x, ~y ) + (~y , ~x) + (~y , ~y )
= (~x) + 2(~x, ~y ) + (~y ),

(~x ~y ) = (~x ~y , ~x ~y )
= (~x, ~x) + (~x, ~y ) + (~y , ~x) + (~y , ~y )
= (~x) 2(~x, ~y ) + (~y ),

de donde se deduce la formula de polarizacion real


1
(~x, ~y ) = ((~x + ~y ) (~x ~y )).
4
A la vista de la formula de polarizacion es obvio que la correspondencia entre formas bilineales
simetricas y las formas cuadraticas es biyectiva. Si es la forma cuadratica que corresponde a
una forma bilineal simetrica , entonces se dice que es la forma polar de . La matriz de una
forma cuadratica : E E en una base B de E se define como la matriz de la forma polar
de en dicha base. Tendremos

(~x) = M (~x, B)T M (, B) M (~x, B), (~x E).

100
4.7.3. Bases ortogonales
Sea E un espacio vectorial real de dimension finita, sea : E E R una forma bilineal
simetrica y sea : E R la forma cuadratica asociada a . Se dice que un par de vectores
~x, ~y E son ortogonales para o para , cuando

(~x, ~y ) = 0.

Se dice que una base B = {~bk }nk=1 de E es ortogonal para , cuando los vectores de B son dos a
dos ortogonales, es decir, cuando

(~bk , ~bl ) = 0, k 6= l, 1 k, l n.

Si A = M (, B), es condicion necesaria y suficiente para que B sea una base ortogonal para
que A sea diagonal.
Vamos a demostrar que siempre existen bases ortogonales. En efecto, tomemos una base
arbitraria B de E y sea A = M (, B). La matriz A es simetrica. La teora de la leccion anterior
garantiza que existe una matriz P ortogonal tal que

AP = P D

siendo D diagonal y real. Se puede escribir

D = P T AP

luego en la nueva base B 0 definida por

M (B 0 , B) = P

se tendra que M (, B 0 ) = D, y por tanto que B 0 es una base ortogonal para .


En lenguaje matricial, acabamos de establecer que cada matriz A que sea simetrica es con-
gruente con una matriz diagonal y real.
En la practica, y en contra de lo sugerido por la demostracion anterior, no es necesario
recurrir a la diagonalizacion ortogonal de A. Se utiliza el metodo de Gauss. Este metodo se
puede implementar de dos maneras equivalentes. La primera consiste en completar cuadrados
con sentido com un. La segunda es una variante del proceso de reduccion de una matriz a forma
triangular superior mediante operaciones elementales sobre las filas. Estas ideas se desarrollaran
en la clase de problemas.
Supongamos que hemos encontrado una base ortogonal B para una forma cuadratica . Dado
un vector ~x E, tendremos
n
X
T
(~x) = X DX = dk (xk )2 ,
k=1

siendo
D = diag(d1 , d2 , . . . , dn ) = M (, B)
[x1 , x2 , . . . , xn ]T = X = M (~x, B).
A la vista de esta expresion es habitual decir que se ha reducido a una suma de cuadrados en
la base B.

101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango
Cuando dos matrices son congruentes no comparten su polinomio caracterstico, a diferencia
de lo que suceda en el caso de la semejanza. Dada una forma cuadratica : E R en un espacio
vectorial real de dimension finita E, nos planteamos la cuestion de investigar que pueden tener en
comun las distintas matrices diagonales que representan a en las diferentes bases ortogonales
de E. La respuesta la da el siguiente teorema, denominado Ley de inercia o Teorema de Sylvester.

Teorema 1 Sean B1 y B2 dos bases ortogonales para una misma forma cuadr atica : E R.
Entonces las matrices diagonales D1 = M (, B1 ) y D2 = M (, B2 ) comparten
(a) el rango, que es igual al n
umero r de elementos no nulos,
(b) el n
umero p de elementos estrictamente positivos y
(c) el n
umero q de elementos estrictamente negativos.
(Observemos que los elementos de D1 y de D2 son n umeros reales y por tanto podemos hablar
de su signo).

A la vista del teorema tiene sentido definir


(a) El rango de una forma cuadratica, que es el numero de elementos no nulos que aparecen
en cualquiera de sus diagonalizaciones.
(b) La signatura de la forma cuadratica, que es el par (p, q), donde p (resp. q) es el n
umero
de elementos estrictamente positivos (resp. negativos) que aparecen en cualquiera de sus diago-
nalizaciones.
Notemos que el rango se puede obtener como p + q.
La nocion de signatura se extiende tambien a las matrices reales simetricas.
Supongamos que B es una base ortogonal para una forma cuadratica y sea

D = M (, B) = diag(d1 , d2 , . . . , dn ).

Tomemos ahora una nueva base B 0 formada por vectores que van siendo proporcionales a los de
B de suerte que

P = M (B 0 , B) = diag(1 , 2 . . . , n ), k 6= 0, 1 k n.

Podemo escribir

D0 = M (, B 0 ) = P T DP = diag((1 )2 d1 , (2 )2 d2 , . . . , (n )2 dn ).

Vemos claramente que podemos cambiar arbitrariamente la escala de los elementos diagonales,
pero los que eran nulos lo seguiran siendo y tampoco podemos alterar los signos. Esto es conforme
a la Ley de inercia.
Permutando si fuera preciso el orden de los elementos de la base B 0 y eligiendo adecuadamente
los factores de escala se concluye que siempre es posible encontrar una base donde se reduce a
una matriz diagonal del tipo

diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0),

donde los 1s los (-1)s .aparecen tantas veces como indique la signatura de . Esto es analogo
2

a la construccion de las bases ortonormales en los espacios eucldeos, construccion esta u


ltima
que es un caso particular de la anterior.

102
Ahora es facil comprobar que dos matrices del mismo orden son congruentes si, y solo si, poseen
la misma signatura: Si son congruentes, la ley de inercia afirma que la signatura es com un. Si
comparten la signatura, el proceso descrito anteriormente muestra que ambas son congruentes
con una matriz com un (la formada por los 1s los (-1)s ), de donde se concluye que seran
2

congruentes entre s.
Clasificar una forma cuadratica o una matriz real simetrica es dar su signatura.

4.7.5. Formas definidas y semidefinidas


Sea : E E R una forma bilineal simetrica en un espacio vectorial real de dimension n
y sea : E R la forma cuadratica asociada. Se dira que o que es
(a) definida positiva, cuando su signatura es (n, 0),
(b) semidefinida positiva, cuando su signatura es (p, 0), p < n,
(c) definida negativa, cuando su signatura es (0, n),
(d) semidefinida negativa, cuando su signatura es (0, q), q < n.
(e) indefinida, cunado su signatura es (p, q), p > 0, q > 0.
Estas nociones se extienden a las matrices reales simetricas.

Proposicion 1 La forma o es definida positiva si, y s


olo si, se satisfacen las dos condiciones
(C1) y (C2) siguientes:
(C1) (~x) 0, para cualquier ~x E.
(C2) Si un vector ~x E cumple que (~x) = 0, entonces necesariamente ~x = ~0.

Proposici on 2 La forma o es semidefinida positiva si, y s


olo si, se satisface la condici
on
(C1) siguiente:
(C1) (~x) 0, para cualquier ~x E.

Vamos a demostrar ambas proposiciones en paralelo. Comenzamos tomando una base ortog-
onal B = {~bk }nk=1 para la forma y llamemos

D = M (, B) = diag(d1 , d2 , . . . , dn ),

donde observemos que dk = (~bk , ~bk ) = (~bk ), 1 k n.


(1) Si la condicion (C1) esta satisfecha, entonces en particular dk = (~bk ) 0, 1 k n, y
la signatura es (p, 0) para cierto p 0.
(2) Si la signatura es (p, 0), entonces tendremos dk 0, 1 k n. Dado un vector generico
~x E, llamemos X = [x1 , x2 , . . . , xn ]T = M (~x, B). Podemos escribir
n
X
(~x) = X T DX = dk (xk )2 0,
k=1

y la condicion (C1) queda satisfecha.


Cuando ademas se cumple (C2), es claro que dk = (~bk ) > 0, pues ~bk 6= ~0, 1 k n, y la
signatura es por tanto (n, 0).
Recprocamente, si la signatura es (n, 0), entonces dk > 0, 1 k n. Sea ~x E tal que
(~x) = 0. Si denotamos X = [x1 , x2 , . . . , xn ]T = M (~x, B), tendremos
n
X
dk (xk )2 0 = (~x) = 0,
k=1

103
y al ser cada sumando positivo, necesariamente dk (xk )2 = 0, 1 k n, de donde xk = 0, pues
dk > 0, 1 k n, y en consecuencia ~x = ~0. As pues, (C2) esta satisfecha.
Hay caracterizaciones analogas del caracter definido negativo y semidefinido negativo. Las
propiedades (C1) y (C2) pueden adoptarse como definicion de las formas definidas positivas (es
lo que hicimos en la leccion de los espacios eucldeos). La ventaja es que (C1) y (C2) tienen
sentido incluso en espacios de dimension infinita, donde no disponemos de la nocion de signatura.

Teorema 2 Sea A = {akl }nk,l=1 un matriz real simetrica y formemos la sucesi on de menores
principales 1 , 2 , . . . , n . Entonces
(a) Es condici
on necesaria y suficiente para que A sea definida positiva, que

m > 0, m = 1, 2, . . . , n.

(b) Es condici
on necesaria y suficiente para que A sea definida negativa, que

(1)m m > 0, m = 1, 2, . . . , n.

Notese que m es el producto de los m primeros pivots que se obtienen al aplicar eliminacion
gaussiana sin intercambios de filas a la matriz A.

Ejercicios

Ejercicio 1. Reduce a suma de cuadrados por el metodo de Gauss las formas cuadraticas sigu-
ientes:
1 2 4 x 1 2 3 x

(x, y, z) 2 2 0
y , (x, y, z) 2 6 9 y .
4 0 7 z 3 9 4 z
Encontrar bases en las cuales dichas formas cuadraticas diagonalicen.
Ejercicio 2. Dadas las formas cuadraticas cuyas matrices en la base ordenada canonica de R4
son
2 4 6 4 1 1 2 3
4 5 9 4 1 2 5 1
A= 6
,
B=
,
9 19 8 2 5 6 9
4 4 8 24 3 1 9 11
encuentra transformaciones lineales que las reduzcan a una suma de cuadrados.
Ejercicio 3. Calcula una base ortogonal para las formas cuadraticas sobre R3 siguientes:
a) q(x, y, z) = x2 + 6y 2 + 7z 2 + 4xy 4yz.
b) q(x, y, z) = x2 y 2 + z 2 2xy + 2xz + 2yz.
c) q(x, y, z) = y 2 + 3z 2 + xy + xz + 4yz.
d) q(x, y, z) = 2xy 4xz + 2yz.
Ejercicio 4. Da una base de R3 en la cual la forma cuadratica

q(x, y, z) = x2 + y 2 + z 2 2xy + 2xz 3yz

( R) se reduzca a una suma de cuadrados. Determina los valores de para los que q(x, y, z)
es semidefinida positiva.

104
Ejercicio 5. Clasifica las siguientes formas cuadraticas sobre R3 en funcion de los valores del
parametro a R.
a) (a 3)x2 + ay 2 + 2xz
b) ax2 + ay 2 + z 2 + 4xy + 2yz
c) 4z 2 + 2axy
Ejercicio 6. Determina si las siguientes matrices son definidas positivas

7 7 4 2 1 2 1 1
7 9 5 2 2 8 6 4
.
4 5 10 6 , 1 6 6 6
2 2 6 4 1 4 6 15

Ejercicio 7. Determina los valores de a para los cuales las siguientes matrices son definidas
positivas
1 a a 1 1 a
A = a 1 a, B = 1 1 1.
a a 1 a 1 1

105
Tema 5

Reducci
on de matrices. Caso
diagonalizable

El tercer problema que tratamos aparece en varias aplicaciones. Consiste en encontrar una
forma de una matriz cuadrada lo mas sencilla posible, pero manteniendo una cierta estructura.
Ya veremos que esto es diferente a la eliminacion gaussiana, en el sentido de que tenemos que
mantener unos elementos asociados a las matrices que son los autovalores. El primer tema discute
el problema de cuando podemos expresar una matriz cuadrada en forma diagonal, es decir, con
todos los elementos nulos excepto los de la diagonal principal, y estos no pueden ser cualesquiera.
La segunda leccion del bloque pretende responder al caso general: si no es posible diagonalizar,
entonces como podemos reducir la matriz. Presenta tambien algunas primeras aplicaciones de
estos resultados, como resolver recurrencias vectoriales y ecuaciones en diferencias.

Ejemplo introductorio. Un ejemplo que puede ilustrar esta y la siguiente leccion es la rep-
resentacion vectorial de la sucesion de Fibonacci que, como es conocido, aparece de manera
insospechada en multitud de procesos. Un caso que puede resultar interesante es su formulaci on
en modelos de trafico en canales de comunicaci on, por ejemplo lneas telefonicas, que surgen en
teora de la informacion. Consideremos un canal de informacion y supongamos que dos informa-
ciones elementales S1 y S2 de duraciones, por ejemplo, t1 = 1 y t2 = 2 respectivamente (pensemos
en el punto y la lnea en el alfabeto Morse) pueden combinarse para obtener un mensaje. Uno
puede estar interesado en el n umero de mensajes Mn de longitud n. Estos mensajes pueden di-
vidirse en dos tipos: aquellos que terminan con S1 y los que terminan con S2 . El n umero de
mensajes de primer tipo es Mnt1 y el n umero de mensajes de segunda clase es Mnt2 . Entonces,
tenemos
Mn = Mn1 + Mn2 , n = 3, 4, . . .
o, igualmente
Mn+1 = Mn + Mn1 , n = 2, 3, . . . .
La relacion anterior es valida para cualquier n
umero natural n mayor que 3 y se establece entre
el n
umero de mensajes de longitud n y el de una y dos unidades de tiempo menos. Esta es la
llamada ecuacion de Fibonacci y es un ejemplo clasico de recurrencia. Para poder obtener el
valor de Mn para cualquier n, necesitamos dos datos iniciales correspondientes a M1 y M2 , que
se suponen conocidos.

106
Una manera de resolver el problema consiste en plantearlo en forma vectorial. Si ~vn =
(Mn , Mn1 )T , entonces

1 1
~vn+1 = A~vn = ~v , n = 2, 3, . . . ,
1 0 n

con ~v2 = (M2 , M1 )T conocido (llamado condicion inicial). Observemos que si aplicamos sucesiva-
mente la relacion anterior, tenemos

~vn = A~vn1 = A2~vn2 = A3~vn3 = = An2~v2 ,

de modo que para calcular ~vn (y por tanto Mn ) para cualquier n 3, necesitamos obtener una
expresion general de una potencia cualquiera de la matriz A, lo que en general no puede hacerse.
Entonces, hemos de buscar, si es posible, una representaci
on de la matriz que permita resolver
el problema por otro camino. Imaginemos que la condicion inicial ~v2 verificase

A~v2 = ~v2 ,

para cierto escalar . Entonces la solucion del problema sera sencilla de obtener, pues

~vn = An2~v2 = n2~v2 .

La pregunta es existen vectores especiales de esa forma, de manera que podamos escribir la
condicion inicial como combinacion de ellos?

5.1. Semejanza de matrices


Sean A, B Mn,n (K). Se dice que A es semejante con B si existe una matriz no singular
P Mn,n (K) tal que

B = P 1 AP.

Hay que notar que si A es semejante con B y K entonces In A es semejante con In B.


Ya hemos visto un ejemplo de semejanza de matrices al hablar de la matriz de una aplicacion
lineal en una base. Imaginemos que V es un espacio vectorial de dimension finita, B, B 0 son dos
bases de V y T : V V es una aplicacion lineal (cuando el espacio de partida y el de llegada es
el mismo, T se llama endomorfismo). Denotemos por

M (T, B, B) = M (T, B), M (T, B 0 , B 0 ) = M (T, B 0 ).

107
M (T, B, B) - VB
VB T (~x)
6 6

M (B 0 , B) M (B 0 , B)

M (T, B 0 , B 0 )
-
VB 0 VB 0
~x

Recordemos que la relacion entre las dos matrices de la aplicacion lineal T viene dada por la
matriz P = M (B 0 , B) de cambio de base:

M (T, B 0 ) = P 1 M (T, B)P.

Esto no es otra cosa que una relacion de semejanza: todas las matrices que representan al endo-
morfismo T en las distintas bases son semejantes entre s.
Presentada la nocion de semejanza de matrices, nos planteamos la cuestion de si dada una
matriz A Mn,n (K) puede haber una matriz semejante con ella cuya expresion sea sencilla, mas
concretamente diagonal.

5.2. Autovalores y autovectores. Polinomio caracterstico


Sea una matriz cuadrada A Mn,n (K). La expresion

pA (z) = det(zIn A), z C,

es un polinomio de grado n, de la forma

pA (z) = z n + an1 z n1 + + a1 z + a0 ,

que se llama polinomio caracterstico de la matriz A. Las races de la ecuacion pA (z) = 0 se


llaman races caractersticas de la matriz A. Factorizando el polinomio seg
un las distintas races,

pA (z) = (z 1 )m1 (z 2 )m2 (z r )mr ,

108
el n
umero mj , 1 j r se denomina multiplicidad algebraica de la raz caracterstica j . Puesto
que pA tiene grado n, se cumple siempre que

n = m1 + m2 + + mr .

Ademas det(A) = (1)n a0 = m mr


1 r .
1

El conjunto (A) = {1 , . . . , r } se llama espectro de A.


Observemos que si A, B Mn,n (K) son semejantes, entonces comparten el polinomio car-
acterstico y, por tanto, el espectro y el determinante. En particular, como las matrices que
representan a un endomorfismo T en distintas bases son semejantes, es posible definir el deter-
minante, el polinomio, las races caractersticas y el espectro de un endomorfismo T como los
correspondientes a una matriz que represente a T en alguna base.
Sea A Mn,n (K). Se dice que K es un valor propio o autovalor de A si existe alg
un vector
~v tal que

A~v = ~v .

Tales vectores se llaman autovectores de A asociados al autovalor .

Teorema 1. En esta situacion, las siguientes condiciones son equivalentes:


(1) es autovalor de A.
(2) Existe un vector ~v tal que A~v = ~v .
(3) La matriz In A es singular.
(4) pA () = det(In A) = 0.

As pues, los autovalores de A son las races caractersticas de la matriz A que se encuentran
en el cuerpo K considerado. Si K = C, el conjunto de valores propios coincide con el espectro de
A, mientras que si K = R, los autovalores son las races caractersticas que son n umeros reales.
Normalmente, para determinar los autovalores de una matriz se suele hacer uso de la cuarta
condicion del teorema, determinando si es posible los ceros del polinomio caracterstico que estan
en el cuerpo considerado.
Dado un autovalor de A, es claro que los vectores del subespacio Ker(In A) son los
autovectores asociados a y solo ellos. El subespacio

E(A, ) = Ker(In A),

se llama subespacio propio asociado a y su dimension

d() = dimE(A, ) 1,

es la multiplicidad geometrica del autovalor .

Ejemplos.

(1) Para la matriz



2 2 6
A = 2 1 3 ,
2 1 1

109
el polinomio caracterstico es

z 2 2 6
pA (z) = det(zI3 A) = det 2 z + 1 3 = (z + 2)2 (z 6).
2 1 z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 2, m1 = 2
2 = 6 m2 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geometrica. Para 1 = 2

4 2 6 x
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 2 1 3 y = ~0}
2 1 3 z
= {(x, y, z)T /2x + y 3z = 0} = span((1, 2, 0)T , (0, 3, 1)T )
d(1 ) = 2.
Mientras que para el otro autovalor

4 2 6 x
E(A, 2 ) = Ker(6I3 A) = {(x, y, z)T / 2 7 3 y = ~0}
2 1 5 z
= {(x, y, z)T /2x y + 3z = 0, y + z = 0} = span((2, 1, 1)T )
d(2 ) = 1.

(2) Para la matriz



1 1 0

A = 1 2 1 ,
0 1 1
el polinomio caracterstico es

z1 1 0
pA (z) = det(zI3 A) = det 1 z2 1 = z(z 1)(z 3).
0 1 z1
De modo que los autovalores con sus multiplicidades algebraicas son
1 = 0, m1 = 1
2 = 1 m2 = 1
3 = 3 m3 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geometrica. Para 1 = 0

1 1 0 x
T
E(A, 1 ) = Ker(A) = {(x, y, z) / 1 2 1 y = ~0}
0 1 1 z
= {(x, y, z)T /x = y = z} = span((1, 1, 1)T ) d(1 ) = 1.

110
Mientras que para el segundo autovalor

0 1 0 x
E(A, 2 ) = Ker(I3 A) = {(x, y, z)T / 1 1 1 y = ~0}
0 1 0 z
= {(x, y, z)T /y = 0, z = x} = span((1, 0, 1)T ) d(2 ) = 1,

y, para el tercero,

2 1 0 x
T
E(A, 3 ) = Ker(3I3 A) = {(x, y, z) / 1 1 1 y = ~0}
0 1 2 z
= {(x, y, z)T /x = z, y = 2z} = span((1, 2, 1)T ) d(3 ) = 1.

(3) Para la matriz



0 1 0

A= 1 0 1
0 0 2
el polinomio caracterstico es

z 1 0
pA (z) = det(zI3 A) = det 1 z 1 = (z 2)(z 2 + 1).
0 0 z2
De modo que, como matriz de elementos complejos, los autovalores con sus multiplicidades alge-
braicas son

1 = 2, m1 = 1
2 = i m2 = 1
3 = i m3 = 1.

Como matriz real, solo hay un valor propio 1 , mientras que el espectro lo forman las tres races.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geometrica, suponiendo que la matriz es compleja. Para 1 = 2

2 1 0 x
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 1 2 1 y = ~0}
0 0 0 z
= {(x, y, z)T /y = (2/5)z, x = (1/5)z} = span((1, 2, 5)T )
d(1 ) = 1.

Mientras que para el segundo autovalor



i 1 0 x
T
E(A, 2 ) = Ker(iI3 A) = {(x, y, z) / 1 i 1 y = ~0}
0 0 i2 z
= {(x, y, z)T /z = 0, x = iy} = span((1, i, 0)T ) d(2 ) = 1,

111
y, para el tercero,

i 1 0 x
E(A, 3 ) = Ker((i)I3 A) = {(x, y, z)T / 1 i 1 y = ~0}
0 0 i 2 z
= {(x, y, z)T /z = 0, x = iy} = span((1, i, 0)T ) d(3 ) = 1.

Nota: como 2 y 3 son conjugados, los vectores que generan cada subespacio propio tambien
lo son. Cuando la matriz tiene elementos reales, esta propiedad es general (por que?).

5.3. Diagonalizaci
on
A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos
de definir, es clara la importancia de los autovalores y los autovectores en la determinacion de
la solucion a nuestro problema. El objetivo es por tanto encontrar una manera de tratar de
transformar una matriz cuadrada A en una matriz diagonal o triangular sin cambiar sus valores
propios. Esto no se cumple para la eliminacion gaussiana: los autovalores de la matriz triangular
superior final del proceso de eliminacion no son los de la matriz original.
Comenzamos dando un criterio para determinar cuando podemos transformar una matriz en
otra diagonal.
Sea A Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable si existe una matriz
semejante con ella que es diagonal. Esto significa que existe una matriz P Mn,n (K) no singular
tal que

D = P 1 AP

es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal
principal, es claro que la matriz diagonal semejante a la matriz A tiene por entradas diagonales
los autovalores de A.

Teorema 2. Sea A Mn,n (K) y 1 , . . . , r los autovalores de A. Entonces

(a) Los subespacios E(A, 1 ), . . . , E(A, r ) son independientes.

(b) La multiplicidad geometrica d(j ) de cada autovalor es a lo sumo su multiplicidad algebraica


m(j ).

(c) La matriz A es diagonalizable si y solo si se verifican las dos condiciones siguientes:

(i) j K, j = 1, . . . , r (esta condicion siempre se cumple si K = C).


(ii) d(j ) = m(j ), j = 1, . . . , r.

(d) La matriz A es diagonalizable si y solo si

Kn = E(A, 1 ) E(A, r ).

Esto equivale a decir que A es diagonalizable si y solo si existe una base en Kn formada por
vectores propios de A.

112
El criterio practico para determinar si una matriz A es diagonalizable es el siguiente:

(1) Determinar los autovalores de A a traves de las races de su polinomio caracterstico pA (z) =
det(zIn A). Si alguna de sus races ya no esta en K, la matriz ya no es diagonalizable.

(2) Supongamos que todas las races caractersticas 1 , . . . , r estan en K. La determinacion


de estas races j (los autovalores) nos permite conocer cada una de las multiplicidades
algebraicas m(j ) (que recordemos es la multiplicidad de j como cero del polinomio carac-
terstico). A continuacion determinamos la dimension de cada subespacio propio E(A, j ) =
Ker(j In A), es decir, la multiplicidad geometrica d(j ). Para cada autovalor j com-
probamos si se cumple la segunda condicion: d(j ) = m(j ). Si para alguno falla, la matriz
no es diagonalizable.

(3) Caso de que todos los autovalores verifiquen las dos condiciones (i) y (ii) del apartado (c)
del Teorema 2, determinamos una base Bj de cada subespacio propio E(A, j ) y juntamos
todas las bases para formar una base de Kn : B = B1 Br . Entonces, si P es la matriz
cuyas columnas son los vectores de la base B, se tiene que P 1 AP es diagonal con los
elementos de la diagonal principal siendo los autovalores de A.

Ejemplos.

(1) Para la matriz



2 2 6
A = 2 1 3 ,
2 1 1

ya hemos visto que los autovalores con sus multiplicidades son

1 = 2, m1 = 2, d1 = 2
2 = 6 m2 = 1, d2 = 1.

luego la matriz es diagonalizable en R. Tambien calculamos anteriormente una base de cada


subespacio propio:

E(A, 1 ) = span((1, 2, 0)T , (0, 3, 1)T )


E(A, 2 ) = span((2, 1, 1)T ).

Entonces, si

1 0 2
P = 2 3 1 ,
0 1 1

se tiene que

2 0 0
P 1 AP = 0 2 0 .
0 0 6

113
(2) Para la matriz

1 1 0
A = 1 2 1 ,
0 1 1
se tiene

1 = 0, m1 = 1, d1 = 1
2 = 1 m2 = 1, d2 = 1
3 = 3 m3 = 1, d3 = 1.

La matriz es diagonalizable en R. La base de autovectores es la siguiente:

E(A, 1 ) = span((1, 1, 1)T )


E(A, 2 ) = span((1, 0, 1)T )
E(A, 3 ) = span((1, 2, 1)T ).

Luego si

1 1 1
P = 1 0 2 ,
1 1 1
se tiene que

0 0 0
P 1 AP = 0 1 0.
0 0 3
Este es un ejemplo de un caso particular de matrices diagonalizables: aquellas cuyos autovalores
estan en el cuerpo considerado y son todas distintas.

(3) Para la matriz



0 1 0
A = 1 0 1
0 0 2
se tiene

1 = 2, m1 = 1, d1 = 1
2 = i m2 = 1, d2 = 1
3 = i m3 = 1, d3 = 1.

Como matriz real, A no es diagonalizable, pues tiene dos autovalores que no son reales. Pero
como matriz compleja, A es diagonalizable. La base de autovectores es la siguiente:

E(A, 1 ) = span((1, 2, 5)T )


E(A, 2 ) = span((1, i, 0)T )
E(A, 3 ) = span((1, i, 0)T ).

114
Luego si

1 1 1
P = 2 i i ,
5 0 0
se tiene que

2 0 0
1
P AP = 0 i 0 .
0 0 i

5.4. Triangularizaci
on
Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del teorema anterior,
la matriz A no es diagonalizable. Cuando la segunda de las condiciones de diagonalizacion falla
manteniendose la primera (los autovalores estan en el cuerpo considerado) la matriz a
un puede
reducirse a forma triangular superior por semejanza.

Teorema 3. Sea A Mn,n (K). Entonces existen una matriz U Mn,n (K) no singular y una
matriz triangular superior S Mn,n (K) tales que S = U 1 AU si y solo si los autovalores de
A estan en K (esta condicion se satisface siempre cuando K = C). La matriz U puede elegirse
unitaria (U = U 1 ).

La demostracion es constructiva y por tanto da la forma de actuar en los ejemplos. Si se


verifica que S = U 1 AU , entonces los autovalores de A estan en K, pues son los elementos de
la diagonal principal de S. Recprocamente, supongamos que los autovalores de A est an en K
y procedamos por induccion sobre n. La propiedad es cierta para n = 1 (toda matriz 1 1 es
triangular). Supongamos entonces que la propiedad es cierta para todas las matrices de tama no
(n 1) (n 1) y veamos que tambien es cierta si A tiene tama no n n.
Tomemos un autovalor 1 de A y ~v1 un autovector asociado con norma uno. Consideremos
una base ortonormal B = {~v1 , ~v2 , . . . , ~vn } que tenga a ~v1 como primer vector. Entonces, si P es
la matriz cuyas columnas son los vectores de la base, la matriz A0 = P 1 AP tiene como primera
columna al vector (1 , 0, 0, . . . , 0)T , de modo que

1
0

A0 = .. ,
. A1
0
donde A1 es una matriz de tamano (n 1) (n 1) y denota escalares cuyo valor es irrelevante
para nuestro razonamiento.
Como A0 es semejante con A, tienen los mismos autovalores, que son 1 y los de A1 . Luego los
autovalores de A1 son los de A menos 1 una vez. Por hipotesis de induccion, existe una matriz
no (n 1) (n 1) tal que S1 = U11 A1 U1 es triangular superior.
regular y unitaria U1 de tama
Sea U la matriz

1
0

U = P .. ,
. U1
0

115
entonces U es unitaria por ser producto de matrices unitarias y ademas
1
1 1
0 0

U 1 AU = .. P 1 AP ..
. U1 . U1
0 0
1
1 1
0 0

= .. A0 ..
. U1 . U1
0 0

1 1 1 1
0 0 0

= .. .. ..
. U11 . A1 . U1
0 0 0

1
0

= .. 1
. U1 A1 U1
0

1
0

= .. ,
. S1
0
que es una matriz triangular superior.

Ejemplo. La matriz

3 1 0
A= 0 2 1,
1 1 1
tiene un u
nico autovalor 1 = 2 con multiplicidad m(1 ) = 3. Veamos que es triangularizable en
R. El subespacio propio asociado es

1 1 0 x
E(A, 1 ) = Ker(2I3 A) = {(x, y, z) / 0 T
0 1 y = ~0}
1 1 1 z

= {(x, y, z) /z = 0, y = x} = span((1/ 2, 1/ 2, 0)T ) d(1 ) = 1.
T

Como
las multiplicidades
no coinciden, la matriz no es diagonalizable en R. Consideremos ~v1 =
(1/2, 1/ T
2, 0) y completemos hasta formar una base ortonormal, por ejemplo con ~v2 =
(1/ 2, 1/ 2, 0)T , ~v3 = (0, 0, 1)T . Entonces

2 1 1/ 2
A0 = P 1 AP = 0 3
1/ 2 .
0 2 1
La matriz A1 es

3
1/ 2
A1 = .
2 1

116
A1 tiene un u
nico autovalor = 2 con multiplicidad m() = 2. El subespacio propio asociado es

1 1/ 2 x
E(A1 , ) = Ker(2I3 A1 ) = {(x, y) / T = ~0}
2 1 y

= {(x, y)T /y = 2x} = span((1/ 3, 2/ 3)T ) d() = 1,
T
que no es diagonalizable. Tomamos w ~1 =
(1/ 3,
2/ 3) y completamos hasta una base
ortogonal de R2 , por ejemplo, con w
~ 2 = ( 2/ 3, 1/ 3)T . Sea

1/
3 2/ 3
U1 = .
2/ 3 1/ 3
Entonces
p
2 9/2
U11 A1 U1 = .
0 2
Sea

1 0 0
U = P 0 1/
3 2/ 3 .
0 2/ 3 1/ 3
Por tanto

2 2/ 3 p
1/ 6
U 1 AU = 0 2 9/2 .
0 0 2

5.5. Diagonalizaci
on ortogonal
Hemos visto que la diagonalizacion de una matriz, o de un endomorfismo, es un problema
que no siempre tiene solucion. Hay, sin embargo, un caso particular de matrices que son siempre
diagonalizables y para las que las bases de diagonalizacion tienen estructura especial.
Recordemos que la adjunta A Mn,m (K) de una matriz dada A Mm,n (K) se define como
la traspuesta conjugada (A = AT ). Ademas, es importante la relacion con el producto interno

hA~x, ~y i = h~x, A ~y i, ~x Kn , ~y Km .

La adjunta se comporta con la suma y el producto por un escalar en el sentido siguiente:

(A + B) = A + B , .
(A) = A

Ademas, (A ) = A.
Se dice que una matriz A Mn,n (R) es

simetrica si AT = A = A,

antisimetrica si AT = A = A,

ortogonal si A es no singular y AT = A = A1 .

Analogamente, una matriz A Mn,n (C) es

117
hermtica si A = A,
antihermtica si A = A,
unitaria si A es no singular y A = A1 .
Recordemos tambien que A Mn,n (R) (resp. A Mn,n (C)) es ortogonal (resp. unitaria) si
sus columnas forman una base ortonormal de Rn (resp. C n ).
Las matrices destacables son las simetricas en el caso real y las hermticas en el caso complejo.
Ambas son siempre diagonalizables. Ademas, la matriz formada por la base de autovectores es
ortogonal en el caso real y unitaria en el caso complejo.

Teorema 4. Sea A Mn,n (R) una matriz simetrica. Entonces


(1) Todos los autovalores 1 , . . . , r de A son reales.
(2) Si y son autovalores de A distintos, los correspondientes subespacios propios E(A, ),
E(A, ) son ortogonales.
(3) Existe una matriz ortogonal P Mn,n (R) tal que P T AP = P 1 AP es diagonal.

IMPORTANTE: en la practica, se procede como en una diagonalizacion normal, con la u


nica
diferencia de que para cada subespacio propio se elige una base ortonormal.

Ejemplo. Vamos a diagonalizar ortogonalmente la matriz



3 1 1
A = 1 3 1.
1 1 3
El polinomio caracterstico es
pA (z) = (z 2)2 (z 5),
de manera que los autovalores con sus multiplicidades algebraicas son
1 = 2, m(1 ) = 2
2 = 5, m(2 ) = 1.
Los subespacios propios son los siguientes. Para 1 = 2

1 1 1 x
E(A, 1 ) = Ker(2I3 A) = {(x, y, z)T / 1 1 1 y = ~0}
1 1 1 z
= {(x, y, z)T /x + y + z = 0}

= span((1/ 2, 0, 1/ 2)T , (1/ 6, 2/ 6, 1/ 6)T ) d(1 ) = 2.
Fijemonos en que hemos elegido una base ortonormal del subespacio. Esta es la u
nica diferencia.
Para el otro autovalor

2 1 1 x
E(A, 2 ) = Ker(5I3 A) = {(x, y, z)T / 1 2 1 y = ~0}
1 1 2 z
= {(x, y, z)T /x 2y + z = 0, y z = 0}

= span((1/ 3, 1/ 3, 1/ 3)T ) d(2 ) = 1.

118
Los autovectores asociados a autovalores distintos ya son ortogonales entre s. Como las mul-
tiplicidades coinciden, la matriz es diagonalizable. La base elegida al juntar las bases de cada
subespacio propio, es ortonormal, de modo que la matriz

1/ 2 1/ 6 1/3
P = 0 2/ 6 1/3 ,
1/ 2 1/ 6 1/ 3
es ortogonal. Ademas,

2 0 0
T 1
P AP = P AP = 0 2 0.
0 0 5

Teorema 5. Sea A Mn,n (C) una matriz hermtica. Entonces

(1) Todos los autovalores de A son reales.

(2) Si y son autovalores de A distintos, los correspondientes subespacios propios E(A, ),


E(A, ) son ortogonales.

(3) Existe una matriz unitaria U Mn,n (C) tal que U AU = U 1 AU es diagonal.

Ejercicio. Diagonaliza unitariamente la matriz



2
i 2 i 2
A = i2 3 1 .
i 2 1 3

EJERCICIOS DEL TEMA 5

Ejercicio 1. Se considera la aplicacion lineal T : R3 R3 siguiente


T ([x, y, z]T ) = [2x + z, x + y + z, x y + 3z]T .
Se considera en R3 la base B 0 = {[3, 1, 0]T , [1, 3, 0]T , [0, 0, 1]T }.
a) Halla la matriz de T respecto de la nueva base B 0 .
b) Halla una base B 00 de R3 en la cual la matriz de la aplicacion lineal sea diagonal.

Ejercicio 2. Sea T : R3 R3 una aplicacion lineal que admite por vectores propios a
v1 = (1, 1, 0)T , v2 = (1, 1, 0)T , v3 = (0, 0, 1)T .
Se sabe ademas que la imagen del vector w = (3, 1, 1)T es el vector (8, 0, 2)T . Halla los valores
propios de T .

Ejercicio 3. Encuentra los autovalores y autovectores de las siguientes matrices:



1 0 0 0 2 1 1 0 4 1 2 1
0 1 0 0 0 1 0 0 2 2 2 1
, ,
0 0 1 0 1 1 0 0 4 2 2 2 .
1 1 1 2 1 1 1 2 1 0 1 1

119
Ejercicio 4. Demuestra que las matrices

4a 1 1 1a 1 0
A= 6 1 a 2 B= 0 1a 0
2 1 1a 0 0 2a
son semejantes independientemente del valor de a, pero que las matrices

2 0 0 2 0 3
C = 0 2 0 D = 0 2 1
0 0 2 0 0 2
no son semejantes.

Ejercicio 5. Estudia para que valores de los parametros reales a y b son diagonalizables las
siguientes matrices
5 0 3 2 0 0
A = 0 1 0 , B = 0 1 a.
0 a b 1 1 1
Halla un sistema completo de autovectores cuando sea posible.

Ejercicio 6. Encuentra autovalores, autovectores, forma diagonal y matriz de paso para las
siguientes matrices
0 1 2 1 0 1
1 0 3, 0 1 2 .
2 3 0 0 0 2

Ejercicio 7. Determina si las siguientes matrices son o no diagonalizables. En caso afirmativo,


encuentra la matriz de paso y la forma diagonal asociada.

1 1 2 2 1 0 3 1 1
1 2 1 , 0 0 1, 1 1 1 ,
0 1 1 0 0 0 1 1 1

2 2 0 0 4 1 0 1
7 2 4 5
3 1 0 0 ,
2
3 0 1 .
0 2 , 0 0 2 1 2 1 2 3
6 2 3
0 0 5 2 2 1 0 5

Ejercicio 8. Se consideran las matrices complejas siguientes:



2 i 2 i 2 5 2i 4
A = i2 3 1 , B = 2i 8 2i .
i 2 1 3 4 2i 5
Halla matrices unitarias U , V tales que U 1 AU , V 1 BV sean diagonales, y halla dichos produc-
tos.

Ejercicio 9. Diagonaliza ortogonalmente las matrices simetricas



4 0 2 3 1 0 1 2 1
A = 0 10 0, B = 1 3 0 , C= 2 2 2 ,
2 0 4 0 0 2 1 2 1

120
encontrando matrices ortogonales P , Q y R tales que P 1 AP , Q1 BQ y R1 CR sean diagonales.
Idem para la matriz
1 2 3
D = 2 4 6.
3 6 9

Ejercicio 10. Sea


2 1 0
A = 1 1 1.
0 1 2
Halla una matriz ortogonal P con det(P )=1 y tal que P T AP sea una matriz diagonal con los
elementos diagonales dispuestos en orden decreciente.

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 5

Ejercicio 1.
a)
5/2 1 2 1/2
M (T, B 0 , B 0 ) = 3/2 1/2 1/2 .
4 4 3
b) Los autovalores con sus multiplicidades algebraicas son

1 = 1, m1 = 1
2 = 2 m2 = 1
3 = 3 m3 = 1.

Y los autoespacios asociados son

E(A, 1 ) = Ker(I3 A) = span((1, 1, 1)T ),


E(A, 2 ) = Ker(2I3 A) = span((1, 1, 0)T ),
E(A, 3 ) = Ker(3I3 A) = span((1, 1, 1)T ).

Entonces, por ejemplo B 00 ) = {(1, 1, 1)T , (1, 1, 0)T , (1, 1, 1)T } y la matriz de T en esta base es

1 0 0
M (T, B 00 , B 00 ) = 0 2 0.
0 0 3

Ejercicio 3.
1 0 0 0
0 1 0 0
A=
0
.
0 1 0
1 1 1 2
pA (z) = (z 2)(z 1)3

121
1 = 2, m1 = 1, d1 = 1
2 = 1 m2 = 3.

E(A, 1 ) = Ker(2I4 A) = {(x, y, z, t)T /x = y = z = 0} = span((0, 0, 0, 1)T ),


E(A, 2 ) = Ker(I4 A) = {(x, y, z, t)T /x + y z t = 0}
= span((1, 0, 0, 1)T , (0, 1, 0, 1)T , (0, 0, 1, 1)T ) d2 = 3.

A diagonaliza.

2 1 1 0
0 1 0 0
A=
1
.
1 0 0
1 1 1 2
pA (z) = (z 2)(z 1)3

1 = 2, m1 = 1, d1 = 1
2 = 1 m2 = 3.

E(A, 1 ) = Ker(2I4 A) = {(x, y, z, t)T /x = y = z = 0} = span((0, 0, 0, 1)T ),


E(A, 2 ) = Ker(I4 A) = {(x, y, z, t)T /z = x + y, t = 0}
= span((1, 0, 1, 0)T , (0, 1, 1, 0)T ) d2 = 2.

A no diagonaliza.

4 1 2 1
2 2 2 1
A=
4
.
2 2 2
1 0 1 1
pA (z) = (z 2)(z 1)3

1 = 2, m1 = 1, d1 = 1
2 = 1 m2 = 3.

E(A, 1 ) = Ker(2I4 A) = span((1, 0, 1, 0)T ),


E(A, 2 ) = Ker(I4 A) = span((0, 1, 0, 1)T ) d2 = 1.

A no diagonaliza.

Ejercicio 4. Dos matrices son semejantes si tienen los mismos autovalores y con las mismas
multiplicidades, tanto algebraica como geometrica. Para A y B, basta ver que aI + A y aI + B
son semejantes. Para las dos, los autovalores con sus multiplicidades son

122
1 = 1, m1 = 2, d1 = 1
2 = 2 m2 = 1, d2 = 1.

Luego son semejantes. Por otro lado, si C y D fuesen semejantes, tambien lo seran 2I C y
2I D, pero
0 0 0 0 0 3
2I C = 0 0 0 , 2I D = 0 0 1 ,
0 0 0 0 0 0
que nunca pueden ser semejantes.

Ejercicio 5. A es diagonalizable en los siguientes casos


b 6= 5, b 6= 1. Base de autovectores:

E(A, 5) = Ker(5I3 A) = span((1, 0, 0)T ),


E(A, 1) = Ker(I3 A) = span((a, 2(1 + b), 2a)T ),
E(A, b) = Ker(bI3 A) = span((3, 0, b 5)T ).

b = 1, a = 0. Base de autovectores:

E(A, 5) = Ker(5I3 A) = span((1, 0, 0)T ),


E(A, 1) = Ker(I3 A) = span((0, 1, 0)T , (1, 0, 2)T ).

B es diagonalizable solo en el caso:


a 6= 0, a 6= 1. Base de autovectores:

E(B, 2) = Ker(2I3 B) = span((1 a, a, 1)T ),



E(B, 1 + a) = Ker((1 + a)I3 B) = span((0, a, 1)T ),

E(B, 1 a) = Ker((1 a)I3 B) = span((0, 2 a, 1)T ).

Ejercicio 6.
0 1 2
A= 1 0 3 . pA (z) = z(z 2 + 14).
2 3 0
Los autovalores con sus multiplicidades algebraicas son

1 = 0, m1 = 1

2 = i 14 m2 = 1

3 = i 14 m3 = 1.

Y los autoespacios asociados son

E(A, 1 ) = Ker(A) = span((3, 2, 1)T ),



E(A, 2 ) = Ker(i 14I3 A) = span((16 2i 14, 2 3i 14, 13)T ),

E(A, 3 ) = Ker(i 14I3 A) = span((16 + 2i 14, 2 + 3i 14, 13)T ).

123

3 16 2i 14 16 + 2i 14 0 0 0
P = 2 2 3i 14 2 + 3i 14 , D = 0 i 14 0

.
1 13 13 0 0 i 14

1 0 1

A= 0 1 2 . pA (z) = (z 2)(z 1)2 .
0 0 2
Los autovalores con sus multiplicidades algebraicas son

1 = 1, m1 = 2
2 = 2, m2 = 1.

Y los autoespacios asociados son

E(A, 1 ) = Ker(I3 A) = span((1, 0, 0)T , (0, 1, 0)T ),


E(A, 2 ) = Ker(2I3 A) = span((1, 2, 1)T ).

1 0 1 01 0 0
P = 0 1 2 , D= 0 1 0.
0 0 1 0 0 2

Ejercicio 7.
1 1 2
A = 1 2 1 . pA (z) = (z 1)(z + 1)(z 2).
0 1 1
A diagonaliza. Base de autovectores:

E(A, 1) = Ker(I3 A) = span((3, 2, 1)T ),


E(A, 1) = Ker(I3 A) = span((1, 0, 1)T ),
E(A, 2) = Ker(2I3 A) = span((1, 3, 1)T ).

3 1 1 1 0 0

P = 2 0 3, D = 0 1 0 .

1 1 1 0 0 2

2 1 0
A = 0 0 1. pA (z) = z 2 (z 2).
0 0 0

1 = 0, m1 = 2,
2 = 2 m2 = 1, d2 = 1.


2 1 0
E(A, 0) = Ker(A) = Ker 0 0 1 d1 = 1,
0 0 0

A no diagonaliza.

124

3 1 1
A = 1 1 1 . pA (z) = (z 1)(z 2)2 .
1 1 1

1 = 2, m1 = 2,
2 = 1 m2 = 1, d2 = 1.

E(A, 2) = Ker(2I3 A) = {(x, y, z)T /x = y + z} = span((1, 0, 1)T , (1, 1, 0)T ) d1 = 2,


E(A, 1) = Ker(I3 A) = span((1, 2, 1)T ).

A diagonaliza.
1 1 1 2 0 0
P = 0 1 2 , D = 0 2 0.
1 0 1 0 0 1

4 1 0 1
2 3 0 1
A= . pA (z) = (z 4)(z 6)(z 2)2 .
2 1 2 3
2 1 0 5

1 = 2, m1 = 2
2 = 4 m2 = 1 = d2
3 = 6 m3 = 1 = d3 .

E(A, 2) = Ker(2I4 A) = span((0, 0, 1, 0)T , (2, 1, 0, 1)T ),


E(A, 4) = Ker(4I4 A) = span((2, 1, 1, 1)T ),
E(A, 6) = Ker(6I4 A) = span((2, 2, 1, 2)T ).

A diagonaliza.
0 2 2 2 2 0 0 0
0 1 1 2 0 2 0 0
P =
1
, D= .
0 1 1 0 0 4 0
0 1 1 2 0 0 0 6

Ejercicio 8.
pA (z) = (z 4)2 z.

1 = 4, m1 = 2
2 = 0 m2 = 1 = d2 .


E(A, 4) = Ker(4I3 A) = span((i 2/2, 1, 0)T , (i 2/2, 0, 1)T ),

E(A, 0) = Ker(A) = span((i 2, 1, 1)T ).

125
q q
2
Base ortonormal de E(A, 4): ~e1 = 3 (i2/2, 1, 0)T , ~e2 = 34 (i 2/3, 1/3, 1)T .

Base ortonormal de E(A, 0): ~e3 = (i 2/2, 1/2, 1/2)T .
q q
2 3
3 (i
q
2/2) 4 (i 2/3) i 2/2
q 4 0 0

U = 2
3
3
4 (1/3) 1/2 , U 1 AU = 0 4 0.
q
3 0 0 0
0 4 1/2

Ejercicio 9.
3 1 0
B = 1 3 0, pB (z) = (z 2)2 (z 4).
0 0 2

1 = 2, m1 = 2
2 = 4 m2 = 1.

Bases ortonormales de los autoespacios:



E(B, 2) = Ker(2I3 B) = span((1/ 2, 1/ 2, 0)T , (0, 0, 1)T ),

E(B, 4) = Ker(4I3 B) = span((1/ 2, 1/ 2, 0)T ).

1/2 0 1/ 2 2 0 0
Q = 1/ 2 0 1 2 , Q1 AQ = 0 2 0 .
0 1 0 0 0 4

Ejercicio 10.
2 1 0
A = 1 1 1, pB (z) = z(z 2)(z 3).
0 1 2

1 = 3, m1 = 1
2 = 2 m2 = 1
3 = 0 m3 = 1.

Bases ortonormales de los autoespacios:



E(A, 3) = Ker(3I3 A) = span((1/ 3, 1/ 3, 1/ 3)T ),

E(A, 2) = Ker(2I3 A) = span((1/ 2, 0, 1/ 2)T ),

E(A, 0) = Ker(A) = span((1/ 6, 2/ 6, 1/ 6)T ).

1/3 1/ 2 1/ 6 3 0 0
Q = 1/3 0 2 6 , Q1 AQ = 0 2 0 .
1/ 3 1/ 2 1/ 6 0 0 0

126
Tema 6

Reducci
on de matrices. Caso no
diagonalizable

Ejemplo introductorio. Un curso de Algebra y Ecuaciones Diferenciales se imparte en dos


1 1
grupos, A y B. Cada semana dejan el curso de los que estan en el grupo A y de los que
4 3
1 1 1
estan en B. Ademas, del grupo B se pasa al grupo A y de A pasa a B. Finalmente, de los
6 4 6
1
que abandonaron en la semana anterior se incorporaron al grupo A y al grupo B. Calcula la
6
recurrencia vectorial asociada al problema. Si inicialmente hay 108 matriculados en el grupo A,
90 en B y 12 que se matriculan pero abandonan el curso, cual sera la distribucion de las clases
y los abandonos transcurridos dos meses de curso?
Denotemos por A[n] los alumnos que hay en el grupo A en la semana n, B[n] los alumnos
que estan en el grupo B en la semana n y C[n] los alumnos que dejan el curso tras la semana n.
Inicialmente A[0] = 108, B[0] = 90, C[0] = 12. las relaciones entre una semana y la siguiente es,
segun el enunciado,
1 1 1
A[n + 1] = A[n] + B[n] + C[n]
2 6 6
1 1 1
B[n + 1] = A[n] + B[n] + C[n]
4 2 6
1 1 2
C[n + 1] = A[n] + B[n] + C[n]
4 3 3
Matricialmente, si ~v [n] = (A[n], B[n], C[n])T , tenemos el sistema

1/2 1/6 1/6
~v [n + 1] = A~v [n] = 1/4 1/2 1/6 ~v [n],
1/4 1/3 2/3
~v [0] = (108, 90, 12)T .

La distribucion tras dos meses de curso, es ~v [8] = A8~v [0]. Nuestro problema ahora es que no
podemos aplicar los resultados de la leccion anterior porque la matriz A no es digonalizable.
En el tema anterior establecimos condiciones para la diagonalizacion de una matriz cuadrada.
Cuando una de las condiciones de diagonalizacion fallaba, a un podamos triangularizar la matriz,

hacerla semejante a una matriz triangular superior. Esta no es, sin embargo, la representacion mas

127
simple de la matriz en el caso de que esta no diagonalice por no cumplir la segunda condicion. Para
las aplicaciones que nos interesan, que seran las que aparecen en este tema y los dos siguientes,
buscaremos una representacion a traves de una base de los llamados autovectores generalizados.
Esta representacion viene dada por el teorema de descomposicion primaria. El primer bloque de
aplicaciones de estos resultados sera tratado tambien en este tema y corresponde a las llamadas
recurrencias vectoriales; en particular las ecuaciones en diferencias.

6.1. Autoespacios generalizados


Sea A Mn,n (K) una matriz cuadrada, que puede corresponder a un endomorfismo sobre
un espacio vectorial de dimension finita. Sea un autovalor de A. Sabemos que el autoespacio
asociado a es el subespacio E(A, ) = Ker(In A). Cuando la matriz no diagonaliza por no
cumplir la segunda condicion de diagonalizacion, es porque para alg un autovalor la multiplicidad
geometrica d() = dimE(A, ) no coincide con la algebraica m() (orden de como raz del
polinomio caracterstico). Si eso ocurre para nuestro , la idea es tratar de encontrar un subespacio
relacionado con E(A, ) cuya dimension sea justamente m(). Este subespacio puede encontrarse
a traves de las potencias de In A.

Lema 1. Sea A Mn,n (K) y un autovalor de A. Se verifica:

(a) Cada subespacio Ker(In A)k , k 0 es invariante frente a A.

(b) Ker(In A)k Ker(In A)k+1 , k 0.

(c) Si para un entero k0 se da la igualdad

Ker(In A)k0 = Ker(In A)k0 +1 ,

entonces

Ker(In A)k = Ker(In A)k+1 , k k0 .

Fijado , se puede demostrar que la sucesion de subespacios

Ker(In A) Ker(In A)2 Ker(In A)3

estabiliza en alguna potencia de (In A). Esto significa que hay un primer entero k() para el
cual

Ker(In A)k() = Ker(In A)k()+1 ,

y, por el apartado (c) del lema 1, todos los siguientes subespacios coinciden. El subespacio

Eg (A, ) = Ker(In A)k()

se llama autoespacio generalizado correspondiente a . Sus elementos se llaman autovectores


generalizados asociados a . Notese que si m k() se tiene que

Eg (A, ) = Ker(In A)m .

128
Tambien, si A es diagonalizable, Eg (A, ) = E(A, ).

Ejemplo. Vamos a buscar los autoespacios generalizados de la matriz



1 2 3 4
0 1 1 2
A=
0
.
0 1 4
0 0 0 3
Los autovalores con sus multiplicidades algebraicas son
1 = 1, m(1 ) = 3
2 = 3, m(2 ) = 1.
Para el primer autovalor

0 2 3 4 x
0 0 1 2 y

E(A, 1 ) = Ker(I3 A) = {(x, y, z, t)T / = ~0}
0 0 0 4 z
0 0 0 4 t
= {(x, y, z, t)T /t = 0, z = 0, y = 0} = span((1, 0, 0, 0)T ) d(1 ) = 1.

0 0 2 32 x
0 0 0 4 y
Ker(I3 A)2 = {(x, y, z, t)T / = ~0}
0 0 0 16 z
0 0 0 16 t
= {(x, y, z, t)T /t = 0, z = 0} = span((1, 0, 0, 0)T , (0, 1, 0, 0)T ).

0 0 0 120 x
0 0 0 16 y
Ker(I3 A)3 = {(x, y, z, t)T / = ~0}
0 0 0 64 z
0 0 0 64 t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).

0 0 0 480 x
0 0 0 64 y
Ker(I3 A)4 = {(x, y, z, t)T / = ~0}
0 0 0 256 z
0 0 0 256 t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
Luego Eg (A, ) = Ker(I3 A)3 . Para el segundo autovalor

4 2 3 4 x
0 4 1 2
E(A, 2 ) = Ker(3I3 A) = {(x, y, z, t)T / y = ~0}
0 0 4 4 z
0 0 0 0 t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ) d(2 ) = 1.

129

16 16 26 0 x
0 16 8 12 y
Ker(3I3 A)2 = {(x, y, z, t)T / = ~0}
0 0 16 16 z
0 0 0 0 t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = t}
= span((15, 2, 8, 8)T ).

Luego Eg (A, ) = E(A, ) = Ker(3I3 A).

6.2. Teorema de descomposici


on primaria
El teorema que nos da una reduccion de la matriz a traves de los autovectores generalizados
es el siguiente. Mas adelante veremos ejemplos.

Teorema 1. Sea A Mn,n (K) y supongamos que todos los autovalores de A, 1 , . . . , r , estan
en K. Para cada j = 1, . . . , r pongamos d(j ) = dimE(A, j ) la multiplicidad geometrica, m(j )
la multiplicidad algebraica y k(j ) el primer entero donde se estabiliza la sucesion de n ucleos
{Ker(j In A)k }k1 . Se cumple entonces que

(1) k(j ) m(j ), 1 j r.

(2) dimEg (A, j ) = m(j ), 1 j r.

(3) El espacio Kn es suma directa de los autoespacios generalizados:

Kn = Eg (A, 1 ) Eg (A, 2 ) Eg (A, r ).

(4) Tomemos una base arbitraria Bj de cada autoespacio generalizado Eg (A, j ), 1 j r.


Entonces B = B1 Br es una base de Kn . Si P es la matriz cuyas columnas son los
vectores de B, entonces P 1 AP es diagonal por bloques, es decir,

P 1 AP = diag(T1 , . . . , Tr ),

donde Tj es una matriz de tama


no m(j ) m(j ) de la forma

Tj = j Im(j )m(j ) + Nj ,

con Nj Mm(j )m(j ) (K) una matriz tal que para alguna potencia s, Njs = 0 es la matriz
nula.

Para las aplicaciones que ahora veremos y las de los temas siguientes, es mas importante
obtener la base de autovectores generalizados que la forma diagonal por bloques semejante.

Ejemplos. Buscamos una base de autovectores generalizados para las siguientes matrices.

(1)

5 4 3
A = 1 0 3 .
1 2 1

130
El polinomio caracterstico es pA (z) = (z 4)2 (z + 2), de modo que los autovalores con sus
multiplicidades algebraicas son

1 = 4, m(1 ) = 2
2 = 2, m(2 ) = 1.

Para el primer autovalor



1 4 3 x 0
E(A, 1 ) = Ker(4I3 A) = {(x, y, z)T / 1 4 3 y = 0 }
1 2 3 z 0
= {(x, y, z)T /x = z, y = z} = span((1, 1, 1)T ) d(1 ) = 1.

Luego

0 18 18 x 0
2 T
Eg (A, 1 ) = Ker(4I3 A) = {(x, y, z) / 0 18 18
y = 0 }

0 18 18 z 0
= {(x, y, z)T /y = z} = span((1, 1, 1)T , (1, 0, 0)T ).

Para el segundo autovalor



7 4 3 x 0
E(A, 2 ) = Ker(2I3 A) = {(x, y, z)T / 1 2 3 y = 0 }
1 2 3 z 0
= {(x, y, z)T /y = z, x = z} = span((1, 1, 1)T ) d(2 ) = 1.

Luego los vectores ~v1 = (1, 1, 1)T , ~v2 = (1, 0, 0)T , ~v3 = (1, 1, 1)T forman una base de autovec-
tores generalizados, de los cuales son autovectores ~v1 y ~v3 . Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , la forma reducida semejante a A tiene la forma

4 1 0
P 1 AP = 0 4 0 .
0 0 2

donde las columnas de P 1 AP estan formadas por las coordenadas de A~v1 , A~v2 y A~v3 en la base
nueva. Se tiene

A~v1 = 4~v1
A~v2 = (A 4I3 )~v2 + 4~v2 = ~v1 + 4~v2
A~v3 = 2~v3

(2)

1 0 1 0
3 2 7 5
A=
0
.
0 1 0
1 1 4 2

131
Calculamos los autovalores de A. Su polinomio caracterstico es, desarrollando por la tercera fila,

z 1 0 0

pA (z) = det(zI4 A) = (z 1) 3 z + 2 5 = (z 1)2 (z 2 + 1).
1 1 z 2
De modo que, los autovalores de A, con sus multiplicidades algebraicas, son:

1 = 1, m(1 ) = 2; 2 = i, m(2 ) = 1; 3 = i, m(3 ) = 1.

Buscamos ahora una base de los autoespacios generalizados asociados a cada autovalor de A.
Para 1 , tenemos,

0 0 1 0 x 0
3 3 7 5 y 0

E(A, 1 ) = Ker(I A) = {(x, y, z, t)T :
0 = }
0 0 0 z 0
1 1 4 1 t 0
= {(x, y, z, t)T : z = 0, 3x + 3y 5t = 0, x + y t = 0}
= {(x, y, z, t)T : z = t = 0, y = x} = h(1, 1, 0, 0)T i.

Como la multiplicidad algebraica es 2 y la del autoespacio es 1, para obtener el autoespacio


generalizado tendremos que elevar al cuadrado la matriz (I A),

0 0 0 0 x 0
4 4 4 10 y 0
Eg (A, 1 ) = Ker(I A)2 = {(x, y, z, t)T :
0
= }
0 0 0 z 0
2 2 4 4 t 0
= {(x, y, z, t)T : 2x + 2y + 2z 5t = 0, x + y + 2(z t) = 0}
= {(x, y, z, t)T : t = 2z, x = y 6z}
= h(1, 1, 0, 0)T , (6, 0, 1, 2)T i.

Para el segundo autovalor,

Eg (A, 2 ) = Ker(iI A) = {(x, y, z, t)T :



i1 0 1 0 x 0
3 i + 2 7 5 y 0
= }
0 0 i1 0 z 0
1 1 4 i2 t 0
= {(x, y, z, t)T : (i 1)x + z = 0, 3x + (i + 2)y + 7z 5t = 0,
(i 1)z = 0, x + y + 4z + (i 2)t = 0.}
= {(x, y, z, t)T : z = x = 0, y = (2 i)t} = h(0, 2 i, 0, 1)T i.

Y como el tercer autovalor es conjugado del segundo y A es real, su autoespacio generalizado


esta generado por el conjugado del vector anterior,

Eg (A, 3 ) = Ker(iI A) = h(0, 2 + i, 0, 1)T i.

Tenemos ya calculada una base de autovectores generalizados,

~v1 = (1, 1, 0, 0)T , ~v2 = (6, 0, 1, 2)T , ~v3 = (0, 2 i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T .

132
donde, recordemos que ~v1 , ~v3 y ~v4 son autovectores. Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , ~v4 , la forma reducida semejante a A tiene la forma

1 1 0 0
0 1 0 0
P 1 AP =
0
.
0 i 0
0 0 0 i

donde las columnas de P 1 AP estan formadas por las coordenadas de A~v1 , A~v2 , A~v3 y y A~v4 en
la base nueva. Se tiene

A~v1 = ~v1
A~v2 = (A I4 )~v2 + ~v2 = ~v1 + ~v2
A~v3 = i~v3
A~v4 = i~v4

6.3. Recurrencias vectoriales


Dada una matriz A Mn.n (C) planteamos el problema de dar la solucion de la recurrencia
vectorial

~x[m + 1] = A~x[m], ~x[m] C n , m 0. (6.1)

Ya hemos visto un ejemplo de recurrencia vectorial en la introduccion del tema anterior o en


el ejemplo introductorio de este tema. Conocido el valor inicial ~x[0] = ~x C n , la solucion es
~x[m] = Am ~x[0]. El problema (6.1) quedara entonces resuelto si obtuvieramos la potencia Am ,
algo que en general no es posible. En su lugar se busca expresar la solucion ~x[m] como una
superposicion de los llamados modos normales.
Los modos normales son las soluciones especiales de (6.1) que corresponden a datos iniciales
en alguno de los autoespacios generalizados de A. Veamos como se puede expresar cada uno
de estos modos normales. Sea un autovalor de A y ~x Eg (A, ) = Ker(In A)k() . Para
m k(), podemos escribir
m
X
m m m
A ~x = (In + (A In )) ~x = mj (A In )j ~x
j=0
j
k()1
X m
= mj (A In )j ~x
j=0
j
m(m 1) m2
= m ~x + mm1 (A In )~x + (A In )2 ~x
2
m
+ + m(k()1) (A In )k()1 ~x, (6.2)
k() 1

pues al ser ~x Eg (A, ) = Ker(In A)k() , entonces (In A)k() ~x = ~0 y por tanto (In A)j ~x =
~0 para j k(). Hemos dado as una expresion general para los modos normales. En particular,
si ~x es un autovector, el modo normal es simplemente

Am ~x = m ~x.

133
El procedimiento para resolver (6.1) con una condicion inicial ~x[0] arbitraria es entonces de la
siguiente forma:

(1) Obtener una base de C n formada por autovectores generalizados: {~x1 , . . . , ~xn }.

(2) Expresar la condicion inicial como suma de autovectores generalizados, calculando las co-
ordenadas de ~x[0] en la base formada por autovectores generalizados:

~x[0] = 1 ~x1 + + n ~xn .

Entonces

Am ~x[0] = 1 Am ~x1 + + n Am ~xn . (6.3)

(3) Calcular cada modo normal Am ~xj , 1 j n seg


un la formula (6.2) y sumar para obtener
(6.3).

En el caso de necesitar calcular Am , si llamamos P a una matriz cuyas columnas sean autovectores
generalizados de A y formen una base de C n . Por lo que hemos visto, sabemos expresar en forma
cerrada

Am P = S (m) ,

que es la matriz cuyas columnas son los modos normales asociados. De aqu podemos despejar
Am = S (m) P 1 .

Ejemplos

(1) Para la matriz



4 0 0 0
3 1 0 0
A=
3

2 4 0
3 3 1 4

y el vector ~x = (1, 10, 7, 12)T , vamos a calcular A10 ~x.


Los autovalores con su multiplicidad correspondiente son:

1 = 1, m(1 ) = d(1 ) = 1
2 = 4, m(2 ) = 3.

Buscamos una base de autovectores generalizados. Para el primer autovalor



3 0 0 0 x 0
3 0 0 0
Eg (A, 1 ) = Ker(I4 A) = {(x, y, z, t)T : = 0 }
y
3 2 3 0 z 0
3 3 1 3 t 0
= {(x, y, z, t)T : x = 0, z = (2/3)y, t = (11/9)y} = span((0, 9, 6, 11)T ).

134
Para el segundo autovalor,

0 0 0 0 x 0
3 3 0 0
E(A, 2 ) = Ker(4I A) = {(x, y, z, t)T : = 0 }
y
3 2 0 0 z 0
3 3 1 0 t 0
= {(x, y, z, t)T : x = y = z = 0} = span((0, 0, 0, 1)T ) d(2 ) = 1.


0 0 0 0 x 0
9 9 0 0 y 0
Ker(4I A)2 = {(x, y, z, t)T :
6
= }
6 0 0z 0
12 11 0 0 t 0
= {(x, y, z, t)T : x = y = 0} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T ).


0 0 0 0 x 0
27 27 0 0
Eg (A, 2 ) = Ker(4I A)3 = {(x, y, z, t)T : 0
y
18 18 0 0 z = 0 }
33 33 0 0 t 0
= {(x, y, z, t)T : x = y} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T , (1, 1, 0, 0)T ).

Una base de autovectores generalizados para esta matriz es entonces:

~v1 = (0, 9, 6, 11)T , ~v2 = (0, 0, 0, 1)T , ~v3 = (0, 0, 1, 0)T , ~v4 = (1, 1, 0, 0)T ,

donde ~v1 , ~v2 son autovectores.


Tenemos que obtener las coordenadas de la condicion inicial ~x[0] = ~x = (1, 10, 7, 12)T
en la nueva base. Sabemos que estas son P 1 ~x, donde P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , ~v4 . No se calcula P 1 , sino que se resuelve el sistema con matriz P y termino inde-
pendiente (1, 10, 7, 12)T . Si ~x[0] = 1~v1 + 2~v2 + 3~v3 + 4~v4 , entonces

1 0 0 0 1 1 1
2 9 0 0 1 2 10
P
3 = 6
= .
0 1 0 3 7
4 11 1 0 0 4 12

De donde 1 = 1, 2 = 1, 3 = 1, 4 = 1. Entonces ~x[0] = ~v1 + ~v2 + ~v3 + ~v4 luego

A10 ~x[0] = A10~v1 + A10~v2 + A10~v3 + A10~v4


= (1)10~v1 + (4)10~v2 + (4)10~v3
+10(4)9 (A + 4I4 )~v3 + (4)10~v4
+10(4)9 (A + 4I4 )~v4 + 45(4)8 (A + 4I4 )2~v4
= (1)10~v1 + (4)10~v2 + (4)10~v3
+10(4)9~v2 + (4)10~v4 10(4)9~v3 + 45(4)8~v2 .

135
(2) Para la matriz

1 0 1 0
3 2 7 5
A=
0
,
0 1 0
1 1 4 2

y el vector ~x = (2, 0, 1, 0)T vamos a calcular la solucion de la recurrencia vectorial

~x[m + 1] = A~x[m], ~x[0] = ~x.

Ya hemos encontrado, en el ejemplo (2) de la seccion anterior, una base formada por autovectores
generalizados para esta matriz:

~v1 = (1, 1, 0, 0)T , ~v2 = (6, 0, 1, 2)T , ~v3 = (0, 2 i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T ,

donde

A~v1 = ~v1
A~v2 = (A I4 )~v2 + ~v2 = ~v1 + ~v2
A~v3 = i~v3
A~v4 = i~v4

Tenemos que obtener las coordenadas de la condicion inicial ~x[0] = ~x = (2, 0, 1, 0)T en la nueva
base. Sabemos que estas son P 1 ~x, donde P es la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , ~v4 . No se
calcula P 1 , sino que se resuelve el sistema con matriz P y termino independiente (2, 0, 1, 0)T .
Si ~x[0] = 1~v1 + 2~v2 + 3~v3 + 4~v4 , entonces

1 1 6 0 0 1 2
2 1 0 2i 2 + i 2 0
P
3 = 0
= .
1 0 0 3 1
4 0 2 1 1 4 0
De donde 1 = 4, 2 = 1, 3 = 1, 4 = 1. Entonces ~x[0] = 4~v1 + ~v2 + ~v3 + ~v4 luego

~x[m] = Am ~x[0] = 4Am~v1 + Am~v2 + Am~v3 + Am~v4


= 4~v1 + ~v2 + m(A I4 )~v2 + im~v3 + (i)m~v4
= 4~v1 + ~v2 m~v1 + 2Re(im~v3 ).

6.4. Ecuaciones en diferencias


La segunda aplicacion tiene mucha relacion con la primera. Son las ecuaciones en diferencias,
que son ecuaciones de la forma

xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = fj , j 0, (6.4)

donde a0 , . . . , an1 K son los coeficientes de la ecuacion y {fj }


j=0 es una sucesi
on conocida.
Por ejemplo, la ecuacion de Fibonacci del tema anterior

Mj+2 = Mj+1 + Mj ,

136
es una ecuacion en diferencias.
Las soluciones de (6.4) son sucesiones {yj }
j=0 que convierten (6.4) en una identidad cuando
cada xm se sustituye por ym , m 0.
No trataremos la resolucion general de (6.4). Nos interesan el caso homogeneo, es decir

xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = 0, j 0, (6.5)

y algunos casos de (6.4) con terminos no homogeneos {fj }


j=0 que aparecen en varios ejemplos y
que se analizaran en los ejercicios.

6.4.1. Ecuaci
on homog
enea
Denotamos por S al conjunto de todas las soluciones de (6.5). Es facil ver que S es un espacio
vectorial respecto de las operaciones definidas por componentes. Fijemonos en que (6.5) puede
escribirse

xj+n = an1 xj+n1 a1 xj+1 a0 xj , j 0,

de modo que la ecuacion posee solucion u nica una vez que se especifican los n valores iniciales
de la sucesion x0 , x1 , . . . , xn1 . De esta manera, las n soluciones correspondientes a los n datos
iniciales

x0 = 1, x1 = 0, x2 = 0, . . . , xn1 = 0
x0 = 0, x1 = 1, x2 = 0, . . . , xn1 = 0

x0 = 0, x1 = 0, x2 = 0, . . . , xn1 = 1,

constituyen una base del espacio de soluciones S y por tanto dim(S) = n.


Para la descripcion de las soluciones suele ser util la formulaci
on matricial de (6.5). Dada una
sucesion {xj }
j=0 , se construye la sucesi
o n de vectores

~x[j] = (xj , xj+1 , . . . , xj+n1 )T , j 0.

Entonces, {xj }
j=0 es soluci
on de (6.5) si y solo si

~x[j + 1] = A~x[j], j 1, (6.6)

donde

0 1 0 0 0 0
0 0 1 0 0 0


A = .

0 0 0 0 0 1
a0 a1 a2 a3 an2 an1

As, la resolucion de (6.5) se reduce a la obtencion de los modos normales de (6.6). Sin embargo,
en la practica, puede darse la solucion de (6.5) utilizando la formulaci
on matricial solo a efectos
teoricos.

137
El polinomio p(z) = z n + an1 z n1 + + a1 z + a0 se llama polinomio caracterstico de (6.5).
Sus races se llaman races caractersticas. No es difcil ver que

p(z) = det(zIn A),

de modo que las races caractersticas de (6.5) coinciden, junto con su multiplicidad, con los
autovalores de A.
Para la obtencion de los soluciones de (6.5) consideremos la factorizacion de p(z):

p(z) = (z 1 )m(1 ) (z r )m(r ) ,

seg
un sus diferentes races j con multiplicidades (algebraicas) m(j ), con m(1 )+ +m(r ) = n.
Las soluciones de (6.5) son las primeras componentes de los vectores solucion de (6.6)

x0 Primera componente de ~x[0]


x1 Primera componente de ~x[1]
.. ..
. .
xj Primera componente de ~x[j]
.. ..
. .

y, como sabemos, toda solucion de (6.6) es combinacion de modos normales. De aqu se deduce
que toda solucion de (6.5) es combinacion lineal de las sucesiones obtenidas por las primeras
componentes de los modos normales. Cada modo normal genera una sucesion de vectores

~x, A~x, A2 ~x, . . . ,

donde ~x Ker(s In A)m(s ) .


Ahora bien, dada la forma de un modo normal cualquiera proporcionada por (6.2), tenemos
que la sucesion de las primera componentes de {Aj ~x}
j=0 es combinaci
on lineal de las sucesiones

{js } j
j=0 , {js }j=0 , . . . , {j
m(s )1 j
s }j=0 .

Recorriendo entonces todos los modos normales, tenemos que el espacio de soluciones S esta con-
tenido en el espacio de sucesiones S formado por las combinaciones lineales de las n sucesiones

{j l js }
j=0 , 1 s r, 0 l ms 1.

Por otro lado, al ser dim(S) = n, entonces necesariamente S = S y las n sucesiones anteriores
forman una base de S. De este modo, para obtener las soluciones de (6.5) se procede de la siguiente
manera:
(1) Obtener las races caractersticas 1 , . . . , r y sus multiplicidades m1 , . . . , mr .

(2) Formar las n sucesiones de la base

{j1 } j
j=0 , {j1 }j=0 , . . . , {j
m1 1 j
1 }j=0
{j2 } j
j=0 , {j2 }j=0 , . . . , {j
m2 1 j
2 }j=0

{jr } j
j=0 , {jr }j=0 , . . . , {j
mr 1 j
r }j=0 .

138
(3) Escribir la solucion {yj }
j=0 como combinaci
on lineal de las sucesiones anteriores. Los coe-
ficientes de esta combinacion quedan determinados al imponer las n condiciones iniciales.

Ejemplos.

(1) Vamos a obtener la solucion de la ecuacion en diferencias

xj+2 2xj+1 3xj = 0,

con condiciones iniciales x0 = 0, x1 = 1. El polinomio caracterstico es p(z) = z 2 2z 3 =


(z 3)(z + 1), de modo que las races caractersticas con sus multiplicidades son

1 = 3, m1 = 1
2 = 1, m2 = 1.

Seg
un esto, la base de soluciones es

{j1 } j
j=0 = {3 }j=0 ,

{j2 } j
j=0 = {(1) }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma

yj = A3j + B(1)j , j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 0 y0 = A + B = 0,
x1 = 1 y1 = 3A B = 1.

Se obtiene un sistema lineal para las constantes, de solucion A = 1/4, B = 1/4. Luego la
solucion del problema es {yj }
j=0 con

1 1
yj = 3j (1)j , j = 0, 1, 2, . . . .
4 4
(2) Vamos a obtener la solucion general de la ecuacion en diferencias

xj+3 3xj+1 2xj = 0.

El polinomio caracterstico es p(z) = z 3 3z 2 = (z 2)(z + 1)2 , de modo que las races


caractersticas con sus multiplicidades son

1 = 2, m1 = 1
2 = 1, m2 = 2.

Seg
un esto, la base de soluciones es

{j1 } j
j=0 = {2 }j=0 ,

{j2 } j
j=0 = {(1) }j=0

{jj2 } j
j=0 = {j(1) }j=0 .

139
de manera que la solucion general {yj }
j=0 es de la forma

yj = A3j + B(1)j + Cj(1)j , j = 0, 1, 2, . . . ,

para constantes A, B y C.
(3) Vamos a obtener la solucion de la ecuacion en diferencias

xj+3 3xj+2 + 3xj+1 xj = 0,

con condiciones iniciales x0 = 1, x1 = 0, x2 = 1. El polinomio caracterstico es p(z) = z 3 3z 2 +


3z 1 = (z 1)3 , de modo que las races caractersticas con sus multiplicidades son

1 = 1, m1 = 3.

Seg
un esto, la base de soluciones es

{j1 } j
j=0 = {1 }j=0 ,

{jj1 }
j=0 = {j}j=0

{j 2 j1 } 2
j=0 = {j }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma

yj = A + Bj + Cj 2 , j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 1 y0 = A = 1,
x1 = 0 y1 = A + B + C = 0
x2 = 1 y2 = A + 2B + 4C = 1.

Se obtiene un sistema lineal para las constantes, de solucion A = 1, B = 2, C = 1. Luego la


solucion del problema es {yj }
j=0 con

yj = 1 2j + j 2 , j = 0, 1, 2, . . . .

(4) Vamos a obtener la solucion de la ecuacion en diferencias

xj+3 4xj+2 + 5xj+1 2xj = 0,

con condiciones iniciales x0 = 0, x1 = 1, x2 = 0. El polinomio caracterstico es p(z) = z 3 4z 2 +


5z 2 = (z 1)2 (z 2), de modo que las races caractersticas con sus multiplicidades son

1 = 1, m1 = 2
2 = 2, m2 = 1.

Seg
un esto, la base de soluciones es

{j1 } j
j=0 = {1 }j=0 ,

{jj1 }
j=0 = {j}j=0

{j2 } j
j=0 = {2 }j=0 .

140
de manera que la solucion general {yj }
j=0 es de la forma

yj = A + Bj + C2j , j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 0 y0 = A + C = 0,
x1 = 1 y1 = A + B + 2C = 1
x2 = 0 y2 = A + 2B + 4C = 0.

Se obtiene un sistema lineal para las constantes, de solucion A = 2, B = 3, C = 2. Luego la


solucion del problema es {yj }
j=0 con

yj = 2 + 3j 2j+1 , j = 0, 1, 2, . . . .

(5) Vamos a obtener la solucion de la ecuacion en diferencias

xj+2 = xj ,

con condiciones iniciales x0 = 1, x1 = 1. El polinomio caracterstico es p(z) = z 2 +1 = (zi)(z+i),


de modo que las races caractersticas con sus multiplicidades son

1 = i, m1 = 1
2 = i, m2 = 1.

Seg
un esto, la base de soluciones es

{j1 } j
j=0 = {i }j=0 ,

{j2 } j
j=0 = {(i) }j=0 .

de manera que la solucion general {yj }


j=0 es de la forma

yj = Aij + B(i)j , j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 1 y0 = A + B = 1,
x1 = 1 y1 = iA iB = 1.

Se obtiene un sistema lineal para las constantes, de solucion A = (1 i)/2, B = (1 + i)/2. Luego
la solucion del problema es {yj }
j=0 con

1i j 1+i 1i j
yj = i + (i)j = 2Re( i ),
2 2 2
1 i ij/2 1i
= 2Re( e ) = 2Re (cos(j/2) + i sin(j/2))
2 2
= cos(j/2) + sin(j/2) j = 0, 1, 2, . . . .

La solucion ha de ser real, pues las condiciones iniciales lo son.

141
6.4.2. Ecuaci
on no homog
enea
Como ya hemos indicado anteriormente, no trataremos la resolucion general de la ecuacion
no homogenea (6.4). Sin embargo, es interesante explicar la estructura de las soluciones, pues se
utilizaran razonamientos parecidos posteriormente, en el contexto de las ecuaciones diferenciales.
Asmismo, discutiremos tambien la resolucion para algunos casos particulares de terminos no
homogeneos {fj }j=0 .
En lo que se refiere a la estructura de soluciones, conviene resaltar una primera propiedad,
que podra llamarse principio de superposicion.
[1]
(R1) Supongamos que el termino no homogeneo {fj }
j=0 es suma de dos sucesiones fj = fj +
[2] [1] [2]
fj , j = 0, 1, . . . y sean {xj }
j=0 , {xj }j=0 soluciones de (6.4) con t
erminos no homogeneos
[1] [2] [1] [2]
{fj } on {xj }
j=0 y {fj }j=0 respectivamente. Entonces, la sucesi j=0 con xj = xj + xj es
solucion de (6.4) con termino no homogeneo fj .
El resultado parece razonable por la linealidad de la ecuacion en diferencias. La primera conse-
cuencia es la siguiente:
(R2) Si {xj } on {zj }
j=0 e {yj }j=0 son soluciones de (6.4), entonces la sucesi j=0 , con zj = xj yj
es solucion de la ecuacion homogenea (6.5).
De este modo, la diferencia de dos soluciones de (6.4) es una solucion de la ecuacion homogenea
asociada. Esto permite la siguiente descripcion:
(R3) La solucion general de (6.4) se puede escribir como la suma de una solucion particular mas
la solucion general de la ecuacion homogenea asociada (6.5).
Hay entonces una reduccion del problema en el siguiente sentido: para calcular todas las solu-
ciones de (6.4) es suficiente con obtener una sola, pues todas las demas se determinan a
nadiendo
a la obtenida soluciones de la ecuacion homogenea asociada.
Vamos a utilizar esta reduccion para resolver algunos casos particulares de ecuaciones no ho-
mogeneas que aparecen con frecuencia en diversas aplicaciones. Buscamos una solucion particular
para ecuaciones en diferencias de la forma

xj+n + an1 xj+n1 + + a1 xj+1 + a0 xj = fj , j 0,

donde fj es de la forma fj = q(j)bj , siendo b una constante b C y q(j) un polinomio en j de un


determinado grado m,

q(j) = q0 + q1 j + qm j m .

El metodo que utilizaremos parte de la idea de que cuando el termino no homogeneo es de


esta forma, puede esperarse que exista una solucion del mismo tipo. Consideremos una sucesion
{xj } j
j=0 de la forma xj = s(j)b . Si sustituimos en la ecuaci
on en diferencias se puede obtener la
siguiente formula
!
n) (b) n1) (b) p0 (b)
j np n1 p
b b gj,n + b gj,n1 + b gj,1 + p(b)gj,0 = q(j)bj , (6.7)
n! (n 1)! 1!

donde

p(z) = a0 + a1 z + + an1 z n2 + an z n ,

142
es el polinomio caracterstico de la ecuacion, mientras que

gj,0 = s(j),
gj,1 = s(j + 1) s(j),
gj,2 = s(j + 2) 2s(j + 1) + s(j),
.. .
. = ..
k k k k
gj,k = s(j + k) s(j + k 1) + + (1)k1 s(j + 1) + (1)k s(j),
0 1 k1 k
.. .
. = ..
n n n n
gj,n = s(j + n) s(j + n 1) + + (1)n1 s(j + 1) + (1)n s(j).
0 1 n1 n

La ecuacion (6.7) permite el siguiente razonamiento. Supongamos que se ensaya una solucion
particular de la forma xj = s(j)bj , con s un polinomio de un grado a determinar. Fijemonos
entonces que gj,0 es un polinomio con el mismo grado que s, gj,1 tiene un grado menos, gj,2 dos
grados menos, etc.
De este modo, si b no es raz del polinomio caracterstico, entonces p(b) 6= 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es gj,0 = s(j), el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Por tanto, podemos ensayar como solucion particular
una sucesion cuyo termino general es producto de bj por un polinomio del mismo grado m del
polinomio del termino no homogeneo.
Supongamos ahora que b es raz caracterstica simple. Entonces p(b) = 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es ahora gj,1 , el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Como gj,1 tiene un grado menos que s(j), entonces
debemos ensayar s(j) con grado m + 1. Si b es raz doble, entonces p(b) = p0 (b) = 0 y s(j) debe
tener grado m + 2. As, en general, si b es raz caracterstica de multiplicidad d, podemos ensayar
como s(j) un polinomio de grado menor o igual que m + d,

s(j) = A0 + A1 j + + Ad1 j d1 + Ad j d + + Am+d j m+d .

A
un se puede avanzar un poco mas; teniendo en cuenta que b es raz con esa multiplicidad, la
parte de la solucion correspondiente al polinomio de grado menor o igual que d1 es una solucion
de la ecuacion homogenea. De este modo, podemos ensayar a partir del coeficiente de j d . Este
metodo, llamado de coeficientes indeterminados, puede resumirse entonces de la siguiente forma:

(A) Si p(b) 6= 0, entonces s(t) = s0 + s1 t + + sm tm y existe una solucion particular de la


forma
xj = (s0 + s1 j + + sm j m )bj .

(B) Si p(z) = (zb)d p0 (z) con p0 (b) 6= 0, entonces s(t) = s0 + + sd1 td1 + sd td + + sd+m td+m
y existe una solucion particular de la forma

xj = j d (sd + sd+1 j + + sd+m j m )bj .

(C) En ambos casos, los coeficientes de s se obtienen imponiendo que xj sea solucion del prob-
lema.

143
Ejemplos.

[1]. Buscamos una solucion particular de

xj+2 2xj+1 3xj = j2j .

Las races caractersticas son 1 = 3, 2 = 1. Como b = 2 no es raz caracterstica y el polinomio


de la derecha q(j) = j tiene grado uno, ensayamos como solucion particular xj = (A + Bj)2j .
Imponiendo esta funcion como solucion e igualando en las potencias de j, tenemos el sistema

4B 3A = 0
3B = 1.

de donde xj = ((4/9) (j/3))2j .

[2]. Buscamos una solucion particular de

xj+2 2xj+1 3xj = j(1)j .

Ahora, b = 1 es raz simple del polinomio caracterstico. Buscamos entonces una solucion
particular de la forma xj = j(A + Bj)(1)j . Imponiendo la funcion como solucion e igualando
coeficientes en j, se tiene

6B + 4A = 0
8B = 1.

De donde B = 1/8, A = 3/16. La ecuacion tiene una solucion particular de la forma xj =


j((3/16) + (1/8)j)(1)j . La solucion general es de la forma c1 3j + c2 (1)j + j((3/16) +
(1/8)j)(1)j , con c1 , c2 constantes arbitrarias.

EJERCICIOS DEL TEMA 6

Ejercicio 1. Halla una base de los autoespacios generalizados de las matrices siguientes

2 0 3 0 4 0 0 0
3 2 2 1 3 1 0 0
A=
0
, B= .
0 1 0 3 2 4 0
3 0 2 2 3 3 1 4

Halla A10 x y B 10 x donde x es el vector [1, 1, 0, 0]T .

Ejercicio 2. Se consideran las matrices



1 1 0 0 2 0 0 0
1 1 0 0 4 2 1 5
A=
2
, B= .
1 2 4 3 0 4 2
1 3 1 2 1 0 2 0
Halla una base de los autoespacios generalizados de A y B.

144
Ejercicio 3. Para la matriz
3 1 2 1
0 3 0 0
A=
0 5

6 3
0 2 3 0
halla A30 x donde x = [1, 2, 3, 5]T .

Ejercicio 4. Calcula la expresion de An v donde v es el vector (1, 2, 3, 4)T y A es la matriz



1 0 1 0 1 1 1 1
0 0 0 1 2 1 0 2
, .
1 0 1 0 0 1 0 1
0 1 0 0 2 1 1 2

Ejercicio 5. Se considera la matriz A(r), dependiente de un parametro real r R,



4 3r 4
A(r) = 1 r 0 .
0 0 1

(i) Determina los valores de r para los cuales A(r) es diagonalizable.

(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.

(iii) Calcula la solucion de la recurrencia vectorial

~x[n + 1] = A~x[n], n = 2, 3, . . .
T
~x[2] = (3, 0, 1) .

Ejercicio 6. Halla la solucion general de las siguientes ecuaciones en diferencias:

a) uj+3 3uj+2 + 3uj+1 uj = 0, e) uj+2 + 8uj+1 + 15uj = 0.


b) uj+3 3uj+2 + 3uj+1 uj = j, f) uj+2 + 8uj+1 + 15uj = 2j .
c) uj+2 2uj+1 3uj = j, g) uj+2 + 8uj+1 + 15uj = (3)j .
d) uj+2 2uj+1 + uj = j + j 2 , h) uj+2 2uj+1 + 2uj = 0.

Ejercicio 7. Se considera la ecuacion en diferencias

xj+3 3xj+1 2xj = j + 2j . (6.8)

(i) Calcula una solucion particular de la ecuacion (6.8).

(ii) Calcula la solucion general de la ecuacion (6.8).

(ii) Encuentra todas las soluciones {xj }


j=0 de la ecuaci
on (6.8) tales que x0 = 0.

145
ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 6

Ejercicio 1.

2 0 3 0
3 2 2 1
A=
0
, pA (z) = (z 1)(z + 2)2 (z 2).
0 1 0
3 0 2 2

Los autovalores con sus multiplicidades algebraicas son

1 = 1, m1 = 1
2 = 2 m2 = 2
3 = 2 m3 = 1.

Y los autoespacios generalizados son

Eg (A, 1 ) = Ker(I4 A) = span(~v1 ), ~v1 = (3, 2, 3, 1)T ,


Eg (A, 2 ) = Ker(2I4 A)2 = span(~v2 , ~v3 ), ~v2 = (0, 1, 0, 4)T , ~v3 = (4, 0, 0, 9)T ,
Eg (A, 3 ) = Ker(2I4 A) = span(~v4 ), ~v4 = (0, 1, 0, 0)T ).

Hemos elegido el primer vector de E(A, 2 ) como autovector. Escribimos ~x = 1~v1 + 2~v2 +
3~v3 + 4~v4 en la base de autovectores generalizados, resolviendo el sistema

3 0 4 0 1 1
2 1 0 1 2 1
= ,
3 0 0 0 3 0
1 4 9 0 4 0

as
~x = (9/16)~v2 + (1/4)~v3 + (25/16)~v4 ,
y por tanto

A10 ~x = (9/16)A10~v2 + (1/4)A10~v3 + (25/16)A10~v4 ,


A10~v2 = (2)10~v2 ,
A10~v3 = (2)10~v3 + 10(2)9 (A + 2I4 )~v3 = (2)10~v3 + 10(2)9 (0, 3, 0, 12)T ,
A10~v4 = 210~v4 .


4 0 0 0
3 1 0 0
B=
3
.
2 4 0
3 3 1 4
Los autovalores con sus multiplicidades algebraicas son

1 = 1, m1 = 1
2 = 4 m2 = 3.

146
Y los autoespacios generalizados son

Eg (B, 1 ) = Ker(I4 B) = span(~v1 ), ~v1 = (0, 9, 6, 11)T ,


Eg (B, 2 ) = Ker(4I3 B)3 = span(~v2 , ~v3 , ~v4 ),
~v2 = (0, 0, 1, 0)T , ~v3 = (0, 0, 0, 1)T , ~v4 = (1, 1, 0, 0)T ).

Escribimos ~x = 1~v1 + 2~v2 + 3~v3 + 4~v4 en la base de autovectores generalizados; pero en este
caso ~x = ~v4 luego

B 10 ~x = B 10~v4 ,
= (4)10~v24 + (4)9 (B + 4I4 )~v4 + (4)8 (B + 4I4 )2~v4
= (4)10~v4 + (4)9 (0, 0, 1, 0)T + (4)8 (0, 0, 0, 1)T .

Ejercicio 2.

1 1 0 0
1 1 0 0
A=
2
, pA (z) = (z 1)(z + 2)2 (z 2).
1 2 4
1 3 1 2
Los autovalores con sus multiplicidades algebraicas son

1 = 0, m1 = 2
2 = 2 + 2i m2 = 1
3 = 2 2i m3 = 1.

Y los autoespacios generalizados son

Eg (A, 1 ) = Ker(A2 ) = span(~v1 , ~v2 ), ~v1 = (0, 1, 5/4, 13/16)T , ~v2 = (1, 0, 1/2, 11/16)T
Eg (A, 2 ) = Ker((2 + 2i)I4 A) = span(~v3 ), ~v3 = (0, 0, 2i, 1)T ,
Eg (A, 3 ) = Ker((2 2i)I4 A) = span(~v4 ), ~v4 = (0, 0, 2i, 1)T ).


2 0 0 0
4 2 1 5
B=
3
, pB (z) = (z 2)4 .
0 4 2
1 0 2 0
Los autovalores con sus multiplicidades algebraicas son

1 = 2, m1 = 4.

Y los autoespacios generalizados son

Eg (A, 1 ) = Ker(2I4 A)4 = span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ).

Ejercicio 3. pA (z) = (z 3)4 y se tiene que (3I4 A)4 = 0 luego



30 30 30
A30 ~x = 330 ~x + 329 (A 3I4 )~x + 328 (A 3I4 )2 ~x + 3297 (A 3I4 )3 ~x.
1 2 3

147
Ejercicio 4.
1 0 1 0
0 0 0 1
A=
1 0
, pA (z) = (z 2 + 1)(z 2 2z + 2).
1 0
0 1 0 0
Los autovalores con sus multiplicidades algebraicas son

1 = i, m1 = 1
2 = i m2 = 1
3 = 1 + i m3 = 1
4 = 1 i m4 = 1.

Y los autoespacios generalizados son

Eg (A, 1 ) = Ker(iI4 A) = span(~v1 ), ~v1 = (0, i, 0, 1)T ,


Eg (A, 2 ) = Ker(iI4 A)2 = span(~v2 ), ~v2 = (0, i, 0, 1)T ,
Eg (A, 3 ) = Ker((1 + i)I4 A) = span(~v3 ), ~v3 = (i, 0, 1, 0)T ),
Eg (A, 4 ) = Ker((1 i)I4 A) = span(~v4 ), ~v4 = (i, 0, 1, 0)T ).

Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
1~v1 + 2~v2 + 3~v3 + 4~v4 en la base de autovectores, resolviendo el sistema

0 0 i i 1 1
i i 0 0 2 2

0 0 1 1 3 = 3 ,
1 1 0 0 4 4

as
3i 3+i
~v = (2 i)~v1 + (2 + i)~v2 + ~v3 + ~v4 ,
2 2
y por tanto
3i n 3+i n
An~v = (2 i)An~v1 + (2 + i)An~v2 + A ~v3 + A ~v4 ,
2 2
An~v1 = (i)n~v21 ,
An~v2 = (i)n~v2 ,
An~v3 = (1 + i)n~v3 ,
An~v4 = (1 + i)n~v4 ,
An~v = 2Re((2 i)in~v1 ) + 2Re((2 + i)(i + i)n~v3 ).


1 1 1 1
2 1 0 2
A=
0
, pA (z) = (z 2 + 1)(z 2 2z + 2).
1 0 1
2 1 1 2

148
Los autovalores con sus multiplicidades algebraicas son

1 = 1, m1 = 1
2 = i m2 = 1
3 = i m3 = 1
4 = 1 m4 = 1.

Y los autoespacios generalizados son

Eg (A, 1 ) = Ker(I4 A) = span(~v1 ), ~v1 = (0, 1, 1, 0)T ,


Eg (A, 2 ) = Ker(iI4 A)2 = span(~v2 ), ~v2 = (1, 0, i, 1)T ,
Eg (A, 3 ) = Ker(iI4 A) = span(~v3 ), ~v3 = (1, 0, i, 1)T ),
Eg (A, 4 ) = Ker(I4 A) = span(~v4 ), ~v4 = (1, 1, 1, 0)T ).

Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
1~v1 + 2~v2 + 3~v3 + 4~v4 en la base de autovectores, resolviendo el sistema

0 1 1 1 1 1
1 0 0 1 2 2
= ,
1 i i 1 3 3
0 1 1 0 4 4

as
~v = 3~v1 + (2 + (11/2)i)~v2 + (2 + (11/2)i)~v3 + 5~v4 ,
y por tanto

An~v = . 3(1)n~v1 + 2Re((2 + (11/2)i)in~v2 ) + 5~v4 .

Ejercicio 6.
a) uj = A + Bj + Cj 2 .
b) uj = A + Bj + Cj 2 (1/4)j 3 + (1/24)j 4 .
c) uj = A(1)j + B3j (1/4)j.
d) uj = A + Bj (1/12)j 2 (1/6)j 3 + (1/12)j 4 .
e) uj = A(3)j + B(5)j .
f) uj = A(3)j + B(5)j + (1/35)2j .
g) uj = A(3)j + B(5)j (1/6)j(3)j .
h) uj = A(1 + i)j + B(1 i)j .

149
Tema 7

Sistemas de EDOs lineales y de


coeficientes constantes

El cuarto problema del que trata la asignatura es la resolucion de ecuaciones diferenciales


ordinarias. Decir esto es demasiado general. Como primer paso nos plantearemos el estudio de
los sistemas de primer orden lineales y de coeficientes constantes, as como el de ecuaciones de
orden superior lineales de coeficientes constantes.

Introducci on. La ecuaci on lineal de primer orden. La formulaci on de una ecuacion dife-
rencial como modelo matematico de una cierta realidad fsica responde, en general, al siguiente
planteamiento: x = x(t) representa la medida realizada en el instante t de una magnitud que
describe, a lo largo del tiempo, un cierto sistema fsico, biologico, economico, etc. Por ejemplo, la
posicion de un movil que se desplaza en un medio unidimensional, la temperatura de un objeto,
la cantidad de radiactividad de un lugar determinado, la densidad de una poblacion, etc; x(t)
representa pues, el estado de cierto sistema en el instante t. Por otro lado, la variacion instant
anea
de la variable x(t) esta dada por su funcion derivada x0 (t). Si la ley fsica que rige la evoluci
on
del fenomeno bajo estudio queda expresada (por conjeturas basadas en la experimentacion y la
observacion) por una relacion matematica, valida para todo instante t, entre x(t) y su variaci on
instantanea x0 (t), obtendremos una ecuacion diferencial ordinaria que ha de ser satisfecha por la
funcion incognita x(t). La ecuacion mas simple que puede responder a esta formulaci on es
x0 (t) = ax(t),
con a un n umero real. Las soluciones de esta ecuacion son de la forma x(t) = Ceat con C
una constante arbitraria (por que?). Si se especifica a priori el valor que ha de tener x(t) en
un instante inicial t0 , entonces queda determinada una u nica solucion de la ecuacion: entre las
at
funciones x(t) = Ce , la u nica que satisface la condicion inicial x(t0 ) = x0 es aquella tal que
x(t0 ) = Ceat0 = x0 , es decir, la correspondiente a la constante C = eat0 x0 , o sea x(t) =
ea(tt0 ) x0 .
En algunos modelos es necesario introducir mas funciones incognita, de manera que la ecuacion
anterior se generaliza a una relacion vectorial
~x0 (t) = A~x(t),
entre el vector de incognitas ~x y su correspondiente vector de derivadas ~x0 y donde A es una
matriz. Para este caso la resolucion no es tan sencilla y se requiere utilizar la teora explicada en
los dos u
ltimos temas.

150
Esta leccion queda mas o menos dividida en dos partes. En la primera, se explicaran nociones
elementales de la teora de sistemas lineales de primer orden con coeficientes constantes, plante-
ando el problema de valores iniciales y estudiando la estructura del espacio de soluciones. La
segunda parte estara dedicada a la b usqueda de soluciones, tanto para ecuaciones homogeneas
como no homogeneas.

7.1. Presentaci
on
Un sistema lineal de n ecuaciones diferenciales ordinarias y coeficientes constantes es una
expresion de la forma siguiente:
~x0 (t) = A~x(t) + ~b(t). (7.1)
En la expresion (7.1), A es una matriz cuadrada de orden n n, ~b(t) es un vector conocido de
n componentes que son funciones que dependen de una variable muda t. Todas las componentes
estan definidas en un intervalo real J y son continuas como funciones de t en ese intervalo. Por
su parte, el vector ~x(t) tiene tambien n componentes. Es el vector incognita del sistema. La
expresion ~x0 (t) representa el vector de las derivadas con respecto a t de las componentes de ~x(t).
El problema que se plantea consiste en, dados A y ~b(t), encontrar el o los vectores ~x(t) que
verifiquen (7.1).
Escrito en forma de ecuaciones, (7.1) se suele expresar como
x01 (t) = a11 x1 (t) + a12 x2 (t) + + a1n xn (t) + b1 (t)
x02 (t) = a21 x1 (t) + a22 x2 (t) + + a2n xn (t) + b2 (t)
.. .
. = ..
x0n (t) = an1 x1 (t) + an2 x2 (t) + + ann xn (t) + bn (t),
donde ~x(t) = (x1 (t), x2 (t), . . . , xn (t))T , ~b(t) = (b1 (t), b2 (t), . . . , bn (t))T y A = (aij )1i,jn . Se dice
que A es la matriz de coeficientes de (7.1) y ~b(t) el termino no homogeneo o termino fuente.
Cuando ~b(t) no aparece, el sistema (7.1) se llama homogeneo. En otro caso se dice que es no
homogeneo.
Se llama solucion de (7.1) a cualquier aplicacion diferenciable ~ : J Kn definida en un
intervalo J de R y verificando (7.1) cuando ~x se sustituye por . ~
Dados un instante inicial t0 R y un valor inicial ~x0 Kn , se puede plantear el llamado
problema de valores iniciales (PVI)
~x0 (t) = A~x(t) + ~b(t). (7.2)
~x(t0 ) = ~x0 .
Se dice que t0 y ~x0 son las condiciones iniciales del problema. Una solucion del mismo no es otra
cosa que una solucion ~ de (7.1) tal que t0 J y ademas (t
~ 0 ) = ~x0 .
Vamos a dividir nuestro estudio en el caso homogeneo (~b(t) = ~0) y el no homogeneo.

7.2. Sistemas lineales homog


eneos
Veamos que podemos decir de un sistema homogeneo
~x0 (t) = A~x(t), (7.3)

151
y del correspondiente PVI

~x0 (t) = A~x(t), (7.4)


~x(t0 ) = ~x0 .

La primera cuestion a tener en cuenta es la existencia y unicidad de soluciones de (7.4).

Teorema 1. Dada una condicion inicial cualquiera t0 R, ~x0 Kn se tiene que el correspondiente
PVI (7.4) posee una u
nica solucion definida en todo R.

El segundo punto a considerar es la estructura de las soluciones de (7.3). Esto sera importante
para despues analizar la resolucion.
P P
Teorema 2. Denotemos por al conjunto de soluciones de (7.3). Entonces es un espacio
vectorial de dimension n, el tama
no del sistema.
P
Ver que es un espacio vectorial no es difcil. En efecto, si ~x1 (t), ~x2 (t) son dos soluciones de
(7.3), entonces (~x1 + ~x2 )0 (t) = ~x01 (t) + ~x02 (t) = A~x1 (t) + A~x2 (t) = A(~x1 + ~x2 )(t), luego ~x1 (t) + ~x2 (t)
es solucion de (7.3). Por otro lado, si ~x(t) es solucion de (7.3) y K, entonces (~x)0 (t) =
~x0 (t) = A~x(t) = A(~x)(t) y (~x)(t) es solucion.
Veamos ahora la dimension. Sea ~ej = (0, 0, . . . , 0, 1, 0, . . . , 0)T el j-esimo vector de la base
canonica y consideremos, para t0 R cualquiera, el problema de valores iniciales

~x0 (t) = A~x(t)


~x(t0 ) = ej .

Sabemos que existe una u


nica solucion ~xj (t) de este problema. Veamos que las soluciones

~x1 (t), ~x2 (t), . . . , ~xn (t),

as obtenidas son independientes. Planteada una combinaci


on lineal nula

1 ~x1 (t) + 2 ~x2 (t) + + n ~xn (t) = 0, t J,

tomando en particular t = t0 se tiene

1~e1 + 2~e2 + + n~en = 0,

y trivialmente 1 = = n = 0, de modo que {~x1 (t), ~x2 (t), . . . , ~xn (t)} constituye un sistema
libre de soluciones del sistema homogeneo. Ademas, cualquier otra solucion ~x(t) depende de
~x1 (t), ~x2 (t), . . . , ~xn (t) , pues si ~x(t0 ) = (c1 , . . . , cn )T = c1~e1 + c2~e2 + + cn~en entonces ,necesari-
P
amente ~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + + cn ~xn (t). As, {~x1 (t), ~x2 (t), . . . , ~xn (t)} es una base de y
P
por tanto dim = n.

Este resultado contiene dos afirmaciones importantes: en primer lugar, el llamado principio
P
de superposicion de soluciones. El hecho de que sea un espacio vectorial significa que cualquier
P
combinacion lineal de soluciones de (7.3) es una solucion. En segundo lugar, dado que tiene
dimension n, esto implica que el sistema (7.3) tiene exactamente n soluciones linealmente in-
dependientes. Constituyen lo que se llama un sistema fundamental de soluciones del sistema
homogeneo (7.3). cualquier solucion es combinaci
on lineal de n soluciones independientes, de un
sistema fundamental.

152
~ 1 (t),
Corolario. Sea { ~ n (t)} una base de P. La solucion general de (7.3) es de la
~ 2 (t), . . . ,
forma
~ = C1
(t) ~ 1 (t) + C2
~ 2 (t) + + Cn
~ n (t),

con C1 , C2 , . . . , Cn constantes arbitrarias.


En terminos matriciales, se llama matriz fundamental del sistema homogeneo a toda aplicacion
matricial : R Mn,n (K) tal que para todo t R, las columnas de (t) constituyen una base
P
de . Para que sea una matriz fundamental, es necesario y suficiente que
(i) 0 (t) = A(t) (las columnas son soluciones).

(ii) Existe t0 R tal que (t0 ) es una matriz no singular.


En terminos de matrices fundamentales, estamos diciendo que si es una matriz fundamental del
sistema homogeneo, generamos todas las soluciones del mismo multiplicando (t) por cualquier
vector de Kn .
Veamos como obtener entonces una matriz fundamental a traves de los llamados modos nor-
males (no confundir con el concepto tratado en el tema anterior).

Ejemplo 1. Consideremos el sistema

x01 (t) = 3x1 (t) + x2 (t) + x3 (t)


x02 (t) = x1 (t) + 3x2 (t) + x3 (t)
x03 (t) = x1 (t) + x2 (t) + 3x3 (t).

En terminos matriciales, ~x0 (t) = A~x(t) donde



3 1 1
A = 1 3 1.
1 1 3
Vamos a obtener una base de soluciones del sistema a partir de los autovalores de A: Estos son

1 = 2, m(1 ) = 2
2 = 5, m(2 ) = 1.

Buscamos una base de los autoespacios de cada valor propio. Para 1 = 2 tenemos

E(A, 1 ) = {(x, y, z)T /x + y + z = 0} = span(~v1 , ~v2 ),

donde ~v1 = (1, 1, 0)T , ~v2 = (1, 0, 1)T . Para 2 = 5,

E(A, 2 ) = {(x, y, z)T /x = y = z} = span(~v3 ),

donde ~v3 = (1, 1, 1)T .


Como d(1 ) = 2, la matriz es diagonalizable. Consideremos la funcion vectorial

~x1 (t) = e1 t~v1 = (e2t , e2t , 0)T .

Como ~v1 es autovector,

A~x1 (t) = e1 t A~v1 = 1 e1 t~v1 = 1 ~x1 (t).

153
Por otro lado

~x01 (t) = 1 e1 t~v1 = 1 ~x1 (t).

Luego ~x1 (t) es solucion del sistema. Con el mismo razonamiento, se tiene que

~x2 (t) = e1 t~v2 = (e2t , 0, e2t )T ,


~x3 (t) = e2 t~v3 = (e5t , e5t , e5t )T ,

son tambien soluciones. Como el sistema tiene tama no tres, la dimension del espacio de soluciones
es tres. Nuestras soluciones ~x1 (t), ~x2 (t), ~x3 (t) son candidatas a formar una base del espacio de
soluciones; bastara con ver que son independientes.
Ahora bien, si 1 ~x1 (t) + 2 ~x2 (t) + 3 ~x3 (t) = 0, en particular 1 ~x1 (0) + 2 ~x2 (0) + 3 ~x3 (0) = 0;
esto significa que

1~v1 + 2~v2 + 3~v3 = 0.

pero nosotros sabemos que los autovectores ~v1 , ~v2 , ~v3 forman una base de R3 , luego 1 = 2 =
3 = 0 y las soluciones ~x1 (t), ~x2 (t), ~x3 (t) forman una base. Cualquier solucion es combinaci
on
lineal de esta tres,

~x(t) = C1 ~x1 (t) + C2 ~x2 (t) + C3 ~x3 (t),

y la matriz

e2t e2t e5t
(t) = [~x1 (t), ~x2 (t), ~x3 (t)] = e2t 0 e5t
0 e2t e5t
es una matriz fundamental del sistema.

Nuestro primer ejemplo se basa en lo comentado en la introduccion. Si tenemos la funcion


y(t) = et para alg
un , entonces y 0 (t) = y(t). Este hecho se traslada a sistemas con matrices: si
la matriz de coeficientes es diagonalizable, para formar una base de soluciones, basta con formar
las exponenciales de los autovalores por los autovectores correspondientes.

Ejemplo 2. Vamos a calcular una base de soluciones del sistema

x0 (t) = 2x(t) + z(t)


y 0 (t) = 2y(t)
z 0 (t) = y(t) + 3z(t).

La matriz del sistema es



2 0 1

A= 0 2 0.
0 1 3
Sus autovalores son

1 = 3, m(1 ) = 1
2 = 2, m(2 ) = 2.

154
Se puede comprobar que la matriz no es diagonalizable, pues d(2 ) = 1. Formamos una base de
autovectores generalizados. Se puede comprobar que
Eg (A, 1 ) = E(A, 1 ) = span(~v1 ), ~v1 = (1, 0, 1)T
Eg (A, 1 ) = Ker(2I3 A)2 = span(~v2 , ~v3 ), ~v2 = (1, 0, 0)T , ~v3 = (0, 1, 1)T ,
donde hemos elegido ~v2 E(A, 2 ). Puesto que ~v1 , ~v2 son autovectores, como en el ejemplo
anterior, se generan dos soluciones
~x1 (t) = e1 t~v1 = (e3t , 0, e3t )T ,
~x2 (t) = e2 t~v2 = (e2t , 0, 0)T .
Necesitamos otra solucion para formar una base. No puede ser e2 t~v3 pues ~v3 no es autovector y
por tanto no sera solucion. La idea consiste en a
nadir una expresion
~x3 (t) = e2 t~v3 + te2 t w,
~
para cierto vector w.
~ Quien tiene que ser w
~ para que ~x3 (t) as expresado sea solucion? Si
derivamos
~x03 (t) = 2 e2 t~v3 + e2 t w
~ + te2 t 2 w,
~
y, por otro lado
A~x3 (t) = e2 t A~v3 + te2 t Aw.
~
De aqu podemos deducir que
(A 2 I3 )~v3 = w~
(A 2 I3 )w ~ = ~0.
La primera ecuacion nos indica ya que w
~ = (A 2 I3 )~v3 . A partir de ella se deduce la segunda,
puesto que ~v3 Ker(2I3 A)2 . Entonces, la tercera solucion es
~x3 (t) = e2 t~v3 + te2 t (A 2 I3 )~v3 .
Finalmente, ~x1 (t), ~x2 (t), ~x3 (t) forman una base del espacio de soluciones puesto que ~v1 , ~v2 , ~v3
forman una base de R3 .

La soluciones formadas como en los ejemplos anteriores, a partir de autovalores y autovectores


generalizados, se llaman modos normales del sistema. Lo importante es que podemos formar una
base de soluciones del sistema homogeneo (7.3) a partir de los modos normales. El segundo
ejemplo era una introduccion a la tecnica. El caso general es el siguiente.
Dada una matriz A Mn,n (C) sea (A) el conjunto de autovalores de A. Para cada (A)
sea m() su multiplicidad algebraica y k() el primer entero que estabiliza la sucesion de n
ucleos
{Ker(In A)j }j0 .

Teorema 3. En las condiciones anteriores, dado un autovector generalizado ~x Eg (A, ) =


Ker(In A)k() , entonces la funcion vectorial

k()1 j
X t
~x(t) = et (A In )j ~x
j=0
j!
!
t t2 tk()1
= e ~x + t(A In )~x + (A In )2 ~x + + (A In )k()1 ~x
2! (k() 1)!

155
es la solucion del PVI

~x0 (t) = A~x(t),


~x(0) = ~x.

En particular, si ~x es un autovector asociado a , la solucion correspondiente es ~x(t) = et ~x.

Observemos que todo vector es combinaci on lineal de autovectores generalizados, luego toda
solucion es combinacion lineal de modos normales. Las reglas practicas para resolver un PVI del
sistema homogeneo como (7.4) son las siguientes.

1. Obtener una base {~v1 , ~v2 , . . . , ~vn } de autovectores generalizados asociados a la matriz A.

2. Expresar la condicion inicial ~x0 como combinaci


on lineal de los autovectores generalizados

~x0 = 1~v1 + 2~v2 + + n~vn .

3. Construir el modo normal ~xk (t) que corresponde a cada autovector generalizado ~vk que
aparece en la condicion inicial.

4. Formar la superposicion

~x(t) = 1 ~x1 (t) + 2 ~x2 (t) + + n ~xn (t).

5. Si el instante inicial es t0 = 0, ~x(t) es la solucion. Si t0 6= 0, la solucion es ~y (t) = ~x(t t0 ).

Ejemplos.

[1] Vamos a resolver el sistema homogeneo (7.3) con matriz



11 9 0
A = 12 10 0 .
8 3 3

y condicion inicial ~x(0) = (1, 1, 2)T . El polinomio caracterstico de A es pA (z) = (z 1)(z +


2)(z 3). Los autovalores son

1 = 3, m(1 ) = 1
2 = 1, m(2 ) = 1
3 = 2, m(3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, 1 ) = E(A, 1 ) = Ker(3I3 A) = {(x, y, z)T /



14 9 0 x 0
12 7 0 y = 0
8 3 0 z 0
= span(~v1 ), ~v1 = (0, 0, 1)T ,

156

12 9 0 x 0
Eg (A, 2 ) = Ker(I3 A) = {(x, y, z)T / 12 9 0 y = 0
8 3 2 z 0
= span(~v2 ), ~v2 = (1, 4/3, 2)T ,

9 9 0 x 0
T
Eg (A, 3 ) = Ker(2I3 A) = {(x, y, z) / 12 12 0 y = 0

8 3 5 z 0
= span(~v3 ), ~v3 = (1, 1, 1)T .

Buscamos ahora las coordenadas de la condicion inicial (1, 1, 2)T en la base de autovectores
generalizados, resolviendo el sistema

1 0 1 1 1 1

P 2 = 0 4/3 1 2 = 1

3 1 2 1 3 2

que tiene por solucion 1 = 1, 2 = 0, 3 = 1, luego

(1, 1, 2)T = ~v1 + ~v3 .

Construimos ahora la expresion de los modos normales, siguiendo la formula dada en el teorema
3.

k(1 )1 j
X t
~x1 (t) = e1 t (A 1 I3 )j ~v1 = e3t~v1 = (0, 0, e3t )T
j=0
j!

k(2 )1 j
X t
~x2 (t) = e2 t (A 2 I3 )j ~v2 = et~v2 = (et , (4/3)et , 2et )T
j=0
j!

k(3 )1 j
X t
~x3 (t) = e3 t (A 3 I3 )j ~v3 = e2t~v3 = (e2t , e2t , e2t )T .
j=0
j!

Finalmente, sea ~x(t) = ~x1 (t) + ~x3 (t) = (e2t , e2t , e2t + e3t )T . Como la condicion inicial
esta impuesta en t0 = 0, la solucion es ~x(t).

[2] Vamos a resolver el sistema homogeneo (7.3) con matriz



1 1 2
A= 1 2 1 .
3 0 4

y condicion inicial ~x(2) = (2, 1, 5)T . El polinomio caracterstico de A es pA (z) = (z 1)2 (z 3).
Los autovalores son

1 = 3, m(1 ) = 1
2 = 1, m(2 ) = 2.

157
Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, 1 ) = E(A, 1 ) = Ker(3I3 A) = {(x, y, z)T /



4 1 2 x 0
1 1 1 y = 0

3 0 1 z 0
= span(~v1 ), ~v1 = (1, 2, 3)T

1 1 1 x 0
2 T
Eg (A, 2 ) = Ker(I3 A) = {(x, y, z) / 2 2 2 y = 0

3 3 3 z 0
= span(~v2 , ~v3 ), ~v2 = (1, 0, 1)T , ~v3 = (0, 1, 1)T ,

donde hemos elegido ~v2 E(A, 2 ). Buscamos ahora las coordenadas de la condicion inicial
(2, 1, 5)T en la base de autovectores generalizados, resolviendo el sistema

1 1 1 0 1 2

P 2 = 2 0 1 2 = 1

3 3 1 1 3 5

que tiene por solucion 1 = 2 = 3 = 1, luego

(2, 1, 5)T = ~v1 + ~v2 + ~v3 .

Construimos ahora la expresion de los modos normales, siguiendo la formula dada en el teorema
3.

k(1 )1 j
X t
~x1 (t) = e1 t (A 1 I3 )j ~v1 = e3t~v1 = (e3t , 2e3t , 3e3t )T
j=0
j!

k(2 )1 j
X t
~x2 (t) = e2 t (A 2 I3 )j ~v2 = et~v2 = (et , 0, et )T
j=0
j!

k(2 )1 j
X t
~x3 (t) = e2 t (A 2 I3 )j ~v3 = et (~v3 + t(A I3 )~v3 ) = (3tet , et , et 3tet )T .
j=0
j!

Finalmente, sea ~x(t) = ~x1 (t) + ~x2 (t) + ~x3 (t) = (e3t + (1 + 3t)et , 2e3t + et , 3e3t (2 + 3t)et )T .
Como la condicion inicial esta impuesta en t0 = 2, la solucion es ~y (t) = ~x(t 2).

[3] Ejercicio: resuelve el sistema homogeneo (7.3) con matriz



3 0 1 0
1 1 2 1
A=
1
.
0 1 0
2 1 1 1

y condicion inicial ~x(1) = (1, 2, 0, 2)T .

158
7.3. Sistemas no homog
eneos
Tratamos ahora el caso no homogeneo (7.1)

~x0 (t) = A~x(t) + ~b(t),

y su problema de valores iniciales (7.2)

~x0 (t) = A~x(t) + ~b(t),


~x(t0 ) = ~x0 ,

donde, como se comento anteriormente, ~b : J Kn es continua, t0 J. La cuestion de la


existencia y unicidad tambien esta resuelta.
~ : J Kn definida en todo el
Teorema 4. El problema (7.2) posee exactamente una solucion
intervalo J.
~1,
En cuanto a la resolucion, fijemonos en que si tenemos dos soluciones ~ 2 del sistema no
~ ~ ~
homogeneo (7.1), entonces = 1 2 es solucion del sistema homogeneo (7.3). As pues, el
conocimiento de una solucion particular de (7.1) y la estructura de las soluciones del sistema
homogeno asociado nos permiten obtener todas las soluciones de (7.1):

Teorema 5. la solucion general de (7.1) es de la forma


~ = ~xp (t) + C1
(t) ~ 1 (t) + C2
~ 2 (t) + + Cn
~ n (t),

donde { ~ 1 (t),
~ 2 (t), . . . ,
~ n (t)} es una base de soluciones del sistema homogeneo asociado (7.3),
C1 , C2 , . . . , Cn son constantes arbitrarias y ~xp (t) denota una solucion particular cualquiera de
(7.1).

Busquemos una expresion para la solucion del problema de valores iniciales (7.2). Denotemos
por (t) la matriz fundamental del sistema homogeneo (7.3) formada por los modos normales
que hemos obtenido en la seccion anterior. Tenemos entonces la llamada formula de variacion de
las constantes.

Teorema 6. La solucion de (7.2) puede escribirse


Z t
~x(t) = (t t0 )(0) 1
~x0 + (t s)(0)1~b(s)ds.
t0

Varios comentarios a esta formula.

(1) La matriz (0) no es mas que la matriz de cambio a la base de autovectores generalizados.
De este modo, (0)1 ~x0 no es mas que la expresion de la condicion inicial ~x0 en la base
de autovectores generalizados. Por otro lado, (0)1~b(s) se puede obtener resolviendo el
sistema (0)f~(s) = ~b(s).

(2) El primer sumando de la formula no es otra cosa que la solucion del problema

~x0 (t) = A~x(t), ~x(t0 ) = ~x0 ,

159
mientras que el segundo sumando es solucion del problema

~x0 (t) = A~x(t) + ~b(t), ~x(t0 ) = ~0.

De este modo, se tiene el resultado del teorema 5: la solucion del problema es la suma de
una solucion particular mas la solucion del problema homogeneo asociado.
Veamos como se aplica la formula en la practica.

Ejemplo. Vamos a resolver el sistema no homogeneo (7.2) con matriz



0 1 0

A= 0 0 1,
0 1 0

condicion inicial ~x(0) = (1, 1, 2)T y termino fuente ~b(t) = (sin t, 0, cos t)T . La primera parte de
la formula es la solucion del sistema homogeneo con la condicion inicial ~x(0) = (1, 1, 2)T . La
descomposicion primaria de A es la siguiente. Los autovalores son

1 = 0, m(1 ) = 1
2 = i, m(2 ) = 1
3 = i, m(3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, 1 ) = E(A, 1 ) = Ker(A) = span(~v1 ), ~v1 = (1, 0, 0)T ,


Eg (A, 2 ) = Ker(iI3 A) = span(~v2 ), ~v2 = (1, i, 1)T ,
Eg (A, 3 ) = Ker(iI3 A) = span(~v3 ), ~v3 = (1, i, 1)T .

Buscamos ahora las coordenadas de la condicion inicial (1, 1, 2)T en la base de autovectores
generalizados, resolviendo el sistema

1 1 1 1 1 1
P 2 = 0 i i 2 = 1
3 0 1 1 3 2
que tiene por solucion 1 = 3, 2 = (i 2)/2, 3 = (i 2)/2, luego
(i 2) (i 2)
(1, 1, 2)T = 3~v1 + ~v2 + ~v3 .
2 2
Construimos ahora la expresion de los modos normales, siguiendo la formula dada en el
teorema 3.

k(1 )1 j
X t
~x1 (t) = e1 t (A 1 I3 )j ~v1 = e0t~v1 = (1, 0, 0)T
j=0
j!

k(2 )1 j
X t
~x2 (t) = e2 t (A 2 I3 )j ~v2 = eit~v2 = (eit , ieit , eit )T
j=0
j!

k(3 )1 j
X t
~x3 (t) = e3 t (A 3 I3 )j ~v3 = eit~v3 = (eit , ieit , eit )T .
j=0
j!

160

Finalmente, sea ~x(t) = 3~x1 (t) + (i2)
2 ~x2 (t) + (i2)
2 ~x3 (t) = 3~x1 (t) + 2Re (i2)
2 ~ x2 (t) . Como la
condicion inicial esta impuesta en t0 = 0, la solucion del problema homogeneo es ~x(t). La matriz
fundamental es

1 eit eit
(t) = 0 ieit ieit .
0 eit eit

Vamos con la segunda parte de la formula. El vector f~(s) es solucion del sistema (0)f~(s) = ~b(s),
que resolviendo queda
sin s + cos s
(0)1~b(s) = cos2 s .
cos s
2
Entonces

1 ei(ts) ei(ts) sin s + cos s sin s + cos s cos s cos(t s)
1~
(t s)(0) b(s) = 0 iei(ts) iei(ts) cos2 s = cos s sin(t s) ,
cos s
0 ei(ts) e i(ts) 2 cos s cos(t s)
y por tanto

Rt
Z t 0 (sin s +
Rt
cos s cos s cos(t s))ds
~xp (t) = (t s)(0)1~b(s)ds = R 0t
cos s sin(t s)ds .
0
0 cos s cos(t s)ds

Por tanto, la solucion del problema es



(i 2)
~x(t) = 3~x1 (t) + 2Re ~x2 (t) + ~xp (t).
2

EJERCICIOS DEL TEMA 7

Ejercicio 1. (a) Halla la solucion general del sistema de ecuaciones diferenciales ordinarias
x0 = Ax donde A es la matriz
0 1 2
1 0 1 .
2 1 0

Ejercicio 2. Halla la solucion general de los sistemas de ecuaciones diferenciales siguientes:


x0 = 4x + y z x0 = 4x 7y + 24z x0 = 3x 2y + 4z
y 0 = 6x + 3y 4z y 0 = 4x 14y + 56z y 0 = 4x 3y + 8z
z 0 = 6x + 2y 3z z 0 = x 4y + 16z z 0 = x y + 3z

Ejercicio 3. Da la solucion de los problemas de Cauchy siguientes:



x 1 0 0 x x(0) = 0
d
y = 2 1 2 y , y(0) = 1
dt
z 3 2 1 z z(0) = 1

161

x 0 1 0 x x(0) = 1
d
y = 0 0 1y , y(0) = 1
dt
z 0 1 0 z z(0) = 2

x 1 1 4 x x(0) = 1
d
y = 0 2 0 y , y(0) = 3
dt
z 1 1 1 z z(0) = 0

Ejercicio 4. Halla la solucion de los problemas de valores iniciales siguientes:



x 1 1 1 0 x x(2) = 0
d y 1
= 1 0 1 y
, y(2) = 0
dt z 0 0 1 1 z z(2) = 1
w 0 0 1 1 w w(2) = 1

x 0 2 0 0 x x(0) = 1
d y 2
= 0 0 0 y
, y(0) = 1
dt z 0 0 0 3 z z(0) = 1
w 0 0 3 0 w w(0) = 0

x 1 0 1 0 x x(0) = 2
d y 3 2 7 5 y
= , y(0) = 0
dt z 0 0 1 0 z z(0) = 1
w 1 1 4 2 w w(0) = 0

x 3 1 6 1 x x(0) = 2

d y 2 0 0 2 y
y(0) = 1
= ,
dt z 4 2 6 0 z z(0) = 0
w 1 1 2 1 w w(0) = 3

Ejercicio 5. Consideremos dos especies que compiten entre s en un mismo habitat y sean x1 (t)
y x2 (t) las poblaciones de cada una de las especies que cohabitan en el instante de tiempo t.
Supongamos que las poblaciones iniciales son x1 (0) = 500 y x2 (0) = 200. Si el crecimiento de las
especies viene dado por el sistema diferencial

x01 = 3x1 + 6x2


x02 = x1 2x2

Cual es la poblacion de cada especie en cualquier instante de tiempo t?

Ejercicio 6. Halla la solucion de los siguientes problemas de valores iniciales:



x 1 1 1 x e2t x(1) = 1
d
y = 1 0 0 y + et ,
y(1) = 1
dt
z 0 1 0 z 0 z(1) = 1

x 4 1 1 x et x(0) = 1
d
y = 6 3 4 y + 0 , y(0) = 2
dt
z 6 2 3 z et z(0) = 1

162

x 0 1 0 x sin t x(0) = 1
d
y = 0 0 1y + 0 , y(0) = 1
dt
z 0 1 0 z cos t z(0) = 2

x 3 2 4 x 1 x(0) = 1
d
y = 4 3 8 y + 2t , y(0) = 1
dt
z 1 1 3 z t z(0) = 1

x 3 1 0 x t2 x(1) = 2
d
y = 0 3 1y + t , y(1) = 1
dt
z 0 0 3 z 1 z(1) = 1

Ejercicio 7. Se considera el sistema de ecuaciones diferenciales



0 1 1 x0 (t) 2 1 3 x(t) e2t

() 1 0 2 y 0 (t) 1 2 3 y(t) = 0 .
1 0 0 z 0 (t) 1 2 1 z(t) 0
(a) Reescribe el sistema en forma estandar ~x0 = A~x + ~g .
(b) Se considera la matriz
1 2 1
A = 2 1 5 .
0 0 2
Halla la solucion real del problema de Cauchy

~x0 = A~x + ~g .

con ~g = (0, e2t , 0)T y condiciones iniciales x(1) = 2, y(1) = 0, z(1) = 2.


(c) Halla la solucion del problema de Cauchy dado por el sistema () y la condicion inicial
x(1) = 2, y(1) = 0, z(1) = 2.

Ejercicio 8. Se considera la matriz A(r), dependiente de un parametro real r R,



4 3r 4
A(r) = 1 r 0 .
0 0 1
(i) Determina los valores de r para los cuales A(r) es diagonalizable.

(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.

(iii) Calcula la solucion del problema de valores iniciales


d
~x(t) = A~x(t),
dt
~x(2) = (3, 0, 1)T .

Ejercicio 9. Se considera la matriz



0 1 0
A = 0 0 1.
1 3 3

163
(i) Calcula la solucion del problema de valores iniciales

~x0 (t) = A~x(t),


~x(0) = (2, 2, 0)T .

(ii) Se considera la funcion vectorial f~(t) = (2e2t , e2t , 2e2t )T . Determina quien debe ser el vector
~ para que la funcion ~x(t) = e2t w
w ~ sea solucion del sistema no homogeneo

~x0 (t) = A~x(t) + f~(t).

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 7

Ejercicio 1. Modos normales:

~x1 (t) = e0t~v1 = (1, 2, 1)T ,



~x2 (t) = eti 6
~v2 = eti6
(1 + 2 6i, 2 6i, 5)T ,

ti 6

~x3 (t) = e ~v3 = eti 6 (1 2 6i, 2 + 6i, 5)T .

Solucion general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

Ejercicio 2. Primer sistema:


Modos normales:

~x1 (t) = et~v1 = et (1, 3, 0)T ,


~x2 (t) = et~v2 = et (0, 1, 1)T ,
~x3 (t) = e4t~v3 = e4t (5, 6, 6)T .

Solucion general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).
Segundo sistema: Modos normales:

~x1 (t) = e2t~v1 = e2t (2, 4, 1)T ,


~x2 (t) = e2t~v2 + te2t (A 2I)~v2 = e2t (0, 4, 1)T + te2t (4, 8, 2)T ,
t2
~x3 (t) = e2t~v3 + te2t (A 2I)~v3 + e2t (A 2I)2~v3
2
t2
= e2t (0, 0, 1)T te2t (24, 56, 14)T e2t (8, 16, 4)T .
2
Solucion general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

164
Tercer sistema: Modos normales:

~x1 (t) = et~v1 = et (1, 1, 0)T ,


~x2 (t) = et~v2 = et (0, 2, 1)T ,
~x3 (t) = et~v3 + tet (A I)~v3 = et (1, 0, 0)T + tet (2, 4, 1)T .

Solucion general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

Ejercicio 3. Primer sistema.


Modos normales:

~x1 (t) = et~v1 = et (2, 3, 2)T ,


~x2 (t) = e(1+2i)t~v2 = e(1+2i)t (0, i, 1)T ,
~x3 (t) = e(12i)t~v3 = e(12i)t (0, i, 1)T .

Solucion:
1i
~x(t) = 2Re ~x2 (t) .
2
Segundo sistema. Modos normales:

~x1 (t) = e0t~v1 = (1, 0, 0)T ,


~x2 (t) = eit~v2 = eit (1, i, 1)T ,
~x3 (t) = eit~v3 = eit (1, i, 1)T .

Solucion:
~x(t) = 3~x1 (t) + 2Re (1 i/2~x2 (t)) .
Tercer sistema. Modos normales:

~x1 (t) = e3t~v1 = e3t (2, 0, 1)T ,


~x2 (t) = et~v2 = et (2, 0, 1)T ,
~x3 (t) = e2t~v3 = e2t (5, 3, 2)T .

Solucion:
~x(t) = (5/2)~x1 (t) (1/2)~x2 (t) ~x3 (t).

Ejercicio 4. Primer sistema. Modos normales:

~x1 (t) = e(1+i)t~v1 = e(1+i)t (1, i, 0, 0)T ,


~x2 (t) = e(1+i)t~v2 + te(1+i)t (A (1 + i)I)~v2 = e(1+i)t (0, 0, 1, i)T + te(1+i)t (1, i, 0, 0)T ,
~x3 (t) = e(1i)t~v3 = e(1i)t (1, i, 0, 0)T ,
~x4 (t) = e(1i)t~v4 + te(1i)t (A (1 i)I)~v4 = e(1i)t (0, 0, 1, i)T + te(1i)t (1, i, 0, 0)T .

Solucion:
~x(t) = Re ((1 + i)~x2 (t 2)) .

165
Segundo sistema. Modos normales:
~x1 (t) = e2it~v1 = e2it (i, 1, 0, 0)T ,
~x2 (t) = e(2i)t~v2 = e(2i)t (i, 1, 0, 0)T ,
~x3 (t) = e3it~v3 = e3it (0, 0, 1, i)T ,
~x4 (t) = e(3i)t~v4 = e(3i)t (0, 0, 1, i)T .
Solucion:
~x(t) = 2Re ((1 + i)~x1 (t)) + 2Re (~x3 (t)) .
Tercer sistema. Modos normales:
~x1 (t) = eit~v1 = eit (0, 2 i, 0, 1)T ,
~x2 (t) = e(i)t~v2 = e(i)t (0, 2 + i, 0, 1)T ,
~x3 (t) = et~v3 = et (1, 1, 0, 0)T ,
~x4 (t) = et~v4 + tet (A I)~v4 = et (0, 6, 1, 2)T + tet (1, 1, 0, 0)T .
Solucion:
~x(t) = 2Re (~x1 (t)) 2~x3 (t) + ~x4 (t).
Cuarto sistema. Modos normales:
~x1 (t) = e2t~v1 = e2t (1, 0, 1, 1)T ,
~x2 (t) = e2t~v2 + te2t (A + 2I)~v2 == e2t (0, 1, 0, 1)T + te2t (2, 0, 2, 2)T ,
~x3 (t) = e2it~v3 = e2it (2i, 2, 1 + i, 0)T ,
~x4 (t) = e2it~v4 = e2it (2i, 2, 1 i, 0)T .
Solucion:
1 i
~x(t) = 3~x2 (t) + 2Re ~x3 (t) .
2

Ejercicio 5.
x1 (t) = 440 + 60e5t , x2 (t) = 220 20e5t .

Ejercicio 6. Primer sistema: ~x(t) = ~xh (t) + ~xp (t).


~xh (t) = e(t1) (1, 1, 1)T ,
Z t t+s
e e2s
~xp (t) = ( + (cos(t s) + sin(t s)) es sin(t s)ds,
1 2 2
Z t t+s
e e2s
+ (cos(t s) sin(t s)) + es cos(t s)ds,
1 2 2
Z t t+s
e e2s
+ ( cos(t s) sin(t s)) + es sin(t s)ds )T .
1 2 2
Segundo sistema: ~x(t) = ~xh (t) + ~xp (t).
~xh (t) = et (1, 3 0)T + et (0, 1, 1)T ,
Z t s Z t s
e e
~xp (t) = ( (5ets + 20e4(ts) )ds, (15ets 39e(ts) + 24e4(ts) )ds,
0 15 0 15
Z t s
e
(39e(ts) + 24e4(ts) )ds)T .
0 15

166
Cuarto sistema: ~x(t) = ~xh (t) + ~xp (t).

~xh (t) = et (1 + 4t, 1 + 8t, 1 + 2t)T ,


Z t Z t Z t T
(ts) (ts) (ts)
~xp (t) = e (1 + 2(t s))ds, e (4(t s) + 2s + 16s(t s))ds, e (t)ds .
0 0 0

Quinto sistema: ~x(t) = ~xh (t) + ~xp (t).

(t 1)2
~xh (t) = e3(t1) (1 + t , 2 t, 1)T ,
2
Z Z t Z t !T
t
( (t s)2 3(ts) 3(ts)
~xp (t) = e 3t s)((ts + )ds, e tds, e ds .
1 2 1 1

Ejercicio 7.
(a)
1 2 1 0

A= 2 1 5 , ~g (t) = e2t .
0 0 2 0
(b) ~x(t) = ~xh (t) + ~xp (t).

~xh (t) = e2(t1)) (1, 1, 1)T + 2Re e(1+2i)(t1) (i, 1, 0)T ,
Z t Z t T
~xp (t) = e( t 3s)(sin(2(t s)))ds, e(t3s) cos(2(t s))ds, 0 .
1 1

(c) La misma que en (b).

167
Tema 8

EDOs lineales de coeficientes


constantes y orden superior

Ejemplo introductorio. El estudio teorico del procesado de se nales de tipo continuo se lleva a
cabo a traves de la teora de sistemas. Un sistema se puede definir como un dispositivo fsico o
logico que realiza una operacion sobre una se
nal.

f (t) x(t)
- SIST EM A -
P ROCESADO
ENTRADA SALIDA

Cuando una se nal atraviesa un sistema se dice que se ha procesado. A la se


nal que introducimos
se denomina excitacion y a la que obtenemos a la salida, respuesta.
El procesado de una se nal puede consistir en una serie de operaciones basicas sobre ella. Se
puede amplificar una se nal (multiplicarla por una constante mayor que uno) multiplicarla por
otra, integrarla, derivarla, etc, en funcion de las necesidades. Practicamente, toda operacion que
pueda realizarse sobre una funcion de variable continua, que represente a una se nal, constituye
un sistema.
De todos los sistemas, los de mayor importancia son los llamados lineales. Estos verifican que la
respuesta a dos excitaciones de entrada es la suma de las respuestas a cada una de las excitaciones
por separado. La mayor parte de los sistemas contiene un n umero importante de componentes
lineales, o que al menos lo son aproximadamente, como para considerar el estudio de los sistemas
lineales de gran utilidad practica.

168
En este sentido, una ecuacion diferencial ordinaria lineal, en particular de coeficientes constantes,
puede interpretarse en terminos de un sistema. El ejemplo clasico, que manejaremos a lo largo
de la leccion, es el de un circuito electrico como el que aparece en la figura.

L
@
@


@
@ C
R

@
@


L, C > 0, R 0

E(t)
i(t)

Consta de una resistencia R, una inductancia L y una capacitancia C, as como una batera o
generador E(t) que suministra corriente al circuito. La intensidad de corriente i(t) que en cada
instante recorre el circuito puede entenderse como la respuesta a una excitacion dada por el
generador a traves de un sistema gobernado por la ecuacion diferencial
d2 i di 1 dE
L +R + i=
dt2 dt C dt
Su deduccion se basa en la segunda ley de Newton. El segundo sumando representa las fuerzas
de resistencia al movimiento.
Son tambien de interes algunas analogas del sistema electrico, como el sistema mecanico de
masa, resorte y amortiguamiento.

Esta leccion trata de las ecuaciones diferenciales ordinarias lineales de coeficientes constantes
y orden superior a uno. Consiste en estudiar ecuaciones en las que aparecen derivadas de orden
mayor que uno. La correspondencia entre una EDO lineal de orden n > 1 y cierto sistema lineal de
EDOs de primer orden nos permite enfocar aspectos teoricos desde el punto de vista de la leccion
anterior. Por tanto, aqu seguiremos esencialmente la misma estructura que aquella. Discutiremos
entonces aspectos sobre la forma de las soluciones para mas adelante centrarnos en la resolucion
y su utilizacion en algunas aplicaciones.

8.1. Teora b
asica
Una EDO lineal de orden n > 1 y coeficientes constantes es una expresion del tipo
xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t), (8.1)
con a0 , . . . , an1 n
umeros complejos que son los coeficientes de la ecuacion y f : I K el llamado
termino fuente, una funcion definida en algun intervalo real I con llegada en R o C. La ecuacion,

169
que se dice de orden n por ser este el orden de la derivada de mayor grado presente, viene
definida por sus coeficientes y su termino fuente. Cuando este es nulo, se dice que la ecuacion es
homogenea, siendo no homogenea en otro caso.
La funcion x(t) que aparece en (8.1) es una variable muda, siendo opcional el empleo de otras
letras tanto para denominar a la variable dependiente x como a la independiente t. Por solucion
de (8.1) se entiende toda aplicacion : I R K n veces diferenciable y que satisface la
igualdad (8.1) para todo t I al sustituir x(t) por (t).
Nuestro estudio tiene un hilo conductor ya tratado, que es la teora de sistemas diferenciales
lineales de primer orden y coeficientes constantes. Observemos que en terminos de estas nuevas
variables
dx(t) dn1 x(t)
x1 = x, x2 = , . . . , xn = , ~x = (x1 , x2 , . . . , xn )T ,
dt dtn1
podemos escribir la ecuacion (8.1) en forma de un sistema de primer orden

~x0 (t) = A~x(t) + f~(t), (8.2)

donde

0 1 0 0 0 0
0 0 1 0 0 0

. .. .. .. ..

.

A = .. . . . . , f~(t) = .. .

0 0 0 0 1 0
a0 a1 a2 an2 an1 f (t)

El sistema (8.2) es equivalente a la ecuacion (8.1) en el siguiente sentido. A cada solucion de


(8.1) le corresponde la solucion del sistema (8.2) dado por

~ = (, 0 , . . . , n1) )T ,

formado por ella y sus derivadas hasta el orden n 1. Recprocamente, la forma del sistema
asegura que las componentes de toda solucion ~ = (1 , 2 , . . . , n )T de (8.2) van siendo las
derivadas de la primera componente,

dj1 1 (t)
j (t) = , j = 2, . . . , n,
dtj1
y, de esta forma, teniendo en cuenta la u ltima ecuacion del sistema, la primera componente 1 es
solucion de (8.1). As pues, toda solucion de (8.2) tiene como primera componente una solucion
de (8.1).
El sistema equivalente nos permite entonces aprovechar el resultado de existencia y unicidad
para el problema de valores iniciales de un sistema diferencial de este tipo y aplicarlo a nuestro
caso. Ahora, un problema de valores iniciales para la ecuacion de orden n se construye con la
ecuacion (8.1) y n condiciones iniciales, para la funcion x(t) y sus derivadas hasta el orden n 1
en un punto,

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t) , (8.3)


0 n1)
x(t0 ) = 0 , x (t0 ) = 1 , . . . , x (t0 ) = n1 .

170
Esto equivale a imponer el siguiente PVI para el sistema,

~x0 (t) = A~x(t) + f~(t), (8.4)


T
~x(t0 ) = (0 , 1 , . . . , n1 ) .

Teorema 1. Si f : I K es continua, existe una u


nica solucion del problema de valores iniciales
(8.3).

De este modo, resolvemos un primer problema asegurando la existencia y unicidad de solu-


cion de todo PVI de la ecuacion (8.1) con coeficientes constantes y termino fuente f continuo.
Precisamente, la solucion es la primera componente de la solucion del correspondiente PVI (8.4)
para el sistema equivalente.
La interpretacion de este resultado cuando manejamos la ecuacion en el contexto de sistemas
de procesado de se nales es clara. En este caso, el sistema consta de dos tipos de excitaciones de
entrada: la dada por las condiciones iniciales y la del termino fuente, entendido como una se
nal de
variable continua. Entonces, el teorema de existencia y unicidad asegura que fijados los dos tipos
de excitacion, con una se nal de entrada continua, el sistema genera una y solo una respuesta.

8.2. Representaci
on de soluciones
Pasamos a un segundo punto de la teora basica, el referente a la descripcion de soluciones.

8.2.1. Ecuaci
on homog
enea
Nos detendremos primero en analizar las soluciones de la ecuacion homogenea,

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = 0, (8.5)


P
Denotamos por al espacio de soluciones de la ecuacion (8.5). El primer resultado es muy similar
al obtenido en el tema anterior.
P
Teorema 2. es un espacio vectorial de dimension n.

La demostracion es la siguiente. En primer lugar, la linealidad y el caracter homogeneo de esta


ecuacion nos demuestran que el conjunto de sus soluciones es un espacio vectorial. Esto indica
un primer principio de superposicion: toda combinaci on lineal de soluciones de (8.5) es a su vez
solucion de (8.5).
Por otra parte, ya hemos visto la equivalencia de (8.5) con el sistema homogeneo

~x0 (t) = A~x(t), (8.6)

con A dada en (8.2). Sabemos que toda solucion de (8.5) es la primera componente de una solucion
P
de (8.6) y recprocamente. De este modo, podemos identificar con el espacio de soluciones de
P
(8.6). Por el tema anterior, este u
ltimo tiene dimension n, de manera que dim = n.

Por tanto, toda solucion de (8.5) puede escribirse como una combinaci
on de n soluciones
linealmente independientes.

171
Teorema 3. la solucion general de (8.5) es de la forma

(t) = c1 1 (t) + + cn n (t),

donde c1 , . . . , cn son constantes arbitrarias en K y 1 (t), . . . , n (t) son n soluciones independientes


de (8.5). El conjunto {1 (t), . . . , n (t)} se llama un sistema fundamental de soluciones.

Ya sabemos entonces que para determinar la solucion general de una ecuacion homogenea
necesitamos n soluciones linealmente independientes. Surge entonces la cuestion de como com-
probar de forma sencilla la independencia de n soluciones dadas. Esta independencia puede venir
caracterizada por la independencia de sus datos iniciales en cualquier punto. En efecto, consid-
eremos n funciones 1 (t), . . . , n (t) derivables hasta el orden n 1 y formemos la matriz

1 (t) 2 (t) n (t)
01 (t) 02 (t) 0n (t)

W [1 , . . . , n ](t) = .. .. .. .
. . .
n1) n1) n1)
1 (t) 2 (t) n (t)
A su determinante w[1 , . . . , n ](t) = detW [1 , . . . , n ](t) se le llama wronskiano de las n fun-
ciones 1 (t), . . . , n (t). La identificaci
on con el sistema equivalente permite ver que si las n
funciones son soluciones de la ecuacion, entonces las n columnas de la matriz W son soluciones
del sistema. Ahora, la independencia de las n funciones equivale a la de las columnas. Por u ltimo,
como ya se conoce del tema anterior, la independencia de estas queda determinada por la de
sus valores en cualquier instante inicial (es la segunda condicion de matriz fundamental). Esto
demuestra que para analizar la independencia de n soluciones de la ecuacion homogenea de orden
n, basta con evaluar su wronskiano en un punto:
Sean t0 I, 1 (t), . . . , n (t) soluciones de (8.5). Entonces 1 (t), . . . , n (t) son linealmente
independientes si y solo si w[1 , . . . , n ](t0 ) 6= 0.

8.2.2. Ecuaci
on no homog
enea
Pasamos ahora a estudiar las soluciones de la ecuacion no homogenea (8.1). En primer lugar,
tenemos aqu tambien un principio de superposicion relacionado con el termino fuente.
Pongamos f (t) = f1 (t) + + fM (t) y sea i (t) solucion de (8.1) con fi (t) en lugar de f (t),
i = 1, . . . , M . Entonces, (t) = 1 (t) + + M (t) es solucion de (8.1) con termino fuente
f (t).
En terminos de sistemas, el principio afirma que la respuesta dada a una excitacion que es
superposicion de excitaciones mas simples es la suma de las respuestas a las excitaciones por
separado.
Aplicando este principio, tenemos:
Si 1 , 2 son dos soluciones de (8.1), entonces = 1 2 es solucion de la ecuacion
homogenea (8.5).
De este modo, la combinacion del principio de superposicion con la representacion general de las
soluciones de la ecuacion homogenea permite dar una descripcion de las soluciones de la ecuacion
no homogenea.

172
La solucion general de (8.1) puede escribirse

(t) = p (t) + c1 1 (t) + + cn n (t),

donde

p (t) es una solucion particular cualquiera de (8.1).


c1 , . . . , cn K son constantes arbitrarias.
{1 (t), . . . , n (t)} es un sistema fundamental de soluciones de la ecuacion homogenea
(8.5).

Las constantes determinan la generalidad, de manera que nuestro problema de calcular la


solucion general de la ecuacion no homogenea se reduce a la determinacion de una solucion
particular.

8.3. C
alculo efectivo de soluciones. Ecuaci
on homog
enea
Pasamos al calculo de soluciones, siguiendo la estructura previamente descrita y comenzando
por tanto con la ecuacion homogenea (8.5).
El polinomio p(z) = a0 +a1 z + +an1 z n1 +z n es el polinomio caracterstico de la ecuacion
y sus races son las llamadas races caractersticas de la misma.
En analoga con la ecuacion lineal de primer orden x0 (t) = ax(t), uno puede esperar tambien
en este caso soluciones exponenciales. Fijemonos en que si x(t) = et y sustituimos en el primer
miembro de (8.5), tenemos

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t)


= (n + an1 n1 + a1 + a0 )et = p()et ,

de modo que para que x(t) = et sea solucion, el factor ha de ser una raz caracterstica
p() = 0. La terminologa del polinomio y sus races no es casual, puesto que en el sistema
equivalente (8.6) p es precisamente el polinomio caracterstico de la matriz A y por tanto sus
races son los autovalores de esta.

Ejemplo. Para n = 3,

0 1 0
A= 0 0 1 ,
a0 a1 a2

y se tiene

z 1 0

det(zI3 A) = 0 z 1 = z 3 + a2 z 2 + a1 z + a0 = p(z).
a a1 z + a2
0

Las races caractersticas determinan pues soluciones de la ecuacion. Para el ejemplo del
clasico circuito RLC, el valor de las races depende de los parametros de resistencia, inductancia
y capacitancia. Para valores fijos de L y C, en la figura representamos la evoluci on de cada una

173
de las races en funcion de la resistencia R, con R decreciendo en la direccion de las flechas. Son
destacables varias cosas: en los casos practicos las races tienen parte real menor o igual que cero,
colapsan para un cierto valor de la resistencia y a medida que esta se acerca a cero, las races se
aproximan al eje imaginario. Ya veremos que esto influye en el tipo de respuesta que proporciona
el circuito.

lambda1

lambda2

La identificacion de los autovalores de la matriz del sistema equivalente (8.6) con las races
caractersticas de la ecuacion (8.5) habilita el calculo de un conjunto fundamental de soluciones.
En efecto, sabemos que el sistema (8.6) admite una base de soluciones formada por modos nor-
males que son funciones del tipo

k()1) j
X t
~ (t) = et
(A In )j ~ ,
j=0
j!

con k() menor o igual que la multiplicidad algebraica del autovalor , ~ un autovector general-
izado asociado al autovalor. Lo que nos interesa de la formula es el hecho de que las componentes
de esta funcion vectorial,en particular la primera, son de la forma et q(t) con q(t) un polinomio
de grado a lo sumo la multiplicidad del autovalor menos uno. Factorizamos el polinomio carac-
terstico,

p(z) = (z 1)m1 (z 2 )m2 (z r )mr , m1 + + mr = n. (8.7)

Dado que toda solucion de la ecuacion es la primera componente de una solucion del sistema,
esto significa que, recorriendo la base de modos normales, las n funciones

0,1 (t) = e1 t , 1,1 (t) = te1 t , m1 1,1 (t) = tm1 1 e1 t


0,2 (t) = e2 t , 1,2 (t) = te2 t , m2 1,1 (t) = tm2 1 e2 t
(8.8)
r t r t mr 1 r t
0,r (t) = e , 1,r (t) = te , mr 1,1 (t) = t e ,

constituyen un sistema generador del espacio de soluciones de (8.5). Ahora, el espacio generado
por estas funciones tiene dimension a lo sumo n (el n
umero de generadores) y contiene al espacio
de soluciones de la ecuacion (8.5), que sabemos que tiene dimension n, luego necesariamente
coincide con el.

174
Teorema 4. Supongamos K = C. Dada la factorizacion (8.7) del polinomio caracterstico de la
ecuacion (8.5), las n funciones dadas por (8.8) forman un sistema fundamental de soluciones de
la ecuacion homogenea de orden n (8.5).

Ejemplo 1. Buscamos la solucion del problema

xiv) 2x000 + 2x00 2x0 + x = 0


x(0) = 0, x0 (0) = 1, x00 (0) = 0, x000 (0) = 1

El polinomio caracterstico es p(z) = z 4 2z 3 + 2z 2 2z + 1 = (z 1)2 (z 2 + 1), de manera que


las races con sus multiplicidades son
1 = 1, m1 = 2, 2 = i, m2 = 1, 3 = i, m3 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{et , tet , eit , eit }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Ceit + Deit
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal para las constantes:

(0) = A + C + D = 0
0 (0) = A + B + iC iD = 1
00 (0) = A + 2B C D = 0
000 (0) = A + 3B iC + iD = 1,

cuya solucion es A = 1, B = 1, C = (1 i)/2, D = (1 + i)/2, luego la solucion del problema es


(t) = et + tet + ((1 i)/2)eit + ((1 + i)/2)eit .

Ejemplo 2. Buscamos la solucion del problema

x000 + x00 x0 x = 0
x(0) = 1, x0 (0) = 0, x00 (0) = 1.

El polinomio caracterstico es p(z) = z 3 + z 2 z 1 = (z + 1)2 (z 1), de manera que las races


con sus multiplicidades son
1 = 1, m1 = 2, 2 = 1, m2 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{et , tet , et }
As, la solucion general de la ecuacion es de la forma
(t) = Aet + Btet + Cet .
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal para las constantes:

(0) = A + C = 1
0 (0) = A + B + C = 0
00 (0) = A 2B + C = 1,

cuya solucion es A = 1, B = 1, C = 0, luego la solucion del problema es (t) = et + tet .

De este modo, hemos obtenido una base de soluciones de la ecuacion homogenea, independi-
entemente del caracter real o complejo de sus autovalores. En el caso de que la ecuacion tenga
coeficientes reales, puede obtenerse una base de soluciones formada por funciones reales.

175
Esto es debido a lo siguiente: supongamos que en (8.5) los coeficientes a0 , . . . , an1 son n
umeros
reales. Observemos que si es solucion de (8.5), el hecho de que los coeficientes sean reales,
implica que su funcion conjugada es tambien solucion. Puesto que
+
Re() = , Im() = ,
2 2i
y por el principio de superposicion, tenemos que las partes real e imaginaria de toda solucion de
(8.5) son tambien soluciones.
De esta manera, la base anterior (8.8) nos va a proporcionar una base real. Ahora, el polinomio
caracterstico puede factorizarse en la forma

p(z) = = (z 1 )m1 (z p )mp


(z 1 )n1 (z q )nq
1 )n1 (z
(z q )nq , (8.9)

donde
1 , . . . , p R, j = j + ij , 1 j q.
Esto se debe a que, al ser p de coeficientes reales, las races complejas aparecen en pares conjugados
j ,
j con la misma multiplicidad nj . Lo u nico que tenemos que hacer es distinguir las races
caractersticas reales de las complejas y considerar la parte real y la imaginaria de las funciones
de la base (8.8) asociadas a estas u ltimas.

Teorema 5. Supongamos que K = R y consideremos la factorizacion del polinomio caracterstico


de la ecuacion (8.5) dada en (8.9). Entonces, las n funciones

tk ets , 1 s p, 0 k ms 1
tk ets cos s t, 1 s q, 0 k ns 1
k t
t e sin s t,
s 1 s q, 0 k ns 1

forman una base del espacio real de las soluciones reales de la ecuacion (8.5).

Ejemplo. As, en el ejemplo 1 anterior, como

eit = cos t + i sin t, eit = cos t i sin t,

la base real de soluciones es

{et , tet , cos t, sin t},

y la solucion del problema es, escrita en esta base,


1 i it 1 + i it
(t) = et + tet + e + e
2 2
1 i it
= et + tet + 2Re( e )
2
= et + tet + cos t + sin t.

Tambien se puede obtener planteando la solucion general real (t) = Aet + Btet + C cos t + D sin t
e imponiendo las condiciones iniciales para despejar los valores de A, B, C y D.

176
8.4. Respuesta natural. Movimiento arm
onico simple y amor-
tiguado
la interpretacion de estas soluciones al considerar la ecuacion como la ley que gobierna un
sistema de procesado de se nales es la siguiente. Recordemos que un sistema de este tipo puede
recibir dos formas de excitacion: en terminos de una se
nal continua (termino fuente) o en terminos
de condiciones iniciales. Cuando la ecuacion es homogenea, no hay excitacion del primer tipo, de
modo que la solucion de un PVI de la ecuacion homogenea es la respuesta del sistema debida a
la excitacion dada por las condiciones iniciales. Se dice entonces que es la respuesta natural.

Ejemplo 1. Movimiento arm onico amortiguado


Un ejemplo clasico que ilustra distintas respuestas naturales de una ecuacion homogenea viene
dado por el circuito electrico RLC.

d2 i di 1
L L 2
+R + i=0
@ dt dt C

@ C
R i(0) = i0 , i0 (0) = i00
@

L, R, C > 0

i(t)

Planteadas condiciones iniciales a la ecuacion, la respuesta natural es diferente en funcion del


caracter real o complejo de las races caractersticas,

R R 2 1
1,2 = , =
2L 2L CL
As, suponiendo que todos los parametros del circuito son positivos, tenemos
> 0, i(t) = c1 e1 t + c2 e2 t . La respuesta natural es una superposicion de dos exponen-
ciales correspondientes a las dos races, distintas, reales y negativas. Las constantes c1 , c2
quedan determinadas imponiendo los datos iniciales.
R
= 0, i(t) = (c1 + c2 t)e 2L t . La u
nica raz caracterstica proporciona como solucion un
polinomio de grado menor o igual que uno por la correspondiente exponencial.
r 2
R
2L t 1 R
< 0, i(t) = Ae cos(1 t ), 1 = CL 2L . Este caso da lugar a dos races
complejas conjugadas: cuando la resistencia es no nula, la respuesta natural corresponde
a oscilaciones con una amplitud que decrece exponencialmente a cero. La corriente oscila

177
cada vez a menor amplitud y la velocidad a la que se amortigua la respuesta depende
directamente del valor de la resistencia, que act
ua como atemperacion del sistema. Este es
el llamado movimiento armonico amortiguado.
La siguiente figura ilustra los tres casos comentados, fijados valores a L y C, en funcion de una
resistencia presente en le circuito. En todos ellos la respuesta natural tiende a cero cuando t ,
debido a que la parte real de las races caractersticas es en todos los casos menor que cero, porque
todos los parametros del circuito son positivos.

0.5

0.4

0.3

0.2

0.1

0.1
0 5 10 15

Ejemplo 2. Movimiento arm onico simple. En las respuestas naturales antes comentadas
hemos tenido en cuenta en el modelo la presencia de una resistencia que act ua como amor-
tiguamiento del sistema. La desaparicion de la misma (R = 0 en la ecuacion) cambia el modelo
y por tanto la respuesta natural.
1
R=0 ( < 0), = = , 1,2 = i
CL
Ahora las races caractersticas son imaginarias puras y la respuesta es una oscilacion libre de
amplitud constante y frecuencia , la llamada frecuencia natural.

i(t) = A1 cos(t) + A2 sin(t) = A cos(t )


Este es el llamado movimiento armonico simple y puede obtenerse a partir del movimiento
armonico amortiguado anterior. Recordando el comportamiento de las races caractersticas, que
se aproximan al eje imaginario cuando la resistencia se acerca a cero, tenemos que en el movimien-
to armonico amortiguado, la velocidad de decaimiento tiende a cero, de manera que la respuesta
se aproxima a la respuesta natural de un circuito con induccion y capacitancia pero libre de
fuerzas de resistencia.

R
iR (t) = Ae 2L t cos(1 t ) i(t) = A cos(t )
R 0

178
R = 0.1 R = 0.05
1 1

0.5 0.5

0 0

0.5 0.5

1 1
0 10 20 30 40 0 10 20 30 40

R = 0.025 R=0
1 1

0.5 0.5

0 0

0.5 0.5

1 1
0 10 20 30 40 0 10 20 30 40

Ejemplo 3. Modulaci on de una se nal. La aparicion de oscilaciones libres como respuestas


naturales proporciona diversas aplicaciones de los circuitos al procesado de se nales. Una de ellas
es la modulacion, en la que se emplea una se
nal para controlar alg
un parametro de otra. Nosotros
nos fijaremos en una de las mas sencillas, que es la modulacion en amplitud sinusoidal.

x(t) y(t) = x(t)cos(t )


- -

LC -
cos(t )
c.i.

Vamos a considerar el siguiente sistema. Este consta de una se nal que actua de mensaje y
otra, que actuara de portadora, que es una onda sinusoidal con una apropiada frecuencia , que
puede considerarse como respuesta natural de un circuito electrico LC sin resistencia. El sistema
procesa ademas ambas se nales usando un multiplicador. La respuesta se muestra en la figura.

179
X(t)

20
10
0
10
20
0 5 10 15 20 25 30 35 40
RESPUESTA NATURAL DEL CIRCUITO

0 5 10 15 20 25 30 35 40
Y(t)

20
10
0
10
20
0 5 10 15 20 25 30 35 40

Se trata de la se
nal portadora modulada en la que su envolvente sigue el perfil del mensaje.

8.5. C
alculo efectivo de soluciones. Ecuaci
on no homog
enea
Pasamos ahora al calculo de soluciones de una ecuacion no homogenea. Siguiendo la estructura
previamente comentada de las soluciones de la ecuacion, describiremos aqu dos caminos de
resolucion. Uno es general y viene dado por la formula de variacion de las constantes. El otro es
un metodo practico de coeficientes indeterminados para calcular una solucion particular, valido
solo para cierto tipo de terminos fuente.

8.5.1. F
ormula de variaci
on de las constantes
La formula de variacion de las constantes esta basada en la correspondiente formula para el
sistema equivalente de primer orden, que ya hemos visto en el tema anterior.

Teorema 6. La solucion del PVI (8.3)

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = f (t)


x(t0 ) = 0 , x0 (t0 ) = 1 , . . . , xn1) (t0 ) = n1

con f : (a, b) K continua, es


Z t
(t) = 0 (t) + h(t s)f (s)ds
t0

donde
[1 ] 0 satisface
n) n1)
0 (t) + an1 0 (t) + + a1 00 (t) + a0 0 (t) = 0
n1)
0 (t0 ) = 0 , 00 (t0 ) = 1 , . . . , 0 (t0 ) = n1

180
[2 ] h : R R es la solucion de

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = 0


x(0) = 0, x0 (0) = 0, . . . , xn2) (0) = 0, xn1) (0) = 1

(Funcion de influencia)

La formula establece que la solucion del PVI (8.3) para una ecuacion de orden n y coefi-
cientes constantes con termino fuente continuo, se puede escribir como suma de dos terminos: el
primero es la solucion de la ecuacion homogenea asociada con el mismo dato inicial. El segundo
proporciona una solucion particular con dato inicial nulo y representa la aportacion del termino

no homogeneo a traves de un factor de influencia h. Este puede obtenerse como la solucion de la
ecuacion homogenea con un conveniente dato inicial en cero.
Para la demostracion, se considera el correspondiente problema de valores iniciales (8.4) para
el sistema equivalente y sea (t) la matriz formada por modos normales a partir de la matriz A.
Por la formula de variacion de las constantes para sistemas, la solucion de (8.4) puede escribirse
Z t
~x(t) = (t t0 )(0) 1

~+ (t s)(0)1 f~(s)ds.
t0

Por la equivalencia entre ecuacion y sistema, la primera componente de este vector es la solucion
que buscamos. pasamos entonces a analizar la formula. El primer sumando es la solucion del
sistema homogeneo (8.6) con dato inicial ~x(t0 ) = ~ , de manera que su primera componente es
en efecto la funcion 0 , solucion de la ecuacion homogenea con dato inicial
~ . por otro lado,
podemos escribir la integral como

0
Z t 0

1 ..
(t s)(0) . f (s)ds.
t0
0
1

Ahora, si consideramos el integrando salvo la funcion f (s), este es el valor, en t s del vector

0
0

~h(t) = (t)(0)1 .
.. ,

0
1

que no es otra cosa que la solucion del sistema homogeneo con dato inicial en t0 = 0 dado por
(0, 0, . . . , 0, 1)T . Por tanto, su primera componente es la funcion de influencia h descrita.

Ejemplo. Vamos a resolver el problema de valores iniciales

x00 2x0 3x = t2 e2t


x(0) = 1, x0 (0) = 1.

181
La solucion del problema homogeneo

x00 2x0 3x = 0
x(0) = 1, x0 (0) = 1.

es 0 (t) = (1/2)e3t + (1/2)et . La funcion de influencia es la solucion de

x00 2x0 3x = 0
x(0) = 0, x0 (0) = 1.

esto es, h(t) = (1/4)e3t (1/4)et . Entonces


Z t Z t
h(t s)f (s)ds = (1/4)e3(ts) (1/4)e(ts) s2 e2s ds.
0 0

La solucion del problema es


Z t
(1/2)e3t + (1/2)et + (1/4)e3(ts) (1/4)e(ts) s2 e2s ds.
0

La formula de variacion de las constantes tiene un interes a


nadido por su interpretaci
on cuando
la ecuacion diferencial gobierna un sistema de procesado de se nales continuas. La formula muestra
que la respuesta del sistema es suma de la respuesta debida a la excitacion de las condiciones
iniciales, es decir, la respuesta natural, mas la respuesta a la excitacion exclusivamente de la se
nal
de entrada.
Ya hemos hablado de la respuesta natural, por lo que ahora nos vamos a centrar en diversas
aplicaciones que tiene el segundo sumando de la formula. Para ilustrar estas vamos a usar de
nuevo el circuito electrico RLC de segundo orden y por comodidad manejaremos condiciones
iniciales en t0 = 0.

Circuito RLC

d2 h dh 1
L L +R + h=0
@ dt2 dt C

@ C
R h(0) = 0, h0 (0) = 1
@

h(t)

182
2
R R 1
1,2 = , =
2L 2L CL
Dependiendo del signo del discriminante de la ecuacion caracterstica, la funcion de influencia
puede ser de las siguientes formas:
1
> 0, h(t) = 1 2
(e1 t e2 t )
R
= 0, h(t) = te 2L t
R
< 0, h(t) = 1 e 2L t cos(t 2 ), =

Ejemplo 1. Respuesta a una excitaci on sinusoidal.


El primer ejemplo que tratamos es el estudio de la respuesta de un sistema a una excitacion
sinusoidal. Imaginemos un sistema de procesado de se nales que se rige por una EDO lineal de
orden n y coeficientes constantes, con una se
nal de entrada del tipo coseno y condiciones iniciales
nulas en t = 0.

f (t) = cos(0 t) x(t)


- P.V.I. -

+c.i. = 0
La formula de variacion de las constantes determina que la solucion tiene esta forma
Z t
x(t) = h(t s) cos(0 s)ds
0

con h la correspondiente funcion de influencia. Un sencillo cambio de variable permite escribir la


integral de esta manera
Z t
x(t) = h(s) cos(0 (t s))ds.
0

Imaginemos que el sistema es estable en el sentido de que toda solucion de la ecuacion ho-
mogenea tiende a cero cuando t . Dada la forma conocida ya de una base de soluciones,
tk et 0, t esto se consigue si nosotros imponemos que la parte real de toda raz carac-
terstica es menor que cero,

Re() < 0 raz caracterstica.

Bajo estas condiciones, descomponemos la respuesta en esta dos integrales,


Z
x(t) = h(s) cos(0 (t s))ds
0
Z
h(s) cos(0 (t s))ds = xP + xT
t

183
xT (t) 0 si t (resp. transitoria)
Z
1
xP (t) = h(s) ei0 (ts) + ei0 (ts) ds
2 0
= a cos(0 t ) (resp. permanente)

Z
0 )), A() =
a = |A(0 )|, = arg(A( h(s)eis ds
0

Con las hipotesis impuestas, la segunda integral tiende a cero cuando t . De este modo,
cuando t es grande, la aportacion de la segunda integral es cada vez menor y la respuesta tiende
a comportarse seg un la primera integral. Es por ello que a esta se le llama respuesta permanente,
mientras que el segundo sumando se denomina respuesta transitoria.
Observemos ademas que la respuesta permanente puede tambien escribirse como un coseno de
la misma frecuencia que la senal de entrada. La conclusion es que para un sistema de este tipo,
la respuesta a una excitacion sinusoidal es asintoticamente sinusoidal, con la misma frecuencia
(0 ), y magnitud y fase determinadas por
Z
A() = h(s)eis ds
0
(respuesta en frecuencia)
La ilustracion de este resultado puede venir dada a traves de un circuito electrico de segundo
orden, donde una batera suministra electricidad, en forma sinusoidal en tiempo, mostrada en
la figura. Elegimos los parametros de la ecuacion de modo que la funcion de influencia sea por
ejempo una oscilacion amortiguada. La tercera figura muestra la respuesta del sistema. Aqu se
puede observar que la respuesta transitoria, visible para tiempos cortos, tiende a desaparecer,
quedando una oscilacion de la misma frecuencia que la excitacion pero amplificada.
EXCITACION f(t)

0 10 20 30 40 50 60 70 80 90 100
F. DE INFLUENCIA h(t)

0 10 20 30 40 50 60 70 80 90 100
RESPUESTA x(t)

10

10

0 10 20 30 40 50 60 70 80 90 100

184
Ejemplo 2. Regularizaci on de una se nal.
Otro efecto de la formula de convoluci on es la regularizacion de una senal, es decir, la respuesta
del sistema es una funcion mas regular que la funcion excitacion de entrada. Esto puede ilustrarse
con el siguiente ejemplo. Imaginemos que la se nal de entrada es un par de pulsos triangulares de
la forma del primer grafico de la figura.

EXCITACION f(t)

0 1 2 3 4 5 6 7 8
F. DE INFLUENCIA h(t)

0.01

0.01

0 1 2 3 4 5 6 7 8
3 RESPUESTA
x 10
1

0.5

0.5

1
0 1 2 3 4 5 6 7 8

Supongamos que el circuito de segundo orden tiene una funcion de influencia del tipo mostrado en
el segundo grafico, correspondiente a un valor nulo del discriminante. El tercer dibujo muestra la
respuesta con condiciones iniciales nulas. Observamos as que es una representaci on mas regular
de la se
nal de entrada. Es mas regular pero tambien pierde amplitud, debido especialmente a
que la excitacion no esta muy alejada y es preciso tomar la funcion de influencia h bastante baja
para representar de forma mas o menos fiel la excitacion. Esto puede arreglarse a nadiendo al
sistema un amplificador de se nal. Finalmente, podemos vernos tambien afectados de un desfase
con respecto a la se nal de entrada, que puede corregirse introduciendo en el sistema un retardo.

Ejemplo 3. Se nales discontinuas.


La formula de variacion de las constantes es necesaria para tratar el caso general. Sin embargo,
requiere que la ecuacion diferencial se adapte como modelo matematico al fenomeno que se
pretende describir. Ello exige que la se
nal de entrada del sistema, el termino fuente de la ecuacion,
sea una funcion continua. Cuando la funcion f deja de ser continua en alg un punto, la ecuacion
carece de soluciones en sentido estricto. Esta es, sin embargo, una situacion que puede darse en
la realidad. Imaginemos una se nal de entrada consistente en un mensaje codificado en ceros y
unos. Esto significa que el termino fuente es una funcion de tipo pulso, como la que aparece en
la figura (primer grafico), discontinua en un numero finito de puntos.

185
EXCITACION f(t)
1

0.5

0
0 1 2 3 4 5 6 7 8 9 10
F. DE INFLUENCIA h(t)
0.01

0.005

0.005

0.01
0 1 2 3 4 5 6 7 8 9 10
4 RESPUESTA
x 10
10

0
0 1 2 3 4 5 6 7 8 9 10

Uno puede estar interesado en la respuesta del sistema a este tipo de excitacion. Naturalmente,
no puede proceder de una solucion en el sentido clasico de la ecuacion. Sin embargo, se puede hacer
el siguiente razonamiento: se integra la ecuacion diferencial en el intervalo entre 0 y 2 con termino
fuente nulo y condiciones iniciales nulas. A continuaci on se integra en el siguiente intervalo, entre
2 y 4, con termino fuente identicamente uno y condiciones iniciales dadas por la solucion del
problema anterior. Repitiendo este procedimiento en cada intervalo de continuidad del termino
fuente se obtiene una funcion continua en todo punto y que satisface la ecuacion diferencial en
aquellos puntos donde el termino fuente es continuo. En forma cerrada, esta funcion viene dada
por la convolucion que aparece en la formula de variaci on de las constantes. As, la formula
permite dar respuesta a se nales mas generales y proporciona un sentido mas amplio a la idea
de solucion de la ecuacion diferencial, como la funcion continua que satisface la ecuacion en los
puntos donde el termino fuente es continuo.
Esto puede observarse en las figuras. Para un termino fuente formado por dos pulsos rectangulares,
tomando la funcion de influencia correspondiente al circuito de segundo orden con discriminante
nulo, la respuesta del sistema es una regularizacion de la se nal de entrada que ademas permite
identificar el mensaje de unos y ceros.

8.5.2. Coeficientes indeterminados


Pasamos por u ltimo a describir una alternativa para la resolucion de la ecuacion no homogenea
aplicable para cierto tipo de terminos fuente. Es el metodo de coeficientes indeterminados que
permite obtener una solucion particular de la ecuacion sin recurrir a la formula de variaci on de
las constantes.
Los terminos fuente para los que es aplicable este metodo son del tipo producto de un
polinomio por una exponencial. Dentro de esta clase de funciones se encuentran tambien las
trigonometricas.

xn) (t) + an1 xn1) (t) + + a1 x0 (t) + a0 x(t) = q(t)et

q(t) = q0 + q1 t + + qm tm , C

186
El metodo parte de la idea intuitiva de que cuando el termino fuente de la ecuacion es de esta
forma, uno espera una solucion del mismo tipo. El procedimiento es como sigue. Cuando consid-
eramos un producto x(t) = s(t)et de una funcion s(t) por una exponencial de la misma forma
que el termino fuente, la sustitucion en el primer miembro de la ecuacion diferencial da lugar a

pn) () n) pn1) () n1)


( s (t) + s (t) +
n! (n 1)!
p0 () 0
+ s (t) + p()s(t))et = q(t)et (8.10)
1!
donde

p(z) = z n + an1 z n1 + + a1 z + a0

es el polinomio caracterstico de la ecuacion. Esta formula puede demostrarse usando la regla de


derivacion de un producto y reordenando terminos. La expresion (8.10) simplifica la discusion del
procedimiento de coeficientes indeterminados. Imaginemos que el termino fuente es un polinomio
de grado menor o igual que m por la exponencial y que la solucion a ensayar es del mismo tipo,
con s un polinomio. Simplificando en (8.10) se tiene una ecuacion diferencial para el polinomio
s. Dado que q es un polinomio de grado menor o igual que m, la expresion de la izquierda es
entonces un polinomio de grado menor o igual que m. La determinacion del grado de s depende
entonces de los coeficientes de la formula.
De este modo, si no es raz del polinomio caracterstico, s tiene que ser un polinomio de grado
menor o igual que m, pues aparece a la izquierda de la igualdad. Esto permite ensayar una
solucion particular como el termino fuente, es decir, un polinomio de grado menor o igual que m
por la exponencial.
Ahora, si por ejemplo es raz caracterstica simple, la anulaci
on del u
ltimo sumando indica que
la derivada de s es un polinomio de grado menor o igual que m, luego s es un polinomio de grado
menor o igual que m + 1. Si la raz es doble, s00 tiene grado menor o igual que m, de manera que
s tiene grado a los sumo m + 2. As, en general, si es raz caracterstica de multiplicidad d,
podemos ensayar como s un polinomio de grado menor o igual que m + d,

s(t) = A0 + A1 t + + Ad1 td1 + Ad td + + Am+d tm+d .

Aqu podemos avanzar un poco mas; teniendo en cuenta que es raz con esa multiplicidad,
la parte de la solucion correspondiente al polinomio de grado menor o igual que d 1 es una
solucion de la ecuacion homogenea. De este modo, podemos ensayar a partir del coeficiente de
td . Tenemos entonces el criterio siguiente:

(A) Si p() 6= 0, entonces s(t) = r0 + r1 t + + rm tm y existe una solucion particular de la


forma
p (t) = (r0 + r1 t + + rm tm )et

(B) Si p(z) = (z )d p0 (z) con p0 () 6= 0, entonces


s(t) = r0 + + rd1 td1 + rd td + + rd+m td+m
y existe una solucion particular de la forma

p (t) = td (rd + rd+1 t + + rd+m tm )et

187
(C) En ambos casos, los coeficientes se obtienen imponiendo que p (t) sea solucion del problema.

Ejemplos.

[1]. Buscamos una solucion particular de

x00 2x0 3x = te2t .

Las races caractersticas son 1 = 3, 2 = 1. Como = 2, ensayamos como solucion particular


x(t) = (A + Bt)e2t . Imponiendo esta funcion como solucion e igualando en las potencias de t,
tenemos el sistema

2B 3A = 0
3B = 1.

de donde x(t) = ((2/9) (t/3))e2t .

[2]. Buscamos una solucion particular de

x00 2x0 3x = tet .

Ahora, = 1 es raz simple del polinomio caracterstico. Buscamos entonces una solucion
particular de la forma x(t) = t(A + Bt)et . Imponiendo la funcion como solucion e igualando
coeficientes en t, se tiene

2B 4A = 0
8B = 1.

De donde B = 1/8, A = 1/16. La ecuacion tiene una solucion particular de la forma x(t) =
t((1/16) (1/8)t)et . La solucion general es de la forma c1 e3t + c2 et + t((1/16) (1/8)t)et ,
con c1 , c2 constantes arbitrarias.

Ejemplo 1. Resonancia.
La primera aplicacion de esta tecnica de coeficientes indeterminados se refiere al fenomeno de
resonancia. En sistemas como el del circuito electrico
d2 i di 1
L 2
+ R + i = E cos(f t)
dt dt C
y en general en sistemas lineales de senales aparecen funciones fuente de naturaleza sinusoidal. Es
interesante estudiar el comportamiento de la respuesta del circuito cuando el discriminate de la
ecuacion caracterstica es negativo y la frecuencia de excitacion f no coincide con la frecuencia
natural del sistema

< 0, = , 6= f

Supongamos que la resistencia R es no nula. En tal caso, la solucion general de la ecuacion


homogenea es una oscilacion amortiguada
R
i0 (t) = Ae 2L t cos(t 0 ).

188
Asmismo, siguiendo el metodo de coeficientes indeterminados, hay una solucion particular que
es una combinacion lineal de seno y coseno de la misma frecuencia que el termino fuente
ip (t) = B cos f t + C sin f t
E
= q cos(f t )
R
( f )2 + 4( 2L f )2
Imponiendo que la funcion sea una solucion de la ecuacion, se determinan las constantes B y C.
As, la solucion del problema es suma de esta solucion particular mas la de la homogenea
i(t) = i0 (t) + ip (t).
La imposicion de las condiciones iniciales determinan las constantes A y 0 .
Si la resistencia es no nula, la respuesta transitoria, dada por la solucion de la ecuacion
homogenea asociada, tiende a desaparecer con el tiempo, quedando el regimen permanente rep-
resentado por la solucion particular, que es una oscilacion libre de amplitud constante e igual
frecuencia que la del termino fuente, la se
nal de entrada. Si R es nulo, la solucion de la ecuacion
homogenea no es transitoria y la respuesta es una superposicion de dos se nales sinusoidales de
distinta frecuencia. En cualquier caso, el sistema permanece estable con el tiempo.
RESPUESTA NO RESONANTE
8

6
0 5 10 15 20 25 30 35 40

Notemos sin embargo que si la resistencia es pequena y la frecuencia natural del sistema es cercana
a la de excitacion, la amplitud de la respuesta permanente se puede hacer muy grande.
Esta observacion nos lleva a investigar lo que ocurre cuando la resistencia es nula y las dos
frecuencias coinciden
d2 i 1
L 2 + i = E cos(t)
dt C
En este caso, el metodo de coeficientes indeterminados permite encontrar una solucion particular
de la forma
ip (t) = Bt sin t + Ct cos t
E
= t sin(t )
2

189
dado que i y su conjugado, que aparecen en el termino fuente, son races caractersticas simples.
A
nadiendo la solucion de la ecuacion homogenea

i0 (t) = A cos(t 0 )
i(t) = i0 (t) + ip (t),

la solucion de nuestro problema sera la suma de ambas. Ahora, la respuesta es inestable, pues
la solucion particular va haciendose, de manera oscilatoria, mayor en amplitud a medida que
transcurre el tiempo, debido al factor lineal t. Este es el fenomeno conocido como resonancia:
la frecuencia de la excitacion es resonante con la de la respuesta natural, que es un movimiento
armonico simple.
RESPUESTA RESONANTE
40

30

20

10

10

20

30

40
0 5 10 15 20 25 30 35 40

Ejemplo 2. Filtrado de una se nal.


Otra de las aplicaciones del metodo de coeficientes indeterminados se encuentra en el filtrado
de se
nales. Imaginemos que al circuito electrico la batera le suministra un voltaje que es una
superposicion de m sinusoides de diferentes frecuencias,

d2 i di 1 d
L 2
+ R + i = f (t) = E(t), R>0
dt dt C dt

E(t) = E1 sin(1 t) + + Em sin(m t)

excitacion que aparece en la primera figura para siete frecuencias distintas.

190
EXCITACION E(t)
5

5
0 1 2 3 4 5 6 7 8 9 10

RESPUESTA ip(t)
5

5
0 1 2 3 4 5 6 7 8 9 10

Suponiendo que la resistencia R es no nula, el metodo de coeficientes indeterminados y el princi-


pio de superposicion proporcionan una solucion particular que es tambien una superposicion de
se
nales sinusoidales con amplitud constante y similares frecuencias.
m
X Ej
ip (t) = s 2 sin(j t j )
j=1 1CLj2
R2 + Cj

Observemos que la amplitud asociada a una de las frecuencias, digamos K , sera maxima cuando
1
la frecuencia natural coincida con ella, = CL = K . De este modo, ajustando los parametros
del circuito C y L para que as ocurra, podemos hacer que la amplitud de la respuesta para la se
nal
de entrada con frecuencia K sea mucho mayor que las restantes amplitudes. El sistema electrico
actua as como un filtro, respondiendo a aquellas entradas cuyas frecuencias esten cerca de K
e ignorando aquellas se nales con frecuencias mas lejanas. En nuestro ejemplo los parametros
1
del circuito se ajustan para que = CL este cerca de la tercera frecuencia, y la respuesta
permanente de salida se muestra en la segunda figura del grafico. Observemos que se ha filtrado
la se
nal de entrada, de manera que la amplitud de la tercera se nal respuesta es mucho mayor que
la de las demas y esta es la que se observa en la grafica.

EJERCICIOS DEL TEMA 8

Ejercicio 1. Encuentra la solucion general de las siguientes ecuaciones diferenciales ordinarias


homogeneas:
a) x000 + 4x00 + x0 6x = 0,
b) x000 + 6x00 + 9x0 = 0,
c) x00 2x0 + 2x = 0,
d) x0v 2x00 + x = 0,
e) x00 x0 12x = 0,

191
f) x000 6x00 + 12x0 8x = 0,
g) x0000 2x000 + 2x00 2x0 + x = 0,
h) x0000 + 2x00 + x = 0,
i) x000 2x00 x0 + 2x = 0,
j) x0000 5x000 + 6x00 + 4x0 8x = 0,

Ejercicio 2. Halla la solucion de los siguientes problemas de valores iniciales:


a) x0000 + x = 0, x(0) = 1, x0 (0) = x00 (0) = 0, x000 (0) = 1
b) x000 3x00 + 3x0 x = 0, x(0) = 1, x0 (0) = 2, x00 (0) = 3
c) x00 2x0 + 3x = 0, x(0) = x0 (0) = 0
d) x0000 2x00 + x = 0, x(0) = x0 (0) = x00 (0) = 0, x000 (0) = 1.

Ejercicio 3. Cual es el menor orden de una ecuacion diferencial lineal homogenea de coeficientes
constantes que tiene entre sus soluciones a las funciones sin (2t), 4t2 e2t y et ? Halla una de tales
ecuaciones.

Ejercicio 4. Se considera la ecuacion

ax00 + bx0 + cx = 0

donde b > b2 4ac, a > 0. Demuestra que si x = x(t) es cualquier solucion de esta ecuacion,
entonces lmt x(t) = 0.

Ejercicio 5. Halla la solucion general de la ecuacion


x2 y 00 (x) + 3xy 0 (x) + y(x) = 0 x > 0.
(Indicacion: haced el cambio de variable x = et y obtened una ecuacion diferencial en la variable
t).

Ejercicio 6. Encuentra la solucion general de las ecuaciones diferenciales siguientes, hallando


una solucion particular de las mismas ensayando con funciones adecuadas.
a) x00 9x = 3t,
b) x00 + 4x = sin (2t),
c) x00 4x = t exp (2t),
d) x000 + x0 = sin (2t),
e) x000 + 3x00 + 3x0 + x = t2 exp (t),
f) x00 3x0 + 2x = 2t exp (3t) + 3 sin t,
g) x00000 + 2x000 + x0 = 2t + sin t + cos t,
h) x00 + 4x0 + 4x = 3t exp (2t),

Ejercicio 7. Halla la solucion de los siguientes problemas de valores iniciales


(1) x00 5x0 + 6x = (12t 7)et x(0) = x0 (0) = 0
(2) x00 + 4x = 4(sin 2t + cos 2t) x() = x0 () = 2
(3) x000 x0 = 2t x(0) = 0, x0 (0) = 1, x00 (0) = 2
(4) x0000 x = 8et x(0) = 0, x0 (0) = 2, x00 (0) = 4, x000 (0) = 6.

Ejercicio 8. Halla la solucion general de las ecuaciones diferenciales ordinarias siguientes:


a) x00 4x0 + 3x = (1 + exp (t))1
b) x00 x = t exp t

192
c) x00 x = (1 + exp (t))2
d) x000 5x00 + 8x0 4x = 3 exp (2t)
e) x00 3x0 + 2x = 3 sin (2t)
f) x00 2x0 3x = t2 exp (2t)
g) x00000 x000 = 2t2

Ejercicio 9. Se considera la ecuacion diferencial de orden tres

x000 (t) 5x00 (t) + 8x0 (t) 4x(t) = et + cos t. (8.11)

(i) Calcula una solucion particular de la ecuacion (8.11).

(ii) Calcula la solucion general y(t) de la ecuacion (8.11).

(iii) Si ~y (t) = (y(t), y 0 (t), y 00 (t))T , determina el sistema diferencial


d
~x(t) = A~x(t) + f~(t),
dt
que satisface ~y (t).

Ejercicio 10. Se considera la ecuacion de orden tres

x000 (t) ax00 (t) x0 (t) + ax(t) = 0, t > 0. (8.12)

(i) Determina la solucion general de (8.12) seg


un los valores de a.
(ii) Para la ecuacion (8.12) con a = 1, determina la relacion que deben verificar las condiciones
iniciales x(0) = 0 , x0 (0) = 1 , x00 (0) = 2 para que la correspondiente solucion tienda a cero
cuando t .
(iii) Para la ecuacion

x000 (t) ax00 (t) x0 (t) + ax(t) = f (t), t > 0.

con a = 1 y f (t) = et + sin t, calcula una solucion particular.

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 8

Ejercicio 1.
a) x(t) = Aet + Be2t + Ce3t .
b) x(t) = A + Be3t + Cte3t .
c) x(t) = Aet cos t + Bet sin t.
d) x(t) = Aet + Btet + Cet + Dtet .
e) x(t) = Ae4t + Be3t .
f) x(t) = (A + Bt + Ct2 )e2t .
g) x(t) = Aet + Btet + C cos t + D sin t.
h) x(t) = (A + Bt) cos t + (C + Dt) sin t.
i) x(t) = Aet + Be2t + Cet .

193
j) x(t) = (A + Bt + Ct2 )e2t + Det .

Ejercicio 2.
a) x(t) = 1+ 2 et/ 2 cos(t/ 2)
2 2
1 t/ 2
2 2
e sin(t/ 2)+ 1+
2 et/ 2 cos(t/ 2)
2 2
1 t/ 2
2 2
e sin(t/ 2).
b) x(t) = (1 + t)et .
c) x(t) = 0.
d) x(t) = 1+t t 1+t t
4 e + 4 e .

Ejercicio 4. La solucion general del problema es


x(t) = Ae1 t + Be2 t ,
donde

b +b2 4ac
1 = ,
2a
b b2 4ac
12 = ,
2a
que por las hipotesis del problema son ambas negativas, luego lmt x(t) = 0.

Ejercicio 5. Si x = et , la funcion v(t) = y(x) = y(et ) verifica la ecuacion


v 00 (t) + 2v 0 (t) + v(t) = 0,
A+B ln x
de solucion v(t) = (A + Bt)et . Deshaciendo el cambio, se tiene y(x) = x , x > 0.

Ejercicio 6.
a) x(t) = Ae3t + Be3t (1/3)t.
b) x(t) = A cos(2t) + B sin(2t) (t/4) cos(2t).
c) x(t) = Ae2t + Be2t + (t/16 + t2 /8)e2t .
d) x(t) = A + B cos t + C sin t + (1/6) sin(2t).
e) x(t) = 12 6t + t2 (t3 /6)et + (A + Bt + Ct2 )et .
f) x(t) = Aet + Be2t + (t 3/2)e3t + (9/10) cos t + (3/10) sin t.
g) x(t) = A + (B + Ct) cos t + (D + Et) sin t + t2 + (t2 /8) cos t (t2 /8) sin t.
h) x(t) = (A + Bt)e2t + (t3 /2)e2t .

Ejercicio 7.
(1) x(t) = e2t e3t + tet .
(2) x(t) = 4 cos(2t) + 12
2 sin(2t) + t(sin(2t) cos(2t)).
(3) x(t) = 2 + (3/2)e + (1/2)et + t2 .
t

(4) x(t) = 2tet .

Ejercicio 8. R
a) x(t) = Aet + Be3t + tt0 ( 12 ets + 21 e3(ts) ) 1+e1 s ds.
b) x(t) = Aet + Bet + R(t/4 + (t2 /4))et .
c) x(t) = Aet + Bet + tt0 ( 21 e(ts) + 12 e(ts) ) (1+e1s )2 ds.
d) x(t) = Aet + (B + Ct)e2t + 32 t2 e2t .
e) x(t) = Aet + Be2t + (1/4) cos(2t) (1/6) sin(2t).
f) x(t) = Aet + Be3t + (14/27 + 4t/9 + (t2 )/3)e2t .
g) x(t) = Aet + Bet + C + Dt + Et2 (2/3)t3 (1/60)t5 .

194
Referencias


[1] Anton, H. Introduccion al Algebra lineal; Limusa, 1990.
[2] Arves
u, J., Alvarez,
R., Marcellan, F. Algebra lineal y aplicaciones; Sntesis, 1999.
[3] Arves
u, J., Marcellan, F., Sanchez, J. Problemas resueltos de Algebra lineal, Ed Thompson
Paraninfo, 2005.
[4] Borrelli, R., Coleman, C. S. Ecuaciones diferenciales, una perspectiva de modelacion; Oxford
University Press, 2002.

[5] Burgos, J. de. Algebra Lineal; Mc Graw-Hill, 1997.
[6] Fernandez, C., Vazquez, F. J., Vegas, J. M. Ecuaciones diferenciales y en diferencias. Sis-
temas dinamicos; Thompson Paraninfo, 2005.

[7] Grossman, G. I. Algebra lineal; McGraw-Hill, 1997.
[8] Kaplan, W. Ordinary Differential Equations; Addison-Wesley, 1961.

[9] Kolman, B. Algebra lineal con aplicaciones y Matlab, 6a Edicion; Prentice Hall, 1999.

[10] Lang, S. Introduccion al Algebra lineal; Addison-Wesley, 1990.

[11] Lay, D. C. Algebra lineal y sus aplicaciones; Addison-Wesley, 2001.
[12] Marcellan, F., Casas
us, L., Zarzo, A. Ecuaciones diferenciales, problemas lineales y aplica-
ciones; Mc Graw-Hill, 1991.
[13] Meyer, C. Matrix Analysis and Applied Linear Algebra; SIAM, 2000.
[14] Nagle, R.K.; Saff, E.B. Fundamentals of Differential Equations, 5th ed.; Addison-Wesley,
2004.

[15] Noble, B., Daniel, J. W. Algebra lineal aplicada; Prentice-Hall, 1989.
[16] Pita, C. Ecuaciones diferenciales. Una introduccion con aplicaciones; Limusa, 1992.

[17] Rojo, J. Algebra lineal; Mc Graw-Hill, 2001.
[18] Ross, S. L. Introduction to Ordinary Differential Equations; John Wiley and Sons, 1989.
[19] Simmons, G. F. Ecuaciones diferenciales con aplicaciones y notas historicas; Mc Graw-Hill,
1993.

[20] Strang, G. Algebra lineal y sus aplicaciones; Addison-Wesley, 2001.
[21] Tenenbaum, M., Pollard, H. Ordinary Differential Equations; Harper & Row, 1963.

195