Está en la página 1de 114

AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x + 2x = f0 cos(t)

Renato Alvarez Nodarse

Diplomatura de Estad stica Ampliacin de Anlisis Matemtico. o a a


Prof. Renato Alvarez Nodarse

Indice
Programa de la asignatura 1. Introduccin a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales ordinarias . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homogneas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones numricas: el mtodo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuacin lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coecientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores mltiples . . . . . . . . u 3.5. El SEDO lineales no homogneo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuacin lineal de orden n o 4.1. Solucin de la ecuacin lineal homognea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homognea con coecientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El mtodo de reduccin de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuacin hipergeomtrica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales clsicos a La ecuacin diferencial hipergeomtrica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios clsicos . . . a Las funciones generatrices . . . . . . . . . . .

6.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. El teorema de existencia y unicidad para las EDOs 7.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. La transformada de Laplace 8.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A. Anexo: Clculo de primitivas a A.1. Mtodos de integracin. . . . . . . e o A.2. Integracin de funciones racionales. o A.3. Integrales trigonomtricas. . . . . . e A.4. Integrales irracionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102

B. Anexo: Algebra lineal B.1. Sistemas lineales y matrices. . . . . . . . . . . . . . . . . B.2. Formas escalonadas y el algoritmo de reduccin por las. o B.3. Solucin de un sistema de ecuaciones lineales. . . . . . . o B.4. Vectores y ecuaciones matriciales. . . . . . . . . . . . . . B.5. Algebra de matrices. . . . . . . . . . . . . . . . . . . . . B.6. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . B.7. Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . B.8. El problema de autovalores de una matriz. . . . . . . . .

C. Anexo: Series de potencias 105 C.1. Propiedades de las series de potencias . . . . . . . . . . . . . . . . . . . . . . 105

Diplomatura de Estad stica Ampliacin de Anlisis Matemtico. o a a Programa de la asignatura. Curso 2003/2004
Cap tulo 1: Introduccin a las ecuaciones diferenciales ordinarias. La EDO lineal o de primer orden. Motivacin de las ecuaciones diferenciales ordinarias (EDO). La EDO lineal de primer o orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. Aplicaciones. Cap tulo 2: Ecuaciones diferenciales ordinarias de primer orden. Ecuaciones diferenciales de primer orden. Ecuaciones separables. Ecuaciones lineales. Ecuaciones de Bernoulli y de Ricati. Ecuaciones diferenciales exactas. Aplicaciones. Mtodos e en diferencias para resolver EDOs de primer orden: El mtodo de Euler. e Cap tulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. Sistemas de ecuaciones diferenciales ordinarias de primer orden. Sistemas lineales con coecientes constantes. La matriz exponencial eA y sus propiedades. Ejemplos y aplicaciones. Cap tulo 4: Ecuaciones diferenciales de orden n. EDOs de orden n. Relacin con los sistemas de ecuaciones de primer orden. Ecuaciones o lineales. EDOs lineales de orden 2. Mtodo de variacin de coecientes. Reduccin de orden. e o o Cap tulo 5: Mtodo de las series de potencias. e Mtodo de integracin por series. Puntos regulares y singulares. La ecuacin hipere o o geomtrica de Gauss. La ecuacin de Bessel. Aplicaciones. e o Cap tulo 6: Polinomios ortogonales clsicos. a La ecuacin de tipo hipergeomtrico y sus soluciones polinmicas. Los polinomios clsio e o a cos. Ortogonalidad y relacin de recurrencia. Frmula de Rodrigues. Los momentos de las o o distribuciones continuas de probabilidad. Funciones generatrices. Cap tulo 7: EDOs: Existencia y unicidad de las soluciones. Mtodo de Picrd. Teorema de existencia y unicidad para una ecuacin diferencial ordie a o naria de primer orden. Los sistemas lineales y la EDO de orden n. Cap tulo 8: Ecuaciones en diferencias nitas. Introduccin a las ecuaciones en diferencias nitas: Ejemplos. Existencia de la solucin. o o La ecuacin de segundo orden de tipo hipergeomtrico. Polinomios clsicos discretos. La o e a ecuacin de Pearson y los momentos de las distribuciones discretas de probabilidad. Funcioo nes generatrices.

Metodolog y Evaluacin a o
La asignatura est dividida en 3 horas tericas y 2 horas prcticas semanales. Las horas a o a de teor se dedicarn a la explicacin de los principales conceptos y mtodos de resolucin a a o e o de EDOs tanto de orden uno como de ordenes superiores. Adems se desarrollarn distintos a a ejemplos que permitan aplicar y profundizar los mtodos aprendidos. Las horas prcticas se e a dedicarn a proponer y resolver diversos ejercicios que permitan al alumno una comprena sin ms profunda de los conceptos tericos y que sirvan de complemento a las clases tericas. o a o o Al nal del cuatrimestre se se efectuar un exmen nal constituido por una parte tericaa a o prctica y otra de problemas. Para aprobar el examen es necesario obtener al menos 5 a puntos. Tambin se entregarn varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Dichos proyectos son totalmente voluntarios y no sern evaluados en el exmen aunque si pueden complementar la nota de ste, slo en caso a a e o de mejorarla.

Bibliograf a
Bibliograf bsica a a
C. H. Edwards, Jr y David E. Penney, Ecuaciones diferenciales elementales. Pearson Educacin o Nagle R.K. y Sa E.B. Fundamentos de ecuaciones diferenciales. Pearson Educacin. o

Colecciones de problemas
A. K. BOIARCHUK y G. P. GOLOVACH, Matemtica Superiores. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8, 9 y 10 (URSS, 2002).

Bibliograf complementaria a
Braun M. Dierential Ecuations and their Applications. Springer Verlag. Bugrov Ya.S., Nikolski S.M. Ecuaciones diferenciales. Integrales mltiples. Series. Funciones de variable compleja. MIR. Elsgoltz L. Ecuaciones diferenciales y clculo variacional. MIR. a Kisilev A., Krasnov M. y Makarenko G. Problemas de Ecuaciones diferenciales ordinarias. Ed. MIR. Marcelln, F., Casass, L. y Zarzo, A., Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. McGraw-Hill. Rainville E.D., Bedient P.E. y Bedient R.E. Ecuaciones diferenciales. Prentice Hall. Simmons, G.F. Ecuaciones diferenciales : con aplicaciones y notas histricas. McGrawo Hill. Renato Alvarez Nodarse. Facultad de Matemticas. Despacho: 1er piso, Mod 15, No. 15-06 a

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN

1.

Introduccin a las EDOs: la EDO lineal de primer o orden


Todos sabemos que es una ecuacin. Por ejemplo o 3x + 2 = 5, x2 + 4x = 3, x2 + 1 = 0, x2 2x + 1 = 0. x2 1

Estas ecuaciones, quiz las ms sencillas, son ecuaciones algebraicas ya que involucran slo a a o las operaciones suma, resta, multiplicacin y divisin. La incgnita en este caso es una unica o o o variable x que puede ser real o compleja. Por ejemplo, para la primera ecuacin es fcil ver o a que x = 1 es la unica solucin posible, mientras que la segunda tiene dos soluciones reales o x = 1 y x = 3. La tercera sin embargo no tiene soluciones reales, pero si complejas x = i. Finalmente la ultima no tiene ninguna solucin pues la unica posible ser x = 1 que no o a puede ser solucin ya que la propia ecuacin no est denida en x = 1 (divisin por cero). o o a o Hasta ahora hemos visto ecuaciones sencillas en el sentido que su solucin es un conjuno to de nmeros determinado. Existen ecuaciones ms complicadas, las ecuaciones funcionau a les donde las incgnitas son funciones. En ejemplo de stas son las ecuaciones diferenciales o e ordinarias. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas ordinarias. Por ejemplo, y (x) = sen x, y (x) = y, y (x) ey(x) + 7 cos x = 0, y (x) + 3y (x) + 2y(x) = 2 cos(2x).

Estas ecuaciones son el objetivo del presente curso. Es fcil entender que el problema de a encontrar la solucin de las ecuaciones diferenciales es ms complicado que el de los casos o a anteriores. En primer lugar por que estamos buscando funciones de x y no simples valores de x. En segundo, porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general.

1.1.

Ecuaciones diferenciales ordinarias


F (x, y, y , y , . . . , y (n) ) = 0,

Nos centraremos en las ecuaciones del tipo (1.1)

donde y = y(x) es cierta funcin n veces derivable en algn intervalo I R. Diremos que o u una ecuacin diferencial del tipo (1.1) es de orden n si en ella aparece la derivada y (n) , es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funcin incgnita o o y y. As por ejemplo la ecuacin y + 3y = 2 es de orden uno, y + e 1 = 0 es de orden dos, , o y (5) + 3 sen x y = 0 es de orden cinco. Diremos que y = y(x) es una solucin de la (1.1) en cierto dominio A R si al sustituir o la funcin y = y(x), (1.1) se transforma en una identidad para todo x A, o sea o y = y(x) es solucin en A o F (x, y(x), y (x), . . . , y (n) (x)) = 0, x A.

Nuestro principal objetivo es aprender a resolver EDOs. En particular el denominado problema de valores iniciales (PVI), es decir encontrar aquella solucin y de la ecuacin o o (n) F (x, y, y , y , . . . , y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 , y (x0) = y0, ..., y (n1) (x0) = y0
(n1)

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN

1.2.

La EDO lineal de primer orden


d y(x) + a(x)y(x) = b(x), dx

Denicin 1.1 La ecuacin o o a(x), b(x) CI . (1.2)

(como incgnita tenemos a la funcin derivable y(x)) se denomina ecuacin diferencial lineal o o o de primer orden. Si b(x) 0 la ecuacin se denomina ecuacin homognea y si b(x) = 0, o o e ecuacin no homognea. o e La solucin general de (1.2) se expresa de la forma o y(x) = Ce
a(x) dx

+ e

a(x) dx

a(x) dx

b(x) dx

(1.3)

Ejemplo 1.2 Encontrar la solucin de la ecuacin lineal o o Tenemos y = Ce 2 + e 2


x2 x2

dy + x y = 2x. dx

e 2 2x dx = Ce 2 + 2e 2 e 2 = Ce 2 + 2.

x2

x2

x2

x2

x2

Denicin 1.3 El problema de encontrar una solucin de la ecuacin (1.2) con la condicin o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden, o sea, d y(x) + a(x)y(x) = b(x), dx a(x), b(x) CI , y(x0) = y0. (1.4)

Ejemplo 1.4 Resolver la EDO del ejemplo 1.2 con la condicin inicial y(0) = 1. o Como la solucin general es y(x) = Ce 2 + 2, tenemos y(0) = 1 = C + 2, de donde C = 1 o
x2 x2

y y(x) = 2 e 2 .

Teorema 1.5 (existencia y unicidad de la solucin del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1.4). Si a(x) y b(x) son funciones continuas en cierto intervalo I R que contenga al punto x0 I, entonces, para cualquiera sea el valor y0 , existe una unica solucin del problema de valores iniciales (1.4). o En general, la solucin del PVI es o
x t x t

y(x) = y0 exp

x0

a(s) ds + exp

a(s) ds
x0 x0

exp
x0

a(s) ds b(t) dt .

(1.5)

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN

1.3.

Algunas aplicaciones de las EDOs lineales de primer orden

Ejemplo 1.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x, y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. y = 2y/x Ejemplo 1.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. Encuentra adems la a curva que pasa por el origen. Ejemplo 1.8 Se sabe que la intensidad i del circuito elctrico representado en la gura 1 e est gobernada por la ecuacin diferencial a o L di + Ri = U, dt

donde L es la impedancia, R la resistencia y U el voltaje. Supongamos que el voltaje U es constante y que i(0) = i0. Encontrar la dependencia de i respecto al tiempo t. Realizar el mismo estudio si U = U0 sen(t).
y t y(x)

P(x,y)

0 (x/2,0) x

Figura 1: Curva del ejemplo 1.6 (derecha) y circuito elctrico del ejemplo 1.8 (izquierda) e

Ejemplo 1.9 La ecuacin baromtrica de Pascal es la EDO o e p (h) = p(h), > 0,

donde p es la presin en funcin de la altura h. Si h = 0, la presin al nivel del mar (1 atm). o o o Cmo var la presin con la altura? o a o Ejemplo 1.10 La descomposicin radioactiva o Si N es el nmero de atomos de una substancia radioactiva, entonces u N (t + h) N (t) = N (t)h N (t + h) N (t) = N (t). h

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (Cdiz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura mxima (metros) presin (atm) a o 1654 2648 3478 3710 8848 0.81 0.71 0.64 0.62 0.32

Si h 0, entonces podemos aproximar la ecuacin anterior mediante la siguiente EDO o N (t) = N (t), N (t0) = N0. (1.6)

Se llama per odo de semi-desintegracin al tiempo necesario para disminuir en la mitad o el nmero de atomos, u N0 = N0 eT , 2 = = log 2 0,693147 = . T T

Elemento Radio 226 Plomo 214 Plomo 214 Plomo 210 Plomo 210 Polonio 210 Polonio 210 Plomo 206 Carbono 14 Nitrgeno 14 o Uranio 238 Torio 234

Per odo T 1600 aos n 0.000433217 1/aos n 47 min 0.0147478 1/min 22 aos n 0.0315067 1/aos n 138 d as .00502281 1/dias 5568 aos n 0.000124488 1/aos n 9 10 4,5110 aos 1,5101210 n 1/aos n

En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva. E.g.

Uranio 238

Torio 234

Uranio 234

Radio 226

Plomo 206

Polonio 210

Plomo 210

Plomo 214

As por ejemplo, si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos , que tener en cuenta no slo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de l en la cadena radioactiva. Por ejemplo, prcticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226, lo que implica una aportacin a la cantidad de Plomo 210 despus de varias desintegraciones. o e Si llamamos a esa aportacin r(t), entonces la ecuacin que gobierna la desintegracin del o o o Plomo 210 es la siguiente N (t) = N (t) + r(t), N (t0) = N0, (1.7)

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN

donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. La solucin de la ecuacin anterior es fcil de encontrar usando la frmula (1.5). o o a o

1.4.

Problemas

Problema 1.11 Decide si las funciones y(x) denidas expl citamente o impl citamente son soluciones de la EDO F (x, y, y) = 0 dada y determina la regin de R donde dicha solucin o o est denida: a 1. f (x, y) = y ex + 2 = 0, 2. f (x, y) = y
2 2+x

F (x, y, y ) = y y = 0 F (x, y, y ) = xy + y y 2 = 0 F (x, y, y ) = yy + x = 0 F (x, y, y ) = (y 2 x)y y + x2 = 0 F (x, y, y ) = yy + x = 0 F (x, y, y ) = (1 + x2)y xy = 0 F (x, y, y ) = exy + eyxy = 0 F (x, y, y ) = y + y/x = 0

= 0,

3. f (x, y) = x2 + y 2 25 = 0, 4. f (x, y) = x3 + y 3 3xy = 0, 5. f (x, y) = x2 + y 2 25 = 0, 6. f (x, y) = 1 + x2 y = 0, 7. f (x, y) = e2x + eyx 1 = 0, 8. f (x, y) = x2 + y 2 + 1 = 0, Problemas de EDOs lineales

Problema 1.12 Encuentra la solucin general de las siguientes EDO lineales de primer o orden 1. y + y cos x = 0 2. y + y x = 0 3. y + 2xy = x 4. y + y = xex 5. y + x2y = x2 6. x y + y = x3 7. y = (y + ex ) tan x 8. y + 2y = f (x), f (x) = 3e2x , 9. y + xy = f (x), f (x) = 3/4e2x , f (x) = sen x 10. x y + y cos x = 1/2 sin(2x) 11. x y + y = x sen x Problema 1.13 Encontrar la solucin general de las siguientes ecuaciones diferenciales y o la solucin correspondiente a las condiciones iniciales indicadas: o 1. y = 3y + e5x , 2. y = 6y + x2, y(1) = 0. y(0) = 2.

1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. y = y + ex sen(2x), y(0) = 1. 4. (1 + x2)y + 4xy = x, y(1) = 1/4. g(x) = 2, 0 t 1 0, t > 1

5. y + y = g(x), y(0) = 0,

Problema 1.14 Encontrar la ecuacin de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. Encontrar la curva que pasa por (4, 2). (sol. x2 + 2y 2 = 24).
y

0 (x/2,0) y(x) t P(x,y) Q x

Curva del problema 1.14. Problema 1.15 a) Prueba que cualquier solucin y(x) de la ecuacin o o y + ay = becx ,
x

a, c (0, ),

b R,

es tal que l y(x) = 0 independientemente del valor y(0) = y0 inicial. m b) Prueba que cualquier solucin y(x) de la ecuacin o o y + a(x)y = b(x),
x

a(x) c > 0,

x R,

l b(x) = 0, m

a(x), b(x) CR ,

es tal que l y(x) = 0 independientemente del valor y(0) = y0 inicial. m

2 OTRAS EDOS DE PRIMER ORDEN

2.
2.1.

Otras EDOs de primer orden


Ecuaciones separables

Comenzaremos por las ecuaciones separables. Supongamos que la funcin f (x, y) en la o EDO y = f (x, y) (2.1) admite la factorizacin f (x, y) = a(x)b(y). Cuando esto ocurre se dice que la EDO (2.1) es o una ecuacin separable. Un ejemplo trivial de ecuacin diferencial separable es la ecuacin o o o diferencial lineal homognea (1.2) cuando b 0. e En general tenemos dy = a(x)b(y) dx dy = a(x)dx b(y) dy dy = b(y) a(x)dx,

luego la solucin de la ecuacin separable es o o G[y(x)] = A(x) + C, donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). Ejemplo 2.1 Resolver la ecuacin y = x/y. o Usando lo anterior tenemos ydy = xdx y 2 = x2 + C.

La expresin anterior dene una familia de curvas en R2 son solucin de la ecuacin o que o o 2 , donde el signo + o diferencial propuesta. En general la solucin es y(x) = C + x o depender de las condiciones iniciales. Por ejemplo, si nos interesa el PVI con la condicin a o 2. y(0) = 3, entonces C = 9 y la solucin ser y(x) = 9 + x o a 2.1.1. Aplicaciones

Ejemplo 2.2 Supongamos que tenemos una reaccin qu o mica A + B C y que en t = 0 la concentracin de A es a y la de B es b. Se sabe que la velocidad la velocidad de formacin o o de C es proporcional a la concentracin de A y B. Lo anterior nos conduce a la EDO o x = (a x)(b x), donde es la constante de proporcionalidad. Supongamos que a = b, entonces tenemos dx = dt (a x)(b x) = log ax = (a b)t + C, bx 1 e(ab)t . b ae(ab)t = ax = Ce(ab)t , bx x(0) = 0, (2.2)

como x(0) = 0, C = a/b, luego x(t) = ab

Ejemplo 2.3 La velocidad de escape de la Tierra

2 OTRAS EDOS DE PRIMER ORDEN

Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la supercie de la tierra. Si usamos la ley de Newton tenemos dv GMT = 2 , dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. Como g = GMT /R2 , siendo R el radio de la tierra (que supondremos una esfera), tenemos GM T = gR2. Obviamente r varia con el tiempo por lo que la ecuacin anterior se torna algo complicada o a simple vista. Usando la regla de la cadena tenemos v gR2 dv = 2 . dr r

La solucin de esta EDO usando el mtodo de separacin de variables es v 2 = 2gR2 /R + C. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la supercie terrestre, entonces, la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 2gR. r

Para que nuestra nave escape denitivamente de la tierra es suciente que v 0 cuando r , lo cual nos conduce al valor v0 2gR. Poniendo los datos R = 6400000 metros g = 9,8m/s2 obtenemos v0 = 11200m/s = 11,2Km/s. Ejemplo 2.4 La ca de un cuerpo en un medio viscoso se puede modelizar mediante la da ecuacin para la velocidad v(t) o v = g v r , v(0) = v0, (2.3)

donde g y son ciertas constantes (la gravedad y la viscosidad). Resolvamos la ecuacin o dv = dt g v r


v v0 v

t t0 =

v0

dv 1 = g v r g

v v0

dv , 1 2 vr

2 =

. g

Escojamos r = 2, por ejemplo. Entonces dv 1 (1 + v) (1 v0 ) = log = g(t t0 ). 2 vr 1 2 (1 v) (1 + v0 )

Despejando v tenemos la solucin o 1 v(t) =


1+v0 1v0 1+v0 1v0

e2g(tt0) 1 e2g(tt0) + 1

> 0. g

Como > 0, entonces si t el cuerpo slo podr alcanzar la velocidad l o a mite vmax = 1/ independiente del valor v0 inicial. Ejercicio 2.5 Resolver el caso r = 3.

2 OTRAS EDOS DE PRIMER ORDEN 2.1.2. El modelo de crecimiento de poblaciones

Imaginemos que tenemos una poblacin de cierta especie (consideraremos que tenemos o un nmero bastante alto de individuos) y sea p(t) el nmero de individuos de dicha especie en u u el momento t (evidentemente p(t) N). Sea r(t, p) la diferencia entre en ndice de natalidad y mortalidad de la poblacin. Supongamos que la poblacin est aislada (o sea, no hay o o a emigracin ni inmigracin). Entonces la variacin p(t + h) p(t) es proporcional a p(t)h y o o o el coeciente de proporcionalidad es r(t, p). Luego p(t + h) p(t) = r(t, p)p(t)h, h 0, = p (t) = r(t, p)p(t).

La ecuacin ms sencilla posible se obtiene si consideramos r(t, p) = r, constante. As la o a , poblacin de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t), p(t0) = p0 , r > 0, (2.4)

cuya solucin p(t) = p0 er(tt0) . El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu propuesto por el economista ingls Thomas R. Malthus (1766 e e 1834). Si r < 0 la especie esta condenada a la extincin y si r > 0 sta crece en proporcin o e o geomtrica. e Aunque el modelo funciona razonablemente bien para poblaciones grandes, hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr muchos otros factores como a la falta de espacio o de alimentos que frenar el crecimiento. Por tanto varios aos despus en a n e 1837 un matemtico y bilogo holands, P. F. Verhulst, propuso un modelo algo ms realista a o e a conocido como el modelo log stico. Verhulst razon que como estad o sticamente el encuentro 2 de dos individuos es proporcional a p (por qu?) entonces tendremos que sustraerle al e trmino rp un trmino cp2 , de forma que la EDO que modeliza una poblacin ser e e o a p (t) = r p(t) cp2 (t),
p r/c

p(t0) = p0,

r, c > 0.

(2.5)

En general c ha de ser mucho ms pequeo a n que r ya que si r no es muy grande la EDO (2.4) es una aproximacin bastante buena, pero si p o comienza a crecer demasiado entonces el trmie 2 no cp no se puede obviar y termina frenando el crecimiento exponencial. Resolviendo la EDO (2.5) tenemos p(t) = rp0er(tt0) . r cp0 + cp0 er(tt0) (2.6)

Adems, l t p(t) = r/c independientemente a m de p0 . En el caso cuando 0 < p0 < r/c la evoFigura 2: Evolucin de la poblacin segn lucin de la poblacin est representada en la o o u o o a el modelo log stico 2.5. grca 2. a
0

t0

Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados, en particular, el hecho de que la poblacin se o estabilice ha sido comprobado en distintos experimentos con paramecios obtenindose una e gran concordancia entre los resultados tericos y experimentales. o

2 OTRAS EDOS DE PRIMER ORDEN

10

2.2.

Problemas

Problema 2.6 Encuentra a ser posible todas las soluciones y(x) denidas expl citamente si se puede o impl citamente de las EDOs siguientes 1. (1 + x2)y = 1 + y 2 2. y = xy(y + 2) 3. y(1 + x2)y + x(1 + y 2 ) = 0 4. y = 1 x + y 2 xy 2 5. cotg(y)y = x2 + 2 6. (x log x)y + 1 + y2 = 0

7. cos(y)y + ex+1 tan y = 0 8. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. y = y(a + by), y(x0) = y0 > 0, a, b > 0. 2. (1 x)y = (x + 1)y, y(0) = 0 3. yy + x 3xy 2 = 0, y(2) = 1 4. cos(y)y = x sen2y , y(1) = /2 1+x 5. 3xy = y cos x, y(1) = 0 6. x2y 1 = cos(2y), l x y(x) = 5/4 m
2

2 OTRAS EDOS DE PRIMER ORDEN

11

2.3.
2.3.1.

Ecuaciones que se reducen a EDOs lineales o separables


Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati

En 1695 Johann Bernoulli propuso la resolucin de la EDO o y + a(x)y = b(x)y n, n = 0, 1. (2.7)

La resolvi su hermano Jacob en 1696. Ese mismo ao Leibniz propuso el cambio z = y 1n o n que transformaba la EDO (2.7) en una EDO lineal. En efecto, haciendo z = y 1n , z = (1 n)y n y , = z + (1 n)a(x)z = (1 n)b(x),

que es lineal y por tanto podemos usar la frmula (1.3) para resolverla. o Ejemplo 2.8 Resolver la EDO y 1/(3x)y = y 4 log x. Esta ecuacin es una EDO de Bernoulli con n = 4. Hacemos el cambio z = y 3 , y tenemos o 4 y = y y /3, y = y 4 z, luego la EDO se transforma en 1 z + z = 3 log x, x de donde obtenemos y= C 3 3 x log x + x x 2 4 = z= C 3 3 x log x + x, x 2 4
1/3

Pasemos a estudiar la EDO de Riccati. En 1724 Jacopo Francesco Riccati estudi la EDO o y + p(x)y + q(x)y 2 = f (x), (2.8)

que hab considerado aos antes Jacob Bernoulli. La ecuacin anterior generalmente es a n o imposible de resolver anal ticamente (en cuadraturas) a no ser que se sepa una solucin o particular yp . Supongamos que yp es una solucin particular de (2.8), y hagamos el cambio o z = y yp . Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0, que es una ecuacin de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. En general, dada una EDO de Riccati (2.8), mediante el cambio y = yp + 1/z, la podemos convertir en una EDO lineal. Veamos un ejemplo. Ejemplo 2.9 Resolver la EDO de Riccati y = y 2 2/x2. La forma de la EDO nos induce a buscar una solucin del tipo y = c/x. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = 2/x son soluciones particulares. Usemos la primera para resolver la EDO. Hacemos el cambio y = 1/x + 1/z, y = 1 z 2, 2 x z = 2 z + z = 1. x

La solucin la encontramos usando la frmula (1.3) que nos da o o x C z = + 2, 3 x = y= 3x2 1 + . x C x3

2 OTRAS EDOS DE PRIMER ORDEN 2.3.2. Ecuaciones del tipo y = F (x + y) y = F (x + y),

12

Sea la EDO (2.9) y hagamos el cambio z = x + y, entonces z = + y , luego (2.9) se transforma en la EDO separable dz = x + C. z = + F (z), = + F (z) Ejemplo 2.10 Resolver la EDO y = y x 1 +
1 . xy+2

Esta ecuacin puede ser escrita en la forma y = F (x + y) si hacemos z = y x, entonces o F (z) = z 1 + 1/(2 z). Como z = y 1 tenemos z = z2 1 , z2 = (z 2)dz = x + C, (z 2)2 1

luego la solucin en cuadraturas es o log |(z 2)2 1| = x + C, = (z 2)2 1 = Cex , = z = 2 1 + Cex , por tanto y = 2 + x 1 + Cex . Ntese que hemos dividido por (z 2)2 1 por lo que o podemos haber perdido soluciones. En efecto, como (z 2)2 1 = 0 se anula en z = 1 y 3, podemos perder las soluciones y = x + 1 e y = x + 3.

2.4.

Las EDOs homogneas e

Un tipo especial de EDOs resolubles son las denominadas EDOs homogneas. Una funcin e o f (x, y) se denomina homognea de orden k si para todo x, y y para todo t R, f (tx, ty) = e tk f (x, y). Adems, si f es homognea de orden 0, entonces f (tx, ty) = f (x, y). Sea f una a e funcin homognea de orden 0. Sea y = u x. Entonces o e f (x, y) = f (x, ux) = x0f (1, u) = g(u) = g(y/x), o sea, toda funcin homognea de orden 0 es una funcin de y/x. o e o Supongamos que tenemos la EDO y = f (x, y) y f es una funcin homognea de orden o e 0, entonces la EDO anterior se transforma en la EDO y = f (y/x). (2.10)

A la ecuacin y = f (y/x) anterior se le suele denominar EDO homognea. Si hacemos el o e cambio y = ux, entonces y = xu + u y la EDO (2.10) se transforma el la EDO separable xu + u = f (u), u = y/x,

que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. f (u) u Ejemplo 2.11 Resolver la EDO y = (y + x2 y 2 )/x.

2 OTRAS EDOS DE PRIMER ORDEN

13

Sea f (x, y) = (y + x2 y 2 )/x, es fcil comprobar que f (tx, ty) = f (x, y), as que hacemos a el cambio y = u x y obtenemos, si u = 1, xu = de donde se deduce que arc sen u = log |x| + C arc sen(y/x) = log |x| + C. 1 u2 , = dx du = , x 1 u2

Ahora bien, como hemos visto u = 1, lo que puede hacernos perder las soluciones y = x. Sustituyendo y = 1 en la EDO inicial comprobamos que y = x e y = x son tambin dos e soluciones de la EDO original.

2.5.

Otras EDOs de primer orden: la EDO de Clairaut

La EDO y = xy + f (y ), f derivable y con primera derivada continua (2.11)

se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi en 1734. Vamos a o intentar encontrar alguna solucin de la EDO Clairaut para lo cual derivamos (2.11) o y = xy + y + f (y )y [x + f (y)]y = 0,

de donde deducimos que o y = 0 o x + f (y ) = 0. La primera condicin nos da una familia o de rectas y = mx + n. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambin es solucin. Para descubrir cuales son las rectas solucin basta notar que si y = c, e o o entonces la EDO nos da la ecuacin y = xc + f (c), c R. Para encontrar la otra solucin o o usamos que x = f (y ). Luego si hacemos y = t, siendo t un parmetro real tenemos la a siguiente solucin paramtrica conocida comnmente como solucin singular o e u o x = f (t), Ejemplo 2.12 Resolver la EDO y = xy + (y )2. Esta es una EDO de Clairaut con f (z) = z 2, luego las soluciones son las familias de rectas y = cx + c2 , y la solucin singular o x = 2t
1

y = xt + f (t).

La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas).

y = xt + t2

x t= , 2

y=

x2 . 4

2 OTRAS EDOS DE PRIMER ORDEN

14

2.6.

Ecuaciones exactas y factores integrantes

Sea una EDO del tipo y = f (x, y). Est claro que si la EDO anterior la podemos a d reescribir en la forma dx ((x, y)) = 0, para cierta funcin (x, y), entonces la solucin de la o o EDO ser (x, y) = C. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. Por conveniencia reescribiremos la EDO y = f (x, y) en la forma equivalente N (x, y)y + M (x, y) = 0. (2.12)

La EDO (2.12) tendr una solucin en cuadraturas del tipo (x, y) = C si y slo si (2.12) a o o d es equivalente a la expresin dx ((x, y)) = 0, o lo que es lo mismo, (x, y) = C es una o d solucin de (2.12) si y slo si (2.12) se puede reescribir de la forma dx ((x, y)) = 0. o o Como 0= d (x, y) (x, y) y (x, y) (x, y) ((x, y)) = + = + y, dx x y x x y

d entonces la EDO (2.12) se puede escribir de la forma dx ((x, y)) = 0 si y slo si, dadas dos o funciones M (x, y) y N (x, y) existe una funcin (x, y) tal que o

(x, y) = M (x, y), x

(x, y) = N (x, y). y

(2.13)

d Por ejemplo, la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 exp(x + y)] = 0. En general no es trivial deducir si una EDO del tipo (2.12) se puede expresar de la forma d ((x, y)) = 0. Por ejemplo, no es fcil intuir que la EDO a dx

y 3 + yey cos(xy) se puede escribir como

3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2

3 d xy 3 + ey sen(xy) + = 0. dx x Obviamente no cualquier EDO del tipo (2.12) se puede escribir de la forma 0, por ejemplo, la EDO lineal (1.2) y + [a(x)y b(x)] = 0. As surge la pregunta cundo la EDO (2.12) se puede escribir de la forma a y por tanto su solucin es (x, y) = C?. La respuesta la da el siguiente o
d ((x, y)) dx

d ((x, y)) dx

= 0,

Teorema 2.13 Sean M (x, y) y N (x, y) dos funciones tales que existan todas las derivadas parciales M , N , M y N y sean funciones continuas en cierto dominio2 R2 . Entonces, x x y y para que exista una funcin (x, y) tal que se cumpla la condicin (2.13) o o (x, y) = M (x, y), x es necesario y suciente que N (x, y) M (x, y) = , x y
2

(x, y) = N (x, y), y

(x, y) .

(2.14)

Por dominio entenderemos un conjunto abierto de R2 y convexo, o sea, sin agujeros.

2 OTRAS EDOS DE PRIMER ORDEN

15

Denicin 2.14 Una EDO del tipo (2.12) se llama exacta si N y M son funciones tales o (x,y) (x,y) que Nx = My . Corolario 2.15 Para que la EDO (2.12) sea exacta es necesario y suciente que se cumpla la condicin (2.14) en cierto dominio R2. Adems, toda EDO exacta tiene una solucin o a o en cuadraturas en , es decir existe una funcin (x, y) tal que (x, y) = C, dene la o solucin de (2.12) en . o Ejemplo 2.16 Decidir si la EDO (2x + y sen x) + (3y 2 + cos y + x)y = 0, es exacta, y encontrar su solucin. o
(x,y) (x,y) En este caso M (x, y) = 2x + y sen x y N (x, y) = 3y 2 + cos y + x, luego My = 1 = Nx , luego segn el corolario 2.15 es exacta. Vamos a resolverla. Como la EDO es exacta entonces u existe (x, y) tal que se cumple (2.13), o sea,

(x, y) = 2x + y sen x, x De la primera deducimos

(x, y) = 3y 2 + cos y + x. y

(x, y) = x2 + xy + cos x + h(y). Para calcular h(y) usamos que (x, y) = C, luego (x, y) = x+h (y) = 3y 2 +cos y +x, y = h (y) = 3y 2 +cos y, = h(y) = y 3 +sen y,

y la solucin, en cuadraturas, es (x, y) = x2 + xy + cos x + y 3 + sen y = C. o Obviamente pod amos haber comenzado por la segunda ecuacin o entonces (x, y) = y 3 + sen y + xy + g(x), pero (x, y) = y + g (x) = 2x + y sen x, x as (x, y) = y 3 + sen y + xy + x2 + cos x = C. = g(x) = x2 + cos x,
(x,y) y

= 3y 2 +cos y +x,

Ejemplo 2.17 Comprobar si la EDO lineal (1.2) es exacta. En este caso y + [a(x)y b(x)] = 0, luego M (x, y) = a(x)y b(x) y N (x, y) = 1, luego (x,y) M (x,y) = Nx , as que no es exacta. Qu hacer en este caso? e y Denicin 2.18 Una EDO del tipo (2.12) es inexacta (o no es exacta) si o
M (x,y) y

N (x,y) . x

2 OTRAS EDOS DE PRIMER ORDEN 2.6.1. Factores integrantes

16

Denicin 2.19 En general, dada la EDO (2.12), se dice que (x, y) 0 es un factor o integrante de (2.12) si la EDO (x, y)M (x, y) + (x, y)N (x, y)y es exacta. Ahora bien, una EDO es exacta si y slo si se tiene la condicin (2.14), luego (x, y) ha o o de satisfacer la ecuacin o (x, y)M (x, y) (x, y)N (x, y) = y x si y slo si o M (x, y) (x, y) M (x, y) (x, y) N (x, y) + (x, y) = N (x, y) + (x, y) . y y x x (2.15)

Es decir, una ecuacin inexacta tiene un factor integrante (x, y) si y slo si (x, y) cumple o o con la condicin (2.15). o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. Obviamente no es exacta. Entonces, para que admita un factor integrante (x, y) ste debe satisfacer la ecuacin e o x2 sen y (x, y) (x, y) + (x, y)x2 cos y = xey + (x, y)ey , y x

la cual es no trivial de resolver. De hecho en la mayor de los casos la ecuacin (2.15) es a o ms complicada de resolver que la EDO original, por tanto el uso de sta estar restringido a a e a aquellos casos en los que (2.15) es fcilmente resoluble. Veamos a continuacin dos de ellos: a o 1. cuando la funcin es una funcin que slo depende de x o sea, = (x) o o o 2. cuando la funcin es una funcin que slo depende de y, o sea, = (y). o o o En el primer caso (2.15) nos da (x) luego M (x, y) N (x, y) 1 d(x) y x = = R(x, y). (x) dx N (x, y) La expresin anterior es sencilla de resolver si la funcin R(x, y) de la derecha es una funcin o o o slo de x, en cuyo caso (x) = exp( R(x)dx). o En el segundo caso tenemos M (x, y) luego N (x, y) M (x, y) 1 d(y) x y = = S(x, y). (y) dy M (x, y) La expresin anterior es sencilla de resolver si la funcin S(x, y) de la derecha es una funcin o o o slo de y, en cuyo caso (y) = exp( S(y)dy). o M (x, y) N (x, y) (y) + (y) = (y) , y y x (x) N (x, y) M (x, y) = N (x, y) + (x) , y x x

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 sen2 y) + x sen(2y)y = 0. M (x, y) N (x, y) = 2 sen(2y), y x = M (x, y) N (x, y) y x /N (x, y) =

17

2 = , x

luego (x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1 x2 as y (x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , y x x y la solucin es, por tanto, (x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos M (x, y) N (x, y) 3 = (x2 + y 2 ), y x y = 3 N (x, y) M (x, y) /M (x, y) = = , y x x
sen2 y x

sen(2y) x

y = 0, sen2 y + h(y), x

(x, y) sen2 y =1 , x x2

(x, y) = x +

h (y) = 0,

h(y) = C,

= C.

luego (y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el mtodo descrito tenemos e (x, y) = x2 y 3 + y 5 , x y (x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , y = h (x) = 0, = h(x) = C, = (x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la solucin es, por tanto, (x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones numricas: el mtodo de Euler e e


El mtodo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal ticamente, es por ello que se necesita de mtodos ables para obtener la solucin de una EDO numricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador slo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] [x1 , x2 ] [xN 1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una solucin aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l neas rectas (ver gura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la solucin aproximada y(x) estar muy cercana a la solucin real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x0

x1

x2

xk

Figura 3: Construccin de un esquema numrico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor de mtodos numricos como una red a e e equiespaciada o uniforme de paso h = l/N . As pues tendremos las siguientes ecuaciones l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informacin o que tenemos para calcular los valores yi es la EDO que satisface nuestra incgnita y(x). o Cmo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condicin inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuacin usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as sucesivamente. 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + . 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adems, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

f (x, y) f (x, y) y + x y x

(x,y)=(xk ,y(xk )

f (x, y) f (x, y) + f (x, y) x y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + f f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + . x y 2!

La aproximacin ms sencilla es por tanto cuando nos quedamos en la serie anterior con o a el trmino de primer orden, o sea, cuando tenemos el esquema nmerico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o mtodo de Euler y constituye e el mtodo ms sencillo para resolver nmericamente una EDO de primer orden. Ntese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto ms cercano sea el a valor yk calculado del y(xk ) real ms preciso ser el mtodo. Obviamente en cada paso arrasa a e tramos el error del cculo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as sucesivamente. Veamos algunos ejemplos. Comenzaremos con una ecuacin que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x [0, 1],

cuya solucin exacta es y(x) = 2ex 1 + x. Escogeremos una discretizacin equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado estn escritos en la tabla 1 o a dibujados en la grca 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Solucin numrica () y exacta (l o e nea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

2 OTRAS EDOS DE PRIMER ORDEN


k 0 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. xk 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1. y(xk ) 1. 0.95 0.905 0.86475 0.829012 0.797562 0.770184 0.746675 0.726841 0.710499 0.697474 0.6876 0.68072 0.676684 0.67535 0.676582 0.680253 0.686241 0.694429 0.704707 0.716972 y(xk ) 1. 0.952459 0.909675 0.871416 0.837462 0.807602 0.781636 0.759376 0.74064 0.725256 0.713061 0.7039 0.697623 0.694092 0.693171 0.694733 0.698658 0.70483 0.713139 0.723482 0.735759 y(xk ) y(xk ) 0 -0.00245885 -0.00467484 -0.00666595 -0.00844901 -0.0100397 -0.0114527 -0.0127016 -0.0137992 -0.0147575 -0.0155874 -0.0162994 -0.0169031 -0.0174074 -0.0178206 -0.0181506 -0.0184046 -0.0185892 -0.0187107 -0.0187748 -0.018787

20

Tabla 1: Solucin nmerica de la ecuacin y + y = x, y(0) = 1 con N = 20. o u o Comparemos ahora la solucin nmerica con la exacta (ver gura 4). Para ello primero o u resolvemos la ecuacin exactamente y(x) = x 1 + 2ex . o Si hacemos un simple cambio como aumentar en nmero de subintervalos hasta 40 (el u doble) vemos que la precisin mejora notablemente. Los resultados se pueden apreciar en la o grca 4 (derecha). a Consideremos ahora el problema y 1 y 2 = 0,
40

y(0) = 0,

x 0.

60 40

30 20 20 0.5 10 -20 -40 0.5 1 1.5 2 1 1.5 2

Figura 5: Soluciones numricas de y 1 y 2 = 0, y(0) = 0, x [0, 2] (izquierda) y e comparacin con la solucin exacta (derecha). o o Si usamos un esquema de 20 puntos en el intervalo [0, 1] tenemos la solucin representada o en la grca 5(izquierda). Adems, como la solucin exacta de esa ecuacin es y(x) = tan x, a a o o podemos ver en la grca 5 derecha que prcticamente coinciden. Qu ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?. Si repetimos los clculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que estn representados en la grca 5 (derecha). a a La principal razn de la divergencia consiste en que la solucin tan x no est denida en o o a x = /2. Una pregunta natural es, por tanto, cmo decidir a priori si el mtodo de Euler o e nos est dando la soucin correcta? y en qu intervalo podemos asegurar que y es una buena a o e aproximacin de y? Eso nos conduce una vez ms a preguntarnos condiciones sucientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.

2 OTRAS EDOS DE PRIMER ORDEN 2.7.2. El mtodo de Euler mejorado e

21

El mtodo de Euler es el ms sencillo pero tiene un problema, es un mtodo de orden e a e uno, o sea, es poco preciso. Cmo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2.17) en el tercer orden, de forma que tengamos yk+1 = yk + hf (xk , yk ) + h2 f f (xk , yk ) + f (xk , yk ) (xk , yk ) , x y 2 y0 = y(x0 ).

La ecuacin anterior se conoce como el mtodo de la serie de Taylor de tres trminos y o e e aunque es ms preciso que el de Euler (se puede probar que es un mtodo de orden 2), es a e algo incmodo sobre todo si f es una funcin algo complicada. Por ello se suele usar una o o modicacin del mismo. o Para ello escribamos la EDO original y = f (x, y) en el intervalo xk , xk + h en su forma integral
xk +h

y(xk+1 ) = y(xk ) +
xk

f (x, y(x))dx.

(2.19)

Para resolver este problema aproximamos la integral mediante un rectngulo de altura a f (xk , yk ) (ver gura 6 izquierda)
xk +h xk

f (x, y(x))dx hf (xk, yk ),

lo que nos conduce nuevamente al esquema de euler (2.18)


f(x,y(x))

xk

Figura 6: Regla del rectngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximacin es muy burda. Una mejor aproximacin es usar la regla de los trapecios o o (ver gura 6 derecha) para aproximar la integral, es decir
xk +h xk

f (x, y(x))dx

de donde se deduce el esquema impl cito h [f (xk , yk ) + f (xk+1, yk+1 )] , k = 0, 1, . . . , N, y0 = y(x0 ). 2 Obviamente este esquema es muy incmodo pues hay que resolver la ecuacin impl o o cita para hallar yk+1 . Una forma de obviar esta dicultad es usar la prediccin que da el mtodo de o e Euler yk+1 = yk + hf (xk , yk ), de esta forma obtenemos el mtodo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk , yk ) + f (xk+1 , yk + hf (xk , yk ))] , 2 k = 0, 1, . . . , N, y0 = y(x0 ). (2.20)


y
k

x k+1

h [f (xk, yk ) + f (xk+1 , yk+1 )] , 2

2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos. Comenzaremos con la misma primera ecuacin de antes o y + y = x, y(0) = 1, x [0, 1],

22

cuya solucin exacta es y(x) = 2ex 1 + x. Escogeremos una discretizacin equidistante con o o paso h = 1/20 (20 subintervalos iguales). Los resultados los vemos en la grca 7 izquierda) a
k 0 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. xk 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1. y(xk ) 1. 0.95125 0.907314 0.867958 0.832957 0.8021 0.775186 0.75202 0.732422 0.716216 0.703238 0.69333 0.686343 0.682134 0.680567 0.681515 0.684853 0.690467 0.698244 0.708079 0.719873 y(xk ) 1. 0.952459 0.909675 0.871416 0.837462 0.807602 0.781636 0.759376 0.74064 0.725256 0.713061 0.7039 0.697623 0.694092 0.693171 0.694733 0.698658 0.70483 0.713139 0.723482 0.735759 y(xk ) y(xk ) 0 -0.00120885 -0.00236077 -0.00345845 -0.00450443 -0.00550115 -0.00645092 -0.00735595 -0.00821835 -0.00904012 -0.00982318 -0.0105693 -0.0112803 -0.0119578 -0.0126034 -0.0132186 -0.0138047 -0.0143632 -0.0148955 -0.0154026 -0.0158858

Tabla 2: Solucin nmerica de la ecuacin y + y = x, y(0) = 1 con N = 20 usando el mtodo o u o e de Euler mejorado.

0.2 0.95 0.9 0.85 0.8 0.75

0.4

0.6

0.8

0.0175 0.015 0.0125 0.01 0.0075 0.005 0.0025

0.7 5 10 15 20

Figura 7: Comparacin grca de la solucin numrica y exacta de y + y = x, y(0) = 1 para o a o e N = 20 (izquierda) usando los mtodos de Euler y Euler mejorado. A la derecha vemos la e comparacin de los errores del del mtodo de Euler (c o e rculos obscuros) con los del mtodo e de Euler mejorado (c rculos claros)

2 OTRAS EDOS DE PRIMER ORDEN

23

2.8.

Problemas

Problemas de EDOs de Bernoulli y Riccati Problema 2.22 Resolver las EDOs de Bernoulli 1. y + y = xy 3 , 2. xy + y = y 2 log x, 3. y + 2y = ex y 2 , 4. 4y 3 y + 4xy 4 = 4x, 5. (1 x3)y 2(1 + x)y = y 5/2 , 6. xy y = xk y n , n = 1, n + k = n, 7. x3 sen yy +2y = x (resolverla respecto a x y no a y, para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). Problema 2.23 Resolver las EDOs de Riccati 1. y = x3 + 2y/x y 2 /x, yp = x2, 2. y = 1 + y/x + (y/x)2, yp = x, 3. 3y + y 2 + 2/x2 = 0, 4. y + 2yex y 2 = e2x + ex , 5. y 2xy + y 2 = 5 x2. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2.24 Supongamos que tenemos la EDO y = f (y/x). Prueba que esta ecuacin o es equivalente a la EDO separable xv + v = f (v), v = y/x.

A la ecuacin y = f (y/x) se le suele denominar EDO homognea. Resuelve las siguientes o e EDOs 1. y = 2(y/x) + (y/x)2 2. (x x y)y = y 3. y = y/x + tan(y/x), 4. (x + y + 2)y = 3x y 6, 5. (4x 3y 6)y + x 2y + 1 = 0, 6. (2x + 4y + 3)y + 2 + 2y + 3 = 0. 7. y = (ax + by)/(cx + ey). Considerar los casos ae = cb y ab = cd. Como caso particular resolver la EDO y = (x + y)/(x y).

2 OTRAS EDOS DE PRIMER ORDEN

24

8. Resolver la EDO y = (ax + by + m)/(cx + ey + n). Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). Como caso particular resolver la EDO y = (x + y + 1)/(x y + 2). Problema 2.25 Resolver las EDOs del tipo y = F (ax + by) 1. y = x + y 1, 2. y = (x y + 5)2, 3. y = 2(y x) + (y x)2, 4. y = sen(x y). Problema 2.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resulvelas. e 1. (x2 2y + 1)y = x, 2. x(ey y ) = 2, 3. y(x) = x + 1 +
0 x x x

y(t)dt, y(t)dt.
0

4.
0

(x t)y(t)dt = 2x +

Problemas de EDOs exactas y factores integrantes Problema 2.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resulvelas. e En caso de que no lo sean, encuentra, a ser posible, un factor integrante. 1. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0, 2. 2x(1 + x2 y) x2 yy = 0,

3. (x2 + y 2 a)x + (y 2 + x2 + a)yy = 0, 4. 2xy + (x2 y 2 )y = 0, 5. ey (2y + xey )y = 0, 6. y/x + (y 3 + log x)y = 0, 7. 3x2(1 + log y) (2y x3/y)y = 0, 8. (x2 + y 2 + x) + yy = 0, Problema 2.28 Resuelve los siguientes problemas de valores iniciales 1. 2xy 3 + 3x2y 2 y = 0, y(1) = 1, 2. 3x2 + 4xy + 2(y + x2)y = 0, y(0) = 1, 3. 3xt + y 2 + (x2 + xy)y = 0, y(2) = 1, 4. xy y y 2 = 0, y(2) = 1,

2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2.29 Resolver las EDOs de Clairaut 1. (y )2 + x3y 2x2y = 0, 2. y = xy + (y )n, n = 0, 1, 3. y = xy + log(y ), 4. y = xy + 1 + (y )2 ,

25

5. y = xy ey . Problemas del mtodo de Euler e Problema 2.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el mtodo de Euler y el de Euler mejorado. e 1. y = ex y, y(2) = 1, 2. y = ex y 2 , y(0) = 1, 3. y = 1 + sen x(1 + y 2 ), y(0) = 1, 4. y = k(a y)(b y), a, b, k > 0, y(0) = 0, (toma distintos valores de a, b y k, 5. z 2xz = 2, z(0) = 1, 6. y + sen(x)y cos(x)y 3 = 1 + x2, y(0) = 1, 7. y + 2ey = x2 + y 2 , y(0) = 0.
2 2

3 SISTEMAS DE EDOS

26

3.

Sistemas de EDOs

Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma y1 (x) = f1(x, y1 , y2 , . . . , yn ), y (x) = f2(x, y1 , y2 , . . . , yn ), 2 (3.1) . . . y (x) = f (x, y , y , . . . , y ), n 1 2 n n donde y1 ,. . . yn son funciones de x desconocidas y f1, . . . fn son ciertas funciones conocidas. Por comodidad vamos a usar la forma vectorial del sistema anterior, o sea, vamos a denotar por Y , Y y F son los vectores y1 (x) y1 (x) f1(x, y1 , y2 , . . . , yn ) y2 (x) y (x) f2(x, y1 , y2 , . . . , yn ) 2 Y (x) = . , Y (x) = . , F (x, Y ) = , . . . . . . . yn (x) yn (x) fn (x, y1, y2 , . . . , yn ) es decir la derivada de un vector Y la deniremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. Usando lo anterior podemos reescribir (3.1) en la forma vectorial d Y (x) = Y (x) = F (x, Y ). dx

(3.2)

Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap tulo anterior. Est claro que si el estudio de una EDO de primer orden era bastante a complicado, un sistema de stas es mucho ms complejo, as que nos restringiremos al estudio e a de los SEDOs lineales, es decir cuando fk , k = 1, . . . , n es una funcin lineal de la forma o
n

fk (x, y1, y2 , . . . , yn ) =
j=1

akj (x)yj (x) + bk (x),

k = 1, . . . , n,

lo que nos conduce a los sistemas lineales y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + + a1n(x)yn(x) + b1 (x), y (x) = a21 (x)y1(x) + a22 (x)y2(x) + + a2n(x)yn(x) + b2 (x), 2 , . . . y (x) = a (x)y (x) + a (x)y (x) + + a (x)y (x) + b (x). n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x), donde A(x) = a11(x) a12(x) a13(x) a1n (x) a21(x) a22(x) a23(x) a2n (x) , . . . . ... . . . . . . . . an1(x) an2 (x) an3(x) ann (x) B(x) = b1 (x) b2 (x) . . . bn (x) ,

(3.3)

(3.4)

Cuando B(x) = 0, o sea cuando todas las componentes del vector B son cero, diremos que SEDO es homogneo, y si al menos una componente de B es no nula, no homogneo. e e

3 SISTEMAS DE EDOS

27

3.1.

La ecuacin lineal Y = A(x)Y + B(x) o

Comenzaremos enunciando un teorema que demostraremos al nal de este cap tulo. Teorema 3.1 Sean A(x) Rnn y B(x) Rn una matriz un un vector cuyos elementos son funciones continuas en R. Entonces el PVI, Y = A(x)Y + B(x), Y (x0) = Y0 tiene una unica solucin cualquiera sean las condiciones iniciales Y0 escogidas. o Comenzaremos estudiando el sistema homgeneo, o sea cuando B(x) = 0 o Y (x) = A(x)Y (x), Teorema 3.2 Sea A(x) Rnn . Si Y1 e Y2 son soluciones del sistema Y = A(x)Y , entonces cualquiera de sus combinaciones lineales son tambin solucin. e o Teorema 3.3 Sean Y1 (x), . . . , Yk (x) soluciones del sistema Y = A(x)Y . Para que los vectores (funciones) Y1 (x), . . . , Yk (x) sean linealmente dependientes para todo x R es necesario y suciente que lo sean para algn t R. u Corolario 3.4 Para que las soluciones Y1 (x), . . . , Yk (x) del PVI, Y = A(x)Y , Yi (x0) = Y0,i , i = 1, . . . , k sean linealmente independientes es suciente que las condiciones iniciales, o sea los vectores, Y0,1 , . . . Y0,k sean linealmente independientes. A(x) Rnn y continua en R. (3.5)

El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. Nota 3.5 Es importante destacar que el resultado que hemos probado en relacin con la o dependencia lineal slo es cierto para vectores solucin de un SEDO lineal lo cual queda de o o maniesto en el siguiente ejemplo. Los vectores (funciones) x x y x2 x2 ,

son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes, no obstante, para x = x0, obviamente son dependientes pues x0 x2 0 . = x0 2 x0 x0 Teorema 3.6 Sea A(x) Rnn . Entonces, el conjunto de todas las soluciones del sistema homogneo Y = A(x)Y es un espacio vectorial de dimensin n. e o Corolario 3.7 Si Y1 (x), . . . , Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y , entonces toda solucin de Y = A(x)Y se puede expresar como una unica o combinacin lineal de dichas soluciones. O sea, existen unos unicos coecientes c1 , . . . cn o tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + + ck Yn (x).

En particular, la solucin del PVI, Y = A(x)Y , Y (x0) = Y0 se expresa de manera unica o como una combinacin lineal de las soluciones del sistema homogneo correspondiente. o e Nota 3.8 Juntando los teoremas 3.3 y 3.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x), . . . , Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x R es necesario y suciente que para algn x0 R u det |Y1 (x0) Y2 (x0) . . . Yn (x0)| = 0.

Nota 3.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R.

3 SISTEMAS DE EDOS

28

3.2.

Los SEDO lineales con coecientes constantes

En adelante asumiremos que A es una matriz n n real de coecientes constantes, es decir estudiaremos el problema (3.5) cuando la matriz A es de coecientes constantes Y (x) = AY (x), 3.2.1. Autovalores simples A Rnn . (3.6)

Busquemos la solucin de (3.6) en la forma o Y (x) = ex v, (3.7)

donde es cierta constante y v un vector constante. Sustituyendo (3.7) en (3.6) tenemos, como v es constante3 Y (x) = (ex v) = exv = exv = A ex v.

Es decir, (3.7) es solucin del sistema homogneo si y slo si es un autovalor de A y o e o v su autovector asociado, por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 , . . . , vn linealmente independientes en cuyo caso la solucin general es, segn o u el teorema 3.3, de la forma
n

Y (x) =
k=1

c k e k v k ,

(3.8)

donde c1 , . . . , cn son constantes arbitrarias y k , k = 1, . . . , n, son los autovalores asociados a los autovectores vk , k = 1, . . . , n. Ejemplo 3.10 Encontrar la solucin general del SEDO o Y = 1 12 3 1 Y.

Comenzamos calculando los autovalores y autovectores det(A I) = 35 2 + 2 = 0 = 1 = 5, 2 = 7.

Calculamos los autovectores. Comenzamos con el correspondiente a 1 = 5 (A I)v = 0 Para 1 = 7 (A I)v = 0 = 6 12 3 6 x1 x2 =0 = x1 = 2x2, = v2 = 2 1 . = 6 12 3 6 x1 x2 =0 = x1 = 2x2 , = v1 = 2 1 .

Por tanto la solucin general es o Y (x) = c1 e5x


3

2 1

+ c2 e7x

2 1

Entenderemos que la derivada de un vector o una matriz es la derivada trmino a trmino. e e

3 SISTEMAS DE EDOS Ejemplo 3.11 Encontrar la solucin general del SEDO o Y = Calculamos los autovalores y autovectores det(A I) = 2 + 2 + 2 = 0 = 1 = 1 i, 2 = 1 + i. 2 5 2 4 Y.

29

Es decir, son complejos. Qu hace en este caso? e Si A es real y es el autovalor complejo asociado al autovector v, entonces el complejo conjugado es el autovalor asociado al autovector v. Ahora bien, si tenemos Y (x) = ex v = Y (x) + i Y (x), Y (x) y Y2 (x) = Y (x) son solucin de o

Y ser solucin de Y = AY si y slo si Y1 (x) = a o o Y = AY , entonces Y (x) = eax ( v cos bx v sen bx),

Y (x) = eax ( v sen bx + v cos bx)

son soluciones linealmente independientes de Y = AY . As pues, en nuestro ejemplo 1 = 1 i, Y1 (x) = ex por tanto Y (x) = c1 ex 5 3 cos x + 0 1 sen x + c2 ex 5 3 sen x + 0 1 cos x . 5 3 cos x + 0 1 v1 = 5 3+i = 5 3 sen x + 0 1 cos x ,

sen x ,

Y2 (x) = ex

3.3.

La exponencial matricial exp(xA)


k=0

Sea A una matriz n n y x R. Deniremos la funcin exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + + + , k! 2 n! (3.9)

donde la convergencia la entenderemos elemento a elemento. La serie anterior converge para todo x R quienquiera sea la matriz A (de hecho converge en todo C). Proposicin 3.12 La funcin exp(xA) satisface las siguientes propiedades: o o 1. Para toda matriz A, exp(0A) = In y para todo x R exp(xOn) = In , donde On es la matriz nula. 2. Para toda matriz A,
d dx

exp(xA) = A exp(xA) = exp(xA)A.

3. Para todos x, t R y toda matriz A, exp[(x + t)A] = exp(xA) exp(tA). 4. Para toda matriz A, la inversa [exp(xA)]1 = exp(xA). 5. Para todas las matrices A, B con AB = BA, exp[x(A + B)] = exp(xA) exp(xB).

3 SISTEMAS DE EDOS 6. Para todo x R, exp(xIn) = ex In. Dado cualquier vector constante v Rn se cumple d [exp(xA)v] = A[exp(xA)v], dx

30

por tanto exp(xA)v es solucin de la ecuacin homognea Y = AY y Y (0) = v. Si escogemos o o e v sucesivamente como ei , i = 1, 2, . . . , n obtenemos n soluciones v1, . . . , vn del PVI, Y = AY , Y (0) = ei que adems son linealmente independientes por el teorema 3.3 y por tanto a constituyen una base del espacio de soluciones del sistema homogneo correspondiente. e Denicin 3.13 Una matriz V Rnn es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . De esta denicin y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . En efecto, como hemos visto, las columnas de exp(xA) son solucin de los PVI, Y = AY con Yi (0) = ei , siendo (ei)i la base cannica de Rn . o o Corolario 3.14 (de existencia y unicidad de la solucin del SEDO homogneo) o e nn El sistema homogneo Y = AY , con A R e siempre tiene n soluciones linealmente independientes, y por tanto el PVI, Y = AY , Y (x0) = Y0 siempre tiene una unica solucin o n cualquiera sea Y0 R y es de la forma Y (x) = exp[(x x0)A]Y0 . As pues, para encontrar la solucin general del sistema Y = AY basta saber calcular la o exponencial de xA. Comencemos por el caso ms sencillo cuando la matriz es diagonalizable. a En este caso existe una matriz P tal que A = P DP 1, siendo D una matriz diagonal. Entonces como para todo k N, Ak = P D k P 1 tenemos exp(xA) = pero, como D= 1 0 0 0 2 . . . 0 . . .. . . . . . . . . . . n 0 0 . exp(xD) = e 1 x 0 0 0 e 2 x . . . 0 . . . .. . . . . . . . . . exn 0 0 . ,
k=0

kx

k!

k=0

PD P

1 x

k!

=P

k=0

Dk

xk k!

P 1 = P [exp(xD)]P 1,

de donde se deducen nuevamente las soluciones del sistema. Ntese que el caso de n autovao lores distintos se puede resolver por este mtodo. e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 6 1 2 .

Ante todo tenemos que el polinomio caracter stico de A es 1 6 = 4 3 + 2 = 0, 1 2 = 1 = 1, 2 = 4.

3 SISTEMAS DE EDOS Calculamos los autovectores. Para 1 = 1 tenemos 2 6 1 3 x1 x2 = 0 0 , = x1 = 3x2, = v1 = 3 1 .

31

Anlogamente, para 2 = 4 obtenemos v2 = (2, 1)T , luego a exp(xD) = Luego exp(xA) = P exp(xD)P
1

ex 0

0 e4 x

P =

3 2 1 1

P 1 =
6 5 ex 2 5 ex

1 5 .

1 5

2 5 3 5

4x 3 + 2 e5 5 ex 4x 1 e5 5 ex

6 e4 x 5 3 e4 x 5

3.4.

El caso de autovalores m ltiples u

pero

Vamos a explotar las propiedades de la matriz exponencial. Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A In)x] exp(Ix)v, exp(Ix)v = ex v = exp(xA)v = ex exp[(A In)x]v. x2 xk (A In)2 v + . . . + (A In )k v + . . . . 2 k!

Es decir, exp(xA)v = ex v + x(A In)v +

En el caso de un autovalor simple tenemos obviamente (A In)v = 0 si v es el correspondiente autovector, luego exp(xA)v = ex v que es lo mismo que ten amos antes. Si tenemos entonces n autovectores v1 , . . . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = ek x vk , k = 1, . . . , n. Qu hacer cuando hay una ra mltiple, o ms exactamente si la matriz A no es diae z u a gonalizable? Supongamos, por ejemplo, que el autovalor es doble y que tiene asociado un unico autovector (el autoespacio asociado es de dimensin 1). Una solucin es por tanto e x v1, o o donde v1 es el autovector asociado a . El otro vector v2 que necesitaremos lo buscaremos de forma que (A In)v2 = 0 pero (A In)2v2 = 0. Entonces otra solucin, independiente o de la anterior es exp(xA)v2 = ex v2 + x(A In )v2 + = ex v + ex x(A In)v2 . xk x2 (A In)2 v2 + . . . + (A In )k v + . . . 2 k!
=0 =0

En el caso que la multiplicidad de sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homogneo e 1.) Calculamos todos los autovalores i y los correspondientes autovectores vi , i = 1, 2, . . . , k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eix vi , i = 1, . . . , k. Si k = n entonces las Yi (x) generan a todo el espacio solucin. o 2.) Si k < n entonces hay autovalores mltiples. Sea uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geomtrica (o sea la e

3 SISTEMAS DE EDOS

32

dimensin de autoespacio asociado a ). Si ma = mg entonces los vectores Yi (x) = ei x vi o i = 1, . . . , aa generan todo el subespacio correspondiente a . Supongamos que ma > mg , entonces para completar el espacio solucin asociado al autovalor (nos falta encontrar m a mg o soluciones linealmente independientes) buscamos los vectores v1 , . . . , vl (l ma mg ) tales que (AIn )v = 0 pero que (AIn )2v = 0, luego los los vectores v tales que (AIn )v = 0 y (A In)2 v = 0, y (A In)3 v = 0, y as sucesivamente hasta completar el subespacio. Y as con cada uno de los autovalores mltiples. u Veamos un ejemplo: 1 1 0 Y = 0 1 0 Y. 0 0 2

Obviamente los autovalores son 1 = 2 y 1 = 1 siendo ste ultimo de multiplicidad 2. e Adems, los autovectores correspondientes son v1 = (0, 0, 1)T y v2 = (1, 0, 0)T , respectivaa mente. Luego tenemos dos soluciones independientes 0 1 2x x , 0 0 , Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera solucin. Aplicando el mtodo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a 2 = 1 y tal que (A I3 )2v = 0, es decir x1 0 0 0 (A I)2 v = 0, 0 0 0 x2 = 0, = x1 = 0, x2 , x3 R, x3 0 0 1 o sea 0 1 v3 = 0 + 1 , 0 0

pero como (A I)v3 = (, 0, 0)T = 0, deducimos que = 0, luego tomando4 = 1, = 0 obtenemos la tercera solucin que buscabamos o x 0 0 x 1 = ex [I3 + x(A I3 )] 1 = ex 1 . Y3 (x) = e exp(A I3 ) 0 0 0 As pues x 1 0 2x + c2 ex 0 + c3 ex 1 . 0 Y (x) = c1 e 0 0 1

El mtodo anterior nos indica un procedimiento general para resolver el SEDO (3.6) en e general conocido como mtodo de Euler que consiste en lo siguiente: e 1. Calculamos los autovalores k de la matriz A Rnn del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. 2. Para cada autovalor, buscamos la solucin del correspondiente subespacio (o sea, la o solucin generada por el autovalor) en la forma o Yk (x) = e
4

k x

mk 1 j=0

Aj xj ,

Aj Rn ,

(3.10)

Cualquier eleccin de y es posible siempre que = 0. o

3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj , j = 0, 1, . . . , mk 1 sean nulos. Veamos como funciona este mtodo en el e 1 0 Y = 0 ejemplo anterior. 1 0 1 0 Y. 0 2

33

Sustituyendo en el sistema tenemos a1 + a2 + (a4 + a5)x a4 a4 a1 . a2 + a 5 x Y2 (x) = ex a2 + a5 x + a5 = 2a3 + 2a6x a6 a6 a3 Igualando componentes a4 a5 a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x

Tenemos que 1 = 2 y 1 = 1 siendo ste ultimo de multiplicidad 2. Para el primero tenemos e al igual que antes Y1 (x) = e2x (0, 0, 1)T y para el segundo buscamos las soluciones en la forma a1 a4 Y2 (x) = ex a2 + a5 x . a3 a6

a3 = a5 = a6 = 0, a4 = a2 ,

con a1 y a2 cualesquiera, es decir, x 1 a2 a1 Y2 (x) = a2 + 0 x ex = ex a1 0 + a2 1 x , 0 0 0 0 que coincide con la solucin encontrada por el mtodo anterior. o e 3.4.1. La matriz fundamental de soluciones y la matriz exp(xA)

Sea V (x) una matriz fundamental, entonces si denimos el vector c = (c 1, . . . , cn )T , la solucin general de Y = AY se puede escribir de la forma Y (x) = V (x)c. Sea ahora el PVI, o Y = AY con Y (x0) = Y0 , entonces tenemos Y (x0) = Y0 = V (x0)c, luego c = V 1 (x0)Y0 , por tanto la solucin es o Y (x) = V (x)V 1 (x0)Y0 . (3.11) Lo anterior nos permite encontrar una expresin para la matriz exponencial conocida o una matriz fundamental. En efecto, usando que la matriz exp(xA) es la solucin del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos, exp(xA) = V (x)V 1 (0)I = V (x)V 1 (0). Ejemplo 3.15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3.10. (3.12)

3 SISTEMAS DE EDOS

34

Los autovalores y autovectores son 1 = 5, v1 = (2, 1)T y 2 = 7 y v2 = (2, 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V 1 (0) = =
1 5x 1 e + 2 e7x 2 1 4 e5x + 1 e7x 4

2e5x 2e7x e5x e7x

2e5x 2e7x e5x e7x e5x + e7x 1 5x e + 1 e7x 2 2 .

2 2 1 1

2e5x 2e7x e5x e7x

1 4 1 4

1 2 1 2

3.5.

El SEDO lineales no homogneo e


Y (x) = AY (x) + F (x). (3.13)

Pasemos a estudiar el sistema no homogneo e

Para resolverlo usaremos la linealidad. Proposicin 3.16 La solucin general del SEDO (3.13) es de la forma Y (x) = Yh(x) + o o Yp (x), donde Yh es la solucin general del SEDO homogneo Y = AY y Yp es cualquier o e solucin particular de (3.13), es decir Yp (x) = AYp (x) + F (x). En particular, si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x), donde C Rn . Teorema 3.17 La solucin del problema de valores iniciales Y (x) = AY (x)+F (x), Y (x0) = o Y0 , cualquiera sea Y0 Rn existe y es unica y se expresa mediante la frmula o
x

Y (x) = exp[(x x0 )A]Y0 +

x0

exp[(x t)A]F (t)dt.

(3.14)

Ejemplo 3.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex , Y (0) = 0 1 .

En este caso la matriz exponencial es la matriz del ejemplo 3.15, luego aplicamos (3.14). Comenzamos por
x 0 x

exp[(x t)A]F (t)dt = =

0 x 0

1 5(xt) e + 1 e7(xt) 2 2 1 1 e5(xt) + 4 e7(xt) 4

e5(xt) + e7(xt) 1 5(xt) 1 e + 2 e7(xt) 2 dt = 0 1


1 5x 12x e (e 12

0 et

dt = .

e6t5x + e6t+7x

1 3 ex + 1 e5x (1 + e12x ) 6

1 6t5x e 2

+ 1 e6t+7x 2 e5x + e7x 1 5x 1 e + 2 e7x 2

1) ,

exp[(x x0)A]Y0 =

1 5x e + 1 e7x 2 2 1 4 e5x + 1 e7x 4

e5x + e7x
1 5x e 2 1 + 2 e7x

luego la solucin del PVI es o Y (x) =


1 7 5 e5x 3 ex + 6 e7x 6 5 5x e 12

7 7x e . 12

3 SISTEMAS DE EDOS

35

3.6.

Problemas

Problema 3.19 Encuentra la solucin general del sistema homgeneo Y (x) = AY (x) y, o o en su caso, del problema de valores iniciales en los siguientes casos: 1. a) A = 2. a) A = 4 1 4 4 4 1 8 8 , b) A = 2 3 2 5 2 4 , , 1 12 3 1 , Y (0) = 2 1

, Y (0) =

b) A =

Problema 3.20 Prueba las siguientes propiedades de la matriz exA con A Rnn : 1. e0A = In , In es la matriz identidad n n. 2.
d xA e dx

1 1 4 1 0 0 1 3 2 1 , 0 1 1 , Y (0) = 1 , 3. a) A = b) A = 2 1 1 0 1 1 1 1 2 1 1 1 1 0 4. a) A = 0 1 2 , Y (0) = 2 , b) A = 0 1 0 . 0 1 2 1 0 0 2

= AexA .

3. e(x+t)A = exA etA , x, t R. 4. Para todo x R, exA es invertible y su inversa (exA )1 = exA . 5. Si A y B conmutan, o sea AB = BA, entonces ex(A+B) = exA exB = exB exA . 6. exI = ex I. Problema 3.21 Sean las matrices A = 0 1 1 0 B= 0 1 1 0 .

1. Prueba que A2n+1 = A, A2n = I2 , B 2n+1 = (1)n B, y B 2n = (1)nI2 . 2. Usando lo anterior calcula las matrices exA y exB . 3. Como aplicacin calcula exC con C = o a b b a .

Problema 3.22 Usando las propiedades de la matriz exA con A Rnn encuentra la solucin de los SEDO del ejercicio (3.19). o Problema 3.23 Resuelve los sistemas homgeneos o 1. a) y1 = y1 + 2y2 , y2 = 4y1 + 3y2 y1 = y 1 y 2 y1 = y1 5y2 , c) y2 = y1 + 3y2 y2 = 2y1 y2 2 1 3 1 1 0 a) A = 0 1 0 , b) A = 0 2 1 , 0 0 2 0 0 2 b)

2. Y = AY , con

Problema 3.24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY , cuya matriz de coecientes es

3 SISTEMAS DE EDOS 1 5 0 1 1 12 2 5 , c) A = , 3 1 2 4 1 1 1 1 0 0 b) A = 0 3 2 , c) A = 2 1 2 . 0 0 5 3 2 1

36

1. a) A =

b) A =

Problema 3.25 Encuentra la solucin general del sistema de EDOs no homogneo Y (x) = o e AY +B(x) y, en su caso, la correspondiente solucin del problema de valores iniciales cuando o 1. A = 2. A = 1 12 3 1 2 5 2 4 , B(x) = , B(x) = x ex , Y (0) = 2 1 0 0

1 1 4 2. a) A = 3 2 1 , 2 1 1

Problema 3.26 Resuelve los sistemas lineales 1. y1 = 2y1 + y2 7xex 3 y2 = y1 + 2y2 1

1 1 4 0 2 3. A = 3 2 1 , B(x) = 0 , Y (0) = 1 2 1 1 ex 1 1 0 0 0 0 2 1 2 , B(x) = , Y (0) = 1 4. A = 0 3 2 1 ex cos(2x) 1

1 sen x

, Y (0) =

, sabiendo que su solucin es acotada si x +. o

2.

x =v , con x(0) = x0, v(0) = 0, < . Este sistema modeliza el v = 2 x 2v + f (t) movimiento de un pndulo con rozamiento y una fuerza externa f . e

3. Se considera el siguiente circuito elctrico e


L
1

L
1

i1
+

Uc C R

i2

Las intensidades i1, i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial 10 0 20 i1 V i1 i2 = 0 10 20 i2 + 20 0 . Uc 50 50 50 Uc 0 Se pide determinar i1, i2, Uc en los siguientes casos: (a) V (t) = 0, i1(0) = i2(0) = 0, Uc(0) = 10.

3 SISTEMAS DE EDOS (b) V (t) = 10, i1(0) = i2(0) = 0 = Uc(0) = 0. Problema 3.27 Demuestra que si la matriz A(x) es tal que
x x

37

A(x)

A(t)dt =
0 0

A(t)dt A(x),

entonces, la solucin del SEDO Y = A(x)Y , Y (0) = Y0 se puede expresar mediante la o x o o expresin Y (x) = exp( 0 A(t)dt)Y0. Como aplicacin calcula la solucin general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3.28 Demuestra el siguiente principio de superposicin: La solucin del sistema o o de EDOs lineales Y = A(x)Y + m fk (x), k = 1, 2, . . . , m, Y, fk Rn , A Rnn es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x), k = 1, 2, . . . , m. k=0

4 LA ECUACION LINEAL DE ORDEN N

38

4.

La ecuacin lineal de orden n o

Vamos a continuacin a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coecientes constantes de orden mayor que 1 denida por la ecuacin: o y (n) (x) + an1 (x)y (n1)(x) + + a1(x)y (x) + a0(x)y(x) = f (x). (4.1)

Cuando f (x) 0, diremos que la EDO (4.1) es homgenea, en caso contrario es no hoo mognea. e Si adems imponemos que la solucin y sea tal que a o y(x0 ) = y0 , y (x0) = y0 , ... y (n1) (x0) = y0
(n1)

entonces diremos que y es la solucin del correspondiente problema de valores iniciales. o Por comodidad introduciremos el operador L[y] denido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua denido por e L[y] = y (n) (x) + an1 (x)y (n1) (x) + + a1(x)y (x) + a0(x)y(x). (4.2)

Usando esta notacin podemos escribir (4.1) como L[y] = f (x) y el correspondiente problema o homogneo ser L[y] = 0. e a Proposicin 4.1 La EDO o y (n) (x) + an1 (x)y (n1) (x) + + a1(x)y (x) + a0(x)y(x) = 0, (4.3)

es lineal, es decir, que si tenemos dos soluciones y1 e y2 de la ecuacin, para cualesquiera o que sean , y R, y1 + y2 tambin es solucin. e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x), . . . zn (x) de forma que dzn z1(x) = y(x) = an1 zn an2 zn1 a0z1 + f, dx z2(x) = y (x) dzn1 z3(x) = y (x) = zn , dx . . . . . . (n2) zn1 (x) = y (x) dz1 = z2 . zn(x) = y (n1) (x) dx

Es decir, una EDO del tipo (4.1) es equivalente al siguiente sistema lineal de ecuaciones 0 1 0 0 0 0 z1 z1 0 1 0 0 z2 0 z2 0 . . . . . .. . . . . d . . . . . . . . . . + . , (4.4) . = . . . dx . 0 0 0 0 1 zn1 0 zn1 0 0 0 0 1 f (x) zn zn a0 a1 a2 an2 an1 o en forma matricial Z (x) = AZ(x) + F (x). Ntese que cuando f (x) 0, el sistema anterior o se transforma en un sistema homogneo. Lo anterior tiene una implicacin evidente: toda la e o teor de las ecuaciones lineales (4.1) se puede construir a partir de la teor de los sistemas a a lineales que estudiamos antes.

4 LA ECUACION LINEAL DE ORDEN N

39

Teorema 4.2 Sean a0 (x), . . . , an1 (x) funciones continuas en R. Entonces el P.V.I. asociado a (4.1) siempre tiene solucin y es unica cualquiera sean las las condiciones iniciales o (n1) (n1) y(x0 ) = y0 , y (x0) = y (0), . . . , y (x0) = y0 que escojamos. Teorema 4.3 El conjunto de soluciones de la EDO homognea (4.3) es un espacio vectorial e de dimensin n. o Teorema 4.4 Dadas n soluciones y1 , . . . , yn de la EDO (4.3), stas son linealmente indee pendientes si y slo si el wronskiano W [y1 , . . . , yn ](x), denido por o y1 (x) y1 (x) . . . y1
(n1)

W [y1 , . . . , yn ](x) =

y2 (x) y2 (x) . . .
(n1)

...

yn (x) yn (x) . . .
(n1)

= 0 x,

(4.5)

(x) y2

(x) yn

(x)

es distinto de cero para algn x R, en cuyo caso el Wronskiano es distinto de cero para u todo x R. Finalmente, notemos que conocida la solucin general yh(x) de la EDO homognea poo e demos dar la solucin general de la EDO (4.1) en la forma y(x) = yh(x) + yp (x), siendo yp o una solucin particular de (4.1). o

4.1.

Solucin de la ecuacin lineal homognea o o e

Para resolver la EDO (4.3) con coecientes constantes seguiremos la misma idea que para los sistemas, es decir buscaremos la solucin en la forma y(x) = e x . Sustituyendo esta o funcin en la EDO (4.3) obtenemos que debe satisfacer la ecuacin o o n + an1 n1 + a1 + a0 = 0. (4.6)

La ecuacin anterior se denomina ecuacin caracter o o stica de la EDO (4.3). Es fcil probar a que el polinomio caracter stico de la matriz A asociada a la EDO (4.3) coincide con (4.6). Lo anterior nos indica una estrategia para resolver el problema: 1. Si tenemos valores reales 1 = 2 = = n entonces las funciones yk (x) = ek x , k = 1, . . . , n generan el espacio solucin de la la EDO (4.3). o En el caso que tengamos ra ces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. Es decir, si = + i, entonces las dos soluciones independientes son [e(+i)x ] = ex cos(x) y [e(+i)x ] = ex sen(x). 2. Si algn k es mltiple de multiplicidad m n, entonces la solucin habr que buscara u u o a en la forma y(x) = ek x pm1 (x), (4.7) donde pm1 es un polinomio de grado m 1 en x, es decir la solucin asociada a dicha o ra tendr la forma z a y(x) = c1 ek x + c2 xek x + + cm xm1 ek x , c1 , c2 , . . . , cm R.

Obviamente si k es complejo, tenemos que tomar partes reales y complejas que nos generan todo el espacio solucin. o

4 LA ECUACION LINEAL DE ORDEN N

40

Por simplicidad mostraremos cmo resolver la ecuacin homognea de segundo orden. o o e El caso general es completamente anlogo. La ecuacin diferencial lineal homognea con a o e coecientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0, 2 + p + q = 0. Las soluciones de la ecuacin caracter o stica (4.9) sern a p2 4q p p2 4q , 2 = . 2 2 Caso de dos ra ces reales y distintas. Sea p2 > 4q, entonces la ecuacin caracter o stica (4.9) tiene dos soluciones reales y distintas: 1 = p + p p2 4q p2 4q , , 2 2 y la ecuacin homognea (4.8) tendr dos soluciones linealmente independientes o e a 1 = p + y1 (x) = e1x , y2 (x) = e2x . A, B R. Luego, la solucin general de (4.9) se expresar de la forma o a y(x) = Ae1 x + Be2x , Caso de dos ra ces reales iguales. Sea p2 = 4q, entonces la ecuacin caracter o stica (4.9) tiene una unica solucin real = p/2. Esto signica que aparentemente slo tenemos una o o funcin que genera al espacio solucin de la EDO homognea, sin embargo dicho espacio es o o e de dimensin 2 como nos asegura el teorema 4.3 y la ecuacin homognea (4.8) tendr dos o o e a soluciones linealmente independientes de la forma y1(x) = ex y y2(x) = xex . En efecto, usando (4.7) tenemos que la solucin generada por es, en este caso, o y(x) = ex p1 (x) = ex (c1 + c2 x) = c1 ex + c2 xex , como se pretend probar. a Caso de ra ces complejas. Sea p2 < 4q, entonces la ecuacin caracter o stica (4.9) tiene dos soluciones complejas: p i 4q p2 p + i 4q p2 , , i = 1, 2 2 y la ecuacin homognea (4.8) tendr dos soluciones linealmente independientes o e a 1 = y1 (x) = e1x , y2 (x) = e2x . A, B R. , R. (4.10) Luego, la solucin general de (4.9) se expresar de la forma o a y(x) = Ae1 x + Be2x , 1 = + i, 2 = i, Llamemos a la parte real de 1 (o 2) y a la parte imaginaria de 1 (o 2 ). Entonces, Si ahora utilizamos la frmula de Euler ei = cos +i sen , R, obtenemos que la solucin o o general de (4.10) se puede escribir de la forma y(x) = ex (A cos x + B sen x) , o, equivalentemente, y(x) = A ex cos (x + ) , A, R. A, B R, p, q R. (4.8) (4.9) La ecuacin caracter o stica (4.6) de la ecuacin (4.8) tiene la forma o

4 LA ECUACION LINEAL DE ORDEN N

41

4.2.

La EDO lineal de segundo orden no homognea con coeciene tes constantes


y (x) + py (x) + qy(x) = f (x), f (x) continua, p, q R. (4.11)

Vamos a estudiar la EDO

En general no es trivial resolverla aunque en muchos casos es fcil adivinar la solucin. a o

4.2.1.

Caso f (x) = pn (x)

En general si tenemos la EDO y + py + qy = pn (x), q = 0, (4.12)

siendo pn un polinomio de grado n, la solucin particular siempre es de la forma o yp (x) = a0 + a1 x + + an xn, an = 0.

En efecto, si sustituimos la solucin anterior en la EDO (4.12) obtenemos o qan xn + (qan1 + pnan )xn1 + + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + +(qa0 + pa1 + 2a2) = pn (x), de donde igualando coecientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n. Este mtodo obviamente funciona si q = 0 (por qu?), pero qu ocurre si q = 0?, o sea, e e e si tenemos la EDO y + py = pn (x), a = 0, (4.13) siendo pn un polinomio de grado n. Entonces el mtodo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + + anx , obtenemos que L[yp ] es un polinomio de grado n 1 mientras que el derecho es de grado n. Para resolver el problema buscamos la solucin de la o forma yp (x) = a0 + a1x + + anxn + an+1 xn+1 . Ahora bien, como la EDO homognea es y + py = 0, entonces cualquier constante es e solucin, por tanto a0 en la expresin anterior puede ser cualquiera, as que sin prdida de o o e generalidad la tomaremos igual a cero, luego la solucin particular la podemos buscar en la o forma yp (x) = xrn(x) y los coecientes de rn los encontramos sustituyendo dicha solucin o en (4.13) e igualando coecientes. 4.2.2. Caso f (x) = pn (x)ecx

Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x), (4.14)

luego

siendo pn un polinomio de grado n. Para resolverlo hacemos el cambio y(x) = ecx v(x), que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}, v + (2c + p)v + (q + pc + c2 )v = pn (x), por lo que nuestra EDO (4.14) se reduce al caso anterior (4.12).

4 LA ECUACION LINEAL DE ORDEN N 4.2.3. Caso f (x) = pn (x)ecx sen(x) y pn (x)ecx sen(x) y + py + qy = pn (x)ecx sen(x), y + py + qy = pn (x)ecx cos(x),

42

Veamos ahora como resolver los casos (4.15) siendo pn un polinomio de grado n. Para resolver este caso notemos que si y(x) = u(x) + iv(x), u, v, funciones reales es una solucin de o L[y] = y + py + qy = f (x) = f1(x) + if2(x), f1, f2 funciones reales, entonces L[u] = f1 y L[v] = f2], lo cual es consecuencia de la linealidad L. Sea entonces yp (x) = u(x) + iv(x) una solucin particular de o L[y] = y + py + qy = pn (x)eix = pn (x) cos(x) + ipn(x) sen(x). Entonces [yp ] = u(x) es solucin de y + py + qy = pn (x) cos(x) y o y + py + qy = pn(x) sen(x). 4.2.4. El mtodo de los coecientes indeterminados e [yp ] = v(x) de

Sea la EDO lineal no homogna (4.11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. Entonces vamos a buscar la solucin de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x), con c1 y c2 tales que c1 y1 + c2 y2 = 0, c1 y1 + c2 y2 = f (x). (4.16) (4.17)

De esa forma tenemos que resolver dos EDOs de primer orden. Para ello multiplicamos la primera por y1, la segunda por y1 y las restamos lo que nos da c2 [y1 y2 y1 y2 ] = f y1 , o bien, la primera por y2 y la segunda por y2 , para obtener c1 [y1 y2 y1 y2 ] = f y2 . Ahora bien, [y1 y2 y1 y2 ] = W [y1 , y2 ](x) = 0 cualquiera sea x R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homognea nunca se anula (ver el teorema 4.4), de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = f (x)y2(x) , W [y1 , y2 ](x) c2 (x) = f (x)y1(x) . W [y1 , y2 ](x) (4.18)

El mtodo anterior se denomina mtodo de Lagrange de reduccin del orden de la EDO e e o de segundo orden o mtodo de los coecientes indeterminados. Obviamente este mtodo se e e puede generalizar fcilmente para el caso de orden n. a Ejemplo 4.5 Resolver y y = e2x . La solucin general del problema homogneo es yh (x) = c1 ex + c2 ex , entonces buscao e 5 mos la solucin particular en la forma yp (x) = c1 (x)ex + c2 (x)ex. Como W [y1 , y2 ](x) = o W [ex , ex ] = 2, la frmula (4.18) nos da o c1 = c1 (x) = ex , 2 c3 (x) = e2x . 3 ex , 6 = yp (x) = e2x . 3

ex e3x , c2 = = 2 2 Por tanto, la solucin general es o

y(x) = c1 ex + c2 ex +
5

De aqu el nombre de mtodo de variacin de las constantes, pues se cambian las constantes que aparecen e o en la solucin general del problema homogneo por funciones indeterminadas. o e

4 LA ECUACION LINEAL DE ORDEN N

43

4.3.

Aplicaciones

Ejemplo 4.6 Vibraciones mecnicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la accin o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante elstica a k (ver gura 8). Si suponemos adems que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x), o equivalentemente, x + 2x + 2 x = f (t), = a k F (t) > 0, 2 = , f (t) = . 2m m m (4.19)

con las condiciones iniciales para t = 0 de la posicin x(0) = x0 y la velocidad x (0) = v0 . o Vamos a estudiar los distintos casos

PSfrag replacements

que al usar las condiciones iniciales se transforma en x(t) = x0 cos(t) + v0 / sen(t) =


2 x2 + v0 / 2 cos(t ), 0

la solucin en este caso es peridica con periodo T = 2/ por lo que el movimiento se o o denomina movimiento armnico simple (ver gura 9 izquierda). o En la ultima igualdad hemos usado la identidad a cos(t) + b sen(t) = A cos(t ), A= a2 + b2, = arctan(b/a), (4.20)

cuya demostracin es inmediata, basta aplicar la frmula para el coseno de una suma e o o identicar los coecientes del seno y el coseno.
x

PSfrag replacements

2. Supongamos ahora que eliminamos solamente la fuerza externa, entonces la solucin es o x(t) = c1 ex+ Tenemos que considerar tres casos:
2 2 x

Figura 8: Carro del ejemplo 4.6.

1. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento, o sea, f = 0 y = 0. Entonces la EDO (4.19) es x + 2 x = 0 y por tanto la solucin general o es x(t) = c1 sen(t) + c2 cos(t),

= arctan(x0 /v0).

Figura 9: El movimiento armnico simple y el movimiento amortiguado. o

+ c2 ex

2 2 x

4 LA ECUACION LINEAL DE ORDEN N 2a. Si > , entonces, llamando = 2 2 < tenemos la solucin o

44

x(t) = c1 e()t + c2 e(+)t , que decrece exponencialmente a cero. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. 2b. Si = , entonces la solucin es o x(t) = (c1 t + c2 )et , que tambin decrece exponencialmente a cero. e 2c. Si < , entonces, llamando = |2 2 | < tenemos la solucin o

x(t) = et [c1 cos(t) + c2 sen(t)] , que decrece oscilando exponencialmente a cero (ver gura 9 derecha). En este caso se dice que el movimiento es amortiguado ya que aunque oscila, las oscilaciones terminan en un breve espacio de tiempo y el carro se para. 3. Veamos el caso general y, por simplicidad, consideremos el caso de una fuerza peridica o muy frecuente en la naturaleza. En este caso la ecuacin es de la forma o x + 2x + 2 x = f0 cos(t). Obviamente la solucin general es la suma de una solucin particular ms la solucin general o o a o de la EDO homognea que acabamos de considerar. Para encontrar una solucin particular e o usamos el mtodo aprendido antes, lo que nos da e yp (t) = f0eit 2 2 + i2 = xp (t) = [yp ] = ( 2 2) cos(t) + 2 sen(t) f0 , ( 2 2 )2 + 42 2

de donde deducimos la solucin o x(t) = xh(t) + ( 2 2 ) cos(t) + 2 sen(t) f0 . ( 2 2)2 + 42 2 (4.21)

|A()|

Ntese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suciente grande x(t) xp(t). Si usamos la identidad (4.20) obtenemos para t sucientemente grande la solucin o x(t) xp(t) =

Sfrag replacements

( 2

f0 cos(t ), 2 )2 + 42 2

donde = arctan 2 2 . 2 Como se ve en la frmula anterior, las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilacin. Obviamente para o forzadas: resonancia. = la amplitud es mxima, es decir cuando la a frecuencia de la fuerza exterior es igual a como slo depende de las caracter o sticas de sistema, en este caso m y k, se suele denominar

4 LA ECUACION LINEAL DE ORDEN N

45

frecuencia propia. En la gura 10 representamos el valor de la amplitud (eje y en funcin o de la frecuencia exterior (eje x) para distintos valores de . La grca ms alta corresponde a a al menor valor de (menor viscosidad) y la ms pequea al mayor. Si = 0 es fcil ver a n a que para = la amplitud es no acotada. Este fenmeno de amplicacin de la amplitud o o de las oscilaciones se conoce como resonancia. Veamos ahora que ocurre si = 0, o sea si no hay rozamiento. En este caso la EDO es x + 2 x = f0 cos(t). Si = entonces simplemente tomamos el l mite cuando 0 en (4.21) que nos da, x(t) = c1 cos(t) + c2 sen(t) + f0 cos(t). 2 2

Si = entonces la solucin anterior no vale como se o puede comprobar fcilmente (pues f0/( 2 2 ) cos(t) deja a de tener sentido). En este caso tenemos que repetir el proceso anterior lo que nos da, para la solucin particular la expresin o o
t

PSfrag replacements

xp(t) = y por tanto, Figura 11: Resonancia en un sistema sin rozamiento.

f0 t f0t it = e sen(t), 2i 2

x(t) = c1 cos(t) + c2 sen(t) +

f0 t sen(t). 2

Ntese que a diferencia del caso con rozamiento, en ste, si t , la solucin es no acoo e o tada pues f0t/(2) , es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia ja pero con amplitud que aumenta linealmente con el tiempo. El fenmeno de la resonancia es conocido desde hace muchos aos y es el causante de o n ms de un desastre en sistemas mecnicos. Por ejemplo, en 1831, un grupo de soldados a a intent cruzar marchando en puente de Broughton (cerca de Manchester, Inglaterra). La o fuerza peridica que ejercieron al marchar entr en resonancia con la frecuencia propia del o o puente y este se vino abajo. A partir de ese momento se prohibi a los soldados marchar o cuando fuesen a cruzar un puente.

Figura 12: El desastre del puente de Tacoma. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. Este puente se abri al pblico el 1 de julio de 1940. Desde ese mismo d se observ que o u a, o

4 LA ECUACION LINEAL DE ORDEN N

46

el puente comenzaba a oscilar (ver gura 12 izquierda) lo que lo convirti en una atraccin o o tur stica local pues cientos de conductores iban slo para disfrutar de este extrao fenmeno. o n o El puente parec aguantar bien, es ms varios expertos aseguraban que todo estaba bajo a a control, pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. Obviamente el puente hab entrado en resonancia a con el aire debido a un fenmeno aerodinmico y termin por derrumbarse a las 11:10am o a o (ver gura 12 derecha), afortunadamente sin ninguna v ctima humana (slo muri el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr escapar de milagro o pero olvid su perro en el interior de su coche atrapado en el medio del puente). o Ejemplo 4.7 Vibraciones elctricas e Consideremos ahora el circuito elctrico representado el la gura 13 donde R es una e resistencia, L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente, o sea, la carga por unidad de tiempo. Entonces, la Ley de Kirchov nos da la siguiente ecuacin que detero mina la carga q(t) C
R

U (t) = Li (t) + Ri + C 1 q(t), o, equivalentemente, q + 2rq + 2 q(t) = u(t), donde r = R/(2L), 2 = 1/(LC) y u(t) = U (t)/L.
U(t)

Figura 13: Circuito RLC del ejemplo 4.7.

Obviamente la EDO anterior es totalmente anloga a la EDO (4.19). En particular la a solucin general de sta en el caso cuando u(t) = u0 cos(t) es o e q(t) = qh (t) + donde ( 2 2 ) cos(t) + 2r sen(t) u0 , ( 2 2)2 + 4r 22 (4.22)

siendo =

|r 2 2 |.

r> c1 e()t + c2 e(+)t , (c1t + c2 )et , r= qh (t) = t e [c1 cos(t) + c2 sen(t)] , r <

En particular, si = tenemos la solucin o u0 t sen(t), 2 que es no acotada. Lo anterior nos indica que el anlisis de un circuito RLC es anlogo al de a a un oscilador, en particular tendremos el mismo fenmeno de resonancia cuando . De o hecho, en este fenmeno se basan los equipos de radio actuales. o q(t) = c1 cos(t) + c2 sen(t) + Ejemplo 4.8 Los osciladores acoplados

4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador armnico y hemos descuo bierto que ste se puede describir fcilmente con e a una EDO lineal de orden dos. Vamos a ver a continuacin el caso de varios osciladores acoplao dos.

47

En la gura 14 vemos dos osciladores acoplados. Figura 14: Dos osciladores acoplados. Obviamente si no existiera el resorte k3 que los une cada uno oscilar segn la ley que hemos visto antes. Veamos que ocurre al incluir este a u resorte. Llamemos x1 y x2 a los desplazamientos de la posicin de equilibrio de los carros m1 o y m2 respectivamente, entonces la segunda Ley de Newton nos da m1 x1 = k1 x1 + k3 (x2 x1) = (k1 + k3 )x1 + k3 x2 , m2 x2 = k3 (x2 x1) k2 x2 = k3 x1 (k2 + k3 )x2. Para resolver el problema vamos a despejar x2 en la primera ecuacin y sustituirla en la o segunda. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 +
(4)

k1 + k 3 k2 + k 3 + m1 m2

x1 +

k1 + k 3 m1

Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Entonces (4.24) nos da x1 + 4 2 x1 + 3 4 x1 = 0, La ecuacin caracter o stica es 4 + 4 2 2 + 3 4 = 0 = = 3i, i,
(4)

de donde deducimos que la solucin tiene la forma o x1 (t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos(t) + c4 sen(t) = A1 cos( 3t 1 ) + A2 cos(t 2 ). De la solucin podemos ver que en funcin de las condiciones iniciales puede ocurrir que A 1 o o o 2 se anulen. En este caso el sistema tiene un movimiento oscilatorio con frecuencias A y 3, conocidas como frecuencias propias del sistema. Anlogamente se puede obtener la a expresin para x2. o x2(t) = c1 (2 2 ) cos(t) + c3 (2 3 2 ) cos( 3t) + 2c2 sen(t) c2 2 sen(t) + 2c4 sen( 3t) 3c4 2 sen( 3t) Escojamos k = m = 1 de forma que = 1. Entonces x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t, x2 (t) = c1 cos t + c2 sen t c3 cos( 3t) + c4 sen( 3t). Supongamos que x1 (0) = 1, x1(0) = 0, x2(0) = 1 y x2(0) = 0, entonces obtenemos x1(t) = cos t x2(t) = cos t.


k1 m1 k3 m2 k2

(4.23)

k2 + k 3 m2

2 k3 x1 = 0. m1 m2

(4.24)

2 =

k . m

4 LA ECUACION LINEAL DE ORDEN N

48

Figura 15: Caso x1(0) = 1, x1(0) = 0, x2 (0) = 1 y x2(0) = 0.

Figura 16: Caso x1(0) = 1, x1(0) = 0, x2(0) = 1 y x2(0) = 0. Si x1(0) = 1, x1(0) = 0, x2 (0) = 1 y x2(0) = 0, tenemos x2(t) = cos( 3t), x1(t) = cos( 3t), o sea, tenemos que las oscilaciones son con las frecuencias propias. Pero si escogemos, por ejemplo, x1(0) = 1/2, x1 (0) = 1, x2(0) = 1 y x2(0) = 1/2, obtenemos cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) , + + + x1(t) = 4 4 4 4 3 cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) , x2(t) = + 4 4 4 4 3 es decir, es una combinacin de las frecuencias. o

Figura 17: Caso x1(0) = 1/2, x1(0) = 1, x2(0) = 1 y x2(0) = 1/2.

4 LA ECUACION LINEAL DE ORDEN N

49

4.4.

Problemas

Problema 4.9 Encontrar la solucin general de las siguientes ecuaciones diferenciales y la solucin correso o pondiente a las condiciones iniciales indicadas: 1. y y 6y = 0, y(2) = 0, y (2) = 1. 2. y + 12y + 36y = 0, y(0) = y (0) = 2. 3. y 4y + 13y = 0, y(0) = 1, y (0) = 0. Problema 4.10 Resolver las EDOs 1. y 4x = 4x2 + 2x. 2. y + y + y = 1 + 2x + 3x3. 3. y y = x2ex con y(0) = y (0) = 0. 4. y + 2y + 1 = xex sen(2x) con y(0) = 1, y (0) = 0. 5. y + 2y = 1 + x2 + e2x . 6. y + y 6y = sen x + xe2x . Problema 4.11 El oscilador armnico simple y el pndulo simple se representan esquemticamente en la o e a grca 18 a la izquierda y derecha respectivamente. a

mg

Figura 18: El oscilador y el pndulo simple. e Las EDOs que gobiernan estos sistemas son my + ky = 0, y l + g = 0,

respectivamente, donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posicin de equilibrio (gura 18 izquierda) y (t) es el angulo que forma el pndulo con la o e horizontal (gura 18 derecha). 1. Encuentra la solucin general de ambas EDOs. o

ky


l m h

4 LA ECUACION LINEAL DE ORDEN N

50

2. Si el oscilador se encontraba en el inicio en su posicin de equilibrio (y(0) = 0) y ten o a una velocidad inicial y (0) = v0 , qu posicin ocupa al cabo de 1 segundo? y al cabo e o de t segundos? 3. Si suponemos que inicialmente el pndulo se deja caer desde una altura h = l/10, sin e velocidad inicial, a qu altura se encuentra el mismo al cabo de 1 segundo y al cabo e de t segundos? Problema 4.12 Resuelve las EDOs 1. y + 8y = x2 , Problema 4.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4.8 incluyendo rozamiento. Haga el estudio anlogo si sobre el primer carro acta una fuerza a u externa del tipo F (t) = F0 cos(t). En ambos casos resuelva la EDO correspondiente. Analice los casos: 1.) m1 = m2 y k1 = k2 = k3 , 2.) m1 = m2 y k1 = k2 , k3 = 2k1 y 3.) m1 = 2m2 y k1 = k2 = k3 . Problema 4.14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la gura 19 y resulvela. e 2. y 6y + 11y 6y = xex + x2, 3. y (4) 16y = 3 cos(x).

k1

k4

k2

m3

Figura 19: Tres osciladores acoplados.

m1

m2

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS

51

5.

Soluciones de EDOs en serie de potencias


Sea la EDO y + p(x)y + q(x)y = f (x). (5.1)

El objetivo es resolver la EDO anterior cuando las funciones p(x), q(x) y f (x) dependen de x. Para ello vamos a suponer que dichas funciones son razonablemente buenas en un entorno de cierto punto x0 de la recta real y buscaremos la solucin como una serie de potencias, es o decir en la forma y(x) =
k=0

ak (x x0)k ,

ak R.

(5.2)

Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal ticas en x = x0. Por sencillez supondremos x0 = 0, ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x x0 de forma que en la nueva variable z0 = 0. La idea del mtodo es sustituir la serie y(x) (5.2) en (5.1) e igualar los coecientes de e las potencias. De esta forma obtenemos un sistema de ecuaciones para los coecientes a n en (5.2). Es importante que la serie converja en todo un entorno de x0, de esta forma tenemos asegurada la existencia de la solucin al menos en cierta regin. Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5.1 Resolver la EDO y 2x 2y = 0. Buscamos la solucin y(x) = o d y (x) = dx
k=0 k=0 k

ak xk , la sustituimos en la EDO y usamos que

ak x =

k=0 k=0

(ak x ) = kak x
k1

kak x

k1

n=0

(n + 1)an+1 xn , =
n=0

d d y (x) = y (x) = dx dx lo que nos da


k=0

k=0 k=0

k(k 1)ak x

k2

(n + 1)(n + 2)an+2 xn

k(k 1)ak x

k1

k=0

kak x 2

k=0

ak xk = 0,

que equivale a
n=0 n

[(n + 1)(n + 2)an+2 (2n + 2)an] xn = 0.

Como (x )n es una sucesin de funciones linealmente independientes la igualdad a cero tiene o lugar si y slo si (n + 1)(n + 2)an+2 (2n + 2)an = 0, de donde tenemos o an+2 = 2 an , n+2 n 0.

Obviamente la ecuacin anterior dene todos los valores de an en funcin de a0 y a1. En o o efecto, si sabemos a0 , la recurrencia anterior permite calcular los valores a2, a4 , . . . a2k , k N y si conocemos a1 entonces podemos calcular a3, a5 , . . . a2k+1 , k N. As tenemos , a2n 2 a2n2 = = 2n 2 2n 2 2n a0 a2n4 = = a0 = , 2n 2 (2n)(2n 2) 2 n!

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS

52

2 2n 2 2 a2n3 = = a2n1 = a1 , 2n + 1 2n + 1 2n 1 (2n + 1)(2n 1) 3 1 es decir 2n /(2n + 1)!! a1, donde (2n + 1)!! = 1 3 5 (2n + 1). De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0
n=0

2n x2n+1 x2n + a1 . n! (2n + 1)!! n=0

Obviamente la primera suma es fcilmente reconocible como la serie de potencias de la funa 2 cin ex , no as la segunda que en general no se expresa como combinacin de funciones o o elementales. De la expresin expl o cita de las dos sumas anteriores es fcil comprobar que el a radio de convergencia es innito. Esta claro que el mtodo anterior no siempre funciona. Por ejemplo, consideremos la e EDO 2 2 x2y + 2xy 2y = 0 y + y 2 y = 0. x x Si sustituimos la serie de potencias tenemos
k=0

k(k 1)ak xk +

k=0

2kak xk

k=0

2ak xk = 0

de donde se deduce a0 = 0, (n 1)(n + 2)an = 0, nN = an = 0, n N, n=1

es decir, slo podemos encontrar una solucin: y1(x) = x. Ello es fcil de entender pues la o o a 2 otra solucin de esta EDO es y2 (x) = 1/x que obviamente no est denida en x = 0. o a

5.1.

El mtodo de reduccin de orden e o

Supongamos que conocemos una solucin y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. o Busquemos la segunda solucin independiente y2 (x) en la forma y2(x) = v(x)y1(x). Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e
p(x)dx 2 y1

y1 u + (2y1 + p(x)y1)u, e
p(x)dx 2 y1

u=v,

v(x) = C

+ D.

Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger, sin prdida de generalidad C = 1 y D = 0. e Ejemplo 5.2 Encontrar la segunda solucin linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 1) /(4x )y = 0 si una solucin es y1 (x) = xp0/2+1/2. o Como y1 (x) = xp0/2+1/2 y p(x) = p0 /x, entonces u(x) = v (x) = C C e p0/xdx = Cep0 log x xp01 = p0 +1 x x = v(x) = log x

de donde y2 (x) = xp0/2+1/2 log x. Es fcil ver que si aplicamos el mtodo de reduccin de orden a la ecuacin x2y + 2xy a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda solucin linealmente o independiente es y2 (x) = 1/x2.

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS

53

5.2.

Puntos regulares y singulares de una EDO

Denicin 5.3 Dada la EDO (5.1), el punto x0 se denomina punto regular de (5.1) si o p(x), q(x) y f (x) son funciones anal ticas en x = x0, o sea, si p(x), q(x) y f (x) admiten una representacin en serie de potencias en un entorno de x0 . En caso contrario se dice que o x0 es un punto singular. Por ejemplo, el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0, mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. Teorema 5.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). Entonces: 1. Para f (x) = 0 (problema homogneo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal ticas. 2. La solucin del problema de valores iniciales y(x0) = y0 , y (x0) = y0 existe y es unica o y se expresa mediante una serie de potencias (es decir es una funcin anal o tica). Es posible, adems, probar que el radio de convergencia de la solucin de la EDO (5.1) a o es el menor de los radios de convergencia de p, q y f . Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. Una opcin o es resolver entonces la ecuacin usando una serie en torno a otro punto, por ejemplo x = 1. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. Ello no siempre es posible, aunque en algunos casos, si lo es. Denicin 5.5 Un punto x0 se denomina punto singular regular de la EDO (5.1), si las o funciones (x x0)p(x) y (x x0)2 q(x) son anal ticas en x = x0 . Lo anterior equivale a que (xx0)p(x) =
k=0 k=0

pk (xx0) = p0+p1 x+ ,

(xx0) q(x)

qk (xx0)k = q0 +q1 x+ .

Usualmente la EDO homognea (f (x) 0) (5.1) con un punto singular en x 0 se escribe e de la forma (x x0 )2y + (x x0)[(x x0)p(x)] + [(x x0 )2q(x)]y = 0. (5.3) Denicin 5.6 La ecuacin r(r 1) + p0 r + q0 = 0 se denomina ecuacin indicial de la o o o EDO (5.3) con un punto singular en x0. En lo que sigue, por simplicidad, asumiremos x0 = 0. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. (5.4) Si buscamos la solucin en forma de serie y(x) = ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n 1) + np0 + q0 ]an = 0, n 0,

luego, en general, an = 0 lo cual indica que la EDO anterior no tiene como solucin ninguna o serie de potencias. Es fcil ver que la solucin se puede buscar en la forma y(x) = x r , para a o x > 0. El caso x < 0 se deduce fcilmente de ste sin ms que hacer el cambio x = z, a e a

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS

54

z > 0. Sustituyendo y(x) = xr en (5.4) tenemos que r ha de satisfacer la ecuacin indicial o r(r 1) + p0 r + q0 = 0. Sean r1 y r2 las soluciones de la ecuacin indicial, o r1,2 = p0 1 2 (p0 1)2 4q0 . 2

Entonces se tienen los siguientes casos para x > 0 1. Caso (p0 1)2 4q0 > 0, r1 < r2 R (dos ra reales y distintas) ces y(x) = c1 xr1 + c2 xr2 , x > 0. (5.5)

2. Caso (p0 1)2 4q0 = 0, r1 = r2 R (dos ra reales iguales) ces y(x) = c1 xr1 + c2 xr1 log(x), x > 0. (5.6)

3. Caso (p0 1)2 4q0 < 0, r1, r2 C (dos ra complejas). Sea r1 = a + bi, entonces ces la solucin es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x), x > 0. (5.7)

Si queremos tener la solucin tambin para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. Veamos que ocurre en el caso general. En este caso la lgica indica que quiz la solucin o a o 6 tenga la forma y(x) = xr
k=0

ak x k .

Entonces si sustituimos en la EDO (5.3) e igualamos potencias nos queda,


n=0 n1

[(n + r)(n + r 1) + (n + r)p0 + q0 ]an +

[(k + r)pnk + qnk ]ak = 0,


k=0

de donde, al igualar la potencia xr , se sigue que r ha de satisfacer la ecuacin indicial o r(r 1) + p0 r + q0 = 0, y adems se deduce una relacin de recurrencia para cada uno de a o los coecientes an en la expresin de la serie. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relacin recurrente para los coecientes an no tenga solucin. En general o o se tiene el siguiente Teorema 5.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0, y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + y x2q(x) = q0 + q1 x + sean funciones anal ticas en x0 = 0. Dada la ecuacin indicial r(r 1) + p0 r + q0 = 0, entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. Caso (p0 1)2 4q0 > 0, r1 < r2 R con r2 r1 Z (dos ra reales y distintas que ces no dieran en un entero) y(x) =
6

c 1 xr 1

k=0

ak x +

c2 xr 2

k=0

bk x k ,

x > 0.

(5.8)

Recordar que estamos suponiendo x0 = 0.

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS

55

2. Caso (p0 1)2 4q0 < 0, r1, r2 C,r2 r1 Z (dos ra complejas que no dieran ces en un entero). Sea r1 = a + bi, entonces la solucin es o y(x) = c1 x cos(b log x)
a k=0

ak x + c2 x sen(b log x)

k=0

bk x k ,

x > 0.

(5.9)

3. Caso (p0 1)2 4q0 = 0, r1 = r2 R (dos ra reales iguales) ces y(x) = c1 x


r1 k=0

ak x + c 2

r1

k=0

ak x

log x + x

r1

k=0

bk x k ,

x > 0. (5.10)

4. Caso (p0 1)2 4q0 = 0, r1 = r2 N R, N Z (dos ra ces reales que dieren en un entero) y(x) = c1 xr1
k=0

ak x k + c 2 A x r 1

k=0

ak x k

log x + xr1+N

k=0

bk x k ,

x > 0, (5.11)

donde A es cierta constante que puede ser nula. En todos los casos las series convergen en un entorno de x0 = 0. Esta claro del teorema anterior que este caso es mucho ms complicado que el anterior. a Aqu slo nos limitaremos a mostrar un ejemplo del primer caso por ser este el ms sencillo. o a

5.3.

La ecuacin hipergeomtrica de Gauss o e

Como ejemplo consideraremos la ecuacin hipergeomtrica de Gauss o e x(1 x)y + [ (1 + + )x]y y = 0. (5.12)

luego

Por sencillez asumiremos que Z. Obviamente x = 0 es un punto singular regular. En efecto, dividiendo por x(1 x) tenemos (1 + + )x p(x) = , q(x) = , x(1 x) x(1 x) xp(x) = (1 + + )x + , x2q(x) = x + ,

entonces p0 = y q0 = 0 y la ecuacin indicial es r(r 1) + r = 0, de donde tenemos o dos soluciones r = 0 y r = 1 . Como hemos supuesto que Z, entonces tenemos dos soluciones y1 (x) = an x n , y2 (x) = x1 bn x n .
n=0 n=0

Comencemos por la primera. Sustituyendo y1 en (5.12) obtenemos (n + 1)(n + )an+1 = [n2 + ( + )n + ]an , por tanto, an = (n + 1)(n + 1) an1 , n(n + 1) n 1.

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1, entonces obtenemos an = por tanto y(x) = 2 F1 , x =
k=0

56

(a)n = a(a + 1) (a + n 1), ()n ()n , ()nn!

n 1,

(5.13)

()k ()k xk , ()k k!

(5.14)

conocida como funcin hipergeomtrica de Gauss. Es fcil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. Si ahora sustituimos la segunda solucin obtenemos o an = (n + )(n + ) an1 , n(n + 1) y2 (x) = x1 2 F1 = an = ( + 1)n( + 1)n , n 1. (2 )n n!

de donde tenemos

Nese que si Z entonces una de las soluciones deja de estar denida. En este caso o hay que buscar la solucin incluyendo el correspondiente trmino logar o e tmico.

+ 1, + 1 x . 2

5.4.

Problemas

Problema 5.8 Resuelve las EDOs siguientes usando series de potencias, si es posible, e indica la regin de convergencia de las mismas o 1. x2y = y + x2 + 1, 2. xy = 2y + xex, 3. y + 2y + y = x, 4. (x4 4)y + 3xy + y = 0. Problema 5.9 Sea la EDO (1 + x)y = py, y(0) = 1, p R. 1. Busca su solucin en serie de potencias o 2) (p n + 1)/n!.
n=0

an xn, y prueba que an = p(p 1)(p

2. Encuentra la regin de validez de la dolucin anterior. o o 3. Comprueba que la funcin y(x) = (1 + x)p es solucin de la misma. o o Como consecuencia del teorema de existencia y unicidad, en la regin de convergencia de la o serie tendremos (1 + x) =
p n=0

p(p 1)(p 2) (p n + 1) n x , n!

p R,

que no es ms que el teorema del binomio encontrado por Newton. a

5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. (1 x2)y xy + p2 y = 0, (EDO de Chebyshev) 2. (1 x2)y 2xy + p(p + 1)y = 0, (EDO de Legendre) 3. y 2xy + 2py = 0, (EDO de Hermite)

57

4. y + xy = 0, (EDO de Airy). Usando la solucin de la EDO de Airy resolver la EDO o y xy = 0. Problema 5.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0, a, b, c R

se transforma, con el cambio x = ez en una EDO con coecientes constantes: ay (z) + (b a)y (z) + cy(z) = 0. Problema 5.12 Resuelve las siguientes EDOs de Euler 1. x2y + 2xy 6y = 0, 2. x2y + xy 5y = 0, 3. (x 1)2y 2(x 1)y + 2y = 0, 4. x2y + 3xy + 2y = 0. Problema 5.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. xy + (1 x)y + py = 0, (EDO de Laguerre) 2. xy + (1 + x)y + py = 0, (EDO de Laguerre generalizada) 3. x2y + xy + (x2 p2 )y = 0, (EDO de Bessel) Problema 5.14 La EDO x(1 x)y + [c (a + b + 1)x]y aby = 0, a, b, c R

se denomina ecuacin hipergeomtrica de Gauss (aunque fue introducida por Euler en 1769). o e Encuentra dos soluciones linealmente independientes de la misma. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funcin de las soluciones de la EDO hipergeomtrica de Gauss. o e Problema 5.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeomtrica conuente denida por e xy + [c x]y ay = 0, a, c R.

6 LOS POLINOMIOS ORTOGONALES CLASICOS

58

6.
6.1.

Los polinomios ortogonales clsicos a


La ecuacin diferencial hipergeomtrica. o e

Nuestro objetivo ser estudiar los polinomios ortogonales clsicos denidos sobre el eje a a real los cuales vamos a denir como las soluciones polinmicas de la siguiente EDO o (x)y + (x)y + y = 0, (6.1)

donde y son polinomios de grados a lo ms 2 y 1, respectivamente. Esta ecuacin (6.1) a o usualmente se denomina ecuacin diferencial hipergeomtrica y sus soluciones y cumplen con o e la propiedad, conocida como propiedad de hipergeometricidad: Si y es una solucin de (6.1) o sus m-simas derivadas y (m) ym satisfacen una ecuacin del mismo tipo. e o

Teorema 6.1 Si y es una solucin de (6.1) sus m-simas derivadas y (m) ym satisfacen la o e ecuacin o (x)ym + m (x)ym + m ym = 0,
m1

(6.2) i (x) = + m (x) +


m(m1) 2

m (x) = (x) + m (x),

m = +
i=0

(x) .

La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una frmula expl o cita para los polinomios que satisfacen la ecuacin (6.1). Para ello usualmente o se escriben (6.1) y (6.2) en su forma simtrica o autoconjugada: e [(x)(x)y ] + (x)y = 0, [(x)m (x)ym ] + m m (x)ym = 0, (6.3)

donde y m son funciones de simetrizacin que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [(x)(x)] = (x)(x), [(x)m (x)] = m (x)m (x).

Conocida encontramos, utilizando las ecuaciones anteriores, que m (x) = m (x)(x). (6.4)

Teorema 6.2 Si para todo k N {0}, + k /2 = 0, entonces para las soluciones polinmicas de la ecuacin (6.2) se tiene la siguiente frmula de Rodrigues: o o o
(m) Pn (x) =

Anm Bn dnm [n (x)], m (x) dxnm n! = (n m)!


m1

Bn =

Pn , Ann

(n)

(6.5) (6.6)

Anm = Am () |=n Adems, el autovalor n de (6.1) es a

k=0

1 [ + 2 (n + k 1) ].

n = n

n(n 1) . 2

(6.7)

Cuando m = 0 la frmula (6.5) se convierte en la frmula de Rodrigues para los polinomios o o clsicos a B n dn n [ (x)(x)], n = 0, 1, 2, ... . (6.8) Pn(x) = (x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6.1) son ortogonales dos a dos:

6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6.3 Supongamos que xk (x)(x)

59

x=a,b

ciones polinmicas Pn de la ecuacin (6.1) constituyen una SPO respecto a la funcin peso o o o denida por la ecuacin [(x)(x)] = (x)(x), o sea, se cumple que: o
b a

= 0, para todo k 0. Entonces las solu-

Pn (x)Pm(x)(x)dx = nm d2 , n

(6.9)

donde nm es el s mbolo de Kronecker y dn denota la norma de los polinomios Pn. Corolario 6.4 Si (Pn)n es una familia de polinomios ortogonales respecto a entonces para
b

todo k entero con 0 k n 1 se tiene que

xk Pn (x)(x)dx = 0.
a

Para calcular d2 , podemos utilizar la frmula de Rodrigues que, sustituyndola en (6.9) o e n e integrando por partes, nos da:
b

d2 = Bn (1)n n!an n

n (x)(x)dx.
a

(6.10)

Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6.5 Los polinomios ortogonales satisfacen una relacin de recurrencia a tres trmio e nos de la forma xPn(x) = n Pn+1 (x) + n Pn(x) + n Pn1 (x), (6.11) donde n = an , an+1 n = bn bn+1 , an an+1 n = cn n cn+1 bn an1 d2 n n = , an1 an1 an d 2 n1 (6.12)

siendo an , bn y cn los coecientes del desarrollo Pn(x) = anxn + bn xn1 + cn xn2 + , y dn es la norma de los polinomios. Generalmente se impone que P1(x) = 0 y P0(x) = 1, con lo que la sucesin de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones ( n)n , (n )n y (n )n. Para calcular los coecientes principales an y bn podemos usar la frmula de Rodrigues o (n1) (x) = Ann1 Bn n1 (x),de donde obtenemos la para la n 1-sima derivada de Pn: Pn e igualdad: (n1) Pn (x) = n!an x + (n 1)!bn = Ann1 Bn n1 (x). Luego, an = Bn Ann 1 = Bn [ + 2 (n + k 1) ], n! k=0
n1

bn =

nn1 (0) an . n1

(6.13)

Como un corolario de (6.11) se obtiene la conocida frmula de Christoel-Darboux: o Teorema 6.6 Si (Pn)n es una sucesin de polinomios ortogonales que satisface la relacin o o de recurrencia a tres trminos (6.11). Entonces se cumple que: e Pm (x)Pm (y) n Pn+1 (x)Pn(y) Pn+1 (y)Pn (x) , = 2 2 dm dn xy m=0
n

Kern (x, y)

n 1.

(6.14)

6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y x, obtenemos la frmula conuente de Christoel-Darboux: o Kern (x, x)
2 Pm (x) n = 2 [Pn+1 (x)Pn(x) Pn+1 (x)Pn(x)] 2 dm dn m=0 n

60

n 1.

(6.15)

De la frmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1. es un polinomio de grado exactamente uno. 2. Tomando m = 1 en la frmula (6.5) se deduce que o Pn(x) = nBn Pn1 (x), Bn1 (6.16)

donde Pn1 denota al polinomio ortogonal respecto a la funcin peso 1 (x) = (x)(x). o 3. Si escribimos la frmula (6.5) para el polinomio de grado n + 1 obtenemos una frmula o o de diferenciacin o (x)Pn(x) = n Bn Pn+1 (x) . n (x)Pn(x) nn Bn+1 (6.17)

de la cual se deduce una relacin de estructura o (x)Pn(x) = n Pn+1 (x) + n Pn (x) + n Pn1 (x), donde n = Bn n n n , nn Bn+1
P (x)

n 0, n n . n

(6.18)

n [n n + n (0)] , n = nn

n =

(6.19)

4. Si denimos Qn (x) n+1 , entonces los polinomios ortogonales mnicos Pn (x) = o n+1 xn + , soluciones de la ecuacin (6.1), satisfacen la siguiente relacin de estructura: o o Pn(x) = Qn + n Qn1 +
n Qn2 .

(6.20)

6.2.
6.2.1.

Los Polinomios de Hermite, Laguerre y Jacobi.


Parmetros Principales. a

Comenzaremos escribiendo los principales parmetros de las sucesiones de polinomios a ortogonales mnicos clsicos, es decir, tales que su coeciente principal an = 1, i.e., Pn (x) = o a xn + bn xn1 + . Estos se pueden clasicar en tres grandes familias en funcin del grado del o polinomio ( siempre es un polinomio de grado 1). Cuando es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x), cuando es de grado 1, Polinomios de Laguerre L (x) y cuando es de grado 2, Polinomios de Jacobi n , Pn (x), respectivamente. En las tablas 3 y 4 estn representados los principales parmetros a a de dichas familias, en las cuales (a)n denota al s mbolo de Pochhammer (6.30).

6 LOS POLINOMIOS ORTOGONALES CLASICOS

61

Tabla 3: Clasicacin de las SPO Clsicas. o a Pn(x) (x) (x) n (x) Hn(x) 1 2x 2n ex
2

L (x) n x

, Pn (x)

1 x2

x + + 1 ( + + 2)x + n x ex > 1 n(n + + + 1) (1 x) (1 + x) , > 1 (1 x)n+ (1 + x)n+

n (x)

ex

xn+ ex

6.2.2.

Representacin hipergeomtrica. o e

De la frmula de Rodrigues, o usando el mtodo de las series de potencias, (6.5) se o e puede obtener la representacin de los polinomios de Hermite, Laguerre y Jacobi en trminos o e de la funcin hipergeomtrica de Gauss 2 F1 denida en el caso ms general de forma: o e a
p Fq

a1, a2 , ..., ap x b1 , b2 , ..., bq

k=0

(a1)k (a2)k (ap)k xk . (b1)k (b2)k (bq )k k! 3 2 m


3 2

(6.21)

De esta manera encontramos que: H2m (x) = (1)m 1 2


1 F1 m

m
1 2

x2 , H2m+1 (x) = (1)m

x 1 F1
m

x2 , (6.22) (6.23) (6.24)

L (x) = n
, Pn (x) =

(1)n (n + + 1) 1 F1 ( + 1)

n x , +1

2n ( + 1)n 2 F1 (n + + + 1)n

n, n + + + 1 1 x . +1 2

6.2.3.

Casos particulares.

0,0 1. Los polinomios de Legendre Pn(x) = Pn (x).

2. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn


1 2 , 1 2

(x) =

1 2n1

cos[n arccos (x)].

3. Los polinomios de Chebyshev de segunda especie Un (x):


1 1 2 Un(x) = Pn 2 (x) =

1 sen[(n + 1) arccos (x)] . 2n sen[ arccos (x)]

4. Los polinomios de Gegenbauer G (x): n G (x) = Pn n


1 1 2 , 2

(x),

> 1. 2

6 LOS POLINOMIOS ORTOGONALES CLASICOS

62

Tabla 4: Parmetros de las SPO Mnicas (an = 1). a o


Pn (x) Bn Hn (x) (1)n 2n 0 n! 2n 1 0 n 2 0 0 n L (x) n (1)n
, Pn (x)

(1)n (n + + + 1)n n( ) 2n + + 2++2n+1 n!(n + + 1)(n + + 1) (n + + + 1)(2n + + + 1)(n + + + 1)2 n 1 2 2 (2n + + )(2n + 2 + + ) 4n(n + )(n + )(n + + ) (2n + + 1)(2n + + )2 (2n + + + 1) 2( )n(n + + + 1) (2n + + )(2n + 2 + + ) 4n(n + )(n + )(n + + )(n + + + 1) (2n + + 1)(2n + + )2 (2n + + + 1) 2n( ) (2n + + )(2n + 2 + + ) 4n(n 1)(n + )(n + ) (2n + + 1)(2n + + )2 (2n + + + 1) n

bn d2 n n n n n n n

n(n + ) (n + + 1)n! 1 2n + + 1 n(n + ) 0 n n(n + )

n
n

0 0

n 0

6.2.4.

Otras caracter sticas.

Como consecuencia de las frmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad. H2m (0) = (1)m (2m)! , 22m m! H2m+1 = 0, L (0) = n (1)n(n + + 1) , ( + 1)

2n ( + 1)n , Pn (1) = , (n + + + 1)n

(1)n 2n ( + 1)n , Pn (1) = . (n + + + 1)n

(6.25)

Utilizando la frmula (6.16) encontramos las ecuaciones ( = 1, 2, 3, ..., n = 0, 1, 2, ...): o (Hn(x))() = n! Hn (x), (n )!
, (Pn (x))() =

(L (x))() = n

n! L+ (x), (n )! n

(6.26) (6.27)

donde (Pn(x))() denota la sima derivada de Pn(x). e

n! +,+ Pn (x), (n )!

6 LOS POLINOMIOS ORTOGONALES CLASICOS

63

Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi, respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2), G (x) = P2m 2 2m
1 1 , 2

2 H2m+1 (x) = xLm (x2) , 1 1 2 , 1 2 (2x2 1), P m m 2

(x) =

(6.28)

1 1 , 1 x Pm 2 2 (2x2 1). 2m Adems, de la frmula de Rodrigues se puede encontrar la siguiente propiedad de simetr a o a para los polinomios de Jacobi:
2 G 2m+1 (x) = P2m+1 1 1 , 2

(x) =

, , Pn (x) = (1)nPn (x).

(6.29)

Apndice: La funcin Gamma de Euler e o Una de las funciones que con ms frecuencia encontraremos es la funcin Gamma de a o Euler o , denida, en general, mediante la integral de Euler (z) =
0

et tz1 dt,

(z) > 0.

Esta funcin fue denida por Euler en 1729 como l o mite de un producto de donde se puede deducir la integral anterior (considerada tambin por Euler en 1772) aunque su nombre e y notacin se deben a Legendre quien la estudi en detalle en 1814. En particular, Euler o o prob que o 1 (z) = z n=1

1 1+ n

1+

z n

= l m

1 2 (n 1) zn. n z(z + 1) (z + n 1) , sen z

Dicha funcin satisface las ecuaciones funcionales o (z + 1) = z(z), y adems, cumple la propiedad a (1 z)(z) =

12z 2 (2z). 1 a Utilizando las expresiones anteriores se concluye que ( 2 ) = . Adems, (z)(z + 1 ) = 2 (n + 1) = n! = n(n 1) (2)(1), n N.

a(x) = 1. Otra funcin muy relacionada con la o x b(x) funcin es el s o mbolo de Pochhammer (a)k (5.13) donde por a(x) b(x) entenderemos l m Es muy sencillo comprobar que (a)0 = 1, (a)k = a(a + 1)(a + 2) (a + k 1), k = 1, 2, 3, . . . . (a)k = (6.30)

La siguiente frmula asinttica de la funcin es de gran utilidad o o o 1 (ax + b) 2eax (ax)ax+b 2 , x >> 1,

(a + k) . (a) Finalmente, deniremos los coecientes binomiales n k = (1)k (n)k n! = . (n k)!k! k!

6 LOS POLINOMIOS ORTOGONALES CLASICOS

64

6.3.

Los momentos de los polinomios clsicos a

En este apartado vamos a considerar brevemente una forma de obtener una relacin para o los momentos. Teorema 6.7 Sea C. Se denen los momentos como
b

C, (z) =
a

(s z) (s)ds.

(6.31)

Si se cumple la condicin de frontera o


b

(s) (s)(s z)

= 0,
a

(6.32)

entonces los momentos generalizados verican la siguiente relacin de recurrencia a tres o trminos e 1 (z)C,1 (z) + [ (z) + (z)] C, (z) + + 2 C,+1 (z) = 0. (6.33)

En particular, para = 0, = p N, z = 0 obtenemos, de (6.33), la siguiente relacin o de recurrencia a dos trminos e 1 (0)Cp1 + [ (0) + p (0)]Cp + + p 2 para los momentos clsicos a Cp C0,p (0) =
a b

Cp+1 = 0.

(6.34)

sp (s)ds.

Vamos a aplicar los resultados anteriores a los polinomios clsicos. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.33) y (6.34). Ejemplo 6.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el mtodo anterior. e En el caso Laguerre tenemos que la relacin de recurrencia (6.34) es o ( + n + 1)Cn Cn1 = 0, luego Cn = ( + 1)nC0 , C0 =
0

x ex dx = ( + 1),

de donde deducimos que Cn = ( + n + 1). Finalmente, que usar (6.33) deducimos que, evidente ya que para los polinomios de Hermite tenemos que (0) = 0, as que tenemos cuando z = 0. Ello nos conduce a la relacin pCp1 2Cp+1 = 0. De ella o como C1 = 0, entonces todos los momentos impares son nulos, lo cual es la funcin peso es una funcin par. Adems, como C0 = , entonces o o a C2m = (2m 1)!! (2m)! = 2m , 2m 2 m! C2m+1 = 0.

6 LOS POLINOMIOS ORTOGONALES CLASICOS

65

6.4.

Las funciones generatrices

El objetivo de este apartado es encontrar las funciones generatrices de los polinomios clsicos. En general el problema se puede plantear como sigue: Dada una sucesin nmerica a o u (An )n y una sucesin de polinomios (Pn)n encontrar una funcin (x, t) tal que, o o (x, t) =
n=0

An Pn (x)tn.

(6.35)

Obviamente la serie anterior puede no converger prejado un valor cualquiera del parmetro a t, por ello asumiremos que t es lo sucientemente pequeo para que la serie converja en una n regin de las x lo sucientemente amplia. o Para los polinomios clsicos se tienen las siguientes identidades. a
n=0 n=0

2n 2 Hn (x)tn = e2xtt , n!

n=0

e 1t (1)n n Ln (x)t = , n! (1 t)+1

tx

(6.36)

2+ (1)n ( + + 1)n , Pn (x)tn = , n! R(1 2t + R) (1 + 2t + R)

(6.37)

con R =

1 + 4t(t + x).

Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. No obstante daremos la prueba de las mismas usando mtodos ms elementales. e a Comenzaremos con los polinomios de Hermite al ser stos los ms sencillos. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. Caso Hermite Hn (x): Primera prueba Sea (x, t) = e2xtt . Al ser esta funcin anal o tica en R podemos usar la serie de Taylor (x, t) = Pero tn luego e
n k=0
2

1 n!

n tn

tn .
t=0

=e
t=0

x2

n (xt)2

e tn

=
t=0

= xt d = dx =
n=0

(1) e

n x2

n 2

e n

=x

(1)n = Hn(x), Bn

2xtt2

2n Hn(x)tn. n!

Caso Hermite Hn (x): Segunda prueba Vamos a usar la relacin de recurrencia a tres trminos o e Hn+1 (x) + n Hn1 (x) xHn(x) = 0. 2

6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn1 (x)tn x Hn(x)tn = 0, n! (n 1)! n! o equivalentemente 2n1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn1 (x)tn1 2x Hn (x)tn = 0, t (n + 1)! (n 1)! n! y sumamos en n = 0 hasta y usamos que 1/(1)! = 0 y obtenemos t
n=0

66

2n1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn1 (x)tn1 2x Hn(x)tn = 0. (n + 1)! (n 1)! n! n=1 n=0
2n n n=0 n! Hn (x)t ,

Ahora bien, como (x, t) =

obtenemos la ecuacin o

(x, t) + 2(t x)(x, t) = 0, t cuya solucin es (x, t) = e2xtt . o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior, es decir a partir de la expresin expl o cita de la funcin generatr deducimos una relacin de recurreno z o cia para los correspondientes polinomios (en este caso los de Hermite). La razn fundamental o es que este mtodo es muy general y nos permitir probar el resto de las expresiones. e a o Sea la funcin generatr (x, t) = e2xtt que escribiremos mediante la expresin o z (x, t) =
n=0
2 2

2n gn (x)tn, n!

(6.38)

donde (gn)n es una sucesin de polinomios a determinar. o Un sencillo clculo nos muestra que a 2 (x, t) = (2x 2t)e2xtt = 2(x t)(x, t). t De aqu deducimos que (x, 0) = 1 y t(x, 0) = 2x, por tanto, usando el desarrollo en serie de Taylor en t para (x, t) y comparndolo con (6.38) deducimos que g0(x) = 1 y g1(x) = x. a Ahora sustituimos (6.38) en la ecuacin diferencial anterior lo que nos da o
n=0

2n 2n gn(x)ntn1 2(x t) gn(x)tn = 0, n! n! n=0

o, equivalentemente,
n=1

2n 2n+1 2n gn(x)tn1 2x gn(x)tn + gn(x)tn+1 = 0. (n 1)! n! n! n=0 n=0

6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coecientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) 2xg0(x) = 0, 2g2(x) 4xg1(x) + 2g0(x) = 0, 2gn+1 (x) 2xgn(x) + ngn1 (x) = 0.

67

Ahora bien, como g0(x) = 1 = H0(x) y g1(x) = x = H1(x), entonces comparando las relaciones anteriores con la relacin de recurrencia a tres trminos para los polinomios mnicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend amos probar.

6.5.

Problemas

Problema 6.9 Calcula todas las carcter a sticas de los polinomios clsicos que aparecen en a la tabla 4. Problema 6.10 Probar la ortogonalidad de las ksimas derivadas de los polinomios hie (k) pergeomtricos yk Pn , es decir, e
b (k) (k) Pn (x)Pm (x)k (x)dx = nm d2 . kn a

(6.39)

Problema 6.11 Prueba que los polinomios ncleos satisfacen la siguiente propiedad reprou ductora
b

p(x)Kern (x, y)dx = p(y),


a

p(x) Pn .

(6.40)

Problema 6.12 Encontrar la relacin de recurrencia para los momentos Cn := C0,n (0) de o los polinomios de Jacobi. Ntese que o 2++1 ( + 1)( + 1) C0 = (1 x) (1 + x) dx = . ( + + 2) 1
1

Hgase lo mismo pero para los momentos Cn := C0,n (1), es decir, si en vez de sustituir a en (6.33) z = 0 sustituimos el valor z = 1. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso = = 1/2. Encontrar la relacin de recurrencia para los momentos Cn := C0,n (0) en o este caso y resulvela. A partir de sta encuentra los momentos de los polinomios de Legendre e e 1 , 1 0,0 Pn(x) = Pn (x), los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los
1 1

polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x), respectivamente. Problema 6.13 Demuestra que la funcin generatr para los polinomios de Laguerre viene o z 1 , 1 dada por (6.36). Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. Prueba que en este caso 1 = (1 2xt + t2 )
n=0

2n ()n Cn (x)tn, n!

(6.41)

donde ()n es el s mbolo de Pocchamer. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre.

6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.14 Prueba las relaciones


,+1 Pn1 (x) = , (2n + + )(1 x) d Pn (2n + + ) , (x) + Pn (x), 2n( + n) dx 2( + n) , (2n + + )(x + 1) d Pn (2n + + ) , (x) Pn (x). 2n( + n) dx 2( + n)

68

(6.42)

+1, Pn1 (x) =

(6.43)

Problema 6.15 Los polinomios ncleos Ker n1 (x, y) se denen mediante la expresin u o Kern1 (x, y) = Pm (x)Pm(y) . d2 m m=0
n1

Usando la frmula de Christoel-Darboux (6.14), los valores en los extremos (6.25) y las o frmulas de diferenciacin (6.17), prueba las siguentes frmulas: o o o Ncleos de los polinomios de Hermite: u
1 (1)m1 H2m (x) (1)m1 2 KerH (x, 0) = Lm1 (x2) = , 2m1 (m 1)! 2 (m 1)! x

1 (1)m H2m (x) (1)m 2 , Lm (x2) = KerH (x, 0) = 2m (m)! (m)! x

KerH (0, 0) = 2m1

Ncleos de los polinomios de Laguerre: u KerL (x, 0) = n1

1 2 (m + 3 ) 2 (m + 2 ) (2m 1)! (2m + 1)! 2 , KerH (0, 0) = . = 2m2 = 2m 2m 2 (m) (m + 1) 2 (m 1)! 2 m!2

(1)n1 (L ) (x), n ( + 1)n!

KerL (0, 0) = n1

( + 1)n . ( + 2)(n 1)!

Ncleos de los polinomios de Jacobi: u


, d 1, , ,+1 KerJ,, (x, 1) = n dx Pn (x) = nn Pn1 (x), n1 , +1, ,1 , d (x) = n(1)n+1 n Pn1 (x), KerJ,, (x, 1) = (1)n+1 n dx Pn n1 , , donde por n y n denotaremos las cantidades , n =

(6.44) (6.45)

(1)n1 (2n + + ) , 2++n n!( + n)( + 1)

, n

(1)n1 (2n + + ) . 2++n n!( + 1)( + n)

Usando (6.44)-(6.45) tenemos KerJ,, (1, 1) = n1 ( + n + 1)( + + n + 1) , 2++1 (n 1)!( + 1)( + 2)( + n) (1)n1 ( + + n + 1) . 2++1 (n 1)!( + 1)( + 1)

KerJ,, (1, 1) = n1

Utilizando la relacin de simetr (6.29) para los polinomios de Jacobi prueba que o a
J,, KerJ,, (1, 1) = Kern1 (1, 1). n1

7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS

69

7.

El teorema de existencia y unicidad para las EDOs

Vamos a resolver uno de los problemas pendientes ms importantes: la existencia y unia cidad de soluciones para una EDO de primer orden. Sea el problema de valores iniciales y = f (x, y), y(x0 ) = y0 . (7.1)

En el apartado 2.7.1 de aproximaciones nmericas vimos algunos ejemplos donde la solucin u o o bien no era unica o bien no correspond con la solucin exacta. Vamos a dar aqu algunas a o condiciones bajo las cuales podemos garantizar que el PVI (7.1) tiene solucin unica. o Lo primero que asumiremos es que la funcin f (x, y) es continua en el rectngulo R o a denido por R = {(x, y) : |x x0| a, |y y0 | b}, a, b > 0. (7.2) Proposicin 7.1 El PVI (7.1) es equivalente a la siguiente ecuacin integral o o
x

y(x) = y0 +
x0

f (, y())d.

(7.3)

Denicin 7.2 Diremos que una funcin f (x, y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x, y) R y (x, z) R se cumple Es fcil comprobar que toda funcin f (x, y) de la clase de Lipschitz segn la denicin a o u o anterior es continua en y. Adems, una condicin suciente para que una funcin f (x, y) sea a o o de la clase de Lipschitz es que su derivada parcial f sea continua en R. y Denicin 7.3 Dada una funcin u(x) denida en un intervalo cerrado y acotado I R, o o deniremos la norma de u(x) a la cantidad u = sup |u(x)|.
xI

|f (x, y) f (x, z)| K|y z|.

(7.4)

Para la norma tenemos la desigualdad evidente u 0, y u = 0 si y slo si u(x) = 0 en o I. Adems, se tiene la desigualdad triangular a u+v u + v . Obviamente si u(x) es continua u < +. Proposicin 7.4 (Teorema de unicidad local de soluciones) o Sea f (x, y) una funcin de la clase de Lipschitz con constante K y sea d (0, 1/K). Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7.1) denidas en Id = {x : |x x0| < d} tales que y1 (x0) = y2 (x0) = y0 , entonces y1 (x) = y2(x) en todo Id . Sea M = mx |f (x, y)|. a (x,y)R Como f es continua en R, M siempre est denida. a Sea y0 (x) una funcin continua denida en un entorno de x0 tal que la imagen de y0 (x) o est contenida en R. Vamos a denir una sucesin de funciones yn (x) de la siguiente forma e o
x

(7.5)

yn+1 (x) = y0 +
x0

f (, yn ())d,

n = 0, 1, 2, . . . .

(7.6)

La sucesin anterior se conoce como sucesin de Picard. o o

7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS

70

Proposicin 7.5 Sea y0(x) una funcin continua denida en Id = {x : |x x0| < d = o o m n(a, b/M )} tal que su imagen est contenida en R. Entonces, para todo n 0, las imgenes e a de yn (x) estn contenidas en R. a Proposicin 7.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funcin continua denida en Id = {x : |x x0| < d = m o n(a, b/M, 1/K)} tal que su imagen est contenida en R, i.e., |y0 (x) y0 | b. Entonces, la sucesin de Picard e o (7.6) converge cuando n tiende a innito a una funcin y(x) que es solucin del PVI (7.1) o o en Id . Corolario 7.7 (Teorema local de existencia y unicidad) Sea el PVI (7.1) con f lipschitziana de constante K en R (7.2), y M = mx(x,y)R |f (x, y)|. a Entonces, el PVI (7.1) tiene solucin unica en el intervalo Id = {x : |x x0 | < d = o m n(a, b/M, 1/K)}, es decir existe una unica funcin y(x) tal que y (x) = f (x, y(x)) e o y(x0 ) = y0 . Los teoremas anteriores son slo condiciones sucientes. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su solucin existe y es unica en todo R (es la exponencial) o sin embargo si escogemos x R cualquiera y tomamos b > 0 cualquiera tenemos f (x, y) = y, luego f es lipschitziana con constante K = 1, M = b, y el teorema anterior nos garantiza slo la solucin en el intervalo Id = {x : |x x0| < d = m o o n(a, b/b, 1/1) = 1}. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. En este caso la solucin es y = tan x denida slo en [0, /2). Como f (x, y) = 1 + y 2 , entonces o o |f (x, y) f (x, z)| = y 2 z 2 = |y + z||y z|. Sea x R por ejemplo. Escojamos un valor cualquiera para y, digamos que |y| b > 0. Entonces K = 2b y M = 1 + b2 , por tanto d = m n(a, b/M, 1/K) = m n(a, b/(1 + b2 ), 1/b). 2 Ahora bien, mx b/(1 + b ) = 1/2 y se alcanza en b = 1, por lo que como mucho asegurar a que la solucin existe en el intervalo |x| < 1/2. Ntese que en este caso el teorema es util o o pues para x > 1/2 no nos garantiza la existencia de la solucin como ocurre en la prctica. o a El procedimiento anterior es fcilmente extensible a sistemas. Para ello basta denir una a norma en RN y el valor absoluto de un vector. Para este ultimo podemos usar la denicin o |Y (x)| = N |yk |. Si ahora usamos, por ejemplo, la norma k=1
N

=
k=1

yk ,

entonces las demostraciones anteriores se adaptan perfectamente para el caso general. Ntese o que con esta eleccin se tiene que si |Y (x)| M entonces Y N M . Las correspondientes o demostraciones se dejan como ejercicio.

7.1.

Problemas

Problema 7.8 Prueba las propiedades anteriores para la norma u . Problema 7.9 Sea la EDO y = x y 2 con y(0) = 0. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la solucin. Encuentra las tres primeras aproximacioo nes de la solucin. o

7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS

71

Problema 7.10 Prueba que la solucin de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y = y 2 + cos x2 , y(0) = 0, x [0, 1/2] 2. y = y 3 + e5x , y(0) = 2/5, x [0, 3/10] 3. y = x + y 2 , y(0) = 0, x [0, 1/2] Problema 7.11 Encuentra las tres primeras iteraciones de la sucesin de Picard para el o 2 x PVI y = y + e , y(0) = 0. Problema 7.12 Encuentra las cuatro primeras iteraciones de la sucesin de Picard para el o PVI y = 1 + y 2 , y(0) = 0. Compralas con la solucin exacta. a o

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace

Denicin 8.1 Sea f una funcin denida en [0, ). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =

etx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea


0 z

tx

f (x)dx = l m

etx f (x)dx.
0

Denicin 8.2 Diremos que una funcin f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| M ecx para todo x 0. Teorema 8.3 Si f es una funcin continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t sucientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace ms comunes incluida a la de la funcin escaln c (s) denida como 1 si x [0, c] y 0 en el resto. o o

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x1/2 c (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a ta a t2 + a 2 t 2 + a2 t a , t>a t2 a 2 t , t>a t2 a 2 , t>0 t ect , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposicin 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)f (0) = tF(t)f (0) y en general [f (n) ](t) = tn F(t) 2. [eax f (x)](t) = F(t a)

n1 k (nk1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = F (t) y en general, 4. [c (x)f (x c)] = ect F(t).

73

[xnf (x)](t) = (1)n F(n) (t).

5. Deniremos la convolucin de dos funciones f y g como la funcin h(x) = (f g)(x) o o denida por
x

(f g)(x) =

f (x z)g(z)dz.

(8.2)

Entonces, [(f g)(x)](t) = [f (x)](t) [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(x) y x sen(x). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + 2 )2 (t2 1 + 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la solucin de la EDO o y + 2 y = f0 sen(x), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3ex sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 /2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = /2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las tcnicas aprendidas en el cap e tulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuacin de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la solucin de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la solucin de la EDO anterior se puede expresar en serie como o Y(t) = c
n=0

(1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funcin y(x) solucin de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 3 2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las tcnicas aprendidas en el cap e tulo 3.

3 2 2 2

1 (x) 0

Y (0) =

A ANEXO: CALCULO DE PRIMITIVAS

75

A.

Anexo: Clculo de primitivas a

Denicin A.1 Se dice que una funcin F (x) es una primitiva de otra funcin f (x) sobre un o o o intervalo (a, b) si para todo x de (a, b) se tiene que F (x) = f (x). Por ejemplo, la funcin F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. Teorema A.2 Sean F1 (x) y F2 (x) dos primitivas de la funcin f (x) en (a, b). Entonces, para todo o x de (a, b), F1 (x) F2 (x) = const. Es decir dada una funcin f (x) sus primitivas dieren en una o constante (en adelante denotaremos por C a una constante cualquiera). Denicin A.3 El conjunto de todas las primitivas de una funcin f (x) denida en (a, b) se o o denomina integral indenida de f (x) y se denota por primitiva de f (x), f (x) dx = F (x) + C Mediante una simple derivacin es sencillo comprobar el siguiente o Teorema A.4 (Propiedades de la integral indenida.) 1. 2. 3. 4. d dx f (x) dx = f (x) (A.1) f (x) dx. De manera que, si F (x) es una

dF (x) = F (x) + C [f (x) g(x)] dx = [A f (x)] dx = A f (x) dx f (x) dx g(x) dx

Teorema A.5 Tabla de Integrales 1. 2. 3. 4. 5. 6. 7. 8. 0 dx = C 1 dx = x + C x dx = x+1 + C, +1 R, = 1

1 dx = log |x| + C x ax dx = ax + C, log a a > 0, a = 1

sen x dx = cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x

A ANEXO: CALCULO DE PRIMITIVAS


1 dx = cotan x + C sen2 x 1 dx = 1 x2 1 dx = 1 + x2 arc sen x + C arc cos x + C arctan x + C arcctg x + C x2 1 + C

76

9. 10. 11. 12. 13. 14. 15. 16. 17.

1 dx = log x + 21 x

x+1 1 1 dx = log +C 1 x2 2 x1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x

A.1.
A.1.1.

Mtodos de integracin. e o
Integracin por cambio de variable. o

Teorema A.6 Sea t = (x) una funcin derivable en x y sean X = (a, b) el dominio y T = [(a, b)] o la imagen de (x). Supongamos que sobre el conjunto T existe la primitiva de la funcin g(t), o o sea, g(t)dt = G(t) + C. Entonces sobre todo el conjunto (a, b) la funcin g[(x)] (x) tiene una primitiva y adems o a g[(x)] (x) dx = G[(x)] + C. Demostracin: Basta notar que (G[(x)]) = G [(x)] (x) = g[(x)] (x). o Ejemplo A.7 a) Calcular cos(2x) dx. Como la integral no es de la tabla es necesario convertirla en una de la

tabla. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = sen dx = ey dy = ey + C = ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2

ecos x sen x dx. Como la integral no es de la tabla es necesario convertirla en una de

A ANEXO: CALCULO DE PRIMITIVAS A.1.2. Integracin por partes. o

77

Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a, b) y existe la primitiva de la funcin v(x)u (x) en (a, b). Entonces, sobre (a, b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) o en forma diferencial u(x)dv(x) = u(x)v(x) v(x)du(x). (A.3) v(x)u (x) dx, (A.2)

Demostracin: Para probarlo es suciente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A.4. Ejemplo A.8 a) Calcular xn log x dx. Como la integral no es de la tabla es necesario convertirla en una de la
1 u(x) = log x, du(x) = x dx n+1 dv(x) = xn dx, v(x) = x n+1

tabla. Utilicemos la integracin por partes: o xn log x dx = xn+1 n+1 = xn+1 log x n+1 xn dx = n+1

log x

1 n+1

+C

b) Calcular I =

eax cos bx dx. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax , du(x) = aeax dx dv(x) = cos bx dx, v(x) = 1 sen bx b eax sen bx a b b

de la tabla. Utilicemos la integracin por partes: o I= eax cos bx dx = = eax sen bx dx.

La integral

eax sen bx dx es de la misma forma que la original as que volveremos a aplicar u(x) = eax , du(x) = aeax dx dv(x) = sen bx dx, u(x) = 1 cos bx b I= eax cos bx a + b b

integracin por partes: o eax sen bx dx = = eax cos bx dx.

Juntando las dos frmulas anteriores concluimos que o

eax sen bx a a2 + 2 eax cos bx 2 I, b b b de donde, resolviendo la ecuacin respecto a I obtenemos: o b sen bx + a cos bx ax e + C. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integracin por partes son: o 1. Las integrales donde aparezcan las funciones log x, arc sen x, arc cos x, log (x), potencias enteras de las funciones anteriores, entre otras donde tendremos que escoger como funcin o u(x) a alguna de las funciones anteriores (ver ejemplo a). Las integrales (ax + b)n sen cx dx, (ax + b)n cos cx dx y (ax + b)n ecx dx. Donde para

2.

encontrar las primitivas hay que utilizar la frmula de integracin por partes n veces tomando o o cada vez u(x) = (ax + b)n , u(x) = (ax + b)n1 , ...., respectivamente. 3. Las integrales de la forma eax sen bx dx, eax cos bx dx, sen(log x) dx y cos(log x) dx.

Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores, aplicar dos veces integracin por partes y resolver la ecuacin resultante respecto a I (ver o o ejemplo b).

A ANEXO: CALCULO DE PRIMITIVAS

78

A.2.

Integracin de funciones racionales. o

Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x), o sea, si n < m. Denicin A.9 Diremos que una funcin racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pnm (x) + , Qm (x) Qm (x) Teorema A.10 Supongamos que donde k < m.

Pn (x) es una fraccin simple, y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x x1 )n1 (x xp )np (x2 + p1 x + q1 )m1 (x2 + pk x + qk )mk , (A.4)

donde x1 , ..., xp son las races reales de Qm (x), y los factores x2 + pi x + qi , i = 1, .., k no tienen Pn (x) races reales. Entonces, la fraccin simple o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 1 A1 + + + + + (x x1 )n1 (x x1 )n1 1 (x x1 ) + Bn p Bnp 1 B1 + + + + + np np 1 (x xp ) (x xp ) (x xp )

(A.5)

M1 x + N 1 Mm x + N m1 + + 2 + + + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk , + + 2 mk + pk x + q k ) (x + pk x + qk )

donde Ai , Bi , Mi , Ni , Li y Ki son ciertas constantes reales. Para determinar dichas constantes sumamos los trminos de la derecha. Ntese que el denominador e o com n coincide con (A.4) y el numerador es un polinomio de grado a lo sumo n. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones ms simples en (A.5) con P n (x). a Igualando los coecientes de ambos obtendremos un sistema de n ecuaciones con n incgnitas o que podemos resolver para encontrar los coecientes indeterminados A i , Bi , Mi , Ni , Li y Ki . No obstante es posible encontrar el coeciente Ani de los sumandos correspondientes a uno de los ceros reales xi , o sea, el Ani de A ni Ani 1 A1 + + + , ni ni 1 (x xi ) (x xi ) (x xi ) utilizando la propiedad que
xxi

l m

Pn (x)(x xi )ni = A ni . Qm (x)

(A.6)

Como consecuencia de lo anterior, si Qm (x) tiene m ceros reales y simples, o sea, si su factorizacin o es de la forma Qn (x) = (x x1 )(x x2 ) (x xm1 )(x xm ), (A.7) entonces, Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am1 Am = + + + + , Qm (x) (x x1 ) (x x2 ) (x xm1 ) (x xm )

(A.8)

A ANEXO: CALCULO DE PRIMITIVAS


donde A1 ,..., Am se calculan por la frmula o Ak = l m
xxk

79

Pn (x)(x xk ) , Qm (x)

k = 1, 2, ..., m.
7

(A.9)

Teorema A.11 (Primitivas de las fracciones simples ms elementales) a 1) 2) A dx = A log |x a| + C; xa B 1 B dx = + C, k (x a) 1 k (x a)k1 k > 1;

(A.10)

3)

M 2N M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. 2 x2 + px + q 2 4q p 4q p2 x dx. Primero encontraremos las fracciones simples mas elementales: 3x + 2 x2 x x A B = = + . 3x + 2 (x 1)(x 2) x1 x2 x(x 2) = 2. (x 1)(x 2)

Ejemplo A.12 a) Calcular x2

Luego, utilizando (A.9) obtenemos A = l m x(x 1) = 1, (x 1)(x 2) 1 2 + x1 x2 B = l m

x1

x2

Finalmente, utilizando (A.10) obtenemos x dx = x2 3x + 2 a) Calcular dx = log |x 1| + 2 log |x 2| + C.

x dx. Primero encontraremos las fracciones simples mas elementales: (x 1)2 (x2 + 1) x (x 1)2 (x2 + 1) = = A B Cx + D + + 2 (x 1)2 x 1 x +1

A(x2 + 1) + B(x2 + 1)(x 1) + (Cx + D)(x 1)2 . (x 1)2 (x2 + 1)

Para encontrar los coecientes A, B, C, D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x 1) + (Cx + D)(x 1)2 . Dos polinomios de grado 3 son iguales si los coecientes de las potencias x 3 , x2 , x y x0 son iguales, por lo que igualando dichos coecientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A B 2C + D = 0 : B + C 2D = 1 : AB +D = 0
1 A= 2 B=0 C=0 D = 1 2

cuya solucin es o

Tambin es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n 1 valores iguales en n + 1 puntos dados son idnticamente iguales, es decir, si P n (xk ) = Qn (xk ) e para ciertos x1 , ..., xn+1 (distintos entre si), entonces Pn (x) Qn (x) para todo x R. En nuestro
7

Se supone que x2 + px + q no tiene ra reales. ces

A ANEXO: CALCULO DE PRIMITIVAS

80

ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los ms sencillos posibles: a
1 x=1: A= 2 x = 1 : 2A 4B 4C + 4D = 1 x=2: 5A + 5B + 2C + D = 2 x=0: AB +D = 0

cuya solucin es o

A= 1 2 B=0 C=0 1 D = 2

que coincide con la encontrada por el mtodo anterior. Luego, e x 1 dx = (x 1)2 (x2 + 1) 2 1 1 1 1 dx = arctan x + C. (x 1)2 x2 + 1 2(x 1) 2

A.3.

Integrales trigonomtricas. e
f (sen x, cos x) dx las cuales se

En este apartado vamos a estudiar las integrales de la forma t = tan x 2 sen x =

convierten en integrales racionales mediante la sustitucin trigonomtrica t = tan x , o e 2 2dt 1 + t2 1 t2 cos x = 1 + t2 dx = 2t 1 t2 , 1 + t2 1 + t2 2 dt, 1 + t2

f (sen x, cos x) dx =

2t 1 + t2

que es un integral de una funcin racional. o

Ejemplo A.13 Calcular la integral dx = sen x dx . sen x


2dt dx = 1+t2 2 cos x = 1t2 1+t

t = tan x 2 2t sen x = 1+t2

x dt = log |t| + C = log tan + C. t 2

Existen varios tipos de integrales trigonomtricas que se pueden racionalizar con cambios ms e a sencillos. Ellas son las siguientes: 1. 2. 3. f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = cos x f (sen x, cos x) dx, donde f (sen x, cos x) = f (sen x, cos x), cambio t = sen x f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = tan x

Ejemplo A.14 a) Calcular la integral dx = sen x dx . Esta integral es del tipo 1. Luego, sen x = 1 x 1+t dt = log +C = log tan +C. 2 1t 2 1t 2
x 2

dt t = cos x dx = 1t2 sen x = 1 t2 cos x = t

que coincide con el resultado obtenido al utilizar la sustitucin t = tan o

A ANEXO: CALCULO DE PRIMITIVAS

81

b) Calcular la integral

cos3 x dx. Esta integral es del tipo 2. Luego, sen3 x 1 +C. 1 t2 dt = t t3 +C = sen x 3 3

cos3 x dx =

dt t = sen x dx = 1t2 cos x = 1 t2 sen x = t

c) Calcular la integral

tan3 x dx. Esta integral es del tipo 3. Luego, t = tan x 1 cos x = 1+t2
dt dx = 1+t2 t sen x = 1+t2

tan3 x dx =

t3 dt = 1 + t2

t dt = 1 + t2

t2 1 tan2 x 1 tan2 x log(1 + t2 ) + C = log(1 + tan2 x) + C = + log | cos x| + C. 2 2 2 2 2

A.4.
y f x,

Integrales irracionales.
n

En este apartado vamos a estudiar las integrales de la forma


ax+b cx+d

dx.

f (x, x2 a2 ) dx,

f (x, a2 x2 ) dx

A.4.1.

Las integrales

f (x, x2 a2) dx y

f (x, a2 x2) dx.

Estas integrales irracionales se convierten en integrales trigonomtricas mediante los cambios: e 1. 2. 3. f (x, f (x, f (x, a2 x2 ) dx, cambio x = a sen t x2 a2 ) dx, cambio x = a sen t

x2 + a2 ) dx, cambio x = a tan t

Ejemplo A.15 a) Calcular la integral a2 x2 dx. Esta integral es del tipo 1. Luego, x = a sen t dx = a cos tdt = a2
2x a2

a2 x2 dx =

cos2 tdt =

a2 a2 t+ sen 2t + C, 2 4

pero, sen 2t = 2sent cos t = 2 sen t 1 sen2 t = a2 x2 dx = b) Calcular la integral x=

a2 x2 , por tanto a2 x2 + C.

a2 x x arc sen + 2 a 2

x2 a2 dx. Esta integral es del tipo 2. Luego, cos2 t dt = sen3 t y = cos t sen t = 1 y2 dt = dy cos t = y + C,
1y 2

= a2

a sen t = a2 x2 a2 dx = dx = a cos t dt sen2 t a2 y2 dt = (1y 2 )2 4

y1 1 1 1 a2 1 2y + +log dt = 2 2 2 (1y) (1y) (1+y) (1+y) 4 1y y+1

A ANEXO: CALCULO DE PRIMITIVAS


pero, y = cos t = x2 a2 dx 1 sen2 t = x2 a2
x2 a2 , x

82

por tanto x 2 a2 a2 log x + 2 x2 a2 +C.

x = 2

x x 2 a2 x a2 log +C = 2 a2 4 2 x+ x

c) Calcular la integral

x2 + a2 dx. Esta integral es del tipo 3. Luego, x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = dy 1 y 2 sen t = y + C,

x2

+ a2 dx

=a

1y 2

= a2

a2 1 dt = (1 y 2 )2 4
tan t 1+tan2 t

y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1y) (1y) (1+y) (1+y) 4 1y y1 =


x , x2 +a2

pero, y = sen t =

por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C.

x x2 + a2 dx = 2

a2 x x + x 2 + a2 x2 + a2 + log +C = 2 + a2 4 2 x x

A.4.2.

Las integrales

x,

ax + b cx + d

dx.

Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A.16 Calcular la integral dx . Esta integral se racionaliza con el cambio t = 3 x + 1. Luego, 3 1+ x+1 dx 3 dt t2 d t t= 3x+1 = 3 (t1)dt+3 = t(t2)+3 log(1+t)+C, =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 de donde, deshaciendo el cambio t = 3 x + 1, obtenemos 3 3 x + 1( 3 x + 1 2) + 3 log(1 + 3 x + 1) + C. 2 El clculo de primitivas es necesario para calcular integrales denidas de funciones continuas. a Teorema A.17 Teorema fundamental del clculo y Frmula de Newton-Leibniz. Sea f : [a, b] R a o continua en [a, b]. Entonces f tiene primitiva en [a, b] y una de ellas es la funcin o
x
n

x,

ax + b cx + d

dx,

ax+b cx+d .

F (x) =
c

f (t) dt,

c (a, b).

(A.11)

Adems, f (x) es integrable en [a, b] y a


b b

f (x) dx = (x)
a a

= (b) (a),

(A.12)

siendo (x) una primitiva cualquiera de f (x).

B ANEXO: ALGEBRA LINEAL

83

B.
B.1.

Anexo: Algebra lineal


Sistemas lineales y matrices.

Diremos que un sistema de n ecuaciones y m incgnitas es un sistema lineal si dicho sistema o tiene la forma: a11 x1 + a12 x2 + a13 x3 + + a1m xm = b1 a21 x1 + a22 x2 + a23 x3 + + a2m xm = b2 (B.1) . . . an1 x1 + an2 x2 + an3 x3 + + anm xm = bn Una matriz de dimensiones nm no es ms que una caja rectangular con n las y m columnas. a El sistema de ecuaciones (B.1) est completamente caracterizado por su matriz asociada que no a es ms que la matriz en cuya la i (i = 1, 2, ..., n) estn colocados los coecientes a ij (j = 1, 2, ..., m) a a y el trmino independiente bi correspondientes a la i-sima ecuacin del sistema (B.1). De esta forma e e o la matriz asociada al sistema (B.1) tendr la forma a a11 a12 a13 a1m b1 a21 a22 a23 a2m b2 (B.2) . . . . , . .. . . . . . . . . . . . an1 an2 an3 anm bn la matriz a13 a1m a23 a2m . . .. . . . . . an3 anm

se le denomina matriz de coecientes del sistema.

y se denomina matriz ampliada del sistema. A a11 a12 a21 a22 . . . . . . an1 an2

(B.3)

Un sistema lineal de la forma (B.1) es compatible si existen los valores de x 1 , x2 , ..., xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B.1). Si existen dichos valores diremos que el sistema tiene solucin. Si un sistema lineal de la forma (B.1) no tiene solucin decimos que es o o un sistema incompatible. Un sistema compatible que tiene una unica solucin se llama determinado o y si tiene innitas soluciones indeterminado. Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. 2. 3. Intercambiar dos ecuaciones. Multiplicar por una constante no nula una ecuacin cualquiera. o Reemplazar una ecuacin por la suma de sta mas un m ltiplo de cualquier otra ecuacin. o e u o

Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su anlogo al operar con las matrices. De forma que a cada una a le corresponden las siguientes operaciones por las 1. 2. Intercambiar dos las. Multiplicar por una constante no nula una la cualquiera.

B ANEXO: ALGEBRA LINEAL


3.

84

Reemplazar una la por la suma de sta mas un m ltiplo de cualquier otra la. e u

Las operaciones anteriores se denominan operaciones elementales de las. Diremos que dos matrices son equivalentes por las si a cualquiera de ellas la podemos transformar en la otra utilizando slo operaciones elementales de las. Es importante recordar que las o operaciones elementales de las son reversibles y por tanto las operaciones elementales descritas no cambian la solucin del sistema original de ecuaciones. o

B.2.

Formas escalonadas y el algoritmo de reduccin por las. o

En adelante diremos que una la es una la no nula si tiene al menos un elemento diferente de cero. Deniremos elemento gu de una la al primer elemento (por la izquierda) no nulo de la la. a Diremos que una matriz est en forma escalonada si: a 1. 2. 3. Todas las las no nulas estn por encima de las nulas. a El elemento gua de cada la se encuentra siempre en una columna a la derecha del elemento gu de la la anterior. a Debajo de cada elemento gu slo puede haber ceros. a o t picamente la forma: 0 , 0 0 0 0 0 0

denota a los elementos gu de cada la. Si exigimos ahora que los elementos gu as as donde sean todos iguales a 1, y que adems sean los unicos elementos diferentes de cero de la columna a entonces diremos que la matriz escalonada est en forma reducida. Utilizando las formas escalonadas a anteriores (B.4) tenemos que sus correspondientes formas reducidas son: 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 1 0 , 0 0 1 0 0 . (B.5) 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de la en una matriz con forma escalonada no teniendo siempre sta ultima una forma unica. Por el contrario las e formas escalonadas reducidas son unicas, es decir se cumple el siguiente teorema: Teorema B.1 Cualquier matriz es equivalente por las a una unica matriz con forma escalonada reducida. Una consecuencia del teorema anterior es que los elementos gu estn siempre en la misma as a posicin en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de la. Dichas posiciones se denominan pivotes y las columnas donde se

Las matrices escalonadas tienen 0 0 0 0 0 0 0 0 0 0

0 0 0 0

0 0 0

0 0

(B.4)

B ANEXO: ALGEBRA LINEAL

85

encuentran se denominan columnas pivotes. As por ejemplo , pivote 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 columnas pivote Algoritmo de reduccin por las. o El algoritmo de reduccin por las consta de dos fases (partes). La primera consiste en transo formar una matriz cualquiera en una equivalente por las con forma escalonada. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. La segunda parte consiste en transformar la forma escalonada en la forma reducida. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. Este proceso consta de cuatro pasos: 1. 2. 3. 4. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. Este ser el primer pivote. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando, si es preciso, las las de la matriz hasta que dicho elemento se encuentre en la posicin de pivote. o Utilizando las operaciones elementales de las crear ceros debajo del pivote. Tapamos la la (o las si hay ms de una) con la posicin pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las las restantes). Este paso se repite hasta que no queden ms las no nulas. a

(B.6)

Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. Este proceso consta del siguiente paso: 5. Comenzando por el primer pivote de la derecha creamos, mediante operaciones elementales de las, ceros encima del mismo. Si el pivote no es uno dividimos por su valor para que lo sea. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda.

B.3.

Solucin de un sistema de ecuaciones lineales. o

La solucin de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Para ello primero transformamos la matriz en una equivalente por las que tenga forma escalonada o escalonada reducida. Las variables correspondientes a las columnas pivote se denominan variables principales o bsicas. El resto de las variables se denominan variables libres. a El signicado de una variable libre es que dicha variable puede tomar cualquier valor. La solucin o de un sistema viene dada al escribir el valor de las variables principales, las cuales pueden venir expresadas en funcin de las variables libres. o

B ANEXO: ALGEBRA LINEAL

86

Por ejemplo, consideremos la matriz del sistema (B.6). Dicha matriz representa un sistema de 5 ecuaciones con 6 incgnitas. Las variables principales sern x 1 , x2 , x5 , x6 y las libres x3 , x4 . De o a la forma de la matriz observamos que x5 , x6 estn completamente determinados por los trminos a e independientes (recordar que la ultima columna est compuesta por los trminos independientes a e de las ecuaciones) pero x1 , x2 dependen tanto de los trminos independiente como de las variables e libres x3 , x4 . Es decir jando diferentes valores de x3 , x4 obtenemos diferentes valores de x1 , x2 . Por ejemplo, el sistema (x1 depende de la variable libre x3 ) 1 0 5 1 x1 = 1 + 5x3 0 1 0 4 tiene la solucin o x2 = 4 (B.7) x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B.2 Un sistema de ecuaciones lineales en compatible si y slo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote, o sea, no existe ninguna la de la forma (0 0 0 0 ) con diferente de cero. Si el sistema es compatible entonces tiene solucin unica (sistema compatible determinado) si no hay ninguna variable libre y tiene innitas o soluciones (sistema compatible indeterminado) si existe al menos una variable libre. Por ejemplo, los sistemas correspondientes a las dos matrices (B.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). Por el contrario el sistema correspondiente a la matriz 0 0 0 0 0 (B.8) , 0 0 0 0 0 0 0 0 0 0 0 0 0

es incompatible al ser la ultima columna una columna pivote, o lo que es igual, al tener la la (0 0 0 0 ) (recordar que denotaba al elemento gu que por denicin es diferente de cero). a o

B.4.
B.4.1.

Vectores y ecuaciones matriciales.


Vectores de Rn
Un vector de Rn no es ms que un conjunto de n n meros ordenados de la forma a u x1 x2 x = . , donde x1 , ..., xn son n meros reales. u . . xn

es decir un vector es una matriz de componentes) del vector x. Diremos iguales, o sea x1 x2 x=y . . .

n 1. Los valores x1 , ..., xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son y1 y2 . . . yn

xn

Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.

x1 = y1 , ..., xn = yn .

B ANEXO: ALGEBRA LINEAL B.4.2. Operaciones con vectores.

87

Dichas operaciones cumplen las propiedades 1. 2. 3. 4. 5. 6. 7. 8. x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x

y deniremos la multiplicacin de un vector x por un escalar (n mero) al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por , o sea, w1 x1 w2 x2 w = x = . = . . . . . . wn xn

Sean x, y, z, w vectores de Rn y , n meros reales. Deniremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y, o sea, x1 + y1 y1 x1 z1 z2 x 2 y 2 x 2 + y 2 z = x+y = , . = . + . = . . . . . . . . . zn xn yn xn + yn

x + (x) = (x) + x = 0 donde (x) denota al vector (1) x (x + y) = x + y ( + )x = x + x (x) = ()x 1x = x

Diremos que un vector x de Rm es combinacin lineal de los vectores a1 , a2 , ..., an de Rm con o pesos 1 , ..., n , n meros reales, respectivamente si x se expresa de la forma u x = 1 a1 + 2 a2 + + n an . Deniremos espacio generado por los vectores a1 , a2 , ..., an de Rm y lo denotaremos como span (a1 , ..., an ) = L(a1 , ..., an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 , a2 , ..., an , es decir, al conjunto de todos los vectores de la forma L(a1 , ..., an ) = span (a1 , ..., an ) = 1 a1 + 2 a2 + + n an , quienes quiera sean 1 , ..., n n meros reales. u Deniremos una ecuacin vectorial a la ecuacin de la forma o o x1 a1 + x2 a2 + + xn an = b, donde b es un vector dado de Rm y x1 , x2 , ..., xn son las incgnitas que se quieren encontrar. Es fcil o a comprobar que la ecuacin vectorial anterior tiene la misma solucin que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 an b]. Adems b est en span (a1 , ..., an ) si y slo si el sistema [a1 a2 an b] es compatible. a a o

B ANEXO: ALGEBRA LINEAL B.4.3. La ecuacin Ax = b. o

88

Sea A una matriz m n con columnas a1 , a2 , ..., an (vectores de Rm ) y x un vector de Rn . Deniremos la multiplicacin de una matriz A de m n por un vector x de R n al vector z de Rm o denido por x1 x2 z = Ax = [a1 a2 an ] . = x1 a1 + x2 a2 + + xn an . . . xn Teorema B.3 Sea A una matriz mn con columnas a1 , a2 , ..., an y b un vector de Rm . La ecuacin o matricial Ax = b

tiene la misma solucin que la ecuacin vectorial o o x1 a1 + x2 a2 + + xn an = b, la cual a su vez tiene la misma solucin que el sistema cuya matriz ampliada tiene la forma o [a1 a2 an b].

Una consecuencia de este teorema es que la ecuacin A x = b tiene solucin si y slo si b es una o o o combinacin lineal de las columnas de A. o Teorema B.4 Sea A una matriz mn con columnas a1 , a2 , ..., an . Las siguientes tres armaciones son equivalentes: 1) Para todo b vector de Rm , la ecuacin A x = b tiene solucin. o o 2) Las columnas de A generan Rm , o sea, Rm = Span(a1, a2 , ..., an ). 3) A tiene una posicin pivote en cada la. o Regla para el clculo de Ax. Para calcular la isima componente del vector Ax (si ste a e e est denido) tenemos que sumar los productos de la isima la de A por las coordenadas de x, a e o sea, a11 a12 a13 a1n x1 a11 x1 + a12 x2 + + a1n xn a21 a22 a23 a2n x2 a21 x1 + a22 x2 + + a2n xn . . . . . = . .. . . . . . . . . . . . . . am1 am2 am3 amn xn am1 x1 + am2 x2 + + amn xn

Teorema B.5 Sea A una matriz m n con columnas a1 , a2 , ..., an , x, y vectores de Rn y un nmero real cualquiera. Las siguientes propiedades son vlidas: u a 1) A (x + y) = A x + A y, 2) A( x) = (A x)

B ANEXO: ALGEBRA LINEAL B.4.4.

89

Conjunto solucin de los sistemas lineales. o

Todo sistema lineal de m ecuaciones con n incgnitas se puede escribir en forma matricial o A x = b donde la matriz de coecientes A es una matriz m n, x es un vector de R n y b es un vector de Rm .

1.

El sistema lineal A x = 0 se denomina sistema homogneo. Dicho sistema siempre tiene la e solucin trivial x = 0. Adems se cumple que el sistema homogneo tiene soluciones no trio a e viales si y slo si el sistema tiene al menos una variable libre, o sea la matriz A tiene al menos o una columna que no es pivote. El conjunto solucin de un sistema homogneo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 , s2 , ..., sp cuyo n mero coincide con el de las u variables libres del sistema. Para obtener los vectores s1 , s2 , ..., sp se puede hacer lo siguiente: 1) Escribir el vector solucin x expresando las variables principales en funcin de las libres. o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dems por cero. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dems por cero. Y as sucesivamente. a Por ejemplo si la solucin x de A x = 0 viene dada por (dos variables libres x 2 , x3 ) o 3 3 1 1 x1 x 2 x3 2 2 2 2 , entonces x2 = x2 1 +x3 0 x2 x3 x3 0 1
s1 s2

2.

El sistema lineal A x = b con b = 0 se denomina sistema no homogneo. e Teorema B.6 Supongamos que A x = b tiene solucin para cierto b de R m . Sea p una o solucin de A x = b (solucin particular). Entonces el conjunto solucin del sistema no o o o m homogneo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh , donde xh es la solucin general del sistema homogneo correspondiente A x h = 0. o e (B.9)

B.4.5.

Dependencia e independencia lineal.

Un conjunto de vectores a1 , a2 , ..., an de Rn se denomina linealmente independiente si la ecuacin vectorial o x1 a1 + x2 a2 + + xn an = 0, tiene como unica solucin la trivial x1 = = xn = 0. o Un conjunto de vectores a1 , a2 , ..., an se denomina linealmente dependiente si existen los valores x1 , x2 , , xn no todos iguales a cero tales que se verique la ecuacin vectorial o x1 a1 + x2 a2 + + xn an = 0. Teorema B.7 Un conjunto S = {a1 , a2 , ..., ap } de dos o ms vectores es linealmente dependiente a si y slo si al menos uno de los vectores del conjunto es combinacin lineal de los dems. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y slo si son proporcionales, es decir, si o existe un n mero real tal que a1 = a2 o a2 = a1 . u

B ANEXO: ALGEBRA LINEAL

90

2) Si a1 , a2 , ..., an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinacin lineal de los anteriores, es decir, o aj = x1 a1 + x2 + a2 + + xj1 aj1 . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 , a2 , ..., an necesariamente cada vector es combinacin de los anteriores. o Teorema B.8 Un conjunto S = {a1 , a2 , ..., an } de dos o ms vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. Teorema B.9 Un conjunto S = {a1 , a2 , ..., an } de dos o ms vectores de Rm con alguno de los a vectores ai = 0 (1 i n) es necesariamente un conjunto de vectores linealmente dependientes, o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes.

B.5.

Algebra de matrices.

Vamos a estudiar las operaciones elementales de las matrices. El elemento a ij de una matriz A es el que se encuentra situado en la intercepcin de la la i con la columna j: o columna j a1j a1n a2j a2n . . . .. . . . . . . . aij ain . . . .. . . . . . . . amj amn

la i ai1 ai2 . . . . . . am1 am2

a11 a21 . . .

a12 a22 . . .

(B.10)

B.5.1.

Suma de matrices y multiplicacin por un escalar. o

o en trminos de los elementos matriciales: C ||cij || = ||aij +bij ||. Sea un n mero real cualquiera e u y A = [a1 a2 an ] una matriz de m n. Deniremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por , es decir: A = [a1 a2 an ] = [a1 a2 an ], o bien A ||aij || = || aij ||. Teorema B.10 Sean A, B y C matrices de m n y , nmeros reales. Entonces: u 1. 2. 3. 4. 5. 6. A + B = B + A. (A + B) + C = A + (B + C). A + 0 = 0 + A = A, donde 0 ||0|| es la matriz nula. (A + B) = A + B. ( + )A = A + A. ( A) = ( ) A.

Sean A = [a1 a2 an ] y B = [b1 b2 bn ] matrices de dimensiones mn, donde a1 , a2 , ..., an y b1 , b2 , ..., bn son vectores de Rm . Deniremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B, es decir: C = A + B = [a1 a2 an ] + [b1 b2 bn ] = [a1 + b1 a2 + b2 an + bn ],

B ANEXO: ALGEBRA LINEAL B.5.2. Multiplicacin de matrices. o

91

Sea A = [a1 a2 an ] matriz de m n y B = [b1 b2 bp ] de n p. Se dene la matriz producto C = A B a la matriz de m p denida por: A B = A[b1 b2 bp ] = [Ab1 Ab2 Abp ], o elemento a elemento: ||(A B)ij || =
n n

(B.11)

aik bkj .
k=1

Ntese que cada columna de A B es una combinacin lineal de las columnas de A: o o


n n

A B = [Ab1 Ab2 Abp ] = [

bk1 ak
k=1 k=1

bk2 ak

bkp ak ].
k=1

Una interpretacin de la multiplicacin de matrices se puede dar a partir de la composicin de las o o o n m aplicaciones lineales: Sea T : R R una aplicacin lineal con matriz A de mn y S : Rp Rn o una aplicacin lineal con matriz B de n p, entonces a la aplicacin Q : R p Rm denida por o o Q(x) = T (S(x)) (composicin de T y S) le corresponde la matriz A B de m p. o Teorema B.11 Sean A de m n, B y C matrices de dimensiones apropiadas para que estn e denidas las operaciones y , nmeros reales. Entonces: u 1. 2. 3. 4. 5. 6. (A B) C = A (B C). A 0 = 0 A = 0, donde 0 ||0|| es la matriz nula. A (B + C) = A B + A C. (B + C) A = B A + C A. (A B) = ( A) B. Im A = A In = A, donde Ik es la matriz identidad de k k.

Es importante recordar que la multiplicacin de matrices no es conmutativa, es decir para cualo quiera sean las matrices A y B tenemos que A B = B A . Si A es una matriz cuadrada n n y k es un n mero entero no negativo (k = 0, 1, 2, ...), u deniremos la potencia k sima de A por la frmula e o Ak = A A A In , k veces donde A0 In .

B.5.3.

Transposicin de matrices. o

Dada una matriz A de m n, la matriz transpuesta de A, que denotaremos por A T , es la matriz de n m cuyas las coinciden con las columnas de A. Si A = ||a ij ||, entonces AT = ||aji ||. Teorema B.12 Sean A de mn, B una matriz de dimensiones apropiadas para que estn denidas e las operaciones y un nmero real. Entonces: u 1. 2. 3. 4. (AT )T = A. (A + B)T = AT + B T . ( A)T = AT . (A B)T = B T AT . (A1 A2 An )T = AT AT AT . 1 n1 n

Como consecuencia de este teorema tenemos que

B ANEXO: ALGEBRA LINEAL B.5.4. La inversa de una matriz cuadrada.

92

Sea A una matriz de n n. Si existe una matriz C tal que A C = In , C A = In ,

entonces a C se le denomina matriz inversa de A y se le denota A 1 . Las matrices A para las cuales existe la inversa A1 se denominan invertibles. Si A es invertible entonces A1 es unica. Teorema B.13 Sea A una matriz cuadrada de 2 2 invertible A= a b c d , entonces A1 = 1 ad bc d b c a .

El n mero ad bc se llama determinante de la matriz A de 2 2 y se le denota por det A. Ntese u o que una matriz A de 2 2 tiene inversa si y slo si det A = 0. o Teorema B.14 Sea A una matriz cuadrada de n n invertible. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n , y su solucin se expresa por la frmula o o 1 b. x=A Teorema B.15 Sean A y B matrices cuadradas de n n invertibles. Entonces: 1. 2. 3. (A1 )1 = A. (A B)1 = B 1 A1 . AT es invertible y (AT )1 = (A1 )T .

Como consecuencia de este teorema tenemos que (A1 A2 An )1 = A1 A1 A1 . n n1 1

B.5.5.

Matrices elementales.

Una matriz elemental de n n es aquella que se obtiene al realizar una operacin elemental o de las sobre la matriz identidad de n n, es decir son las que se obtienen al intercambiar dos las, al multiplicar por una constante no nula una la cualquiera y al reemplazar una la por la suma de sta mas una combinacin lineal de cualquier otra. Por ejemplo, la matriz elemental e o correspondiente al intercambio de la 1 y 2 las de una matriz de 3 3 ser a 0 1 0 1 0 0 , E1 = 0 0 1 la que corresponde a cambiar la 3 la por la 3 ms a 1 0 0 1 E2 = 0 veces la primera ser a 0 0 , 1

y la que multiplica la 2 la por el n mero ser u a 1 0 0 E3 = 0 0 . 0 0 1

Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 p la matriz E1 A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 las.

B ANEXO: ALGEBRA LINEAL

93

Anlogamente, E2 A coincide con la matriz que se obtiene de A al cambiar la 3 la por la 3 ms a a veces la 1 la y E3 A coincide con la matriz que se obtiene al multiplicar por la 2 la. Es decir al multiplicar una matriz elemental E de m m por A de m n se obtiene una nueva matriz E A que coincide con la matriz que se se obtiene al realizar la operacin elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m m la misma operacin elemental que o se quiere realizar sobre A. Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operacin inversa. Por ejemplo, la inversa de E1 es E1 . La inversa de E2 es o 1 0 0 1 E2 = 0 1 0 , 0 1 y la de E3 es 1 E3 = 0 1 0 0 1 0 0 1 0 .

Teorema B.16 Una matriz cuadrada A de n n es invertible si y slo si A es equivalente por o las a la matriz identidad In de n n en cuyo caso toda secuencia de operaciones elementales que reducen A a In , reducen In a A1 . Ello implica que A Ek Ek1 E1 A = In . Luego A = (Ek Ek1 E1 )1 lo cual implica que A1 = Ek Ek1 E1 In . Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A 1 : Dada la matriz A de n n invertible: 1. 2. Construimos la matriz [A In ]. Reducimos por las la matriz A a In , entonces [A In ] [In A1 ].

Ntese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A B = I, o sea, A[b1 bn ] = [A b1 A bn ] = [e1 en ] = In . Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 , A b 2 = e2 , A b n = en , donde e1 , ..., en son las columnas de la matriz identidad.

Teorema B.17 (Teorema de inversin de matrices) Sea A una matriz cuadrada A de n n. Las o siguientes expresiones son equivalentes: 1. 2. 3. 4. 5. 6. 7. A es invertible. A es equivalente por las a la matriz identidad In de n n. (A tiene n posiciones pivote) A es un producto de matrices elementales. La ecuacin A x = 0 solo tiene la solucin trivial. (Las columnas de A son linealmente o o independientes.) La ecuacin A x = b tiene al menos una solucin para cada b vector de R n , o sea, b es un o o elemento del subespacio generado por las columnas de A (la solucin de A x = b es unica). o Existe un C tal que A C = I. Existe un D tal que D A = I.

B ANEXO: ALGEBRA LINEAL


8. AT es invertible.

94

Una consecuencia de este teorema es que si A B = I o B A = I, entonces A y B son invertibles y A = B 1 , B = A1 .

B.6.
B.6.1.

Determinantes.
Denicin de determinante de una matriz cuadrada. o
Sea A una matriz cuadrada columna j a1j1 a1j a2j1 a2j . . . . . .

Sea A una matriz nn (n 2). El determinante det A de la matriz A es la suma de los trminos e a1j det A1j donde a1j son los elementos de la primera la de A y A1j son las correspondientes submatrices obtenidas eliminando la la 1 y la columna j. Ms exactamente: a det A = a11 det A11 a12 det A12 + + a1n (1)n+1 det A1n , donde suponemos que det a = a si a es un n mero real cualquiera. u Utilizando la denicin anterior obtenemos para una matriz 2 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 a21 a12 , (B.13)

Denotaremos por Aij a la submatriz que j, o sea a11 a12 . . . . . . ai11 ai12 Aij = ai+11 ai+12 . . . . . . an1 an2

ai11 ai12 ai2 la i ai1 a i+11 ai+12 . . . . . . an1 an2

a11 a21 . . .

a12 a22 . . .

.. .

a1j+1 a2j+1 . . .

.. .

a1n a2n . . .

ai1j1 ai1j aij1 aij ai+1j1 ai+1j . . .. . . . . . anj1 anj

ai1j+1 ai1n aij+1 ain ai+1j+1 ai+1n . . .. . . . . . anj+1 ann a1n . .. . . . ai1n ai+1n . . . . . . ann

se obtiene a partir de A si quitamos la la i y la columna a1j1 a1j+1 . . .. . . . . . ai1j1 ai1j+1 ai+1j1 ai+1j+1 . .. .. . . . . anj1 anj+1 .

(B.12)

que coincide con el determinante denido en el cap tulo anterior (teorema B.13). Usualmente a la cantidad (1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . Utilizando esta notacin tenemos que la denicin anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + + a1n C1n , que se conoce como desarrollo del determinante de A por su primera la.

B ANEXO: ALGEBRA LINEAL


Teorema B.18 Si A es de n n entonces:

95

det A = ai1 Ci1 + ai2 Ci2 + + ain Cin . Las dos frmulas anteriores se conocen como desarrollo del determinante de A por su isima la o e y desarrollo del determinante de A por su jsima columna, respectivamente. e Teorema B.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal, o sea, det A = a11 a22 ann det A = a1j C1j + a2j C2j + + anj Cnj .

B.6.2.

Propiedades de los determinantes.

Los dos teoremas que enunciaremos a continuacin son los ms importantes de este apartado o a y nos permitirn calcular los determinantes de matrices de orden alto (n 4) de manera eciente. a Teorema B.20 Sea A una matriz n n. Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de las y sea E la matriz elemental que realiza dicha operacin. Por ejemplo, o 1. 2. 3. Si E1 es la matriz que intercambia dos las, la matriz B = E1 A se obtiene al intercambiar dos las de A. Si E2 es la matriz que multiplica por una constante r no nula una la cualquiera, la matriz B = E2 A se obtiene al multiplicar por r la correspondiente la de A.

Si E3 es la matriz que reemplaza una la por la suma de sta mas un mltiplo de cualquier e u otra la, la matriz B = E3 A se obtiene al reemplazar una la de A por la suma de sta e mas un mltiplo de cualquier otra la. u 1 si E es del tipo E1 r si E es del tipo E2 Adems, si a Entonces, det B = det(E A) = det A donde = 1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1, entonces det E = , es decir el determinante de cualquier matriz elemental vale o 1 o r o 1 en dependencia si dicha matriz es del tipo E 1 , E2 o E3 , respectivamente. Como consecuencia del teorema anterior tenemos que si una la es m ltiplo de un n mero r u u entonces tenemos: a11 . . . a12 . . . a1n . .. . . . r ain . .. . . . ann a11 . . . =r ai1 . . . an1 a12 a1n . . .. . . . . . ai2 ain . . . .. . . . . . an2 ann

r ai1 r ai2 . . . . . . an1 an2

En particular si una la de A es nula, det A = 0 y si una la de A es proporcional a otra det A = 0. Teorema B.21 Sea A una matriz n n y sea AT su traspuesta, entonces det A = det AT . Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra las por columnas. Es conocido de apartados anteriores que cualquier matriz A se puede, mediante transformaciones elementales, transformar en una matriz triangular superior U (forma escalonada). Adems si resulta a que la matriz A tiene n las pivote entonces el determinante de A ser proporcional al det U . Luego, a si tenemos n las pivote todos los pivotes son distintos de cero y det A = 0. Pero si A tiene n las pivote entonces A es invertible. Este razonamiento nos conduce al siguiente teorema.

B ANEXO: ALGEBRA LINEAL

96

Teorema B.22 Una A n n es invertible si y slo si det A es diferente de cero. o Teorema B.23 Sean A y B matrices n n. Entonces det(A B) = (det A) (det B).

B.6.3.

Regla de Kramer.

Sea A una matriz n n y b un vector cualquiera de R n . Denotaremos por Aj (b) a la matriz en la cual la j sima columna de A est reemplazada por el vector b, es decir si A y b son e a b1 a11 a1j1 a1j a1j+1 a1n . . . . . . .. .. . . . . . . . . . . . . . . A = ai1 aij1 aij aij+1 ain , b = bi , . . . . . . .. .. . . . . . . . . . . . . . . bn an1 anj1 anj anj+1 ann entonces Aj (b) es la matriz a11 a1j1 b1 a1j+1 a1n . . . . . .. .. . . . . . . . . . . . . ai1 aij1 bi aij+1 ain Aj (b) = . . . . . .. .. . . . . . . . . . . . . an1 anj1 bn anj+1 ann Teorema B.24 Sea A a11 . . . ai1 . . . an1 matriz n n invertible. Entonces para todo a1j1 a1j a1j+1 a1n x1 . . . . . .. .. . . . . . . . . . . . . aij1 aij aij+1 ain xi . . . . . .. .. . . . . . . . . . . . . anj1 anj anj+1 ann xn
A x

b de R n el sistema b1 . . . = bi , . . . bn
b

es compatible y tiene una unica solucin que viene dada por o x1 = det A1 (b) , det A x2 = det A2 (b) , det A , xn = det An (b) . det A

Es importante tener en cuenta que este mtodo es ineciente para calcular la solucin de sistemas e o de ms de 3 ecuaciones pues en el estn involucrados determinantes. Es recomendable resolver los a a sistemas por el mtodo de reduccin de las descrito en la primera parte del curso (ver Algoritmo e o de reduccin por las). o Finalmente, recordemos que invertir una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 , A b 2 = e2 , A b n = en , donde e1 , ..., en son las columnas de la matriz identidad. Por tanto para calcular la jsima columna e de A1 tenemos que resolver el sistema A x = ej cuya solucin es, seg n la regla de Kramer, o u det A1 (ej ) det An (ej ) x1 = , , xn = , pero det A det A det A1 (ej ) = (1)1+j det Aj1 = Cj1 , , det An (ej ) = (1)n+j det Ajn = Cjn ,

B ANEXO: ALGEBRA LINEAL


luego la columna j de A1 es

97

Todo esto nos conduce al teorema

1 det A

Cj1 Cj2 . . . Cjn

donde Clm = (1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la la l y la columna m de A. La matriz ||C lm || se denomina matriz adjunta de A. Es importante notar que este mtodo es ineciente para calcular inversas (recurre a la regla de e Kramer que es ineciente es si misma) por lo que es recomendable para encontrar A 1 aplicar el algoritmo descrito en el teorema B.16 del cap tulo anterior. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.18 y B.20: Sea A = [a1 a2 an ] una matriz de n n con columnas a1 , ..., an . Denamos la aplicacin o lineal: T (x) = det([a1 x an ]) = det Ak (x), x de Rn , k = 1, 2, ..., n. La aplicacin anterior es lineal pues para todo de R y x, y de R n : o T ( x) = det([a1 x an ]) = det([a1 x an ]) = T (x), T (x + y) = det([a1 x + y an ]) = det([a1 x an ]) + det([a1 y an ]) = = T (x) + T (y). Esta propiedad se conoce como la multilinealidad del determinante

Teorema B.25 Sea A una matriz invertible n n. Entonces C11 C21 Cj1 Cn1 C12 C22 Cj2 Cn2 . . . . .. .. . . . . . . . . . 1 . 1 A = .. det A C1i C2i Cji . Cni . . . . .. .. . . . . . . . . . . C1n C2n Cjn Cnn

B.7.

Espacios Vectoriales.

En esta seccin vamos a denir los espacios vectoriales que son la generalizacin de los eso o pacios Rn ya estudiados.

B.7.1.

Denicin y ejemplos. o

Sea V un conjunto de elementos sobre el cual estn denidas las operaciones suma + de a dos elementos x, y de V y multiplicacin de un escalar (n mero real) por un elemento de o u V . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x, y, z elementos arbitrarios de V y , n meros reales. Entonces V es un espacio vectorial si u 1. Para todos x e y, vectores de V , el vector suma, w = x + y, tambin es un vector de V y se e cumple que:

B ANEXO: ALGEBRA LINEAL


a) b) c) d) 2. x+y =y+x (x + y) + z = x + (y + z)

98

Existe un elemento nulo de V , tal que x + 0 = 0 + x = x Existe el elemento (x) opuesto a x, tal que x + (x) = (x) + x = 0 donde (x) es vector opuesto de x

Para todo x vector de V , el vector que se obtiene al multiplicar por un escalar, w = x, tambin es un vector de V y se cumple que: e a) b) c) d) (x + y) = x + y ( x) = () x

( + ) x = x + x

1x=x

Ejemplos. 1.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicacin por un o escalar es la denida en la seccin 2. o 2.) El conjunto de las matrices m n cuando la suma de dos matrices y la multiplicacin por un o escalar es la denida en la seccin 3. Dicho espacio lo denotaremos por R mn o 3.) El conjunto de los polinomios de grado a lo sumo n, que denotaremos por P n , o sea, Pn = {pn (t) = a0 + a1 t + + an tn , a0 , ..., an n meros reales.}, u

donde deniremos la suma de dos polinomios y la multiplicacin por un escalar de la siguiente o forma: p(t) = a0 + a1 t + + an tn , q(x) = b0 + b1 t + + bn tn , (p + q)(t) p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn , ( p)(t) p(t) = (a0 ) + (a1 )t + + (an )tn . Adems, pn = 0, si y slo si a0 = a1 = = an = 0. 4.) El conjunto de las funciones continuas en el a o intervalo [a, b], que denotaremos por C[a,b] , cuando la suma de dos funciones f y g y la multiplicacin o por un escalar estn dadas por a (f + g)(t) f (t) + g(t), ( f )(t) f (t).

B.7.2.

Subespacios vectoriales.

Sea V un espacio vectorial. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma + y multiplicacin que V . o Ejemplos. 1.) Dado un espacio vectorial V , son subespacios vectoriales triviales los subespacios H = {0} (conjunto que tiene como unico elemento, el nulo) y H = V (el mismo espacio vectorial). 2.) Para V = C[a,b] , H = Pn es un subespacio vectorial, para cualquier n = 0, 1, 2, ... entero. 3.) Para V = Pn , H = Pk es un subespacio vectorial para todo k < n. Teorema B.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y slo si o se cumplen las siguientes tres condiciones. 1. 2. El elemento nulo de V pertenece a H. Para todos x e y, vectores de H, el vector w = x + y tambin es un vector de H. e

B ANEXO: ALGEBRA LINEAL


3.

99

Para todos x vector de H, el vector w = x tambin es un vector de H. e

Teorema B.27 Dado un conjunto de vectores {v1 , v2 , ..., vp } de un espacio vectorial V , el conjunto span (v1 , v2 , ..., vp ) es un subespacio vectorial de V . Dicho subespacio vectorial comnmente se u denomina subespacio generado por los vectores v1 , v2 , ..., vp .

B.7.3.

Conjuntos linealmente independientes. Bases.

Un conjunto de vectores v1 , v2 , ..., vp de un espacio vectorial V se denomina linealmente independiente si la ecuacin vectorial o x1 v1 + x2 v2 + + xp vp = 0, tiene como unica solucin la trivial x1 = = xp = 0. o Un conjunto de vectores v1 , v2 , ..., vp se denomina linealmente dependiente si existen los valores x1 , x2 , , xp no todos iguales a cero tales que se verique la ecuacin vectorial o x1 v1 + x2 v2 + + xp vp = 0. Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la seccin 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . Por tanto las siguientes armaciones son ciertas: 1. 2. Un conjunto S = {v1 , v2 , ..., vp } de dos o ms vectores es linealmente dependiente si y slo si a o al menos uno de los vectores del conjunto es combinacin lineal de los dems. o a Un conjunto S = {v1 , v2 , ..., vp } de dos o ms vectores de V con alguno de los vectores a vi = 0 (1 i p) es necesariamente un conjunto de vectores linealmente dependientes, o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. Dos vectores v1 y v2 de V son linealmente dependientes si y slo si son proporcionales, es o decir, si existe un nmero real tal que v1 = v2 o v2 = v1 u

3.

Teorema B.28 El conjunto de dos o ms vectores v1 , v2 , ..., vp de V con v1 = 0 es un conjunto a linealmente dependiente si y slo si para cierto j, 1 < j < p, el vector v j es combinacin lineal de o o los anteriores, es decir, vj = x1 v1 + x2 v2 + + xj1 vj1 . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 , v2 , ..., vp necesariamente cada vector es combinacin de los anteriores. o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente denicin o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 , b2 , ..., bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 , b2 , ..., bp ), o sea, B genera a todo H. En particular si H coincide con V , entonces B es una base de todo el espacio vectorial V . Por ejemplo, si tomamos una matriz n n invertible, entonces sus columnas a 1 , ..., an son linealmente independientes y adems R n = Span(a1, ..., an ). Por tanto B = a1 , ..., an es una base de a

B ANEXO: ALGEBRA LINEAL

100

Rn . En particular, si A = In , la matriz identidad n n, las columnas e1 , e2 , ..., en de la misma son una base de Rn la cual se conoce como base cannica de R n . o Otro ejemplo lo constituye el conjunto de vectores S = {1, t, t 2 , ..., tn } del espacio vectorial Pn . Es fcil comprobar que dichos vectores son linealmente independientes y que span (1, t, t 2 , ..., tn ) = a Pn . S se conoce como la base cannica de Pn . o Teorema B.29 Sea S = {v1 , v2 , ..., vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1, v2 , ..., vp ) un subespacio de V . i) Supongamos que un vector de S, digamos el vj , 1 j p, es combinacin lineal de los o restantes. Entonces si suprimimos a dicho vector vk del conjunto S, H no cambia, o sea, H = Span(v1, ..., vk1 , vk , vk+1 , ..., vp ) = span (v1 , ..., vk1 , vk+1 , ..., vp ). ii) Si H no es el espacio {0}, entonces algn subconjunto de S es una base de H. u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible extraer una base de dicho espacio vectorial. Por ejemplo, consideremos el espacio generado por los vectores 2 1 1 0 , v2 = 1 , v3 = 1 , H = Span [v1 , v2 , v3 ] . v1 = 0 0 0

Es evidente que H = Span[v1 , v2 , v3 ] = span [v1 , v2 ] pues el tercer vector es combinacin lineal de o los dos anteriores. Adems, S = {v1 , v2 , v3 } no es una base de H pues v1 , v2 , v3 no son linealmente a independientes. Sin embargo, el conjunto B = {v1 , v2 } que se obtiene al suprimir el tercer elemento si que es una base de H.

B.7.4.

Sistemas de coordenadas.

Adems, es evidente que dado un vector x de R n sus coordenadas, es decir los valores x1 , ..., xn , a son unicos. El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . Teorema B.30 Sea B = {b1 , b2 , ..., bn } una base del espacio vectorial V . Entonces para todo x de V existe un unico conjunto de valores {1 , ..., n } tal que x = 1 b1 + 2 b2 + + n bn . Este teorema nos permite denir las coordenadas de un vector cualquiera de un espacio vectorial V . Supongamos que B = {b1 , b2 , ..., bn } es una base del espacio vectorial V . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores { 1 , ..., n } tales que x = 1 b1 + 2 b2 + + n bn ,

Cuando estudiamos el espacio Rn (seccin 2) denimos a los vectores de Rn mediante sus o coordenadas. Ello era evidente pues x1 1 0 0 x2 0 1 0 x = . = x 1 . + x 2 . + + x n . = x 1 e1 + x n en . . . . . . . . . 0 0 1 xn

B ANEXO: ALGEBRA LINEAL


1 2 . . . n
B

101

y lo denotaremos por

[x]B .

y por tanto, si las coordenadas de x en la base cannica C son x 1 , ..., xn , la siguiente relacin o o ser cierta: a [x]C = PCB [x]B ,

Consideremos nuevamente las coordenadas en Rn . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base cannica C = {e1 , e2 , ..., en }. Supongamos ahora que pasamos a una nueva base B = {b1 , b2 , ..., bn }. o Entonces 1 2 x = x1 e1 + + xn en = 1 b1 + + n bn = [b1 b2 bn ] . = PCB [x]B , . . n B

donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. Ntese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base cannica. Es evidente que la matriz P CB es invertible (todas sus o 1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser la a matriz de cambio de base de base cannica a la base B, o sea o
1 [x]B = PCB [x]C = PBC [x]C .

B.7.5.

La dimensin de un espacio vectorial. o

Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . Resulta que dicho n mero n es una propiedad intr u nseca de V , su dimensin. o Teorema B.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces cualquier conjunto con ms de n vectores de V es linealmente dependiente. a Este teorema es una generalizacin del teorema B.8. o Teorema B.32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces cualquier otra base de V tendr que tener n vectores de V . a Un espacio vectorial es de dimensin nita n si V est generado por una base de n elementos, o a es decir si V = Span(b1 , ..., bn ), donde B = {b1 , ..., bb } es una base de V y lo escribiremos de la forma dim V = n. En el caso que V = {0} sea el espacio vectorial nulo, dim{0} = 0. Si V no puede ser generado por una base nita de vectores, entonces diremos que V es de dimensin innita y lo o denotaremos por dim V = . Por ejemplo, dim Rn = n, dim Pn = n + 1, dim C[a,b] = . Teorema B.33 Sea H un subespacio vectorial de un espacio vectorial de dimensin nita V , o (dim V = n < ). Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. Adems dim H dim V . a Teorema B.34 Sea V un espacio vectorial n-dimensional (dim V = n < ) y sea S = {b 1 , b2 , ..., bn } un conjunto de exactamente n vectores. Entonces: a) Si S es un conjunto de vectores linealmente independientes, S es una base de V . b) Si S genera a todo V , es decir si V = Span(b1 , b2 , ..., bn ), S es una base de V .

B ANEXO: ALGEBRA LINEAL B.7.6. Cambio de base.

102

Sea V un espacio vectorial de dimensin nita n y sea B = {b1 , b2 , ..., bn } y D = {d1 , d2 , ..., dn } o dos bases de V . Como D es una base de V y los elementos de B son elementos de V , stos se podrn e a escribir en la base D, o sea, b1 = a11 d1 + a12 d2 + + a1n dn , . . . bk = ak1 d1 + ak2 d2 + + akn dn , . . . b1 = an1 d1 + an2 d2 + + ann dn . = a11 a12 . . . a1n an1 an2 . . . ann
D

b1 =

, , bn =
D

Entonces tenemos que

Supongamos que las coordenadas de un vector x de V en la base B son x 1 , x2 , ..., xn y D son y1 , y2 , ..., yn , es decir, x1 . x = x1 b1 + + xn bn [x]B = . , y x = y1 d1 + + yn dn [x]D = . xn B

en la base y1 . , . . yn D

[x]D = [x1 b1 + + xn bn ]D = x1 [b1 ]D + xn [bn ]D = ([b1 ]D [b2 ]D [bn ]D )[x]B . Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D, cuyas columnas a1 , a2 , ..., an no son ms que las coordenadas a de los vectores de la base B escritos en la base D. Por tanto tenemos que [x] D = PDB [x]B , o en forma matricial x1 a11 ak1 an1 y1 a12 ak2 an2 x2 y2 = . . . . . . . . . . yn
D

a1n akn ann

xn

Adems, PDB es una matriz invertible (sus columnas son linealmente independientes), luego existe a 1 la inversa PDB la cual es la matriz de cambio de base D en B, o sea,
1 [x]B = PDB [x]D .

B.8.

El problema de autovalores de una matriz.

Sea A una matriz de n n. Denominaremos al vector x de R n , autovector de A asociado al autovalor , al vector no nulo x = 0, tal que A x = x, x = 0. (B.14)

Es fcil comprobar que si x es un autovector asociado al autovalor , entonces el sistema a (A I)x = 0, donde I es la matriz identidad n n, (B.15)

tiene soluciones no triviales. Por tanto, dado un autovalor de A, el conjunto de los autovectores asociados a , que coincide con una base del n cleo de A, es un subespacio vectorial de R n . Dicho u espacio se denomina autoespacio de A correspondiente al autovalor . Es importante destacar que conocido el autovalor , encontrar el autoespacio consiste en encontrar las soluciones de un sistema homogneo de ecuaciones, o sea, resolver (A I)x = 0. e Teorema B.35 Sea A una matriz triangular de n n. Entonces los autovalores de A coinciden con los elementos de la diagonal principal = aii , i = 1, 2, .., n.

B ANEXO: ALGEBRA LINEAL

103

Es importante destacar que las operaciones elementales de las cambian los autovalores de una matriz. Es decir si U es la forma escalonada de A los autovalores de A y U son, en general, distintos. Teorema B.17 (Teorema de inversin de matrices, conclusin.) Sea A una matriz cuadrada A de o o n n. Las siguientes expresiones son equivalentes: 1. 2. A es invertible. = 0 no es un autovalor de A

El teorema anterior es evidente pues si = 0 es autovalor de A, entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. Teorema B.36 Sea A una matriz de n n que tiene p autovalores distintos 1 = 2 = = p . Entonces los autovectores v1 , v2 , ..., vp asociados a los autovalores 1 , 2 , ..., p son linealmente independientes.

B.8.1.

La ecuacin caracter o stica.

Cmo calcular los autovalores? La respuesta a esta pregunta no es dif pues los autovalores o cil son tales que el sistema (B.15), (A I)x = 0, tiene soluciones no triviales. Pero un sistema homogneo tiene soluciones no triviales si y slo si e o det(A I) = 0. (B.16)

La ecuacin anterior se denomina ecuacin caracterstica de A. Lo anterior lo podemos resumir o o como: Un n mero es un autovalor de la matriz A de n n si y slo si satisface la ecuacin caracu o o ter stica de A (B.16), det(A I) = 0. Es fcil comprobar que la expresin det(A I) = 0 es un polinomio de grado n en . Por tanto a o el polinomio pn () = det(A I) se denomina polinomio caracter stico de A y los autovalores de A sern las ra a ces de dicho polinomio. O sea, es un autovalor de A si y slo si p n () = 0. o Matrices similares. Sean A y B dos matrices n n. Diremos que A es similar a B si existe una matriz invertible P , tal que A = P B P 1 , o B = P 1 A P. (B.17)

Es evidente que si A es similar a B, B es similar a A, para demostrarlo es suciente tomar Q = P 1 . Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.17). La transformacin que a cada matriz le hace corresponder otra similar, o sea, A P 1 A P , se o denomina transformacin de similitud. o Teorema B.37 Si las matrices A y B de n n son similares, entonces tienen el mismo polinomio caracterstico y, por tanto, los mismos autovalores.

B.8.2.

Diagonalizacin de matrices. o

Una matriz A de n n es diagonalizable si A es similar a una matriz diagonal D, o sea, si existe una matriz P invertible y otra D diagonal, tales que A = P D P 1 . Teorema B.38 Una matriz A de n n es diagonalizable si y slo si A tiene n autovectores o linealmente independientes. Si A = P D P 1 , donde D es diagonal y P invertible, entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores.

B ANEXO: ALGEBRA LINEAL

104

Este teorema se puede reformular diciendo que A es diagonalizable si y slo si sus autovectores o forman una base de Rn . Algoritmo para diagonalizar una matriz A. 1. 2. Encontrar los autovalores de A resolviendo la ecuacin (B.16). o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Si tenemos en total n autovectores linealmente independientes entonces el teorema B.38 nos asegurar que nuestra matriz es diagonalizable, si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. Si A es diagonalizable continuamos como sigue. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .

3. 4.

Es recomendable comprobar que hemos calculado correctamente P y D. Para ello comprobamos que A P = P D. Teorema B.39 (Condicin suciente para que una matriz sea diagonalizable I) o Si una matriz A de n n tiene n autovalores distintos, entonces es diagonalizable. Teorema B.40 (Condicin suciente para que una matriz sea diagonalizable II) o Sea A una matriz de n n con p autovalores distintos 1 , 2 , ..., p . Sea Bk , k = 1, 2, ..., p una base del correspondiente autoespacio asociado al autovalor k y sea nk la dimensin de dicho autoespacio. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k , o sea B = B1 B 2 B p , dim(B) = n1 + n2 + + np .

Entonces B es un conjunto de vectores de Rn linealmente independientes. Adems, A es diagonaa lizable si y slo si dim(B) = n, o sea, si B contiene exactamente n vectores. o

C ANEXO: SERIES DE POTENCIAS

105

C.

Anexo: Series de potencias


n=0

Denicin C.1 Dada una sucesin de nmeros complejos (a n )n y z0 C deniremos serie o o u an (z z0 )n , (C.1)

que denominaremos serie de potencias. Como casos especiales de las series de potencias tenemos:
k=0

xk ,

k=0

zk , k!

k=1

zk , k

etc. Si la serie converge para todos los valores de z de cierto conjunto A C, entonces podemos denir la funcin suma f (z) de la serie. o

C.1.

Propiedades de las series de potencias


n=0

Sin prdida de generalidad vamos a considerar las series del potencias del tipo e an z n , (C.2)

es decir, cuando z0 = 0. Obviamente si tenemos una serie de potencias del tipo (C.1), la podemos reducir a a la anterior (C.2) haciendo el cambio de variables = z z 0 y viceversa. Teorema C.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias
n=0

an z n , an , z C. Si la serie converge para cierto w C, entonces la

serie converge absolutamente para todo z C con |z| < |w|. La regin de convergencia de una serie de potencias siempre son c o rculos en el plano complejo que, en el caso de las series de la forma (C.2) estn centrados en el origen y en el de las series (C.1), a en z0 (ver la gura 20). Ntese que se obtiene una de la otra al hacer una traslacin en el plano o o complejo del c rculo mediante el vector z0 . Adems, cualquiera sea la serie de potencias a
n=0

an z n ,

an , z C, existe un n mero real no negativo R 0 o R = + tal que para todo z con |z| < R la u serie converge y si |z| > R la serie diverge. Dicho n mero se denomina radio de convergencia de la u serie de potencias. Consideremos ahora en caso real, es decir cuando (an )n es una sucesin de n meros reales y o u z = x R. En este caso hay que trasladar los resultados a la recta real. El primer teorema de Abel quedar entonces de la siguiente forma a Teorema C.3 Sea la serie de potencias
n=0

an xn , an , x R. Si la serie converge para cierto r R,

entonces absolutamente para todo x R con |x| < |r|. A diferencia del caso complejo, en el caso real si se sabe la convergencia en alguno de los extremos, se puede saber mucho ms sobre la serie. a Teorema C.4 Sea la serie de potencias
n=0

an xn , an , x R y R su radio de convergencia. En-

tonces, si la serie converge en x = R (x = R), converge uniformemente en [0, R] ([R, 0]).

C ANEXO: SERIES DE POTENCIAS


Im z

106

Im z

| z z 0 | <| w 0 | z | z | < | w| R w R z0 0 Re z

Re z

Figura 20: Regin de convergencia de las series o cha).


Teorema C.5 (Cauchy-Hadamard) Dada una serie de potencias
n=0

n=0

anz (izquierda) y

n=0

an (z z0)n (dere-

an xn , an , x R. Entonces R = l m

1 , si dicho lmite existe. |an |

Una condicin suciente para que exista l n n |an | es que exista el l o m mite l n |an+1 /an |, m en cuyo caso 1 an an+1 = l n |an |, = m = l m . l m l m n n n |a | n an+1 n an n Para las series de potencias en R tienen lugar las siguientes propiedades.
n=0

Teorema C.6 La funcin f (x) = o gencia de la serie.

an xn es continua en (R, R), siendo R el radio de conver-

En otras palabras, toda serie de potencias con radio de convergencia no nulo dene una funcin o continua. Teorema C.7 Derivacin e integracin trmino a trmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1.
n=0

an xn , an , x R con radio de convergencia R > 0. Entonces

La serie se puede integrar trmino a trmino y la serie resultante tiene el mismo radio de e e convergencia, o sea, se cumple que
x 0 n=0

an x =

n=0

an n+1 x . n+1

2.

La serie se puede derivar trmino a trmino y la serie resultante tiene el mismo radio de e e convergencia, o sea, se cumple que
n=0

an x

n=0

nan xn1 .

C ANEXO: SERIES DE POTENCIAS

107

Una consecuencia trivial del ultimo teorema es que una serie de potencias dene una funcin o innitas veces derivable en (R, R). Ejemplo C.8 Probar que la funcin f (x) = o su derivada. ex =
k=0

xk es continua y derivable en R y calcular k!

Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener, como ya hemos calculado antes, radio de convergencia +. Para calcular la derivada usamos el teorema anterior, as pues kxk1 xk1 xk d = = = f (x). f (x) = dx k! k! (k 1)!
k=0 k=0 k=1

Adems, f (0) = 1. La funcin que cumple lo anterior es la funcin e x . a o o Los teoremas anteriores permiten calcular un buen n mero de series, por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 (x)
n=0 n=1

(1)n+1 xn . n

(x)n =

n=0

(1)n xn .

Esta serie converge en (1, 1), as que integrando trmino a trmino tenemos e e
t

log(1 + t) =
0

1 dx = 1+x

t 0

n=0

(1)n xn

dx =

n=0

(1)n

tn+1 = n+1

n=1

(1)n+1

tn . n

Funciones elementales del anlisis. a ex =


k=0 k=0

xk , k!

x R.
k=0

(C.3)

sen x =

(1)k x2k+1 , (2k + 1)!


k=1

cos x = ()k k x , k!
k=0

(1)k x2k (2k)! x (1, 1),

x R.

(C.4)

(1 + x) = 1 + en particular 1 = 1x
k=0

(C.5)

xk ,

1 = 1+x

(1)k xk ,

x (1, 1).

(C.6)

Aplicando la integracin trmino a trmino en [0, x] tenemos o e e log(1 + x) =


n=1

(1)n+1 xn . n

(C.7)

Usando (C.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2


k=0

(1)k x2k ,

x (1, 1),

(C.8)

C ANEXO: SERIES DE POTENCIAS

108

a partir de la cual, integrando trmino a trmino en [0, x] obtenemos e e arctan x =


n=0

(1)n x2n+1 , 2n + 1

x (1, 1).

(C.9)

1 Escojamos ahora (C.5) con = 2 y cambiemos x por x2 , tenemos

1 ( 2 )k k 1 x , = 1 x2 k=0 k!

x (1, 1),

(C.10)

de donde integrando trmino a trmino en [0, x] obtenemos e e arc sen x =


k=0 1 ( 2 )k x2k+1 , k!(2k + 1)

x (1, 1),

(C.11)

También podría gustarte