´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. ´ B. . . . . . . . . . . . . . . . Algebra de matrices. . . . .1. . . . . . . . . . . B. . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . M´todos de integraci´n. . . . . . . . . . . . . . . . . Espacios Vectoriales. .5.1. . . B. . .4. . . . . . . . . . . . . . . . e A. . . . o B. . . . . . . . . . . . . 8. Sistemas lineales y matrices. . . . . . . . . . . . . . . . . . . . . . . . . Integrales irracionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . Integraci´n de funciones racionales. . . . . . . o A. . . . . . . . . Anexo: Series de potencias 105 C. . . . . B. .2. . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . El teorema de existencia y unicidad para las EDOs 7. . . . . 105 . . . . . . . . Problemas .6. . . . . . . . . . . . Soluci´n de un sistema de ecuaciones lineales. Anexo: Algebra lineal B. . . . . . Vectores y ecuaciones matriciales. . . . . . C. . . . . . . . . . . . . . Integrales trigonom´tricas. . . . . . .2. . . . . . . A. . . . . . . .6. . . . e o A. . . . . . . . . . . . . . . . . . . . . . . . 7. . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . .3. . . . . .5. . . . . . . . . El problema de autovalores de una matriz. Formas escalonadas y el algoritmo de reducci´n por filas. Anexo: C´lculo de primitivas a A. . . . B. Propiedades de las series de potencias . . . . Problemas . . . . . . .1. . Determinantes. La transformada de Laplace 8. . . . . . . . . . o B. . . . . . . .8. . . . . . . .1. . . . . . . . . . . . . . . . . . . . . .7. . . . . . . . .

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Ecuaciones separables. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Puntos regulares y singulares. EDOs de orden n. La ecuaci´n hipere o o geom´trica de Gauss. M´todo de variaci´n de coeficientes. La ecuaci´n de Bessel. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. e o o Cap´ ıtulo 5: M´todo de las series de potencias. Sistemas de ecuaciones diferenciales ordinarias de primer orden. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. Sistemas lineales con coeficientes constantes. Los momentos de las o o distribuciones continuas de probabilidad. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Aplicaciones. Funcioo nes generatrices. Ecuaciones o lineales. Existencia de la soluci´n. o a a Programa de la asignatura. Reducci´n de orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. Ecuaciones diferenciales de primer orden. Aplicaciones. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). EDOs lineales de orden 2. Ejemplos y aplicaciones. . Aplicaciones. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Ecuaciones lineales. Funciones generatrices. La EDO lineal de primer o orden. La EDO lineal o de primer orden. e M´todo de integraci´n por series. Ecuaciones de Bernoulli y de Ricati. Ortogonalidad y relaci´n de recurrencia. La matriz exponencial eA y sus propiedades. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. Los polinomios cl´sio e o a cos. Los sistemas lineales y la EDO de orden n. Ecuaciones diferenciales exactas. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Relaci´n con los sistemas de ecuaciones de primer orden. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. Polinomios cl´sicos discretos. M´todo de Pic´rd. F´rmula de Rodrigues.

Differential Ecuations and their Applications.. K. Krasnov M. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. A. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. Casas´s. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. Bugrov Ya. y Bedient R. G. Fundamentos de ecuaciones diferenciales. Penney. Funciones de variable compleja. y Zarzo. Ecuaciones diferenciales. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste.K. Prentice Hall. y Saff E. Bibliograf´ complementaria ıa Braun M.F. Marcell´n. No. o Colecciones de problemas A. Mod 15. Jr y David E. BOIARCHUK y G. McGrawo Hill. Pearson Educaci´n. 9 y 10 (URSS. MIR. y Makarenko G. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas... 2002). Series. Ed. Ecuaciones diferenciales. Despacho: 1er piso.. P. 15-06 a .. F. Facultad de Matem´ticas. MIR. Problemas de Ecuaciones diferenciales ordinarias. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones.E. Ecuaciones diferenciales y c´lculo variacional. Matem´tica Superiores. L. a Kisilev A.M. Nikolski S.S. Integrales mltiples.E. McGraw-Hill. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. Ecuaciones diferenciales elementales. Edwards. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. s´lo en caso a a e o de mejorarla. Bedient P. H. Simmons. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas.D.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. Para aprobar el examen es necesario obtener al menos 5 a puntos. MIR. GOLOVACH. Rainville E. Elsgoltz L. ´ Renato Alvarez Nodarse.B. Pearson Educaci´n o Nagle R. Springer Verlag.

ı..1. o y (5) + 3 sen x − y = 0 es de orden cinco. y(x). (1. mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. y. y (n) (x)) = 0. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. resta. Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. y (n−1) (x0) = y0 (n−1) . y (n) ) = 0. y . . ∀x ∈ A. y (x) = sen x.1) se transforma en una identidad para todo x ∈ A. y (x) + 3y (x) + 2y(x) = 2 cos(2x). . En segundo. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible.1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. y (x). x2 + 4x = −3. .1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). las ecuaciones funcionau a les donde las inc´gnitas son funciones. x2 − 2x + 1 = 0. Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. Nuestro principal objetivo es aprender a resolver EDOs. . Estas ecuaciones son el objetivo del presente curso. En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”. En particular el denominado problema de valores iniciales (PVI). y . Por ejemplo. . y + e − 1 = 0 es de orden dos. y . 1. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). quiz´ las m´s sencillas. y (x0) = y0. Diremos que o u una ecuaci´n diferencial del tipo (1. .1) es de orden n si en ella aparece la derivada y (n) . o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. Nos centraremos en las ecuaciones del tipo (1. . x2 + 1 = 0. son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. La tercera sin embargo no tiene soluciones reales. . . multiplicaci´n y divisi´n. . Ecuaciones diferenciales “ordinarias” F (x. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. pero si complejas x = ±i. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. Existen ecuaciones m´s “complicadas”. .´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. y (x) − ey(x) + 7 cos x = 0. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno.. En primer lugar por que estamos buscando funciones de x y no simples valores de x. . x2 − 1 Estas ecuaciones.. . Por ejemplo. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . y (x) = y. Por ejemplo o 3x + 2 = 5. y. y . Diremos que y = y(x) es una soluci´n de la (1. .

Teorema 1. o Como la soluci´n general es y(x) = Ce− 2 + 2.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. b(x) ∈ CI . o e La soluci´n general de (1.1 La ecuaci´n o o a(x). dx a(x).2.3) Ejemplo 1. existe una unica soluci´n del problema de valores iniciales (1. o o e ecuaci´n no homog´nea.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x. (1. o sea. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I.2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. d y(x) + a(x)y(x) = b(x). dx Definici´n 1.4). para cualquiera sea el valor y0 . La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x). la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . (1. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1.2 con la condici´n inicial y(0) = 1. b(x) ∈ CI . y(x0) = y0. x2 x2 x2 x2 x2 Definici´n 1. entonces.4).3 El problema de encontrar una soluci´n de la ecuaci´n (1.2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. (1.4) Ejemplo 1.5) . tenemos y(0) = 1 = C + 2. ´ o En general. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0.4 Resolver la EDO del ejemplo 1.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 .

0) x U L Q Figura 1: Curva del ejemplo 1.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1.6 (derecha) y circuito el´ctrico del ejemplo 1. la presi´n al nivel del mar (1 atm). Realizar el mismo estudio si U = U0 sen(ωt).9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). Si h = 0. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. y t y(x) P(x.y) R 0 (x/2. λ > 0. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t).7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto.8 (izquierda) e Ejemplo 1. donde p es la presi´n en funci´n de la altura h.3. h . dt donde L es la impedancia. y = 2y/x Ejemplo 1. Encontrar la dependencia de i respecto al tiempo t.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva. Ejemplo 1. Encuentra adem´s la a curva que pasa por el origen. R la resistencia y U el voltaje. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox.8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. Supongamos que el voltaje U es constante y que i(0) = i0.

g.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t). Por ejemplo. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. N (t0) = N0.71 0. (1.0147478 1/min 22 a˜os n 0. que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.693147 = . Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo. u ´ N0 = N0 e−λT .000433217 1/a˜os n 47 min 0. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t).62 0.00502281 1/dias 5568 a˜os n 0. 2 =⇒ λ= log 2 0.7) .81 0. si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı. E. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0. N (t0) = N0. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones. o e Si llamamos a esa aportaci´n r(t). (1.5110 a˜os 1.32 4 Si h → 0.000124488 1/a˜os n 9 −10 4.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva.0315067 1/a˜os n 138 d´ ıas .64 0.

y + y cos x = 0 √ 2. y = 6y + x2. y + xy = f (x). y ) = y − y = 0 F (x. y) = y − ex + 2 = 0. y. y. y. y) = y − 2 2+x F (x. y + 2y = f (x). 5. y ) = (1 + x2)y − xy = 0 F (x. f (x.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. f (x. 4. y) = x2 + y 2 + 1 = 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. x y + y = x3 7. y) = e2x + ey−x − 1 = 0. Problemas de EDOs lineales Problema 1. y ) = yy + x = 0 F (x. 3. x y + y cos x = 1/2 sin(2x) 11. y + y = xex 5. y. 9. y + y x = 0 3. f (x) = sen x 10. f (x. y = 3y + e5x .13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y + x2y = x2 6. y(1) = 0. y ) = (y 2 − x)y − y + x2 = 0 F (x. 2. f (x. y ) = y + y/x = 0 = 0. . y) = x2 + y 2 − 25 = 0. o o a o 1. y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. y ) = xy + y − y 2 = 0 F (x. y) = x3 + y 3 − 3xy = 0. y. y ) = ex−y + ey−xy = 0 F (x. 8. y(0) = 2. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. y + 2xy = x 4. y. y) = x2 + y 2 − 25 = 0. y.5). √ 6. 7. y ) = yy + x = 0 F (x. y. x y + y = x sen x Problema 1. 2. y) = 1 + x2 − y = 0. y = (y + e−x ) tan x 8.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. f (x) = 3e−2x . y. f (x) = 3/4e−2x . f (x.4. Problemas Problema 1. f (x. f (x. f (x.

ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x). y(1) = 1/4. Encontrar la curva que pasa por (4. y(0) = 0. Problema 1. y(0) = 1. (1 + x2)y + 4xy = x. 4. b(x) ∈ CR . b ∈ R. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. 0 ≤ t ≤ 1 0. t > 1 6 5.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. y = y + e−x sen(2x). ∀x ∈ R.0) y(x) t P(x. Problema 1. c ∈ (0. x→∞ l´ b(x) = 0. x→∞ a. x2 + 2y 2 = 24).14. ım a(x).y) Q x n Curva del problema 1. 2). ım . ∞).15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . g(x) = 2. y + y = g(x). (sol. y 0 (x/2. x→∞ a(x) ≥ c > 0. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial.

Por ejemplo. (2.1. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 .1) es o una ecuaci´n separable. Cuando esto ocurre se dice que la EDO (2. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x).2 OTRAS EDOS DE PRIMER ORDEN 7 2.1. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . luego x(t) = ab Ejemplo 2. C = a/b. Ejemplo 2. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1. y(0) = 3.3 La velocidad de escape de la Tierra .1 Resolver la ecuaci´n y = x/y. donde el signo + o − diferencial propuesta. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C.2) cuando b ≡ 0.1. y) (2.2) como x(0) = 0. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). y) = a(x)b(y). Supongamos que la funci´n f (x. Supongamos que a = b. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. donde κ es la constante de proporcionalidad. si nos interesa el PVI con la condici´n a o √ 2.1) admite la factorizaci´n f (x. 2. b−x x(0) = 0. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. b−x 1 − e(a−b)κt . En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. Aplicaciones Ejemplo 2. y) en la o EDO y = f (x.

2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . Como g = GMT /R2 .2Km/s. por ejemplo. 1 − ω2 vr ω2 = κ . ω= κ > 0. Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . Usando la regla de la cadena tenemos v gR2 dv =− 2 . Poniendo los datos R = 6400000 metros g = 9. .2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). siendo R el radio de la tierra (que supondremos una esfera). entonces. tenemos GM T = gR2. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. Ejemplo 2. entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. lo cual nos conduce al valor v0 ≥ 2gR.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. v(0) = v0. g Como ω > 0. Si usamos la ley de Newton tenemos dv GMT =− 2 .8m/s2 obtenemos v0 = 11200m/s = 11.4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR.5 Resolver el caso r = 3. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C. (2. g Escojamos r = 2. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. Ejercicio 2.

el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . c > 0. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento. Resolviendo la EDO (2.5. Malthus (1766– e e 1834). pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados.1. no hay o o a emigraci´n ni inmigraci´n). propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). Sea r(t. P. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. r > 0. As´ la o a ı. o . p r/c p(t0) = p0.2. Verhulst. F.6) Adem´s. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. Supongamos que la poblaci´n est´ aislada (o sea. constante. en particular. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t. p) = r. p(t0) = p0 . En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. p)p(t)h. (2. h → 0. r − cp0 + cp0 er(t−t0) (2. gr´fica 2.4) cuya soluci´n p(t) = p0 er(t−t0) . (2. El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N).2 OTRAS EDOS DE PRIMER ORDEN 2. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica.4) es una aproximaci´n bastante buena. e Aunque el modelo funciona razonablemente bien para poblaciones grandes.5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2.5) tenemos p(t) = rp0er(t−t0) . r. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t). p). l´ t→∞ p(t) = r/c independientemente a ım de p0 . Luego p(t + h) − p(t) = r(t. =⇒ p (t) = r(t. p)p(t).

cos(y)y = − x sen2y . a. 2. Problemas Problema 2. (1 + x2)y = 1 + y 2 2. y = xy(y + 2) 3. y(x0) = y0 > 0. y(1 + x2)y + x(1 + y 2 ) = 0 4.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1.2. y(2) = 1 4.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. yy + x − 3xy 2 = 0. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. 3xy = y cos x. l´ x→∞ y(x) = 5π/4 ım 2 . y(1) = 0 6. y = y(a + by). y = 1 − x + y 2 − xy 2 5. (1 − x)y = (x + 1)y. cotg(y)y = x2 + 2 6. x2y − 1 = cos(2y). (x log x)y + 1 + y2 = 0 7. y(0) = 0 3.2 OTRAS EDOS DE PRIMER ORDEN 10 2. b > 0. y(1) = π/2 1+x 5. cos(y)y + ex+1 tan y = 0 8.

y = y 4 z. =⇒ z + (1 − n)a(x)z = (1 − n)b(x).1.9 Resolver la EDO de Riccati y = y 2 − 2/x2. 2 x z =⇒ 2 z + z = −1. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . y hagamos el cambio o z = y − yp . mediante el cambio y = yp + 1/z. x C − x3 .8 Resolver la EDO y − 1/(3x)y = y 4 log x. Hacemos el cambio z = y −3 . haciendo z = y 1−n . x La soluci´n la encontramos usando la f´rmula (1. Veamos un ejemplo.7) en una EDO lineal.3) para resolverla. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). z = (1 − n)y −n y . La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x. n = 0. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. 2. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. (2. 3 x =⇒ y= 3x2 1 + . Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x.2 OTRAS EDOS DE PRIMER ORDEN 11 2. y tenemos o 4 y = −y y /3.8) que hab´ considerado a˜os antes Jacob Bernoulli. Hacemos el cambio y = 1/x + 1/z. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n.3) que nos da o o x C z = − + 2. dada una EDO de Riccati (2. Esta ecuaci´n es una EDO de Bernoulli con n = 4. x 2 4 −1/3 . luego la EDO se transforma en 1 z + z = −3 log x.8). 1.7) La resolvi´ su hermano Jacob en 1696.3.8). Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. que es lineal y por tanto podemos usar la f´rmula (1. y =− 1 z − 2. (2. Supongamos que yp es una soluci´n particular de (2. Pasemos a estudiar la EDO de Riccati. En efecto. o Ejemplo 2.3. la podemos convertir en una EDO lineal. En general. Ejemplo 2. Usemos la primera para resolver la EDO.

(z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C.9) y hagamos el cambio z = αx + βy. y) = f (x. =⇒ α + βF (z) Ejemplo 2. f (u) − u Ejemplo 2. x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. Entonces o e f (x. u = y/x. (2. toda funci´n homog´nea de orden 0 es una funci´n de y/x. Si hacemos el o e cambio y = ux. . z−2 =⇒ (z − 2)dz = x + C. si f es homog´nea de orden 0.10) se transforma el la EDO separable xu + u = f (u). y). Como z = y − 1 tenemos z = z−2− 1 . entonces o F (z) = z − 1 + 1/(2 − z). entonces f (tx. luego (2. N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones. =⇒ (z − 2)2 − 1 = Cex . que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C.11 Resolver la EDO y = (y + x2 − y 2 )/x.9) se transforma en la EDO separable dz = x + C. ty) = e tk f (x.4. y) se denomina homog´nea de orden k si para todo x. Adem´s. y) y f es una funci´n homog´nea de orden o e 0. podemos perder las soluciones y = x + 1 e y = x + 3. En efecto. ty) = f (x. o sea.2 OTRAS EDOS DE PRIMER ORDEN 2. 12 Sea la EDO (2. u) = g(u) = g(y/x). z = α + βF (z). entonces la EDO anterior se transforma en la EDO y = f (y/x). Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. √ por tanto y = 2 + x ± 1 + Cex . como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. Una funci´n e o f (x.10 Resolver la EDO y = y − x − 1 + 1 . entonces z = α + βy . =⇒ z = 2 ± 1 + Cex .10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. Sea y = u x. o e o Supongamos que tenemos la EDO y = f (x. 2. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy).3. ux) = x0f (1. y y para todo t ∈ R.2. y). Sea f una a e funci´n homog´nea de orden 0. entonces y = xu + u y la EDO (2. f (tx.

e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). Luego si hacemos y = t. y).11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. es f´cil comprobar que f (tx. como hemos visto u = ±1. luego las soluciones son las familias de rectas y = cx + c2 . 2. Para descubrir cuales son las rectas soluci´n basta notar que si y = c. Esta es una EDO de Clairaut con f (z) = z 2. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ). as´ que hacemos a ı el cambio y = u x y obtenemos.12 Resolver la EDO y = xy + (y )2. 2 y=− x2 . lo que puede hacernos perder las soluciones y = ±x. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. c ∈ R.  =⇒ y = xt + t2 x t=− . Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. √ 1 − u2 . La primera condici´n nos da una familia o de rectas y = mx + n. Ejemplo 2. y la soluci´n singular o   x = −2t 1  y = xt + f (t). 4 . x 1 − u2 Ahora bien. La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). f derivable y con primera derivada continua (2.11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0.5. y) = (y + x2 − y 2 )/x. ty) = f (x. de donde deducimos que o y = 0 o x + f (y ) = 0. si u = ±1. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. =⇒ √ dx du = . Para encontrar la otra soluci´n o o usamos que x = −f (y ).

y) y N (x. o lo que es lo mismo. Por ejemplo. y) dos funciones tales que existan todas las derivadas parciales ∂M .14) Por dominio entenderemos un conjunto abierto de R2 y convexo. y).12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. y)) = 0. y)) = 0 si y s´lo si. y) en la forma equivalente N (x. y) = M (x. (2. y) = 0. por ejemplo. la EDO lineal (1. y)) dx = 0.12) La EDO (2. y) = N (x. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. y) = C si y s´lo si (2. As´ surge la pregunta ¿cu´ndo la EDO (2. y). y) tal que o ∂φ(x.12) se puede escribir de la forma dx (φ(x. y). y) = C.13 Sean M (x. y). o sea. y) ∂φ(x. sin agujeros. y) (φ(x.13) o o ∂φ(x. y) = M (x. y) ∂y ∂φ(x. y) ∂φ(x.2) y + [a(x)y − b(x)] = 0. ∂x ∂y 2 ∂φ(x.13) d Por ejemplo.12) a o o d es equivalente a la expresi´n dx (φ(x.2 OTRAS EDOS DE PRIMER ORDEN 14 2. Por conveniencia reescribiremos la EDO y = f (x. y). y)) = + = + y. para cierta funci´n φ(x. y). y)) = 0. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . En general no es trivial deducir si una EDO del tipo (2. y) existe una funci´n φ(x. ∂x ∂φ(x. y) = C es una o d soluci´n de (2. Teorema 2. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. y)) = 0.12) si y s´lo si (2. (2. y) y N (x. o o Como 0= d ∂φ(x. ∂y (2.12) se puede expresar de la forma d (φ(x. dx x Obviamente no cualquier EDO del tipo (2. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. y) = C?. φ(x. y) ∈ Ω. y)) dx = d (φ(x. y)y + M (x. y) = .12) se puede reescribir de la forma dx (φ(x. y) ∂M (x. Entonces. Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. dadas dos o funciones M (x. entonces la soluci´n de la o o EDO ser´ φ(x. ∂N . y) = N (x. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. . ∂y ∀(x. La respuesta la da el siguiente o d (φ(x. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. y)) = 0.12) se puede escribir de la forma 0. y) tal que se cumpla la condici´n (2. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. ∂x es necesario y suficiente que ∂N (x.6.

∂x as´ φ(x. ∂φ(x. y) = x2 + xy + cos x + y 3 + sen y = C. es decir existe una funci´n φ(x. y) = 2x + y − sen x y N (x. luego M (x. ∂φ(x. es φ(x. as´ que no es exacta. o sea. Corolario 2.12) es inexacta (o no es exacta) si o ∂M (x. y) = C.y) (x.y) ∂y = ∂N (x.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. luego ∂φ(x.13). y) = a(x)y − b(x) y N (x. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω. luego ∂M∂y = 1 = ∂N∂x . ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2.18 Una EDO del tipo (2. y) tal que φ(x. y) = x+h (y) = 3y 2 +cos y +x. ∂x .y) = ∂N∂x . y) = C. Ejemplo 2. y) = 3y 2 + cos y + x. y) tal que se cumple (2. y) = y + g (x) = 2x + y − sen x. ∂x De la primera deducimos ∂φ(x.17 Comprobar si la EDO lineal (1.2) es exacta. pero ∂φ(x. y) = x2 + xy + cos x + h(y). o Ejemplo 2.15 Para que la EDO (2. y) = 3y 2 + cos y + x. ∂y φ(x. En este caso y + [a(x)y − b(x)] = 0. ∂y =⇒ h (y) = 3y 2 +cos y. luego seg´n el corolario 2. y) = y 3 + sen y + xy + x2 + cos x = C.y) .y) (x. Como la EDO es exacta entonces u existe φ(x. y) = y 3 + sen y + xy + g(x).14 Una EDO del tipo (2. y) = 1. en cuadraturas.14) en cierto dominio Ω ⊂ R2.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2. define la o soluci´n de (2. Adem´s. y) = 2x + y − sen x.12) en Ω. es exacta.y) En este caso M (x. ı =⇒ g(x) = x2 + cos x.15 es exacta. Para calcular h(y) usamos que φ(x. Vamos a resolverla.y) que ∂N∂x = ∂M∂y . =⇒ h(y) = y 3 +sen y. y encontrar su soluci´n. y la soluci´n.12) se llama exacta si N y M son funciones tales o (x.y) ∂M (x. o (x.y) ∂y = 3y 2 +cos y +x. luego (x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x.

∂y ∂y ∂x ∂ρ(x) ∂N (x. y) + ρ(x.15) nos da ρ(x) luego ∂M (x. Ahora bien. y) ∂ρ(x.15) es ıa o m´s complicada de resolver que la EDO original.6. Entonces.15) es f´cilmente resoluble. Factores integrantes 16 Definici´n 2.15). para que admita un factor integrante ρ(x. y) ≡ 0 es un factor o integrante de (2. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. cuando la funci´n ρ es una funci´n que s´lo depende de y. o En el segundo caso tenemos M (x. y)x2 cos y = xey + ρ(x. ρ = ρ(x) o o o 2. o ∂M (x. y) + ρ(x. una EDO es exacta si y s´lo si se tiene la condici´n (2. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. y) .15) Es decir. y) ∂ρ(x.12) si la EDO ρ(x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y) − 1 dρ(y) ∂x ∂y = = S(x. Obviamente no es exacta. y) ∂N (x. y)M (x. y). y) ∂M (x.19 En general. o o o En el primer caso (2. y) luego ∂N (x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. ρ(x) dx N (x. luego ρ(x. y) = N (x. en cuyo caso ρ(x) = exp( R(x)dx). Veamos a continuaci´n dos de ellos: a o 1. y) ∂ρ(x.1. y) ∂M (x. y) + ρ(x) . una ecuaci´n inexacta tiene un factor integrante ρ(x. y) de la derecha es una funci´n o o o s´lo de x. y)N (x.14). ρ(y) dy M (x. y) ∂ρ(y) + ρ(y) = ρ(y) . y) de la derecha es una funci´n o o o s´lo de y.12). y) cumple o o con la condici´n (2. y) ∂M (x. y) ∂N (x. y) + ρ(x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. en cuyo caso ρ(y) = exp( S(y)dy). y) ∂ρ(x. y) = N (x.2 OTRAS EDOS DE PRIMER ORDEN 2. y) + ρ(x. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. o sea. y) si y s´lo si ρ(x. dada la EDO (2. se dice que ρ(x. y)y es exacta. ∂y ∂y ∂x ∂x (2. y). y)ey . y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. ∂y ∂x ∂x . y) = ∂y ∂x si y s´lo si o M (x. ∂y ∂x la cual es no trivial de resolver. y)N (x. y) ∂N (x. y) − 1 dρ(x) ∂y ∂x = = R(x. De hecho en la mayor´ de los casos la ecuaci´n (2. ρ = ρ(y). y)M (x.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

713061 0. 2.7 0. y(xk ) 1. 6.0137992 -0.9 0.0187748 -0.807602 0.6 0.95 1.676684 0.74064 0.909675 0. 20.0178206 -0. 18.25 0.694429 0. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha). ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.5 1 1.0187107 -0.759376 0.68072 0.680253 0. 8.735759 y(xk ) − y(xk ) 0 -0.8 0.70483 0.781636 0.0185892 -0.0147575 -0.3 0.676582 0. a Consideremos ahora el problema y − 1 − y 2 = 0. 19. 3.0181506 -0. 5. por tanto.00245885 -0. 15.723482 0. 13. Una pregunta natural es.0155874 -0.95 0.694092 0.0114527 -0. 16. xk 0 0.4 0. 12.837462 0.6876 0. .85 0. y(0) = 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x .686241 0. 9.00467484 -0.67535 0. Los resultados se pueden apreciar en la o gr´fica 4 (derecha).770184 0. 40 y(0) = 0.7039 0.797562 0.1 0. 11. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.704707 0. 0. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2.5 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0.0169031 -0. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).2 OTRAS EDOS DE PRIMER ORDEN k 0 1.75 0.45 0. 4. 10. x ≥ 0.05 0.0127016 -0.713139 0. 60 40 30 20 20 0.694733 0. 17.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x.905 0. o o Si usamos un esquema de 20 puntos en el intervalo [0.716972 y(xk ) 1. Adem´s.5 2 1 1.00844901 -0.15 0.0162994 -0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden. y(0) = 1 con N = 20. 14.710499 0.697474 0.698658 0.952459 0. 0.871416 0. 7. x ∈ [0.86475 0.00666595 -0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.0184046 -0.35 0.65 0.0174074 -0.5 10 -20 -40 0.693171 0.2 0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4). 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).55 0.829012 0.746675 0.0100397 -0.726841 0.697623 0.725256 0.

es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . 2 k = 0.2. La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). yk+1 )] .17) en el tercer orden. y0 = y(x0 ). xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. lo que nos conduce nuevamente al esquema de euler (2. es decir xk +h xk f (x. y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . 1. N. . 2 . yk ) (ver figura 6 izquierda) xk +h xk f (x. yk+1 )] .18) f(x. yk ) + h2 ∂f ∂f (xk . 1. . y(x))dx ≈ hf (xk. 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . y(x))dx.19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . .20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. yk ) . k = 0. . yk ))] . yk + hf (xk . (2. yk ) + f (xk . . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . o sea.7. o Para ello escribamos la EDO original y = f (x. yk ) + f (xk+1 . yk ) + f (xk+1. yk ) + f (xk+1 . yk ). . . yk ).y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. y0 = y(x0 ). es un m´todo de orden e a e uno.2 OTRAS EDOS DE PRIMER ORDEN 2. El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. N. es “poco preciso”. . yk ) (xk . Por ello se suele usar una o o modificaci´n del mismo. ∂x ∂y 2 y0 = y(x0 ). de forma que tengamos yk+1 = yk + hf (xk . y) en el intervalo xk . (2.

909675 0.686343 0.74064 0.684853 0. y(0) = 1.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.0126034 -0.694092 0.952459 0.713139 0.7 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1. 11.2 0.9 0.2 0.00550115 -0.05 0.1 0.85 0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado.0119578 -0. 0.713061 0.0112803 -0.25 0. xk 0 0.4 0.75 0.681515 0. 10.719873 y(xk ) 1. 2.725256 0.837462 0.35 0.15 0.723482 0.703238 0. 15.95 0.775186 0.55 0.716216 0.00821835 -0.0143632 -0.759376 0.735759 y(xk ) − y(xk ) 0 -0.0025 0.0154026 -0.4 0. 0.732422 0.0075 0. 13.698244 0.65 0.690467 0. 9. x ∈ [0.6 0.8 0. 8.8021 0. 3.8 0.95 1.00904012 -0.00735595 -0.95125 0.708079 0. 1].00450443 -0.871416 0. 4.697623 0.0125 0. 7. 12.832957 0.70483 0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.75202 0. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) . 20.01 0.907314 0.694733 0.682134 0.698658 0.00120885 -0. 17.75 0. 16.6 0. y(xk ) 1.0138047 -0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.9 0.8 1 0.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x. 0. 19.0175 0.00645092 -0.7039 0.00345845 -0. 5.807602 0.005 0.781636 0.0148955 -0.00982318 -0. 18.85 0. 6.0105693 -0. 14.0132186 -0.3 0.00236077 -0.69333 0.5 0.867958 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).693171 0.45 0.015 0.680567 0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.

Problema 2. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). y − 2xy + y 2 = 5 − x2. 4. 3. Como caso particular resolver la EDO y = (x + y)/(x − y). y + y = xy 3 . Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. .8. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. Considerar los casos ae = cb y ab = cd. 3. y + 2yex − y 2 = e2x + ex . 4. 7. 5. (x + y + 2)y = 3x − y − 6. x3 sen yy +2y = x (resolverla respecto a x y no a y. y = 2(y/x) + (y/x)2 √ 2. xy + y = y 2 log x. (2x + 4y + 3)y + 2 + 2y + 3 = 0. n + k = n.22 Resolver las EDOs de Bernoulli 1. 6. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). 3y + y 2 + 2/x2 = 0. yp = −x2. y + 2y = ex y 2 .24 Supongamos que tenemos la EDO y = f (y/x). (1 − x3)y − 2(1 + x)y = y 5/2 .23 Resolver las EDOs de Riccati 1. n = 1. 6.2 OTRAS EDOS DE PRIMER ORDEN 23 2. (x − x y)y = y 3. 7. v = y/x. y = y/x + tan(y/x). 2. Resuelve las siguientes o e EDOs 1. 5. y = x3 + 2y/x − y 2 /x. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. 4y 3 y + 4xy 4 = 4x. 2. xy − y = xk y n . yp = x. (4x − 3y − 6)y + x − 2y + 1 = 0. y = 1 + y/x + (y/x)2. 5. y = (ax + by)/(cx + ey). 4.

Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). 4. 7. xy − y − y 2 = 0.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. 4. y(2) = 1.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. 3x2 + 4xy + 2(y + x2)y = 0. 2. y(2) = 1. 5. y = sen(x − y). y(t)dt. 3xt + y 2 + (x2 + xy)y = 0. Problema 2. Problema 2. e En caso de que no lo sean. y(1) = 1. e−y − (2y + xe−y )y = 0. 3. 2. 2x(1 + x2 − y) − x2 − yy = 0. y = 2(y − x) + (y − x)2. (x2 − 2y + 1)y = x. 2. (x2 + y 2 + x) + yy = 0. e 1. 1. 3x2(1 + log y) − (2y − x3/y)y = 0. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). 2xy 3 + 3x2y 2 y = 0. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. 3. y = (x − y + 5)2. Problema 2. 3. y(x) = x + 1 + 0 x x x y(t)dt.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. un factor integrante. 6. 2xy + (x2 − y 2 )y = 0. x(ey − y ) = 2. 4. Resolver la EDO y = (ax + by + m)/(cx + ey + n). 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. . a ser posible.28 Resuelve los siguientes problemas de valores iniciales 1. y(0) = 1.2 OTRAS EDOS DE PRIMER ORDEN 24 8. 8. y = x + y − 1. encuentra. 2. 3. 0 4. y/x + (y 3 + log x)y = 0.

y = 1 + sen x(1 + y 2 ). 5. y + 2ey = x2 + y 2 . 2. b y k. e 1. y = ex y. 3. y(0) = 1. (toma distintos valores de a. 7. y(0) = 0. k > 0. y = xy + (y )n. 6. y = xy + log(y ). 4. y = xy − ey . y + sen(x)y − cos(x)y 3 = 1 + x2. a. 1. 4. y = ex y −2 . z(0) = 1. y = xy + 1 + (y )2 .30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. z − 2xz = 2. y(2) = 1. n = 0. 25 5. y(0) = 1.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. y(0) = 0. y(0) = 1. (y )2 + x3y − 2x2y = 0. b. 2 2 . 2.29 Resolver las EDOs de Clairaut 1. Problemas del m´todo de Euler e Problema 2. √ 3. y = k(a − y)(b − y).

yn ). . Usando lo anterior podemos reescribir (3. Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. no homog´neo. . . . Por comodidad vamos a usar la forma vectorial del sistema anterior. bn (x)    . . . y2 .    y (x) = f (x. es decir cuando fk . y1 . y2 . .  .. . .  .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). y1.2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. . 2 . k = 1. y1 . . dx (3.1) . . un sistema de ´stas es mucho m´s complejo. .  . . y1. . .  . Y ). . . .  . .3) (3. n es una funci´n lineal de la forma o n fk (x. lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). vamos a denotar por Y . Y (x) =  . . .  . . n. y ). Y ) =  . . . . . .  (3. . .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). . .3 SISTEMAS DE EDOS 26 3. diremos que SEDO es homog´neo. as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. . yn (x) yn (x) fn (x. .4) Cuando B(x) = 0. . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. . . yn son funciones de x desconocidas y f1. .  .. . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . . y . an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . y . . . 2 (3. y si al menos una componente de B es no nula. yn ). yn )     2    Y (x) =  . y2 . . y2 . .  .   .1) en la forma vectorial d Y (x) = Y (x) = F (x. . y1 . y2 . . . y2 . . . fn son ciertas funciones conocidas. yn ) = j=1 akj (x)yj (x) + bk (x). F (x. . . o sea.  . . n 1 2 n n donde y1 . . . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . e e . y1 . o sea cuando todas las componentes del vector B son cero. .. . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x).    y (x) = f2(x. yn )  y2 (x)   y (x)   f2(x. . . k = 1. Y y F son los vectores       y1 (x) y1 (x) f1(x.

i = 1. Teorema 3. Y0. .5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. Y = A(x)Y . Y0. Y = A(x)Y + B(x). o sea cuando B(x) = 0 o Y (x) = A(x)Y (x).5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. Para que los vectores (funciones) Y1 (x).6 Sea A(x) ∈ Rn×n . e o Corolario 3. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . .3 y 3. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x). Entonces. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . (3. . . . k sean linealmente independientes es suficiente que las condiciones iniciales. .8 Juntando los teoremas 3. . . . .1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. Nota 3. Entonces el PVI. . . . e o Teorema 3.1 . . = x0 2 x0 x0 Teorema 3.4 Para que las soluciones Y1 (x). Yn (x0)| = 0. u Corolario 3. existen unos unicos coeficientes c1 . Yk (x) soluciones del sistema Y = A(x)Y . son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. . . . . . . O sea. . obviamente son dependientes pues x0 x2 0 . . Nota 3.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). Yk (x) del PVI. .3 SISTEMAS DE EDOS 27 3. o sea los vectores. .9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. . entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. . el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n.7 Si Y1 (x).3 Sean Y1 (x). . . . Y = A(x)Y .2 Sea A(x) ∈ Rn×n .1. no obstante. o e Nota 3.i . A(x) ∈ Rn×n y continua en R. Teorema 3. En particular. . . entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. para x = x0. Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. Yi (x0) = Y0. Los vectores (funciones) x x y x2 x2 . la soluci´n del PVI. ´ o Comenzaremos estudiando el sistema hom´geneo.k sean linealmente independientes. .

2. =⇒ v1 = −2 1 .7) en (3.5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . (3.1.7) donde λ es cierta constante y v un vector constante. seg´n o u el teorema 3. . Es decir. cn son constantes arbitrarias y λk .3. Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino. Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes. 3.3 SISTEMAS DE EDOS 28 3. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. de la forma n Y (x) = k=1 c k e λk v k . =⇒ v2 = 2 1 .6) tenemos.2. λ2 = 7. (3.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. vn linealmente independientes en cuyo caso la soluci´n general es. . Calculamos los autovectores. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. . n.6) Busquemos la soluci´n de (3. .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. n. . . . . .8) donde c1 . . k = 1. . =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 . k = 1. . es decir estudiaremos el problema (3. son los autovalores asociados a los autovectores vk . por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 . Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. Autovalores simples A ∈ Rn×n . . . Sustituyendo (3. e e . . Ejemplo 3.6) en la forma o Y (x) = eλx v. (3. . (3.

la inversa [exp(xA)]−1 = exp(−xA). sen x .9) donde la convergencia la entenderemos elemento a elemento.3 SISTEMAS DE EDOS Ejemplo 3. 29 Es decir.3. Para todas las matrices A. Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . exp(0A) = In y para todo x ∈ R exp(xOn) = In . k! 2 n! (3. Y2 (x) = e−x − 3. λ2 = −1 + i.11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i.12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. entonces el complejo conjugado λ es el autovalor asociado al autovector v. Para toda matriz A. 3. 5. Ahora bien. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . 2 −5 2 −4 Y. Para toda matriz A. si tenemos Y (x) = eλx v = Y (x) + i Y (x). en nuestro ejemplo ı λ1 = −1 − i. 4. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. donde On es la matriz nula. As´ pues. . Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY . La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). son complejos. 2. exp[x(A + B)] = exp(xA) exp(xB). La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. Proposici´n 3. 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . Para toda matriz A. t ∈ R y toda matriz A. d dx exp(xA) = A exp(xA) = exp(xA)A. entonces Y (x) = eax ( v cos bx − v sen bx). Para todos x. exp[(x + t)A] = exp(xA) exp(tA). B con AB = BA.

2. −1 2 − λ =⇒ λ1 = −1. . para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. siendo D una matriz diagonal. Entonces como para todo k ∈ N. i = 1. siendo (ei)i la base can´nica de Rn . . o o Corolario 3. vn del PVI. . . N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. las columnas de exp(xA) son soluci´n de los PVI. a En este caso existe una matriz P tal que A = P DP −1. . ..13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . . λ2 = 4. . . con A ∈ R e siempre tiene n soluciones linealmente independientes. 0 . . . . . . . . . 0 . . .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. exp(xIn) = ex In. De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . .        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . .3 SISTEMAS DE EDOS 6. Y (0) = ei que adem´s son linealmente independientes por el teorema 3. .. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. λn 0 0 .14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . e Definici´n 3. . . Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. Para todo x ∈ R. . . . . como   D=   λ1 0 · · · 0 0 λ2 . . . . Si escogemos o o e v sucesivamente como ei . . As´ pues. . En efecto. Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. Ak = P D k P −1 tenemos exp(xA) = pero. y por tanto el PVI. e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . Y = AY . Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. n obtenemos n soluciones v1. . Y = AY con Yi (0) = ei . Y = AY . . como hemos visto.    . . exλn 0 0 . =⇒ de donde se deducen nuevamente las soluciones del sistema.3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. .

1)T . xk x2 (A − λIn)2 v2 + . Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. . i = 1. Si tenemos entonces n autovectores v1 . . . . 1 5 2 5 3 5 .) Si k < n entonces hay autovalores m´ltiples. Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . para λ2 = 4 obtenemos v2 = (−2. =⇒ v1 = 3 1 . . 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. o o donde v1 es el autovector asociado a λ. + (A − λIn )k v + . . x2 xk (A − λIn)2 v + . 2.3 SISTEMAS DE EDOS Calculamos los autovectores. . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. . . . = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. =⇒ x1 = 3x2. vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . . k. . + (A − λIn )k v + . Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. . . . n. ¿Qu´ hacer cuando hay una ra´ m´ltiple. Entonces otra soluci´n. . P −1 = 6 5 ex 2 5 ex −1 5 .) Calculamos todos los autovalores λi y los correspondientes autovectores vi . . o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. . 2 k! Es decir. independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. . luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . k = 1. . k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . P = 3 −2 1 1 . El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. . Una soluci´n es por tanto e λx v1.4. . El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . por ejemplo. que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. . o 2. 31 An´logamente. . i = 1.

. 0)T = 0. o . e ´ Adem´s. 0 0 . . 0)T . 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . .3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). Aj ∈ Rn . (3. es decir    x1 0 0 0 (A − I)2 v = 0. 0. x3 ∈ R. 0 0  pero como (A − I)v3 = (β. entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . y as´ sucesivamente hasta completar el subespacio. 1)T y v2 = (1. Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. los autovectores correspondientes son v1 = (0. Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . Supongamos que ma > mg . . deducimos que β = 0. aa generan todo el subespacio correspondiente a λ.10) Cualquier elecci´n de α y β es posible siempre que β = 0. 0. luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0.6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. =⇒ x1 = 0. y (A − λIn)3 v = 0. ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. x2 . respectivaa mente. ⇐⇒  0 0 0   x2  = 0. . Y ı as´ con cada uno de los autovalores m´ltiples. luego tomando4 β = 1. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . 0. . Luego tenemos dos soluciones independientes     0 1 2x  x . 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. . la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. . Para cada autovalor. 2. buscamos la soluci´n del correspondiente subespacio (o sea. Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor.

entonces si definimos el vector c = (c 1. mk − 1 sean nulos. es decir.  1 0 1 0  Y.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. o Y = AY con Y (x0) = Y0 . exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 .1.            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . . Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. entonces tenemos Y (x0) = Y0 = V (x0)c. (3. 1.12) . cn )T . Ejemplo 3. . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. .4. o e 3. con a1 y a2 cualesquiera. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. . a4 = a2 . Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0. (3. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior.15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. En efecto. luego c = V −1 (x0)Y0 .3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. . 0. Sea ahora el PVI. la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. a3 a6 =⇒ a3 = a5 = a6 = 0. . . .10. j = 0. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x .

donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. Teorema 3. exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e .13) es de la forma Y (x) = Yh(x) + o o Yp (x). −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . (3. v1 = (−2.14). Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = .15. 1)T y λ2 = 7 y v2 = (2. donde C ∈ Rn . En este caso la matriz exponencial es la matriz del ejemplo 3. 12 .16 La soluci´n general del SEDO (3. es decir Yp (x) = AYp (x) + F (x). cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad. Y (0) = 0 1 . Y (x0) = o Y0 . luego aplicamos (3. El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x).14) Ejemplo 3.17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x). −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3. Proposici´n 3. . −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x . En particular.5.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex .13).3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5. (3.

 0 1 −1 . e0A = In . Problema 3. 3. Para todo x ∈ R.20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. 4. entonces ex(A+B) = exA exB = exB exA . 0 0 2 0 0 2 b) 2. b) A =  0 1 0 . 2. e(x+t)A = exA etA . t ∈ R. 5. Y (0) = b) A = Problema 3. In es la matriz identidad n × n.3 SISTEMAS DE EDOS 35 3. y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . Prueba que A2n+1 = A. o Problema 3.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3.19). Y (0) = 2 1 . a) y1 = y1 + 2y2 . o sea AB = BA. b) A = −2 3 2 −5 2 −4 . . Usando lo anterior calcula las matrices exA y exB . Si A y B conmutan. y B 2n = (−1)nI2 . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. Y = AY . a) A =  0 1 2 . 1 12 3 1  .24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . Problemas Problema 3. Y (0) =  1 . del problema de valores iniciales en los siguientes casos: 1. Problema 3. A2n = I2 . Como aplicaci´n calcula exC con C = o a b −b a .21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . o o en su caso.23 Resuelve los sistemas hom´geneos o 1. con Problema 3.6. 1. cuya matriz de coeficientes es . c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . exA es invertible y su inversa (exA )−1 = e−xA . ∀x. a) A = 2. 2. 6. b) A =  0 2 −1 . 3. 0 1 2 −1 0 0 2 = AexA . exI = ex I. a) A =  4 −1 −4 4 4 1 −8 8 . 3.19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . Y (0) =  2 . B 2n+1 = (−1)n B.

con x(0) = x0.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. . 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . b) A = Problema 3. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . la correspondiente soluci´n del problema de valores iniciales cuando o 1. v(0) = 0. A = 0 3 2 1 ex cos(2x) 1 1 sen x  . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. β < ω. Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . i1(0) = i2(0) = 0. e 3. c) A =  2 1 −2 .3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . B(x) =  . o 2. i2. Y (0) =  1  4.26 Resuelve los sistemas lineales 1. a) A = . Uc 50 −50 −50 Uc 0 Se pide determinar i1. Y (0) = . x =v . 0 0 5 3 2 1 36 1. A = 2. B(x) = x ex . c) A = . sabiendo que su soluci´n es acotada si x → +∞. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. Uc en los siguientes casos: (a) V (t) = 0. A =  1 12 3 1 2 −5 2 −4 . Uc(0) = 10. B(x) = . B(x) =  0 . Y (0) = 2 1 0 0   1 −1 4 2. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . a) A =  3 2 −1 . A =  3 2 −1 . 2 1 −1 Problema 3. en su caso.

. k = 1. . A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). 2.3 SISTEMAS DE EDOS (b) V (t) = 10. entonces. k = 1. Problema 3. m. i1(0) = i2(0) = 0 = Uc(0) = 0. 2. Y. m. . fk ∈ Rn . . k=0 .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). . . Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. . Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0.28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). la soluci´n del SEDO Y = A(x)Y . .

. . αy1 + βy2 tambi´n es soluci´n. una EDO del tipo (4. N´tese que cuando f (x) ≡ 0. = . .  .  +  . (4.   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 .  .. en caso contrario es no hoo mog´nea. diremos que la EDO (4. ⇒ dx .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes. La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x). y (x0) = y0 . d  . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f.4) . .3) es lineal. entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4.1) es hom´genea. el sistema anterior o se transforma en un sistema homog´neo.  . . . . . . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x).1) Cuando f (x) ≡ 0. (4.. .2) Usando esta notaci´n podemos escribir (4. zn(x) = y (n−1) (x)  dx Es decir.    . para cualesquiera o que sean α. que si tenemos dos soluciones y1 e y2 de la ecuaci´n. o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x). (4.  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . . e a Proposici´n 4. (4. .1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. . . es decir.  .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0.. .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn .   dx  .   . .   . .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4.  .  .  . . .1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . y β ∈ R. y (n−1) (x0) = y0 (n−1) .  . .

6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. Lo anterior nos indica una estrategia para resolver el problema: 1.3 El conjunto de soluciones de la EDO homog´nea (4. . . . Sustituyendo esta o funci´n en la EDO (4. .7) donde pm−1 es un polinomio de grado m − 1 en x. . .3) con coeficientes constantes seguiremos la misma idea que para los sistemas. Finalmente. . entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). Obviamente si λk es complejo. o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. yn (x) yn (x) .1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 . y (x0) = y (0). . Teorema 4. . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4. (n−1) ··· ··· . .4 Dadas n soluciones y1 . Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. k = 1. yn ](x). . asociado a (4. n generan el espacio soluci´n de la la EDO (4.I. es decir buscaremos la soluci´n en la forma y(x) = e λx . . . . . . . . Si alg´n λk es m´ltiple de multiplicidad m ≤ n. ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . . .. Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. siendo yp o una soluci´n particular de (4.. . .3). Entonces el P. an−1 (x) funciones continuas en R. Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . (4.6). entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x).1). .3) es un espacio vectorial e de dimensi´n n. (4. yn de la EDO (4. . o 4. . . .3). (4. . . Es decir. o . . . definido por o y1 (x) y1 (x) . en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R. si λ = α + iβ.2 Sean a0 (x). o Teorema 4.3) coincide con (4. yn ](x) = y2 (x) y2 (x) . .´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4.3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. 2. c2 .1) en la forma y(x) = yh(x) + yp (x). tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. c1 .V. y (x0) = y0 que escojamos. y1 (n−1) W [y1 . . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . .1.3).5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. (n−1) = 0 ∀x. cm ∈ R.

(4.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. Sea p2 > 4q.8) tiene la forma o . o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . φ ∈ R. y2 (x) = eλ2x .9) ser´n a p2 − 4q −p − p2 − 4q . Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 .9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . entonces la ecuaci´n caracter´ o ıstica (4. 2 2 y la ecuaci´n homog´nea (4. p. o o e El caso general es completamente an´logo.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . i = −1.8) (4. equivalentemente. la soluci´n general de (4. λ2 + pλ + q = 0. δ ∈ R. Sea p2 < 4q.9) tiene una unica soluci´n real λ = −p/2.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . A.3 y la ecuaci´n homog´nea (4.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q .6) de la ecuaci´n (4. la soluci´n general de (4.8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x .7) tenemos que la soluci´n generada por λ es. λ1 = λ + iω. . Las soluciones de la ecuaci´n caracter´ o ıstica (4. A. Entonces. usando (4. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4. Caso de dos ra´ ıces reales iguales. entonces la ecuaci´n caracter´ o ıstica (4. o. Luego. (4. λ. como se pretend´ probar.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . B ∈ R. B ∈ R. y(x) = A eλx cos (ωx + δ) . y2 (x) = eλ2x . 2 2 Caso de dos ra´ ıces reales y distintas.10) Luego. B ∈ R. . en este caso. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). Sea p2 = 4q. q ∈ R. ω ∈ R.9) La ecuaci´n caracter´ o ıstica (4. 2 2 y la ecuaci´n homog´nea (4. entonces la ecuaci´n caracter´ o ıstica (4. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. A. ıa Caso de ra´ ıces complejas. A. En efecto. obtenemos que la soluci´n o o general de (4. λ2 = . λ2 = λ − iω.

2.12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x). Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . f (x) continua.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4. q ∈ R.2. entonces cualquier constante es e soluci´n. si sustituimos la soluci´n anterior en la EDO (4. (4. Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x). q = 0. (4. v + (2c + p)v + (q + pc + c2 )v = pn (x). a o 4. . por tanto a0 en la expresi´n anterior puede ser cualquiera. por lo que nuestra EDO (4.2. 4.12) siendo pn un polinomio de grado n. Ahora bien. p. (4. o sea. Este m´todo obviamente funciona si q = 0 (¿por qu´?).14) se reduce al caso anterior (4. Para resolverlo hacemos el cambio y(x) = ecx v(x).12). e e e si tenemos la EDO y + py = pn (x).13) siendo pn un polinomio de grado n. an = 0. como la EDO homog´nea es y + py = 0. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). a = 0. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. pero ¿qu´ ocurre si q = 0?.13) e igualando coeficientes. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x).2.14) luego siendo pn un polinomio de grado n.1. (4. as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero. En efecto. de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n.

El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4. Para resolver este caso notemos que si y(x) = u(x) + iv(x). a Ejemplo 4.´ 4 LA ECUACION LINEAL DE ORDEN N 4. e−x ] = −2. 3 e−x . lo cual es consecuencia de la linealidad L. Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). c2 = − =⇒ 2 2 Por tanto. f2 funciones reales. 3 ex e3x . W [y1 . (4. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 .15) siendo pn un polinomio de grado n. f1. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). la primera por y2 y la segunda por y2 . Para ello multiplicamos la primera por y1. 2 c3 (x) = − e2x .4). W [y1 . y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4.17) De esa forma tenemos que resolver dos EDOs de primer orden. Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. y2 ](x) c2 (x) = f (x)y1(x) .4. y + py + qy = pn (x)ecx cos(ωx). pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x. La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . para obtener c1 [y1 y2 − y1 y2 ] = −f y2 .3. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) .5 Resolver y − y = e2x . Ahora bien. con c1 y c2 tales que c1 y1 + c2 y2 = 0. funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x).16) (4. o bien. 4.18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. o e . Como W [y1 . 42 Veamos ahora como resolver los casos (4. entonces L[u] = f1 y L[v] = f2].11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. y2 ](x) (4. c1 y1 + c2 y2 = f (x). y2 ](x) = o W [ex . u.18) nos da o c1 = c1 (x) = ex . [y1 y2 − y1 y2 ] = W [y1 . 6 =⇒ yp (x) = e2x .2.2. la f´rmula (4. v.

x + 2αx + ω 2 x = f (t).19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ).´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. f (t) = . Aplicaciones Ejemplo 4. o sea. ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. f = 0 y α = 0.6. x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado.3. δ = arctan(b/a). x PSfrag replacements 2. o equivalentemente. . 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. (4. δ = arctan(ωx0 /v0). α= a k F (t) > 0. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). Supongamos ahora que eliminamos solamente la fuerza externa. o + c2 e−αx− √ α2 −ω 2 x . ω 2 = .6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8).19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). A= √ a2 + b2.20) cuya demostraci´n es inmediata. Entonces la EDO (4. 2m m m (4. basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno.

2 −Ω Como se ve en la f´rmula anterior. que tambi´n decrece exponencialmente a cero. que decrece exponencialmente a cero. Si α < ω. llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt . Obviamente para o forzadas: resonancia. Si usamos la identidad (4. 2b. (ω 2 − Ω2)2 + 4α2 Ω2 (4. se suele denominar . Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. entonces. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . Veamos el caso general y. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. 3. Si α > ω.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). e 2c.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). entonces. por simplicidad. Si α = ω. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. En este caso se dice que el movimiento es amortiguado ya que aunque oscila. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. en este caso m y k. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . que decrece oscilando exponencialmente a cero (ver figura 9 derecha). es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema.´ 4 LA ECUACION LINEAL DE ORDEN N 2a. Ω = ω la amplitud es m´xima.

Figura 12: El desastre del puente de Tacoma.´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. o sea si no hay rozamiento. Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. Figura 11: Resonancia en un sistema sin rozamiento. Por ejemplo. en ´ste. en 1831. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. f0 t f0t iωt = e sen(ωt). si t → ∞. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. Este puente se abri´ al p´blico el 1 de julio de 1940. o . x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia.21) que nos da. En este caso tenemos que repetir el proceso anterior lo que nos da. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). Desde ese mismo d´ se observ´ que o u ıa. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. Inglaterra). En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). Veamos ahora que ocurre si α = 0. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. 2ω N´tese que a diferencia del caso con rozamiento. La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo.

o Ejemplo 4.22) siendo β = |r 2 − ω 2 |. r < ω En particular. U(t) Figura 13: Circuito RLC del ejemplo 4. Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. si Ω = ω tenemos la soluci´n o u0 t sen(ωt). o. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. 2ω que es no acotada. ω 2 = 1/(LC) y u(t) = U (t)/L.8 Los osciladores acoplados . L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). en este fen´meno se basan los equipos de radio actuales.     (c1t + c2 )e−αt .  r>ω  c1 e−(α−β)t + c2 e−(α+β)t . afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . donde r = R/(2L). (ω 2 − Ω2)2 + 4r 2Ω2 (4.´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. q + 2rq + ω 2 q(t) = u(t). Entonces. o n o El puente parec´ aguantar bien. equivalentemente. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 . De o hecho.7. o sea. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t).19). es m´s varios expertos aseguraban que todo estaba bajo ıa a control. Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. Obviamente la EDO anterior es totalmente an´loga a la EDO (4. Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). la carga por unidad de tiempo.

Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. m . La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). conocidas como frecuencias propias del sistema.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. entonces obtenemos x1(t) = cos t x2(t) = cos t. ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . x1(0) = 0.24) ω2 = k . ±ωi. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). m1 m2 (4. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . An´logamente se puede obtener la a expresi´n para x2.23) k2 + k 3 m2 − 2 k3 x1 = 0.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. x2(0) = 1 y x2(0) = 0. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. 47 En la figura 14 vemos dos osciladores acoplados. Entonces (4. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. Supongamos que x1 (0) = 1. Veamos que ocurre al incluir este ıa u resorte. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. Figura 14: Dos osciladores acoplados. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda.

o sea. es una combinaci´n de las frecuencias. o Figura 17: Caso x1(0) = 1/2. x2(t) = − + − 4 4 4 4 3 es decir. x2 (0) = 1 y x2(0) = 0. x1(0) = 0. . por ejemplo. x2(0) = −1 y x2(0) = 1/2.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. tenemos √ √ x2(t) = − cos( 3t). x2(0) = −1 y x2(0) = 1/2. x2(0) = −1 y x2(0) = 0. x1(0) = 0. x1(0) = 1/2. Figura 16: Caso x1(0) = 1. obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x2 (0) = −1 y x2(0) = 0. Si x1(0) = 1. x1(0) = 0. Pero si escogemos. tenemos que las oscilaciones son con las frecuencias propias. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x1(t) = cos( 3t). x1 (0) = 1. x1(0) = 1.

2.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. y − 4y + 13y = 0. 5. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). a k mg Figura 18: El oscilador y el p´ndulo simple.4.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. y + y + y = 1 + 2x + 3x3. Problemas Problema 4. Problema 4. y (0) = 0. y − 4x = 4x2 + 2x. Problema 4. 2. o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . 3. y + y − 6y = sen x + xe2x . y − y − 6y = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. respectivamente. 4. y lθ + gθ = 0. y(0) = y (0) = 2.10 Resolver las EDOs 1. Encuentra la soluci´n general de ambas EDOs. y(2) = 0. y (2) = 1. y (0) = 0. y + 2y = 1 + x2 + e−2x . y − y = x2ex con y(0) = y (0) = 0. 3. e Las EDOs que gobiernan estos sistemas son my + ky = 0. y(0) = 1. 1. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y + 12y + 36y = 0. 6.

´ 4 LA ECUACION LINEAL DE ORDEN N 50 2.12 Resuelve las EDOs 1.8 incluyendo rozamiento. e 2. sin e velocidad inicial. y (4) − 16y = 3 cos(x).) m1 = m2 y k1 = k2 . Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . k3 = 2k1 y 3.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4.) m1 = 2m2 y k1 = k2 = k3 . Analice los casos: 1. ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4.14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. y − 6y + 11y − 6y = xex + x2. y + 8y = x2 . En ambos casos resuelva la EDO correspondiente. Problema 4. Problema 4. 2. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . 3. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10. k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados.) m1 = m2 y k1 = k2 = k3 .

2n − 2 (2n)(2n − 2) · · · 2 n! . (5. de donde tenemos o an+2 = 2 an . Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5.2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. .2) en (5. . . ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0.1 Resolver la EDO y − 2x − 2y = 0. . En o o efecto. . ak ∈ R. Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. si sabemos a0 .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. k ∈ N y si conocemos a1 entonces podemos calcular a3. q(x) y f (x) dependen de x. a4 . La idea del m´todo es sustituir la serie y(x) (5. Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk . De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0.2). k ∈ N. Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0. a5 . Es importante que la serie converja en todo un entorno de x0.1) El objetivo es resolver la EDO anterior cuando las funciones p(x). es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . As´ tenemos ı. a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . n+2 n ≥ 0. (5. a2k . Por sencillez supondremos x0 = 0. . Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . a2k+1 .1) e igualar los coeficientes de e las potencias. la recurrencia anterior permite calcular los valores a2. de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0.

Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. e Ejemplo 5. o a 5. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. Por ejemplo. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. Esta claro que el m´todo anterior no siempre funciona. ∀n ∈ N. n∈N =⇒ an = 0. . e− p(x)dx 2 y1 u=v. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1).2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0.1. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x).5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. s´lo podemos encontrar una soluci´n: y1(x) = x. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. (n − 1)(n + 2)an = 0. 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. sin p´rdida de generalidad C = 1 y D = 0. =⇒ v(x) = C + D. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . n=1 es decir. entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x.

3) Definici´n 5. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. 2. Definici´n 5. adem´s. La soluci´n del problema de valores iniciales y(x0) = y0 . an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias. Usualmente la EDO homog´nea (f (x) ≡ 0) (5. q y f .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. En caso contrario se dice que o x0 es un punto singular. (5. Puntos regulares y singulares de una EDO Definici´n 5.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. en general. Por ejemplo. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . asumiremos x0 = 0.2. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. En lo que sigue. ∀n ≥ 0. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 .5 Un punto x0 se denomina punto singular regular de la EDO (5.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0.3) con un punto singular en x0. Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . a e a . Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas.6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. por simplicidad. luego. por ejemplo x = 1. Entonces: 1.1) si o p(x). probar que el radio de convergencia de la soluci´n de la EDO (5. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0.3 Dada la EDO (5. o sea. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · . si p(x). si lo es. para a o x > 0. (5. Ello no siempre es posible. q(x) y f (x) son funciones anal´ ıticas en x = x0.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. el punto x0 se denomina punto regular de (5.1). Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · .1). mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). Teorema 5.1) a o es el menor de los radios de convergencia de p. aunque en algunos casos. Es posible.

6) 3. Caso (p0 − 1)2 − 4q0 = 0. Sea r1 = a + bi.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. Caso (p0 − 1)2 − 4q0 < 0. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. En general o o se tiene el siguiente Teorema 5. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. (5.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. Entonces si sustituimos en la EDO (5. al igualar la potencia xr .8) Recordar que estamos suponiendo x0 = 0.7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . 2 Entonces se tienen los siguientes casos para x > 0 1. r1. (5. r2 ∈ C (dos ra´ complejas). Sean r1 y r2 las soluciones de la ecuaci´n indicial. x > 0. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). Sustituyendo y(x) = xr en (5. . Caso (p0 − 1)2 − 4q0 > 0. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . Veamos que ocurre en el caso general. o r1.5) 2.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . k=0 de donde. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. Caso (p0 − 1)2 − 4q0 > 0. (5. x > 0. x > 0.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0.3) e igualamos potencias nos queda. x > 0. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. (5.

Sustituyendo y1 en (5. Como hemos supuesto que γ ∈ Z. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · .9) 3. (5. q(x) = . Sea r1 = a + bi.12) luego Por sencillez asumiremos que γ ∈ Z. y2 (x) = x1−γ bn x n . En efecto. (5. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. Caso (p0 − 1)2 − 4q0 = 0. n=0 n=0 Comencemos por la primera.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero). entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0.3. .10) 4. x2q(x) = −αβx + · · · . an = (n + α − 1)(n + β − 1) an−1 . x > 0. x > 0. r1. r1 = r2 − N ∈ R. Caso (p0 − 1)2 − 4q0 = 0.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . de donde tenemos o dos soluciones r = 0 y r = 1 − γ. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. ı o a 5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. por tanto. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k .11) donde A es cierta constante que puede ser nula. r2 ∈ C. En todos los casos las series convergen en un entorno de x0 = 0. (5. dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . Obviamente x = 0 es un punto singular regular. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . (5. n(n + γ − 1) n ≥ 1. x > 0. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . Caso (p0 − 1)2 − 4q0 < 0.

14) conocida como funci´n hipergeom´trica de Gauss. y prueba que an = p(p − 1)(p − 2. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. n ≥ 1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. Problema 5. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). (γ)k k! (5. y(0) = 1.8 Resuelve las EDOs siguientes usando series de potencias. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . x2y = y + x2 + 1. Problemas Problema 5. β − γ + 1 x . Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . 3. (α)n (β)n . 2−γ 5. (5. xy = 2y + xex. si es posible. (x4 − 4)y + 3xy + y = 0. que no es m´s que el teorema del binomio encontrado por Newton. o o Como consecuencia del teorema de existencia y unicidad. a . ∞ n=0 an xn. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. 1.13) (α)k (β)k xk . Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma.4. n! p ∈ R. o o 3.9 Sea la EDO (1 + x)y = py. 2. e indica la regi´n de convergencia de las mismas o 1. p ∈ R. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. Encuentra la regi´n de validez de la doluci´n anterior. α − γ + 1. (γ)nn! n ≥ 1. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . entonces obtenemos an = por tanto y(x) = 2 F1 α. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. 4. y + 2y + y = x.

Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. c ∈ R se transforma. 4. Problema 5. (EDO de Laguerre generalizada) 3. a.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. x2y + xy + (x2 − p2 )y = 0. (1 − x2)y − xy + p2 y = 0. Problema 5. x2y + 2xy − 6y = 0. xy + (1 − x)y + py = 0.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0. b. y + xy = 0. 2. b. (EDO de Laguerre) 2.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1.12 Resuelve las siguientes EDOs de Euler 1. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. x2y + xy − 5y = 0. o e Problema 5. o e Encuentra dos soluciones linealmente independientes de la misma. . Problema 5. y − 2xy + 2py = 0. a. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). (1 − x2)y − 2xy + p(p + 1)y = 0. xy + (1 + α − x)y + py = 0. 3. (EDO de Legendre) 3. (EDO de Chebyshev) 2. a. x2y + 3xy + 2y = 0. c ∈ R. (x − 1)2y − 2(x − 1)y + 2y = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. (EDO de Hermite) 57 4. (EDO de Bessel) Problema 5. (EDO de Airy).

µm = λ + i=0 (x) ..1) son ortogonales dos a dos: .1.. Para ello usualmente o se escriben (6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ].1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo.1) y (6. respectivamente.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. n = 0. utilizando las ecuaciones anteriores. entonces para las soluciones polin´micas de la ecuaci´n (6.2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x).2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)].3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x). [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. Conocida ρ encontramos. el autovalor λn de (6. τ + kσ /2 = 0.1 Si y es una soluci´n de (6.4) Teorema 6. 2. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn .6) Anm = Am (λ) |λ=λn Adem´s. (6. (6. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. . e o Teorema 6.2 Si para todo k ∈ N ∪ {0}. 2 (6.5) (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6.1).5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].1) donde σ y τ son polinomios de grados a lo m´s 2 y 1. 6. Esta ecuaci´n (6. que ρm (x) = σ m (x)ρ(x).1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad. 1. λ ≡ λn = −nτ − n(n − 1) σ .7) Cuando m = 0 la f´rmula (6. . Ann (n) (6. m−1 (6. [σ(x)ρm (x)] = τm (x)ρm (x). (6. (6.

10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6.11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) . se cumple que: o b a = 0. para todo k ≥ 0.b ciones polin´micas Pn de la ecuaci´n (6.9) o e n e integrando por partes. o sea. y) ≡ n ≥ 1.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. an−1 an−1 an d 2 n−1 (6. τn−1 (6. Generalmente se impone que P−1(x) = 0 y P0(x) = 1.12) siendo an . (6. sustituy´ndola en (6. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx.14) . podemos utilizar la f´rmula de Rodrigues que. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ]. an+1 βn = bn bn+1 − .6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x). a (6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. (6.9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = .11).de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x).11) donde αn = an .13) Como un corolario de (6. Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 .3 Supongamos que xk σ(x)ρ(x) 59 x=a. y dn es la norma de los polinomios. = 2 2 dm dn x−y m=0 n Kern (x. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x). Corolario 6. Luego. (βn )n y (γn )n. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n .1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x). n (6. n! k=0 n−1 bn = nτn−1 (0) an .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. a Para calcular d2 .

16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x).18) λn ˜ [βn τn + τn (0)] . Polinomios de Jacobi n α.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) .5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x). cuando σ es de grado 1. Pn (x) = o a ´ xn + bn xn−1 + · · ·. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 .19) 4. i.e.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). (6. Laguerre y Jacobi.. 6. En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. en las cuales (a)n denota al s´ ımbolo de Pochhammer (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x. . ¯ Bn−1 (6. soluciones de la ecuaci´n (6.1). Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos.2. 2. es decir. Tomando m = 1 en la f´rmula (6. Los Polinomios de Hermite. βn = nτn γn = ˜ (6.2.β Pn (x). (6. tales que su coeficiente principal an = 1. donde αn = ˜ Bn λn αn τ n − .20) 6. τ es un polinomio de grado exactamente uno. o 3. Si escribimos la f´rmula (6. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). Si definimos Qn (x) ≡ n+1 . τn (x)Pn(x) − nτn Bn+1 (6. respectivamente. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1. nτn Bn+1 P (x) n ≥ 0. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x. n (6.1.30). x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. Par´metros Principales. λ n γn .

.3.. H2m+1 (x) = (−1)m x 1 F1 m x2 . n + α + β + 1 1 − x . .21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . γ > −1. o usando el m´todo de las series de potencias. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk . Representaci´n hipergeom´trica.0 1. (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6. . Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 .2.2. Casos particulares.γ− 2 (x). (6.2.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas.22) (6. 3. 2n sen[ arccos (x)] 4. o e De la f´rmula de Rodrigues. ap x b1 . b2 . a2 .β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x . β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6.23) (6.β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α. 0. (6. 1 sen[(n + 1) arccos (x)] ...5) se o e puede obtener la representaci´n de los polinomios de Hermite. Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = . Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1... 2. Los polinomios de Legendre Pn(x) = Pn (x). o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n. α+1 2 6. 2 .− 1 2 (x) = 1 2n−1 cos[n arccos (x)].24) Lα (x) = n α. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 .

2. e n! α+ν. 3.. (n − ν)! . Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad. (n + α + β + 1)n (6. 2. Lα (0) = n (−1)nΓ(n + α + 1) . 2. a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.β+ν Pn−ν (x).. Otras caracter´ ısticas. n = 0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). Γ(α + 1) 2n (α + 1)n α.26) (6.): o (Hn(x))(ν) = n! Hn−ν (x).β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6. H2m (0) = (−1)m (2m)! .16) encontramos las ecuaciones (ν = 1..β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x). (n − ν)! α. 1.4. .25) Utilizando la f´rmula (6. (n + α + β + 1)n (−1)n 2n (β + 1)n α. (n − ν)! n−ν (6. .β Pn (1) = ..27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x)..β Pn (−1) = . 22m m! H2m+1 = 0.

respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2). en general. mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. 1 x Pm 2 2 (2x2 − 1).29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. (z) > 0. . 2m Adem´s. . (a)k = (6.α α. En particular. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5.β Pn (−x) = (−1)nPn (x). .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = .28) 1 γ− 1 . Gγ (x) = P2m 2 2m 1 γ− 1 . Γ(a) Finalmente. (n − k)!k! k! . sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z).γ− 2 (x) = β.γ− 2 −1 2 H2m+1 (x) = xLm (x2) . ∀n ∈ N. Γ(a + k) . 3. (6.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. a(x) = 1. cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z).− 1 2 (2x2 − 1). . 2. 1 1 γ− 2 . y adem´s. definida. n→∞ z(z + 1) · · · (z + n − 1) π . de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . P m m 2 1 (x) = (6. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814. (a)k = a(a + 1)(a + 2) · · · (a + k − 1).30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . x >> 1. Adem´s. k = 1.

(6.µ (z) + τν + µσ 2 Cν. . C0 = 0 ∞ xα e−x dx = Γ(α + 1).33) deducimos que. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0. para ν = 0.34) sp ρ(s)ds.33). µ = p ∈ N. Teorema 6. que usar (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos.3.33) En particular. como C0 = π. as´ que tenemos ı cuando z = 0.µ−1 (z) + [τν (z) + µσ (z)] Cν. Ejemplo 6. De ella o como C1 = 0.µ (z) = a (s − z)µρν (s)ds.34). a (6.33) y (6. entonces todos los momentos impares son nulos.32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν. 2m 2 m! C2m+1 = 0. (6.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. (6. Se definen los momentos como b Cν. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0.µ+1 (z) = 0. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. de donde deducimos que Cn = Γ(α + n + 1). lo cual es √ la funci´n peso es una funci´n par. de (6. luego Cn = (α + 1)nC0 . z = 0 obtenemos. Adem´s.34) es o (α + n + 1)Cn − Cn−1 = 0. Finalmente.7 Sea µ ∈ C.p (0) = a b Cp+1 = 0. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π.

o Para los polinomios cl´sicos se tienen las siguientes identidades. n! (1 − t)α+1 tx (6.37) con R = 1 + 4t(t + x).35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. t) = e2xt−t . t) = ∞ n=0 An Pn (x)tn. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos. 2 .4. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x. Caso Hermite Hn (x): Primera prueba Sea Φ(x. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia.36) 2α+β (−1)n (α + β + 1)n α. o o Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . n! R(1 − 2t + R)α (1 + 2t + R)β (6. t) tal que. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . (6. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. Bn 2xt−t2 2n Hn(x)tn. No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x).β Pn (x)tn = .

t). a Ahora sustituimos (6. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). t) = obtenemos la ecuaci´n o ∂ Φ(x. 0) = 1 y Φt(x. 0) = 2x.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. usando el desarrollo en serie ı de Taylor en t para Φ(x. t) = 0. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. ∂t De aqu´ deducimos que Φ(x. t) y compar´ndolo con (6. Ahora bien.38) deducimos que g0(x) = 1 y g1(x) = x. n! (6. equivalentemente. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. t) + 2(t − x)Φ(x. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. (n − 1)! n! n! n=0 n=0 ∞ ∞ . t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x.38) donde (gn)n es una sucesi´n de polinomios a determinar. por tanto. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. t) = ∞ n=0 2 2 2n gn (x)tn. n! n! n=0 ∞ o. como Φ(x. e a o Sea la funci´n generatr´ Φ(x. ∂t cuya soluci´n es Φ(x. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t) = e2xt−t . t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x.

n (0) de o los polinomios de Jacobi. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. .39) Problema 6. n! (6.n (1). entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. 6. y)dx = p(y). Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0.13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 .γ− 1 γ dada por (6. es decir. Encontrar la relaci´n de recurrencia para los momentos Cn := C0. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0. si en vez de sustituir a en (6. 67 Ahora bien. los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x). (6.n (0) en o este caso y resu´lvela. Problemas Problema 6. respectivamente.33) z = 0 sustituimos el valor z = 1. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre. kn a (6.36).41) donde (γ)n es el s´ ımbolo de Pocchamer. 2n (γ)n γ Cn (x)tn. 2g2(x) − 4xg1(x) + 2g0(x) = 0. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x.0 Pn(x) = Pn (x). N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = . es decir.12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 . Problema 6. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 .40) Problema 6.5. Problema 6.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn . A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 .− 1 0. a ∀p(x) ∈ Pn .

β α.β (x) + Pn (x). 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 .α.14 Prueba las relaciones α.β (2n + α + β)(x + 1) d Pn (2n + α + β) α.α KerJ.α ηn (−1)n−1 Γ(2n + α + β) .β α.42) α+1.β+1 Pn−1 (x) = α.β (−1.17).44)-(6. 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.β−1 β. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x).45) (−1)n−1 Γ(2n + α + β) .14). 1) = Kern−1 (−1.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6. n Γ(α + 1)n! KerL (0.β+1 KerJ.β.15 Los polinomios n´cleos Ker n−1 (x. 1) = (−1)n+1 ηn dx Pn n−1 β. 2n(β + n) dx 2(β + n) 68 (6.β Pn−1 (x) = (6. KerH (0. y) se definen mediante la expresi´n u o Kern−1 (x. n−1 β. 1) = n−1 Utilizando la relaci´n de simetr´ (6.α. Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α.β (2n + α + β)(1 − x) d Pn (2n + α + β) α. 0) = .44) (6.β d α−1. 0) = √ 2m π(m)! π(m)! x KerH (0.43) Problema 6. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) . −1) = ηn dx Pn (x) = nηn Pn−1 (x). 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .β (1. y) = Pm (x)Pm(y) .25) y las o f´rmulas de diferenciaci´n (6.β (x. 0) = √ Lm−1 (x2) = √ . 0) = n−1 (α + 1)n . 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.α α+1.β (x) − Pn (x).β donde por ηn y ηn denotaremos las cantidades β.α.α ηn = (6. −1). d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6.β (x.α α.α.β α.β (−1.α. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x.α d (x) = n(−1)n+1 ηn Pn−1 (x). los valores en los extremos (6. 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 . n−1 . 2α+β+n n!Γ(α + n)Γ(β + 1) β. KerJ. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.29) para los polinomios de Jacobi prueba que o ıa J. Lm (x2) = √ KerH (x. 2n(α + n) dx 2(α + n) α.45) tenemos KerJ.

Sea M = m´x |f (x.4) Para la norma tenemos la desigualdad evidente u ≥ 0. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden. (7. entonces y1 (x) = y2(x) en todo Id . Proposici´n 7. ∂y Definici´n 7. Obviamente si u(x) es continua u < +∞. Sea el problema de valores iniciales y = f (x.1) tiene soluci´n unica.3) Definici´n 7. a.7. n = 0.5) yn+1 (x) = y0 + x0 f (ξ.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. y(ξ))dξ.2 Diremos que una funci´n f (x. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. (7. yn (ξ))dξ. Adem´s. y) : |x − x0| ≤ a. 1/K).2) Proposici´n 7. |y − y0 | ≤ b}. . Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. o ´ Lo primero que asumiremos es que la funci´n f (x. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. (7. se tiene la desigualdad triangular a u+v ≤ u + v . y) − f (x. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7. (7. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. y u = 0 si y s´lo si u(x) = 0 en o I. . (7. y(x0 ) = y0 . y)|.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. Adem´s. y) es continua en el rect´ngulo R o a definido por R = {(x. . Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. b > 0.1 El PVI (7. M siempre est´ definida.y)∈R Como f es continua en R.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. y). a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. . 1.4 (Teorema de unicidad local de soluciones) o Sea f (x.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. a (x. una condici´n suficiente para que una funci´n f (x. z)| ≤ K|y − z|. x∈I |f (x. o o .6) La sucesi´n anterior se conoce como sucesi´n de Picard. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. y) ∈ R y (x. 2. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7.1) En el apartado 2.

y) − f (x.1. y) = 1 + y 2 .7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7.7 (Teorema local de existencia y unicidad) Sea el PVI (7. Sea x ∈ R por ejemplo. y M = m´x(x. Problemas Problema 7. la sucesi´n de Picard e o (7. Para ello basta definir una a norma en RN y el valor absoluto de un vector.1) con f lipschitziana de constante K en R (7.8 Prueba las propiedades anteriores para la norma u . 1/K) = m´ ın(a. Las correspondientes o demostraciones se dejan como ejercicio. Si ahora usamos. para todo n ≥ 0. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . y)|. Corolario 7. b/M. por ejemplo. b/M )} tal que su imagen est´ contenida en R. Entonces K = 2b y M = 1 + b2 . el PVI (7. y) = y.2). a Entonces. En este caso ´ la soluci´n es y = tan x definida s´lo en [0. Problema 7. 1/K)}. o . entonces o o |f (x. 7. 1/b). Entonces.9 Sea la EDO y = x − y 2 con y(0) = 0. Entonces. Los teoremas anteriores son s´lo condiciones suficientes. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. |y0 (x) − y0 | ≤ b. 2 Ahora bien. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |. luego f es lipschitziana con constante K = 1.e.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. b/(1 + b2 ).1) o o en Id . y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. Como f (x. o a El procedimiento anterior es f´cilmente extensible a sistemas.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. digamos que |y| ≤ b > 0. y(x)) e ´ o y(x0 ) = y0 . M = b.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a. Encuentra las tres primeras aproximacioo nes de la soluci´n. Escojamos un valor cualquiera para y.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a.y)∈R |f (x. b/b. b/M. la norma k=1 N Y = k=1 yk . π/2). Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n.. b/M. las im´genes e a de yn (x) est´n contenidas en R. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. a Proposici´n 7. i. es decir existe una unica funci´n y(x) tal que y (x) = f (x. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. por tanto d = m´ ın(a. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. z)| = y 2 − z 2 = |y + z||y − z|. 1/1) = 1}. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. 1/K)} tal que su imagen est´ contenida en R. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0.

1/2] 2. 1/2] Problema 7. y = x + y 2 . x ∈ [0. y(0) = 0. Comp´ralas con la soluci´n exacta. x ∈ [0. y(0) = 0.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . a o . y = y 2 + cos x2 . 3/10] 3. x ∈ [0. Problema 7. y(0) = 0.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y(0) = 2/5.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . y = y 3 + e−5x . y(0) = 0.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

2. 0 dx = C 1 dx = x + C xα dx = xα+1 + C. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x).1) f (x) dx.) 1.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. 5.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. d dx f (x) dx = f (x) (A. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). 4. α = −1 1 dx = log |x| + C x ax dx = ax + C. b). para todo o x de (a. 2. b) si para todo x de (a. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. 7. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. Definici´n A.5 Tabla de Integrales 1. f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. 3. Anexo: C´lculo de primitivas a Definici´n A.4 (Propiedades de la integral indefinida. 8.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. Por ejemplo. b). α+1 ∀α ∈ R. Entonces. 3. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . b) se tiene que F (x) = f (x). log a a > 0.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a. Teorema A. De manera que. 6. 4. F1 (x) − F2 (x) = const. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x.

1. 14. o o sea. A.7 a) Calcular cos(2x) dx. e o Integraci´n por cambio de variable. Como la integral no es de la tabla es necesario convertirla en una de la tabla. b)] o la imagen de φ(x).6 Sea t = φ(x) una funci´n derivable en x y sean X = (a. Como la integral no es de la tabla es necesario convertirla en una de . Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). 10. Entonces sobre todo el conjunto (a. o Ejemplo A. 11. b) el dominio y T = φ[(a. 17. 13. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). 16.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9.1. 12.1. M´todos de integraci´n. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. g(t)dt = G(t) + C. o Teorema A. b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. 15.

Donde para 2. v(x) = x n+1 tabla. Entonces. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1.8 a) Calcular xn log x dx.. Las integrales (ax + b)n sen cx dx. (A. (ax + b)n cos cx dx y (ax + b)n ecx dx. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n .3) v(x)u (x) dx. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores.2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A.´ A ANEXO: CALCULO DE PRIMITIVAS A. arc sen x. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx. log φ(x). du(x) = x dx n+1 dv(x) = xn dx. . du(x) = aeax dx dv(x) = cos bx dx. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C.1. Las integrales de la forma eax sen bx dx.. sobre (a. respectivamente. v(x) = 1 sen bx b eax sen bx a − b b de la tabla. b) y existe la primitiva de la funci´n v(x)u (x) en (a. arc cos x. Integraci´n por partes.. sen(log x) dx y cos(log x) dx. b). Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x. 3. u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx.2. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). eax cos bx dx.. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax . potencias enteras de las funciones anteriores. b b b de donde. Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. (A. u(x) = (ax + b)n−1 . Las integrales donde aparezcan las funciones log x. .4. Ejemplo A. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . du(x) = aeax dx dv(x) = sen bx dx.

si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). Para determinar dichas constantes sumamos los t´rminos de la derecha.6) Como consecuencia de lo anterior. N´tese que el denominador e o com´ n coincide con (A. Li y Ki son ciertas constantes reales. Li y Ki . . k no tienen ı Pn (x) ra´ces reales. Integraci´n de funciones racionales.5) con P n (x). y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . Definici´n A. No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi . Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. si n < m. Qm (x) (A.4) donde x1 . la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. (A. (A. ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . xp son las ra´ces reales de Qm (x). Bi .7) entonces..9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + .. el Ani de A ni Ani −1 A1 + + ··· + .5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . Mi . a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i . o sea. Bi ..´ A ANEXO: CALCULO DE PRIMITIVAS 78 A.. o sea. Ni . o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x).10 Supongamos que donde k < m.. Pn (x) es una fracci´n simple. .2. o sea. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A. y los factores x2 + pi x + qi . i = 1. Ni . Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + . Mi . Qm (x) Qm (x) Teorema A. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai .8) . si Qm (x) tiene m ceros reales y simples. Entonces.4) y el numerador es un polinomio de grado a lo sumo n.

C..9) obtenemos A = l´ ım x(x − 1) = −1.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C. m.. si P n (xk ) = Qn (xk ) e para ciertos x1 . x y x0 son iguales. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales.. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales... Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 . k (x − a) 1 − k (x − a)k−1 k > 1. B. Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) . Qm (x) k = 1. x dx. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + . 7 (A. es decir. ıces . (x − 1)(x − 2) Ejemplo A.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C. 2. x2 . x−a B 1 B dx = + C. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A.. 2 x2 + px + q 2 4q − p 4q − p2 x dx.12 a) Calcular x2 Luego..´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 . utilizando (A. xn+1 (distintos entre si).. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2. (A.9) Teorema A. entonces Pn (x) ≡ Qn (x) para todo x ∈ R..10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. utilizando (A. (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. . Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . .

sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C.3. 1 + t2 f (sen x. donde f (− sen x. Esta integral es del tipo 1. cos x) dx.13 Calcular la integral dx = sen x dx . cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. cambio t = tan x Ejemplo A. Luego. Integrales trigonom´tricas. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. cos x). 2. f (sen x. cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . Ellas son las siguientes: 1. (x − 1)2 x2 + 1 2(x − 1) 2 A. − cos x) = f (sen x. cos x). cos x) = −f (sen x. − cos x) = −f (sen x. donde f (− sen x.14 a) Calcular la integral dx = sen x dx . cambio t = sen x f (sen x. o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. o Ejemplo A. 1 + t2 1 + t2 2 dt. 3. donde f (sen x. cos x) dx.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . cos x) dx. sen x =− 1 x 1+t dt = − log +C = log tan +C. cambio t = cos x f (sen x. Luego. e f (sen x. cos x).

a2 x x arc sen + 2 a 2 x2 − a2 dx. Luego.4. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx.4. f (x. y f x. por tanto a2 − x2 + C. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. a2 − x2 ) dx. cambio x = a sen t x2 − a2 ) dx. x2 ± a2 ) dx.15 a) Calcular la integral a2 − x2 dx. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. √ f (x. 2. Esta integral es del tipo 2. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. cambio x = a tan t Ejemplo A. Las integrales √ f (x. 2 4 √ pero. Luego. Integrales irracionales. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . Esta integral es del tipo 3. 2 2 2 2 2 A. √ f (x. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. x2 ± a2) dx y √ f (x. cambio x = a sen t x2 + a2 ) dx. 3. Esta integral es del tipo 1. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. sen3 x 1 +C. f (x.1. a2 − x2 ) dx A. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . Luego. Luego. f (x.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. Esta integral es del tipo 2. a2 − x2) dx.

Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. Luego. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. x2 +a2 pero. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. c ∈ (a. f (x) es integrable en [a. n ax + b cx + d dx. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 . (A. n ax + b cx + d dx.4. obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C.16 Calcular la integral √ dx √ . Las integrales f x. Sea f : [a. Entonces f tiene primitiva en [a. ax+b cx+d . a Teorema A.12) siendo Φ(x) una primitiva cualquiera de f (x).2. b]. Esta integral se racionaliza con el cambio t = 3 x + 1. F (x) = c f (t) dt. deshaciendo el cambio t = 3 x + 1.11) Adem´s. (A. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C.´ A ANEXO: CALCULO DE PRIMITIVAS pero. .17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. b] → R a o continua en [a. b] y una de ellas es la funci´n o x n x. b). Esta integral es del tipo 3. Luego.

.  . . . 2. . . Intercambiar dos ecuaciones. . o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n. x2 . an1 an2   .1)..  . . .. Intercambiar dos filas. . . .. . o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices.1) no tiene soluci´n decimos que es o o un sistema incompatible. .1) .. 2. Multiplicar por una constante no nula una fila cualquiera. De esta forma e e o la matriz asociada al sistema (B. .. Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m .1.  (B. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B..1) es compatible si existen los valores de x 1 .. Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. .  . De forma que a cada una a le corresponden las siguientes operaciones por filas 1. . 2. . Multiplicar por una constante no nula una ecuaci´n cualquiera.2)  . 3. .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1. . a El sistema de ecuaciones (B.. 2.  . Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. .1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. Si un sistema lineal de la forma (B. m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. A  a11 a12  a21 a22   . . . B. n) est´n colocados los coeficientes a ij (j = 1.. y se denomina matriz ampliada del sistema. . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones.´ B ANEXO: ALGEBRA LINEAL 83 B. . ... Si existen dichos valores diremos que el sistema tiene soluci´n. ´ Anexo: Algebra lineal Sistemas lineales y matrices. .1). . . .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas. an3 · · · anm  se le denomina matriz de coeficientes del sistema.3) Un sistema lineal de la forma (B. . .

Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila. es decir se cumple el siguiente teorema: ´ Teorema B. o B. Todas las filas no nulas est´n por encima de las nulas. 3. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. 2.  0 0 1 0 0 ∗ . e u Las operaciones anteriores se denominan operaciones elementales de filas. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. (B.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila.   (B. Formas escalonadas y el algoritmo de reducci´n por filas.2. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . ıa Debajo de cada elemento gu´ s´lo puede haber ceros. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. Utilizando las formas escalonadas a anteriores (B.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ .1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida.´ B ANEXO: ALGEBRA LINEAL 3. ıa Diremos que una matriz est´ en forma escalonada si: a 1. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica.4) .

las cuales pueden venir expresadas en funci´n de las variables libres. Este ser´ el primer pivote. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. 3. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. As´ por ejemplo ı. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. Si el pivote no es uno dividimos por su valor para que lo sea. a ∗ ∗ ∗ ∗ 0    . mediante operaciones elementales de filas.3. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. o . Comenzando por el primer pivote de la derecha creamos. Soluci´n de un sistema de ecuaciones lineales. B. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). El resto de las variables se denominan variables libres. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. Este proceso consta del siguiente paso: 5. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. si es preciso. a El significado de una variable libre es que dicha variable puede tomar cualquier valor. Este proceso consta de cuatro pasos: 1. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. o El algoritmo de reducci´n por filas consta de dos fases (partes). ceros encima del mismo. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. 4. La segunda parte consiste en transformar la forma escalonada en la forma reducida. 2.   (B.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. Este paso se repite hasta que no queden m´s filas no nulas.

2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero)... xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 .6). . donde x1 . . ıa o B. Los valores x1 .. x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . Vectores y ecuaciones matriciales.4. B.1. Las variables principales ser´n x 1 . Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . x4 . De o a la forma de la matriz observamos que x5 .  .8) ∗ ∗ . . . xn son n´ meros reales. u  .. x6 y las libres x3 . o sea  x1  x2  x=y ⇐⇒  .. xn es decir un vector es una matriz de componentes) del vector x. los sistemas correspondientes a las dos matrices (B. . . Es decir fijando diferentes valores de x3 . no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. o lo que es igual. . . Por ejemplo.. x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 . Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. Por ejemplo.     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. x2 . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. xn = yn . x5 .´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). n × 1. Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas.4. x2 .. x4 . o sea.  .7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. x4 obtenemos diferentes valores de x1 . consideremos la matriz del sistema (B. el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B.. Diremos iguales. yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.     =   ⇐⇒ x1 = y1 ..

 =  .... . donde b es un vector dado de Rm y x1 ....  =  .   .. wn αxn Sean x.  =  . Adem´s b est´ en span (a1 . 6.         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . es decir.. 7. .  ... β n´ meros reales... 2. Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y. 87 Dichas operaciones cumplen las propiedades 1. . . w vectores de Rn y α.   . an ) = span (a1 . .  . ..2..   . 4.´ B ANEXO: ALGEBRA LINEAL B... u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b. .. an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible.   . .... Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]. 8. an de Rm y lo denotaremos como span (a1 . . al conjunto de todos los vectores de la forma L(a1 . + . a2 .. .   . αn n´ meros reales. Operaciones con vectores. a a o .. an de Rm con o pesos α1 . zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . .. an ) = α1 a1 + α2 a2 + · · · + αn an . an . o sea. . 3.. x2 .. xn son las inc´gnitas que se quieren encontrar... . . . an ) = L(a1 . respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . .  . . o sea. a2 . n´ meros reales. 5. Definiremos espacio generado por los vectores a1 .4. x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α... αn .. quienes quiera sean α1 . y. z..     w1 αx1  w2   αx2      w = αx =⇒  ... an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 . a2 .

Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x. an y b un vector de Rm . a e o sea.  . o Regla para el c´lculo de Ax.      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        . .3... am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B. a2 . 3) A tiene una posici´n pivote en cada fila.´ B ANEXO: ALGEBRA LINEAL B.. Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . a2 .. .  . . ... .5 Sea A una matriz m × n con columnas a1 . . . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. o Teorema B.. . .4 Sea A una matriz m×n con columnas a1 . a2 . .. .. o 88 Sea A una matriz m × n con columnas a1 . a2 .  ... Rm = Span(a1. Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  . an (vectores de Rm ) y x un vector de Rn .  =  . . La ecuaci´n Ax = b. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b].. an )..   .  . 2) A(α x) = α (A x) .. an . .  = x1 a1 + x2 a2 + · · · + xn an . y vectores de Rn y α un n´mero real cualquiera.  . xn Teorema B.4... . o sea. a2 .3 Sea A una matriz m×n con columnas a1 . Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A. La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b.  . la ecuaci´n A x = b tiene soluci´n.  . an . . . o o 2) Las columnas de A generan Rm . x. .

1. . donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0. tiene como unica soluci´n la trivial x1 = · · · = xn = 0.7 Un conjunto S = {a1 . x es un vector de R n y b es un vector de Rm . 89 Conjunto soluci´n de los sistemas lineales.9) B. El sistema lineal A x = 0 se denomina sistema homog´neo. s2 . Dependencia e independencia lineal. . · · · . o sea la matriz A tiene al menos o una columna que no es pivote. Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre.. Y as´ sucesivamente.. sp cuyo n´ mero coincide con el de las u variables libres del sistema.. Teorema B. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . an se denomina linealmente dependiente si existen los valores x1 . sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres.. a2 . . Para obtener los vectores s1 ..4. ´ o Un conjunto de vectores a1 . El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo.. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero.. Un conjunto de vectores a1 . Sea p una o soluci´n de A x = b (soluci´n particular).´ B ANEXO: ALGEBRA LINEAL B.. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   .... Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s.. a2 . x2 . a2 .6 Supongamos que A x = b tiene soluci´n para cierto b de R m . .. o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales. . o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. s2 .5. xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. o e (B.. u . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2.4. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 .4. es decir. e Teorema B.. an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. Dicho sistema siempre tiene la e soluci´n trivial x = 0. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 .

a2 . Teorema B.. B y C matrices de m × n y α.8 Un conjunto S = {a1 . (A + B) + C = A + (B + C).. .1. es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ].. . . .. . o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||.. . 3. . Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B.5. .. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. . β n´meros reales. an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. α(A + B) = αA + αB. 5. .. (α + β)A = α A + β A. . . A + B = B + A. . . an y b1 .. donde a1 . es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. an necesariamente cada vector es combinaci´n de los anteriores. . es decir. Teorema B. .. · · · amj · · · amn      fila i →  ai1 ai2   .. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 . a2 . a12 a22 .10) B. donde 0 ≡ ||0|| es la matriz nula. . . . Vamos a estudiar las operaciones elementales de las matrices. 6.. Entonces: u 1.      . . o bien α A ≡ α||aij || = ||α aij ||. . bn son vectores de Rm . Suma de matrices y multiplicaci´n por un escalar. 4. 2.. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente.. ´ Algebra de matrices.5. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . .. Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. b2 ..10 Sean A. a2 . El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n .. a2 . . . . . . · · · aij · · · ain . am1 am2  a11 a21 . A + 0 = 0 + A = A. . o Teorema B. .     (B. B. . . ..9 Un conjunto S = {a1 . Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n..  . α(β A) = (α β) A. an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes..´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . .. . . a2 .

(α A)T = α AT . Entonces: u 1. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. o Dada una matriz A de m × n. 1 n−1 n Como consecuencia de este teorema tenemos que . 4. Multiplicaci´n de matrices. (AT )T = A. que denotaremos por A T . 4. 3. o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ].3. k veces donde A0 ≡ In . Teorema B. o elemento a elemento: ||(A · B)ij || = n n (B.2. Transposici´n de matrices. (B + C) · A = B · A + C · A. (A1 · A2 · · · An )T = AT · AT · · · AT ..). 2. B. donde 0 ≡ ||0|| es la matriz nula.´ B ANEXO: ALGEBRA LINEAL B. es la matriz de n × m cuyas filas coinciden con las columnas de A.11) aik bkj .5. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . entonces AT = ||aji ||. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . . Es importante recordar que la multiplicaci´n de matrices no es conmutativa. Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0. 3. donde Ik es la matriz identidad de k × k. 2.. 6. A · (B + C) = A · B + A · C. α(A · B) = (α · A) · B. k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. Im · A = A · In = A. 1. o Teorema B. A · 0 = 0 · A = 0. (A · B) · C = A · (B · C). 2. (A · B)T = B T · AT . Entonces: u 1. la matriz transpuesta de A. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p.12 Sean A de m×n. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α. 5.5. β n´meros reales. (A + B)T = AT + B T . Si A = ||a ij ||.11 Sean A de m × n.

(A−1 )−1 = A. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  .15 Sean A y B matrices cuadradas de n × n invertibles. ´ Teorema B.´ B ANEXO: ALGEBRA LINEAL B. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. La inversa de una matriz cuadrada.5. n n−1 1 B. 3. Matrices elementales. Entonces: 1. Por ejemplo. .5. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n . AT es invertible y (AT )−1 = (A−1 )T . o Teorema B. 2. entonces A−1 = 1 ad − bc d −b −c a .4. (A · B)−1 = B −1 · A−1 .14 Sea A una matriz cuadrada de n × n invertible. al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. 92 Sea A una matriz de n × n. y su soluci´n se expresa por la f´rmula o o −1 b. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0.13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . Si existe una matriz C tal que A · C = In . entonces a C se le denomina matriz inversa de A y se le denota A −1 . C · A = In . es decir son las que se obtienen al intercambiar dos filas. Si A es invertible entonces A−1 es unica. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 .5. x=A Teorema B. 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A.

Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . donde e1 . reducen In a A−1 . . la inversa de E1 es E1 . o sea. A b 2 = e2 . E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila. Existe un D tal que D · A = I. 2. (Las columnas de A son linealmente o o independientes. (A tiene n posiciones pivote) A es un producto de matrices elementales. 2. Construimos la matriz [A In ]. −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . o sea. 6. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. · · · A b n = en . . Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A..  Teorema B. A es invertible. A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . o ´ Existe un C tal que A · C = I. La ecuaci´n A x = 0 solo tiene la soluci´n trivial. 5. Las o siguientes expresiones son equivalentes: 1. en son las columnas de la matriz identidad.) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n . Por ejemplo. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. 3. Teorema B. Reducimos por filas la matriz A a In . A es equivalente por filas a la matriz identidad In de n × n.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. 7.. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 .. 4. entonces [A In ] ∼ [In A−1 ].17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n.

1. .  .  . .. . .       (B. . . . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . . . . B = A−1 . . .. . .. (B. . ··· ··· . . . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . . . a1n a2n . .. Definici´n de determinante de una matriz cuadrada.. .. . . . .13) Denotaremos por Aij a la submatriz que j. . a12 a22 .6.  . . AT es invertible. o sea  a11 a12  . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . . a1j+1 a2j+1 . · · · anj−1 anj+1     . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. .           . . . · · · ai−1n · · · ai+1n .6.. . . B. . B. . . . an1 an2  a11 a21 . Determinantes. u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B.  ai−11 ai−12 Aij =   ai+11 ai+12   . entonces A y B son invertibles y A = B −1 . ··· ··· . . . .13).  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j .´ B ANEXO: ALGEBRA LINEAL 8. . . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n . . . anj+1 · · · ann · · · a1n . . . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . . . . . . . . Sea A una matriz n×n (n ≥ 2). . . . . . . Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij .. El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. donde suponemos que det a = a si a es un n´ mero real cualquiera. . . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . que se conoce como desarrollo del determinante de A por su primera fila.  . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  .

=r ai1 . . . e Teorema B. . . Si E1 es la matriz que intercambia dos filas. . . ..2. es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . .19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. Este razonamiento nos conduce al siguiente teorema. Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. . Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. . Luego. an1 a12 · · · a1n . . mediante transformaciones elementales. . Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. . a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. . o 1. . . 3. .18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . Es conocido de apartados anteriores que cualquier matriz A se puede. det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . E2 ´ ´ o E3 . . .21 Sea A una matriz n × n y sea AT su traspuesta.6.. . . u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. . respectivamente. det A = 0 y si una fila de A es proporcional a otra det A = 0. entonces det E = α. . B. a12 . . . . la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila.. 2. Propiedades de los determinantes. . .. an2 · · · ann r ai1 r ai2 . . Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. a Teorema B. · · · r ain . transformar en una matriz triangular superior U (forma escalonada). · · · a1n . si a Entonces. an1 an2 En particular si una fila de A es nula. ai2 · · · ain . Por ejemplo. respectivamente. entonces det A = det AT . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . la matriz B = E1 · A se obtiene al intercambiar dos filas de A. . . Teorema B.20 Sea A una matriz n × n. . . . la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A.´ B ANEXO: ALGEBRA LINEAL Teorema B. . Pero si A tiene n filas pivote entonces A es invertible. . . Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . · · · ann a11 . det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. o sea.

. . . . . . .      . . . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . · · · . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. en son las columnas de la matriz identidad. . .. .. . . A b 2 = e2 .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) . . Entonces det(A · B) = (det A) · (det B).. .    .  . ..  . . . . .. . . . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es.. . .  .   .  . o Teorema B. .  .    .  . . .  ai1   . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 . det A x2 = det A2 (b) . . .. ..23 Sean A y B matrices n × n. . seg´ n la regla de Kramer.24 Sea A  a11  .. . o u det A1 (ej ) det An (ej ) x1 = .   =  bi . .  .  . .. . . .. Regla de Kramer. A =  ai1 · · · aij−1 aij aij+1 · · · ain  . . det A ···.. recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . . . b =  bi  . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . . . .  .  .  . . .  .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. · · ·.3. Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas). xn = . . an1 matriz n × n invertible.  . . . donde e1 . o Finalmente. . . . xn = det An (b) . B. · · · aij−1 aij aij+1 · · · ain   xi  . an1 · · · anj−1 bn anj+1 · · · ann Teorema B.  . .. .  . . Sea A una matriz n × n y b un vector cualquiera de R n .. .  .    . . . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . . . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . . .  . . . . . . . .      .6. .  . .   . .  .  . . .  . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. . . . . . . .. . det An (ej ) = (−1)n+j det Ajn = Cjn . .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . . . . . . . bn b    .   . .  .   . . · · · A b n = en . .

det A  C1i C2i · · · Cji .     B. . . . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. . n. . an . .7... . Entonces V es un espacio vectorial si u 1. . w = x + y.. 2.1. . . . T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y). En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados.´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . vectores de V . . . y.16 del cap´ ıtulo anterior. Para todos x e y. z elementos arbitrarios de V y α. 1  .  . . . Definici´n y ejemplos. Cjn   . La aplicaci´n anterior es lineal pues para todo α de R y x. . La matriz ||C lm || se denomina matriz adjunta de A.. x de Rn .. Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . . . β n´ meros reales. k = 1. tambi´n es un vector de V y se e cumple que: .. . o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x.. Cni   .25 Sea A una matriz invertible n × n. Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x).7. Espacios Vectoriales. .20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). .. ...18 y B. . . . . . C1n C2n · · · Cjn · · · Cnn       . Esta propiedad se conoce como la multilinealidad del determinante Teorema B.. . .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. el vector suma. B. . .  −1 A =  . . Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.

) El conjunto de los polinomios de grado a lo sumo n. El elemento nulo de V pertenece a H. an n´ meros reales. si y s´lo si a0 = a1 = · · · = an = 0. o Ejemplos. pn = 0. Para todos x e y.. B. (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn . Pn = {pn (t) = a0 + a1 t + · · · + an tn .) Para V = C[a.) El conjunto de las funciones continuas en el a o intervalo [a. Subespacios vectoriales. e . vectores de H.´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. H = Pk es un subespacio vectorial para todo k < n. Dicho espacio lo denotaremos por R m×n o 3.. tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. 1. Adem´s.}. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x. que denotaremos por P n .2. Sea V un espacio vectorial. 4. w = α · x. (α · f )(t) ≡ α · f (t). Teorema B.) Dado un espacio vectorial V . a0 .) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. el vector que se obtiene al multiplicar por un escalar. para cualquier n = 0. el nulo) y H = V (el mismo espacio vectorial). ´ 2.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones. 3. el vector w = x + y tambi´n es un vector de H. 1. o sea. 1. 1. . H = Pn es un subespacio vectorial.. 2..) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . 2. que denotaremos por C[a. x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V .b] . . entero. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V . o 2.) Para V = Pn . u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn . q(x) = b0 + b1 t + · · · + bn tn .7.b] .. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). b]. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V .

. . ...28 El conjunto de dos o m´s vectores v1 . vp } de un espacio vectorial V ... v2 . v2 . an ).. o a Un conjunto S = {v1 . o sea.. v2 . es o decir.....´ B ANEXO: ALGEBRA LINEAL 3. Teorema B.. vp .. v2 . Por tanto las siguientes afirmaciones son ciertas: 1. Bases. ´ o Un conjunto de vectores v1 .. b2 . B. Conjuntos linealmente independientes. xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. el vector w = α · x tambi´n es un vector de H. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 . Por ejemplo. Un conjunto S = {v1 ... . es decir. vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes.. bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3.. e Teorema B... v2 . vp necesariamente cada vector es combinaci´n de los anteriores..27 Dado un conjunto de vectores {v1 . entonces sus columnas a 1 . 1 < j < p. .... vp ) es un subespacio vectorial de V . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V .7.. Por tanto B = a1 . · · · . vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. b2 . an es una base de a . v2 . v2 . .3. vp se denomina linealmente dependiente si existen los valores x1 . v2 . . an son linealmente independientes y adem´s R n = Span(a1. 99 Para todos x vector de H. .. vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. 2. . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes... Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . x2 . En particular si H coincide con V . v2 .. entonces B es una base de todo el espacio vectorial V . .... tiene como unica soluci´n la trivial x1 = · · · = xp = 0... vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. ... Un conjunto de vectores v1 . si tomamos una matriz n × n invertible.. bp ). . B genera a todo H.. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 .. el vector v j es combinaci´n lineal de o o los anteriores.. o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 .. . . el conjunto span (v1 .. .

es evidente que dado un vector x de R n sus coordenadas. Sin embargo.. o sea. vp ) un subespacio de V . H = Span(v1.. Por ejemplo. b2 . e2 . H = Span [v1 . . digamos el vj . u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn .... ... Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1. Adem´s.. Sistemas de coordenadas.. la matriz identidad n × n. . v3 no son linealmente a independientes. entonces alg´n subconjunto de S es una base de H. v2 . El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . 0 0 1 xn . αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn . Entonces si suprimimos a dicho vector vk del conjunto S... t 2 . vk−1 .. v2 . v2 ... t 2 ..  + · · · + x n  .  . t. si A = In . S se conoce como la base can´nica de Pn . .. o Otro ejemplo lo constituye el conjunto de vectores S = {1. o Teorema B. vk−1 . v2 =  1  ..7. S = {v1 . t. . a son unicos. Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V . . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. tn } del espacio vectorial Pn . vk+1 ... En particular.. Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores.. v3 ] = span [v1 ..  . vp ). Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 ..  = x 1  .. ii) Si H no es el espacio {0}. v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. . bn } una base del espacio vectorial V . ..´ B ANEXO: ALGEBRA LINEAL 100 Rn ..   . en de la misma son una base de Rn la cual se conoce como base can´nica de R n . v3 =  1  . consideremos el espacio generado por los vectores       2 1 1  0  . vp ) = span (v1 .. H no cambia. . tn ) = a Pn .. ´ Teorema B.29 Sea S = {v1 . Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  .30 Sea B = {b1 .4. 1 ≤ j ≤ p. .. es decir los valores x1 . . b2 . v3 ] .  . v3 } no es una base de H pues v1 .. bn } es una base del espacio vectorial V . xn .  = x 1 e1 + · · · x n en ... vk+1 .  . vk . es combinaci´n lineal de los o restantes. Supongamos que B = {b1 .. v2 ....... . . .  + x 2  . Adem´s. .  . v1 = 0 0 0 Es evidente que H = Span[v1 ... las columnas e1 .  . i) Supongamos que un vector de S.. Entonces para todo x de V existe un unico conjunto de valores {α1 . B. el conjunto B = {v1 . v2 . v2 .

. xn ..b] = ∞. entonces cualquier otra base de V tendr´ que tener n vectores de V .33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V ....34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 . dim Rn = n. bn ). . . Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. ..5. entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. o (dim V = n < ∞).. la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B . Por ejemplo. b) Si S genera a todo V . αn      B 101   y lo denotaremos por   o [x]B . o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . o Teorema B.  = PCB · [x]B . b2 . S es una base de V . a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . es decir si V = Span(b1 . S es una base de V . a Teorema B. su dimensi´n. o sea o −1 [x]B = PCB · [x]C = PBC · [x]C ... Supongamos ahora que pasamos a una nueva base B = {b1 .. Si V no puede ser generado por una base finita de vectores.. . .. .   . . dim{0} = 0. . . Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . . bn } un conjunto de exactamente n vectores. Teorema B. entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 .. En el caso que V = {0} sea el espacio vectorial nulo. Entonces: a) Si S es un conjunto de vectores linealmente independientes. si las coordenadas de x en la base can´nica C son x 1 . o Teorema B.. en }. b2 .. bb } es una base de V y lo escribiremos de la forma dim V = n. . a Este teorema es una generalizaci´n del teorema B. Consideremos nuevamente las coordenadas en Rn . b2 . bn }.7. bn }. bn }. Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. . e2 .. La dimensi´n de un espacio vectorial... o a es decir si V = Span(b1 .8. Adem´s dim H ≤ dim V .. donde B = {b1 . bn ).. b2 . dim C[a.. o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n .. b2 .´ B ANEXO: ALGEBRA LINEAL  α1 α2 ...32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C.. B. dim Pn = n + 1.. N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica.. y por tanto. .

x2 . dn } o dos bases de V . ´stos se podr´n e a escribir en la base D. bn =     D . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones. ann      D   b1 =       . . el conjunto de los autovectores asociados a λ. d2 . o sea.   . .15) tiene soluciones no triviales.35 Sea A una matriz triangular de n × n. (B. bn } y D = {d1 . cuyas columnas a1 ..6. =⇒  a11 a12 . . El problema de autovalores de una matriz.. (B. dado un autovalor λ de A. al vector no nulo x = 0. b1 = a11 d1 + a12 d2 + · · · + a1n dn . Por tanto tenemos que [x] D = PDB [x]B ... . 2... . an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. Como D es una base de V y los elementos de B son elementos de V .. Cambio de base. . yn D a1n · · · akn · · · ann xn B Adem´s. . .   . o sea. .  . yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B . e Teorema B.. x = 0. b1 = an1 d1 + an2 d2 + · · · + ann dn .7. donde I es la matriz identidad n × n. Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D..  x = x1 b1 + · · · + xn bn −→ [x]B =  .  . . entonces el sistema a (A − λ I)x = 0. a2 . xn y D son y1 . tal que A x = λ x. Es importante destacar que conocido el autovalor λ. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. i = 1. autovector de A asociado al autovalor λ. es decir.  . .8. resolver (A − λ I)x = 0.    x1   . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii .. −1 [x]B = PDB [x]D . y2 . · · · . Denominaremos al vector x de R n . que coincide con una base del n´ cleo de A.  . o sea. 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B... . Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . . o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . . xn B en la base  y1 . . .. . . B. a1n   an1 an2 . n. . y x = y1 d1 + · · · + yn dn −→ [x]D =  . PDB es una matriz invertible (sus columnas son linealmente independientes). .´ B ANEXO: ALGEBRA LINEAL B. Sea A una matriz de n × n. es un subespacio vectorial de R n . . Por tanto. yn .. bk = ak1 d1 + ak2 d2 + · · · + akn dn .  .14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ...  .  .. b2 .

2. det(A − λ I) = 0. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0.17) Es evidente que si A es similar a B. B es similar a A.. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. Si A = P · D · P −1 . entonces tienen el mismo polinomio caracter´stico y.8. λ2 . o sea. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio. . (A − λ I)x = 0. Entonces los autovectores v1 . donde D es diagonal y P invertible. si existe una matriz P invertible y otra D diagonal. ı B.2. A −→ P −1 · A · P . o B = P −1 · A · P.. O sea.17). Teorema B.8. en general.1. v2 . Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.. λ es un autovalor de A si y s´lo si p n (λ) = 0. o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. o sea. Diagonalizaci´n de matrices. tales que A = P · D · P −1 .´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz..36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp . (B. o Matrices similares. se o denomina transformaci´n de similitud. Sean A y B dos matrices n × n. para demostrarlo es suficiente tomar Q = P −1 . entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores. La ecuaci´n caracter´ o ıstica. por tanto. B.) Sea A una matriz cuadrada A de o o n × n. Teorema B. .. Es decir si U es la forma escalonada de A los autovalores de A y U son. . Las siguientes expresiones son equivalentes: 1.16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. o Teorema B. A es invertible. Teorema B.37 Si las matrices A y B de n × n son similares. Diremos que A es similar a B si existe una matriz invertible P . entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible..15). conclusi´n. los mismos autovalores. distintos. tal que A = P · B · P −1 . vp asociados a los autovalores λ1 . tiene soluciones no triviales.16). (B.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ. La transformaci´n que a cada matriz le hace corresponder otra similar.17 (Teorema de inversi´n de matrices. λp son linealmente independientes. ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B.

2. Sea Bk .. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P . p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. Teorema B. A es diagonaa lizable si y s´lo si dim(B) = n. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes.38 nos asegurar´ que nuestra matriz es diagonalizable. λ2 .40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . 1. ..16). Es recomendable comprobar que hemos calculado correctamente P y D. Si tenemos en total n autovectores linealmente independientes entonces el teorema B. si B contiene exactamente n vectores. dim(B) = n1 + n2 + · · · + np .39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. Para ello comprobamos que A · P = P · D. Algoritmo para diagonalizar una matriz A.. Encontrar los autovalores de A resolviendo la ecuaci´n (B. Si A es diagonalizable continuamos como sigue. k = 1. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p .. entonces es diagonalizable. o .. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. Adem´s. 3.. . 2. 4.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . Entonces B es un conjunto de vectores de Rn linealmente independientes. o sea. λp . Teorema B. o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k .

es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R.2) est´n centrados en el origen y en el de las series (C.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . Si la serie converge para cierto w ∈ C. k! ∞ k=1 zk . entonces podemos definir la funci´n suma f (z) de la serie. . N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 . Obviamente si tenemos una serie de potencias del tipo (C. R] ([−R. cuando z0 = 0. converge uniformemente en [0. a en z0 (ver la figura 20). si la serie converge en x = R (x = −R). an . an .3 Sea la serie de potencias ∞ n=0 an xn . A diferencia del caso complejo. (C.1) que denominaremos serie de potencias. se puede saber mucho m´s sobre la serie.4 Sea la serie de potencias ∞ n=0 an xn . En este caso hay que trasladar los resultados a la recta real. Si la serie converge para cierto r ∈ R. La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . en el caso de las series de la forma (C. Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. a Teorema C. an . (C.1). z ∈ C. o C. ∞ k=0 zk . z ∈ C. x ∈ R y R su radio de convergencia. En- tonces.1. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . Adem´s.1). Consideremos ahora en caso real. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C.C ANEXO: SERIES DE POTENCIAS 105 C.2) haciendo el cambio de variables ζ = z − z 0 y viceversa. Teorema C. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. k etc. x ∈ R. entonces absolutamente para todo x ∈ R con |x| < |r|. Anexo: Series de potencias ∞ n=0 Definici´n C. an .2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n . la podemos reducir a a la anterior (C.2) es decir. 0]). cualquiera sea la serie de potencias a ∞ n=0 an z n . Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. en el caso real si se sabe la convergencia en alguno de los extremos. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge.

6 La funci´n f (x) = o gencia de la serie. x ∈ R con radio de convergencia R > 0. ∞ n=0 an xn . si dicho l´mite existe. an xn es continua en (−R. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. . ım en cuyo caso 1 an an+1 = l´ n |an |. x ∈ R. La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. =⇒ ım = l´ ım . Teorema C. n+1 2. se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . Entonces R = l´ ım n→∞ n 1 . Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. ∞ n=0 Teorema C. o sea. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . o sea. an . R). l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades.7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha).5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . Teorema C. siendo R el radio de conver- En otras palabras. an .

Ejemplo C. a o o Los teoremas anteriores permiten calcular un buen n´ mero de series. R). ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x).3) sen x = (−1)k x2k+1 . 1). k! x ∈ R.8) . 1).4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. 1). a ex = ∞ k=0 ∞ k=0 xk . x ∈ (−1. n (−x)n = ∞ n=0 (−1)n xn . (C. (2k + 1)! ∞ k=1 cos x = (−α)k k x .6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . Esta serie converge en (−1. x ∈ (−1. n Funciones elementales del an´lisis. 1).7) Usando (C. Para calcular la derivada usamos el teorema anterior. f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s.6) Aplicando la integraci´n t´rmino a t´rmino en [0.C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. radio de convergencia +∞.5) xk . f (0) = 1. x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . x ∈ R. La funci´n que cumple lo anterior es la funci´n e x .8 Probar que la funci´n f (x) = o su derivada. k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1. n (C. as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . 1 = 1+x (−1)k xk . por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . como ya hemos calculado antes. ∞ k=0 (C. (C. (C.

k!(2k + 1) x ∈ (−1. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 . (C.9) 1 Escojamos ahora (C. 1). x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 . 1).11) . (C.5) con α = − 2 y cambiemos x por −x2 . integrando t´rmino a t´rmino en [0. 2n + 1 x ∈ (−1. 1). tenemos √ 1 ( 2 )k k 1 x . (C.C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. = 1 − x2 k=0 k! ∞ x ∈ (−1.10) de donde integrando t´rmino a t´rmino en [0.

Sign up to vote on this title
UsefulNot useful