´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . Formas escalonadas y el algoritmo de reducci´n por filas. . . . . . . . . . . . . B. . . . . . . . . Anexo: C´lculo de primitivas a A. . . . . . . Algebra de matrices.3. . . . . . . . . . . Propiedades de las series de potencias . . . . . . . . . . . . . . . . . .8. . . . . . . . . . . . . . . . . . B. . . . Espacios Vectoriales. . . . . . . . . . . . . . . . . .5. 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . . . . . . . . . . . . . . . . El teorema de existencia y unicidad para las EDOs 7. . . . .4. . Integrales irracionales. . . . . .1. . Anexo: Algebra lineal B. . . . . . . . . . . o A. . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . C. . .7. . . . . .1. . . . . . . . . . . Determinantes. . . . . . Integraci´n de funciones racionales. . . . . . . . . . . . . . . . . M´todos de integraci´n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e o A. . . . . . . . . . . . .1. . . . . . . . 105 . . . .1. . . Anexo: Series de potencias 105 C. . . La transformada de Laplace 8. . . . . . . . .2. . . . . . . . . Problemas . . . . . . . . . . . . . . . . . Integrales trigonom´tricas. . . . . . . . . . . . . A. . . . .5. . . . . . . . . . . . . . . . . ´ B. . . . . . Sistemas lineales y matrices. . . . .4. . . . . . 7. . El problema de autovalores de una matriz. . . Problemas . . . . . . . . .6. . . . . . . . . . . . . . Problemas . . . Soluci´n de un sistema de ecuaciones lineales. . . . . . 8. . . . . . o B.3. .6. . . . . . . . . . e A. . . . . . . . . . . . . . . o B. . . Vectores y ecuaciones matriciales. B. . . . . . . . . .2. . . . . . . . . B. . . .

M´todo de variaci´n de coeficientes. Funciones generatrices. M´todo de Pic´rd. Aplicaciones. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Funcioo nes generatrices. Puntos regulares y singulares. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Los sistemas lineales y la EDO de orden n. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. Ecuaciones diferenciales de primer orden. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. La ecuaci´n hipere o o geom´trica de Gauss. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. . Los momentos de las o o distribuciones continuas de probabilidad.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. Ejemplos y aplicaciones. Sistemas de ecuaciones diferenciales ordinarias de primer orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. EDOs lineales de orden 2. Relaci´n con los sistemas de ecuaciones de primer orden. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Reducci´n de orden. Existencia de la soluci´n. Ecuaciones separables. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. Aplicaciones. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. La matriz exponencial eA y sus propiedades. Ecuaciones lineales. Ecuaciones o lineales. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. Ecuaciones de Bernoulli y de Ricati. Ecuaciones diferenciales exactas. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Los polinomios cl´sio e o a cos. Ortogonalidad y relaci´n de recurrencia. La EDO lineal o de primer orden. e M´todo de integraci´n por series. o a a Programa de la asignatura. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. Polinomios cl´sicos discretos. EDOs de orden n. F´rmula de Rodrigues. La ecuaci´n de Bessel. Sistemas lineales con coeficientes constantes. e o o Cap´ ıtulo 5: M´todo de las series de potencias. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. La EDO lineal de primer o orden. Aplicaciones.

Fundamentos de ecuaciones diferenciales.B. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas.F. Casas´s. Ecuaciones diferenciales y c´lculo variacional.. Ecuaciones diferenciales. Krasnov M.E. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. A. MIR. Elsgoltz L. Series. Ed. L. Rainville E. Ecuaciones diferenciales. y Bedient R. s´lo en caso a a e o de mejorarla. F.. MIR. 15-06 a . Pearson Educaci´n o Nagle R. Despacho: 1er piso. Integrales mltiples. BOIARCHUK y G. Simmons..Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales.S. y Makarenko G. Marcell´n. Para aprobar el examen es necesario obtener al menos 5 a puntos. H. Pearson Educaci´n. Bedient P.E. Funciones de variable compleja. No. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. Jr y David E. Problemas de Ecuaciones diferenciales ordinarias. GOLOVACH.M. Prentice Hall. Mod 15. y Saff E. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos.D.. ´ Renato Alvarez Nodarse. G. Springer Verlag. Ecuaciones diferenciales elementales. McGrawo Hill. Differential Ecuations and their Applications.. Edwards. 2002). Matem´tica Superiores. McGraw-Hill. Nikolski S. P.K. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. Facultad de Matem´ticas. y Zarzo. 9 y 10 (URSS. MIR. K. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. Penney. o Colecciones de problemas A. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Bugrov Ya. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Bibliograf´ complementaria ıa Braun M. a Kisilev A.

ı.. . Ecuaciones diferenciales “ordinarias” F (x. . . y. o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. En primer lugar por que estamos buscando funciones de x y no simples valores de x. Por ejemplo. Por ejemplo. . x2 + 1 = 0. pero si complejas x = ±i. o y (5) + 3 sen x − y = 0 es de orden cinco. ∀x ∈ A. y (x) − ey(x) + 7 cos x = 0.1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. y (x) = y. En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”. y .1) es de orden n si en ella aparece la derivada y (n) . Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. . . y . quiz´ las m´s sencillas. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y.. (1. Estas ecuaciones son el objetivo del presente curso. . mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. y (n−1) (x0) = y0 (n−1) . y. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. Diremos que y = y(x) es una soluci´n de la (1. Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . x2 + 4x = −3.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. Nos centraremos en las ecuaciones del tipo (1. y (n) (x)) = 0. En particular el denominado problema de valores iniciales (PVI). son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. y + e − 1 = 0 es de orden dos. las ecuaciones funcionau a les donde las inc´gnitas son funciones. y(x). La tercera sin embargo no tiene soluciones reales. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. . y (x) + 3y (x) + 2y(x) = 2 cos(2x). En segundo.1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). Nuestro principal objetivo es aprender a resolver EDOs. y (n) ) = 0.1. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. . Existen ecuaciones m´s “complicadas”. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. . .1) se transforma en una identidad para todo x ∈ A. y . 1. y (x) = sen x. x2 − 2x + 1 = 0. y (x). y (x0) = y0. Por ejemplo o 3x + 2 = 5. resta. . y . Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. . multiplicaci´n y divisi´n. Diremos que o u una ecuaci´n diferencial del tipo (1. .. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. x2 − 1 Estas ecuaciones.

4). b(x) ∈ CI .2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. entonces.2 con la condici´n inicial y(0) = 1. dx a(x). la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . (1.1 La ecuaci´n o o a(x). existe una unica soluci´n del problema de valores iniciales (1. b(x) ∈ CI .4) Ejemplo 1. x2 x2 x2 x2 x2 Definici´n 1.4 Resolver la EDO del ejemplo 1.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x. Teorema 1.3 El problema de encontrar una soluci´n de la ecuaci´n (1. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 . tenemos y(0) = 1 = C + 2. ´ o En general. La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x). o sea.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0.2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. o o e ecuaci´n no homog´nea. (1. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2. y(x0) = y0. d y(x) + a(x)y(x) = b(x). dx Definici´n 1. o e La soluci´n general de (1. para cualquiera sea el valor y0 .3) Ejemplo 1.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. o Como la soluci´n general es y(x) = Ce− 2 + 2. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I. (1.4).2.5) .

0) x U L Q Figura 1: Curva del ejemplo 1. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x. λ > 0.3.6 (derecha) y circuito el´ctrico del ejemplo 1. y t y(x) P(x.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. la presi´n al nivel del mar (1 atm). Encuentra adem´s la a curva que pasa por el origen.y) R 0 (x/2. Si h = 0.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h).´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1. Encontrar la dependencia de i respecto al tiempo t. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t). donde p es la presi´n en funci´n de la altura h. R la resistencia y U el voltaje. dt donde L es la impedancia.8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. Supongamos que el voltaje U es constante y que i(0) = i0. Realizar el mismo estudio si U = U0 sen(ωt). h . Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. y = 2y/x Ejemplo 1. Ejemplo 1.8 (izquierda) e Ejemplo 1.

Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo.0147478 1/min 22 a˜os n 0.64 0. u ´ N0 = N0 e−λT .7) . que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.5110 a˜os 1. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones.00502281 1/dias 5568 a˜os n 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).0315067 1/a˜os n 138 d´ ıas . si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı. (1. N (t0) = N0. (1. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. E. o e Si llamamos a esa aportaci´n r(t).32 4 Si h → 0.g.62 0. 2 =⇒ λ= log 2 0.81 0.71 0.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva. N (t0) = N0.000124488 1/a˜os n 9 −10 4.000433217 1/a˜os n 47 min 0.693147 = . entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t). Por ejemplo.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0.

y. y. y = (y + e−x ) tan x 8. 7.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. f (x. x y + y = x3 7. y + y = xex 5. y) = e2x + ey−x − 1 = 0. y ) = y − y = 0 F (x. f (x. Problemas de EDOs lineales Problema 1. y. y ) = ex−y + ey−xy = 0 F (x. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. y. 8. y + y x = 0 3. y ) = (y 2 − x)y − y + x2 = 0 F (x. o o a o 1. y) = y − ex + 2 = 0. f (x.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. f (x. 2. y + 2xy = x 4. √ 6. y.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. f (x) = sen x 10. 3. y) = x2 + y 2 − 25 = 0. 9. y + xy = f (x). y(0) = 2. f (x. y = 3y + e5x . 2. y ) = y + y/x = 0 = 0. x y + y cos x = 1/2 sin(2x) 11. y. y ) = yy + x = 0 F (x. f (x) = 3/4e−2x . y + 2y = f (x). y + y cos x = 0 √ 2. y. f (x. 4. .5). y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. 5. y) = x2 + y 2 + 1 = 0. y ) = (1 + x2)y − xy = 0 F (x. Problemas Problema 1.4. f (x. y(1) = 0. y ) = yy + x = 0 F (x. y + x2y = x2 6. y) = x3 + y 3 − 3xy = 0. x y + y = x sen x Problema 1. y. y ) = xy + y − y 2 = 0 F (x. y) = y − 2 2+x F (x.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y = 6y + x2. y. y) = 1 + x2 − y = 0. f (x. f (x) = 3e−2x . y) = x2 + y 2 − 25 = 0.

y 0 (x/2. (1 + x2)y + 4xy = x. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. y(1) = 1/4. ∞). Encontrar la curva que pasa por (4. 4. 2). y + y = g(x).14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. b(x) ∈ CR .15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx .14. c ∈ (0. x→∞ a(x) ≥ c > 0. y(0) = 0. t > 1 6 5. g(x) = 2. x→∞ l´ b(x) = 0. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x). x2 + 2y 2 = 24).0) y(x) t P(x.y) Q x n Curva del problema 1. y(0) = 1. Problema 1. x→∞ a. b ∈ R. ım . Problema 1. ∀x ∈ R. 0 ≤ t ≤ 1 0. y = y + e−x sen(2x). es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. ım a(x). (sol.

b−x x(0) = 0. b−x 1 − e(a−b)κt . y) = a(x)b(y). En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. Supongamos que la funci´n f (x.1) admite la factorizaci´n f (x. C = a/b.3 La velocidad de escape de la Tierra . Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. Supongamos que a = b. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 .2 OTRAS EDOS DE PRIMER ORDEN 7 2. y) (2. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. si nos interesa el PVI con la condici´n a o √ 2. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). Por ejemplo. Aplicaciones Ejemplo 2. Ejemplo 2. donde el signo + o − diferencial propuesta. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1.2) como x(0) = 0. donde κ es la constante de proporcionalidad. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . Cuando esto ocurre se dice que la EDO (2.1. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. 2.1. luego x(t) = ab Ejemplo 2. y(0) = 3.1) es o una ecuaci´n separable.1 Resolver la ecuaci´n y = x/y.2) cuando b ≡ 0. y) en la o EDO y = f (x. (2. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx.1.

lo cual nos conduce al valor v0 ≥ 2gR.4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . Como g = GMT /R2 . Poniendo los datos R = 6400000 metros g = 9. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. 1 − ω2 vr ω2 = κ . por ejemplo. v(0) = v0.2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. g Como ω > 0.5 Resolver el caso r = 3. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . g Escojamos r = 2. r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. tenemos GM T = gR2. Ejercicio 2. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. (2. Si usamos la ley de Newton tenemos dv GMT =− 2 . Usando la regla de la cadena tenemos v gR2 dv =− 2 . la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR.8m/s2 obtenemos v0 = 11200m/s = 11.2Km/s. Ejemplo 2. entonces. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. ω= κ > 0. siendo R el radio de la tierra (que supondremos una esfera). . 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 .

El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). r > 0. h → 0. =⇒ p (t) = r(t. gr´fica 2. (2. p)p(t)h. P. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t.5. Verhulst. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. p(t0) = p0 . p)p(t). Sea r(t. l´ t→∞ p(t) = r/c independientemente a ım de p0 . r − cp0 + cp0 er(t−t0) (2.5) tenemos p(t) = rp0er(t−t0) . Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . (2. no hay o o a emigraci´n ni inmigraci´n). propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico.6) Adem´s. pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial.5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2.4) es una aproximaci´n bastante buena. p) = r. en particular.1.4) cuya soluci´n p(t) = p0 er(t−t0) . F. constante. poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). c > 0. r.2 OTRAS EDOS DE PRIMER ORDEN 2. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t). hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento.2. p). p r/c p(t0) = p0. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. Resolviendo la EDO (2. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. Luego p(t + h) − p(t) = r(t. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. Malthus (1766– e e 1834). e Aunque el modelo funciona razonablemente bien para poblaciones grandes. o . Supongamos que la poblaci´n est´ aislada (o sea. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. As´ la o a ı. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R.

y(1 + x2)y + x(1 + y 2 ) = 0 4. x2y − 1 = cos(2y). cotg(y)y = x2 + 2 6. yy + x − 3xy 2 = 0.2. cos(y)y + ex+1 tan y = 0 8. y(0) = 0 3. y(1) = 0 6. 3xy = y cos x. y(2) = 1 4. (x log x)y + 1 + y2 = 0 7. 2.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. (1 − x)y = (x + 1)y. Problemas Problema 2. b > 0. a. y(1) = π/2 1+x 5.2 OTRAS EDOS DE PRIMER ORDEN 10 2. y = y(a + by). l´ x→∞ y(x) = 5π/4 ım 2 . y(x0) = y0 > 0. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. y = 1 − x + y 2 − xy 2 5. y = xy(y + 2) 3. cos(y)y = − x sen2y .6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. (1 + x2)y = 1 + y 2 2.

8 Resolver la EDO y − 1/(3x)y = y 4 log x. En efecto. n = 0. Esta ecuaci´n es una EDO de Bernoulli con n = 4. Pasemos a estudiar la EDO de Riccati. que es lineal y por tanto podemos usar la f´rmula (1.8) que hab´ considerado a˜os antes Jacob Bernoulli. Veamos un ejemplo.1. 2.2 OTRAS EDOS DE PRIMER ORDEN 11 2. la podemos convertir en una EDO lineal. y =− 1 z − 2.3. o Ejemplo 2. Hacemos el cambio y = 1/x + 1/z. (2. La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x. y tenemos o 4 y = −y y /3. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. Ejemplo 2. x C − x3 . Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n.7) La resolvi´ su hermano Jacob en 1696. z = (1 − n)y −n y .7) en una EDO lineal. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp .9 Resolver la EDO de Riccati y = y 2 − 2/x2. x 2 4 −1/3 . 3 x =⇒ y= 3x2 1 + .3) que nos da o o x C z = − + 2. x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. y hagamos el cambio o z = y − yp .8). (2. x La soluci´n la encontramos usando la f´rmula (1. 2 x z =⇒ 2 z + z = −1. Supongamos que yp es una soluci´n particular de (2. haciendo z = y 1−n . =⇒ z + (1 − n)a(x)z = (1 − n)b(x). 1.3. mediante el cambio y = yp + 1/z. luego la EDO se transforma en 1 z + z = −3 log x. Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. En general.8). Usemos la primera para resolver la EDO.3) para resolverla. Hacemos el cambio z = y −3 . dada una EDO de Riccati (2. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). y = y 4 z. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal.

√ por tanto y = 2 + x ± 1 + Cex . ux) = x0f (1.9) se transforma en la EDO separable dz = x + C.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. y y para todo t ∈ R. (2. Adem´s. =⇒ (z − 2)2 − 1 = Cex . Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas.4. y) se denomina homog´nea de orden k si para todo x. u = y/x. Sea f una a e funci´n homog´nea de orden 0. entonces la EDO anterior se transforma en la EDO y = f (y/x). 2. f (u) − u Ejemplo 2.2. Sea y = u x. . 12 Sea la EDO (2.2 OTRAS EDOS DE PRIMER ORDEN 2. y) = f (x. =⇒ α + βF (z) Ejemplo 2. que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. Si hacemos el o e cambio y = ux. Como z = y − 1 tenemos z = z−2− 1 . entonces y = xu + u y la EDO (2. (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C. z = α + βF (z). u) = g(u) = g(y/x). toda funci´n homog´nea de orden 0 es una funci´n de y/x.11 Resolver la EDO y = (y + x2 − y 2 )/x. entonces z = α + βy . Una funci´n e o f (x.3. f (tx.9) y hagamos el cambio z = αx + βy. z−2 =⇒ (z − 2)dz = x + C.10 Resolver la EDO y = y − x − 1 + 1 . ty) = f (x. si f es homog´nea de orden 0. luego (2. N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy). entonces o F (z) = z − 1 + 1/(2 − z). entonces f (tx.10) se transforma el la EDO separable xu + u = f (u). o e o Supongamos que tenemos la EDO y = f (x. =⇒ z = 2 ± 1 + Cex . En efecto. y). x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. y) y f es una funci´n homog´nea de orden o e 0. ty) = e tk f (x. Entonces o e f (x. podemos perder las soluciones y = x + 1 e y = x + 3. o sea. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. y).

2 y=− x2 .  =⇒ y = xt + t2 x t=− . √ 1 − u2 . ty) = f (x. Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. y la soluci´n singular o   x = −2t 1  y = xt + f (t).11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0. Ejemplo 2. Para encontrar la otra soluci´n o o usamos que x = −f (y ). x 1 − u2 Ahora bien. as´ que hacemos a ı el cambio y = u x y obtenemos. Esta es una EDO de Clairaut con f (z) = z 2. y). 2.11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. f derivable y con primera derivada continua (2.12 Resolver la EDO y = xy + (y )2. Para descubrir cuales son las rectas soluci´n basta notar que si y = c.5. La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ). como hemos visto u = ±1. =⇒ √ dx du = . de donde deducimos que o y = 0 o x + f (y ) = 0. si u = ±1. luego las soluciones son las familias de rectas y = cx + c2 . e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). c ∈ R. y) = (y + x2 − y 2 )/x. Luego si hacemos y = t. La primera condici´n nos da una familia o de rectas y = mx + n. es f´cil comprobar que f (tx. 4 . lo que puede hacernos perder las soluciones y = ±x.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2.

y)y + M (x. (2. y).2) y + [a(x)y − b(x)] = 0. por ejemplo.13) d Por ejemplo. o lo que es lo mismo. y)) dx = 0.12) se puede reescribir de la forma dx (φ(x. y) ∈ Ω.14) Por dominio entenderemos un conjunto abierto de R2 y convexo. y) ∂φ(x.13) o o ∂φ(x. y) y N (x. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. y) ∂y ∂φ(x. y) existe una funci´n φ(x. y)) = 0. La respuesta la da el siguiente o d (φ(x. y) ∂φ(x. y)) = 0. φ(x. y). a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0.12) se puede expresar de la forma d (φ(x. y) = 0. ∂y (2. y) dos funciones tales que existan todas las derivadas parciales ∂M .12) se puede escribir de la forma 0. y) = . y) = C si y s´lo si (2. o o Como 0= d ∂φ(x. y)) dx = d (φ(x. y) tal que o ∂φ(x. y) = M (x. y) = C. y)) = 0. Entonces. ∂y ∀(x.13 Sean M (x. y) = C?. y) en la forma equivalente N (x. En general no es trivial deducir si una EDO del tipo (2.12) a o o d es equivalente a la expresi´n dx (φ(x. y)) = 0. y) = N (x.12) se puede escribir de la forma dx (φ(x. y)) = + = + y. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. y) tal que se cumpla la condici´n (2. y)) = 0 si y s´lo si. ∂N . (2. la EDO lineal (1.2 OTRAS EDOS DE PRIMER ORDEN 14 2. y).12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x. .12) La EDO (2. Teorema 2. ∂x es necesario y suficiente que ∂N (x. entonces la soluci´n de la o o EDO ser´ φ(x. y) (φ(x. y) = N (x.6. ∂x ∂y 2 ∂φ(x. y) = M (x. Por ejemplo. ∂x ∂φ(x. y). ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 .12) si y s´lo si (2. y) y N (x. dadas dos o funciones M (x. dx x Obviamente no cualquier EDO del tipo (2. y). o sea. para cierta funci´n φ(x. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. Por conveniencia reescribiremos la EDO y = f (x. y). Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. As´ surge la pregunta ¿cu´ndo la EDO (2.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. sin agujeros. y) ∂M (x. y) = C es una o d soluci´n de (2.

luego seg´n el corolario 2. y) tal que se cumple (2.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. y) = 1. o (x. y) = x2 + xy + cos x + h(y). =⇒ h(y) = y 3 +sen y.12) se llama exacta si N y M son funciones tales o (x. o sea.y) . Vamos a resolverla. y) = a(x)y − b(x) y N (x. y) tal que φ(x. es decir existe una funci´n φ(x. y) = y 3 + sen y + xy + g(x). Adem´s.y) (x. ∂y =⇒ h (y) = 3y 2 +cos y. en cuadraturas. y) = x+h (y) = 3y 2 +cos y +x. y) = 2x + y − sen x.13).2) es exacta. luego M (x.18 Una EDO del tipo (2. y) = y + g (x) = 2x + y − sen x.15 es exacta. Para calcular h(y) usamos que φ(x. ∂x . es exacta. Corolario 2.y) que ∂N∂x = ∂M∂y . y) = x2 + xy + cos x + y 3 + sen y = C. ∂x De la primera deducimos ∂φ(x.y) ∂y = ∂N (x. Ejemplo 2. y) = 2x + y − sen x y N (x.y) (x.17 Comprobar si la EDO lineal (1. y) = 3y 2 + cos y + x. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2. luego ∂M∂y = 1 = ∂N∂x . ı =⇒ g(x) = x2 + cos x. define la o soluci´n de (2.14) en cierto dominio Ω ⊂ R2.15 Para que la EDO (2. luego ∂φ(x. ∂x as´ φ(x. y la soluci´n.y) ∂M (x. y) = C. y) = y 3 + sen y + xy + x2 + cos x = C. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω. as´ que no es exacta. o Ejemplo 2. ∂y φ(x. Como la EDO es exacta entonces u existe φ(x.12) en Ω.12) es inexacta (o no es exacta) si o ∂M (x.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2.y) ∂y = 3y 2 +cos y +x. ∂φ(x.14 Una EDO del tipo (2.y) = ∂N∂x . luego (x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. En este caso y + [a(x)y − b(x)] = 0. es φ(x. pero ∂φ(x. ∂φ(x. y) = 3y 2 + cos y + x. y) = C. y encontrar su soluci´n.y) En este caso M (x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x.

y) ∂ρ(x. y) = N (x. luego ρ(x. ∂y ∂x la cual es no trivial de resolver. y) cumple o o con la condici´n (2. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y) ∂ρ(y) + ρ(y) = ρ(y) . y) ∂N (x.15) nos da ρ(x) luego ∂M (x. y) luego ∂N (x. dada la EDO (2. y) + ρ(x. una ecuaci´n inexacta tiene un factor integrante ρ(x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. en cuyo caso ρ(y) = exp( S(y)dy). y) + ρ(x) . Ahora bien. y) ≡ 0 es un factor o integrante de (2. De hecho en la mayor´ de los casos la ecuaci´n (2. ρ = ρ(y). y) ∂ρ(x.15) Es decir. y).15) es ıa o m´s complicada de resolver que la EDO original. ρ = ρ(x) o o o 2. y)N (x. y) + ρ(x. ∂y ∂y ∂x ∂x (2. para que admita un factor integrante ρ(x.2 OTRAS EDOS DE PRIMER ORDEN 2. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. y).12) si la EDO ρ(x. y) ∂M (x. Entonces.12). una EDO es exacta si y s´lo si se tiene la condici´n (2. o En el segundo caso tenemos M (x. y) . Factores integrantes 16 Definici´n 2. y) − 1 dρ(y) ∂x ∂y = = S(x.15). y) ∂ρ(x. ρ(y) dy M (x. y)y es exacta. y)x2 cos y = xey + ρ(x. y) ∂N (x. cuando la funci´n ρ es una funci´n que s´lo depende de y. y) ∂ρ(x.15) es f´cilmente resoluble. y) + ρ(x.1. y) ∂N (x. en cuyo caso ρ(x) = exp( R(x)dx). ∂y ∂y ∂x ∂ρ(x) ∂N (x. y) = ∂y ∂x si y s´lo si o M (x. y) de la derecha es una funci´n o o o s´lo de y. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. y) ∂M (x. y) de la derecha es una funci´n o o o s´lo de x. y)ey . Veamos a continuaci´n dos de ellos: a o 1. y) = N (x. se dice que ρ(x. ∂y ∂x ∂x . y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. o o o En el primer caso (2.6. y) si y s´lo si ρ(x. y)M (x. y)N (x.14). ρ(x) dx N (x. y)M (x. Obviamente no es exacta. o sea. y) ∂M (x. o ∂M (x. y) + ρ(x. y) − 1 dρ(x) ∂y ∂x = = R(x.19 En general.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

713139 0.9 0.0114527 -0.0174074 -0.1 0.905 0.710499 0. x ≥ 0. 4.2 0.0178206 -0. 20.95 1.680253 0. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.697623 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0.723482 0. 17.0147575 -0. por tanto. 11. 60 40 30 20 20 0. 40 y(0) = 0. 19.25 0.0187748 -0.952459 0.697474 0.694092 0.70483 0. 7.909675 0.4 0. 16.735759 y(xk ) − y(xk ) 0 -0. 2. Una pregunta natural es.759376 0.5 10 -20 -40 0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4).67535 0.00467484 -0.781636 0.0184046 -0.5 1 1.725256 0. 15. 5.0137992 -0.704707 0. y(0) = 1 con N = 20.5 0. y(xk ) 1. 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).74064 0.694733 0.716972 y(xk ) 1. 0.00844901 -0.75 0.35 0. xk 0 0. Adem´s.726841 0.55 0.871416 0. . 18. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).797562 0.65 0.86475 0.746675 0.3 0. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?. 13. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2.0169031 -0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x .713061 0.05 0.0187107 -0. Los resultados se pueden apreciar en la o gr´fica 4 (derecha). x ∈ [0.0155874 -0.676684 0.15 0.0185892 -0.0162994 -0. y(0) = 0. 14.694429 0. a Consideremos ahora el problema y − 1 − y 2 = 0.837462 0.95 0.686241 0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.6 0.8 0.829012 0.0127016 -0.693171 0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden.676582 0. 9. 6.2 OTRAS EDOS DE PRIMER ORDEN k 0 1.00666595 -0.7039 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.68072 0.807602 0.0181506 -0. 10. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha). 8.770184 0.698658 0.0100397 -0. 0.5 2 1 1. 3.85 0.6876 0.00245885 -0. 12. o o Si usamos un esquema de 20 puntos en el intervalo [0.7 0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x.45 0.

.2. y(x))dx ≈ hf (xk.18) f(x. yk+1 )] . . yk ))] . 2 . . yk ) . yk ) + f (xk . es un m´todo de orden e a e uno. yk ) + h2 ∂f ∂f (xk . y0 = y(x0 ). yk ) + f (xk+1 . de forma que tengamos yk+1 = yk + hf (xk .2 OTRAS EDOS DE PRIMER ORDEN 2. de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . N.7.y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). yk ). N. El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. yk + hf (xk . y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . o sea. y) en el intervalo xk .20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. yk ) + f (xk+1. . y(x))dx. yk+1 )] . 1. xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. yk ) + f (xk+1 . yk ) (xk . Por ello se suele usar una o o modificaci´n del mismo. yk ) (ver figura 6 izquierda) xk +h xk f (x. es “poco preciso”. .17) en el tercer orden. (2. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . ∂x ∂y 2 y0 = y(x0 ). ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. . yk ). o Para ello escribamos la EDO original y = f (x. lo que nos conduce nuevamente al esquema de euler (2. k = 0.19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . (2. es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. es decir xk +h xk f (x. 1. y0 = y(x0 ). . . 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . 2 k = 0. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral.

13. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1.735759 y(xk ) − y(xk ) 0 -0. 2.8 1 0.75202 0.9 0.70483 0. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .693171 0.00236077 -0.694733 0.015 0. 11.698658 0.0143632 -0. 15.732422 0.907314 0.74064 0.00645092 -0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado. 0.716216 0.713061 0.725256 0.69333 0.694092 0.697623 0.703238 0.0112803 -0.708079 0.00345845 -0. 3.837462 0.2 0.680567 0.775186 0. 8.759376 0.781636 0.8021 0.7039 0. xk 0 0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.1 0. 0.684853 0.8 0.690467 0. 0. 17.0132186 -0.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.75 0. 1].05 0.0154026 -0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.0138047 -0.0025 0.005 0. 4. 18. y(0) = 1.2 0.00120885 -0.952459 0. 12. 9.00982318 -0.867958 0.909675 0. 16. x ∈ [0.8 0.35 0. 19.45 0.723482 0. 5. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.00450443 -0. y(xk ) 1.85 0.681515 0.807602 0. 20.698244 0.0105693 -0.682134 0.0075 0.15 0.4 0.0175 0.00904012 -0.6 0.95125 0.0126034 -0.686343 0.95 0. 7.7 0. 14.65 0.95 1. 6.01 0.00821835 -0.00735595 -0.5 0.9 0.75 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).3 0.0148955 -0.00550115 -0.719873 y(xk ) 1.0125 0.25 0.85 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x.832957 0.0119578 -0.871416 0.713139 0.6 0.55 0.4 0. 10.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.

Considerar los casos ae = cb y ab = cd. 5. 2. (1 − x3)y − 2(1 + x)y = y 5/2 . Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. (2x + 4y + 3)y + 2 + 2y + 3 = 0. 6. yp = −x2. 3y + y 2 + 2/x2 = 0. 3. 7. 4. 4. y = 2(y/x) + (y/x)2 √ 2.24 Supongamos que tenemos la EDO y = f (y/x). y + 2y = ex y 2 . y + y = xy 3 . (x − x y)y = y 3. Como caso particular resolver la EDO y = (x + y)/(x − y). n = 1. 2. 7. y = x3 + 2y/x − y 2 /x. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea.2 OTRAS EDOS DE PRIMER ORDEN 23 2. y + 2yex − y 2 = e2x + ex . 4y 3 y + 4xy 4 = 4x. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. 5. xy + y = y 2 log x. n + k = n.22 Resolver las EDOs de Bernoulli 1. 6. x3 sen yy +2y = x (resolverla respecto a x y no a y. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). y = 1 + y/x + (y/x)2.23 Resolver las EDOs de Riccati 1. y = (ax + by)/(cx + ey). 3. v = y/x. 4. xy − y = xk y n . y = y/x + tan(y/x). 5. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). yp = x.8. y − 2xy + y 2 = 5 − x2. (x + y + 2)y = 3x − y − 6. (4x − 3y − 6)y + x − 2y + 1 = 0. Problema 2. . Resuelve las siguientes o e EDOs 1.

Resolver la EDO y = (ax + by + m)/(cx + ey + n). y(1) = 1. 3. y = x + y − 1. 2x(1 + x2 − y) − x2 − yy = 0. xy − y − y 2 = 0. 4. (x2 − 2y + 1)y = x. 5. y(t)dt. e En caso de que no lo sean. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). y(0) = 1.28 Resuelve los siguientes problemas de valores iniciales 1. a ser posible. . 3. Problema 2. 2.2 OTRAS EDOS DE PRIMER ORDEN 24 8. y = 2(y − x) + (y − x)2. 2. 7. 6. y/x + (y 3 + log x)y = 0. 1. Problema 2. 2xy + (x2 − y 2 )y = 0. 2. y = sen(x − y). (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. 4. 3xt + y 2 + (x2 + xy)y = 0. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. 2xy 3 + 3x2y 2 y = 0. (x2 + y 2 + x) + yy = 0. Problema 2. e 1. 3. 0 4. un factor integrante. 3. 8. y(2) = 1. e−y − (2y + xe−y )y = 0. y(2) = 1. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. y(x) = x + 1 + 0 x x x y(t)dt. 2. 3x2(1 + log y) − (2y − x3/y)y = 0.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. x(ey − y ) = 2. 3x2 + 4xy + 2(y + x2)y = 0. y = (x − y + 5)2. 4. encuentra.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey).

7. y = xy + log(y ). y = xy − ey .29 Resolver las EDOs de Clairaut 1. 4. a. z − 2xz = 2. (toma distintos valores de a. y = ex y −2 .2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. √ 3. 2. y + 2ey = x2 + y 2 . (y )2 + x3y − 2x2y = 0. y(0) = 0. y = xy + (y )n. y + sen(x)y − cos(x)y 3 = 1 + x2. 25 5. Problemas del m´todo de Euler e Problema 2. y = xy + 1 + (y )2 . 2. y(2) = 1. y(0) = 1. 6. e 1. 5. y = k(a − y)(b − y). 4. k > 0. z(0) = 1. 1. y(0) = 1. y(0) = 1. 3. y(0) = 0. n = 0.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. 2 2 . b. y = ex y. y = 1 + sen x(1 + y 2 ). b y k.

y2 . yn (x) yn (x) fn (x. .  (3. . .. yn )     2    Y (x) =  . y si al menos una componente de B es no nula.    y (x) = f2(x. . y2 . . . . Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. y2 . .   . .  . .  . . Por comodidad vamos a usar la forma vectorial del sistema anterior. y1 . . e e . yn )  y2 (x)   y (x)   f2(x. bn (x)    . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. o sea. . . . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x). donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . 2 . y1 .1) . . . no homog´neo. fn son ciertas funciones conocidas. . y . . . dx (3. . as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. . . vamos a denotar por Y . . k = 1. .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. . yn son funciones de x desconocidas y f1. un sistema de ´stas es mucho m´s complejo. . yn ). k = 1. . . y2 .4) Cuando B(x) = 0. . . . es decir cuando fk . Y ) =  .  .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x).    y (x) = f (x.3) (3. y .  . . . . n. . .  . .1) en la forma vectorial d Y (x) = Y (x) = F (x. Y (x) =  . . .  . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). Usando lo anterior podemos reescribir (3. . . . y1 . . . . . y1. y2 . yn ) = j=1 akj (x)yj (x) + bk (x). . . y1 .. y2 . n 1 2 n n donde y1 .  .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . Y y F son los vectores       y1 (x) y1 (x) f1(x. . yn ). . n es una funci´n lineal de la forma o n fk (x.. . Y ). . . F (x. . 2 (3. . diremos que SEDO es homog´neo.  . . y ).  . . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. o sea cuando todas las componentes del vector B son cero. .3 SISTEMAS DE EDOS 26 3. . y1.

. A(x) ∈ Rn×n y continua en R. Nota 3. Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. . .3 SISTEMAS DE EDOS 27 3. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . . Yk (x) soluciones del sistema Y = A(x)Y . e o Teorema 3.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). .k sean linealmente independientes. . k sean linealmente independientes es suficiente que las condiciones iniciales. entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. .3 Sean Y1 (x). .1 . . .5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. . entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. Para que los vectores (funciones) Y1 (x). . . el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. Los vectores (funciones) x x y x2 x2 . u Corolario 3. .2 Sea A(x) ∈ Rn×n . Yi (x0) = Y0. . cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x).3 y 3. existen unos unicos coeficientes c1 . . son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. Y = A(x)Y . Yk (x) del PVI. .5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. .6 Sea A(x) ∈ Rn×n .9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. o sea cuando B(x) = 0 o Y (x) = A(x)Y (x).4 Para que las soluciones Y1 (x). Entonces el PVI. . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. ´ o Comenzaremos estudiando el sistema hom´geneo. Y0. no obstante. Teorema 3. Y = A(x)Y + B(x). . Nota 3.1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. (3.1. . O sea. . . Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . la soluci´n del PVI. Y0. obviamente son dependientes pues x0 x2 0 .8 Juntando los teoremas 3. . Teorema 3. . = x0 2 x0 x0 Teorema 3. . para x = x0. . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. . o e Nota 3. En particular. . o sea los vectores.i . Y = A(x)Y . Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. . e o Corolario 3. i = 1.7 Si Y1 (x). . Entonces. . Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . Yn (x0)| = 0.

Ejemplo 3. n. . Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . . . cn son constantes arbitrarias y λk . .3.7) donde λ es cierta constante y v un vector constante.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y.2. . e e . . . .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. . son los autovalores asociados a los autovectores vk . (3. Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino. k = 1. por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 . de la forma n Y (x) = k=1 c k e λk v k . Autovalores simples A ∈ Rn×n .5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x).2. 3. Calculamos los autovectores. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2.1.3 SISTEMAS DE EDOS 28 3. (3. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. λ2 = 7.7) en (3. =⇒ v2 = 2 1 . Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes. . . . k = 1. .8) donde c1 . (3. es decir estudiaremos el problema (3.6) Busquemos la soluci´n de (3.6) en la forma o Y (x) = eλx v. seg´n o u el teorema 3. Sustituyendo (3. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 .6) tenemos. n. vn linealmente independientes en cuyo caso la soluci´n general es. . (3. . =⇒ v1 = −2 1 . Es decir. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. .

3. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. k! 2 n! (3. exp[(x + t)A] = exp(xA) exp(tA). la inversa [exp(xA)]−1 = exp(−xA).11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. Para todos x. Para toda matriz A. en nuestro ejemplo ı λ1 = −1 − i. Proposici´n 3. 3. . Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . entonces Y (x) = eax ( v cos bx − v sen bx). Para toda matriz A. Ahora bien. 2. Para toda matriz A. Para todas las matrices A. entonces el complejo conjugado λ es el autovalor asociado al autovector v. donde On es la matriz nula. si tenemos Y (x) = eλx v = Y (x) + i Y (x). d dx exp(xA) = A exp(xA) = exp(xA)A. 2 −5 2 −4 Y. 5. exp[x(A + B)] = exp(xA) exp(xB). λ2 = −1 + i. exp(0A) = In y para todo x ∈ R exp(xOn) = In . La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). Y2 (x) = e−x − 3. t ∈ R y toda matriz A. Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY .3 SISTEMAS DE EDOS Ejemplo 3. 29 Es decir. sen x . La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R.12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v.9) donde la convergencia la entenderemos elemento a elemento. As´ pues. 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . B con AB = BA. 4. son complejos. Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY .

. a En este caso existe una matriz P tal que A = P DP −1. =⇒ de donde se deducen nuevamente las soluciones del sistema. . .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . 2. n obtenemos n soluciones v1. . Y = AY .14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . . .. . siendo D una matriz diagonal. . . . . . para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. . . exλn 0 0 . Y = AY . como   D=   λ1 0 · · · 0 0 λ2 . . siendo (ei)i la base can´nica de Rn . . exp(xIn) = ex In. i = 1. . . As´ pues. λn 0 0 . N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. Para todo x ∈ R.        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . . vn del PVI. Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. . De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . . Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. . Entonces como para todo k ∈ N.  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. como hemos visto.13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . 0 . . . −1 2 − λ =⇒ λ1 = −1. . . . . las columnas de exp(xA) son soluci´n de los PVI. 0 . . . . . con A ∈ R e siempre tiene n soluciones linealmente independientes. e Definici´n 3.    . Si escogemos o o e v sucesivamente como ei .. Y (0) = ei que adem´s son linealmente independientes por el teorema 3.3 SISTEMAS DE EDOS 6. . Y = AY con Yi (0) = ei . . o o Corolario 3. Ak = P D k P −1 tenemos exp(xA) = pero. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. . . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . En efecto. y por tanto el PVI. λ2 = 4.

. . . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . por ejemplo. . =⇒ x1 = 3x2.4. Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . Entonces otra soluci´n. . k = 1.) Calculamos todos los autovalores λi y los correspondientes autovectores vi .3 SISTEMAS DE EDOS Calculamos los autovectores. P = 3 −2 1 1 . 2 k! Es decir. . 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. + (A − λIn )k v + . . independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . x2 xk (A − λIn)2 v + . luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . . . + (A − λIn )k v + . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. . . . luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos.) Si k < n entonces hay autovalores m´ltiples. . . El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. 1)T . xk x2 (A − λIn)2 v2 + . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . 1 5 2 5 3 5 . ¿Qu´ hacer cuando hay una ra´ m´ltiple. o 2. para λ2 = 4 obtenemos v2 = (−2. n. . . . 31 An´logamente. . i = 1. . =⇒ v1 = 3 1 . . . P −1 = 6 5 ex 2 5 ex −1 5 . i = 1. o o donde v1 es el autovector asociado a λ. Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. k. . . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. Una soluci´n es por tanto e λx v1. Si tenemos entonces n autovectores v1 . . 2.

respectivaa mente. . Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. x3 ∈ R. 0. . entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. aa generan todo el subespacio correspondiente a λ. luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. Supongamos que ma > mg .10) Cualquier elecci´n de α y β es posible siempre que β = 0. ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. 2. 1)T y v2 = (1. (3. . Y ı as´ con cada uno de los autovalores m´ltiples. . α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . e ´ Adem´s. 0)T . luego tomando4 β = 1. =⇒ x1 = 0. y as´ sucesivamente hasta completar el subespacio. los autovectores correspondientes son v1 = (0. . Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. 0)T = 0. 0 0  pero como (A − I)v3 = (β. buscamos la soluci´n del correspondiente subespacio (o sea. es decir    x1 0 0 0 (A − I)2 v = 0. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. x2 . 0. 0 0 . Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . Para cada autovalor. . ⇐⇒  0 0 0   x2  = 0. .6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. Luego tenemos dos soluciones independientes     0 1 2x  x . y (A − λIn)3 v = 0. Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. . 0.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). deducimos que β = 0. o . Aj ∈ Rn .

(3. con a1 y a2 cualesquiera. 0. En efecto. j = 0. (3. .4. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x . mk − 1 sean nulos.  1 0 1 0  Y.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. luego c = V −1 (x0)Y0 . entonces tenemos Y (x0) = Y0 = V (x0)c. por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . Ejemplo 3. . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. es decir. a4 = a2 . 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. a3 a6 =⇒ a3 = a5 = a6 = 0. la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c.            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . entonces si definimos el vector c = (c 1. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . . . exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). 1. Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. o Y = AY con Y (x0) = Y0 . Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental.3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . . Sea ahora el PVI. . a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2.12) . cn )T . . .1.15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3.10. o e 3.

14). donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = . Y (0) = 0 1 . Y (x0) = o Y0 . 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x .13). −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . Teorema 3. En particular. es decir Yp (x) = AYp (x) + F (x).18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . v1 = (−2.3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5. (3. 12 . (3. cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.5.17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . donde C ∈ Rn . si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x).15.13) es de la forma Y (x) = Yh(x) + o o Yp (x). −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3. El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x).14) Ejemplo 3.16 La soluci´n general del SEDO (3. Proposici´n 3. 1)T y λ2 = 7 y v2 = (2.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad. En este caso la matriz exponencial es la matriz del ejemplo 3. luego aplicamos (3. .

exA es invertible y su inversa (exA )−1 = e−xA . Y (0) = b) A = Problema 3. Problema 3. Problemas Problema 3.3 SISTEMAS DE EDOS 35 3. B 2n+1 = (−1)n B. a) A =  4 −1 −4 4 4 1 −8 8 . ∀x. 2. Usando lo anterior calcula las matrices exA y exB . o sea AB = BA. Problema 3.6. Y (0) = 2 1 . 3. e(x+t)A = exA etA . 0 0 2 0 0 2 b) 2. o Problema 3. In es la matriz identidad n × n. . 5. 1 12 3 1  .21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . con Problema 3. Prueba que A2n+1 = A. b) A = −2 3 2 −5 2 −4 .23 Resuelve los sistemas hom´geneos o 1. a) A = 2. o o en su caso. A2n = I2 . Si A y B conmutan. b) A =  0 1 0 .  0 1 −1 . 0 1 2 −1 0 0 2 = AexA . y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . Y = AY . 2.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3. 3. del problema de valores iniciales en los siguientes casos: 1. a) A =  0 1 2 . 1.20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. Y (0) =  1 . e0A = In . 6.24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . t ∈ R. exI = ex I. entonces ex(A+B) = exA exB = exB exA . 3. Como aplicaci´n calcula exC con C = o a b −b a . Para todo x ∈ R. d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . y B 2n = (−1)nI2 . 4.19). c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . a) y1 = y1 + 2y2 . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. cuya matriz de coeficientes es .19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. Y (0) =  2 . b) A =  0 2 −1 .

Uc en los siguientes casos: (a) V (t) = 0. con x(0) = x0. B(x) =  . e 3. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . A = 0 3 2 1 ex cos(2x) 1 1 sen x  . a) A = .3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . a) A =  3 2 −1 . sabiendo que su soluci´n es acotada si x → +∞. c) A =  2 1 −2 . v(0) = 0. B(x) = . 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . Y (0) =  1  4. o 2. Uc 50 −50 −50 Uc 0 Se pide determinar i1. 0 0 5 3 2 1 36 1. en su caso. β < ω. . A =  1 12 3 1 2 −5 2 −4 . Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . b) A = Problema 3. Uc(0) = 10. Y (0) = . i1(0) = i2(0) = 0. y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . A = 2. x =v . la correspondiente soluci´n del problema de valores iniciales cuando o 1. B(x) = x ex . Y (0) = 2 1 0 0   1 −1 4 2. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. A =  3 2 −1 . 2 1 −1 Problema 3. c) A = . i2. B(x) =  0 .25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y.26 Resuelve los sistemas lineales 1.

Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. . fk ∈ Rn . la soluci´n del SEDO Y = A(x)Y .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). entonces. . k=0 . A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). i1(0) = i2(0) = 0 = Uc(0) = 0. Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. m. . k = 1. Problema 3. .28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). . . Y. . 2. 2. k = 1. m.3 SISTEMAS DE EDOS (b) V (t) = 10. .

.  . que si tenemos dos soluciones y1 e y2 de la ecuaci´n. (4. el sistema anterior o se transforma en un sistema homog´neo. y (x0) = y0 . en caso contrario es no hoo mog´nea.. o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x). . e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 .  . .   . (4.  . zn(x) = y (n−1) (x)  dx Es decir. .1) Cuando f (x) ≡ 0. . .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4. . .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). .   dx  . diremos que la EDO (4.    . entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. . (4.   .3) es lineal.4) . d  . para cualesquiera o que sean α. La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x).1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes. ⇒ dx .  .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn .1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . . . . N´tese que cuando f (x) ≡ 0. y (n−1) (x0) = y0 (n−1) .  +  ..  . Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4. . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x). (4. zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f. . .2) Usando esta notaci´n podemos escribir (4. . y β ∈ R..  .1) es hom´genea.1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. es decir. . una EDO del tipo (4. αy1 + βy2 tambi´n es soluci´n.  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . .  .  . e a Proposici´n 4. = .

. yn ](x). . . Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . o Teorema 4. . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x .. yn de la EDO (4.6). (4. (n−1) ··· ··· .. . c1 .3).V. es decir buscaremos la soluci´n en la forma y(x) = e λx .3).5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. yn ](x) = y2 (x) y2 (x) .7) donde pm−1 es un polinomio de grado m − 1 en x. cm ∈ R.1. . . (4. . o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. . . . .3 El conjunto de soluciones de la EDO homog´nea (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n.1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 . . . Es decir. . 2. si λ = α + iβ. entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). . . asociado a (4. .´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. n generan el espacio soluci´n de la la EDO (4. .3). entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx).2 Sean a0 (x). Finalmente. Obviamente si λk es complejo. .3) con coeficientes constantes seguiremos la misma idea que para los sistemas. . (4. Si alg´n λk es m´ltiple de multiplicidad m ≤ n. . y (x0) = y0 que escojamos. . . Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. yn (x) yn (x) . o 4. k = 1. definido por o y1 (x) y1 (x) . siendo yp o una soluci´n particular de (4. . . Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4.I. en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R.1). an−1 (x) funciones continuas en R. .6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. . Entonces el P. ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4.3) coincide con (4. Sustituyendo esta o funci´n en la EDO (4. c2 . Teorema 4.3) es un espacio vectorial e de dimensi´n n. y (x0) = y (0). y1 (n−1) W [y1 . . . . Lo anterior nos indica una estrategia para resolver el problema: 1.3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. o .1) en la forma y(x) = yh(x) + yp (x). . .4 Dadas n soluciones y1 . (n−1) = 0 ∀x. .

8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx .9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . λ2 = . la soluci´n general de (4. obtenemos que la soluci´n o o general de (4. o. φ ∈ R. y2 (x) = eλ2x .10) Luego. Sea p2 = 4q. λ. Caso de dos ra´ ıces reales iguales. y2 (x) = eλ2x .9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . Sea p2 < 4q. 2 2 y la ecuaci´n homog´nea (4. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4.8) tiene la forma o . la soluci´n general de (4.7) tenemos que la soluci´n generada por λ es. B ∈ R. δ ∈ R. λ2 = λ − iω. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. usando (4. 2 2 Caso de dos ra´ ıces reales y distintas.9) tiene una unica soluci´n real λ = −p/2.9) La ecuaci´n caracter´ o ıstica (4.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . A. Sea p2 > 4q. A. como se pretend´ probar. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . q ∈ R. entonces la ecuaci´n caracter´ o ıstica (4.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . λ2 + pλ + q = 0.9) ser´n a p2 − 4q −p − p2 − 4q . Las soluciones de la ecuaci´n caracter´ o ıstica (4.6) de la ecuaci´n (4. . ıa Caso de ra´ ıces complejas. y(x) = A eλx cos (ωx + δ) . En efecto. A. ω ∈ R.3 y la ecuaci´n homog´nea (4. B ∈ R. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ).8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . Entonces. en este caso. (4. p. . A.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden. entonces la ecuaci´n caracter´ o ıstica (4. B ∈ R. i = −1. equivalentemente. 2 2 y la ecuaci´n homog´nea (4. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ. o o e El caso general es completamente an´logo. Luego.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . (4. λ1 = λ + iω.8) (4. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . entonces la ecuaci´n caracter´ o ıstica (4.

por lo que nuestra EDO (4. f (x) continua. por tanto a0 en la expresi´n anterior puede ser cualquiera. a o 4. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x). 4. (4. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero. q ∈ R.13) e igualando coeficientes. a = 0. (4. Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x).1. (4.12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x). e e e si tenemos la EDO y + py = pn (x).11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. an = 0.2.12).14) luego siendo pn un polinomio de grado n. (4. Este m´todo obviamente funciona si q = 0 (¿por qu´?).´ 4 LA ECUACION LINEAL DE ORDEN N 41 4. si sustituimos la soluci´n anterior en la EDO (4.14) se reduce al caso anterior (4. Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . Para resolverlo hacemos el cambio y(x) = ecx v(x). Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . como la EDO homog´nea es y + py = 0. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. o sea.12) siendo pn un polinomio de grado n.2. p. En efecto. . de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n.13) siendo pn un polinomio de grado n. pero ¿qu´ ocurre si q = 0?. Ahora bien.2. la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn. q = 0. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. v + (2c + p)v + (q + pc + c2 )v = pn (x).2. entonces cualquier constante es e soluci´n. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}.

la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes.16) (4. de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . o e . Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). y2 ](x) = o W [ex . y2 ](x) c2 (x) = f (x)y1(x) .18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados.2.15) siendo pn un polinomio de grado n. c1 y1 + c2 y2 = f (x). Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). c2 = − =⇒ 2 2 Por tanto. Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. 42 Veamos ahora como resolver los casos (4. 6 =⇒ yp (x) = e2x .4. f1. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). a Ejemplo 4. con c1 y c2 tales que c1 y1 + c2 y2 = 0. la f´rmula (4. [y1 y2 − y1 y2 ] = W [y1 .5 Resolver y − y = e2x . o bien. El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x.´ 4 LA ECUACION LINEAL DE ORDEN N 4. entonces L[u] = f1 y L[v] = f2]. W [y1 . 4.2. y + py + qy = pn (x)ecx cos(ωx). Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). Ahora bien. Para resolver este caso notemos que si y(x) = u(x) + iv(x). la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 .4). 3 e−x . lo cual es consecuencia de la linealidad L. y2 ](x) (4. Como W [y1 . u.11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4. la primera por y2 y la segunda por y2 . funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). e−x ] = −2. W [y1 . (4. Para ello multiplicamos la primera por y1.17) De esa forma tenemos que resolver dos EDOs de primer orden. para obtener c1 [y1 y2 − y1 y2 ] = −f y2 .3. 2 c3 (x) = − e2x . v. pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas.18) nos da o c1 = c1 (x) = ex . La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . 3 ex e3x . f2 funciones reales.

19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). f = 0 y α = 0. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. ω 2 = . x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado.6. Aplicaciones Ejemplo 4. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). . Supongamos ahora que eliminamos solamente la fuerza externa. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ).´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. o + c2 e−αx− √ α2 −ω 2 x . A= √ a2 + b2. 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). 2m m m (4. x + 2αx + ω 2 x = f (t). Entonces la EDO (4. (4. f (t) = . δ = arctan(ωx0 /v0). Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). δ = arctan(b/a). α= a k F (t) > 0.20) cuya demostraci´n es inmediata.3. o equivalentemente. x PSfrag replacements 2.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). o sea. entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4.

es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. entonces. e 2c. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. 3. Veamos el caso general y. que decrece exponencialmente a cero.´ 4 LA ECUACION LINEAL DE ORDEN N 2a.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). Ω = ω la amplitud es m´xima. Si α < ω. llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . 2b. Obviamente para o forzadas: resonancia.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt . (ω 2 − Ω2)2 + 4α2 Ω2 (4. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. Si α = ω. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . En este caso se dice que el movimiento es amortiguado ya que aunque oscila. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). Si α > ω. entonces. en este caso m y k. Si usamos la identidad (4. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . que tambi´n decrece exponencialmente a cero. Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. 2 −Ω Como se ve en la f´rmula anterior. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. por simplicidad. se suele denominar . (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . que decrece oscilando exponencialmente a cero (ver figura 9 derecha).

La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. Este puente se abri´ al p´blico el 1 de julio de 1940. Figura 12: El desastre del puente de Tacoma. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). en 1831. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. 2ω N´tese que a diferencia del caso con rozamiento. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. Veamos ahora que ocurre si α = 0. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). Desde ese mismo d´ se observ´ que o u ıa. Por ejemplo. En este caso tenemos que repetir el proceso anterior lo que nos da. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). o sea si no hay rozamiento. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. si t → ∞. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. o . El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. f0 t f0t iωt = e sen(ωt).´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. en ´ste. Inglaterra). A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. Figura 11: Resonancia en un sistema sin rozamiento.21) que nos da.

Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). Entonces. es m´s varios expertos aseguraban que todo estaba bajo ıa a control. o Ejemplo 4. ω 2 = 1/(LC) y u(t) = U (t)/L. L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). o n o El puente parec´ aguantar bien. en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador.     (c1t + c2 )e−αt . si Ω = ω tenemos la soluci´n o u0 t sen(ωt). o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. equivalentemente.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t . Obviamente la EDO anterior es totalmente an´loga a la EDO (4. o. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] .´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. De o hecho.22) siendo β = |r 2 − ω 2 |. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 .7. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t). la carga por unidad de tiempo. r < ω En particular. 2ω que es no acotada. (ω 2 − Ω2)2 + 4r 2Ω2 (4. o sea. donde r = R/(2L). pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. U(t) Figura 13: Circuito RLC del ejemplo 4.8 Los osciladores acoplados . Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). q + 2rq + ω 2 q(t) = u(t). en este fen´meno se basan los equipos de radio actuales.19).

¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. conocidas como frecuencias propias del sistema. Supongamos que x1 (0) = 1.23) k2 + k 3 m2 − 2 k3 x1 = 0. 47 En la figura 14 vemos dos osciladores acoplados. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . x2(0) = 1 y x2(0) = 0. Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. x1(0) = 0.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. An´logamente se puede obtener la a expresi´n para x2. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. Veamos que ocurre al incluir este ıa u resorte. m1 m2 (4. m . La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). Figura 14: Dos osciladores acoplados. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen.24) ω2 = k . entonces obtenemos x1(t) = cos t x2(t) = cos t. Entonces (4.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos. ±ωi. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 .

Si x1(0) = 1. x2(0) = −1 y x2(0) = 1/2. x1(0) = 0. x1(0) = 1/2. x2(0) = −1 y x2(0) = 1/2. x1(t) = cos( 3t).´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . o sea. Pero si escogemos. x1(0) = 0. x2 (0) = −1 y x2(0) = 0. x2(0) = −1 y x2(0) = 0. x1 (0) = 1. x2 (0) = 1 y x2(0) = 0. tenemos que las oscilaciones son con las frecuencias propias. x2(t) = − + − 4 4 4 4 3 es decir. por ejemplo. x1(0) = 0. es una combinaci´n de las frecuencias. tenemos √ √ x2(t) = − cos( 3t). . obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . o Figura 17: Caso x1(0) = 1/2. Figura 16: Caso x1(0) = 1. x1(0) = 1.

2. 3. 4. y(0) = 1. Problema 4. 1. y + y + y = 1 + 2x + 3x3. y (0) = 0. y − y = x2ex con y(0) = y (0) = 0. respectivamente. y + 2y = 1 + x2 + e−2x . y (2) = 1. 5. 3. a k mg Figura 18: El oscilador y el p´ndulo simple.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. y lθ + gθ = 0. Encuentra la soluci´n general de ambas EDOs.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente.10 Resolver las EDOs 1.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. y − 4x = 4x2 + 2x.4. y(0) = y (0) = 2. 2. Problemas Problema 4. e Las EDOs que gobiernan estos sistemas son my + ky = 0. 6. y + y − 6y = sen x + xe2x . o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . y + 12y + 36y = 0. y(2) = 0. y − 4y + 13y = 0. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). Problema 4. y − y − 6y = 0. y (0) = 0.

´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt).14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. 2.12 Resuelve las EDOs 1.) m1 = m2 y k1 = k2 . ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. sin e velocidad inicial. 3. Problema 4. y (4) − 16y = 3 cos(x).) m1 = m2 y k1 = k2 = k3 .) m1 = 2m2 y k1 = k2 = k3 . a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados. Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10. Analice los casos: 1.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4. e 2. Problema 4. En ambos casos resuelva la EDO correspondiente. y + 8y = x2 . £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . k3 = 2k1 y 3.8 incluyendo rozamiento. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . y − 6y + 11y − 6y = xex + x2.

.1) e igualar los coeficientes de e las potencias. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0.2) en (5. . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0. Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). k ∈ N. ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0.2). = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias.1 Resolver la EDO y − 2x − 2y = 0. . Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. a5 . En o o efecto.2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. a4 . Por sencillez supondremos x0 = 0. de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n. As´ tenemos ı. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . a2k+1 . es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . . k ∈ N y si conocemos a1 entonces podemos calcular a3. n+2 n ≥ 0. Es importante que la serie converja en todo un entorno de x0.1) El objetivo es resolver la EDO anterior cuando las funciones p(x). a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . . La idea del m´todo es sustituir la serie y(x) (5. q(x) y f (x) dependen de x. ak ∈ R. (5. la recurrencia anterior permite calcular los valores a2. . si sabemos a0 . (5. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. 2n − 2 (2n)(2n − 2) · · · 2 n! . Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. a2k . de donde tenemos o an+2 = 2 an .

(n − 1)(n + 2)an = 0. o a 5. e− p(x)dx 2 y1 u=v. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. . n=1 es decir. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u.2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. Esta claro que el m´todo anterior no siempre funciona. s´lo podemos encontrar una soluci´n: y1(x) = x. ∀n ∈ N. e Ejemplo 5. =⇒ v(x) = C + D. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger.1. Por ejemplo.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. sin p´rdida de generalidad C = 1 y D = 0. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1). 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. n∈N =⇒ an = 0. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito.

para a o x > 0. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas.1) si o p(x). si p(x).3) con un punto singular en x0. Ello no siempre es posible. por ejemplo x = 1. Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . En lo que sigue. Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. a e a .5 Un punto x0 se denomina punto singular regular de la EDO (5. o sea.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). (5. En caso contrario se dice que o x0 es un punto singular. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. q(x) y f (x) son funciones anal´ ıticas en x = x0. aunque en algunos casos. en general. an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias. Entonces: 1.1). k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · .2.3 Dada la EDO (5.1). probar que el radio de convergencia de la soluci´n de la EDO (5.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0.3) Definici´n 5. y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). si lo es.1) a o es el menor de los radios de convergencia de p. Por ejemplo. Puntos regulares y singulares de una EDO Definici´n 5. adem´s. La soluci´n del problema de valores iniciales y(x0) = y0 . el punto x0 se denomina punto regular de (5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. (5. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · . Teorema 5. 2. Definici´n 5. Es posible. asumiremos x0 = 0. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. por simplicidad. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. Usualmente la EDO homog´nea (f (x) ≡ 0) (5. ∀n ≥ 0. q y f .6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . luego.

Caso (p0 − 1)2 − 4q0 > 0. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). al igualar la potencia xr . Caso (p0 − 1)2 − 4q0 = 0.6) 3. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x).5) 2. Sea r1 = a + bi. 2 Entonces se tienen los siguientes casos para x > 0 1. (5. r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . Sustituyendo y(x) = xr en (5. (5. Sean r1 y r2 las soluciones de la ecuaci´n indicial.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. r1. . Entonces si sustituimos en la EDO (5. x > 0.3) e igualamos potencias nos queda.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . (5. Caso (p0 − 1)2 − 4q0 > 0. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. k=0 de donde. x > 0. (5. r2 ∈ C (dos ra´ complejas).5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. Caso (p0 − 1)2 − 4q0 < 0. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n.8) Recordar que estamos suponiendo x0 = 0. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. x > 0. En general o o se tiene el siguiente Teorema 5. Veamos que ocurre en el caso general.7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. o r1.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. x > 0.

x > 0. x2q(x) = −αβx + · · · . Caso (p0 − 1)2 − 4q0 < 0.9) 3. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · . (5. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . (5.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . q(x) = . Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. Caso (p0 − 1)2 − 4q0 = 0. dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . y2 (x) = x1−γ bn x n .12) luego Por sencillez asumiremos que γ ∈ Z.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero). a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo.11) donde A es cierta constante que puede ser nula. n(n + γ − 1) n ≥ 1. Sustituyendo y1 en (5. n=0 n=0 Comencemos por la primera. de donde tenemos o dos soluciones r = 0 y r = 1 − γ.10) 4. entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k . Sea r1 = a + bi. entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0. En efecto. r2 ∈ C. Caso (p0 − 1)2 − 4q0 = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. Como hemos supuesto que γ ∈ Z. x > 0. . Obviamente x = 0 es un punto singular regular. En todos los casos las series convergen en un entorno de x0 = 0. an = (n + α − 1)(n + β − 1) an−1 . La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. r1 = r2 − N ∈ R. x > 0.3. r1. (5. ı o a 5. (5. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . por tanto.

p ∈ R.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x .9 Sea la EDO (1 + x)y = py. x2y = y + x2 + 1. (5. Problema 5. que no es m´s que el teorema del binomio encontrado por Newton. 1. (γ)nn! n ≥ 1.8 Resuelve las EDOs siguientes usando series de potencias. n ≥ 1.4. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). (γ)k k! (5. xy = 2y + xex.14) conocida como funci´n hipergeom´trica de Gauss. 2. y prueba que an = p(p − 1)(p − 2. entonces obtenemos an = por tanto y(x) = 2 F1 α. Problemas Problema 5. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . (α)n (β)n . e indica la regi´n de convergencia de las mismas o 1. y(0) = 1. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. (x4 − 4)y + 3xy + y = 0. y + 2y + y = x. a . n! p ∈ R. ∞ n=0 an xn. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. α − γ + 1. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . Encuentra la regi´n de validez de la doluci´n anterior. o o 3. 3. β − γ + 1 x . si es posible. 4.13) (α)k (β)k xk . 2−γ 5. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. o o Como consecuencia del teorema de existencia y unicidad. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico.

con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. xy + (1 + α − x)y + py = 0.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. b. y − 2xy + 2py = 0. Problema 5. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. (EDO de Bessel) Problema 5.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. xy + (1 − x)y + py = 0. 4. (1 − x2)y − 2xy + p(p + 1)y = 0.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. Problema 5. (EDO de Chebyshev) 2. 3. (EDO de Laguerre) 2. o e Problema 5. a. (1 − x2)y − xy + p2 y = 0.12 Resuelve las siguientes EDOs de Euler 1. a. x2y + 3xy + 2y = 0. (EDO de Legendre) 3. Problema 5. (EDO de Airy). Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. x2y + 2xy − 6y = 0.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). y + xy = 0. (x − 1)2y − 2(x − 1)y + 2y = 0. (EDO de Laguerre generalizada) 3. 2. o e Encuentra dos soluciones linealmente independientes de la misma. c ∈ R se transforma. (EDO de Hermite) 57 4. b. x2y + xy + (x2 − p2 )y = 0. c ∈ R.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. a. x2y + xy − 5y = 0. .

1) y (6. 1. utilizando las ecuaciones anteriores.2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x). . . que ρm (x) = σ m (x)ρ(x).1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. (6.5) (6. (6.6) Anm = Am (λ) |λ=λn Adem´s.7) Cuando m = 0 la f´rmula (6.1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo.1).2 Si para todo k ∈ N ∪ {0}. [σ(x)ρm (x)] = τm (x)ρm (x). Ann (n) (6.1.1) son ortogonales dos a dos: . µm = λ + i=0 (x) . 2 (6.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0. Esta ecuaci´n (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6.. respectivamente. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6. (6. entonces para las soluciones polin´micas de la ecuaci´n (6. Conocida ρ encontramos.4) Teorema 6. Para ello usualmente o se escriben (6. 6.1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad.1) es a k=0 1 [τ + 2 (n + k − 1)σ ].8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. n = 0. 2. m−1 (6. e o Teorema 6. (6.1) donde σ y τ son polinomios de grados a lo m´s 2 y 1. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0. el autovalor λn de (6.. τ + kσ /2 = 0. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn .2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)]. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. λ ≡ λn = −nτ − n(n − 1) σ .1 Si y es una soluci´n de (6.5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x).

se cumple que: o b a = 0.11) donde αn = an .4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. Generalmente se impone que P−1(x) = 0 y P0(x) = 1.11).5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x). = 2 2 dm dn x−y m=0 n Kern (x. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx.12) siendo an .9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn.9) o e n e integrando por partes. τn−1 (6. (6. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) .11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. (βn )n y (γn )n. y) ≡ n ≥ 1.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6.b ciones polin´micas Pn de la ecuaci´n (6.13) Como un corolario de (6. Corolario 6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ]. podemos utilizar la f´rmula de Rodrigues que. Luego. an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . para todo k ≥ 0.de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). an+1 βn = bn bn+1 − .3 Supongamos que xk σ(x)ρ(x) 59 x=a. sustituy´ndola en (6. o sea. an−1 an−1 an d 2 n−1 (6. (6. n (6. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. a Para calcular d2 . con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n . Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 . y dn es la norma de los polinomios.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x).14) .6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6. a (6. n! k=0 n−1 bn = nτn−1 (0) an .

Laguerre y Jacobi. a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos.20) 6. . cuando σ es de grado 1.30). 6.e. Los Polinomios de Hermite. es decir. En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x. Polinomios de Jacobi n α. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). Pn (x) = o a ´ xn + bn xn−1 + · · ·. Si definimos Qn (x) ≡ n+1 .2. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2. (6. donde αn = ˜ Bn λn αn τ n − . tales que su coeficiente principal an = 1. i.β Pn (x).1. Tomando m = 1 en la f´rmula (6. nτn Bn+1 P (x) n ≥ 0. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. n (6. 2. τn (x)Pn(x) − nτn Bn+1 (6.19) 4.2. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 .15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1.1). x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. Si escribimos la f´rmula (6. λ n γn .16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). (6. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). o 3.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). en las cuales (a)n denota al s´ ımbolo de Pochhammer (6..5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x). respectivamente. ¯ Bn−1 (6. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x. Par´metros Principales. soluciones de la ecuaci´n (6. τ es un polinomio de grado exactamente uno.18) λn ˜ [βn τn + τn (0)] . βn = nτn γn = ˜ (6.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) .

.0 1. H2m+1 (x) = (−1)m x 1 F1 m x2 . Representaci´n hipergeom´trica..5) se o e puede obtener la representaci´n de los polinomios de Hermite.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 . n + α + β + 1 1 − x . γ > −1. .23) (6. 2. 1 sen[(n + 1) arccos (x)] .β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α.22) (6. 3. o e De la f´rmula de Rodrigues. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . ap x b1 . β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6. .2.. 2 .2. b2 . o usando el m´todo de las series de potencias.21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . 0. Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = .β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x . o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α..γ− 2 (x). a2 .3. (6. (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk . Los polinomios de Legendre Pn(x) = Pn (x).24) Lα (x) = n α...2. 2n sen[ arccos (x)] 4. Casos particulares. α+1 2 6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n. (6.

Otras caracter´ ısticas. (n − ν)! α.25) Utilizando la f´rmula (6.. Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad. (n + α + β + 1)n (−1)n 2n (β + 1)n α. 2.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). Lα (0) = n (−1)nΓ(n + α + 1) . (n − ν)! n−ν (6. H2m (0) = (−1)m (2m)! . n = 0.26) (6. e n! α+ν..): o (Hn(x))(ν) = n! Hn−ν (x). 22m m! H2m+1 = 0.27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x).. 3. 1.β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x).β+ν Pn−ν (x). (n − ν)! .β Pn (−1) = . Γ(α + 1) 2n (α + 1)n α.β Pn (1) = . .16) encontramos las ecuaciones (ν = 1. 2. . a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.4.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6.2... (n + α + β + 1)n (6.

2. 3. (a)k = (6. Gγ (x) = P2m 2 2m 1 γ− 1 . (z) > 0. definida. sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z). (6. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = . y adem´s. Γ(a) Finalmente. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. 1 x Pm 2 2 (2x2 − 1).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5. Γ(a + k) . Adem´s.α α. √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. (a)k = a(a + 1)(a + 2) · · · (a + k − 1). x >> 1. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . P m m 2 1 (x) = (6. 1 1 γ− 2 . k = 1. n→∞ z(z + 1) · · · (z + n − 1) π . . Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). en general.β Pn (−x) = (−1)nPn (x). ∀n ∈ N.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. 2m Adem´s.− 1 2 (2x2 − 1).γ− 2 (x) = β. . Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814.γ− 2 −1 2 H2m+1 (x) = xLm (x2) . respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2).30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . a(x) = 1. cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z).28) 1 γ− 1 . (n − k)!k! k! . En particular. . mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. .

e En el caso Laguerre tenemos que la relaci´n de recurrencia (6.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0.32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν.34).3. 2m 2 m! C2m+1 = 0.33).7 Sea µ ∈ C. entonces todos los momentos impares son nulos. de donde deducimos que Cn = Γ(α + n + 1).8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. a (6. Se definen los momentos como b Cν. como C0 = π. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. as´ que tenemos ı cuando z = 0.µ−1 (z) + [τν (z) + µσ (z)] Cν. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. que usar (6. (6. C0 = 0 ∞ xα e−x dx = Γ(α + 1). a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. z = 0 obtenemos.µ (z) = a (s − z)µρν (s)ds. (6.33) y (6. .µ+1 (z) = 0. Ejemplo 6. para ν = 0. lo cual es √ la funci´n peso es una funci´n par.34) es o (α + n + 1)Cn − Cn−1 = 0.33) En particular. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0. Teorema 6. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. De ella o como C1 = 0. luego Cn = (α + 1)nC0 . de (6. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.p (0) = a b Cp+1 = 0.µ (z) + τν + µσ 2 Cν. Finalmente. µ = p ∈ N.34) sp ρ(s)ds. (6. Adem´s.33) deducimos que.

Caso Hermite Hn (x): Primera prueba Sea Φ(x.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. t) = e2xt−t . o Para los polinomios cl´sicos se tienen las siguientes identidades. Bn 2xt−t2 2n Hn(x)tn. No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. n! R(1 − 2t + R)α (1 + 2t + R)β (6. (6. Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. t) tal que.β Pn (x)tn = . En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). o o Φ(x.37) con R = 1 + 4t(t + x). t) = ∞ n=0 An Pn (x)tn. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x.36) 2α+β (−1)n (α + β + 1)n α. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia.4. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. n! (1 − t)α+1 tx (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . 2 .

0) = 1 y Φt(x. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. t) + 2(t − x)Φ(x. Ahora bien. ∂t cuya soluci´n es Φ(x. n! n! n=0 ∞ o. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. usando el desarrollo en serie ı de Taylor en t para Φ(x. n! (6. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. t).38) deducimos que g0(x) = 1 y g1(x) = x. t) = e2xt−t . (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. e a o Sea la funci´n generatr´ Φ(x. t) = ∞ n=0 2 2 2n gn (x)tn. por tanto. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. t) = 0.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. 0) = 2x.38) donde (gn)n es una sucesi´n de polinomios a determinar. t) = obtenemos la ecuaci´n o ∂ Φ(x. t) y compar´ndolo con (6. a Ahora sustituimos (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). ∂t De aqu´ deducimos que Φ(x. como Φ(x. (n − 1)! n! n! n=0 n=0 ∞ ∞ . La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. equivalentemente.

los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x).13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 .12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. es decir.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn . 6. 2n (γ)n γ Cn (x)tn. si en vez de sustituir a en (6.33) z = 0 sustituimos el valor z = 1.n (1). N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = .n (0) de o los polinomios de Jacobi. (6. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 . 2g2(x) − 4xg1(x) + 2g0(x) = 0. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi.9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. a ∀p(x) ∈ Pn .36). como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).− 1 0.40) Problema 6.n (0) en o este caso y resu´lvela. Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 . respectivamente.5. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 . . entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar. kn a (6. y)dx = p(y). 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre. 67 Ahora bien.γ− 1 γ dada por (6.39) Problema 6. Problema 6. Problemas Problema 6.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x.41) donde (γ)n es el s´ ımbolo de Pocchamer.0 Pn(x) = Pn (x). Problema 6. n! (6. es decir. Encontrar la relaci´n de recurrencia para los momentos Cn := C0.

α.β α.α KerJ.β−1 β. 0) = n−1 (α + 1)n .44)-(6. y) se definen mediante la expresi´n u o Kern−1 (x.42) α+1.β (1. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 . 0) = √ 2m π(m)! π(m)! x KerH (0.β+1 KerJ.45) tenemos KerJ. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x. −1).43) Problema 6.α d (x) = n(−1)n+1 ηn Pn−1 (x).α.β (x) + Pn (x).β α. 0) = . 0) = √ Lm−1 (x2) = √ .β (x) − Pn (x). −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) .β (x.17).α. 2n(β + n) dx 2(β + n) 68 (6.β (−1.β α. 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.β d α−1. 2n(α + n) dx 2(α + n) α.29) para los polinomios de Jacobi prueba que o ıa J. y) = Pm (x)Pm(y) .α.15 Los polinomios n´cleos Ker n−1 (x.14).α α+1. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6.14 Prueba las relaciones α. 2α+β+n n!Γ(α + n)Γ(β + 1) β. 1) = (−1)n+1 ηn dx Pn n−1 β.β Pn−1 (x) = (6. Lm (x2) = √ KerH (x.α α. n−1 . 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 .β. n Γ(α + 1)n! KerL (0.45) (−1)n−1 Γ(2n + α + β) .44) (6. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x). 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .β donde por ηn y ηn denotaremos las cantidades β. KerJ. los valores en los extremos (6. n−1 β.β (x.β (2n + α + β)(1 − x) d Pn (2n + α + β) α.25) y las o f´rmulas de diferenciaci´n (6. 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.α ηn (−1)n−1 Γ(2n + α + β) .α ηn = (6. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.α. 1) = n−1 Utilizando la relaci´n de simetr´ (6.β+1 Pn−1 (x) = α. KerH (0. Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α.β (2n + α + β)(x + 1) d Pn (2n + α + β) α. −1) = ηn dx Pn (x) = nηn Pn−1 (x).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.β (−1. 1) = Kern−1 (−1.

1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. . z)| ≤ K|y − z|. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden. entonces y1 (x) = y2(x) en todo Id . y(ξ))dξ.1) tiene soluci´n unica. 1/K). . (7.7. Sea el problema de valores iniciales y = f (x. y) ∈ R y (x. y u = 0 si y s´lo si u(x) = 0 en o I. Adem´s. y)|. . (7. Proposici´n 7. yn (ξ))dξ. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|.5) yn+1 (x) = y0 + x0 f (ξ. 1. y(x0 ) = y0 .6) La sucesi´n anterior se conoce como sucesi´n de Picard. una condici´n suficiente para que una funci´n f (x. n = 0. y) es continua en el rect´ngulo R o a definido por R = {(x. Adem´s. ∂y Definici´n 7. 2. o o . Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7.y)∈R Como f es continua en R. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. a (x.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. |y − y0 | ≤ b}. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta.2 Diremos que una funci´n f (x.3) Definici´n 7. M siempre est´ definida. y).4) Para la norma tenemos la desigualdad evidente u ≥ 0.2) Proposici´n 7. . a. y) : |x − x0| ≤ a. o ´ Lo primero que asumiremos es que la funci´n f (x.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7. (7. x∈I |f (x. (7.4 (Teorema de unicidad local de soluciones) o Sea f (x. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R.1) En el apartado 2.1 El PVI (7. b > 0.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. Sea M = m´x |f (x. se tiene la desigualdad triangular a u+v ≤ u + v . Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. (7. Obviamente si u(x) es continua u < +∞. y) − f (x.

e. b/b. Si ahora usamos.1) con f lipschitziana de constante K en R (7. Entonces K = 2b y M = 1 + b2 . y) − f (x. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. π/2). Encuentra las tres primeras aproximacioo nes de la soluci´n.1) o o en Id . 1/1) = 1}. es decir existe una unica funci´n y(x) tal que y (x) = f (x. b/M )} tal que su imagen est´ contenida en R. las im´genes e a de yn (x) est´n contenidas en R.8 Prueba las propiedades anteriores para la norma u .1. i. digamos que |y| ≤ b > 0. Corolario 7.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a. y(x)) e ´ o y(x0 ) = y0 . 7. a Entonces. 1/K)}. el PVI (7. la sucesi´n de Picard e o (7. por tanto d = m´ ın(a.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. por ejemplo. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |. Como f (x. b/M. Para ello basta definir una a norma en RN y el valor absoluto de un vector.9 Sea la EDO y = x − y 2 con y(0) = 0. M = b. luego f es lipschitziana con constante K = 1. 2 Ahora bien. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. En este caso ´ la soluci´n es y = tan x definida s´lo en [0. Entonces. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. y) = y. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n. z)| = y 2 − z 2 = |y + z||y − z|. a Proposici´n 7. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. la norma k=1 N Y = k=1 yk . Problema 7. b/(1 + b2 ). N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . Las correspondientes o demostraciones se dejan como ejercicio.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7. Escojamos un valor cualquiera para y. y M = m´x(x. para todo n ≥ 0.. o . y)|.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7.7 (Teorema local de existencia y unicidad) Sea el PVI (7. Sea x ∈ R por ejemplo. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. entonces o o |f (x. 1/K) = m´ ın(a. Los teoremas anteriores son s´lo condiciones suficientes. Problemas Problema 7. Entonces. |y0 (x) − y0 | ≤ b.2). b/M. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. o a El procedimiento anterior es f´cilmente extensible a sistemas. y) = 1 + y 2 . 1/b).y)∈R |f (x. 1/K)} tal que su imagen est´ contenida en R. b/M.

1/2] Problema 7. y(0) = 2/5. 1/2] 2. y(0) = 0. Problema 7. x ∈ [0. y(0) = 0.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. 3/10] 3.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y = y 3 + e−5x .11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . x ∈ [0. y = x + y 2 . y(0) = 0. Comp´ralas con la soluci´n exacta. y(0) = 0. y = y 2 + cos x2 . x ∈ [0.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . a o .

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

0 dx = C 1 dx = x + C xα dx = xα+1 + C. 8.1) f (x) dx. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). De manera que. b). 5.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. 2. 7.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. b) se tiene que F (x) = f (x). b) si para todo x de (a. Teorema A.5 Tabla de Integrales 1. α = −1 1 dx = log |x| + C x ax dx = ax + C. d dx f (x) dx = f (x) (A.) 1. Por ejemplo. Entonces. 4. para todo o x de (a. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . 4. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). α+1 ∀α ∈ R.4 (Propiedades de la integral indefinida. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. 2.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. 3. Anexo: C´lculo de primitivas a Definici´n A. 6. b). f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. log a a > 0. 3.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a. Definici´n A. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. F1 (x) − F2 (x) = const.

14. g(t)dt = G(t) + C. o Ejemplo A.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a. 13. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. Como la integral no es de la tabla es necesario convertirla en una de . Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). 10. M´todos de integraci´n. Entonces sobre todo el conjunto (a. 11. b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. A.1. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. o o sea. 12. 16. Como la integral no es de la tabla es necesario convertirla en una de la tabla.7 a) Calcular cos(2x) dx. 15.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. 17.1. b) el dominio y T = φ[(a. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). o Teorema A. b)] o la imagen de φ(x).1. e o Integraci´n por cambio de variable.

Donde para 2. . arc cos x. arc sen x. log φ(x).2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. Integraci´n por partes. du(x) = x dx n+1 dv(x) = xn dx.3) v(x)u (x) dx. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx. v(x) = x n+1 tabla. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. Entonces. Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. respectivamente. b). encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . Como la integral no es de la tabla es necesario convertirla en una u(x) = eax .4. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. du(x) = aeax dx dv(x) = cos bx dx. Las integrales de la forma eax sen bx dx. du(x) = aeax dx dv(x) = sen bx dx.1. u(x) = (ax + b)n−1 . Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores. (A.2. u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx. (ax + b)n cos cx dx y (ax + b)n ecx dx.´ A ANEXO: CALCULO DE PRIMITIVAS A. eax cos bx dx. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax . potencias enteras de las funciones anteriores.. b b b de donde. Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x. sen(log x) dx y cos(log x) dx. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. Las integrales donde aparezcan las funciones log x. Las integrales (ax + b)n sen cx dx. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). 3.8 a) Calcular xn log x dx. (A. b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). Ejemplo A. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). sobre (a... v(x) = 1 sen bx b eax sen bx a − b b de la tabla. .. b) y existe la primitiva de la funci´n v(x)u (x) en (a.

.4) y el numerador es un polinomio de grado a lo sumo n. Qm (x) (A.10 Supongamos que donde k < m.8) ..4) donde x1 . No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi .. Pn (x) es una fracci´n simple. el Ani de A ni Ani −1 A1 + + ··· + . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni .2. si n < m.6) Como consecuencia de lo anterior.. o sea.. xp son las ra´ces reales de Qm (x). si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). Mi . Bi . (A.5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . o sea.7) entonces. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + . Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. Integraci´n de funciones racionales. Bi ..´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). k no tienen ı Pn (x) ra´ces reales. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i . si Qm (x) tiene m ceros reales y simples. Definici´n A.5) con P n (x). Ni . N´tese que el denominador e o com´ n coincide con (A. la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai . y los factores x2 + pi x + qi . (A. Ni . . i = 1. Li y Ki . y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . Entonces. Para determinar dichas constantes sumamos los t´rminos de la derecha.9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . o sea. Qm (x) Qm (x) Teorema A. Mi . Li y Ki son ciertas constantes reales. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A.

si P n (xk ) = Qn (xk ) e para ciertos x1 .11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C.9) Teorema A. B. 7 (A. x y x0 son iguales. ıces . C.. .. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A.. utilizando (A. x2 . (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales. 2. Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) .10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. 2 x2 + px + q 2 4q − p 4q − p2 x dx. (x − 1)(x − 2) Ejemplo A. Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .. Qm (x) k = 1. (A. k (x − a) 1 − k (x − a)k−1 k > 1..´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 . D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C. xn+1 (distintos entre si).. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2. es decir. . Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 .. entonces Pn (x) ≡ Qn (x) para todo x ∈ R.. x−a B 1 B dx = + C...12 a) Calcular x2 Luego. m.9) obtenemos A = l´ ım x(x − 1) = −1. x dx. utilizando (A. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + .

Luego. sen x =− 1 x 1+t dt = − log +C = log tan +C. 1 + t2 1 + t2 2 dt.14 a) Calcular la integral dx = sen x dx . − cos x) = f (sen x. o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . Integrales trigonom´tricas. Luego. Esta integral es del tipo 1. 3. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. cambio t = tan x Ejemplo A. Ellas son las siguientes: 1.3. cos x). o Ejemplo A. e f (sen x. cambio t = cos x f (sen x. 1 + t2 f (sen x. 2. donde f (− sen x. donde f (sen x. cos x) dx. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . cos x) = −f (sen x. cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. donde f (− sen x.13 Calcular la integral dx = sen x dx . cos x) dx. cos x). cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . f (sen x. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. cambio t = sen x f (sen x. − cos x) = −f (sen x. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. cos x) dx.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. (x − 1)2 x2 + 1 2(x − 1) 2 A. cos x).

1. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. x2 ± a2 ) dx.15 a) Calcular la integral a2 − x2 dx. f (x. cambio x = a tan t Ejemplo A. Integrales irracionales. √ f (x. a2 − x2) dx. Esta integral es del tipo 3.4. Las integrales √ f (x. a2 − x2 ) dx. Luego. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. f (x. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. Esta integral es del tipo 2. Luego. f (x. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. 3. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. Luego. 2 2 2 2 2 A. Esta integral es del tipo 2. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . por tanto a2 − x2 + C.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. 2 4 √ pero. a2 − x2 ) dx A. Luego. 2. y f x.4. x2 ± a2) dx y √ f (x. a2 x x arc sen + 2 a 2 x2 − a2 dx. Esta integral es del tipo 1. sen3 x 1 +C. cambio x = a sen t x2 − a2 ) dx. cambio x = a sen t x2 + a2 ) dx. √ f (x. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 .

(A.2. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. . (A. b]. a Teorema A. Entonces f tiene primitiva en [a. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. f (x) es integrable en [a. b] y una de ellas es la funci´n o x n x. Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. c ∈ (a. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C.´ A ANEXO: CALCULO DE PRIMITIVAS pero. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). Sea f : [a. F (x) = c f (t) dt. b] → R a o continua en [a. Luego. ax+b cx+d . Luego. n ax + b cx + d dx.12) siendo Φ(x) una primitiva cualquiera de f (x). n ax + b cx + d dx. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 . x2 +a2 pero. obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C.17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. Las integrales f x. x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx.4. Esta integral se racionaliza con el cambio t = 3 x + 1. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. Esta integral es del tipo 3. deshaciendo el cambio t = 3 x + 1.16 Calcular la integral √ dx √ . b).11) Adem´s.

o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n. . A  a11 a12  a21 a22   .1).. y se denomina matriz ampliada del sistema.1. an3 · · · anm  se le denomina matriz de coeficientes del sistema. Multiplicar por una constante no nula una fila cualquiera. . . . . 2. . . . .  . Multiplicar por una constante no nula una ecuaci´n cualquiera. . .1) .. . .´ B ANEXO: ALGEBRA LINEAL 83 B. Intercambiar dos filas. o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m .. 2.  . . Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. .... . Si existen dichos valores diremos que el sistema tiene soluci´n.  .. 3.. a El sistema de ecuaciones (B.3) Un sistema lineal de la forma (B.1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1.    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas. Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B. . Si un sistema lineal de la forma (B.1). . De forma que a cada una a le corresponden las siguientes operaciones por filas 1. 2. .  (B. n) est´n colocados los coeficientes a ij (j = 1. 2. .  . .1) no tiene soluci´n decimos que es o o un sistema incompatible. . Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. .. Intercambiar dos ecuaciones. De esta forma e e o la matriz asociada al sistema (B. m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. . . . . . B. an1 an2   . .. . ´ Anexo: Algebra lineal Sistemas lineales y matrices. x2 . ..2)  .1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B.1) es compatible si existen los valores de x 1 .

Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . (B.  0 0 1 0 0 ∗ . Utilizando las formas escalonadas a anteriores (B.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida. e u Las operaciones anteriores se denominan operaciones elementales de filas. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ .5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica.2. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida.   (B. Formas escalonadas y el algoritmo de reducci´n por filas.´ B ANEXO: ALGEBRA LINEAL 3.4) . ıa Diremos que una matriz est´ en forma escalonada si: a 1. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila. o B. ıa Debajo de cada elemento gu´ s´lo puede haber ceros. 2. es decir se cumple el siguiente teorema: ´ Teorema B. Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas. Todas las filas no nulas est´n por encima de las nulas. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. 3.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ .

4. Este ser´ el primer pivote. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. B. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote.3.   (B. Si el pivote no es uno dividimos por su valor para que lo sea. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. ceros encima del mismo. Este proceso consta de cuatro pasos: 1. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. El resto de las variables se denominan variables libres. Comenzando por el primer pivote de la derecha creamos.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. las cuales pueden venir expresadas en funci´n de las variables libres. 3. As´ por ejemplo ı. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. Este proceso consta del siguiente paso: 5. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. La segunda parte consiste en transformar la forma escalonada en la forma reducida. a El significado de una variable libre es que dicha variable puede tomar cualquier valor.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. a ∗ ∗ ∗ ∗ 0    . mediante operaciones elementales de filas. si es preciso. o . Este paso se repite hasta que no queden m´s filas no nulas. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. Soluci´n de un sistema de ecuaciones lineales. o El algoritmo de reducci´n por filas consta de dos fases (partes). Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. 2.

x6 y las libres x3 . x4 . Por ejemplo. Vectores y ecuaciones matriciales. Es decir fijando diferentes valores de x3 .8) ∗ ∗ . o sea  x1  x2  x=y ⇐⇒  .  . Las variables principales ser´n x 1 .4. Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. x5 . x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 ..4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres).1. .. donde x1 .´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo. Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B.. x2 .. .. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero). . los sistemas correspondientes a las dos matrices (B.     =   ⇐⇒ x1 = y1 . B.7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. o sea. . . o lo que es igual. x2 .     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. x4 . ıa o B...2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote.. xn = yn . x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . Por ejemplo. Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas. Diremos iguales. De o a la forma de la matriz observamos que x5 .  . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B.. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 . yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. u  . n × 1. Los valores x1 .6).4. x4 obtenemos diferentes valores de x1 . consideremos la matriz del sistema (B. . xn es decir un vector es una matriz de componentes) del vector x. . . xn son n´ meros reales.

2. xn son las inc´gnitas que se quieren encontrar..  . an ) = α1 a1 + α2 a2 + · · · + αn an .. an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible.. respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an .´ B ANEXO: ALGEBRA LINEAL B. 6. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . .   .. w vectores de Rn y α.. .   ... 3. wn αxn Sean x..   .   .. αn n´ meros reales. x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α. + . Definiremos espacio generado por los vectores a1 . . al conjunto de todos los vectores de la forma L(a1 . a2 ... . . ...... .  . .. 2. z. an ) = L(a1 .. an de Rm con o pesos α1 . an . 87 Dichas operaciones cumplen las propiedades 1.. Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b].. β n´ meros reales.  =  .. Adem´s b est´ en span (a1 . an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 . . . a a o .... .4... o sea...     w1 αx1  w2   αx2      w = αx =⇒  . a2 . . u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b.   .. o sea. 7... 4. an ) = span (a1 . an de Rm y lo denotaremos como span (a1 . . Operaciones con vectores. y. . 8. x2 . n´ meros reales..         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . . Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y.  =  .  =  . quienes quiera sean α1 . a2 . 5.  . . . αn .. es decir. donde b es un vector dado de Rm y x1 .

a2 . . . o 88 Sea A una matriz m × n con columnas a1 . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y..   . .  . Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x. o sea. .4. La ecuaci´n Ax = b. an (vectores de Rm ) y x un vector de Rn . la ecuaci´n A x = b tiene soluci´n. ..  ...      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        .3 Sea A una matriz m×n con columnas a1 . Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A. 3) A tiene una posici´n pivote en cada fila. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b].. 2) A(α x) = α (A x) . . .. an ... . am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B.. x.  =  . an y b un vector de Rm . .. . a2 . an .. .  . . o Regla para el c´lculo de Ax.. xn Teorema B. Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm .3. . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b. o o 2) Las columnas de A generan Rm . . a2 ..  . y vectores de Rn y α un n´mero real cualquiera.. .  = x1 a1 + x2 a2 + · · · + xn an . Rm = Span(a1. Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  . . a2 .4 Sea A una matriz m×n con columnas a1 . o Teorema B.  .  .  .´ B ANEXO: ALGEBRA LINEAL B.. an ).5 Sea A una matriz m × n con columnas a1 . . a2 . a e o sea..

. s2 . .. sp cuyo n´ mero coincide con el de las u variables libres del sistema... a2 . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero. · · · . x2 . x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   .. Dependencia e independencia lineal.4.9) B.7 Un conjunto S = {a1 . o sea la matriz A tiene al menos o una columna que no es pivote. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . an se denomina linealmente dependiente si existen los valores x1 . ... u .. tiene como unica soluci´n la trivial x1 = · · · = xn = 0. ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. x es un vector de R n y b es un vector de Rm .4. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . . Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre. es decir. sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres.. Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0. an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0.6 Supongamos que A x = b tiene soluci´n para cierto b de R m . o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. El sistema lineal A x = 0 se denomina sistema homog´neo. . Y as´ sucesivamente.. e Teorema B. a2 .. a2 . El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 . s2 . Dicho sistema siempre tiene la e soluci´n trivial x = 0. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales. o e (B. o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. ´ o Un conjunto de vectores a1 ..4. Sea p una o soluci´n de A x = b (soluci´n particular). Teorema B.5.. Un conjunto de vectores a1 . 89 Conjunto soluci´n de los sistemas lineales... 1.´ B ANEXO: ALGEBRA LINEAL B. Para obtener los vectores s1 . .

. . a2 .10) B. o bien α A ≡ α||aij || = ||α aij ||. .. .8 Un conjunto S = {a1 . 3. . .. donde a1 .1. ...´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 .9 Un conjunto S = {a1 . · · · amj · · · amn      fila i →  ai1 ai2   . an y b1 . o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . . an necesariamente cada vector es combinaci´n de los anteriores. a12 a22 . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ]. 6. o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. Vamos a estudiar las operaciones elementales de las matrices. Teorema B. es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ].. . a2 .10 Sean A. bn son vectores de Rm . Suma de matrices y multiplicaci´n por un escalar. 5. A + 0 = 0 + A = A. . ´ Algebra de matrices. . . (α + β)A = α A + β A. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. . Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B. . Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. 2. a2 . (A + B) + C = A + (B + C). . α(β A) = (α β) A. o Teorema B. .. . Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n. α(A + B) = αA + αB. a2 . . an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n.. . B y C matrices de m × n y α. . Teorema B.  .. · · · aij · · · ain . .. donde 0 ≡ ||0|| es la matriz nula. . es decir. A + B = B + A. β n´meros reales. .. .     (B... B. .. am1 am2  a11 a21 . .. . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 . . El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes.. . .5. an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. . Entonces: u 1. 4. . . b2 ...5.. a2 .. .      .. .

. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ].11) aik bkj . Entonces: u 1.2. (B + C) · A = B · A + C · A.11 Sean A de m × n. 2.5. B. o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. entonces AT = ||aji ||. A · 0 = 0 · A = 0. donde Ik es la matriz identidad de k × k. Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0.12 Sean A de m×n. donde 0 ≡ ||0|| es la matriz nula. Transposici´n de matrices.. 2.. que denotaremos por A T .). 3.5. Es importante recordar que la multiplicaci´n de matrices no es conmutativa. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α. α(A · B) = (α · A) · B. 4.´ B ANEXO: ALGEBRA LINEAL B. 1 n−1 n Como consecuencia de este teorema tenemos que . Entonces: u 1. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. 5. (A · B)T = B T · AT . es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . o Teorema B. Im · A = A · In = A. Teorema B. (AT )T = A.3. 6. (A · B) · C = A · (B · C). es la matriz de n × m cuyas filas coinciden con las columnas de A. 3. 4. k veces donde A0 ≡ In . 2. Si A = ||a ij ||. β n´meros reales. k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. 1. A · (B + C) = A · B + A · C. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . Multiplicaci´n de matrices. la matriz transpuesta de A. (A1 · A2 · · · An )T = AT · AT · · · AT . k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ]. o Dada una matriz A de m × n. (A + B)T = AT + B T . o elemento a elemento: ||(A · B)ij || = n n (B. (α A)T = α AT .

´ B ANEXO: ALGEBRA LINEAL B. El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n . 3. entonces A−1 = 1 ad − bc d −b −c a .5. C · A = In . Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . Si existe una matriz C tal que A · C = In . Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. Por ejemplo. al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. AT es invertible y (AT )−1 = (A−1 )T .14 Sea A una matriz cuadrada de n × n invertible. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. Entonces: 1. (A−1 )−1 = A. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . . entonces a C se le denomina matriz inversa de A y se le denota A −1 . 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. n n−1 1 B. 92 Sea A una matriz de n × n. ´ Teorema B. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0. La inversa de una matriz cuadrada. es decir son las que se obtienen al intercambiar dos filas.13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . 2. (A · B)−1 = B −1 · A−1 . y su soluci´n se expresa por la f´rmula o o −1 b. x=A Teorema B. Matrices elementales.4. Si A es invertible entonces A−1 es unica.15 Sean A y B matrices cuadradas de n × n invertibles.5. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 .5. o Teorema B.

Por ejemplo. . en son las columnas de la matriz identidad. La ecuaci´n A x = 0 solo tiene la soluci´n trivial. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . la inversa de E1 es E1 . b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). 3.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . A b 2 = e2 . donde e1 . 2. reducen In a A−1 . Construimos la matriz [A In ].) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n .. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . 2. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1. Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila.. Existe un D tal que D · A = I. (Las columnas de A son linealmente o o independientes. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. Las o siguientes expresiones son equivalentes: 1. Teorema B. A es equivalente por filas a la matriz identidad In de n × n.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. o ´ Existe un C tal que A · C = I.17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n. Reducimos por filas la matriz A a In . A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. 4. 7. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . o sea. o sea. A es invertible. · · · A b n = en .  Teorema B.. (A tiene n posiciones pivote) A es un producto de matrices elementales. 5. 6. . Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. entonces [A In ] ∼ [In A−1 ].

.. .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . . . . . .6. B = A−1 . Sea A una matriz n×n (n ≥ 2).. . .13) Denotaremos por Aij a la submatriz que j. · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . . AT es invertible. . . ··· ··· . . . a12 a22 . . .1. . . . . .  . ..           . .6. . . Determinantes. entonces A y B son invertibles y A = B −1 ..       (B. que se conoce como desarrollo del determinante de A por su primera fila. . . . . . Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . . Definici´n de determinante de una matriz cuadrada. . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I.. . . . an1 an2  a11 a21 . . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j.12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. . . . o sea  a11 a12  . . . . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n . donde suponemos que det a = a si a es un n´ mero real cualquiera.  . .. ··· ··· . .. . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . a1n a2n . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . B.. . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . . . . . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . . .13). . · · · anj−1 anj+1     . . . .´ B ANEXO: ALGEBRA LINEAL 8. .  . . (B. Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . . . B. · · · ai−1n · · · ai+1n . anj+1 · · · ann · · · a1n . . a1j+1 a2j+1 .  .  ai−11 ai−12 Aij =   ai+11 ai+12   . .

. an1 a12 · · · a1n . respectivamente.18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . . la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. . .. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. E2 ´ ´ o E3 .. det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . Si E1 es la matriz que intercambia dos filas. . . si a Entonces. . Es conocido de apartados anteriores que cualquier matriz A se puede. Teorema B. e Teorema B. . Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . . es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. a Teorema B. Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. o 1. .19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal.2. Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. mediante transformaciones elementales. 3. . a12 . Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. . .20 Sea A una matriz n × n. . . entonces det A = det AT . . .21 Sea A una matriz n × n y sea AT su traspuesta.´ B ANEXO: ALGEBRA LINEAL Teorema B. . an2 · · · ann r ai1 r ai2 .. . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. ai2 · · · ain . det A = 0 y si una fila de A es proporcional a otra det A = 0.. . . la matriz B = E1 · A se obtiene al intercambiar dos filas de A. u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. transformar en una matriz triangular superior U (forma escalonada). Luego. Este razonamiento nos conduce al siguiente teorema. . =r ai1 . . . . Pero si A tiene n filas pivote entonces A es invertible. . o sea. . . . .6. Por ejemplo. an1 an2 En particular si una fila de A es nula. . · · · r ain . B. · · · a1n . . Propiedades de los determinantes. det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. 2. . . respectivamente. . a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. entonces det E = α. . . · · · ann a11 .

. . . A =  ai1 · · · aij−1 aij aij+1 · · · ain  . . · · ·. . .  . B. . .  .  .  .  . . . . . . . .. . .. .  .  . o u det A1 (ej ) det An (ej ) x1 = .  ..   . . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . .23 Sean A y B matrices n × n. . . . . o Teorema B. .. . .  . .  .  .. .. . .. Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 . .   .   . · · · A b n = en . . .  . .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. ... seg´ n la regla de Kramer. .  ai1   .  . en son las columnas de la matriz identidad.6. det A ···. . . . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . .    . .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . o Finalmente..  ..  .   =  bi . . . .    . b =  bi  . . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. . .   . Regla de Kramer. . A b 2 = e2 . an1 matriz n × n invertible. . . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. .  .      . bn b    . . donde e1 .. . xn = . . .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) . . .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . .24 Sea A  a11  . . . det An (ej ) = (−1)n+j det Ajn = Cjn . . det A x2 = det A2 (b) . . . .  . Entonces det(A · B) = (det A) · (det B).  . . · · · . an1 · · · anj−1 bn anj+1 · · · ann Teorema B. .  . .      .. . . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas). Sea A una matriz n × n y b un vector cualquiera de R n . . . . . . . · · · aij−1 aij aij+1 · · · ain   xi  . . .. . . . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  .  . .  . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. . . . xn = det An (b) . . . .  .. . . . .    . . . .3.

.. el vector suma. . .. . . k = 1. Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B.. B. 2. y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . vectores de V . . . . Espacios Vectoriales. . . w = x + y. .. .´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . y.7. det A  C1i C2i · · · Cji . . .. T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y). 1  . . . .     B. Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). ..  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. . Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B. ..25 Sea A una matriz invertible n × n. o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x. ..  −1 A =  .. y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. Definici´n y ejemplos. La matriz ||C lm || se denomina matriz adjunta de A. Esta propiedad se conoce como la multilinealidad del determinante Teorema B.18 y B.  .20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . . z elementos arbitrarios de V y α. . an . Cjn   . . . . x de Rn . Cni   . . .. tambi´n es un vector de V y se e cumple que: . . n.16 del cap´ ıtulo anterior. . La aplicaci´n anterior es lineal pues para todo α de R y x. Para todos x e y. β n´ meros reales. En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados..1.7. . Entonces V es un espacio vectorial si u 1. C1n C2n · · · Cjn · · · Cnn       .

el vector w = x + y tambi´n es un vector de H.) El conjunto de las funciones continuas en el a o intervalo [a. Teorema B. H = Pn es un subespacio vectorial. . tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. Para todos x e y. b]. Sea V un espacio vectorial. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t).´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V .b] . B.) El conjunto de los polinomios de grado a lo sumo n.. 2. . si y s´lo si a0 = a1 = · · · = an = 0. an n´ meros reales. que denotaremos por C[a. 1. w = α · x. o 2.. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn . H = Pk es un subespacio vectorial para todo k < n.. a0 . x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . Subespacios vectoriales. e . tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x.) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. el nulo) y H = V (el mismo espacio vectorial).) Para V = C[a.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. El elemento nulo de V pertenece a H. 1. Dicho espacio lo denotaremos por R m×n o 3.2. Pn = {pn (t) = a0 + a1 t + · · · + an tn . 3.b] .. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V . son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento.. entero. o sea. 4. 2.}. 1. o Ejemplos. Adem´s.) Para V = Pn .26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones. que denotaremos por P n . u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn . el vector que se obtiene al multiplicar por un escalar.7. ´ 2. para cualquier n = 0. vectores de H. (α · f )(t) ≡ α · f (t). 1.) Dado un espacio vectorial V . q(x) = b0 + b1 t + · · · + bn tn . pn = 0.

En particular si H coincide con V . . Por tanto B = a1 . . B. . Bases... an es una base de a . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . es decir. ..´ B ANEXO: ALGEBRA LINEAL 3. xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. tiene como unica soluci´n la trivial x1 = · · · = xp = 0. vp ) es un subespacio vectorial de V . v2 . e Teorema B. b2 . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 .... .. vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 .. ´ o Un conjunto de vectores v1 ... ... v2 . . . vp se denomina linealmente dependiente si existen los valores x1 . vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0.. .. es o decir. 99 Para todos x vector de H. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 . o a Un conjunto S = {v1 . . Por ejemplo. vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. .. ... · · · .. bp )..3.. Por tanto las siguientes afirmaciones son ciertas: 1. an son linealmente independientes y adem´s R n = Span(a1.27 Dado un conjunto de vectores {v1 ..7. B genera a todo H.. Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . Teorema B... v2 . an ). o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. b2 . vp necesariamente cada vector es combinaci´n de los anteriores. v2 . el conjunto span (v1 .. 1 < j < p.. v2 .. vp } de un espacio vectorial V . o sea. x2 . Conjuntos linealmente independientes. v2 . 2... si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3.... Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. . vp .. el vector v j es combinaci´n lineal de o o los anteriores... entonces sus columnas a 1 . v2 ..28 El conjunto de dos o m´s vectores v1 .. entonces B es una base de todo el espacio vectorial V . v2 ... v2 . si tomamos una matriz n × n invertible... vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. Un conjunto S = {v1 . Un conjunto de vectores v1 . .. el vector w = α · x tambi´n es un vector de H.

v2 . vp ) un subespacio de V . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. si A = In .. . vk−1 ..  . Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V .  . es evidente que dado un vector x de R n sus coordenadas.. t 2 . 1 ≤ j ≤ p.. v3 =  1  . Adem´s. . o Teorema B.. es decir los valores x1 ... v3 ] = span [v1 . en de la misma son una base de Rn la cual se conoce como base can´nica de R n . tn } del espacio vectorial Pn . vk+1 .. tn ) = a Pn .´ B ANEXO: ALGEBRA LINEAL 100 Rn .   . el conjunto B = {v1 . v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores. En particular. . v2 =  1  . la matriz identidad n × n. v2 . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 . 0 0 1 xn . . v3 no son linealmente a independientes.. . Adem´s... v2 . entonces alg´n subconjunto de S es una base de H. .. .. b2 . ... bn } una base del espacio vectorial V . es combinaci´n lineal de los o restantes. v2 . las columnas e1 . .. bn } es una base del espacio vectorial V . El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. e2 . b2 .  . xn .. u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial.. o sea.  + x 2  .29 Sea S = {v1 . Entonces para todo x de V existe un unico conjunto de valores {α1 .. S se conoce como la base can´nica de Pn . B...  = x 1  .. o Otro ejemplo lo constituye el conjunto de vectores S = {1.30 Sea B = {b1 .. ii) Si H no es el espacio {0}. H = Span(v1.. t 2 .. . .. Entonces si suprimimos a dicho vector vk del conjunto S.  . . v2 .. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn .  . digamos el vj . vk+1 ..7.  . . ´ Teorema B..  + · · · + x n  . Sistemas de coordenadas. a son unicos. vp ).. consideremos el espacio generado por los vectores       2 1 1  0  . S = {v1 . vp ) = span (v1 . H no cambia. Supongamos que B = {b1 . . Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  ... t..4. Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1. v3 } no es una base de H pues v1 .. v2 } que se obtiene al suprimir el tercer elemento si que es una base de H.. . v3 ] . t. H = Span [v1 . αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn .. vk−1 . Por ejemplo... Sin embargo.. v1 = 0 0 0 Es evidente que H = Span[v1 . i) Supongamos que un vector de S....  = x 1 e1 + · · · x n en . vk . v2 .

.. su dimensi´n... entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. o (dim V = n < ∞).. Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . xn . Si V no puede ser generado por una base finita de vectores. .. . b) Si S genera a todo V . o a es decir si V = Span(b1 . o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  .. La dimensi´n de un espacio vectorial. .´ B ANEXO: ALGEBRA LINEAL  α1 α2 . la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B .... o Teorema B. dim C[a. b2 .31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . . o Teorema B.   .. . es decir si V = Span(b1 ... b2 . dim Pn = n + 1.. a Este teorema es una generalizaci´n del teorema B.. bn } un conjunto de exactamente n vectores. b2 . a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos. o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 . .. en }. Teorema B.5. bn ). B.7. y por tanto. a Teorema B. αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C.. si las coordenadas de x en la base can´nica C son x 1 .. αn      B 101   y lo denotaremos por   o [x]B .. Entonces: a) Si S es un conjunto de vectores linealmente independientes.. N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica.  = PCB · [x]B .32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. Consideremos nuevamente las coordenadas en Rn . bn }..34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 . . . . bn }.8. dim Rn = n... b2 . o sea o −1 [x]B = PCB · [x]C = PBC · [x]C .b] = ∞.. bn }.. Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H... entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. bn ). b2 . dim{0} = 0. S es una base de V .. Supongamos ahora que pasamos a una nueva base B = {b1 . . bb } es una base de V y lo escribiremos de la forma dim V = n. entonces cualquier otra base de V tendr´ que tener n vectores de V . e2 . . donde B = {b1 . S es una base de V . .33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V . Adem´s dim H ≤ dim V . En el caso que V = {0} sea el espacio vectorial nulo. Por ejemplo.

.. bn =     D .  . y x = y1 d1 + · · · + yn dn −→ [x]D =  .. . b2 .´ B ANEXO: ALGEBRA LINEAL B. (B. .  . . xn y D son y1 . a1n   an1 an2 . b1 = an1 d1 + an2 d2 + · · · + ann dn . . cuyas columnas a1 . x2 . e Teorema B. ´stos se podr´n e a escribir en la base D. . −1 [x]B = PDB [x]D .  .. .6. . x = 0. tal que A x = λ x. Cambio de base. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. a2 . . ann      D   b1 =       .14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ. Como D es una base de V y los elementos de B son elementos de V . es un subespacio vectorial de R n . o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . yn . Denominaremos al vector x de R n . es decir.. b1 = a11 d1 + a12 d2 + · · · + a1n dn . 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . bn } y D = {d1 . o sea.35 Sea A una matriz triangular de n × n.  .   . bk = ak1 d1 + ak2 d2 + · · · + akn dn . . Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . El problema de autovalores de una matriz.. . resolver (A − λ I)x = 0. dado un autovalor λ de A... autovector de A asociado al autovalor λ. dn } o dos bases de V . que coincide con una base del n´ cleo de A..  .. .  .. i = 1.. .15) tiene soluciones no triviales. donde I es la matriz identidad n × n. . an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B.  x = x1 b1 + · · · + xn bn −→ [x]B =  . Por tanto.7. . o sea. . al vector no nulo x = 0.  .. yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B .8. 2. PDB es una matriz invertible (sus columnas son linealmente independientes). . n. =⇒  a11 a12 . B.   . . Es importante destacar que conocido el autovalor λ. xn B en la base  y1 .. d2 . (B.. Sea A una matriz de n × n. o sea. Por tanto tenemos que [x] D = PDB [x]B . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii .. entonces el sistema a (A − λ I)x = 0.. encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones. y2 .. · · · . .    x1   . Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. el conjunto de los autovectores asociados a λ. . . yn D a1n · · · akn · · · ann xn B Adem´s.

tales que A = P · D · P −1 . Teorema B. los mismos autovalores. en general. para demostrarlo es suficiente tomar Q = P −1 . o Matrices similares. 2. λp son linealmente independientes. Teorema B. B es similar a A.1. A −→ P −1 · A · P . ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B.15). det(A − λ I) = 0. Entonces los autovectores v1 . . por tanto. tiene soluciones no triviales. Las siguientes expresiones son equivalentes: 1. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. (B. La transformaci´n que a cada matriz le hace corresponder otra similar. o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. conclusi´n.37 Si las matrices A y B de n × n son similares.36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp .17 (Teorema de inversi´n de matrices.8. tal que A = P · B · P −1 . o sea.. . Es decir si U es la forma escalonada de A los autovalores de A y U son. Sean A y B dos matrices n × n. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ. Teorema B. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0.16). . ı B.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. vp asociados a los autovalores λ1 . entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores.) Sea A una matriz cuadrada A de o o n × n. λ es un autovalor de A si y s´lo si p n (λ) = 0. distintos... λ2 . (B.16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A.. Diremos que A es similar a B si existe una matriz invertible P . entonces tienen el mismo polinomio caracter´stico y.8. si existe una matriz P invertible y otra D diagonal. La ecuaci´n caracter´ o ıstica.´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz. Diagonalizaci´n de matrices. v2 . o B = P −1 · A · P. donde D es diagonal y P invertible. o sea. Si A = P · D · P −1 .. o Teorema B. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. se o denomina transformaci´n de similitud. B.17).17) Es evidente que si A es similar a B. A es invertible.. O sea. (A − λ I)x = 0. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B.2. Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio.

k = 1. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A.. Entonces B es un conjunto de vectores de Rn linealmente independientes. Para ello comprobamos que A · P = P · D. o sea. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p .. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .. Teorema B.. dim(B) = n1 + n2 + · · · + np . 2. o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Si tenemos en total n autovectores linealmente independientes entonces el teorema B. entonces es diagonalizable. λp . λ2 .. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k . Teorema B. p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio.16). 2.38 nos asegurar´ que nuestra matriz es diagonalizable. Si A es diagonalizable continuamos como sigue. Encontrar los autovalores de A resolviendo la ecuaci´n (B.40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 .. . 3. Sea Bk . Adem´s. . Algoritmo para diagonalizar una matriz A. Es recomendable comprobar que hemos calculado correctamente P y D. 4. si B contiene exactamente n vectores. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . o .39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. 1. A es diagonaa lizable si y s´lo si dim(B) = n.

se puede saber mucho m´s sobre la serie. En- tonces. Obviamente si tenemos una serie de potencias del tipo (C. an . N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 . la podemos reducir a a la anterior (C. R] ([−R. (C. 0]). entonces podemos definir la funci´n suma f (z) de la serie.1). Adem´s.2) es decir. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . Teorema C. Si la serie converge para cierto r ∈ R. o C. cuando z0 = 0.1). k! ∞ k=1 zk . La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que.1) que denominaremos serie de potencias. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. cualquiera sea la serie de potencias a ∞ n=0 an z n . a en z0 (ver la figura 20). si la serie converge en x = R (x = −R). El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C. an .2) est´n centrados en el origen y en el de las series (C. Consideremos ahora en caso real. x ∈ R. . Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. Anexo: Series de potencias ∞ n=0 Definici´n C. (C.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n .4 Sea la serie de potencias ∞ n=0 an xn . ∞ k=0 zk . converge uniformemente en [0. es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R.2) haciendo el cambio de variables ζ = z − z 0 y viceversa. x ∈ R y R su radio de convergencia.1. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk .1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . A diferencia del caso complejo.C ANEXO: SERIES DE POTENCIAS 105 C. Si la serie converge para cierto w ∈ C.3 Sea la serie de potencias ∞ n=0 an xn . z ∈ C. Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. a Teorema C. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. en el caso de las series de la forma (C. k etc. an . an . entonces absolutamente para todo x ∈ R con |x| < |r|. En este caso hay que trasladar los resultados a la recta real. z ∈ C. en el caso real si se sabe la convergencia en alguno de los extremos.

an xn es continua en (−R. Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. o sea. siendo R el radio de conver- En otras palabras. La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha).6 La funci´n f (x) = o gencia de la serie.7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. ım en cuyo caso 1 an an+1 = l´ n |an |. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. ∞ n=0 an xn . an . =⇒ ım = l´ ım . x ∈ R con radio de convergencia R > 0. an . . R). Teorema C.5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . ∞ n=0 Teorema C. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . o sea. si dicho l´mite existe. x ∈ R. Teorema C. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. n+1 2. Entonces R = l´ ım n→∞ n 1 .

Para calcular la derivada usamos el teorema anterior. (C. 1). a o o Los teoremas anteriores permiten calcular un buen n´ mero de series. radio de convergencia +∞.7) Usando (C. 1). como ya hemos calculado antes. R). n (−x)n = ∞ n=0 (−1)n xn . as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn .C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1.5) xk .6) Aplicando la integraci´n t´rmino a t´rmino en [0. 1).8) . as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x). Ejemplo C. n Funciones elementales del an´lisis.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k .4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. n (C. (C. f (0) = 1. a ex = ∞ k=0 ∞ k=0 xk . x ∈ (−1. ∞ k=0 (C. ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener.8 Probar que la funci´n f (x) = o su derivada. por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . x ∈ (−1. x ∈ R. 1 = 1+x (−1)k xk . k! x ∈ R. 1). (C. La funci´n que cumple lo anterior es la funci´n e x .3) sen x = (−1)k x2k+1 . (2k + 1)! ∞ k=1 cos x = (−α)k k x . Esta serie converge en (−1. f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s. x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn .

9) 1 Escojamos ahora (C. = 1 − x2 k=0 k! ∞ x ∈ (−1. 1). x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 .10) de donde integrando t´rmino a t´rmino en [0. k!(2k + 1) x ∈ (−1. 1). tenemos √ 1 ( 2 )k k 1 x . (C.5) con α = − 2 y cambiemos x por −x2 . 2n + 1 x ∈ (−1.11) . 1).C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. (C. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 . integrando t´rmino a t´rmino en [0. (C.

Sign up to vote on this title
UsefulNot useful