´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. .1. . . . . . . . . . . . . . . . . . . . . . . . .2. . . Sistemas lineales y matrices. . . . . . . . . . . . . . . . . . . . El teorema de existencia y unicidad para las EDOs 7. . . . . . . . . 8. . e o A. . .6. . . . . . . . . .1. . . . o B. . . . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . . . . . . . C. . . . . Integraci´n de funciones racionales. . . B. . B. . . .2.5. . . . . . . . . . . . . . . . . Problemas . . Determinantes. . . . El problema de autovalores de una matriz. . . . . Integrales trigonom´tricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Soluci´n de un sistema de ecuaciones lineales. . B. . . . . . . . . . . . . e A. . . . . . . . . . . . . . . . .1. . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algebra de matrices. . . . . . . . . . Formas escalonadas y el algoritmo de reducci´n por filas. . . . .1. 105 . . . . . . . . . . .7. . . . . . . . . . . . . . . . . . Anexo: Series de potencias 105 C.4. . Problemas . . . . . . . . . . . . . La transformada de Laplace 8. . . . . . . .6. . . .1. . . . . . . . . 7. .4. . . . . . . . . . . . Anexo: Algebra lineal B. . . . . . . . . . . . .3. . . . Vectores y ecuaciones matriciales. . . . . o B. . . Espacios Vectoriales. . . . .5. . . . . . . . . Integrales irracionales. . . . . . . . . . . . . . Propiedades de las series de potencias . . . A. . . . . . . . . . . . . . . . o A. . . . . . . . . . . . . . . . . . . . . . . . . . . . B. . . . ´ B. Anexo: C´lculo de primitivas a A. . . . . . . . .8. . . . . . . . . . . . . . . . . . . . . . . . Problemas . . . . . M´todos de integraci´n. . .

Ecuaciones diferenciales exactas. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. EDOs de orden n. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. La EDO lineal o de primer orden. Los momentos de las o o distribuciones continuas de probabilidad. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. Relaci´n con los sistemas de ecuaciones de primer orden. Ecuaciones o lineales. Teorema de existencia y unicidad para la EDO lineal de orden 1. Aplicaciones. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Ejemplos y aplicaciones. EDOs lineales de orden 2. La ecuaci´n hipere o o geom´trica de Gauss. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. e o o Cap´ ıtulo 5: M´todo de las series de potencias. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Sistemas lineales con coeficientes constantes. . Existencia de la soluci´n. La ecuaci´n de Bessel. Ecuaciones de Bernoulli y de Ricati. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Aplicaciones. Funciones generatrices. Puntos regulares y singulares. Polinomios cl´sicos discretos. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Los sistemas lineales y la EDO de orden n. Ecuaciones diferenciales de primer orden. Los polinomios cl´sio e o a cos. Ecuaciones lineales. F´rmula de Rodrigues. Funcioo nes generatrices. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. La EDO lineal de primer o orden. Reducci´n de orden. Sistemas de ecuaciones diferenciales ordinarias de primer orden. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Ortogonalidad y relaci´n de recurrencia. La matriz exponencial eA y sus propiedades. o a a Programa de la asignatura. M´todo de Pic´rd. Ecuaciones separables. e M´todo de integraci´n por series. Aplicaciones. M´todo de variaci´n de coeficientes. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler.

Prentice Hall.F.B. o Colecciones de problemas A.. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Series. Jr y David E. K. Mod 15. Ed. McGrawo Hill. Rainville E. Para aprobar el examen es necesario obtener al menos 5 a puntos. Differential Ecuations and their Applications. Despacho: 1er piso. Edwards. Bibliograf´ complementaria ıa Braun M. y Makarenko G. Funciones de variable compleja.E. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas. Ecuaciones diferenciales y c´lculo variacional. A. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Pearson Educaci´n o Nagle R. McGraw-Hill. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. 2002). Integrales mltiples. 15-06 a . y Zarzo.K. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones.D. Springer Verlag. Ecuaciones diferenciales elementales. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. Ecuaciones diferenciales. MIR.M.S. y Saff E.. Elsgoltz L. P. Bugrov Ya. Marcell´n. Nikolski S. F. ´ Renato Alvarez Nodarse.E.. Bedient P. GOLOVACH. Matem´tica Superiores. Simmons. Ecuaciones diferenciales. 9 y 10 (URSS. MIR. Krasnov M. Penney.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. Facultad de Matem´ticas. a Kisilev A. Casas´s. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8.. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. MIR. s´lo en caso a a e o de mejorarla. L. Fundamentos de ecuaciones diferenciales.. BOIARCHUK y G. No. H. y Bedient R. Problemas de Ecuaciones diferenciales ordinarias. G. Pearson Educaci´n.

En primer lugar por que estamos buscando funciones de x y no simples valores de x. . Nuestro principal objetivo es aprender a resolver EDOs.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. pero si complejas x = ±i. y (x) = y. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno... y(x). es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. y. y (n) (x)) = 0. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). . y . . . . multiplicaci´n y divisi´n. las ecuaciones funcionau a les donde las inc´gnitas son funciones. ı. y (x) + 3y (x) + 2y(x) = 2 cos(2x). Estas ecuaciones son el objetivo del presente curso. x2 + 1 = 0. y.1) se transforma en una identidad para todo x ∈ A. . En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. y . Por ejemplo. son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. La tercera sin embargo no tiene soluciones reales. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. Diremos que o u una ecuaci´n diferencial del tipo (1. y (x) − ey(x) + 7 cos x = 0. Por ejemplo. y (x0) = y0. o y (5) + 3 sen x − y = 0 es de orden cinco. Por ejemplo o 3x + 2 = 5. . porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. Existen ecuaciones m´s “complicadas”. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores.1) es de orden n si en ella aparece la derivada y (n) .1. ∀x ∈ A. Nos centraremos en las ecuaciones del tipo (1. y + e − 1 = 0 es de orden dos. y (x) = sen x. (1. y (x). o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. x2 − 2x + 1 = 0. Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. . . En segundo.1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). y (n) ) = 0. resta. x2 − 1 Estas ecuaciones. y . y . En particular el denominado problema de valores iniciales (PVI). ..1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. y (n−1) (x0) = y0 (n−1) . Diremos que y = y(x) es una soluci´n de la (1. 1. . . . x2 + 4x = −3. . quiz´ las m´s sencillas. Ecuaciones diferenciales “ordinarias” F (x.

dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2.3 El problema de encontrar una soluci´n de la ecuaci´n (1.2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0. dx a(x). ´ o En general.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden.4 Resolver la EDO del ejemplo 1. tenemos y(0) = 1 = C + 2.4). (1. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 . (1. y(x0) = y0. d y(x) + a(x)y(x) = b(x). o o e ecuaci´n no homog´nea.5) . o sea.2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden.2. entonces.2 con la condici´n inicial y(0) = 1. b(x) ∈ CI . o e La soluci´n general de (1. dx Definici´n 1.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1.1 La ecuaci´n o o a(x). la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . (1. x2 x2 x2 x2 x2 Definici´n 1.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x.3) Ejemplo 1.4).4) Ejemplo 1. b(x) ∈ CI . La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x). o Como la soluci´n general es y(x) = Ce− 2 + 2. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I. existe una unica soluci´n del problema de valores iniciales (1. para cualquiera sea el valor y0 . Teorema 1.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1.

10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva. Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. la presi´n al nivel del mar (1 atm).8 (izquierda) e Ejemplo 1. dt donde L es la impedancia. Encontrar la dependencia de i respecto al tiempo t.0) x U L Q Figura 1: Curva del ejemplo 1. y t y(x) P(x. R la resistencia y U el voltaje.6 (derecha) y circuito el´ctrico del ejemplo 1. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t).´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). Si h = 0.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. Supongamos que el voltaje U es constante y que i(0) = i0. Encuentra adem´s la a curva que pasa por el origen.y) R 0 (x/2. λ > 0.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x. h . o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. Realizar el mismo estudio si U = U0 sen(ωt). y) dibujado entre P y el eje 0y quede bisecado por el eje Ox.3. donde p es la presi´n en funci´n de la altura h.8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. Ejemplo 1. y = 2y/x Ejemplo 1.

E.0147478 1/min 22 a˜os n 0. N (t0) = N0. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0. N (t0) = N0. (1. si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı.71 0. 2 =⇒ λ= log 2 0.5110 a˜os 1.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva.0315067 1/a˜os n 138 d´ ıas . que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva. Por ejemplo. u ´ N0 = N0 e−λT .000433217 1/a˜os n 47 min 0. (1.32 4 Si h → 0.00502281 1/dias 5568 a˜os n 0.7) .000124488 1/a˜os n 9 −10 4.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.62 0.g. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones. o e Si llamamos a esa aportaci´n r(t). pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).81 0. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t).693147 = .64 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0.

y) = e2x + ey−x − 1 = 0. y. y. f (x. y.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. f (x.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. 7. . y ) = ex−y + ey−xy = 0 F (x.5). y) = x2 + y 2 − 25 = 0. 9. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. 3. f (x. 4. y + x2y = x2 6.4. y ) = xy + y − y 2 = 0 F (x. y. f (x) = 3e−2x . 8. x y + y = x sen x Problema 1. y. f (x. f (x) = 3/4e−2x . 2. x y + y cos x = 1/2 sin(2x) 11. o o a o 1. y ) = y − y = 0 F (x. y = (y + e−x ) tan x 8. y + y cos x = 0 √ 2. 2. f (x. y. y. f (x) = sen x 10. y + 2y = f (x). y ) = y + y/x = 0 = 0. y(1) = 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. y) = y − ex + 2 = 0. y) = x2 + y 2 + 1 = 0. 5. y = 6y + x2. y ) = (y 2 − x)y − y + x2 = 0 F (x. y + y x = 0 3. y + 2xy = x 4. √ 6. y) = 1 + x2 − y = 0. y. y + xy = f (x). f (x. y + y = xex 5. y(0) = 2. y) = x2 + y 2 − 25 = 0. y) = x3 + y 3 − 3xy = 0. Problemas de EDOs lineales Problema 1.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y) = y − 2 2+x F (x. f (x. y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. y ) = yy + x = 0 F (x. f (x. Problemas Problema 1. y ) = yy + x = 0 F (x. y = 3y + e5x . y ) = (1 + x2)y − xy = 0 F (x. y. x y + y = x3 7.

es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. y 0 (x/2. 4. ım . x→∞ l´ b(x) = 0. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x).0) y(x) t P(x. x→∞ a. g(x) = 2. (sol. (1 + x2)y + 4xy = x. b(x) ∈ CR . b ∈ R. t > 1 6 5. x2 + 2y 2 = 24). Problema 1. y = y + e−x sen(2x).y) Q x n Curva del problema 1. ∞). y + y = g(x).14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. c ∈ (0. y(0) = 1. 2). es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. x→∞ a(x) ≥ c > 0. ım a(x).15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . Problema 1. y(0) = 0. 0 ≤ t ≤ 1 0. Encontrar la curva que pasa por (4. y(1) = 1/4. ∀x ∈ R.14.

1.1) es o una ecuaci´n separable. y(0) = 3. Por ejemplo.2) como x(0) = 0. donde el signo + o − diferencial propuesta. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1.2) cuando b ≡ 0. luego x(t) = ab Ejemplo 2. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x).3 La velocidad de escape de la Tierra . o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 . 2. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. y) (2. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. C = a/b. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. Supongamos que la funci´n f (x.1) admite la factorizaci´n f (x. y) = a(x)b(y). donde κ es la constante de proporcionalidad. b−x 1 − e(a−b)κt . b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . y) en la o EDO y = f (x.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. Supongamos que a = b. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. si nos interesa el PVI con la condici´n a o √ 2. Aplicaciones Ejemplo 2. (2.1.2 OTRAS EDOS DE PRIMER ORDEN 7 2.1 Resolver la ecuaci´n y = x/y.1. b−x x(0) = 0. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). Cuando esto ocurre se dice que la EDO (2. Ejemplo 2.

siendo R el radio de la tierra (que supondremos una esfera). lo cual nos conduce al valor v0 ≥ 2gR. g Escojamos r = 2. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. Poniendo los datos R = 6400000 metros g = 9. 1 − ω2 vr ω2 = κ .8m/s2 obtenemos v0 = 11200m/s = 11. r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. ω= κ > 0. Si usamos la ley de Newton tenemos dv GMT =− 2 . . o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. Ejercicio 2. Como g = GMT /R2 . Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial.2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. por ejemplo. tenemos GM T = gR2. entonces.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad).4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . Usando la regla de la cadena tenemos v gR2 dv =− 2 . v(0) = v0. (2. 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . Ejemplo 2. la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR.2Km/s.5 Resolver el caso r = 3. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C. g Como ω > 0.

gr´fica 2. (2. Supongamos que la poblaci´n est´ aislada (o sea. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. (2. Resolviendo la EDO (2. Malthus (1766– e e 1834). pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. P. en particular. p(t0) = p0 . Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. p r/c p(t0) = p0. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t).2. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. p) = r.5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2. =⇒ p (t) = r(t. hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento. r. o . h → 0. r > 0. l´ t→∞ p(t) = r/c independientemente a ım de p0 .2 OTRAS EDOS DE PRIMER ORDEN 2.1. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. r − cp0 + cp0 er(t−t0) (2. Verhulst. Luego p(t + h) − p(t) = r(t. p)p(t)h. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. p)p(t). El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. constante. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica.6) Adem´s. e Aunque el modelo funciona razonablemente bien para poblaciones grandes.4) es una aproximaci´n bastante buena. As´ la o a ı.5) tenemos p(t) = rp0er(t−t0) . poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). p). Sea r(t. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. no hay o o a emigraci´n ni inmigraci´n).5. F.4) cuya soluci´n p(t) = p0 er(t−t0) . c > 0. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t.

(1 − x)y = (x + 1)y.2. y = 1 − x + y 2 − xy 2 5. x2y − 1 = cos(2y). cos(y)y = − x sen2y . b > 0.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. y = xy(y + 2) 3. Problemas Problema 2. cotg(y)y = x2 + 2 6. y(x0) = y0 > 0.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. yy + x − 3xy 2 = 0. l´ x→∞ y(x) = 5π/4 ım 2 .2 OTRAS EDOS DE PRIMER ORDEN 10 2. y = y(a + by). a. y(1) = 0 6. 3xy = y cos x. (x log x)y + 1 + y2 = 0 7. y(0) = 0 3. y(1 + x2)y + x(1 + y 2 ) = 0 4. 2. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. y(2) = 1 4. cos(y)y + ex+1 tan y = 0 8. y(1) = π/2 1+x 5. (1 + x2)y = 1 + y 2 2.

dada una EDO de Riccati (2. Veamos un ejemplo.2 OTRAS EDOS DE PRIMER ORDEN 11 2. En general. 2 x z =⇒ 2 z + z = −1. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x.7) en una EDO lineal. 3 x =⇒ y= 3x2 1 + .3) que nos da o o x C z = − + 2. x La soluci´n la encontramos usando la f´rmula (1. 1. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . Hacemos el cambio y = 1/x + 1/z. luego la EDO se transforma en 1 z + z = −3 log x. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal.3. Ejemplo 2.8).3) para resolverla. y tenemos o 4 y = −y y /3. z = (1 − n)y −n y . la podemos convertir en una EDO lineal.9 Resolver la EDO de Riccati y = y 2 − 2/x2. mediante el cambio y = yp + 1/z. haciendo z = y 1−n . y hagamos el cambio o z = y − yp .8) que hab´ considerado a˜os antes Jacob Bernoulli. =⇒ z + (1 − n)a(x)z = (1 − n)b(x). Supongamos que yp es una soluci´n particular de (2. Pasemos a estudiar la EDO de Riccati. x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. 2. que es lineal y por tanto podemos usar la f´rmula (1.8). En efecto.8 Resolver la EDO y − 1/(3x)y = y 4 log x. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). (2.1.3. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares.7) La resolvi´ su hermano Jacob en 1696. Usemos la primera para resolver la EDO. n = 0. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n. (2. Hacemos el cambio z = y −3 . Esta ecuaci´n es una EDO de Bernoulli con n = 4. o Ejemplo 2. x 2 4 −1/3 . y =− 1 z − 2. x C − x3 . Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. y = y 4 z.

o e o Supongamos que tenemos la EDO y = f (x.2.9) se transforma en la EDO separable dz = x + C. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy).3. u) = g(u) = g(y/x). x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. entonces o F (z) = z − 1 + 1/(2 − z). entonces z = α + βy . Si hacemos el o e cambio y = ux. ty) = f (x. entonces y = xu + u y la EDO (2. f (tx. Como z = y − 1 tenemos z = z−2− 1 . =⇒ α + βF (z) Ejemplo 2. ux) = x0f (1. o sea. f (u) − u Ejemplo 2. Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. entonces la EDO anterior se transforma en la EDO y = f (y/x).2 OTRAS EDOS DE PRIMER ORDEN 2. y y para todo t ∈ R. Sea f una a e funci´n homog´nea de orden 0. 2. En efecto. entonces f (tx. . √ por tanto y = 2 + x ± 1 + Cex . si f es homog´nea de orden 0.9) y hagamos el cambio z = αx + βy. (2. toda funci´n homog´nea de orden 0 es una funci´n de y/x. podemos perder las soluciones y = x + 1 e y = x + 3. 12 Sea la EDO (2. Adem´s. ty) = e tk f (x.10 Resolver la EDO y = y − x − 1 + 1 .4. Entonces o e f (x. y). y) y f es una funci´n homog´nea de orden o e 0.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C.11 Resolver la EDO y = (y + x2 − y 2 )/x. =⇒ z = 2 ± 1 + Cex . N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones.10) se transforma el la EDO separable xu + u = f (u). y). luego (2. z = α + βF (z). que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. u = y/x. z−2 =⇒ (z − 2)dz = x + C. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. =⇒ (z − 2)2 − 1 = Cex . y) = f (x. Sea y = u x. Una funci´n e o f (x. y) se denomina homog´nea de orden k si para todo x.

=⇒ √ dx du = . as´ que hacemos a ı el cambio y = u x y obtenemos. x 1 − u2 Ahora bien. y). si u = ±1. Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. lo que puede hacernos perder las soluciones y = ±x. e o o entonces la EDO nos da la ecuaci´n y = xc + f (c).  =⇒ y = xt + t2 x t=− .11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. es f´cil comprobar que f (tx. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). Para descubrir cuales son las rectas soluci´n basta notar que si y = c. 2. y) = (y + x2 − y 2 )/x. y la soluci´n singular o   x = −2t 1  y = xt + f (t). xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. Esta es una EDO de Clairaut con f (z) = z 2. Ejemplo 2. Luego si hacemos y = t.5. luego las soluciones son las familias de rectas y = cx + c2 . f derivable y con primera derivada continua (2. La primera condici´n nos da una familia o de rectas y = mx + n. √ 1 − u2 . La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). de donde deducimos que o y = 0 o x + f (y ) = 0.12 Resolver la EDO y = xy + (y )2. ty) = f (x. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. como hemos visto u = ±1. 2 y=− x2 . Para encontrar la otra soluci´n o o usamos que x = −f (y ). 4 .11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0. c ∈ R. Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ).

y) ∂y ∂φ(x.12) si y s´lo si (2.6. y) = C. y) (φ(x. y) ∂φ(x.13 Sean M (x. y) = . y) = N (x. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. la EDO lineal (1.2 OTRAS EDOS DE PRIMER ORDEN 14 2. o o Como 0= d ∂φ(x. Entonces. o sea. y) en la forma equivalente N (x.2) y + [a(x)y − b(x)] = 0. (2. y) tal que se cumpla la condici´n (2. Por ejemplo. y). φ(x. y) ∈ Ω. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. ∂x ∂y 2 ∂φ(x. y)) = 0. y)) = 0. o lo que es lo mismo. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. Teorema 2. y) = C es una o d soluci´n de (2.13) o o ∂φ(x. y). y) = N (x.13) d Por ejemplo. La respuesta la da el siguiente o d (φ(x. y)) = + = + y. y)) = 0 si y s´lo si. y) = M (x. Por conveniencia reescribiremos la EDO y = f (x. dx x Obviamente no cualquier EDO del tipo (2. ∂N . por ejemplo. y) = M (x. ∂x ∂φ(x.12) a o o d es equivalente a la expresi´n dx (φ(x. entonces la soluci´n de la o o EDO ser´ φ(x. y) existe una funci´n φ(x. y). (2.12) se puede expresar de la forma d (φ(x. y)) dx = d (φ(x. y) tal que o ∂φ(x.12) se puede escribir de la forma 0. y). Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. As´ surge la pregunta ¿cu´ndo la EDO (2. dadas dos o funciones M (x. y) y N (x. y).12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. y) = 0.12) La EDO (2. En general no es trivial deducir si una EDO del tipo (2. y) ∂M (x. y)) = 0. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. ∂x es necesario y suficiente que ∂N (x.14) Por dominio entenderemos un conjunto abierto de R2 y convexo. Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. sin agujeros. y) = C?. y) dos funciones tales que existan todas las derivadas parciales ∂M . y). . y) = C si y s´lo si (2.12) se puede reescribir de la forma dx (φ(x. y)) = 0.12) se puede escribir de la forma dx (φ(x. ∂y ∀(x. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . ∂y (2. para cierta funci´n φ(x. y)) dx = 0. y) ∂φ(x. y)y + M (x. y) y N (x.

y) que ∂N∂x = ∂M∂y . y) = 3y 2 + cos y + x. luego (x.y) En este caso M (x. ∂φ(x. y) tal que φ(x.y) ∂M (x.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. Corolario 2.y) .y) (x. y) = 2x + y − sen x. luego M (x.y) = ∂N∂x . luego ∂φ(x. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2. y) = C.y) ∂y = 3y 2 +cos y +x. y) = x+h (y) = 3y 2 +cos y +x. y) = 3y 2 + cos y + x.15 Para que la EDO (2. En este caso y + [a(x)y − b(x)] = 0. y) = 1. ∂x .y) (x. pero ∂φ(x. y) = y + g (x) = 2x + y − sen x.y) ∂y = ∂N (x. ∂x as´ φ(x. es decir existe una funci´n φ(x. y) = y 3 + sen y + xy + g(x).12) es inexacta (o no es exacta) si o ∂M (x. as´ que no es exacta.12) en Ω. ı =⇒ g(x) = x2 + cos x. Vamos a resolverla. Para calcular h(y) usamos que φ(x. ∂φ(x. luego ∂M∂y = 1 = ∂N∂x . =⇒ h(y) = y 3 +sen y. ∂y φ(x. en cuadraturas. es φ(x. ∂x De la primera deducimos ∂φ(x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2.2) es exacta.18 Una EDO del tipo (2. define la o soluci´n de (2. ∂y =⇒ h (y) = 3y 2 +cos y. y) = C. o (x. y) = x2 + xy + cos x + h(y). Ejemplo 2. y la soluci´n. y) = a(x)y − b(x) y N (x. Como la EDO es exacta entonces u existe φ(x. y) tal que se cumple (2. o sea.14) en cierto dominio Ω ⊂ R2.17 Comprobar si la EDO lineal (1. luego seg´n el corolario 2. y encontrar su soluci´n.12) se llama exacta si N y M son funciones tales o (x. y) = 2x + y − sen x y N (x. y) = x2 + xy + cos x + y 3 + sen y = C. es exacta. o Ejemplo 2. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω.13).15 es exacta. Adem´s.14 Una EDO del tipo (2. y) = y 3 + sen y + xy + x2 + cos x = C.

y) − 1 dρ(y) ∂x ∂y = = S(x. o sea. ∂y ∂x ∂x . o ∂M (x. en cuyo caso ρ(y) = exp( S(y)dy). y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. y) ∂ρ(x. y) = N (x.15) es f´cilmente resoluble. y)y es exacta. ∂y ∂x la cual es no trivial de resolver. y)M (x. ∂y ∂y ∂x ∂ρ(x) ∂N (x. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. y)N (x. y) = ∂y ∂x si y s´lo si o M (x. y) + ρ(x.6. y). y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. o o o En el primer caso (2.14). o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. se dice que ρ(x. cuando la funci´n ρ es una funci´n que s´lo depende de y.2 OTRAS EDOS DE PRIMER ORDEN 2.1. y) ∂ρ(x. y)ey . ρ(x) dx N (x. y) . y) luego ∂N (x. y) ∂ρ(y) + ρ(y) = ρ(y) .15) nos da ρ(x) luego ∂M (x. De hecho en la mayor´ de los casos la ecuaci´n (2. Obviamente no es exacta. una ecuaci´n inexacta tiene un factor integrante ρ(x. y) ≡ 0 es un factor o integrante de (2. o En el segundo caso tenemos M (x. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. luego ρ(x. y) = N (x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. Veamos a continuaci´n dos de ellos: a o 1. ρ = ρ(x) o o o 2.12). ρ(y) dy M (x. y) + ρ(x) . y)M (x. y). para que admita un factor integrante ρ(x. y) cumple o o con la condici´n (2. y) ∂M (x. y) ∂N (x. ∂y ∂y ∂x ∂x (2. y) ∂M (x.15). y) si y s´lo si ρ(x. y) ∂N (x. dada la EDO (2. y) de la derecha es una funci´n o o o s´lo de x. y) ∂M (x. y) ∂ρ(x. y) ∂ρ(x.19 En general. Factores integrantes 16 Definici´n 2. ρ = ρ(y). Ahora bien. y) + ρ(x. y) + ρ(x. una EDO es exacta si y s´lo si se tiene la condici´n (2. y) + ρ(x.12) si la EDO ρ(x. y)N (x. y) de la derecha es una funci´n o o o s´lo de y. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. y) − 1 dρ(x) ∂y ∂x = = R(x. y)x2 cos y = xey + ρ(x.15) es ıa o m´s complicada de resolver que la EDO original. en cuyo caso ρ(x) = exp( R(x)dx). Entonces. y) ∂N (x.15) Es decir.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

0155874 -0.909675 0.694092 0.807602 0.697474 0.95 1.713061 0. 9.15 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x . Los resultados se pueden apreciar en la o gr´fica 4 (derecha).710499 0.0185892 -0. y(0) = 1 con N = 20. por tanto.837462 0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente. 6. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.7039 0.1 0. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?. 7. 11.952459 0.2 OTRAS EDOS DE PRIMER ORDEN k 0 1.00666595 -0.680253 0.75 0. o o Si usamos un esquema de 20 puntos en el intervalo [0. x ∈ [0. 4. 0.25 0.0137992 -0.0181506 -0.698658 0.85 0.7 0.95 0.725256 0.55 0. 20.704707 0. 10. 2.0100397 -0.713139 0. xk 0 0. 0.5 10 -20 -40 0. 15.86475 0. y(0) = 0.0147575 -0.0187748 -0.716972 y(xk ) 1.676582 0.3 0.694733 0.746675 0.0114527 -0. . 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha). y(xk ) 1. 18. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha). 40 y(0) = 0. 16.905 0.2 0.6876 0. 17. Una pregunta natural es.68072 0.871416 0.735759 y(xk ) − y(xk ) 0 -0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x.70483 0. 60 40 30 20 20 0.0127016 -0.6 0.726841 0. a Consideremos ahora el problema y − 1 − y 2 = 0.0162994 -0. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).0187107 -0.759376 0.8 0.45 0.781636 0.35 0. 3.74064 0.0184046 -0.770184 0.0178206 -0.5 1 1.0169031 -0. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.0174074 -0.9 0.00844901 -0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4).686241 0.05 0.5 0. 14. 12.67535 0.00245885 -0.65 0. 13.829012 0. 8. Adem´s. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2.694429 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0. x ≥ 0. 19.693171 0. 5.4 0.697623 0.723482 0.00467484 -0.797562 0.676684 0.5 2 1 1.

yk ). Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . y) en el intervalo xk .19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . ∂x ∂y 2 y0 = y(x0 ). yk ) + f (xk+1 .2 OTRAS EDOS DE PRIMER ORDEN 2. Por ello se suele usar una o o modificaci´n del mismo. (2. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. yk ). es decir xk +h xk f (x. y(x))dx. es un m´todo de orden e a e uno. yk + hf (xk . xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x.y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. 1. N. . de forma que tengamos yk+1 = yk + hf (xk . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. 1. o Para ello escribamos la EDO original y = f (x.17) en el tercer orden. lo que nos conduce nuevamente al esquema de euler (2. y0 = y(x0 ). y0 = y(x0 ). es “poco preciso”. yk ) . k = 0.7.20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. . 2 . . . La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . N. yk ) (xk . de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk .18) f(x. . (2. y(x))dx ≈ hf (xk. . es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. o sea.2. . yk+1 )] . yk+1 )] . yk ) (ver figura 6 izquierda) xk +h xk f (x. 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. yk ) + f (xk . yk ) + h2 ∂f ∂f (xk . yk ) + f (xk+1. yk ) + f (xk+1 . yk ))] . 2 k = 0. .

725256 0.4 0.719873 y(xk ) 1.713061 0.732422 0.8 1 0. 10. 7.70483 0. 6.6 0.75 0.00735595 -0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x. 16. 15.00345845 -0.952459 0.0105693 -0.697623 0.7 0. 1]. y(xk ) 1.1 0.0126034 -0.735759 y(xk ) − y(xk ) 0 -0.00550115 -0. 2. 9.65 0. 18.0154026 -0.05 0.00645092 -0. 12.8 0.55 0. y(0) = 1.2 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.00982318 -0.907314 0.95125 0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado.680567 0. 4. x ∈ [0.909675 0.01 0.75 0.832957 0.759376 0.698244 0.25 0.0125 0.723482 0.681515 0.708079 0.698658 0.00821835 -0.3 0.00904012 -0.005 0. 20.95 0.781636 0. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) . Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.75202 0.871416 0.682134 0. 8.0148955 -0.0175 0.74064 0.0138047 -0.45 0. 0.0143632 -0.713139 0.9 0.807602 0.85 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).00120885 -0.867958 0.694733 0.8021 0. 11.00236077 -0.9 0. 3.684853 0.0119578 -0.6 0.95 1. 19.0025 0. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1. 14.5 0.837462 0. 0.8 0.15 0.69333 0.693171 0. 17.00450443 -0.686343 0.35 0. 5.015 0.7039 0.0075 0.0112803 -0.0132186 -0. 13.2 0.4 0.85 0.775186 0.690467 0. xk 0 0.694092 0.716216 0.703238 0. 0.

Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). xy + y = y 2 log x. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). 7. Considerar los casos ae = cb y ab = cd.22 Resolver las EDOs de Bernoulli 1. 2. 5. 5. n = 1. 2. 3. 4. x3 sen yy +2y = x (resolverla respecto a x y no a y. Como caso particular resolver la EDO y = (x + y)/(x − y). 4y 3 y + 4xy 4 = 4x. . (1 − x3)y − 2(1 + x)y = y 5/2 . y = x3 + 2y/x − y 2 /x. y + 2y = ex y 2 . y = 1 + y/x + (y/x)2. 4. n + k = n. yp = −x2. (4x − 3y − 6)y + x − 2y + 1 = 0. (x − x y)y = y 3. (x + y + 2)y = 3x − y − 6. 3y + y 2 + 2/x2 = 0. yp = x.24 Supongamos que tenemos la EDO y = f (y/x). y = 2(y/x) + (y/x)2 √ 2. 6. y + 2yex − y 2 = e2x + ex . y + y = xy 3 .2 OTRAS EDOS DE PRIMER ORDEN 23 2. 3. xy − y = xk y n . y = y/x + tan(y/x). 7. y − 2xy + y 2 = 5 − x2. 5. 6. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea.8. y = (ax + by)/(cx + ey). v = y/x. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. (2x + 4y + 3)y + 2 + 2y + 3 = 0.23 Resolver las EDOs de Riccati 1. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. Resuelve las siguientes o e EDOs 1. 4. Problema 2.

y(1) = 1. xy − y − y 2 = 0. 4.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. y(t)dt. 3x2 + 4xy + 2(y + x2)y = 0. y(2) = 1. y = x + y − 1. e−y − (2y + xe−y )y = 0. 2. encuentra. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). 5. e 1. 2xy 3 + 3x2y 2 y = 0. 0 4.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. y/x + (y 3 + log x)y = 0. Problema 2. 7. 3. 4. x(ey − y ) = 2. e En caso de que no lo sean. 2xy + (x2 − y 2 )y = 0.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. y = sen(x − y). (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. 1. 3. 4. Resolver la EDO y = (ax + by + m)/(cx + ey + n). (x2 − 2y + 1)y = x. y(x) = x + 1 + 0 x x x y(t)dt. 3xt + y 2 + (x2 + xy)y = 0. . Problema 2. 3. y = 2(y − x) + (y − x)2. 3. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). y(0) = 1. y = (x − y + 5)2. (x2 + y 2 + x) + yy = 0. 2x(1 + x2 − y) − x2 − yy = 0. 2.2 OTRAS EDOS DE PRIMER ORDEN 24 8.28 Resuelve los siguientes problemas de valores iniciales 1. Problema 2. 2. 3x2(1 + log y) − (2y − x3/y)y = 0. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. un factor integrante. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. y(2) = 1. 8. 6. 2. a ser posible.

29 Resolver las EDOs de Clairaut 1. (toma distintos valores de a. y = xy + 1 + (y )2 . b y k. k > 0. √ 3. y = ex y −2 . 5. Problemas del m´todo de Euler e Problema 2. y(0) = 0. a.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. y = 1 + sen x(1 + y 2 ). y + 2ey = x2 + y 2 . 2. e 1. y = xy + (y )n. y = k(a − y)(b − y). y = xy + log(y ). 4. 2. b. 6. n = 0. y(0) = 1. (y )2 + x3y − 2x2y = 0. 7. 4. y = xy − ey . 1. y(0) = 1. y = ex y. y + sen(x)y − cos(x)y 3 = 1 + x2. y(2) = 1. 2 2 . z(0) = 1. 3. 25 5. y(0) = 0.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. y(0) = 1. z − 2xz = 2.

. . .  (3. . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . y1. . Y ) =  . . fn son ciertas funciones conocidas. k = 1. y ). . yn )  y2 (x)   y (x)   f2(x. . .1) . e e . 2 . Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. . y2 . y1 . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. y1 . . bn (x)    . . Y y F son los vectores       y1 (x) y1 (x) f1(x. y1. . . an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . . y1 . n es una funci´n lineal de la forma o n fk (x. . . as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. y2 . . o sea cuando todas las componentes del vector B son cero. .. yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . yn son funciones de x desconocidas y f1. .  . . . . k = 1.  . y2 .. . y2 . .  . . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x).1) en la forma vectorial d Y (x) = Y (x) = F (x. . Por comodidad vamos a usar la forma vectorial del sistema anterior. diremos que SEDO es homog´neo. .3) (3. . y2 . . es decir cuando fk . . . un sistema de ´stas es mucho m´s complejo. n 1 2 n n donde y1 . 2 (3. . . Y ). . .3 SISTEMAS DE EDOS 26 3. y1 . .  . . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). no homog´neo..    y (x) = f (x.  . o sea. . .  . . vamos a denotar por Y . F (x. y si al menos una componente de B es no nula. yn ).   . . .    y (x) = f2(x.  .4) Cuando B(x) = 0. n. . yn ). y .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). . . . y . Usando lo anterior podemos reescribir (3. .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). y2 . yn )     2    Y (x) =  . . . . . .  . yn ) = j=1 akj (x)yj (x) + bk (x). dx (3. . . . Y (x) =  . .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. .  . yn (x) yn (x) fn (x. .

son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. . o sea los vectores. Y = A(x)Y . obviamente son dependientes pues x0 x2 0 . Yi (x0) = Y0. Yn (x0)| = 0.1. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. . (3. Y0. En particular.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). .7 Si Y1 (x).3 y 3. la soluci´n del PVI. no obstante. el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. . . . u Corolario 3. existen unos unicos coeficientes c1 . . Nota 3. . Si Y1 e Y2 son soluciones del sistema Y = A(x)Y .3 SISTEMAS DE EDOS 27 3. para x = x0.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. .5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes.i . i = 1. Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. . . .8 Juntando los teoremas 3. entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. O sea. Nota 3. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . Entonces. .k sean linealmente independientes.1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R.6 Sea A(x) ∈ Rn×n . e o Corolario 3. Para que los vectores (funciones) Y1 (x). .4 Para que las soluciones Y1 (x). . Y = A(x)Y + B(x).1 . . Teorema 3. . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. o e Nota 3. Teorema 3.5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. A(x) ∈ Rn×n y continua en R. . . = x0 2 x0 x0 Teorema 3. Los vectores (funciones) x x y x2 x2 . . e o Teorema 3. k sean linealmente independientes es suficiente que las condiciones iniciales. . ´ o Comenzaremos estudiando el sistema hom´geneo. Entonces el PVI. Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). .3 Sean Y1 (x). . . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. Yk (x) del PVI. . . . cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x).2 Sea A(x) ∈ Rn×n . Y = A(x)Y . . Y0. Yk (x) soluciones del sistema Y = A(x)Y . . . . .

3. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. . cn son constantes arbitrarias y λk . . .6) Busquemos la soluci´n de (3. (3. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. Ejemplo 3. Calculamos los autovectores. Autovalores simples A ∈ Rn×n .2.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. (3. . .7) en (3. .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado.2. son los autovalores asociados a los autovectores vk . de la forma n Y (x) = k=1 c k e λk v k . . .1.6) en la forma o Y (x) = eλx v. .6) tenemos. .8) donde c1 . (3. . (3. e e . . como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. . Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . =⇒ v2 = 2 1 .7) donde λ es cierta constante y v un vector constante. k = 1. es decir estudiaremos el problema (3.3.3 SISTEMAS DE EDOS 28 3. λ2 = 7. . Es decir. .5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 . seg´n o u el teorema 3. vn linealmente independientes en cuyo caso la soluci´n general es. k = 1. . =⇒ v1 = −2 1 . n. Sustituyendo (3. Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino. n. por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 .

4. 2. Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY . exp[(x + t)A] = exp(xA) exp(tA).12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. entonces el complejo conjugado λ es el autovalor asociado al autovector v.3. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . exp[x(A + B)] = exp(xA) exp(xB). 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . Para todos x. exp(0A) = In y para todo x ∈ R exp(xOn) = In . Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . Proposici´n 3. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. . As´ pues. d dx exp(xA) = A exp(xA) = exp(xA)A. Ahora bien. 5. k! 2 n! (3. 2 −5 2 −4 Y. si tenemos Y (x) = eλx v = Y (x) + i Y (x). Para todas las matrices A.11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. entonces Y (x) = eax ( v cos bx − v sen bx). 3. donde On es la matriz nula. la inversa [exp(xA)]−1 = exp(−xA).9) donde la convergencia la entenderemos elemento a elemento. La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). sen x . Para toda matriz A. t ∈ R y toda matriz A.3 SISTEMAS DE EDOS Ejemplo 3. en nuestro ejemplo ı λ1 = −1 − i. λ2 = −1 + i. La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. son complejos. B con AB = BA. Para toda matriz A. Y2 (x) = e−x − 3. Para toda matriz A. 29 Es decir.

vn del PVI. −1 2 − λ =⇒ λ1 = −1. .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1.14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . . e Definici´n 3. Y = AY con Yi (0) = ei . N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. siendo D una matriz diagonal. Entonces como para todo k ∈ N. . y por tanto el PVI. λn 0 0 . . siendo (ei)i la base can´nica de Rn . a En este caso existe una matriz P tal que A = P DP −1. . .13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . . . En efecto. =⇒ de donde se deducen nuevamente las soluciones del sistema. Para todo x ∈ R. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable.        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . .3 SISTEMAS DE EDOS 6. . Si escogemos o o e v sucesivamente como ei .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. 2. . . λ2 = 4. . . o o Corolario 3.. n obtenemos n soluciones v1. como   D=   λ1 0 · · · 0 0 λ2 . . 0 . . . . 0 . . i = 1. . . Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. . . De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . . . . . Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. . As´ pues. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . exλn 0 0 .. las columnas de exp(xA) son soluci´n de los PVI. . . Y (0) = ei que adem´s son linealmente independientes por el teorema 3. . . Y = AY .    . como hemos visto. . exp(xIn) = ex In. . . . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . Ak = P D k P −1 tenemos exp(xA) = pero. con A ∈ R e siempre tiene n soluciones linealmente independientes. para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. Y = AY . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 .

31 An´logamente. k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . =⇒ v1 = 3 1 . . . x2 xk (A − λIn)2 v + . Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. xk x2 (A − λIn)2 v2 + . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . =⇒ x1 = 3x2.4. 2.) Si k < n entonces hay autovalores m´ltiples. luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . . . i = 1. o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. 2 k! Es decir. Una soluci´n es por tanto e λx v1. Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. . . Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . + (A − λIn )k v + . . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . . . para λ2 = 4 obtenemos v2 = (−2. 1)T . o o donde v1 es el autovector asociado a λ. 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. k = 1. . por ejemplo. n. i = 1. = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. . P = 3 −2 1 1 . . independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . . . . 1 5 2 5 3 5 . + (A − λIn )k v + . ¿Qu´ hacer cuando hay una ra´ m´ltiple. . . P −1 = 6 5 ex 2 5 ex −1 5 . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. . Entonces otra soluci´n.3 SISTEMAS DE EDOS Calculamos los autovectores.) Calculamos todos los autovalores λi y los correspondientes autovectores vi . . . k. o 2. . luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. Si tenemos entonces n autovectores v1 . . .

. 0)T = 0. ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. (3. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . aa generan todo el subespacio correspondiente a λ. Y ı as´ con cada uno de los autovalores m´ltiples. x2 . luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. ⇐⇒  0 0 0   x2  = 0.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ).6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. x3 ∈ R. y (A − λIn)3 v = 0. . . Supongamos que ma > mg . 0 0 .10) Cualquier elecci´n de α y β es posible siempre que β = 0. 0 0  pero como (A − I)v3 = (β. . entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . 1)T y v2 = (1. luego tomando4 β = 1. o . =⇒ x1 = 0. 0. Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . Aj ∈ Rn . Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. Para cada autovalor. 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. respectivaa mente. 0. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . . . es decir    x1 0 0 0 (A − I)2 v = 0. los autovectores correspondientes son v1 = (0. 0. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. deducimos que β = 0. . buscamos la soluci´n del correspondiente subespacio (o sea. Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. Luego tenemos dos soluciones independientes     0 1 2x  x . . Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . e ´ Adem´s. vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. 0)T . y as´ sucesivamente hasta completar el subespacio. Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. 2.

es decir.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. (3. o Y = AY con Y (x0) = Y0 .10.12) . . La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. Sea ahora el PVI. mk − 1 sean nulos. entonces tenemos Y (x0) = Y0 = V (x0)c. a3 a6 =⇒ a3 = a5 = a6 = 0. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x . (3. j = 0. con a1 y a2 cualesquiera.4. entonces si definimos el vector c = (c 1. . 1. . . . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. En efecto. Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0.1. por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . Ejemplo 3. cn )T .3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . luego c = V −1 (x0)Y0 .            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. . . Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. .15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. o e 3. a4 = a2 . exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0).  1 0 1 0  Y. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. 0.

(3. En particular. luego aplicamos (3.14) Ejemplo 3. 12 .3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5. exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . 1)T y λ2 = 7 y v2 = (2. donde C ∈ Rn .5. .15. v1 = (−2.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad. En este caso la matriz exponencial es la matriz del ejemplo 3. Proposici´n 3. El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x). donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x .13). −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3. es decir Yp (x) = AYp (x) + F (x).17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . (3. Teorema 3.14). Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = .18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x). Y (x0) = o Y0 .16 La soluci´n general del SEDO (3. cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.13) es de la forma Y (x) = Yh(x) + o o Yp (x). Y (0) = 0 1 .

Usando lo anterior calcula las matrices exA y exB . Como aplicaci´n calcula exC con C = o a b −b a . 2. y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . b) A =  0 2 −1 . Y = AY . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. del problema de valores iniciales en los siguientes casos: 1.20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. Para todo x ∈ R. a) A = 2. Y (0) = 2 1 . 4. 5. cuya matriz de coeficientes es . 1 12 3 1  . ∀x. c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . 3. Si A y B conmutan. entonces ex(A+B) = exA exB = exB exA . Y (0) = b) A = Problema 3. A2n = I2 . a) y1 = y1 + 2y2 . Problemas Problema 3. 6. B 2n+1 = (−1)n B. exI = ex I. 0 0 2 0 0 2 b) 2.19). In es la matriz identidad n × n. Problema 3. 2. .24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . Y (0) =  2 . a) A =  0 1 2 . o Problema 3. y B 2n = (−1)nI2 . exA es invertible y su inversa (exA )−1 = e−xA . con Problema 3.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . t ∈ R. e(x+t)A = exA etA .6.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3.  0 1 −1 . a) A =  4 −1 −4 4 4 1 −8 8 . Y (0) =  1 .23 Resuelve los sistemas hom´geneos o 1. b) A = −2 3 2 −5 2 −4 .19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. Prueba que A2n+1 = A. o sea AB = BA. b) A =  0 1 0 .3 SISTEMAS DE EDOS 35 3. e0A = In . o o en su caso. 1. Problema 3. 3. 0 1 2 −1 0 0 2 = AexA . 3.

25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. A =  3 2 −1 . Y (0) =  1  4. A = 2. o 2. i2. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. . Y (0) = . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. en su caso. B(x) =  0 . Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . i1(0) = i2(0) = 0. a) A = . 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . Uc 50 −50 −50 Uc 0 Se pide determinar i1. x =v . v(0) = 0.3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . Uc(0) = 10. la correspondiente soluci´n del problema de valores iniciales cuando o 1. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . B(x) =  . 0 0 5 3 2 1 36 1.26 Resuelve los sistemas lineales 1. c) A = . β < ω. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . 2 1 −1 Problema 3. B(x) = . Y (0) = 2 1 0 0   1 −1 4 2. A =  1 12 3 1 2 −5 2 −4 . B(x) = x ex . b) A = Problema 3. Uc en los siguientes casos: (a) V (t) = 0. sabiendo que su soluci´n es acotada si x → +∞. c) A =  2 1 −2 . A = 0 3 2 1 ex cos(2x) 1 1 sen x  . con x(0) = x0. e 3. a) A =  3 2 −1 .

k = 1. k = 1. Y. . Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. .3 SISTEMAS DE EDOS (b) V (t) = 10. .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). . k=0 . i1(0) = i2(0) = 0 = Uc(0) = 0. Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. m. 2. . . m. .28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). la soluci´n del SEDO Y = A(x)Y . fk ∈ Rn . 2. entonces. Problema 3. .

. d  . . zn(x) = y (n−1) (x)  dx Es decir.    .1) Cuando f (x) ≡ 0. N´tese que cuando f (x) ≡ 0. y β ∈ R.. el sistema anterior o se transforma en un sistema homog´neo.  . .  .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). (4. .  .1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 . . .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes.4) . es decir. La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x). entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales.  . . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f. . o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x). Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4.  . y (n−1) (x0) = y0 (n−1) . (4. . .3) es lineal. .. . y (x0) = y0 .. . e a Proposici´n 4. αy1 + βy2 tambi´n es soluci´n. .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4.1) es hom´genea.   .  .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn . (4. diremos que la EDO (4. . que si tenemos dos soluciones y1 e y2 de la ecuaci´n.  .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x).2) Usando esta notaci´n podemos escribir (4. . . . ⇒ dx .  (n−2)  zn−1 (x) = y (x)  dz1  = z2 .   dx  .  .   . . una EDO del tipo (4. .  +  .1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . en caso contrario es no hoo mog´nea. (4. = . para cualesquiera o que sean α.

entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). . definido por o y1 (x) y1 (x) . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . Teorema 4. .´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. es decir buscaremos la soluci´n en la forma y(x) = e λx . . Sustituyendo esta o funci´n en la EDO (4.6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. . (n−1) ··· ··· . ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . . yn (x) yn (x) .1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 . .5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4. en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R.3) coincide con (4.3) es un espacio vectorial e de dimensi´n n. o 4.V. .1) en la forma y(x) = yh(x) + yp (x). . Entonces el P. cm ∈ R. Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. o Teorema 4.1. . Lo anterior nos indica una estrategia para resolver el problema: 1.3). . c1 .4 Dadas n soluciones y1 .1). . k = 1. o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas.7) donde pm−1 es un polinomio de grado m − 1 en x. . . . (n−1) = 0 ∀x. . Si alg´n λk es m´ltiple de multiplicidad m ≤ n. n generan el espacio soluci´n de la la EDO (4. an−1 (x) funciones continuas en R. y (x0) = y (0). . Obviamente si λk es complejo. yn ](x). . . (4. 2. . .. yn ](x) = y2 (x) y2 (x) . .3). Finalmente. asociado a (4. . .6). . (4. y1 (n−1) W [y1 .I. .3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. .. c2 . o . . yn de la EDO (4.2 Sean a0 (x). y (x0) = y0 que escojamos. . . si λ = α + iβ.3 El conjunto de soluciones de la EDO homog´nea (4. entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). . . .3). Es decir. . siendo yp o una soluci´n particular de (4.3) con coeficientes constantes seguiremos la misma idea que para los sistemas. . (4.

9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . (4. ıa Caso de ra´ ıces complejas.10) Luego. o o e El caso general es completamente an´logo. (4. B ∈ R. y2 (x) = eλ2x .9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . Sea p2 < 4q. Las soluciones de la ecuaci´n caracter´ o ıstica (4. y2 (x) = eλ2x .10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) .9) La ecuaci´n caracter´ o ıstica (4. . Luego.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . A. ω ∈ R. A. 2 2 y la ecuaci´n homog´nea (4.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . En efecto. en este caso. entonces la ecuaci´n caracter´ o ıstica (4. entonces la ecuaci´n caracter´ o ıstica (4. λ2 = . Caso de dos ra´ ıces reales iguales. Sea p2 > 4q. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4. A. δ ∈ R. p. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. . la soluci´n general de (4.7) tenemos que la soluci´n generada por λ es.8) (4.9) ser´n a p2 − 4q −p − p2 − 4q . i = −1.9) tiene una unica soluci´n real λ = −p/2.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. Entonces. B ∈ R. usando (4. φ ∈ R.3 y la ecuaci´n homog´nea (4. o. entonces la ecuaci´n caracter´ o ıstica (4. equivalentemente. λ. y(x) = A eλx cos (ωx + δ) . Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . como se pretend´ probar. 2 2 y la ecuaci´n homog´nea (4. q ∈ R.6) de la ecuaci´n (4. A. λ2 + pλ + q = 0. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). obtenemos que la soluci´n o o general de (4.8) tiene la forma o .8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . la soluci´n general de (4. 2 2 Caso de dos ra´ ıces reales y distintas. λ2 = λ − iω. Sea p2 = 4q. B ∈ R.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden. λ1 = λ + iω.

a o 4. v + (2c + p)v + (q + pc + c2 )v = pn (x). a = 0.2.2. e e e si tenemos la EDO y + py = pn (x). (4. q ∈ R. por tanto a0 en la expresi´n anterior puede ser cualquiera.1. Ahora bien. Este m´todo obviamente funciona si q = 0 (¿por qu´?). luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. (4.13) e igualando coeficientes.2.13) siendo pn un polinomio de grado n.12) siendo pn un polinomio de grado n. de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n. Para resolverlo hacemos el cambio y(x) = ecx v(x). entonces cualquier constante es e soluci´n. o sea.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}. f (x) continua. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . q = 0. la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn.14) luego siendo pn un polinomio de grado n. si sustituimos la soluci´n anterior en la EDO (4. (4.14) se reduce al caso anterior (4. an = 0. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). . Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x). p.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4.12). En efecto. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x). como la EDO homog´nea es y + py = 0. (4. pero ¿qu´ ocurre si q = 0?. por lo que nuestra EDO (4. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 .12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x).2. 4.

Como W [y1 . Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). la f´rmula (4.18) nos da o c1 = c1 (x) = ex . y2 ](x) (4. 3 ex e3x . u.3. (4. 3 e−x .17) De esa forma tenemos que resolver dos EDOs de primer orden. la primera por y2 y la segunda por y2 .2. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x.2. o bien.5 Resolver y − y = e2x . y2 ](x) = o W [ex . W [y1 . e−x ] = −2. pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas.15) siendo pn un polinomio de grado n. con c1 y c2 tales que c1 y1 + c2 y2 = 0. [y1 y2 − y1 y2 ] = W [y1 .18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). a Ejemplo 4. W [y1 . Para resolver este caso notemos que si y(x) = u(x) + iv(x). y2 ](x) c2 (x) = f (x)y1(x) . El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4.11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes.16) (4. Para ello multiplicamos la primera por y1. 4. Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx).´ 4 LA ECUACION LINEAL DE ORDEN N 4. funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). lo cual es consecuencia de la linealidad L. c1 y1 + c2 y2 = f (x). para obtener c1 [y1 y2 − y1 y2 ] = −f y2 .4.4). f2 funciones reales. c2 = − =⇒ 2 2 Por tanto. 6 =⇒ yp (x) = e2x . entonces L[u] = f1 y L[v] = f2]. Ahora bien. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 . y + py + qy = pn (x)ecx cos(ωx). v. 42 Veamos ahora como resolver los casos (4. o e . La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . f1. 2 c3 (x) = − e2x .

entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. x PSfrag replacements 2. x + 2αx + ω 2 x = f (t). A= √ a2 + b2.´ 4 LA ECUACION LINEAL DE ORDEN N 43 4.6. ω 2 = .3. 2m m m (4.19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). (4. Aplicaciones Ejemplo 4. δ = arctan(b/a). x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado. basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). Supongamos ahora que eliminamos solamente la fuerza externa.20) cuya demostraci´n es inmediata. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. o equivalentemente. α= a k F (t) > 0. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ). Entonces la EDO (4. Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). δ = arctan(ωx0 /v0). o + c2 e−αx− √ α2 −ω 2 x . f = 0 y α = 0. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). . o sea. f (t) = .19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt).

2b. Si usamos la identidad (4. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . Ω = ω la amplitud es m´xima.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). que decrece exponencialmente a cero. Si α = ω. Veamos el caso general y. Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 .20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). entonces. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. 2 −Ω Como se ve en la f´rmula anterior. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . en este caso m y k. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. entonces. por simplicidad. (ω 2 − Ω2)2 + 4α2 Ω2 (4. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt .´ 4 LA ECUACION LINEAL DE ORDEN N 2a. se suele denominar . que decrece oscilando exponencialmente a cero (ver figura 9 derecha). consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . 3. Si α < ω. Obviamente para o forzadas: resonancia. e 2c. que tambi´n decrece exponencialmente a cero. En este caso se dice que el movimiento es amortiguado ya que aunque oscila. Si α > ω.

en ´ste. o sea si no hay rozamiento. f0 t f0t iωt = e sen(ωt). 2ω N´tese que a diferencia del caso con rozamiento. Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. si t → ∞. en 1831. Por ejemplo. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). Este puente se abri´ al p´blico el 1 de julio de 1940. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). Desde ese mismo d´ se observ´ que o u ıa. Veamos ahora que ocurre si α = 0. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). Inglaterra). Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. Figura 12: El desastre del puente de Tacoma. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). Figura 11: Resonancia en un sistema sin rozamiento. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente.21) que nos da.´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. o . Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. En este caso tenemos que repetir el proceso anterior lo que nos da.

la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t).7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. o. equivalentemente. (ω 2 − Ω2)2 + 4r 2Ω2 (4. en este fen´meno se basan los equipos de radio actuales. en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 . 2ω que es no acotada.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t . Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. o Ejemplo 4. U(t) Figura 13: Circuito RLC del ejemplo 4. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. r < ω En particular. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . la carga por unidad de tiempo. si Ω = ω tenemos la soluci´n o u0 t sen(ωt).     (c1t + c2 )e−αt . De o hecho. ω 2 = 1/(LC) y u(t) = U (t)/L. L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t).´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. Obviamente la EDO anterior es totalmente an´loga a la EDO (4. donde r = R/(2L).19).22) siendo β = |r 2 − ω 2 |.7.8 Los osciladores acoplados . Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). o n o El puente parec´ aguantar bien. o sea. q + 2rq + ω 2 q(t) = u(t). es m´s varios expertos aseguraban que todo estaba bajo ıa a control. Entonces. afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador.

±ωi. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. m1 m2 (4.23) k2 + k 3 m2 − 2 k3 x1 = 0. An´logamente se puede obtener la a expresi´n para x2. ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. Veamos que ocurre al incluir este ıa u resorte. 47 En la figura 14 vemos dos osciladores acoplados. Figura 14: Dos osciladores acoplados. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. x1(0) = 0. x2(0) = 1 y x2(0) = 0.24) ω2 = k . Entonces (4. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 .24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. Supongamos que x1 (0) = 1. m . entonces obtenemos x1(t) = cos t x2(t) = cos t.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). conocidas como frecuencias propias del sistema. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t.

x2(0) = −1 y x2(0) = 1/2. x1(0) = 1. . x1(0) = 0. tenemos que las oscilaciones son con las frecuencias propias. x1 (0) = 1. x1(0) = 0. Si x1(0) = 1. obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . Pero si escogemos. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x1(0) = 1/2. o sea. x1(t) = cos( 3t). x2 (0) = −1 y x2(0) = 0. por ejemplo. x1(0) = 0. tenemos √ √ x2(t) = − cos( 3t). o Figura 17: Caso x1(0) = 1/2. x2(t) = − + − 4 4 4 4 3 es decir. es una combinaci´n de las frecuencias. x2 (0) = 1 y x2(0) = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. x2(0) = −1 y x2(0) = 1/2. x2(0) = −1 y x2(0) = 0. Figura 16: Caso x1(0) = 1.

o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . y (0) = 0. 3. y + 2y = 1 + x2 + e−2x . 6. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha).10 Resolver las EDOs 1. y(0) = y (0) = 2. 2. y + y + y = 1 + 2x + 3x3. 2. Problemas Problema 4. y (2) = 1. e Las EDOs que gobiernan estos sistemas son my + ky = 0. Problema 4. y + y − 6y = sen x + xe2x . y − y = x2ex con y(0) = y (0) = 0.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. y + 12y + 36y = 0. a k mg Figura 18: El oscilador y el p´ndulo simple. y − 4y + 13y = 0. 4. y(0) = 1. 3. y (0) = 0.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. 1.4. y − y − 6y = 0. y − 4x = 4x2 + 2x. Problema 4. Encuentra la soluci´n general de ambas EDOs. y lθ + gθ = 0. 5. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y(2) = 0. respectivamente.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente.

) m1 = m2 y k1 = k2 . y + 8y = x2 .14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt).) m1 = 2m2 y k1 = k2 = k3 . k3 = 2k1 y 3. ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3.8 incluyendo rozamiento. y − 6y + 11y − 6y = xex + x2.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4. 2. sin e velocidad inicial. Problema 4.´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. En ambos casos resuelva la EDO correspondiente. a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. Problema 4. k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . Analice los casos: 1. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . y (4) − 16y = 3 cos(x). 3. e 2. Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10.) m1 = m2 y k1 = k2 = k3 .12 Resuelve las EDOs 1.

que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . (5.1 Resolver la EDO y − 2x − 2y = 0. k ∈ N y si conocemos a1 entonces podemos calcular a3.2). la recurrencia anterior permite calcular los valores a2.2) en (5. q(x) y f (x) dependen de x. . = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. . . Es importante que la serie converja en todo un entorno de x0. a2k . a4 .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. Por sencillez supondremos x0 = 0.1) e igualar los coeficientes de e las potencias. de donde tenemos o an+2 = 2 an . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0. La idea del m´todo es sustituir la serie y(x) (5. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk . As´ tenemos ı. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5.2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. . k ∈ N. Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . n+2 n ≥ 0. ak ∈ R. de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n.1) El objetivo es resolver la EDO anterior cuando las funciones p(x). a5 . . (5. a2k+1 . Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. . Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. 2n − 2 (2n)(2n − 2) · · · 2 n! . si sabemos a0 . En o o efecto.

entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. sin p´rdida de generalidad C = 1 y D = 0. . Por ejemplo. e Ejemplo 5. n=1 es decir. n∈N =⇒ an = 0. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. ∀n ∈ N. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . Esta claro que el m´todo anterior no siempre funciona. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger.1. s´lo podemos encontrar una soluci´n: y1(x) = x. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1).2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). (n − 1)(n + 2)an = 0. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. o a 5. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. =⇒ v(x) = C + D. e− p(x)dx 2 y1 u=v.

q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. por ejemplo x = 1.5 Un punto x0 se denomina punto singular regular de la EDO (5. en general. luego. q y f . si p(x).3) Definici´n 5. asumiremos x0 = 0. En caso contrario se dice que o x0 es un punto singular. si lo es. Entonces: 1.1). adem´s. y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica).6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. Por ejemplo. La soluci´n del problema de valores iniciales y(x0) = y0 . el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0.1) a o es el menor de los radios de convergencia de p.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. Usualmente la EDO homog´nea (f (x) ≡ 0) (5.2.1) si o p(x). (5.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. Definici´n 5. ∀n ≥ 0. aunque en algunos casos. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 .1). Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . o sea. Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. por simplicidad. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · . Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. el punto x0 se denomina punto regular de (5.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · .3) con un punto singular en x0. En lo que sigue. Puntos regulares y singulares de una EDO Definici´n 5.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. (5. a e a .3 Dada la EDO (5. an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias. Ello no siempre es posible. Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas. para a o x > 0. Es posible. Teorema 5. 2. probar que el radio de convergencia de la soluci´n de la EDO (5. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. q(x) y f (x) son funciones anal´ ıticas en x = x0.

8) Recordar que estamos suponiendo x0 = 0. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. al igualar la potencia xr . (5. Entonces si sustituimos en la EDO (5.6) 3. Sean r1 y r2 las soluciones de la ecuaci´n indicial. r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . r1. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x).7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. Caso (p0 − 1)2 − 4q0 > 0.3) e igualamos potencias nos queda. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. (5. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . (5. x > 0. o r1.5) 2. . r2 ∈ C (dos ra´ complejas). Caso (p0 − 1)2 − 4q0 = 0. Sea r1 = a + bi. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. x > 0. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. (5. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. x > 0. Caso (p0 − 1)2 − 4q0 > 0. x > 0. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). k=0 de donde. 2 Entonces se tienen los siguientes casos para x > 0 1. En general o o se tiene el siguiente Teorema 5.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. Caso (p0 − 1)2 − 4q0 < 0.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. Veamos que ocurre en el caso general. Sustituyendo y(x) = xr en (5.

Sea r1 = a + bi. Sustituyendo y1 en (5. Como hemos supuesto que γ ∈ Z. (5. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. n=0 n=0 Comencemos por la primera. r1. x > 0.12) luego Por sencillez asumiremos que γ ∈ Z. y2 (x) = x1−γ bn x n .3.10) 4. En todos los casos las series convergen en un entorno de x0 = 0. Obviamente x = 0 es un punto singular regular. r1 = r2 − N ∈ R. entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0. ı o a 5. r2 ∈ C. por tanto. Caso (p0 − 1)2 − 4q0 < 0. de donde tenemos o dos soluciones r = 0 y r = 1 − γ. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k . Caso (p0 − 1)2 − 4q0 = 0. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. (5. dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . (5. x2q(x) = −αβx + · · · . n(n + γ − 1) n ≥ 1.11) donde A es cierta constante que puede ser nula. a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. En efecto. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . Caso (p0 − 1)2 − 4q0 = 0. entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . x > 0. . an = (n + α − 1)(n + β − 1) an−1 .9) 3. (5.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero).12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · . q(x) = . x > 0.

(γ)k k! (5.4. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. e indica la regi´n de convergencia de las mismas o 1.8 Resuelve las EDOs siguientes usando series de potencias. si es posible.14) conocida como funci´n hipergeom´trica de Gauss. (α)n (β)n . (γ)nn! n ≥ 1. xy = 2y + xex. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . 4. 1. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). o o 3. n! p ∈ R. (5. β − γ + 1 x . Problema 5. 3.13) (α)k (β)k xk . que no es m´s que el teorema del binomio encontrado por Newton. a . (x4 − 4)y + 3xy + y = 0. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . x2y = y + x2 + 1. ∞ n=0 an xn. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. α − γ + 1. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. n ≥ 1. 2−γ 5. y + 2y + y = x. y prueba que an = p(p − 1)(p − 2. o o Como consecuencia del teorema de existencia y unicidad. 2. p ∈ R. Encuentra la regi´n de validez de la doluci´n anterior.9 Sea la EDO (1 + x)y = py. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. y(0) = 1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. Problemas Problema 5. entonces obtenemos an = por tanto y(x) = 2 F1 α.

2. y + xy = 0. c ∈ R. (EDO de Airy). x2y + xy − 5y = 0.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. a. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. (EDO de Bessel) Problema 5. 3. (1 − x2)y − xy + p2 y = 0. x2y + xy + (x2 − p2 )y = 0. x2y + 2xy − 6y = 0. b. (EDO de Laguerre generalizada) 3. o e Encuentra dos soluciones linealmente independientes de la misma. (EDO de Legendre) 3. Problema 5. Problema 5. xy + (1 + α − x)y + py = 0. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. (EDO de Hermite) 57 4. y − 2xy + 2py = 0.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. 4. . o e Problema 5.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0.12 Resuelve las siguientes EDOs de Euler 1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. b. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. Problema 5. a. (EDO de Laguerre) 2. xy + (1 − x)y + py = 0. x2y + 3xy + 2y = 0. (x − 1)2y − 2(x − 1)y + 2y = 0.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. (1 − x2)y − 2xy + p(p + 1)y = 0. c ∈ R se transforma. a. (EDO de Chebyshev) 2.

5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. τ + kσ /2 = 0.2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x). 1.. (6. el autovalor λn de (6. Ann (n) (6.1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad. que ρm (x) = σ m (x)ρ(x).2 Si para todo k ∈ N ∪ {0}. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. (6. λ ≡ λn = −nτ − n(n − 1) σ . µm = λ + i=0 (x) .1) son ortogonales dos a dos: . Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6. utilizando las ecuaciones anteriores. Conocida ρ encontramos.4) Teorema 6. (6. respectivamente.1. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn . n = 0. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0.1 Si y es una soluci´n de (6. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. entonces para las soluciones polin´micas de la ecuaci´n (6. .7) Cuando m = 0 la f´rmula (6.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.1). .8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. [σ(x)ρm (x)] = τm (x)ρm (x). e o Teorema 6. 6. (6.. 2 (6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ].3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x).1) y (6. Esta ecuaci´n (6. 2. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6. m−1 (6. Para ello usualmente o se escriben (6.1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0.5) (6.2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)].6) Anm = Am (λ) |λ=λn Adem´s.1) donde σ y τ son polinomios de grados a lo m´s 2 y 1.

de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). (βn )n y (γn )n.14) .9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. an+1 βn = bn bn+1 − . Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 . an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ].9) o e n e integrando por partes. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x). τn−1 (6.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. n! k=0 n−1 bn = nτn−1 (0) an . sustituy´ndola en (6. Generalmente se impone que P−1(x) = 0 y P0(x) = 1. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x). an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . (6. a Para calcular d2 .11) donde αn = an . para todo k ≥ 0. a (6.6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6. (6. Corolario 6.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x). n (6. an−1 an−1 an d 2 n−1 (6. = 2 2 dm dn x−y m=0 n Kern (x. y) ≡ n ≥ 1.13) Como un corolario de (6.12) siendo an .b ciones polin´micas Pn de la ecuaci´n (6. podemos utilizar la f´rmula de Rodrigues que.3 Supongamos que xk σ(x)ρ(x) 59 x=a. y dn es la norma de los polinomios.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n .11). o sea. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) . Luego. se cumple que: o b a = 0.11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6.

30). . donde αn = ˜ Bn λn αn τ n − . n (6. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). Pn (x) = o a ´ xn + bn xn−1 + · · ·. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x.1). respectivamente. Tomando m = 1 en la f´rmula (6. i. Laguerre y Jacobi. (6. es decir.2. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. soluciones de la ecuaci´n (6.1.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1.20) 6.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) . tales que su coeficiente principal an = 1. Par´metros Principales.. Los Polinomios de Hermite. o 3. en las cuales (a)n denota al s´ ımbolo de Pochhammer (6. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias. 6.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x).2.18) λn ˜ [βn τn + τn (0)] . Si escribimos la f´rmula (6. x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. τ es un polinomio de grado exactamente uno.16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos. βn = nτn γn = ˜ (6.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x).β Pn (x). Polinomios de Jacobi n α. τn (x)Pn(x) − nτn Bn+1 (6. cuando σ es de grado 1. λ n γn .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x. 2. Si definimos Qn (x) ≡ n+1 . satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 . (6. ¯ Bn−1 (6.e.19) 4. nτn Bn+1 P (x) n ≥ 0.

H2m+1 (x) = (−1)m x 1 F1 m x2 . 3. γ > −1. 0.5) se o e puede obtener la representaci´n de los polinomios de Hermite. Representaci´n hipergeom´trica. (6. o usando el m´todo de las series de potencias. 2 . . Los polinomios de Legendre Pn(x) = Pn (x). o e De la f´rmula de Rodrigues. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas. 2. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6.21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6. 2n sen[ arccos (x)] 4. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk . a2 . n + α + β + 1 1 − x . ap x b1 ..3.0 1..γ− 2 (x).. α+1 2 6.24) Lα (x) = n α.. b2 . Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = . 1 sen[(n + 1) arccos (x)] .2.β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 .. .− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1. (6.β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x .22) (6.. Casos particulares.2.2. o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α.23) (6.

2. H2m (0) = (−1)m (2m)! ..16) encontramos las ecuaciones (ν = 1. 3.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6. Γ(α + 1) 2n (α + 1)n α. (n + α + β + 1)n (−1)n 2n (β + 1)n α.β Pn (1) = . .. (n − ν)! . e n! α+ν.25) Utilizando la f´rmula (6. 22m m! H2m+1 = 0.β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x).26) (6. a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α..β+ν Pn−ν (x).β Pn (−1) = .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1)..27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x). .4. 2. (n − ν)! α. 1. Otras caracter´ ısticas.): o (Hn(x))(ν) = n! Hn−ν (x). (n − ν)! n−ν (6. Lα (0) = n (−1)nΓ(n + α + 1) . 2. (n + α + β + 1)n (6. n = 0. Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad..

en general.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. Γ(a) Finalmente. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = . ∀n ∈ N.− 1 2 (2x2 − 1). P m m 2 1 (x) = (6. √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π.β Pn (−x) = (−1)nPn (x).28) 1 γ− 1 . .γ− 2 −1 2 H2m+1 (x) = xLm (x2) . k = 1. . . Adem´s. (n − k)!k! k! . cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z). 2. Γ(a + k) . x >> 1. definida. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn.γ− 2 (x) = β.α α.30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . (z) > 0. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). 1 1 γ− 2 . (6. Gγ (x) = P2m 2 2m 1 γ− 1 . En particular. 2m Adem´s. respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2). mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . 3. y adem´s. n→∞ z(z + 1) · · · (z + n − 1) π . (a)k = (6. 1 x Pm 2 2 (2x2 − 1). (a)k = a(a + 1)(a + 2) · · · (a + k − 1). . a(x) = 1. sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z).

32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν. lo cual es √ la funci´n peso es una funci´n par. Ejemplo 6. Teorema 6.34) sp ρ(s)ds.34).33) y (6.7 Sea µ ∈ C.µ (z) + τν + µσ 2 Cν. entonces todos los momentos impares son nulos. a (6. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos.3. 2m 2 m! C2m+1 = 0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. z = 0 obtenemos. como C0 = π. que usar (6. as´ que tenemos ı cuando z = 0.µ+1 (z) = 0. Finalmente.µ−1 (z) + [τν (z) + µσ (z)] Cν.33) En particular. Adem´s.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0.33) deducimos que.p (0) = a b Cp+1 = 0. C0 = 0 ∞ xα e−x dx = Γ(α + 1). (6. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6. Se definen los momentos como b Cν. . µ = p ∈ N. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.33).34) es o (α + n + 1)Cn − Cn−1 = 0. para ν = 0. (6. de donde deducimos que Cn = Γ(α + n + 1). la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. luego Cn = (α + 1)nC0 . De ella o como C1 = 0. de (6. (6.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π.µ (z) = a (s − z)µρν (s)ds. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6.

Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos. t) = e2xt−t . Bn 2xt−t2 2n Hn(x)tn. t) tal que. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = .35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. n! (1 − t)α+1 tx (6. por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia. n! R(1 − 2t + R)α (1 + 2t + R)β (6. 2 . n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. o Para los polinomios cl´sicos se tienen las siguientes identidades. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn .β Pn (x)tn = . t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. t) = ∞ n=0 An Pn (x)tn.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. Caso Hermite Hn (x): Primera prueba Sea Φ(x.4. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. (6.37) con R = 1 + 4t(t + x). o o Φ(x. Para probar las mismas usualmente se hace uso del teorema integral de Cauchy.36) 2α+β (−1)n (α + β + 1)n α.

38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. t) + 2(t − x)Φ(x. 0) = 1 y Φt(x. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. a Ahora sustituimos (6. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). e a o Sea la funci´n generatr´ Φ(x. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. t) y compar´ndolo con (6. equivalentemente. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t) = e2xt−t .38) donde (gn)n es una sucesi´n de polinomios a determinar. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. n! (6. Ahora bien. 0) = 2x. ∂t cuya soluci´n es Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. t) = 0. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. por tanto. n! n! n=0 ∞ o. (n − 1)! n! n! n=0 n=0 ∞ ∞ . t) = obtenemos la ecuaci´n o ∂ Φ(x. como Φ(x.38) deducimos que g0(x) = 1 y g1(x) = x. t). t) = ∞ n=0 2 2 2n gn (x)tn. usando el desarrollo en serie ı de Taylor en t para Φ(x. ∂t De aqu´ deducimos que Φ(x.

entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.40) Problema 6. n! (6. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0. Encontrar la relaci´n de recurrencia para los momentos Cn := C0. 2g2(x) − 4xg1(x) + 2g0(x) = 0. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x). 67 Ahora bien. (6.γ− 1 γ dada por (6. es decir.n (0) en o este caso y resu´lvela. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2.12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. 6.n (1).39) Problema 6.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x.− 1 0. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0. si en vez de sustituir a en (6. respectivamente. Problema 6. Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 .5. los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x). Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre.33) z = 0 sustituimos el valor z = 1. Problemas Problema 6.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn . y)dx = p(y). N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = .13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 . .n (0) de o los polinomios de Jacobi. 2n (γ)n γ Cn (x)tn.41) donde (γ)n es el s´ ımbolo de Pocchamer.0 Pn(x) = Pn (x).9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. a ∀p(x) ∈ Pn . Problema 6. kn a (6.36). es decir. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 .

α.β.β (2n + α + β)(1 − x) d Pn (2n + α + β) α. 0) = √ Lm−1 (x2) = √ . y) se definen mediante la expresi´n u o Kern−1 (x.45) tenemos KerJ. 1) = n−1 Utilizando la relaci´n de simetr´ (6.44) (6.β−1 β.α.14). −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) .14 Prueba las relaciones α. 1) = Kern−1 (−1.17). 0) = n−1 (α + 1)n .β d α−1.α KerJ.25) y las o f´rmulas de diferenciaci´n (6.β donde por ηn y ηn denotaremos las cantidades β. 0) = .α.β (x) − Pn (x).45) (−1)n−1 Γ(2n + α + β) .α ηn (−1)n−1 Γ(2n + α + β) . n Γ(α + 1)n! KerL (0. n−1 .15 Los polinomios n´cleos Ker n−1 (x.42) α+1.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6. 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 .44)-(6.β (2n + α + β)(x + 1) d Pn (2n + α + β) α. 2α+β+n n!Γ(α + n)Γ(β + 1) β. 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .α ηn = (6. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 . 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ. 0) = √ 2m π(m)! π(m)! x KerH (0.β (−1. 2n(α + n) dx 2(α + n) α. KerH (0. Lm (x2) = √ KerH (x.β (x) + Pn (x). = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x). d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6.α.α d (x) = n(−1)n+1 ηn Pn−1 (x). Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α. n−1 β.β (1.β (x.β α. −1) = ηn dx Pn (x) = nηn Pn−1 (x). 2n(β + n) dx 2(β + n) 68 (6.β α.α. KerJ. 1) = (−1)n+1 ηn dx Pn n−1 β.β (x.β α.α α.43) Problema 6. −1). prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x. 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.β (−1.29) para los polinomios de Jacobi prueba que o ıa J.α α+1. 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.β Pn−1 (x) = (6.β+1 Pn−1 (x) = α. y) = Pm (x)Pm(y) . los valores en los extremos (6.β+1 KerJ.

yn (ξ))dξ. a. o o . ∂y Definici´n 7. 1/K). y). o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. . Obviamente si u(x) es continua u < +∞.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7. Proposici´n 7. (7. entonces y1 (x) = y2(x) en todo Id . Adem´s. y) : |x − x0| ≤ a. .4 (Teorema de unicidad local de soluciones) o Sea f (x. Sea M = m´x |f (x. y)|. (7. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta.1 El PVI (7.5) yn+1 (x) = y0 + x0 f (ξ.7. y(ξ))dξ. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x.4) Para la norma tenemos la desigualdad evidente u ≥ 0.2) Proposici´n 7. Sea el problema de valores iniciales y = f (x. 1.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ.1) tiene soluci´n unica.6) La sucesi´n anterior se conoce como sucesi´n de Picard. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7. y(x0 ) = y0 . b > 0.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 .1) En el apartado 2.2 Diremos que una funci´n f (x. 2. o ´ Lo primero que asumiremos es que la funci´n f (x. (7. y) ∈ R y (x.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. n = 0. (7. . Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. z)| ≤ K|y − z|. y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. x∈I |f (x.y)∈R Como f es continua en R. y) es continua en el rect´ngulo R o a definido por R = {(x. se tiene la desigualdad triangular a u+v ≤ u + v .3) Definici´n 7. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. y u = 0 si y s´lo si u(x) = 0 en o I. M siempre est´ definida. (7. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. y) − f (x. |y − y0 | ≤ b}. Adem´s. a (x. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. . y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. una condici´n suficiente para que una funci´n f (x.

y)∈R |f (x.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. Corolario 7. para todo n ≥ 0. Problemas Problema 7. por tanto d = m´ ın(a. y) = y. el PVI (7. es decir existe una unica funci´n y(x) tal que y (x) = f (x. Como f (x. digamos que |y| ≤ b > 0. las im´genes e a de yn (x) est´n contenidas en R. 1/1) = 1}.9 Sea la EDO y = x − y 2 con y(0) = 0. |y0 (x) − y0 | ≤ b. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M .5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a.1) o o en Id . b/M.e.8 Prueba las propiedades anteriores para la norma u . N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. 7. y) − f (x. Para ello basta definir una a norma en RN y el valor absoluto de un vector. 1/K)}.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. a Proposici´n 7. y)|. Escojamos un valor cualquiera para y. Encuentra las tres primeras aproximacioo nes de la soluci´n. b/M. b/M.1) con f lipschitziana de constante K en R (7. 1/b). Si ahora usamos. Las correspondientes o demostraciones se dejan como ejercicio. z)| = y 2 − z 2 = |y + z||y − z|. la sucesi´n de Picard e o (7. o a El procedimiento anterior es f´cilmente extensible a sistemas. o . entonces las demostraciones anteriores se adaptan perfectamente para el caso general. y) = 1 + y 2 . Sea x ∈ R por ejemplo. la norma k=1 N Y = k=1 yk . Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n. y M = m´x(x. M = b. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. b/b. b/M )} tal que su imagen est´ contenida en R. entonces o o |f (x.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a. Entonces. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |.. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. Entonces. 2 Ahora bien.7 (Teorema local de existencia y unicidad) Sea el PVI (7. π/2). En este caso ´ la soluci´n es y = tan x definida s´lo en [0. luego f es lipschitziana con constante K = 1. Problema 7. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x.2). por ejemplo.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. 1/K)} tal que su imagen est´ contenida en R. b/(1 + b2 ).1. Entonces K = 2b y M = 1 + b2 . y(x)) e ´ o y(x0 ) = y0 . i. a Entonces. Los teoremas anteriores son s´lo condiciones suficientes. 1/K) = m´ ın(a.

y = y 3 + e−5x . y(0) = 0. x ∈ [0. x ∈ [0. y = x + y 2 . Comp´ralas con la soluci´n exacta. y = y 2 + cos x2 . 3/10] 3. y(0) = 0. x ∈ [0. Problema 7. 1/2] 2. y(0) = 2/5.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. 1/2] Problema 7.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e .12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . a o .7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. y(0) = 0. y(0) = 0.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

5. Definici´n A. α = −1 1 dx = log |x| + C x ax dx = ax + C. De manera que. 3. b). Entonces.5 Tabla de Integrales 1.4 (Propiedades de la integral indefinida.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. 4. α+1 ∀α ∈ R. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). 2.) 1.1) f (x) dx. b) si para todo x de (a. 0 dx = C 1 dx = x + C xα dx = xα+1 + C. 7.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. log a a > 0. Por ejemplo. b) se tiene que F (x) = f (x). b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). 2. Teorema A. d dx f (x) dx = f (x) (A.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. 4. Anexo: C´lculo de primitivas a Definici´n A. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . 6. 8. para todo o x de (a. 3. b). F1 (x) − F2 (x) = const. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A.

Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). o Teorema A. b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. 13.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. o o sea. Como la integral no es de la tabla es necesario convertirla en una de la tabla. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). g(t)dt = G(t) + C. 10. Entonces sobre todo el conjunto (a.7 a) Calcular cos(2x) dx. o Ejemplo A.1. M´todos de integraci´n. Como la integral no es de la tabla es necesario convertirla en una de .1. 17. 16.1. 14.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a. e o Integraci´n por cambio de variable. A. 12. b)] o la imagen de φ(x). Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. 15. 11. b) el dominio y T = φ[(a.

(A. du(x) = aeax dx dv(x) = cos bx dx. Las integrales de la forma eax sen bx dx. arc cos x. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . ..1. sen(log x) dx y cos(log x) dx..3) v(x)u (x) dx. Entonces. b) y existe la primitiva de la funci´n v(x)u (x) en (a.2.4. v(x) = x n+1 tabla. eax cos bx dx. du(x) = aeax dx dv(x) = sen bx dx. b). (ax + b)n cos cx dx y (ax + b)n ecx dx. log φ(x). Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. 3. u(x) = (ax + b)n−1 . Integraci´n por partes. arc sen x. Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. potencias enteras de las funciones anteriores. sobre (a. (A. v(x) = 1 sen bx b eax sen bx a − b b de la tabla. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx.. respectivamente. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax .8 a) Calcular xn log x dx. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C.. . Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x.2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores. Donde para 2. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . Ejemplo A. Las integrales (ax + b)n sen cx dx. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. du(x) = x dx n+1 dv(x) = xn dx. b b b de donde. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b).´ A ANEXO: CALCULO DE PRIMITIVAS A. Las integrales donde aparezcan las funciones log x.

. k no tienen ı Pn (x) ra´ces reales. Definici´n A.8) . (A. N´tese que el denominador e o com´ n coincide con (A.10 Supongamos que donde k < m.9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A.5) con P n (x). Mi . i = 1. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . Mi . si n < m.5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . Pn (x) es una fracci´n simple. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i .4) y el numerador es un polinomio de grado a lo sumo n. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . Qm (x) Qm (x) Teorema A. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). Ni . o sea. Qm (x) (A. el Ani de A ni Ani −1 A1 + + ··· + . No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi . Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. xp son las ra´ces reales de Qm (x). Entonces. Para determinar dichas constantes sumamos los t´rminos de la derecha. . si Qm (x) tiene m ceros reales y simples..7) entonces. o sea. Ni .. Bi . Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + . y los factores x2 + pi x + qi .6) Como consecuencia de lo anterior.4) donde x1 .. Li y Ki son ciertas constantes reales. si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ).. . Bi . Integraci´n de funciones racionales.´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. o sea. Li y Ki .2. (A. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A.

2 x2 + px + q 2 4q − p 4q − p2 x dx. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales. x dx. C.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C.10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C.9) Teorema A. Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .. entonces Pn (x) ≡ Qn (x) para todo x ∈ R. es decir.. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2.9) obtenemos A = l´ ım x(x − 1) = −1. Qm (x) k = 1. B. x−a B 1 B dx = + C. (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 . (x − 1)2 (x2 + 1) Para encontrar los coeficientes A. k (x − a) 1 − k (x − a)k−1 k > 1.´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 .. m. utilizando (A.12 a) Calcular x2 Luego... si P n (xk ) = Qn (xk ) e para ciertos x1 . 2.. x y x0 son iguales. (A. . x2 . En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C. utilizando (A. 7 (A.. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + . (x − 1)(x − 2) Ejemplo A. ıces .... . xn+1 (distintos entre si). Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) .

o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . Ellas son las siguientes: 1. donde f (− sen x. o Ejemplo A. cos x). 2. Esta integral es del tipo 1. cambio t = tan x Ejemplo A. cambio t = cos x f (sen x. donde f (sen x. cos x) = −f (sen x. (x − 1)2 x2 + 1 2(x − 1) 2 A. donde f (− sen x. f (sen x. cos x) dx. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos.3. − cos x) = −f (sen x. 1 + t2 f (sen x. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. 1 + t2 1 + t2 2 dt. cos x). cos x) dx. cos x) dx. sen x =− 1 x 1+t dt = − log +C = log tan +C. cos x). Integrales trigonom´tricas. − cos x) = f (sen x. 3.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior.14 a) Calcular la integral dx = sen x dx .13 Calcular la integral dx = sen x dx . Luego. e f (sen x. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. cambio t = sen x f (sen x. cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . Luego.

f (x. 2.4. Esta integral es del tipo 3. 2 4 √ pero. Integrales irracionales.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. a2 x x arc sen + 2 a 2 x2 − a2 dx. cambio x = a sen t x2 − a2 ) dx. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . cambio x = a tan t Ejemplo A. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. f (x. Luego. a2 − x2 ) dx A.1. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . a2 − x2 ) dx. Luego. √ f (x. Esta integral es del tipo 2. x2 ± a2) dx y √ f (x. sen3 x 1 +C.15 a) Calcular la integral a2 − x2 dx. f (x. a2 − x2) dx.4. 3. 2 2 2 2 2 A. por tanto a2 − x2 + C. √ f (x. Luego. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. y f x. cambio x = a sen t x2 + a2 ) dx. Esta integral es del tipo 1. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. Las integrales √ f (x. Luego. Esta integral es del tipo 2. x2 ± a2 ) dx.

f (x) es integrable en [a. Sea f : [a.11) Adem´s.2. (A. . Luego. Las integrales f x. x2 +a2 pero. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. F (x) = c f (t) dt. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. deshaciendo el cambio t = 3 x + 1. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. Entonces f tiene primitiva en [a. a Teorema A. c ∈ (a. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . b). 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. n ax + b cx + d dx. Esta integral se racionaliza con el cambio t = 3 x + 1. b] y una de ellas es la funci´n o x n x. b] → R a o continua en [a. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. Luego. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 . x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. (A.16 Calcular la integral √ dx √ . obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. n ax + b cx + d dx. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C.4.12) siendo Φ(x) una primitiva cualquiera de f (x). ax+b cx+d . b].´ A ANEXO: CALCULO DE PRIMITIVAS pero.17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. Esta integral es del tipo 3.

an1 an2   .1) es compatible si existen los valores de x 1 .  . 2. 2. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B. .1. .3) Un sistema lineal de la forma (B. .. Si un sistema lineal de la forma (B. . ..1).. y se denomina matriz ampliada del sistema. 2. .1) no tiene soluci´n decimos que es o o un sistema incompatible. .1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m . m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n..  (B. Intercambiar dos ecuaciones.. o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices. x2 . . Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. . Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. A  a11 a12  a21 a22   . De esta forma e e o la matriz asociada al sistema (B.    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas.1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1. an3 · · · anm  se le denomina matriz de coeficientes del sistema. .2)  . . n) est´n colocados los coeficientes a ij (j = 1. Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. .1) . . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. 3. . Intercambiar dos filas. De forma que a cada una a le corresponden las siguientes operaciones por filas 1.  .1). .. a El sistema de ecuaciones (B. .  .  . . . Multiplicar por una constante no nula una fila cualquiera. . ´ Anexo: Algebra lineal Sistemas lineales y matrices.. .´ B ANEXO: ALGEBRA LINEAL 83 B.. Si existen dichos valores diremos que el sistema tiene soluci´n. 2. . . . . . . Multiplicar por una constante no nula una ecuaci´n cualquiera.. . . . B... . .

Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . Formas escalonadas y el algoritmo de reducci´n por filas.2. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila.´ B ANEXO: ALGEBRA LINEAL 3.4) . o B. 3. 2. e u Las operaciones anteriores se denominan operaciones elementales de filas. (B. ıa Diremos que una matriz est´ en forma escalonada si: a 1.  0 0 1 0 0 ∗ . Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ . Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    .     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila. Todas las filas no nulas est´n por encima de las nulas. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Utilizando las formas escalonadas a anteriores (B. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida. es decir se cumple el siguiente teorema: ´ Teorema B. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero.   (B. ıa Debajo de cada elemento gu´ s´lo puede haber ceros.

3. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. las cuales pueden venir expresadas en funci´n de las variables libres. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. El resto de las variables se denominan variables libres. Este paso se repite hasta que no queden m´s filas no nulas. As´ por ejemplo ı.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. Soluci´n de un sistema de ecuaciones lineales. o El algoritmo de reducci´n por filas consta de dos fases (partes). Este proceso consta del siguiente paso: 5. a ∗ ∗ ∗ ∗ 0    . Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. B. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. La segunda parte consiste en transformar la forma escalonada en la forma reducida. Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. ceros encima del mismo. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. 4. si es preciso. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. Este proceso consta de cuatro pasos: 1. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. Si el pivote no es uno dividimos por su valor para que lo sea. o . Comenzando por el primer pivote de la derecha creamos. a El significado de una variable libre es que dicha variable puede tomar cualquier valor. 3. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. mediante operaciones elementales de filas. 2. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas.   (B.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. Este ser´ el primer pivote.

x4 obtenemos diferentes valores de x1 . o sea  x1  x2  x=y ⇐⇒  ..1.. Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre... Por ejemplo.4. x4 .  .7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 . x4 . . n × 1. Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B.. x5 .4. . Las variables principales ser´n x 1 .6). los sistemas correspondientes a las dos matrices (B.     =   ⇐⇒ x1 = y1 . xn es decir un vector es una matriz de componentes) del vector x. . Diremos iguales. xn son n´ meros reales. Los valores x1 . ıa o B. . x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 .. .. Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas.. . o lo que es igual.8) ∗ ∗ . consideremos la matriz del sistema (B.. x6 y las libres x3 . Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . x2 . B. x2 . x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 . Por ejemplo. Es decir fijando diferentes valores de x3 . donde x1 .2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote.´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo.     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B. . Vectores y ecuaciones matriciales.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. o sea. u  .  . xn = yn . . De o a la forma de la matriz observamos que x5 . al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero).

. wn αxn Sean x. an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 . + .   . 7. 8... Adem´s b est´ en span (a1 . . w vectores de Rn y α. a2 . β n´ meros reales. αn n´ meros reales. Definiremos espacio generado por los vectores a1 .. . a2 .  .. . Operaciones con vectores.     w1 αx1  w2   αx2      w = αx =⇒  . an ) = span (a1 . xn son las inc´gnitas que se quieren encontrar. o sea. .. quienes quiera sean α1 . 5. al conjunto de todos los vectores de la forma L(a1 .  =  .4.   .. .   ... . an de Rm con o pesos α1 . an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible.. αn . x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α... .  =  .. .  . respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an .. .. an ) = L(a1 . Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]. .         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . 3.  .... a a o .2. z. an .   .. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . . y. a2 .... n´ meros reales.. . o sea.   . . . an ) = α1 a1 + α2 a2 + · · · + αn an ... Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y.. 4. . 2.. es decir..... u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b.  =  ... 87 Dichas operaciones cumplen las propiedades 1. . an de Rm y lo denotaremos como span (a1 .´ B ANEXO: ALGEBRA LINEAL B. donde b es un vector dado de Rm y x1 . . 6. x2 .

4 Sea A una matriz m×n con columnas a1 . . Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x. o Teorema B. ..   . . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b..5 Sea A una matriz m × n con columnas a1 . .. y vectores de Rn y α un n´mero real cualquiera. . an ). an .. xn Teorema B.  = x1 a1 + x2 a2 + · · · + xn an . . an (vectores de Rm ) y x un vector de Rn . 2) A(α x) = α (A x) . an y b un vector de Rm .  .´ B ANEXO: ALGEBRA LINEAL B. . Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  . .  . an ...      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        .  .  =  . . . a2 . o 88 Sea A una matriz m × n con columnas a1 . . la ecuaci´n A x = b tiene soluci´n.  ... la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b]. Rm = Span(a1. am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B. .. Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A. a2 .. a2 . a2 .... .  .. o sea. o o 2) Las columnas de A generan Rm . . Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . a e o sea. .  .. o Regla para el c´lculo de Ax.4. 3) A tiene una posici´n pivote en cada fila. x.3.. La ecuaci´n Ax = b. . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. .  .3 Sea A una matriz m×n con columnas a1 . a2 .

. o sea la matriz A tiene al menos o una columna que no es pivote... Para obtener los vectores s1 . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2. sp cuyo n´ mero coincide con el de las u variables libres del sistema.. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . El sistema lineal A x = 0 se denomina sistema homog´neo. o e (B. s2 . o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre. a2 .5. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales... a2 . o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. Teorema B..9) B.. e Teorema B.4. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . . x es un vector de R n y b es un vector de Rm . tiene como unica soluci´n la trivial x1 = · · · = xn = 0. Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres. u ..6 Supongamos que A x = b tiene soluci´n para cierto b de R m . · · · . xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. Dependencia e independencia lineal. 89 Conjunto soluci´n de los sistemas lineales.´ B ANEXO: ALGEBRA LINEAL B.. s2 . Un conjunto de vectores a1 . . Sea p una o soluci´n de A x = b (soluci´n particular).. . 1. es decir. ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   . an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0.. x2 . ´ o Un conjunto de vectores a1 . El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero. Dicho sistema siempre tiene la e soluci´n trivial x = 0. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 .. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0.7 Un conjunto S = {a1 . a2 ..4.4. an se denomina linealmente dependiente si existen los valores x1 .. . . Y as´ sucesivamente.

. donde a1 . . . Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B.      . . Entonces: u 1. o Teorema B.10 Sean A. . (α + β)A = α A + β A. donde 0 ≡ ||0|| es la matriz nula. 4. . a2 ... Vamos a estudiar las operaciones elementales de las matrices. es decir. Teorema B. . an y b1 .. .. a12 a22 . B. . . . β n´meros reales. . 2. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente.. .8 Un conjunto S = {a1 . bn son vectores de Rm . an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. 5. . A + 0 = 0 + A = A. o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . α(A + B) = αA + αB. 3. b2 ... . an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes.. El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . . ´ Algebra de matrices. 6. o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. .     (B. . .. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. . . o bien α A ≡ α||aij || = ||α aij ||. . . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ].  . α(β A) = (α β) A.. a2 . . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 . a2 .1. .. . B y C matrices de m × n y α... Suma de matrices y multiplicaci´n por un escalar. .5..9 Un conjunto S = {a1 .. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. .´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . . es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. A + B = B + A..5. . Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. . .. an necesariamente cada vector es combinaci´n de los anteriores. .10) B. a2 . . am1 am2  a11 a21 . .. Teorema B. · · · amj · · · amn      fila i →  ai1 ai2   . (A + B) + C = A + (B + C).. · · · aij · · · ain .. Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n. a2 .

(A · B) · C = A · (B · C). k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. . (AT )T = A. Entonces: u 1.11 Sean A de m × n. donde Ik es la matriz identidad de k × k. k veces donde A0 ≡ In . o Dada una matriz A de m × n. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. 1 n−1 n Como consecuencia de este teorema tenemos que . la matriz transpuesta de A.5. 6. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p.2. (A + B)T = AT + B T . es la matriz de n × m cuyas filas coinciden con las columnas de A. donde 0 ≡ ||0|| es la matriz nula.3. A · 0 = 0 · A = 0...´ B ANEXO: ALGEBRA LINEAL B. Si A = ||a ij ||. Teorema B. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. 2. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. o Teorema B. β n´meros reales. (A · B)T = B T · AT . 2. B. Entonces: u 1. 5. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . entonces AT = ||aji ||. o elemento a elemento: ||(A · B)ij || = n n (B. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ]. 3. Multiplicaci´n de matrices.5. 3.11) aik bkj . Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0. que denotaremos por A T . Transposici´n de matrices. 4. 4. 2. Im · A = A · In = A.12 Sean A de m×n. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α. (α A)T = α AT . Es importante recordar que la multiplicaci´n de matrices no es conmutativa. (B + C) · A = B · A + C · A. (A1 · A2 · · · An )T = AT · AT · · · AT .). A · (B + C) = A · B + A · C. α(A · B) = (α · A) · B. 1.

´ Teorema B. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0. o Teorema B. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 . Si existe una matriz C tal que A · C = In . AT es invertible y (AT )−1 = (A−1 )T . Matrices elementales. (A · B)−1 = B −1 · A−1 .5. Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. Por ejemplo.5. (A−1 )−1 = A. C · A = In . es decir son las que se obtienen al intercambiar dos filas.5. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra.´ B ANEXO: ALGEBRA LINEAL B. 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. 92 Sea A una matriz de n × n. Entonces: 1. El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A. 3. la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . Si A es invertible entonces A−1 es unica.4. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n .14 Sea A una matriz cuadrada de n × n invertible. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. . 2. entonces A−1 = 1 ad − bc d −b −c a . y su soluci´n se expresa por la f´rmula o o −1 b.15 Sean A y B matrices cuadradas de n × n invertibles. La inversa de una matriz cuadrada. n n−1 1 B. x=A Teorema B.13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . entonces a C se le denomina matriz inversa de A y se le denota A −1 .

Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. . La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . · · · A b n = en . 3.  Teorema B. A b 2 = e2 . entonces [A In ] ∼ [In A−1 ]. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . Las o siguientes expresiones son equivalentes: 1.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . . A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . reducen In a A−1 . Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. Por ejemplo. o sea.. 7. Reducimos por filas la matriz A a In . 2. la inversa de E1 es E1 .´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. 2. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . A es invertible. −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . donde e1 .17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n. 4... La ecuaci´n A x = 0 solo tiene la soluci´n trivial. o sea. 5. en son las columnas de la matriz identidad. o ´ Existe un C tal que A · C = I. 6. (A tiene n posiciones pivote) A es un producto de matrices elementales. Teorema B. Existe un D tal que D · A = I. E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila. (Las columnas de A son linealmente o o independientes. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . Construimos la matriz [A In ]. A es equivalente por filas a la matriz identidad In de n × n.) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n .

. AT es invertible. B. . a12 a22 . · · · anj−1 anj+1     . . . . . . .  ai−11 ai−12 Aij =   ai+11 ai+12   .. .  . .  . ..           . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . .       (B. . . . Sea A una matriz n×n (n ≥ 2). . . .. · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . .. o sea  a11 a12  . . . .. .1. . ··· ··· . donde suponemos que det a = a si a es un n´ mero real cualquiera.´ B ANEXO: ALGEBRA LINEAL 8. . . an1 an2  a11 a21 . Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . Determinantes. ... . . . ··· ··· .13) Denotaremos por Aij a la submatriz que j. . · · · ai−1n · · · ai+1n .13). . . . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. entonces A y B son invertibles y A = B −1 . . . que se conoce como desarrollo del determinante de A por su primera fila. . .. . B = A−1 . .6. o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. (B. . . anj+1 · · · ann · · · a1n . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . . a1n a2n . .  . .  . B. . a1j+1 a2j+1 . . . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n . . . Definici´n de determinante de una matriz cuadrada. . . . . . . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  . . . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . . .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. .6.

. B. =r ai1 . u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. . an1 a12 · · · a1n . . . . · · · r ain . .2. 3. . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. la matriz B = E1 · A se obtiene al intercambiar dos filas de A. det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. . entonces det E = α. o sea. . Luego. mediante transformaciones elementales. respectivamente. . ai2 · · · ain . . transformar en una matriz triangular superior U (forma escalonada). Si E1 es la matriz que intercambia dos filas. la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. . Es conocido de apartados anteriores que cualquier matriz A se puede. Pero si A tiene n filas pivote entonces A es invertible. . Teorema B. . es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . . . . ..20 Sea A una matriz n × n. . . . o 1.21 Sea A una matriz n × n y sea AT su traspuesta. . si a Entonces. a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. Este razonamiento nos conduce al siguiente teorema. Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 .19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. Propiedades de los determinantes. 2. la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. . . . a Teorema B. · · · ann a11 .6. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. entonces det A = det AT . Por ejemplo.´ B ANEXO: ALGEBRA LINEAL Teorema B. . Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . a12 . e Teorema B. Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera.18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. . an1 an2 En particular si una fila de A es nula. . . . · · · a1n .. det A = 0 y si una fila de A es proporcional a otra det A = 0. respectivamente. . . E2 ´ ´ o E3 . . .. an2 · · · ann r ai1 r ai2 .. . . Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. .

. . . · · · A b n = en . .. .  .  . det A ···. . . . . . . seg´ n la regla de Kramer. b =  bi  . . . .. . A b 2 = e2 .  . xn = . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . . an1 · · · anj−1 bn anj+1 · · · ann Teorema B.  . .  . . . .    .  . .  . . bn b    . .  ai1   . . . · · ·. .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . . . · · · aij−1 aij aij+1 · · · ain   xi  .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . . . . . .  . . ..    . . Entonces det(A · B) = (det A) · (det B).   .      . . .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) .  . . . .   .  . . .  . det A x2 = det A2 (b) .   .  . . . en son las columnas de la matriz identidad. .  .  .   =  bi . .. . . .. .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. det An (ej ) = (−1)n+j det Ajn = Cjn .24 Sea A  a11  .3. . A =  ai1 · · · aij−1 aij aij+1 · · · ain  .  . o u det A1 (ej ) det An (ej ) x1 = . o Teorema B. . .  . xn = det An (b) . .      .. . . Regla de Kramer. . . .  . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . . . · · · . .. . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 ..  . . . .  . . . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 . . o Finalmente. ... Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. .. . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. .. Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas). an1 matriz n × n invertible.23 Sean A y B matrices n × n. . . . . .  . ..6. . . . . B. . . donde e1 . .  . . . . . ..    . .  . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. Sea A una matriz n × n y b un vector cualquiera de R n .   ..

z elementos arbitrarios de V y α. . . det A  C1i C2i · · · Cji . . . .1.     B. .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. Definici´n y ejemplos.16 del cap´ ıtulo anterior. el vector suma. .20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . an . Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . Esta propiedad se conoce como la multilinealidad del determinante Teorema B. 2. . Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B. . La matriz ||C lm || se denomina matriz adjunta de A. .. .. vectores de V . Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). Espacios Vectoriales. . . . y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x).  −1 A =  .18 y B. Cjn   . . . Cni   .. y.. B. . . . y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V ...´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . . . w = x + y. Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x. 1  .. . C1n C2n · · · Cjn · · · Cnn       . tambi´n es un vector de V y se e cumple que: . . Para todos x e y. La aplicaci´n anterior es lineal pues para todo α de R y x. Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. . . . T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y). .7. . k = 1. . n..25 Sea A una matriz invertible n × n.. β n´ meros reales. . En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados.. Entonces V es un espacio vectorial si u 1.. .7.  . x de Rn . .

7. Sea V un espacio vectorial. el vector que se obtiene al multiplicar por un escalar. e . El elemento nulo de V pertenece a H. o sea. H = Pk es un subespacio vectorial para todo k < n.. Subespacios vectoriales. Adem´s. a0 .) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2.) Para V = C[a.. 2. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t).b] .. que denotaremos por P n .26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones.. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x. b]. . 1.) Para V = Pn .) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. B. el nulo) y H = V (el mismo espacio vectorial).) Dado un espacio vectorial V . 1. (α · f )(t) ≡ α · f (t). pn = 0. ´ 2. o 2.2. 2.. Pn = {pn (t) = a0 + a1 t + · · · + an tn . o Ejemplos. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V .) El conjunto de los polinomios de grado a lo sumo n. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento. w = α · x. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . Teorema B. . vectores de H. 4. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V . que denotaremos por C[a. q(x) = b0 + b1 t + · · · + bn tn . si y s´lo si a0 = a1 = · · · = an = 0. Para todos x e y. 3. 1.}. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn . entero. an n´ meros reales.b] . x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . Dicho espacio lo denotaremos por R m×n o 3. tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. H = Pn es un subespacio vectorial.´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. 1.) El conjunto de las funciones continuas en el a o intervalo [a. (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn . el vector w = x + y tambi´n es un vector de H. para cualquier n = 0.

. vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 . 2.... Por ejemplo. Por tanto las siguientes afirmaciones son ciertas: 1. . entonces sus columnas a 1 .... vp necesariamente cada vector es combinaci´n de los anteriores. entonces B es una base de todo el espacio vectorial V . o sea... . bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . .. v2 . .. si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3. . v2 . vp se denomina linealmente dependiente si existen los valores x1 . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. Teorema B. Un conjunto de vectores v1 .. v2 .´ B ANEXO: ALGEBRA LINEAL 3. ´ o Un conjunto de vectores v1 .. Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . · · · . ... vp . el vector v j es combinaci´n lineal de o o los anteriores. el conjunto span (v1 . b2 . b2 . v2 . an es una base de a . .. Conjuntos linealmente independientes. vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. Por tanto B = a1 .. si tomamos una matriz n × n invertible.. ... v2 . v2 . 99 Para todos x vector de H. B genera a todo H. vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes. an ). tiene como unica soluci´n la trivial x1 = · · · = xp = 0. vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s..7. el vector w = α · x tambi´n es un vector de H.... Un conjunto S = {v1 . . .. o a Un conjunto S = {v1 . x2 ... B. an son linealmente independientes y adem´s R n = Span(a1. o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . v2 .. es decir.. Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . Bases. .... . 1 < j < p.. . En particular si H coincide con V .. v2 . bp ).. e Teorema B. ...28 El conjunto de dos o m´s vectores v1 . Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales.3. vp ) es un subespacio vectorial de V ..27 Dado un conjunto de vectores {v1 . xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. vp } de un espacio vectorial V . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 ... es o decir.. v2 ..

7. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn .. S se conoce como la base can´nica de Pn . ..29 Sea S = {v1 .30 Sea B = {b1 ..  . vk−1 . t 2 . consideremos el espacio generado por los vectores       2 1 1  0  . xn . B.. vk . H = Span(v1. el conjunto B = {v1 . Adem´s.  . es combinaci´n lineal de los o restantes. Entonces para todo x de V existe un unico conjunto de valores {α1 ... . i) Supongamos que un vector de S. v1 = 0 0 0 Es evidente que H = Span[v1 ....  . bn } una base del espacio vectorial V . vp ) un subespacio de V . S = {v1 . a son unicos.   . es decir los valores x1 . e2 . t. en de la misma son una base de Rn la cual se conoce como base can´nica de R n . entonces alg´n subconjunto de S es una base de H. .  = x 1 e1 + · · · x n en .. o Otro ejemplo lo constituye el conjunto de vectores S = {1....  + x 2  .  .. .. Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1.  = x 1  .  + · · · + x n  .. v3 } no es una base de H pues v1 . ... v2 =  1  .. . bn } es una base del espacio vectorial V . ´ Teorema B..4... . tn } del espacio vectorial Pn . v2 .. Por ejemplo. v3 ] . . o sea. H = Span [v1 .. o Teorema B. vk+1 . v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores. v3 ] = span [v1 . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. si A = In . Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. . v2 .  ... las columnas e1 . digamos el vj . .. t. tn ) = a Pn . vk+1 .  . . . t 2 . u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial.´ B ANEXO: ALGEBRA LINEAL 100 Rn .. v3 no son linealmente a independientes. αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn . vk−1 .. .. Sistemas de coordenadas.. Sin embargo. ii) Si H no es el espacio {0}. vp ) = span (v1 . v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. la matriz identidad n × n... 1 ≤ j ≤ p.. Supongamos que B = {b1 . .... Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 . H no cambia. v2 . 0 0 1 xn . v2 . El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . . Entonces si suprimimos a dicho vector vk del conjunto S. vp ). v2 . En particular. Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  . Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V . Adem´s.. v3 =  1  .... es evidente que dado un vector x de R n sus coordenadas. b2 . v2 .. b2 .

entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. La dimensi´n de un espacio vectorial.. a Teorema B. dim{0} = 0. e2 .b] = ∞.... .32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 ..... B. o sea o −1 [x]B = PCB · [x]C = PBC · [x]C . a Este teorema es una generalizaci´n del teorema B. b) Si S genera a todo V . bn }..33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V . o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . bb } es una base de V y lo escribiremos de la forma dim V = n. Entonces: a) Si S es un conjunto de vectores linealmente independientes.. donde B = {b1 . Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H.. b2 . . o Teorema B. o Teorema B... si las coordenadas de x en la base can´nica C son x 1 .. o a es decir si V = Span(b1 .. . b2 . . o (dim V = n < ∞). b2 .. la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B . o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n .. su dimensi´n. xn . αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C..5.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . .8. b2 . αn      B 101   y lo denotaremos por   o [x]B . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 . . . a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos.. es decir si V = Span(b1 ... . Teorema B. . dim C[a. b2 . Adem´s dim H ≤ dim V . en }. bn }.34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 .. S es una base de V .7.  = PCB · [x]B . y por tanto. Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . bn }.. Por ejemplo. S es una base de V .. dim Pn = n + 1. bn } un conjunto de exactamente n vectores.. . .   . Consideremos nuevamente las coordenadas en Rn . Si V no puede ser generado por una base finita de vectores. bn ).´ B ANEXO: ALGEBRA LINEAL  α1 α2 .. Supongamos ahora que pasamos a una nueva base B = {b1 . Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica. entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. En el caso que V = {0} sea el espacio vectorial nulo. bn ). entonces cualquier otra base de V tendr´ que tener n vectores de V .. dim Rn = n. . .

.´ B ANEXO: ALGEBRA LINEAL B. .6..  .. Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii . . . . b2 . a1n   an1 an2 . luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B. . .  . es un subespacio vectorial de R n . . −1 [x]B = PDB [x]D . bk = ak1 d1 + ak2 d2 + · · · + akn dn . yn . b1 = a11 d1 + a12 d2 + · · · + a1n dn . dado un autovalor λ de A.  . o sea. ann      D   b1 =       . que coincide con una base del n´ cleo de A.  x = x1 b1 + · · · + xn bn −→ [x]B =  . bn =     D . xn y D son y1 .8. yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B .. (B. bn } y D = {d1 . . 2. autovector de A asociado al autovalor λ. . al vector no nulo x = 0. yn D a1n · · · akn · · · ann xn B Adem´s. n. o sea.. y2 .    x1   .  . y x = y1 d1 + · · · + yn dn −→ [x]D =  .. Denominaremos al vector x de R n . tal que A x = λ x. e Teorema B. . . . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones.. El problema de autovalores de una matriz. .15) tiene soluciones no triviales.. o sea. el conjunto de los autovectores asociados a λ. cuyas columnas a1 . ´stos se podr´n e a escribir en la base D. PDB es una matriz invertible (sus columnas son linealmente independientes). Es importante destacar que conocido el autovalor λ.   . dn } o dos bases de V . 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . Por tanto. o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . .. es decir.7.   . b1 = an1 d1 + an2 d2 + · · · + ann dn ... xn B en la base  y1 . x = 0.. Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 ..14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ.. donde I es la matriz identidad n × n. . Cambio de base. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. . an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D.  . Por tanto tenemos que [x] D = PDB [x]B . =⇒  a11 a12 . Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. resolver (A − λ I)x = 0. . x2 . (B.. Como D es una base de V y los elementos de B son elementos de V . B.. . Sea A una matriz de n × n.. · · · . a2 .  . .35 Sea A una matriz triangular de n × n.  . d2 . entonces el sistema a (A − λ I)x = 0. i = 1. ..

´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz. Si A = P · D · P −1 .37 Si las matrices A y B de n × n son similares.15). o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D.17 (Teorema de inversi´n de matrices. La transformaci´n que a cada matriz le hace corresponder otra similar.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. λ es un autovalor de A si y s´lo si p n (λ) = 0. donde D es diagonal y P invertible. ı B. λ2 .16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. . A es invertible. se o denomina transformaci´n de similitud. tiene soluciones no triviales. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio. en general. . det(A − λ I) = 0. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B.. Entonces los autovectores v1 . Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.) Sea A una matriz cuadrada A de o o n × n. Diagonalizaci´n de matrices. 2. Diremos que A es similar a B si existe una matriz invertible P .. Teorema B.16). ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B. O sea. o sea. entonces tienen el mismo polinomio caracter´stico y.36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp .8. (B. distintos. por tanto. los mismos autovalores. entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores. o Matrices similares. Teorema B.8. Es decir si U es la forma escalonada de A los autovalores de A y U son.17) Es evidente que si A es similar a B... (B. Sean A y B dos matrices n × n. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ. La ecuaci´n caracter´ o ıstica.2. tal que A = P · B · P −1 .1. si existe una matriz P invertible y otra D diagonal. Las siguientes expresiones son equivalentes: 1. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0.17). para demostrarlo es suficiente tomar Q = P −1 . o B = P −1 · A · P. o Teorema B. conclusi´n. tales que A = P · D · P −1 . Teorema B. B.. A −→ P −1 · A · P .. . vp asociados a los autovalores λ1 . (A − λ I)x = 0. λp son linealmente independientes. o sea. B es similar a A. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible. v2 .

o sea. Algoritmo para diagonalizar una matriz A. Si A es diagonalizable continuamos como sigue. si B contiene exactamente n vectores.16). 1.. . A es diagonaa lizable si y s´lo si dim(B) = n. p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio..40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . λp . o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Es recomendable comprobar que hemos calculado correctamente P y D. Teorema B. Encontrar los autovalores de A resolviendo la ecuaci´n (B. Adem´s. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. entonces es diagonalizable. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. . 2. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes... λ2 . Entonces B es un conjunto de vectores de Rn linealmente independientes.. 4. dim(B) = n1 + n2 + · · · + np . Sea Bk . Teorema B. k = 1.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . Si tenemos en total n autovectores linealmente independientes entonces el teorema B. 3.. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P . Para ello comprobamos que A · P = P · D. 2. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k .38 nos asegurar´ que nuestra matriz es diagonalizable. o .39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p .

a en z0 (ver la figura 20). o C.3 Sea la serie de potencias ∞ n=0 an xn . (C. .1.4 Sea la serie de potencias ∞ n=0 an xn . En este caso hay que trasladar los resultados a la recta real. a Teorema C. an . La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que. en el caso de las series de la forma (C. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C.C ANEXO: SERIES DE POTENCIAS 105 C. entonces absolutamente para todo x ∈ R con |x| < |r|. an . converge uniformemente en [0. z ∈ C.1) que denominaremos serie de potencias. Si la serie converge para cierto w ∈ C.2) es decir. se puede saber mucho m´s sobre la serie. Adem´s. A diferencia del caso complejo. es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R.2) est´n centrados en el origen y en el de las series (C. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. En- tonces. an . entonces podemos definir la funci´n suma f (z) de la serie. x ∈ R y R su radio de convergencia. k etc. R] ([−R. Consideremos ahora en caso real.2) haciendo el cambio de variables ζ = z − z 0 y viceversa. si la serie converge en x = R (x = −R). Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. cuando z0 = 0. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . Teorema C. en el caso real si se sabe la convergencia en alguno de los extremos. Si la serie converge para cierto r ∈ R. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 .2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n .1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . Obviamente si tenemos una serie de potencias del tipo (C. (C. 0]). z ∈ C. ∞ k=0 zk . cualquiera sea la serie de potencias a ∞ n=0 an z n . Dicho n´ mero se denomina radio de convergencia de la u serie de potencias.1). k! ∞ k=1 zk . Anexo: Series de potencias ∞ n=0 Definici´n C. an . la podemos reducir a a la anterior (C.1). x ∈ R.

=⇒ ım = l´ ım . se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . . o sea. siendo R el radio de conver- En otras palabras. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |.5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . ∞ n=0 an xn . se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . Entonces R = l´ ım n→∞ n 1 . Teorema C. x ∈ R con radio de convergencia R > 0. an xn es continua en (−R.6 La funci´n f (x) = o gencia de la serie. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. an . R).C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). Teorema C. an . ∞ n=0 Teorema C. ım en cuyo caso 1 an an+1 = l´ n |an |. x ∈ R. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. o sea.7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. n+1 2. si dicho l´mite existe.

radio de convergencia +∞.C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . x ∈ (−1. x ∈ R. Para calcular la derivada usamos el teorema anterior. (C. f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s. 1).5) xk . f (0) = 1. 1).6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . n Funciones elementales del an´lisis.8) .7) Usando (C. n (−x)n = ∞ n=0 (−1)n xn . as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . (2k + 1)! ∞ k=1 cos x = (−α)k k x . (C. 1). as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x).4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. como ya hemos calculado antes. 1). Ejemplo C.3) sen x = (−1)k x2k+1 . Esta serie converge en (−1. ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. k! x ∈ R. ∞ k=0 (C. k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1. a o o Los teoremas anteriores permiten calcular un buen n´ mero de series. n (C. R). (C. a ex = ∞ k=0 ∞ k=0 xk . La funci´n que cumple lo anterior es la funci´n e x . 1 = 1+x (−1)k xk . x ∈ (−1.6) Aplicando la integraci´n t´rmino a t´rmino en [0.8 Probar que la funci´n f (x) = o su derivada.

(C.C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. 2n + 1 x ∈ (−1. x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 . k!(2k + 1) x ∈ (−1. tenemos √ 1 ( 2 )k k 1 x .5) con α = − 2 y cambiemos x por −x2 . (C. 1).9) 1 Escojamos ahora (C. 1).10) de donde integrando t´rmino a t´rmino en [0.11) . x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 . 1). (C. = 1 − x2 k=0 k! ∞ x ∈ (−1. integrando t´rmino a t´rmino en [0.

Sign up to vote on this title
UsefulNot useful