´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . . . . . . . . . . . . . .5. . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . .1. . . . . . . .1. . . . . . o A. . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . Algebra de matrices. . . . . . . . . . . . Espacios Vectoriales. .6. . . . . . . .6. . . Vectores y ecuaciones matriciales. . . . . . . . . . . . Integraci´n de funciones racionales. . . . . . . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . 7. . . . . . . . . B. . . . . . El problema de autovalores de una matriz. . . . . . . . . . . . . Anexo: Algebra lineal B. A. . . . . . . e o A. . . . . . . . . . . 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Formas escalonadas y el algoritmo de reducci´n por filas. . . . . . . Problemas . . 105 . . . Determinantes. . . . . . . Problemas . . . .2. . . . . . . Anexo: C´lculo de primitivas a A. . . . .1. . . . . . . . .7. . . . o B. . . . . Anexo: Series de potencias 105 C. . . C. . . . . . . . . . .8.4. . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ B. . . .1. . . . . . . . . . M´todos de integraci´n. . . .4. . . . . . . . . . . . . . . . . . . B. . . . . . . . . . . . . . . . . . .1. . B. . . Integrales irracionales. . . . . . Propiedades de las series de potencias . Problemas . . . . . . . . . . . . . . La transformada de Laplace 8. . . . . . . . . . Soluci´n de un sistema de ecuaciones lineales. Integrales trigonom´tricas. . . Sistemas lineales y matrices. . . o B. El teorema de existencia y unicidad para las EDOs 7. . .5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e A. . B. . .

. La EDO lineal o de primer orden. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Aplicaciones. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. M´todo de variaci´n de coeficientes. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Sistemas de ecuaciones diferenciales ordinarias de primer orden. Ecuaciones o lineales. e o o Cap´ ıtulo 5: M´todo de las series de potencias. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Ecuaciones lineales. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. EDOs de orden n. Reducci´n de orden. Funcioo nes generatrices. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. Aplicaciones. Sistemas lineales con coeficientes constantes. Relaci´n con los sistemas de ecuaciones de primer orden. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Polinomios cl´sicos discretos. Ejemplos y aplicaciones. M´todo de Pic´rd. EDOs lineales de orden 2. F´rmula de Rodrigues. La matriz exponencial eA y sus propiedades. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Ortogonalidad y relaci´n de recurrencia. Los polinomios cl´sio e o a cos. o a a Programa de la asignatura. Existencia de la soluci´n. La EDO lineal de primer o orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. Puntos regulares y singulares. Los momentos de las o o distribuciones continuas de probabilidad. Ecuaciones de Bernoulli y de Ricati. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. La ecuaci´n hipere o o geom´trica de Gauss. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. La ecuaci´n de Bessel. Los sistemas lineales y la EDO de orden n. Ecuaciones separables. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Ecuaciones diferenciales de primer orden. Funciones generatrices. e M´todo de integraci´n por series. Ecuaciones diferenciales exactas. Aplicaciones.

Ecuaciones diferenciales elementales. McGraw-Hill. Problemas de Ecuaciones diferenciales ordinarias.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. Marcell´n. y Bedient R. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas.M. Differential Ecuations and their Applications. GOLOVACH.. Casas´s. A. L. McGrawo Hill. o Colecciones de problemas A. Funciones de variable compleja. ´ Renato Alvarez Nodarse. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. Elsgoltz L.. Edwards. H.K. Springer Verlag. 15-06 a .E. Ecuaciones diferenciales. y Zarzo. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. Ecuaciones diferenciales.. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. P.B. F. Jr y David E. Pearson Educaci´n o Nagle R.. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Bedient P. Penney. Pearson Educaci´n..E. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. MIR.D.F. y Makarenko G. 2002). K. Krasnov M. Para aprobar el examen es necesario obtener al menos 5 a puntos. MIR. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Nikolski S. BOIARCHUK y G. Ed. y Saff E. Rainville E. Ecuaciones diferenciales y c´lculo variacional. Bibliograf´ complementaria ıa Braun M. Facultad de Matem´ticas. Prentice Hall. Matem´tica Superiores. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. Simmons. No. Bugrov Ya. Fundamentos de ecuaciones diferenciales. G. Despacho: 1er piso. Series. Mod 15. s´lo en caso a a e o de mejorarla. Integrales mltiples. a Kisilev A. 9 y 10 (URSS.S. MIR.

La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. x2 − 2x + 1 = 0. Por ejemplo. La tercera sin embargo no tiene soluciones reales. y (n) ) = 0. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. En primer lugar por que estamos buscando funciones de x y no simples valores de x. x2 + 1 = 0. o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. .´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. Existen ecuaciones m´s “complicadas”. Diremos que y = y(x) es una soluci´n de la (1. o y (5) + 3 sen x − y = 0 es de orden cinco. .1. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. . y. En segundo. y (x). Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). y(x). . Nuestro principal objetivo es aprender a resolver EDOs. y (x) − ey(x) + 7 cos x = 0. Nos centraremos en las ecuaciones del tipo (1. quiz´ las m´s sencillas. ı. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. .. y (n−1) (x0) = y0 (n−1) . . . y . y (x) + 3y (x) + 2y(x) = 2 cos(2x). . En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”. Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. y (x0) = y0. y (x) = y. y . y (x) = sen x. resta. x2 + 4x = −3. y.1) es de orden n si en ella aparece la derivada y (n) . pero si complejas x = ±i. 1. . Diremos que o u una ecuaci´n diferencial del tipo (1. .1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). Por ejemplo. x2 − 1 Estas ecuaciones. . Ecuaciones diferenciales “ordinarias” F (x. mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. . Estas ecuaciones son el objetivo del presente curso. y . multiplicaci´n y divisi´n. son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. (1. ∀x ∈ A. las ecuaciones funcionau a les donde las inc´gnitas son funciones.. En particular el denominado problema de valores iniciales (PVI).1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. . y + e − 1 = 0 es de orden dos.. y . Por ejemplo o 3x + 2 = 5. y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. .1) se transforma en una identidad para todo x ∈ A. Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. y (n) (x)) = 0.

x2 x2 x2 x2 x2 Definici´n 1.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 . dx Definici´n 1. b(x) ∈ CI . o Como la soluci´n general es y(x) = Ce− 2 + 2.4) Ejemplo 1.3 El problema de encontrar una soluci´n de la ecuaci´n (1.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden.1 La ecuaci´n o o a(x). existe una unica soluci´n del problema de valores iniciales (1. entonces. o o e ecuaci´n no homog´nea. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2. ´ o En general. o sea.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0. para cualquiera sea el valor y0 . Teorema 1. la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt .4 Resolver la EDO del ejemplo 1. o e La soluci´n general de (1. d y(x) + a(x)y(x) = b(x). (1.5) .2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. b(x) ∈ CI .2. La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x).4). dx a(x). (1.4).3) Ejemplo 1. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I. (1. y(x0) = y0.2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. tenemos y(0) = 1 = C + 2.2 con la condici´n inicial y(0) = 1.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1.

´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1.0) x U L Q Figura 1: Curva del ejemplo 1. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t). Encontrar la dependencia de i respecto al tiempo t.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h).8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. y = 2y/x Ejemplo 1. la presi´n al nivel del mar (1 atm). Encuentra adem´s la a curva que pasa por el origen.y) R 0 (x/2. λ > 0. Realizar el mismo estudio si U = U0 sen(ωt).3. R la resistencia y U el voltaje. dt donde L es la impedancia. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva. donde p es la presi´n en funci´n de la altura h. Si h = 0.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto.8 (izquierda) e Ejemplo 1.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x.6 (derecha) y circuito el´ctrico del ejemplo 1. y t y(x) P(x. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. h . Supongamos que el voltaje U es constante y que i(0) = i0. Ejemplo 1.

2 =⇒ λ= log 2 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0.64 0.g. u ´ N0 = N0 e−λT . T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0. N (t0) = N0.00502281 1/dias 5568 a˜os n 0. E.000433217 1/a˜os n 47 min 0. Por ejemplo.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva. si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı.5110 a˜os 1.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.7) . o e Si llamamos a esa aportaci´n r(t). (1.62 0. que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.693147 = . lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t).32 4 Si h → 0.0315067 1/a˜os n 138 d´ ıas .000124488 1/a˜os n 9 −10 4. Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo. N (t0) = N0.81 0. (1.71 0. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).0147478 1/min 22 a˜os n 0.

y(1) = 0. 7. y ) = xy + y − y 2 = 0 F (x. y) = x2 + y 2 − 25 = 0. y. f (x. f (x. y = 6y + x2. y. y + x2y = x2 6. y. o o a o 1. f (x) = 3/4e−2x .5). y) = 1 + x2 − y = 0. y ) = y + y/x = 0 = 0. y + 2xy = x 4. y. f (x. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. y(0) = 2. f (x. y + 2y = f (x). f (x. y + y = xex 5. y) = e2x + ey−x − 1 = 0.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. y. y ) = yy + x = 0 F (x. . x y + y cos x = 1/2 sin(2x) 11. y ) = yy + x = 0 F (x. y. f (x. x y + y = x sen x Problema 1.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. y) = y − 2 2+x F (x. 4. Problemas de EDOs lineales Problema 1. Problemas Problema 1. y) = x3 + y 3 − 3xy = 0. √ 6. y ) = ex−y + ey−xy = 0 F (x. y) = x2 + y 2 + 1 = 0. y. y ) = (1 + x2)y − xy = 0 F (x. y. y) = x2 + y 2 − 25 = 0. 9. f (x. 3. y + y x = 0 3. 2. 2. y + y cos x = 0 √ 2. f (x. y ) = y − y = 0 F (x. y = 3y + e5x . 8. y + xy = f (x). 5. y ) = (y 2 − x)y − y + x2 = 0 F (x.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra.4. x y + y = x3 7. f (x) = 3e−2x . y = (y + e−x ) tan x 8. y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. f (x) = sen x 10. y) = y − ex + 2 = 0.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y.

c ∈ (0. (sol. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. t > 1 6 5. Encontrar la curva que pasa por (4. (1 + x2)y + 4xy = x. y(1) = 1/4. b ∈ R. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. ım a(x). 0 ≤ t ≤ 1 0. ∀x ∈ R. ∞). y(0) = 1. 2). 4. x→∞ l´ b(x) = 0. y = y + e−x sen(2x). x→∞ a(x) ≥ c > 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. y 0 (x/2. x→∞ a. x2 + 2y 2 = 24).0) y(x) t P(x.y) Q x n Curva del problema 1.15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . ım .14. Problema 1. y(0) = 0. b(x) ∈ CR . Problema 1. g(x) = 2. y + y = g(x). ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x).14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x.

Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. Supongamos que a = b.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. b−x 1 − e(a−b)κt . y(0) = 3. Cuando esto ocurre se dice que la EDO (2. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. donde el signo + o − diferencial propuesta.1) admite la factorizaci´n f (x. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. (2.1. si nos interesa el PVI con la condici´n a o √ 2.2 OTRAS EDOS DE PRIMER ORDEN 7 2. C = a/b. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). y) en la o EDO y = f (x. b−x x(0) = 0. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt .1 Resolver la ecuaci´n y = x/y. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 . Aplicaciones Ejemplo 2. Supongamos que la funci´n f (x.1. 2. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x).3 La velocidad de escape de la Tierra . y) = a(x)b(y). Por ejemplo.1) es o una ecuaci´n separable. y) (2. donde κ es la constante de proporcionalidad. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. luego x(t) = ab Ejemplo 2.2) como x(0) = 0. Ejemplo 2.2) cuando b ≡ 0.1.

lo cual nos conduce al valor v0 ≥ 2gR. Usando la regla de la cadena tenemos v gR2 dv =− 2 . 1 − ω2 vr ω2 = κ . r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. Ejemplo 2. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista.2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra.2Km/s.8m/s2 obtenemos v0 = 11200m/s = 11. (2. entonces. ω= κ > 0. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre.5 Resolver el caso r = 3. siendo R el radio de la tierra (que supondremos una esfera). 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 .4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. tenemos GM T = gR2.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR. por ejemplo. Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . v(0) = v0. . Ejercicio 2. Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). g Como ω > 0. Si usamos la ley de Newton tenemos dv GMT =− 2 . Poniendo los datos R = 6400000 metros g = 9. Como g = GMT /R2 . g Escojamos r = 2. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C.

en particular. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. r > 0. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. o .5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t).5) tenemos p(t) = rp0er(t−t0) . P. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. no hay o o a emigraci´n ni inmigraci´n). e Aunque el modelo funciona razonablemente bien para poblaciones grandes.6) Adem´s. p)p(t). a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t).5. Sea r(t. propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. F.4) cuya soluci´n p(t) = p0 er(t−t0) . h → 0.4) es una aproximaci´n bastante buena. Resolviendo la EDO (2. El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N).2. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. r − cp0 + cp0 er(t−t0) (2. Verhulst. p) = r. p(t0) = p0 . Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. Malthus (1766– e e 1834). As´ la o a ı.1. hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento.2 OTRAS EDOS DE PRIMER ORDEN 2. p r/c p(t0) = p0. (2. =⇒ p (t) = r(t. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t. Supongamos que la poblaci´n est´ aislada (o sea. constante. l´ t→∞ p(t) = r/c independientemente a ım de p0 . p). (2. p)p(t)h. r. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. gr´fica 2. c > 0. Luego p(t + h) − p(t) = r(t.

y(x0) = y0 > 0. y(1) = 0 6. y(0) = 0 3. x2y − 1 = cos(2y). cos(y)y + ex+1 tan y = 0 8. l´ x→∞ y(x) = 5π/4 ım 2 . (1 + x2)y = 1 + y 2 2. y = 1 − x + y 2 − xy 2 5.2 OTRAS EDOS DE PRIMER ORDEN 10 2. y(2) = 1 4.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. (1 − x)y = (x + 1)y. b > 0. 3xy = y cos x. y(1 + x2)y + x(1 + y 2 ) = 0 4. (x log x)y + 1 + y2 = 0 7. Problemas Problema 2. y(1) = π/2 1+x 5.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. cos(y)y = − x sen2y . a. cotg(y)y = x2 + 2 6. y = y(a + by). yy + x − 3xy 2 = 0. 2. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2.2. y = xy(y + 2) 3.

3 x =⇒ y= 3x2 1 + .3. x 2 4 −1/3 . x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. haciendo z = y 1−n . Esta ecuaci´n es una EDO de Bernoulli con n = 4. Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. Hacemos el cambio y = 1/x + 1/z. y =− 1 z − 2.8). dada una EDO de Riccati (2. En general. Ejemplo 2. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n. Veamos un ejemplo. 2 x z =⇒ 2 z + z = −1. En efecto.2 OTRAS EDOS DE PRIMER ORDEN 11 2. Supongamos que yp es una soluci´n particular de (2. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x).9 Resolver la EDO de Riccati y = y 2 − 2/x2. 1.8). y = y 4 z. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. que es lineal y por tanto podemos usar la f´rmula (1. La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x.3) que nos da o o x C z = − + 2. z = (1 − n)y −n y . y hagamos el cambio o z = y − yp . x La soluci´n la encontramos usando la f´rmula (1. mediante el cambio y = yp + 1/z.1. (2. Usemos la primera para resolver la EDO. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. o Ejemplo 2.8 Resolver la EDO y − 1/(3x)y = y 4 log x. n = 0. luego la EDO se transforma en 1 z + z = −3 log x. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. la podemos convertir en una EDO lineal. Pasemos a estudiar la EDO de Riccati.7) en una EDO lineal. x C − x3 . =⇒ z + (1 − n)a(x)z = (1 − n)b(x).3.7) La resolvi´ su hermano Jacob en 1696.3) para resolverla. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . Hacemos el cambio z = y −3 . (2.8) que hab´ considerado a˜os antes Jacob Bernoulli. y tenemos o 4 y = −y y /3. 2.

y) = f (x. x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. z = α + βF (z). (2. y). ty) = e tk f (x.11 Resolver la EDO y = (y + x2 − y 2 )/x. f (u) − u Ejemplo 2.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea.9) se transforma en la EDO separable dz = x + C. luego (2. Sea y = u x. Una funci´n e o f (x.2 OTRAS EDOS DE PRIMER ORDEN 2. Entonces o e f (x. ux) = x0f (1. N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones.4. entonces y = xu + u y la EDO (2. si f es homog´nea de orden 0. =⇒ (z − 2)2 − 1 = Cex . y) y f es una funci´n homog´nea de orden o e 0.3.10) se transforma el la EDO separable xu + u = f (u).2. entonces f (tx. En efecto. entonces z = α + βy . (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C. toda funci´n homog´nea de orden 0 es una funci´n de y/x. entonces o F (z) = z − 1 + 1/(2 − z). 2. z−2 =⇒ (z − 2)dz = x + C. Como z = y − 1 tenemos z = z−2− 1 . =⇒ z = 2 ± 1 + Cex . entonces la EDO anterior se transforma en la EDO y = f (y/x). Sea f una a e funci´n homog´nea de orden 0. o e o Supongamos que tenemos la EDO y = f (x. =⇒ α + βF (z) Ejemplo 2. y) se denomina homog´nea de orden k si para todo x. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. Adem´s.9) y hagamos el cambio z = αx + βy. √ por tanto y = 2 + x ± 1 + Cex . podemos perder las soluciones y = x + 1 e y = x + 3. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy).10 Resolver la EDO y = y − x − 1 + 1 . y). ty) = f (x. o sea. u) = g(u) = g(y/x). 12 Sea la EDO (2. que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. f (tx. . y y para todo t ∈ R. Si hacemos el o e cambio y = ux. u = y/x.

es f´cil comprobar que f (tx. 2. Para encontrar la otra soluci´n o o usamos que x = −f (y ).2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x.  =⇒ y = xt + t2 x t=− . de donde deducimos que o y = 0 o x + f (y ) = 0. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. La primera condici´n nos da una familia o de rectas y = mx + n. f derivable y con primera derivada continua (2. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). Para descubrir cuales son las rectas soluci´n basta notar que si y = c. =⇒ √ dx du = . lo que puede hacernos perder las soluciones y = ±x. 4 . ty) = f (x.5. x 1 − u2 Ahora bien. Esta es una EDO de Clairaut con f (z) = z 2. y).12 Resolver la EDO y = xy + (y )2. c ∈ R.11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0. si u = ±1. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. como hemos visto u = ±1. luego las soluciones son las familias de rectas y = cx + c2 . Luego si hacemos y = t. 2 y=− x2 . Ejemplo 2. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2. y la soluci´n singular o   x = −2t 1  y = xt + f (t). La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). y) = (y + x2 − y 2 )/x. as´ que hacemos a ı el cambio y = u x y obtenemos. √ 1 − u2 .11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ).

12) tendr´ una soluci´n en cuadraturas del tipo φ(x. y) = 0. y)) = 0.12) si y s´lo si (2. y) ∈ Ω. y) = N (x. entonces la soluci´n de la o o EDO ser´ φ(x. ∂N . Entonces. Por conveniencia reescribiremos la EDO y = f (x. y) (φ(x. para cierta funci´n φ(x. y) y N (x. ∂x ∂φ(x. o sea. sin agujeros. y) = N (x. la EDO lineal (1. ∂y ∀(x. y) ∂y ∂φ(x.12) a o o d es equivalente a la expresi´n dx (φ(x. φ(x.12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x.13) o o ∂φ(x. o lo que es lo mismo.2) y + [a(x)y − b(x)] = 0. y) tal que o ∂φ(x.14) Por dominio entenderemos un conjunto abierto de R2 y convexo. y).12) se puede reescribir de la forma dx (φ(x. Por ejemplo. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. dadas dos o funciones M (x. y) existe una funci´n φ(x.12) La EDO (2. La respuesta la da el siguiente o d (φ(x. Teorema 2. o o Como 0= d ∂φ(x. y) tal que se cumpla la condici´n (2. y)) = 0 si y s´lo si.12) se puede escribir de la forma 0. y). y) = C es una o d soluci´n de (2.12) se puede escribir de la forma dx (φ(x. y)) = 0.12) se puede expresar de la forma d (φ(x. dx x Obviamente no cualquier EDO del tipo (2. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . y) en la forma equivalente N (x. (2. y). ∂y (2.13 Sean M (x. y) = C. (2. y) ∂M (x. y) = . En general no es trivial deducir si una EDO del tipo (2. y) ∂φ(x.2 OTRAS EDOS DE PRIMER ORDEN 14 2. y) = M (x. y) dos funciones tales que existan todas las derivadas parciales ∂M . no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. y)) = + = + y. Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. por ejemplo. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. y). y) y N (x. ∂x es necesario y suficiente que ∂N (x.13) d Por ejemplo. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. ∂x ∂y 2 ∂φ(x. y)) = 0. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. y)y + M (x. y)) = 0.6. As´ surge la pregunta ¿cu´ndo la EDO (2. . y) ∂φ(x. y). y). y)) dx = d (φ(x. y) = C si y s´lo si (2. y) = C?. y)) dx = 0. y) = M (x. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0.

toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω. En este caso y + [a(x)y − b(x)] = 0. ∂φ(x. y) = y + g (x) = 2x + y − sen x. y) = C. ∂x as´ φ(x. ∂x De la primera deducimos ∂φ(x.14) en cierto dominio Ω ⊂ R2. o (x. y la soluci´n. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2. en cuadraturas. Ejemplo 2.13).y) que ∂N∂x = ∂M∂y . y encontrar su soluci´n. luego ∂M∂y = 1 = ∂N∂x . Vamos a resolverla. y) = C.15 es exacta. y) = 2x + y − sen x y N (x. ı =⇒ g(x) = x2 + cos x. luego M (x.2) es exacta. as´ que no es exacta. es φ(x.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2.y) = ∂N∂x . pero ∂φ(x. y) tal que φ(x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x. y) = x+h (y) = 3y 2 +cos y +x.15 Para que la EDO (2. y) = x2 + xy + cos x + h(y). y) = y 3 + sen y + xy + g(x). o Ejemplo 2.14 Una EDO del tipo (2. define la o soluci´n de (2. ∂φ(x.y) (x.12) en Ω. es exacta. Como la EDO es exacta entonces u existe φ(x.y) ∂M (x. es decir existe una funci´n φ(x.12) se llama exacta si N y M son funciones tales o (x. ∂x .12) es inexacta (o no es exacta) si o ∂M (x. luego ∂φ(x.17 Comprobar si la EDO lineal (1.y) ∂y = 3y 2 +cos y +x. ∂y =⇒ h (y) = 3y 2 +cos y.y) ∂y = ∂N (x. Adem´s.y) (x. y) = y 3 + sen y + xy + x2 + cos x = C. y) = a(x)y − b(x) y N (x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. ∂y φ(x. o sea. Corolario 2.18 Una EDO del tipo (2. =⇒ h(y) = y 3 +sen y. Para calcular h(y) usamos que φ(x. y) = 3y 2 + cos y + x.y) En este caso M (x. y) tal que se cumple (2.y) . y) = x2 + xy + cos x + y 3 + sen y = C.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. luego seg´n el corolario 2. y) = 1. y) = 3y 2 + cos y + x. luego (x. y) = 2x + y − sen x.

y)y es exacta.12).15) es ıa o m´s complicada de resolver que la EDO original. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. luego ρ(x. en cuyo caso ρ(y) = exp( S(y)dy). cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. y) ∂ρ(x. y) = ∂y ∂x si y s´lo si o M (x. o o o En el primer caso (2. Ahora bien. y)x2 cos y = xey + ρ(x. Factores integrantes 16 Definici´n 2. y) + ρ(x. y)N (x. y) ∂N (x. y) de la derecha es una funci´n o o o s´lo de y. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. ∂y ∂y ∂x ∂x (2. y)M (x.15). o Por ejemplo consideremos la EDO x2 sen y + xey y = 0.15) Es decir. y) − 1 dρ(y) ∂x ∂y = = S(x. ∂y ∂x la cual es no trivial de resolver. ρ(x) dx N (x. y)N (x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y). y) ∂M (x. para que admita un factor integrante ρ(x. Obviamente no es exacta. ρ = ρ(y). y) = N (x. y) luego ∂N (x. y) ∂ρ(x.14). y) ∂ρ(y) + ρ(y) = ρ(y) .2 OTRAS EDOS DE PRIMER ORDEN 2. y) cumple o o con la condici´n (2.1. y). y) si y s´lo si ρ(x. dada la EDO (2. o ∂M (x. ∂y ∂x ∂x . y) de la derecha es una funci´n o o o s´lo de x. una ecuaci´n inexacta tiene un factor integrante ρ(x. ρ = ρ(x) o o o 2. y) ∂M (x. cuando la funci´n ρ es una funci´n que s´lo depende de y. ∂y ∂y ∂x ∂ρ(x) ∂N (x. y)M (x. y) ≡ 0 es un factor o integrante de (2. y) + ρ(x) . y) − 1 dρ(x) ∂y ∂x = = R(x. y) ∂ρ(x. y) + ρ(x. y)ey . se dice que ρ(x. y) ∂N (x. una EDO es exacta si y s´lo si se tiene la condici´n (2. y) ∂N (x. y) + ρ(x. o sea. De hecho en la mayor´ de los casos la ecuaci´n (2.19 En general. y) ∂M (x.15) es f´cilmente resoluble.12) si la EDO ρ(x.6. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. y) ∂ρ(x.15) nos da ρ(x) luego ∂M (x. Veamos a continuaci´n dos de ellos: a o 1. y) . o En el segundo caso tenemos M (x. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. Entonces. y) + ρ(x. en cuyo caso ρ(x) = exp( R(x)dx). ρ(y) dy M (x. y) = N (x.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

11.0162994 -0. Adem´s.6876 0.05 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO. Una pregunta natural es. y(0) = 1 con N = 20. 12.0178206 -0. 4. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).95 0.781636 0. 20.694429 0.7 0. 9. a Consideremos ahora el problema y − 1 − y 2 = 0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x. 10. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4). 13.698658 0.25 0.65 0.9 0.704707 0. 40 y(0) = 0. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha).676582 0.70483 0. 19. 60 40 30 20 20 0.5 2 1 1.5 0.55 0.67535 0.871416 0.686241 0. x ∈ [0.7039 0.5 1 1.0181506 -0.807602 0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden.797562 0. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?.0185892 -0. 5.6 0.0169031 -0.15 0. xk 0 0.694092 0.0174074 -0. 0.909675 0.2 0.725256 0.726841 0.0100397 -0.697623 0. 7.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0. x ≥ 0. 0.35 0.746675 0. 15. Los resultados se pueden apreciar en la o gr´fica 4 (derecha). a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2.2 OTRAS EDOS DE PRIMER ORDEN k 0 1.697474 0.723482 0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente. 17. 14.676684 0.00666595 -0.694733 0.716972 y(xk ) 1.00245885 -0.3 0.952459 0.8 0.0187748 -0. 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).829012 0.0137992 -0.68072 0. 6. 16.00467484 -0. por tanto. y(xk ) 1.5 10 -20 -40 0.770184 0.680253 0.0155874 -0.74064 0. .85 0.0147575 -0.713139 0.1 0.693171 0. o o Si usamos un esquema de 20 puntos en el intervalo [0.0127016 -0.75 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x .45 0.0114527 -0.00844901 -0.759376 0.0184046 -0. 3. 18.95 1.905 0. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.710499 0. y(0) = 0.837462 0. 8.4 0.735759 y(xk ) − y(xk ) 0 -0.0187107 -0. 2.713061 0.86475 0.

El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). N. y) en el intervalo xk . de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . yk ) (ver figura 6 izquierda) xk +h xk f (x. 1. es decir xk +h xk f (x. yk ) + f (xk+1 .17) en el tercer orden. yk+1 )] . . yk ) + f (xk+1 .7. y0 = y(x0 ).y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. y0 = y(x0 ). es un m´todo de orden e a e uno. de forma que tengamos yk+1 = yk + hf (xk . yk ).20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. yk ) + h2 ∂f ∂f (xk . k = 0. (2. yk ) . lo que nos conduce nuevamente al esquema de euler (2. yk ) (xk . yk+1 )] . es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”.2 OTRAS EDOS DE PRIMER ORDEN 2. y(x))dx. N. 1.18) f(x.19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk . o sea. xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. . Por ello se suele usar una o o modificaci´n del mismo. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . yk ) + f (xk+1. . 2 . . yk + hf (xk . 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. y(x))dx ≈ hf (xk. .2. es “poco preciso”. yk ). ∂x ∂y 2 y0 = y(x0 ). o Para ello escribamos la EDO original y = f (x. yk ))] . . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. 2 k = 0. . . (2. y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . yk ) + f (xk .

7039 0.00904012 -0.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x. 8.694733 0. 1].00550115 -0. 16.0119578 -0.5 0.732422 0.723482 0.1 0.2 0.6 0.8 1 0.8 0.0138047 -0.00450443 -0. x ∈ [0.952459 0.85 0.4 0.684853 0.00821835 -0. 13.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.00982318 -0.55 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x. 20.2 0.693171 0. 7.775186 0.759376 0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado.00236077 -0.7 0.69333 0.867958 0. y(xk ) 1. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .00120885 -0.95125 0.909675 0.703238 0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.75 0.0148955 -0. 15.3 0.832957 0.708079 0.00345845 -0.719873 y(xk ) 1. 0.01 0.005 0.0132186 -0.713061 0.00735595 -0. 3.907314 0.681515 0. 4. 11.0125 0. 12.35 0.682134 0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.0175 0.0126034 -0.0143632 -0.0112803 -0. 6.4 0.95 1. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1.698244 0.0154026 -0. 17.690467 0.680567 0. 19.45 0.65 0. 5.716216 0.015 0.694092 0.713139 0.0025 0.781636 0. 2. 10.871416 0.6 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).735759 y(xk ) − y(xk ) 0 -0.15 0.0075 0.686343 0.74064 0.698658 0.8 0.05 0. 18.00645092 -0. 14.95 0.75202 0. xk 0 0.0105693 -0. 9.85 0. y(0) = 1.8021 0.807602 0.9 0.75 0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.697623 0. 0. 0.9 0.70483 0.837462 0.725256 0.25 0.

2. (1 − x3)y − 2(1 + x)y = y 5/2 . 4. 5. Considerar los casos ae = cb y ab = cd. n = 1. (x − x y)y = y 3. (x + y + 2)y = 3x − y − 6. 7. y = 2(y/x) + (y/x)2 √ 2. (2x + 4y + 3)y + 2 + 2y + 3 = 0. . 5. y = (ax + by)/(cx + ey). Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. 7. (4x − 3y − 6)y + x − 2y + 1 = 0. y − 2xy + y 2 = 5 − x2. y + 2yex − y 2 = e2x + ex . Resuelve las siguientes o e EDOs 1. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)).24 Supongamos que tenemos la EDO y = f (y/x). xy − y = xk y n . 3.22 Resolver las EDOs de Bernoulli 1. v = y/x. Como caso particular resolver la EDO y = (x + y)/(x − y). x3 sen yy +2y = x (resolverla respecto a x y no a y. y = x3 + 2y/x − y 2 /x. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. y = y/x + tan(y/x). xy + y = y 2 log x.2 OTRAS EDOS DE PRIMER ORDEN 23 2. 3y + y 2 + 2/x2 = 0. 3. yp = −x2. n + k = n. 6. 6. 4y 3 y + 4xy 4 = 4x.23 Resolver las EDOs de Riccati 1. 4. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. 2. Problema 2. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). y = 1 + y/x + (y/x)2. yp = x.8. 4. y + 2y = ex y 2 . y + y = xy 3 . 5.

y(t)dt. 3xt + y 2 + (x2 + xy)y = 0. 8. Problema 2.2 OTRAS EDOS DE PRIMER ORDEN 24 8. e En caso de que no lo sean.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. 3x2(1 + log y) − (2y − x3/y)y = 0. 2. Resolver la EDO y = (ax + by + m)/(cx + ey + n). 4. x(ey − y ) = 2. y(0) = 1. 2. a ser posible. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). (x2 − 2y + 1)y = x. un factor integrante.28 Resuelve los siguientes problemas de valores iniciales 1. e 1. 4. (x2 + y 2 + x) + yy = 0. 2xy 3 + 3x2y 2 y = 0. encuentra. 5. 6. 1. Problema 2. Problema 2. 3. y = (x − y + 5)2. 0 4. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. 3. y(2) = 1. 2xy + (x2 − y 2 )y = 0. 2. y = sen(x − y). xy − y − y 2 = 0. y(1) = 1. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. y = 2(y − x) + (y − x)2. 2. e−y − (2y + xe−y )y = 0. y(2) = 1. . 3. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. y/x + (y 3 + log x)y = 0. 3.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). 4. y = x + y − 1. y(x) = x + 1 + 0 x x x y(t)dt. 2x(1 + x2 − y) − x2 − yy = 0. 3x2 + 4xy + 2(y + x2)y = 0. 7.

y(0) = 1. Problemas del m´todo de Euler e Problema 2. y(0) = 0. y = xy − ey .30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. e 1. y + 2ey = x2 + y 2 . n = 0. y = xy + (y )n. y = xy + log(y ).2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. (y )2 + x3y − 2x2y = 0. b y k. y + sen(x)y − cos(x)y 3 = 1 + x2. 2. y = k(a − y)(b − y). 4. 2 2 . y = ex y −2 . z(0) = 1. 25 5. y(2) = 1. y(0) = 1. b. z − 2xz = 2. y(0) = 0. 7.29 Resolver las EDOs de Clairaut 1. a. 1. 3. 6. y = 1 + sen x(1 + y 2 ). 4. (toma distintos valores de a. 5. k > 0. y(0) = 1. 2. y = ex y. y = xy + 1 + (y )2 . √ 3.

. . yn ). . 2 (3.. yn (x) yn (x) fn (x. .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). k = 1.   .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). Y ). .  . . yn )     2    Y (x) =  . y1 . .3) (3. . . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   . . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x). 2 . . . .. . . bn (x)    .. y2 . . y1 . . vamos a denotar por Y . y ). .4) Cuando B(x) = 0. y1 . o sea cuando todas las componentes del vector B son cero. .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior.  . n es una funci´n lineal de la forma o n fk (x. y2 . y si al menos una componente de B es no nula. yn ) = j=1 akj (x)yj (x) + bk (x). .  . y2 . . .3 SISTEMAS DE EDOS 26 3. . . e e . . an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . . . n 1 2 n n donde y1 .  . y2 . Y ) =  . . . . yn ). .1) . y . . as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. . . . .  . . yn son funciones de x desconocidas y f1. Usando lo anterior podemos reescribir (3. yn )  y2 (x)   y (x)   f2(x. es decir cuando fk . y2 . . fn son ciertas funciones conocidas. y1 . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . . . . dx (3. y . Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. . Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). un sistema de ´stas es mucho m´s complejo. . no homog´neo.  .  . k = 1. n. . . F (x. . . diremos que SEDO es homog´neo. Y (x) =  . . .    y (x) = f2(x. .    y (x) = f (x. .  . . o sea. y2 . y1. . . .  (3.1) en la forma vectorial d Y (x) = Y (x) = F (x. Por comodidad vamos a usar la forma vectorial del sistema anterior. . . y1. Y y F son los vectores       y1 (x) y1 (x) f1(x.  . .

Yk (x) del PVI. i = 1. o e Nota 3.1. . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas.4 Para que las soluciones Y1 (x).6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. . entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. .1 . Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . no obstante. . Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. Y0. . Y0. . Entonces el PVI. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . Y = A(x)Y .3 SISTEMAS DE EDOS 27 3. . En particular.8 Juntando los teoremas 3. existen unos unicos coeficientes c1 . . Nota 3. . . .3 Sean Y1 (x). A(x) ∈ Rn×n y continua en R. el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x). Yi (x0) = Y0.5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. . . Teorema 3. k sean linealmente independientes es suficiente que las condiciones iniciales.5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. para x = x0. Teorema 3. entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. Para que los vectores (funciones) Y1 (x). = x0 2 x0 x0 Teorema 3. u Corolario 3. (3. . Los vectores (funciones) x x y x2 x2 . . . Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente.1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. . . obviamente son dependientes pues x0 x2 0 .2 Sea A(x) ∈ Rn×n .3 y 3. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y .7 Si Y1 (x). Entonces. la soluci´n del PVI. Yn (x0)| = 0. . son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. O sea. . . . Y = A(x)Y .k sean linealmente independientes.6 Sea A(x) ∈ Rn×n . . . . e o Corolario 3. . . . Nota 3. . e o Teorema 3. . o sea los vectores.i . Yk (x) soluciones del sistema Y = A(x)Y . ´ o Comenzaremos estudiando el sistema hom´geneo. . o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). Y = A(x)Y + B(x). .

vn linealmente independientes en cuyo caso la soluci´n general es.2. (3. Autovalores simples A ∈ Rn×n .10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y.7) en (3.6) Busquemos la soluci´n de (3. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 . seg´n o u el teorema 3. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. (3. λ2 = 7. . .5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). =⇒ v2 = 2 1 . . por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 . e e . .3 SISTEMAS DE EDOS 28 3. (3. k = 1. Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes. (3. . Es decir. Calculamos los autovectores. . Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino.7) donde λ es cierta constante y v un vector constante. n. . k = 1. de la forma n Y (x) = k=1 c k e λk v k . . Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. es decir estudiaremos el problema (3.1. .6) en la forma o Y (x) = eλx v. cn son constantes arbitrarias y λk . . n. . . . .6) tenemos.8) donde c1 .2. . como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. Ejemplo 3. son los autovalores asociados a los autovectores vk .3. =⇒ v1 = −2 1 . 3. . Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. Sustituyendo (3.

λ2 = −1 + i. exp[(x + t)A] = exp(xA) exp(tA).3. 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . 5. B con AB = BA. la inversa [exp(xA)]−1 = exp(−xA). exp(0A) = In y para todo x ∈ R exp(xOn) = In . son complejos. As´ pues. 2 −5 2 −4 Y. Para toda matriz A. si tenemos Y (x) = eλx v = Y (x) + i Y (x).11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. Para todos x. k! 2 n! (3. Y2 (x) = e−x − 3.12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. Para toda matriz A. La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x .3 SISTEMAS DE EDOS Ejemplo 3. . en nuestro ejemplo ı λ1 = −1 − i. t ∈ R y toda matriz A. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. Proposici´n 3. donde On es la matriz nula. Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY . 29 Es decir. Para todas las matrices A. exp[x(A + B)] = exp(xA) exp(xB). entonces el complejo conjugado λ es el autovalor asociado al autovector v. 2. Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. entonces Y (x) = eax ( v cos bx − v sen bx). d dx exp(xA) = A exp(xA) = exp(xA)A. sen x . Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . 4.9) donde la convergencia la entenderemos elemento a elemento. Ahora bien. 3. La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). Para toda matriz A.

Ak = P D k P −1 tenemos exp(xA) = pero.3 SISTEMAS DE EDOS 6. N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo.. .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. . . .    . siendo D una matriz diagonal. . Y (0) = ei que adem´s son linealmente independientes por el teorema 3. . .. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. exλn 0 0 . −1 2 − λ =⇒ λ1 = −1. Para todo x ∈ R. Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. como   D=   λ1 0 · · · 0 0 λ2 . Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . En efecto. . . . .        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . . . . Y = AY con Yi (0) = ei .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. a En este caso existe una matriz P tal que A = P DP −1.14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . λn 0 0 . λ2 = 4. o o Corolario 3. n obtenemos n soluciones v1. Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. . con A ∈ R e siempre tiene n soluciones linealmente independientes. . . e Definici´n 3. 0 . 2. exp(xIn) = ex In. . Entonces como para todo k ∈ N. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . . 0 . como hemos visto. . para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . . siendo (ei)i la base can´nica de Rn . . . vn del PVI. . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . . . . . Si escogemos o o e v sucesivamente como ei . . . Y = AY . =⇒ de donde se deducen nuevamente las soluciones del sistema. As´ pues.13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . . . . . i = 1. . y por tanto el PVI. Y = AY . las columnas de exp(xA) son soluci´n de los PVI. .

independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . i = 1. Una soluci´n es por tanto e λx v1. Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . . . . luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . P = 3 −2 1 1 . . . para λ2 = 4 obtenemos v2 = (−2. . 1 5 2 5 3 5 . . k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . P −1 = 6 5 ex 2 5 ex −1 5 . k. o 2. . .) Calculamos todos los autovalores λi y los correspondientes autovectores vi . o o donde v1 es el autovector asociado a λ. . . xk x2 (A − λIn)2 v2 + . i = 1. 2. n. 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. + (A − λIn )k v + . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. . Si tenemos entonces n autovectores v1 .) Si k < n entonces hay autovalores m´ltiples. . El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. . k = 1. x2 xk (A − λIn)2 v + . 2 k! Es decir. Entonces otra soluci´n. Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . . = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. =⇒ v1 = 3 1 . .4. . =⇒ x1 = 3x2. ¿Qu´ hacer cuando hay una ra´ m´ltiple. Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. 31 An´logamente. exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. . 1)T . El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. . o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. . luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . . . + (A − λIn )k v + . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1).3 SISTEMAS DE EDOS Calculamos los autovectores. . por ejemplo.

Para cada autovalor. la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . deducimos que β = 0. 0 0 . . Y ı as´ con cada uno de los autovalores m´ltiples. e ´ Adem´s. luego tomando4 β = 1. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  .3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. . y as´ sucesivamente hasta completar el subespacio. (3. o . 0. 0. . Supongamos que ma > mg . x3 ∈ R. . los autovectores correspondientes son v1 = (0. 2. vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. 0. Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. =⇒ x1 = 0. 0)T . 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . aa generan todo el subespacio correspondiente a λ. . . 0)T = 0. x2 . Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . es decir    x1 0 0 0 (A − I)2 v = 0. buscamos la soluci´n del correspondiente subespacio (o sea. respectivaa mente. luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. 0 0  pero como (A − I)v3 = (β. y (A − λIn)3 v = 0. Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  .6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. . 1)T y v2 = (1.10) Cualquier elecci´n de α y β es posible siempre que β = 0. Aj ∈ Rn . ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. . ⇐⇒  0 0 0   x2  = 0. Luego tenemos dos soluciones independientes     0 1 2x  x . Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n.

Ejemplo 3. 0. Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0.3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj .15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2.4. con a1 y a2 cualesquiera. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. (3. . 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x . En efecto. entonces tenemos Y (x0) = Y0 = V (x0)c. cn )T . entonces si definimos el vector c = (c 1. a3 a6 =⇒ a3 = a5 = a6 = 0. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. . la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. (3. por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . es decir. .            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x .12) . . .10. . 1. exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). Sea ahora el PVI. . mk − 1 sean nulos.  1 0 1 0  Y. o e 3. j = 0. luego c = V −1 (x0)Y0 .1. o Y = AY con Y (x0) = Y0 . a4 = a2 . . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos.

En este caso la matriz exponencial es la matriz del ejemplo 3.16 La soluci´n general del SEDO (3. si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x). 12 . 1)T y λ2 = 7 y v2 = (2. El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x). es decir Yp (x) = AYp (x) + F (x). cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt. 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x . Y (x0) = o Y0 .13) es de la forma Y (x) = Yh(x) + o o Yp (x). (3.15. Teorema 3.5. Proposici´n 3. −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3. luego aplicamos (3. donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. Y (0) = 0 1 . −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . donde C ∈ Rn . (3.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . En particular. v1 = (−2.14) Ejemplo 3.3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5. . Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = . exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e .13). −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) .14).17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x).13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad.

exI = ex I. a) y1 = y1 + 2y2 . Y (0) =  1 . a) A =  0 1 2 . b) A =  0 2 −1 . 6. Problema 3. . 3. 1 12 3 1  . o Problema 3. a) A = 2. Y (0) = b) A = Problema 3.24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . entonces ex(A+B) = exA exB = exB exA . 4. A2n = I2 . a) A =  4 −1 −4 4 4 1 −8 8 .20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . ∀x. Y = AY . Y (0) =  2 . exA es invertible y su inversa (exA )−1 = e−xA .22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3. del problema de valores iniciales en los siguientes casos: 1. 2. y B 2n = (−1)nI2 . e(x+t)A = exA etA . o sea AB = BA. e0A = In . Si A y B conmutan. b) A = −2 3 2 −5 2 −4 . o o en su caso. Para todo x ∈ R. Y (0) = 2 1 . d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . Problemas Problema 3.19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. 3. 1. Como aplicaci´n calcula exC con C = o a b −b a .6. Prueba que A2n+1 = A. B 2n+1 = (−1)n B. con Problema 3. cuya matriz de coeficientes es . In es la matriz identidad n × n. 5. Usando lo anterior calcula las matrices exA y exB . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4.23 Resuelve los sistemas hom´geneos o 1. 0 1 2 −1 0 0 2 = AexA . y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . 2.3 SISTEMAS DE EDOS 35 3. b) A =  0 1 0 .  0 1 −1 . t ∈ R.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . 3. 0 0 2 0 0 2 b) 2.19). Problema 3.

x =v . Uc en los siguientes casos: (a) V (t) = 0. i1(0) = i2(0) = 0. A = 0 3 2 1 ex cos(2x) 1 1 sen x  . c) A =  2 1 −2 . Uc(0) = 10. A = 2. c) A = . la correspondiente soluci´n del problema de valores iniciales cuando o 1. en su caso. 2 1 −1 Problema 3. β < ω.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. con x(0) = x0. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . 0 0 5 3 2 1 36 1. 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . b) A = Problema 3. A =  1 12 3 1 2 −5 2 −4 . . Y (0) = . sabiendo que su soluci´n es acotada si x → +∞. Y (0) = 2 1 0 0   1 −1 4 2.26 Resuelve los sistemas lineales 1. B(x) =  0 . a) A = . a) A =  3 2 −1 . i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . Uc 50 −50 −50 Uc 0 Se pide determinar i1. B(x) = x ex .3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . B(x) = . Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. A =  3 2 −1 . i2. B(x) =  . e 3. Y (0) =  1  4. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. v(0) = 0. o 2.

. k = 1.27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). . . Problema 3. k=0 . m. 2. . 2. . Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. i1(0) = i2(0) = 0 = Uc(0) = 0.3 SISTEMAS DE EDOS (b) V (t) = 10. A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x). Y. . fk ∈ Rn . k = 1.28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). entonces. m. Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. . . la soluci´n del SEDO Y = A(x)Y .

N´tese que cuando f (x) ≡ 0. y (x0) = y0 . una EDO del tipo (4. . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x).  . es decir. y β ∈ R..1) Cuando f (x) ≡ 0. . . y (n−1) (x0) = y0 (n−1) . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f.´ 4 LA ECUACION LINEAL DE ORDEN N 38 4. . o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x).  . diremos que la EDO (4. (4. .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. . .1) es hom´genea.  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . . e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 . . .   . .. αy1 + βy2 tambi´n es soluci´n. = .  +  . .  . . . . (4.  . e a Proposici´n 4. (4.    .   . ⇒ dx . entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4.  ..   dx  .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn . zn(x) = y (n−1) (x)  dx Es decir. que si tenemos dos soluciones y1 e y2 de la ecuaci´n. d  .1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. en caso contrario es no hoo mog´nea. .1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). .2) Usando esta notaci´n podemos escribir (4. .  . . . para cualesquiera o que sean α.3) es lineal.  .  . La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x). (4. el sistema anterior o se transforma en un sistema homog´neo.1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes.4) .

y (x0) = y (0). . . Sustituyendo esta o funci´n en la EDO (4. . .3) con coeficientes constantes seguiremos la misma idea que para los sistemas. en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R. .5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). . o Teorema 4. o 4. . . cm ∈ R. si λ = α + iβ. yn de la EDO (4. ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 .4 Dadas n soluciones y1 . Es decir. definido por o y1 (x) y1 (x) ..7) donde pm−1 es un polinomio de grado m − 1 en x. 2. . . Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . es decir buscaremos la soluci´n en la forma y(x) = e λx .1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 . Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. Lo anterior nos indica una estrategia para resolver el problema: 1. o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. . (4.I. . . . Obviamente si λk es complejo.´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. . . . Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. yn ](x) = y2 (x) y2 (x) . . n generan el espacio soluci´n de la la EDO (4.1.3) coincide con (4. Entonces el P.V. . . siendo yp o una soluci´n particular de (4.3) es un espacio vectorial e de dimensi´n n. . asociado a (4. Teorema 4. entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x).3 El conjunto de soluciones de la EDO homog´nea (4.2 Sean a0 (x). . y1 (n−1) W [y1 . . (4. . o . (n−1) ··· ··· .3). .1) en la forma y(x) = yh(x) + yp (x). Finalmente. y (x0) = y0 que escojamos. .1). es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . c2 . (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. . (n−1) = 0 ∀x.6). . . Si alg´n λk es m´ltiple de multiplicidad m ≤ n. . an−1 (x) funciones continuas en R. . . c1 .6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. .3).3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. yn ](x)..3). k = 1. . yn (x) yn (x) . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4.

A. obtenemos que la soluci´n o o general de (4.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . la soluci´n general de (4. λ. Entonces. q ∈ R. A. i = −1. ıa Caso de ra´ ıces complejas. Las soluciones de la ecuaci´n caracter´ o ıstica (4. o o e El caso general es completamente an´logo. δ ∈ R. (4. y2 (x) = eλ2x . B ∈ R.8) (4. (4.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden.9) ser´n a p2 − 4q −p − p2 − 4q . Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ).10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) .10) Luego. entonces la ecuaci´n caracter´ o ıstica (4. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . y2 (x) = eλ2x . λ1 = λ + iω. en este caso. Sea p2 = 4q. y(x) = A eλx cos (ωx + δ) . equivalentemente. λ2 + pλ + q = 0.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . entonces la ecuaci´n caracter´ o ıstica (4. . Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. Luego. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ. 2 2 y la ecuaci´n homog´nea (4. o. 2 2 y la ecuaci´n homog´nea (4. Caso de dos ra´ ıces reales iguales.3 y la ecuaci´n homog´nea (4. λ2 = . entonces la ecuaci´n caracter´ o ıstica (4.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . Sea p2 < 4q.6) de la ecuaci´n (4.8) tiene la forma o . A. φ ∈ R. 2 2 Caso de dos ra´ ıces reales y distintas. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 .9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . B ∈ R.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x .8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . B ∈ R. A.7) tenemos que la soluci´n generada por λ es. usando (4. ω ∈ R. . como se pretend´ probar. λ2 = λ − iω.9) tiene una unica soluci´n real λ = −p/2. p.9) La ecuaci´n caracter´ o ıstica (4. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. En efecto. Sea p2 > 4q. la soluci´n general de (4.

entonces cualquier constante es e soluci´n.13) siendo pn un polinomio de grado n.12).12) siendo pn un polinomio de grado n. a o 4.2. v + (2c + p)v + (q + pc + c2 )v = pn (x). q = 0. (4. (4. Este m´todo obviamente funciona si q = 0 (¿por qu´?). Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). Ahora bien. como la EDO homog´nea es y + py = 0. .13) e igualando coeficientes.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. e e e si tenemos la EDO y + py = pn (x). p.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4. a = 0. por lo que nuestra EDO (4. (4.2. por tanto a0 en la expresi´n anterior puede ser cualquiera. pero ¿qu´ ocurre si q = 0?.14) luego siendo pn un polinomio de grado n.1. Para resolverlo hacemos el cambio y(x) = ecx v(x). si sustituimos la soluci´n anterior en la EDO (4. En efecto. (4.2. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x).2. as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero.14) se reduce al caso anterior (4. q ∈ R. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}. f (x) continua. La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x). de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n. 4. o sea. an = 0. la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn.12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x).

4. la primera por y2 y la segunda por y2 . la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. f1. a Ejemplo 4. con c1 y c2 tales que c1 y1 + c2 y2 = 0.4). u. c1 y1 + c2 y2 = f (x). la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 . 3 ex e3x .2. y2 ](x) = o W [ex . W [y1 . y2 ](x) (4. Como W [y1 . Para ello multiplicamos la primera por y1. 6 =⇒ yp (x) = e2x . W [y1 . Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. la f´rmula (4. entonces L[u] = f1 y L[v] = f2]. funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4.18) nos da o c1 = c1 (x) = ex . de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . para obtener c1 [y1 y2 − y1 y2 ] = −f y2 . y + py + qy = pn (x)ecx cos(ωx). o e . v. lo cual es consecuencia de la linealidad L.17) De esa forma tenemos que resolver dos EDOs de primer orden.15) siendo pn un polinomio de grado n. Para resolver este caso notemos que si y(x) = u(x) + iv(x). Ahora bien.11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes.3. y2 ](x) c2 (x) = f (x)y1(x) . Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). 3 e−x . pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas.18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x. Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). c2 = − =⇒ 2 2 Por tanto. La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . e−x ] = −2.´ 4 LA ECUACION LINEAL DE ORDEN N 4. [y1 y2 − y1 y2 ] = W [y1 . Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). o bien. (4. f2 funciones reales. El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4.5 Resolver y − y = e2x . 42 Veamos ahora como resolver los casos (4.16) (4.2.4. 2 c3 (x) = − e2x .

entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). Aplicaciones Ejemplo 4. x + 2αx + ω 2 x = f (t). f = 0 y α = 0.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). 2m m m (4. o equivalentemente. o + c2 e−αx− √ α2 −ω 2 x . δ = arctan(ωx0 /v0). A= √ a2 + b2.20) cuya demostraci´n es inmediata. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. x PSfrag replacements 2.´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. o sea. . basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado.6. Supongamos ahora que eliminamos solamente la fuerza externa. Entonces la EDO (4. α= a k F (t) > 0.3. δ = arctan(b/a). (4.19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . f (t) = . ω 2 = . Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x). 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ).

Veamos el caso general y. Si α > ω. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. Ω = ω la amplitud es m´xima. llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. se suele denominar . que decrece exponencialmente a cero. En este caso se dice que el movimiento es amortiguado ya que aunque oscila. (ω 2 − Ω2)2 + 4α2 Ω2 (4. Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. que tambi´n decrece exponencialmente a cero.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ).´ 4 LA ECUACION LINEAL DE ORDEN N 2a. consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt . 2 −Ω Como se ve en la f´rmula anterior.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). 2b. Si usamos la identidad (4. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. entonces. Si α < ω. 3. es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . en este caso m y k. e 2c. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . Si α = ω. Obviamente para o forzadas: resonancia. por simplicidad. entonces. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. que decrece oscilando exponencialmente a cero (ver figura 9 derecha).

La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. Veamos ahora que ocurre si α = 0. Figura 11: Resonancia en un sistema sin rozamiento. Desde ese mismo d´ se observ´ que o u ıa. f0 t f0t iωt = e sen(ωt). Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. si t → ∞. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. o sea si no hay rozamiento. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). 2ω N´tese que a diferencia del caso con rozamiento. en 1831. Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. en ´ste. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. o . Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. Inglaterra). Por ejemplo. Figura 12: El desastre del puente de Tacoma. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. En este caso tenemos que repetir el proceso anterior lo que nos da. Este puente se abri´ al p´blico el 1 de julio de 1940.21) que nos da. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido).´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente.

L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). r < ω En particular. la carga por unidad de tiempo. si Ω = ω tenemos la soluci´n o u0 t sen(ωt). o n o El puente parec´ aguantar bien. equivalentemente. es m´s varios expertos aseguraban que todo estaba bajo ıa a control.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t .8 Los osciladores acoplados . q + 2rq + ω 2 q(t) = u(t). o Ejemplo 4. U(t) Figura 13: Circuito RLC del ejemplo 4. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 . 2ω que es no acotada. (ω 2 − Ω2)2 + 4r 2Ω2 (4. en este fen´meno se basan los equipos de radio actuales. o.19). Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t).     (c1t + c2 )e−αt . Obviamente la EDO anterior es totalmente an´loga a la EDO (4.22) siendo β = |r 2 − ω 2 |.´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. ω 2 = 1/(LC) y u(t) = U (t)/L. De o hecho.7. donde r = R/(2L). Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . o sea. afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). Entonces.

¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . An´logamente se puede obtener la a expresi´n para x2. En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. x1(0) = 0. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t).24) ω2 = k . Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. 47 En la figura 14 vemos dos osciladores acoplados. x2(0) = 1 y x2(0) = 0. conocidas como frecuencias propias del sistema. m1 m2 (4. Veamos que ocurre al incluir este ıa u resorte. Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. ±ωi. Supongamos que x1 (0) = 1. entonces obtenemos x1(t) = cos t x2(t) = cos t. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). Figura 14: Dos osciladores acoplados.23) k2 + k 3 m2 − 2 k3 x1 = 0. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. Entonces (4. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. m .

o sea. x2 (0) = −1 y x2(0) = 0. x1 (0) = 1. x1(0) = 0. o Figura 17: Caso x1(0) = 1/2. x1(t) = cos( 3t). x2 (0) = 1 y x2(0) = 0. x2(0) = −1 y x2(0) = 1/2. x2(0) = −1 y x2(0) = 0. x1(0) = 0. es una combinaci´n de las frecuencias. x2(t) = − + − 4 4 4 4 3 es decir. Si x1(0) = 1. obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . Figura 16: Caso x1(0) = 1. tenemos que las oscilaciones son con las frecuencias propias. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x2(0) = −1 y x2(0) = 1/2. . Pero si escogemos. por ejemplo. x1(0) = 1. x1(0) = 1/2. x1(0) = 0. tenemos √ √ x2(t) = − cos( 3t).´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1.

respectivamente. y (0) = 0. 3. 1. y(2) = 0.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. y + y + y = 1 + 2x + 3x3. y − 4y + 13y = 0. Encuentra la soluci´n general de ambas EDOs. 2. Problema 4. y + 2y = 1 + x2 + e−2x . 6.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. 3. Problema 4. y (2) = 1. 2. y − y = x2ex con y(0) = y (0) = 0. Problemas Problema 4. y(0) = y (0) = 2.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . y lθ + gθ = 0.4. y (0) = 0. 5.10 Resolver las EDOs 1. y(0) = 1. y − 4x = 4x2 + 2x. 4. e Las EDOs que gobiernan estos sistemas son my + ky = 0. a k mg Figura 18: El oscilador y el p´ndulo simple. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y + y − 6y = sen x + xe2x . y + 12y + 36y = 0. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). y − y − 6y = 0.

Problema 4.12 Resuelve las EDOs 1.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4. Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10. Problema 4. En ambos casos resuelva la EDO correspondiente.14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. 2. y − 6y + 11y − 6y = xex + x2. e 2.) m1 = m2 y k1 = k2 .´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. sin e velocidad inicial. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 .8 incluyendo rozamiento. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. 3.) m1 = m2 y k1 = k2 = k3 . k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados. Analice los casos: 1.) m1 = 2m2 y k1 = k2 = k3 . y + 8y = x2 . y (4) − 16y = 3 cos(x). a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. k3 = 2k1 y 3.

a2k .1) El objetivo es resolver la EDO anterior cuando las funciones p(x). Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk .2) en (5.1 Resolver la EDO y − 2x − 2y = 0. As´ tenemos ı. la recurrencia anterior permite calcular los valores a2.2). De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. k ∈ N. 2n − 2 (2n)(2n − 2) · · · 2 n! . a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . . que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. (5. a2k+1 . k ∈ N y si conocemos a1 entonces podemos calcular a3. si sabemos a0 .2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. a5 . la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0. n+2 n ≥ 0. de donde tenemos o an+2 = 2 an . es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n. . ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. q(x) y f (x) dependen de x. Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. Por sencillez supondremos x0 = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. En o o efecto. . ak ∈ R. . = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. La idea del m´todo es sustituir la serie y(x) (5. Es importante que la serie converja en todo un entorno de x0. Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. a4 . (5.1) e igualar los coeficientes de e las potencias. Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. . .

Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger.2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. e Ejemplo 5. s´lo podemos encontrar una soluci´n: y1(x) = x. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1).5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. e− p(x)dx 2 y1 u=v. n∈N =⇒ an = 0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). o a 5. =⇒ v(x) = C + D. . no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. n=1 es decir. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u.1. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. Esta claro que el m´todo anterior no siempre funciona. Por ejemplo. (n − 1)(n + 2)an = 0. Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. ∀n ∈ N. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. sin p´rdida de generalidad C = 1 y D = 0.

y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica).4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. q(x) y f (x) son funciones anal´ ıticas en x = x0. Usualmente la EDO homog´nea (f (x) ≡ 0) (5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). 2. probar que el radio de convergencia de la soluci´n de la EDO (5. an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias.5 Un punto x0 se denomina punto singular regular de la EDO (5. Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r .3) con un punto singular en x0. q y f . Definici´n 5. asumiremos x0 = 0. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . si p(x).1) a o es el menor de los radios de convergencia de p.2. para a o x > 0.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · .3 Dada la EDO (5.1). En lo que sigue.1) si o p(x). por simplicidad. ∀n ≥ 0. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · . en general. si lo es. Entonces: 1. aunque en algunos casos. Puntos regulares y singulares de una EDO Definici´n 5. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. La soluci´n del problema de valores iniciales y(x0) = y0 . por ejemplo x = 1. Ello no siempre es posible. a e a . Es posible. (5.1). Teorema 5. En caso contrario se dice que o x0 es un punto singular. mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. adem´s. Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas. Por ejemplo. (5. el punto x0 se denomina punto regular de (5.3) Definici´n 5. o sea.6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. luego.

(5. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. Veamos que ocurre en el caso general.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . x > 0.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . al igualar la potencia xr .3) e igualamos potencias nos queda.5) 2. (5. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). (5. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. r1. (5. 2 Entonces se tienen los siguientes casos para x > 0 1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0.8) Recordar que estamos suponiendo x0 = 0.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. Caso (p0 − 1)2 − 4q0 > 0. Caso (p0 − 1)2 − 4q0 < 0. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0. o r1. x > 0. . En general o o se tiene el siguiente Teorema 5. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. k=0 de donde. x > 0. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 .7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. r2 ∈ C (dos ra´ complejas). Sea r1 = a + bi. x > 0. Sustituyendo y(x) = xr en (5. Entonces si sustituimos en la EDO (5. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x).6) 3. r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . Caso (p0 − 1)2 − 4q0 = 0. Sean r1 y r2 las soluciones de la ecuaci´n indicial. Caso (p0 − 1)2 − 4q0 > 0.

(5. q(x) = . r2 ∈ C. (5.10) 4. En efecto. r1 = r2 − N ∈ R. Sea r1 = a + bi. n=0 n=0 Comencemos por la primera. y2 (x) = x1−γ bn x n . r1. Caso (p0 − 1)2 − 4q0 = 0. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0.3. (5. entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. .9) 3. x > 0. Obviamente x = 0 es un punto singular regular. de donde tenemos o dos soluciones r = 0 y r = 1 − γ. por tanto. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · . x > 0. x2q(x) = −αβx + · · · . r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k . a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. x > 0. an = (n + α − 1)(n + β − 1) an−1 . (5. n(n + γ − 1) n ≥ 1.11) donde A es cierta constante que puede ser nula. entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . ı o a 5. Caso (p0 − 1)2 − 4q0 = 0.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero). dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . Sustituyendo y1 en (5.12) luego Por sencillez asumiremos que γ ∈ Z. Como hemos supuesto que γ ∈ Z. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. Caso (p0 − 1)2 − 4q0 < 0. En todos los casos las series convergen en un entorno de x0 = 0. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k .

y prueba que an = p(p − 1)(p − 2. e indica la regi´n de convergencia de las mismas o 1.13) (α)k (β)k xk . (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. xy = 2y + xex. entonces obtenemos an = por tanto y(x) = 2 F1 α.4. 2−γ 5. β − γ + 1 x . n ≥ 1. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . Problemas Problema 5. Encuentra la regi´n de validez de la doluci´n anterior. (γ)nn! n ≥ 1. (x4 − 4)y + 3xy + y = 0. β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1).14) conocida como funci´n hipergeom´trica de Gauss. 3. o o Como consecuencia del teorema de existencia y unicidad. (α)n (β)n . o o 3. y(0) = 1. (5. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. que no es m´s que el teorema del binomio encontrado por Newton.9 Sea la EDO (1 + x)y = py. n! p ∈ R. x2y = y + x2 + 1. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. α − γ + 1. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . y + 2y + y = x. ∞ n=0 an xn. a . p ∈ R. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. si es posible. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . 2.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. 4. Problema 5. (γ)k k! (5. 1.8 Resuelve las EDOs siguientes usando series de potencias.

(EDO de Legendre) 3. x2y + 3xy + 2y = 0.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. c ∈ R. 4. b. Problema 5.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0. Problema 5. (1 − x2)y − xy + p2 y = 0. (EDO de Laguerre generalizada) 3. x2y + xy − 5y = 0. xy + (1 + α − x)y + py = 0. y + xy = 0. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. a. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). x2y + xy + (x2 − p2 )y = 0. x2y + 2xy − 6y = 0.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. (EDO de Airy). (1 − x2)y − 2xy + p(p + 1)y = 0. 2. (EDO de Laguerre) 2. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. (EDO de Chebyshev) 2. o e Encuentra dos soluciones linealmente independientes de la misma. (EDO de Hermite) 57 4. (EDO de Bessel) Problema 5. 3.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. c ∈ R se transforma. (x − 1)2y − 2(x − 1)y + 2y = 0. a. Problema 5. a. . xy + (1 − x)y + py = 0. o e Problema 5. y − 2xy + 2py = 0.12 Resuelve las siguientes EDOs de Euler 1. b.

.2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)].´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6.2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x).2 Si para todo k ∈ N ∪ {0}. (6. [σ(x)ρm (x)] = τm (x)ρm (x). 1. (6. entonces para las soluciones polin´micas de la ecuaci´n (6. 2 (6.1) y (6. (6. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. Conocida ρ encontramos. Para ello usualmente o se escriben (6.3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x).2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.1. m−1 (6. 6.1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad.. e o Teorema 6. Ann (n) (6. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0.1) son ortogonales dos a dos: . el autovalor λn de (6.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. 2.1 Si y es una soluci´n de (6. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0.1).1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. τ + kσ /2 = 0. que ρm (x) = σ m (x)ρ(x). utilizando las ecuaciones anteriores.5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].7) Cuando m = 0 la f´rmula (6. respectivamente.4) Teorema 6. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. µm = λ + i=0 (x) .1) donde σ y τ son polinomios de grados a lo m´s 2 y 1. n = 0.5) (6. .1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn . Esta ecuaci´n (6..1) es a k=0 1 [τ + 2 (n + k − 1)σ ]. (6. λ ≡ λn = −nτ − n(n − 1) σ .6) Anm = Am (λ) |λ=λn Adem´s. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6.

3 Supongamos que xk σ(x)ρ(x) 59 x=a. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ]. n (6.11) donde αn = an . (6. se cumple que: o b a = 0. para todo k ≥ 0. o sea. (βn )n y (γn )n. sustituy´ndola en (6.14) .10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6. an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . y dn es la norma de los polinomios. a Para calcular d2 .6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6. = 2 2 dm dn x−y m=0 n Kern (x. podemos utilizar la f´rmula de Rodrigues que.9) o e n e integrando por partes.b ciones polin´micas Pn de la ecuaci´n (6. τn−1 (6. Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 . an−1 an−1 an d 2 n−1 (6. an+1 βn = bn bn+1 − . (6. Generalmente se impone que P−1(x) = 0 y P0(x) = 1.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x).5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x).9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n . y) ≡ n ≥ 1. Luego. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) .11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6.11). a (6. n! k=0 n−1 bn = nτn−1 (0) an .de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. Corolario 6. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x).12) siendo an .13) Como un corolario de (6.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·.

a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos. nτn Bn+1 P (x) n ≥ 0. τn (x)Pn(x) − nτn Bn+1 (6. es decir. donde αn = ˜ Bn λn αn τ n − . Tomando m = 1 en la f´rmula (6. λ n γn . Si definimos Qn (x) ≡ n+1 . x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. 2.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). n (6. Pn (x) = o a ´ xn + bn xn−1 + · · ·. o 3. tales que su coeficiente principal an = 1. Los Polinomios de Hermite.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x.β Pn (x). soluciones de la ecuaci´n (6.16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). cuando σ es de grado 1. .5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) . Polinomios de Jacobi n α. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 . i.e. En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·.30).2. ¯ Bn−1 (6. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). βn = nτn γn = ˜ (6. (6.19) 4. en las cuales (a)n denota al s´ ımbolo de Pochhammer (6. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x. (6. Si escribimos la f´rmula (6. respectivamente. 6.2.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x).18) λn ˜ [βn τn + τn (0)] . Laguerre y Jacobi.1. Par´metros Principales. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2.1).. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1). τ es un polinomio de grado exactamente uno.20) 6.

Representaci´n hipergeom´trica. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk .3.. γ > −1.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. o e De la f´rmula de Rodrigues..β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α. 0.. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 .2. 2. Casos particulares.22) (6. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1. H2m+1 (x) = (−1)m x 1 F1 m x2 . (6.0 1. 2n sen[ arccos (x)] 4. 2 .2. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . α+1 2 6. ap x b1 . o usando el m´todo de las series de potencias... b2 . . (6. n + α + β + 1 1 − x . Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas. α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n.2. 1 sen[(n + 1) arccos (x)] .5) se o e puede obtener la representaci´n de los polinomios de Hermite. 3. Los polinomios de Legendre Pn(x) = Pn (x). a2 . (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6.21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α. .β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x .24) Lα (x) = n α.23) (6. β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6.γ− 2 (x)..

. 3.. (n − ν)! n−ν (6.25) Utilizando la f´rmula (6. 22m m! H2m+1 = 0. Γ(α + 1) 2n (α + 1)n α. 2.β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x). a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α. (n + α + β + 1)n (−1)n 2n (β + 1)n α..2. (n − ν)! α.): o (Hn(x))(ν) = n! Hn−ν (x).27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x). .. 1.β+ν Pn−ν (x). (n − ν)! . Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad. 2.16) encontramos las ecuaciones (ν = 1.26) (6. (n + α + β + 1)n (6.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). n = 0. Lα (0) = n (−1)nΓ(n + α + 1) . e n! α+ν. H2m (0) = (−1)m (2m)! . Otras caracter´ ısticas.4.β Pn (−1) = .. .β Pn (1) = .

1 x Pm 2 2 (2x2 − 1). en general. respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2). 2m Adem´s. k = 1. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = . √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. a(x) = 1. . Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. P m m 2 1 (x) = (6. y adem´s. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5. 1 1 γ− 2 . sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z). Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). (a)k = (6. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 .− 1 2 (2x2 − 1).28) 1 γ− 1 . n→∞ z(z + 1) · · · (z + n − 1) π . (6. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814. mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. definida.30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 .γ− 2 (x) = β. . .β Pn (−x) = (−1)nPn (x). cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z). 2.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. En particular. 3. x >> 1. .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi.γ− 2 −1 2 H2m+1 (x) = xLm (x2) . Adem´s.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. (z) > 0. Γ(a) Finalmente. ∀n ∈ N. (n − k)!k! k! . Gγ (x) = P2m 2 2m 1 γ− 1 .α α. (a)k = a(a + 1)(a + 2) · · · (a + k − 1). Γ(a + k) .

. µ = p ∈ N. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. lo cual es √ la funci´n peso es una funci´n par.7 Sea µ ∈ C. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0. De ella o como C1 = 0.µ+1 (z) = 0. de (6. 2m 2 m! C2m+1 = 0.34).33) En particular. (6. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. entonces todos los momentos impares son nulos. C0 = 0 ∞ xα e−x dx = Γ(α + 1). a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.µ−1 (z) + [τν (z) + µσ (z)] Cν. luego Cn = (α + 1)nC0 . z = 0 obtenemos.33) deducimos que. para ν = 0.p (0) = a b Cp+1 = 0. como C0 = π. Finalmente. Adem´s. que usar (6.µ (z) = a (s − z)µρν (s)ds.3.34) es o (α + n + 1)Cn − Cn−1 = 0. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. a (6. (6. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.33).34) sp ρ(s)ds.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6. (6.33) y (6. de donde deducimos que Cn = Γ(α + n + 1).32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. as´ que tenemos ı cuando z = 0. Se definen los momentos como b Cν. Teorema 6. Ejemplo 6. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6.µ (z) + τν + µσ 2 Cν.

por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t .β Pn (x)tn = . No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. o Para los polinomios cl´sicos se tienen las siguientes identidades.4. Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. Caso Hermite Hn (x): Primera prueba Sea Φ(x. n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. n! R(1 − 2t + R)α (1 + 2t + R)β (6. t) = e2xt−t . o o Φ(x.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. (6. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . n! (1 − t)α+1 tx (6. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos. Bn 2xt−t2 2n Hn(x)tn.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. t) tal que.37) con R = 1 + 4t(t + x).36) 2α+β (−1)n (α + β + 1)n α. t) = ∞ n=0 An Pn (x)tn. 2 . t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos.

t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. t) = e2xt−t . usando el desarrollo en serie ı de Taylor en t para Φ(x. 0) = 1 y Φt(x. t) y compar´ndolo con (6. t) + 2(t − x)Φ(x. Ahora bien.38) deducimos que g0(x) = 1 y g1(x) = x.38) donde (gn)n es una sucesi´n de polinomios a determinar. por tanto. n! n! n=0 ∞ o. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). e a o Sea la funci´n generatr´ Φ(x. como Φ(x. t) = 0. 0) = 2x. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. a Ahora sustituimos (6. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0. ∂t De aqu´ deducimos que Φ(x. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. t). t) = ∞ n=0 2 2 2n gn (x)tn. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. t) = obtenemos la ecuaci´n o ∂ Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. (n − 1)! n! n! n=0 n=0 ∞ ∞ . n! (6. equivalentemente. ∂t cuya soluci´n es Φ(x.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0.

.13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 . Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0. Problema 6. es decir. si en vez de sustituir a en (6. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 .39) Problema 6.− 1 0. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2.33) z = 0 sustituimos el valor z = 1. 2g2(x) − 4xg1(x) + 2g0(x) = 0. a ∀p(x) ∈ Pn . es decir. 67 Ahora bien.5. y)dx = p(y). A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 .36). n! (6. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).n (1). Problema 6.9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. Problemas Problema 6. los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x).41) donde (γ)n es el s´ ımbolo de Pocchamer.γ− 1 γ dada por (6. (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x.40) Problema 6. 6.n (0) en o este caso y resu´lvela. respectivamente. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 . Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre.0 Pn(x) = Pn (x). 2n (γ)n γ Cn (x)tn. entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = . Encontrar la relaci´n de recurrencia para los momentos Cn := C0. kn a (6.n (0) de o los polinomios de Jacobi. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn .12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0.

β (−1.α KerJ.45) (−1)n−1 Γ(2n + α + β) .29) para los polinomios de Jacobi prueba que o ıa J.β (2n + α + β)(x + 1) d Pn (2n + α + β) α. 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6. 0) = n−1 (α + 1)n . 0) = √ Lm−1 (x2) = √ . 2n(β + n) dx 2(β + n) 68 (6. 0) = √ 2m π(m)! π(m)! x KerH (0.14).α α.44)-(6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6. 1) = n−1 Utilizando la relaci´n de simetr´ (6.β α.β (x) + Pn (x).45) tenemos KerJ. n−1 β. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6. y) se definen mediante la expresi´n u o Kern−1 (x. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 . Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α.17).β (x) − Pn (x).β (1. −1) = ηn dx Pn (x) = nηn Pn−1 (x). 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 .α α+1. los valores en los extremos (6.β+1 Pn−1 (x) = α.α.α. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x). n−1 . −1).β (−1.β.α. 0) = .42) α+1. 1) = (−1)n+1 ηn dx Pn n−1 β. KerJ.14 Prueba las relaciones α. KerH (0.α ηn = (6. n Γ(α + 1)n! KerL (0. 1) = Kern−1 (−1. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x.β (x.β α.15 Los polinomios n´cleos Ker n−1 (x.β (x. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) .43) Problema 6. y) = Pm (x)Pm(y) . 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.25) y las o f´rmulas de diferenciaci´n (6.α ηn (−1)n−1 Γ(2n + α + β) .β α.α. 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) . 2n(α + n) dx 2(α + n) α.β Pn−1 (x) = (6.β d α−1.α d (x) = n(−1)n+1 ηn Pn−1 (x).β+1 KerJ.α.β (2n + α + β)(1 − x) d Pn (2n + α + β) α.44) (6. Lm (x2) = √ KerH (x. 2α+β+n n!Γ(α + n)Γ(β + 1) β.β donde por ηn y ηn denotaremos las cantidades β.β−1 β.

Proposici´n 7.2) Proposici´n 7. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden. Sea M = m´x |f (x. y).1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 .4 (Teorema de unicidad local de soluciones) o Sea f (x. y) es continua en el rect´ngulo R o a definido por R = {(x. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. M siempre est´ definida. (7. se tiene la desigualdad triangular a u+v ≤ u + v . y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. y(ξ))dξ. Adem´s. (7. b > 0. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. . x∈I |f (x. y) − f (x. 1/K).7. n = 0. y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. y) : |x − x0| ≤ a. Adem´s. Obviamente si u(x) es continua u < +∞.4) Para la norma tenemos la desigualdad evidente u ≥ 0. |y − y0 | ≤ b}.y)∈R Como f es continua en R. o ´ Lo primero que asumiremos es que la funci´n f (x. y) ∈ R y (x. .3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. 2. y)|. y(x0 ) = y0 . a.1) tiene soluci´n unica.1 El PVI (7.5) yn+1 (x) = y0 + x0 f (ξ.1) En el apartado 2.2 Diremos que una funci´n f (x. .1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. y u = 0 si y s´lo si u(x) = 0 en o I. (7. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x.3) Definici´n 7. (7. o o . entonces y1 (x) = y2(x) en todo Id . . yn (ξ))dξ. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. ∂y Definici´n 7. una condici´n suficiente para que una funci´n f (x. z)| ≤ K|y − z|. (7.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7.6) La sucesi´n anterior se conoce como sucesi´n de Picard. 1. a (x. Sea el problema de valores iniciales y = f (x. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x.

Sea x ∈ R por ejemplo. y(x)) e ´ o y(x0 ) = y0 .2). Encuentra las tres primeras aproximacioo nes de la soluci´n. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. π/2).. digamos que |y| ≤ b > 0. M = b. Entonces.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. Entonces. o a El procedimiento anterior es f´cilmente extensible a sistemas. Problema 7.1) con f lipschitziana de constante K en R (7. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. |y0 (x) − y0 | ≤ b. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |.7 (Teorema local de existencia y unicidad) Sea el PVI (7. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x.y)∈R |f (x. el PVI (7. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2.9 Sea la EDO y = x − y 2 con y(0) = 0.e. por ejemplo. Problemas Problema 7. b/M. En este caso ´ la soluci´n es y = tan x definida s´lo en [0. Las correspondientes o demostraciones se dejan como ejercicio.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a. 1/K) = m´ ın(a.1) o o en Id . Si ahora usamos. 1/K)}. entonces o o |f (x. 2 Ahora bien. y)|. para todo n ≥ 0. Para ello basta definir una a norma en RN y el valor absoluto de un vector.1. por tanto d = m´ ın(a. z)| = y 2 − z 2 = |y + z||y − z|. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. luego f es lipschitziana con constante K = 1. i. Entonces K = 2b y M = 1 + b2 . Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n. 1/1) = 1}. a Proposici´n 7. Corolario 7.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. b/M. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. Escojamos un valor cualquiera para y. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . y M = m´x(x. 7. Como f (x. y) = y. y) = 1 + y 2 . b/M. 1/K)} tal que su imagen est´ contenida en R. las im´genes e a de yn (x) est´n contenidas en R.8 Prueba las propiedades anteriores para la norma u . Los teoremas anteriores son s´lo condiciones suficientes. la sucesi´n de Picard e o (7. b/M )} tal que su imagen est´ contenida en R. o . a Entonces. la norma k=1 N Y = k=1 yk .6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. es decir existe una unica funci´n y(x) tal que y (x) = f (x. b/(1 + b2 ).7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7. y) − f (x. 1/b). b/b.

1/2] Problema 7. x ∈ [0. Problema 7. y(0) = 0.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . y(0) = 0.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. Comp´ralas con la soluci´n exacta. 1/2] 2. y(0) = 2/5. 3/10] 3. a o . y = y 2 + cos x2 .10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. x ∈ [0.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . y(0) = 0. y(0) = 0. y = x + y 2 . x ∈ [0. y = y 3 + e−5x .

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

Entonces. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). Definici´n A.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. b) si para todo x de (a. f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. α = −1 1 dx = log |x| + C x ax dx = ax + C. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x. b) se tiene que F (x) = f (x). Teorema A.5 Tabla de Integrales 1. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . 7. 4. para todo o x de (a. 6. F1 (x) − F2 (x) = const. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. 3. 4. b). log a a > 0. b).4 (Propiedades de la integral indefinida. 0 dx = C 1 dx = x + C xα dx = xα+1 + C. d dx f (x) dx = f (x) (A.1) f (x) dx. Por ejemplo. 8. 5. 3. Anexo: C´lculo de primitivas a Definici´n A. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. De manera que.) 1. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). 2. α+1 ∀α ∈ R. 2.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a.

10. Como la integral no es de la tabla es necesario convertirla en una de la tabla.7 a) Calcular cos(2x) dx. o Teorema A. o Ejemplo A. 14. g(t)dt = G(t) + C. 17.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. o o sea. Entonces sobre todo el conjunto (a. A.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A.1.1. 15. 11. b) el dominio y T = φ[(a. 16. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). b)] o la imagen de φ(x). b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). M´todos de integraci´n. Como la integral no es de la tabla es necesario convertirla en una de .1. 12. 13. e o Integraci´n por cambio de variable.

b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x).´ A ANEXO: CALCULO DE PRIMITIVAS A. eax cos bx dx. sen(log x) dx y cos(log x) dx. du(x) = x dx n+1 dv(x) = xn dx. . du(x) = aeax dx dv(x) = cos bx dx. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores. Donde para 2. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . b) y existe la primitiva de la funci´n v(x)u (x) en (a. Las integrales donde aparezcan las funciones log x.8 a) Calcular xn log x dx. Integraci´n por partes. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. 3. sobre (a. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . b). Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx.4. (A. Las integrales de la forma eax sen bx dx. potencias enteras de las funciones anteriores.1. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax . Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. v(x) = x n+1 tabla. Ejemplo A. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. arc cos x. arc sen x. log φ(x).2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A.. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. b b b de donde.. (A. respectivamente.3) v(x)u (x) dx.. v(x) = 1 sen bx b eax sen bx a − b b de la tabla. Las integrales (ax + b)n sen cx dx. u(x) = (ax + b)n−1 .. (ax + b)n cos cx dx y (ax + b)n ecx dx. du(x) = aeax dx dv(x) = sen bx dx. Entonces. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x. .2.

No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi . Definici´n A. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i . . Li y Ki son ciertas constantes reales.8) . si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). Qm (x) (A. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk . y los factores x2 + pi x + qi . Bi ..2. Li y Ki .4) donde x1 .5) con P n (x). Pn (x) es una fracci´n simple. N´tese que el denominador e o com´ n coincide con (A. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). si n < m. o sea. (A.5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk .... Mi . (A. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + .9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A. la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. Integraci´n de funciones racionales.´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. si Qm (x) tiene m ceros reales y simples. Ni . Para determinar dichas constantes sumamos los t´rminos de la derecha. .10 Supongamos que donde k < m. o sea.4) y el numerador es un polinomio de grado a lo sumo n. ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni .7) entonces. Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai . i = 1. Bi . Qm (x) Qm (x) Teorema A. Mi . el Ani de A ni Ani −1 A1 + + ··· + . o sea.6) Como consecuencia de lo anterior. xp son las ra´ces reales de Qm (x). Ni . k no tienen ı Pn (x) ra´ces reales.. Entonces.

10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C. x y x0 son iguales.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C. . (A.9) Teorema A. 2 x2 + px + q 2 4q − p 4q − p2 x dx. B. ıces . Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 .. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A.. x dx. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + .9) obtenemos A = l´ ım x(x − 1) = −1. 2.12 a) Calcular x2 Luego. es decir. (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. 7 (A. x−a B 1 B dx = + C. utilizando (A.. (x − 1)(x − 2) Ejemplo A. Qm (x) k = 1.´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 .. m. Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) .. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C.. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales.. . xn+1 (distintos entre si). si P n (xk ) = Qn (xk ) e para ciertos x1 . Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . entonces Pn (x) ≡ Qn (x) para todo x ∈ R. k (x − a) 1 − k (x − a)k−1 k > 1.. utilizando (A. x2 .. C.

cos x).14 a) Calcular la integral dx = sen x dx . o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . cos x) dx. 1 + t2 f (sen x.3. sen x =− 1 x 1+t dt = − log +C = log tan +C. f (sen x. cos x). e f (sen x. donde f (− sen x. − cos x) = −f (sen x. cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. − cos x) = f (sen x. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. cos x) dx.13 Calcular la integral dx = sen x dx . Esta integral es del tipo 1. cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . donde f (sen x. cos x). cos x) = −f (sen x. donde f (− sen x. o Ejemplo A. 3. cambio t = tan x Ejemplo A. cambio t = cos x f (sen x. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. Ellas son las siguientes: 1. cambio t = sen x f (sen x. (x − 1)2 x2 + 1 2(x − 1) 2 A. 1 + t2 1 + t2 2 dt. Integrales trigonom´tricas. 2. Luego. Luego. cos x) dx.

a2 − x2) dx. Las integrales √ f (x. √ f (x.15 a) Calcular la integral a2 − x2 dx. a2 − x2 ) dx A. f (x. Esta integral es del tipo 3. f (x. 2 2 2 2 2 A. cambio x = a sen t x2 + a2 ) dx. a2 x x arc sen + 2 a 2 x2 − a2 dx. f (x. 3.1. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. Esta integral es del tipo 1. Luego. Luego. sen3 x 1 +C. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. a2 − x2 ) dx. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 .4. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . x2 ± a2 ) dx. Esta integral es del tipo 2. Luego. Esta integral es del tipo 2. cambio x = a tan t Ejemplo A. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. y f x. por tanto a2 − x2 + C. √ f (x. x2 ± a2) dx y √ f (x. Luego. Integrales irracionales.4. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. 2.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. cambio x = a sen t x2 − a2 ) dx. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. 2 4 √ pero.

f (x) es integrable en [a. Sea f : [a. (A. deshaciendo el cambio t = 3 x + 1. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. b] y una de ellas es la funci´n o x n x. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. Esta integral se racionaliza con el cambio t = 3 x + 1. Luego. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. Las integrales f x. Esta integral es del tipo 3.12) siendo Φ(x) una primitiva cualquiera de f (x). obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A.17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. ax+b cx+d . b). b]. n ax + b cx + d dx.4. n ax + b cx + d dx. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . Entonces f tiene primitiva en [a. c ∈ (a. Luego. b] → R a o continua en [a. (A. x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. x2 +a2 pero.11) Adem´s. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C.2.16 Calcular la integral √ dx √ . F (x) = c f (t) dt. a Teorema A.´ A ANEXO: CALCULO DE PRIMITIVAS pero. . y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 .

.1). an1 an2   .  . .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas.. B.3) Un sistema lineal de la forma (B. . . . .  . A  a11 a12  a21 a22   .1) . . 2. . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones. Intercambiar dos ecuaciones... Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. Si un sistema lineal de la forma (B.. Multiplicar por una constante no nula una fila cualquiera. .. .1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. . . . De forma que a cada una a le corresponden las siguientes operaciones por filas 1. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m . . m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. . . .1) no tiene soluci´n decimos que es o o un sistema incompatible. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B. .  . .1). . . . ´ Anexo: Algebra lineal Sistemas lineales y matrices. o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n. . a El sistema de ecuaciones (B.1) es compatible si existen los valores de x 1 . . Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. . an3 · · · anm  se le denomina matriz de coeficientes del sistema. o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices.2)  .. 2. De esta forma e e o la matriz asociada al sistema (B.. . Si existen dichos valores diremos que el sistema tiene soluci´n. .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1.  (B. y se denomina matriz ampliada del sistema. 3. 2. x2 . n) est´n colocados los coeficientes a ij (j = 1. .  .1. .. Intercambiar dos filas. 2. Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado.. Multiplicar por una constante no nula una ecuaci´n cualquiera. ..´ B ANEXO: ALGEBRA LINEAL 83 B. ..

2. (B. ıa Debajo de cada elemento gu´ s´lo puede haber ceros. es decir se cumple el siguiente teorema: ´ Teorema B. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Utilizando las formas escalonadas a anteriores (B.4) . ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . e u Las operaciones anteriores se denominan operaciones elementales de filas. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila.  0 0 1 0 0 ∗ . Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. Formas escalonadas y el algoritmo de reducci´n por filas.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila.´ B ANEXO: ALGEBRA LINEAL 3. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas.2. o B. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida. ıa Diremos que una matriz est´ en forma escalonada si: a 1. 3.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ . Todas las filas no nulas est´n por encima de las nulas.   (B.

Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. Este paso se repite hasta que no queden m´s filas no nulas. As´ por ejemplo ı. o El algoritmo de reducci´n por filas consta de dos fases (partes). Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. La segunda parte consiste en transformar la forma escalonada en la forma reducida. ceros encima del mismo. Este ser´ el primer pivote. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. mediante operaciones elementales de filas. o . o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. Si el pivote no es uno dividimos por su valor para que lo sea. B.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. si es preciso. Este proceso consta del siguiente paso: 5. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. a ∗ ∗ ∗ ∗ 0    . Comenzando por el primer pivote de la derecha creamos. 3. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. 2. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda.   (B. las cuales pueden venir expresadas en funci´n de las variables libres. 4. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. El resto de las variables se denominan variables libres. Este proceso consta de cuatro pasos: 1. Soluci´n de un sistema de ecuaciones lineales.3. a El significado de una variable libre es que dicha variable puede tomar cualquier valor.

.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). ıa o B.2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote. Por ejemplo. Es decir fijando diferentes valores de x3 . yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. . x2 . xn son n´ meros reales. Diremos iguales.. los sistemas correspondientes a las dos matrices (B.     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . . el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero).´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo. Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas.7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 .. x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 .8) ∗ ∗ . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. o sea.     =   ⇐⇒ x1 = y1 . o sea  x1  x2  x=y ⇐⇒  . u  .. . Vectores y ecuaciones matriciales.1. B.  ...  . o lo que es igual. . x2 . . x6 y las libres x3 .. Los valores x1 .4. Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. .6). no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero..4. xn = yn .. Por ejemplo. donde x1 . x4 . x5 . x4 obtenemos diferentes valores de x1 . De o a la forma de la matriz observamos que x5 . consideremos la matriz del sistema (B. Las variables principales ser´n x 1 . . x4 .. x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . n × 1. xn es decir un vector es una matriz de componentes) del vector x.

8. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . αn n´ meros reales.. a a o .   . an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible.   . x2 ... o sea. β n´ meros reales. .  . w vectores de Rn y α. an ) = α1 a1 + α2 a2 + · · · + αn an .. 87 Dichas operaciones cumplen las propiedades 1. . 5... + . Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y. Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b].. quienes quiera sean α1 . . . Operaciones con vectores. Definiremos espacio generado por los vectores a1 ..         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b. n´ meros reales.   . y. 6. . ... ..4. Adem´s b est´ en span (a1 .   . .... 2. xn son las inc´gnitas que se quieren encontrar... .  =  .  . z. 3.  .   . a2 . an ) = L(a1 .. 4. a2 . .. . 7. o sea...... . αn . wn αxn Sean x.  =  .     w1 αx1  w2   αx2      w = αx =⇒  . donde b es un vector dado de Rm y x1 ... an de Rm y lo denotaremos como span (a1 .  =  .. an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 .´ B ANEXO: ALGEBRA LINEAL B... . . x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α... al conjunto de todos los vectores de la forma L(a1 . an .. an de Rm con o pesos α1 . . an ) = span (a1 . ..2. es decir. .. respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . a2 .

. . Rm = Span(a1.  . la ecuaci´n A x = b tiene soluci´n.  =  . y vectores de Rn y α un n´mero real cualquiera.  . am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B. . .. an .. Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x.   . an (vectores de Rm ) y x un vector de Rn . o o 2) Las columnas de A generan Rm . an ). .  . x..4 Sea A una matriz m×n con columnas a1 . .  .. .. a2 . .  = x1 a1 + x2 a2 + · · · + xn an . a2 .. o sea. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b]. Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . . o 88 Sea A una matriz m × n con columnas a1 . . . . 3) A tiene una posici´n pivote en cada fila. . o Regla para el c´lculo de Ax. . a2 . Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  ..3.. a2 ...      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        ....3 Sea A una matriz m×n con columnas a1 ..  . a e o sea. .. . . xn Teorema B. an y b un vector de Rm . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b. La ecuaci´n Ax = b. 2) A(α x) = α (A x) .4. an .5 Sea A una matriz m × n con columnas a1 .  . . o Teorema B. Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A.´ B ANEXO: ALGEBRA LINEAL B.  . a2 .

1. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0. · · · . Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre. Para obtener los vectores s1 . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2. s2 .. Y as´ sucesivamente. . Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . Teorema B.. sp cuyo n´ mero coincide con el de las u variables libres del sistema. El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. Un conjunto de vectores a1 ... o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero.4.. ..7 Un conjunto S = {a1 .. e Teorema B. . El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 . tiene como unica soluci´n la trivial x1 = · · · = xn = 0. El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   .. xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres.4. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . o sea la matriz A tiene al menos o una columna que no es pivote. a2 .9) B. . s2 .. an se denomina linealmente dependiente si existen los valores x1 . Dependencia e independencia lineal. ´ o Un conjunto de vectores a1 . Dicho sistema siempre tiene la e soluci´n trivial x = 0.5.4. x es un vector de R n y b es un vector de Rm .. x2 . ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales. 89 Conjunto soluci´n de los sistemas lineales. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . o e (B... a2 .. .. a2 . u .. El sistema lineal A x = 0 se denomina sistema homog´neo.6 Supongamos que A x = b tiene soluci´n para cierto b de R m .´ B ANEXO: ALGEBRA LINEAL B. es decir. Sea p una o soluci´n de A x = b (soluci´n particular).

bn son vectores de Rm .. . am1 am2  a11 a21 . o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. o Teorema B. Teorema B. . Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n. an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes.. . ´ Algebra de matrices. es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ]. . 5. .9 Un conjunto S = {a1 . · · · aij · · · ain . 2. . α(A + B) = αA + αB. . β n´meros reales. 3. .      . Teorema B... . . . an y b1 . an necesariamente cada vector es combinaci´n de los anteriores.. (α + β)A = α A + β A. . a2 . . α(β A) = (α β) A. a2 . b2 . . o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n .. Vamos a estudiar las operaciones elementales de las matrices. . 4.5. . a12 a22 . . .... NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 .. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. . . . Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α.10) B. . A + B = B + A. . .. . donde a1 . . es decir. . . . B y C matrices de m × n y α. 6.. . an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores..10 Sean A. a2 . a2 ..1.     (B.. donde 0 ≡ ||0|| es la matriz nula. es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. . o bien α A ≡ α||aij || = ||α aij ||.. A + 0 = 0 + A = A.´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . . Entonces: u 1....5. Suma de matrices y multiplicaci´n por un escalar.8 Un conjunto S = {a1 . · · · amj · · · amn      fila i →  ai1 ai2   . . . . a2 ..  . Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B. (A + B) + C = A + (B + C). B.

o elemento a elemento: ||(A · B)ij || = n n (B. (B + C) · A = B · A + C · A.3. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. β n´meros reales. donde Ik es la matriz identidad de k × k.). o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. Entonces: u 1. 2. o Teorema B. Im · A = A · In = A. que denotaremos por A T . Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0.12 Sean A de m×n. B. 3. (A · B) · C = A · (B · C). 3.. Es importante recordar que la multiplicaci´n de matrices no es conmutativa. Transposici´n de matrices. donde 0 ≡ ||0|| es la matriz nula. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α. 4.2. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p. Entonces: u 1. Teorema B. (A · B)T = B T · AT .11) aik bkj .5. A · 0 = 0 · A = 0. k veces donde A0 ≡ In . (A1 · A2 · · · An )T = AT · AT · · · AT . 1 n−1 n Como consecuencia de este teorema tenemos que . A · (B + C) = A · B + A · C.11 Sean A de m × n. Si A = ||a ij ||. (α A)T = α AT . es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . Multiplicaci´n de matrices..5. 5. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . 2. 4. entonces AT = ||aji ||. (AT )T = A. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ]. 2. 1. k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. α(A · B) = (α · A) · B. 6. Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ].´ B ANEXO: ALGEBRA LINEAL B. la matriz transpuesta de A. o Dada una matriz A de m × n. es la matriz de n × m cuyas filas coinciden con las columnas de A. . (A + B)T = AT + B T .

El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A. Por ejemplo. entonces a C se le denomina matriz inversa de A y se le denota A −1 .14 Sea A una matriz cuadrada de n × n invertible.5. 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. Si existe una matriz C tal que A · C = In . C · A = In . . y su soluci´n se expresa por la f´rmula o o −1 b. 2. o Teorema B. ´ Teorema B. Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n .5. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 . n n−1 1 B. 3. AT es invertible y (AT )−1 = (A−1 )T . N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. (A−1 )−1 = A. (A · B)−1 = B −1 · A−1 . al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. x=A Teorema B. Entonces: 1. Si A es invertible entonces A−1 es unica. Matrices elementales. entonces A−1 = 1 ad − bc d −b −c a .´ B ANEXO: ALGEBRA LINEAL B. La inversa de una matriz cuadrada. es decir son las que se obtienen al intercambiar dos filas.15 Sean A y B matrices cuadradas de n × n invertibles.13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d .4.5. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . 92 Sea A una matriz de n × n.

E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila. entonces [A In ] ∼ [In A−1 ]. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1.17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n.. 2. . 7. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . Las o siguientes expresiones son equivalentes: 1. Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . . A b 2 = e2 . Construimos la matriz [A In ]. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . Teorema B. (A tiene n posiciones pivote) A es un producto de matrices elementales. Existe un D tal que D · A = I. Por ejemplo. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. (Las columnas de A son linealmente o o independientes. reducen In a A−1 . 5. o ´ Existe un C tal que A · C = I. 2.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In .. · · · A b n = en .. la inversa de E1 es E1 . −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . Reducimos por filas la matriz A a In . 3.16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In .) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n . A es equivalente por filas a la matriz identidad In de n × n.  Teorema B. en son las columnas de la matriz identidad. Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . A es invertible. donde e1 . La ecuaci´n A x = 0 solo tiene la soluci´n trivial. o sea. 6. 4. o sea.

. a12 a22 . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. . . . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. Sea A una matriz n×n (n ≥ 2). . . .13) Denotaremos por Aij a la submatriz que j. . Definici´n de determinante de una matriz cuadrada. . . . . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . ··· ··· . .. . . .. Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . o sea  a11 a12  . . . . . . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . que se conoce como desarrollo del determinante de A por su primera fila. B. . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . . AT es invertible.       (B. . . . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. . .  .13).6.1. . . . .  ai−11 ai−12 Aij =   ai+11 ai+12   . . . . .. . . B = A−1 . . anj+1 · · · ann · · · a1n . . · · · ai−1n · · · ai+1n . . . Determinantes. . (B. . . . .           . . . .6. .´ B ANEXO: ALGEBRA LINEAL 8. . . a1n a2n . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . . .. M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n .  .  . a1j+1 a2j+1 . . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . an1 an2  a11 a21 . entonces A y B son invertibles y A = B −1 . .  . · · · anj−1 anj+1     .. .. B.. . ··· ··· . donde suponemos que det a = a si a es un n´ mero real cualquiera. .. .

18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . . e Teorema B. Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. .. . la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. . . .´ B ANEXO: ALGEBRA LINEAL Teorema B. respectivamente. Luego. . mediante transformaciones elementales. .. a Teorema B. .2. Si E1 es la matriz que intercambia dos filas. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. . Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . . Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . . . det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. an2 · · · ann r ai1 r ai2 . B. . . . Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. o 1. . det A = 0 y si una fila de A es proporcional a otra det A = 0. . . . . det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. transformar en una matriz triangular superior U (forma escalonada). .6. . . . o sea. Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. si a Entonces. Es conocido de apartados anteriores que cualquier matriz A se puede. . Por ejemplo. . Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. . ai2 · · · ain . Este razonamiento nos conduce al siguiente teorema. an1 a12 · · · a1n . la matriz B = E1 · A se obtiene al intercambiar dos filas de A. .20 Sea A una matriz n × n. la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s.21 Sea A una matriz n × n y sea AT su traspuesta. . Pero si A tiene n filas pivote entonces A es invertible. Teorema B. . .. 2.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. . entonces det E = α. · · · ann a11 . · · · r ain . . respectivamente. a12 . . =r ai1 . E2 ´ ´ o E3 . an1 an2 En particular si una fila de A es nula. . · · · a1n . entonces det A = det AT . 3. Propiedades de los determinantes.. .

det An (ej ) = (−1)n+j det Ajn = Cjn . . .  . . .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. b =  bi  . .   . . .   . .  ai1   .. . · · ·.  . .  . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . en son las columnas de la matriz identidad. .  . . . . . .  .6. .. bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . .  . . · · · aij−1 aij aij+1 · · · ain   xi  . . · · · .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) . o Finalmente. . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 .  . .    . . . Entonces det(A · B) = (det A) · (det B).  . .. .   . . .. .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . . .  .   .    . . . . bn b    . Sea A una matriz n × n y b un vector cualquiera de R n . . . an1 · · · anj−1 bn anj+1 · · · ann Teorema B. xn = det An (b) . .. .  .      . . . seg´ n la regla de Kramer.  . . . · · · A b n = en .. . an1 matriz n × n invertible.  .  . . .. . . . . . . . B. donde e1 . det A ···.  . . . . . . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . . ..  .    .  . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. .3. recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . . det A x2 = det A2 (b) . . .      . Regla de Kramer..  . . .. . .. . A =  ai1 · · · aij−1 aij aij+1 · · · ain  . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas). . .. . xn = . .  . .  . . . .   =  bi . .24 Sea A  a11  . . . .23 Sean A y B matrices n × n..  .  . . . . o Teorema B.. .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . . . . . . . ..  . . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. o u det A1 (ej ) det An (ej ) x1 = . A b 2 = e2 .

. . . . . Entonces V es un espacio vectorial si u 1. . En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados. . w = x + y. y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . . .´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . . Esta propiedad se conoce como la multilinealidad del determinante Teorema B.. . Cjn   . β n´ meros reales. Definici´n y ejemplos. . . el vector suma.. 1  . .. La matriz ||C lm || se denomina matriz adjunta de A. . 2. . . C1n C2n · · · Cjn · · · Cnn       .  −1 A =  .. .7. . n.16 del cap´ ıtulo anterior. Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. ...20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . . an . Cni   .25 Sea A una matriz invertible n × n. o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x. Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   .1. . T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y).7.. . .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x).. . . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x.     B. . . vectores de V . ..18 y B.  . k = 1. tambi´n es un vector de V y se e cumple que: . . B. Espacios Vectoriales. y. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B. det A  C1i C2i · · · Cji . x de Rn .. La aplicaci´n anterior es lineal pues para todo α de R y x. z elementos arbitrarios de V y α. . Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). Para todos x e y.. .

4. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V . b]. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V .) El conjunto de las funciones continuas en el a o intervalo [a. el vector w = x + y tambi´n es un vector de H. a0 . .) Para V = C[a. 1. para cualquier n = 0. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento. 2. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . que denotaremos por P n ... 1. x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . 2. o sea.. 3.) Para V = Pn . si y s´lo si a0 = a1 = · · · = an = 0. tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. pn = 0. ´ 2.}. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x. que denotaremos por C[a.) El conjunto de los polinomios de grado a lo sumo n. vectores de H. Subespacios vectoriales. H = Pk es un subespacio vectorial para todo k < n.. Teorema B. q(x) = b0 + b1 t + · · · + bn tn . cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). o 2.2.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones.. entero. El elemento nulo de V pertenece a H. an n´ meros reales.7. w = α · x. e . el vector que se obtiene al multiplicar por un escalar.) Dado un espacio vectorial V . . Pn = {pn (t) = a0 + a1 t + · · · + an tn . (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn . Dicho espacio lo denotaremos por R m×n o 3. o Ejemplos. el nulo) y H = V (el mismo espacio vectorial). Para todos x e y. 1. Sea V un espacio vectorial. 1.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. H = Pn es un subespacio vectorial. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn .b] .) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3.´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2.b] . B. Adem´s. (α · f )(t) ≡ α · f (t).

entonces sus columnas a 1 . vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s..... Por tanto las siguientes afirmaciones son ciertas: 1.. an son linealmente independientes y adem´s R n = Span(a1. b2 . o sea.. el vector w = α · x tambi´n es un vector de H...... v2 . o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes... si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3. Por tanto B = a1 . . v2 . v2 . Teorema B. vp se denomina linealmente dependiente si existen los valores x1 . es decir. bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . v2 . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . vp .27 Dado un conjunto de vectores {v1 . · · · . .. .. vp } de un espacio vectorial V .. an es una base de a . . . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 .. B.. v2 . es o decir... tiene como unica soluci´n la trivial x1 = · · · = xp = 0.. x2 ... xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 .. Un conjunto de vectores v1 .. Conjuntos linealmente independientes. el vector v j es combinaci´n lineal de o o los anteriores. vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes. ... 1 < j < p.. Por ejemplo. vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0.. o a Un conjunto S = {v1 . e Teorema B. vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. v2 . . B genera a todo H. b2 . v2 .. Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. Bases..´ B ANEXO: ALGEBRA LINEAL 3. ´ o Un conjunto de vectores v1 . ... 2.. . v2 . vp ) es un subespacio vectorial de V . v2 .7.. . bp ). entonces B es una base de todo el espacio vectorial V . vp necesariamente cada vector es combinaci´n de los anteriores.. an ).. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 .. .. 99 Para todos x vector de H. En particular si H coincide con V . si tomamos una matriz n × n invertible. .. Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . el conjunto span (v1 .3.. Un conjunto S = {v1 . .28 El conjunto de dos o m´s vectores v1 .. .

v2 =  1  ... digamos el vj ...... t 2 .. v2 .  .  + x 2  .7. .  .  = x 1 e1 + · · · x n en . . vk−1 .   . Por ejemplo. v2 . Sin embargo. Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1... H = Span(v1.. . v3 ] = span [v1 . Supongamos que B = {b1 . v3 =  1  .. e2 .. En particular.  + · · · + x n  . v3 no son linealmente a independientes... . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 . vp ) = span (v1 . Adem´s. S se conoce como la base can´nica de Pn ... bn } es una base del espacio vectorial V .. t. vk−1 ... El siguiente teorema generaliza este resultado para cualquier espacio vectorial V .. S = {v1 . o Otro ejemplo lo constituye el conjunto de vectores S = {1. .  . bn } una base del espacio vectorial V . ii) Si H no es el espacio {0}. v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores. las columnas e1 . v3 } no es una base de H pues v1 . .. H = Span [v1 . . vk . . en de la misma son una base de Rn la cual se conoce como base can´nica de R n ... v2 .  . . v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. . v2 . la matriz identidad n × n. Adem´s. vk+1 ... v2 ..29 Sea S = {v1 . es combinaci´n lineal de los o restantes. t. vk+1 .. o sea. Sistemas de coordenadas. o Teorema B. u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial. Entonces si suprimimos a dicho vector vk del conjunto S.. vp ).. H no cambia. si A = In . t 2 . .. xn ... v1 = 0 0 0 Es evidente que H = Span[v1 . tn } del espacio vectorial Pn . b2 .. i) Supongamos que un vector de S. entonces alg´n subconjunto de S es una base de H.. B. es evidente que dado un vector x de R n sus coordenadas.  .30 Sea B = {b1 ..  = x 1  . consideremos el espacio generado por los vectores       2 1 1  0  . v3 ] .´ B ANEXO: ALGEBRA LINEAL 100 Rn . . 1 ≤ j ≤ p. Entonces para todo x de V existe un unico conjunto de valores {α1 . Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V ..4. . ´ Teorema B. a son unicos.. es decir los valores x1 . Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  . b2 . 0 0 1 xn .  . v2 ... . el conjunto B = {v1 . Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas... tn ) = a Pn . . αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn . vp ) un subespacio de V .

es decir si V = Span(b1 .32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . a Este teorema es una generalizaci´n del teorema B. y por tanto. dim{0} = 0. Si V no puede ser generado por una base finita de vectores. . Teorema B... la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B . b2 .. bn }. Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 .. su dimensi´n. Consideremos nuevamente las coordenadas en Rn . dim Pn = n + 1.. .. dim C[a.....7.. dim Rn = n. bn ). . bb } es una base de V y lo escribiremos de la forma dim V = n. . entonces cualquier otra base de V tendr´ que tener n vectores de V . entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente.. ..   . ... en }. si las coordenadas de x en la base can´nica C son x 1 .. o sea o −1 [x]B = PCB · [x]C = PBC · [x]C . bn )...b] = ∞. Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. b2 . bn }. αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. . αn      B 101   y lo denotaremos por   o [x]B .. Adem´s dim H ≤ dim V ..5. . Por ejemplo. o a es decir si V = Span(b1 . a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos.34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 . bn } un conjunto de exactamente n vectores. B. N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica.33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V .. o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . . b2 . o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . b) Si S genera a todo V . . Entonces: a) Si S es un conjunto de vectores linealmente independientes.´ B ANEXO: ALGEBRA LINEAL  α1 α2 . o Teorema B. La dimensi´n de un espacio vectorial.  = PCB · [x]B . a Teorema B. En el caso que V = {0} sea el espacio vectorial nulo. .. o Teorema B. S es una base de V . entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. donde B = {b1 . S es una base de V .. Supongamos ahora que pasamos a una nueva base B = {b1 . Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. . b2 .8.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . o (dim V = n < ∞).. b2 .... Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . e2 . xn . . bn }.

.. an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. . donde I es la matriz identidad n × n. dn } o dos bases de V . o sea. .. y2 . cuyas columnas a1 . . (B. es decir.  . b1 = a11 d1 + a12 d2 + · · · + a1n dn .   . 2. d2 . −1 [x]B = PDB [x]D .7. · · · . b2 . yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B .. al vector no nulo x = 0. Sea A una matriz de n × n. Cambio de base. B.. Como D es una base de V y los elementos de B son elementos de V .  .  x = x1 b1 + · · · + xn bn −→ [x]B =  . . n.. b1 = an1 d1 + an2 d2 + · · · + ann dn .. ann      D   b1 =       . . Es importante destacar que conocido el autovalor λ. . .. el conjunto de los autovectores asociados a λ. bk = ak1 d1 + ak2 d2 + · · · + akn dn .   .´ B ANEXO: ALGEBRA LINEAL B. yn . Por tanto tenemos que [x] D = PDB [x]B . resolver (A − λ I)x = 0... o sea. yn D a1n · · · akn · · · ann xn B Adem´s. ´stos se podr´n e a escribir en la base D. .8.. xn y D son y1 . .6. que coincide con una base del n´ cleo de A.    x1   . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones.15) tiene soluciones no triviales. e Teorema B. . autovector de A asociado al autovalor λ. Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. x2 . El problema de autovalores de una matriz. . PDB es una matriz invertible (sus columnas son linealmente independientes). y x = y1 d1 + · · · + yn dn −→ [x]D =  . i = 1. =⇒  a11 a12 .. . . . dado un autovalor λ de A. bn } y D = {d1 . .. Denominaremos al vector x de R n . a1n   an1 an2 . o sea. a2 . 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 .  .. tal que A x = λ x. .  .. .35 Sea A una matriz triangular de n × n.  .. xn B en la base  y1 . . es un subespacio vectorial de R n . . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii . bn =     D .. Por tanto.14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ.  . o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = . (B.  . Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . x = 0. luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B.. entonces el sistema a (A − λ I)x = 0. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ. .

. tal que A = P · B · P −1 . o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. Teorema B. tiene soluciones no triviales. O sea. λ es un autovalor de A si y s´lo si p n (λ) = 0. Si A = P · D · P −1 . Sean A y B dos matrices n × n. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0. A es invertible. La ecuaci´n caracter´ o ıstica. entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores.8. entonces tienen el mismo polinomio caracter´stico y. o Matrices similares. si existe una matriz P invertible y otra D diagonal. Diremos que A es similar a B si existe una matriz invertible P . Las siguientes expresiones son equivalentes: 1. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ. Diagonalizaci´n de matrices. La transformaci´n que a cada matriz le hace corresponder otra similar.8.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes.37 Si las matrices A y B de n × n son similares.15).. Teorema B. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio. λp son linealmente independientes. ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B. . se o denomina transformaci´n de similitud. Entonces los autovectores v1 . los mismos autovalores. tales que A = P · D · P −1 . Teorema B. por tanto.. distintos. vp asociados a los autovalores λ1 ..16).2. conclusi´n.17). (A − λ I)x = 0. (B..36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp . (B. o sea. para demostrarlo es suficiente tomar Q = P −1 .. 2. det(A − λ I) = 0.´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz. A −→ P −1 · A · P . o Teorema B.) Sea A una matriz cuadrada A de o o n × n. o B = P −1 · A · P. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. λ2 . .. Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.17 (Teorema de inversi´n de matrices. Es decir si U es la forma escalonada de A los autovalores de A y U son. B. en general. donde D es diagonal y P invertible. o sea.17) Es evidente que si A es similar a B. v2 .16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A.1. B es similar a A. ı B. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible.

..40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. o sea. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p . o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .16). Adem´s. Encontrar los autovalores de A resolviendo la ecuaci´n (B. . 4.. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. 2. Para ello comprobamos que A · P = P · D. dim(B) = n1 + n2 + · · · + np . o . 2. Teorema B.38 nos asegurar´ que nuestra matriz es diagonalizable. A es diagonaa lizable si y s´lo si dim(B) = n. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k . Teorema B. 1. Es recomendable comprobar que hemos calculado correctamente P y D.. entonces es diagonalizable. Si A es diagonalizable continuamos como sigue. λ2 . 3. p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. Algoritmo para diagonalizar una matriz A. Si tenemos en total n autovectores linealmente independientes entonces el teorema B.39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Entonces B es un conjunto de vectores de Rn linealmente independientes. si B contiene exactamente n vectores. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso..´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . k = 1. Sea Bk . .. λp .

∞ k=0 zk . converge uniformemente en [0. an . Consideremos ahora en caso real.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n .2) est´n centrados en el origen y en el de las series (C. Obviamente si tenemos una serie de potencias del tipo (C. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . a Teorema C. an . existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. (C. z ∈ C. cualquiera sea la serie de potencias a ∞ n=0 an z n .1). Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. x ∈ R.1. z ∈ C.1) que denominaremos serie de potencias. Si la serie converge para cierto r ∈ R. Si la serie converge para cierto w ∈ C.3 Sea la serie de potencias ∞ n=0 an xn . Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. A diferencia del caso complejo.1). si la serie converge en x = R (x = −R).2) haciendo el cambio de variables ζ = z − z 0 y viceversa. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . k! ∞ k=1 zk . Anexo: Series de potencias ∞ n=0 Definici´n C. En- tonces. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C.4 Sea la serie de potencias ∞ n=0 an xn . k etc. entonces podemos definir la funci´n suma f (z) de la serie. Adem´s. se puede saber mucho m´s sobre la serie. es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R. o C.C ANEXO: SERIES DE POTENCIAS 105 C. a en z0 (ver la figura 20). an . en el caso de las series de la forma (C.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . 0]). an . R] ([−R. En este caso hay que trasladar los resultados a la recta real. la podemos reducir a a la anterior (C. N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 . (C. Teorema C. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. en el caso real si se sabe la convergencia en alguno de los extremos. . La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que.2) es decir. entonces absolutamente para todo x ∈ R con |x| < |r|. cuando z0 = 0. x ∈ R y R su radio de convergencia.

Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. x ∈ R. ım en cuyo caso 1 an an+1 = l´ n |an |. Teorema C. an xn es continua en (−R. R). siendo R el radio de conver- En otras palabras. =⇒ ım = l´ ım . Entonces R = l´ ım n→∞ n 1 .5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. n+1 2.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). si dicho l´mite existe. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x .7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. ∞ n=0 Teorema C. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. Teorema C. o sea. o sea.6 La funci´n f (x) = o gencia de la serie. an . x ∈ R con radio de convergencia R > 0. ∞ n=0 an xn . se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . . an .

1). ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. Para calcular la derivada usamos el teorema anterior. (C. f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s. 1). f (0) = 1. La funci´n que cumple lo anterior es la funci´n e x . Esta serie converge en (−1.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . n (−x)n = ∞ n=0 (−1)n xn . (C. x ∈ (−1. R). (C. 1 = 1+x (−1)k xk . n (C. a ex = ∞ k=0 ∞ k=0 xk . x ∈ R. x ∈ (−1. (2k + 1)! ∞ k=1 cos x = (−α)k k x .4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. k! x ∈ R. k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1.8 Probar que la funci´n f (x) = o su derivada.8) .7) Usando (C. a o o Los teoremas anteriores permiten calcular un buen n´ mero de series. n Funciones elementales del an´lisis.6) Aplicando la integraci´n t´rmino a t´rmino en [0. x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . 1).3) sen x = (−1)k x2k+1 . Ejemplo C. radio de convergencia +∞.C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R.5) xk . as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x). como ya hemos calculado antes. 1). por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . ∞ k=0 (C.

(C. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 .5) con α = − 2 y cambiemos x por −x2 . (C. 1). integrando t´rmino a t´rmino en [0. (C. 1). x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 .9) 1 Escojamos ahora (C.C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. = 1 − x2 k=0 k! ∞ x ∈ (−1. 1). tenemos √ 1 ( 2 )k k 1 x . k!(2k + 1) x ∈ (−1.11) . 2n + 1 x ∈ (−1.10) de donde integrando t´rmino a t´rmino en [0.