´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . . . . . . . . . . . .3. . . Sistemas lineales y matrices. . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . Problemas . . . . . . . Problemas . . . . . . . . o B. . . . . . . . . . . . . 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . . . Integrales trigonom´tricas. . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . e A. . . . . . . . . . . . . . . . . .5. . . . . . . . . Formas escalonadas y el algoritmo de reducci´n por filas. . . . . Anexo: Algebra lineal B. . . . 105 . . e o A. . . . . . . C. Integrales irracionales. . . . . . . . . . . . . .6. . . Algebra de matrices. . . . . . . . . . Problemas . . . . . . . Determinantes. . . . . . . . . . El teorema de existencia y unicidad para las EDOs 7. . . . . . . . . . Soluci´n de un sistema de ecuaciones lineales. . . . . . . . . . . . . . . . . . . . . . o A. . . El problema de autovalores de una matriz. . . . . . . . . . . . . . . . . . . M´todos de integraci´n. . . . . . . . . . . . . ´ B. . . .3. . . . . . . . Integraci´n de funciones racionales. . . . . . . . . . . . . . . . A. . . Anexo: Series de potencias 105 C. . . . B. . . . . . .1. . . . . . . . . . . . . .4. . . . . . . . . . . . . . B. . . . . . . . . . B. Propiedades de las series de potencias . . . . La transformada de Laplace 8. .5. . . . . .1. . 7. . . . . . . . . . . . . . . . . . . . . . . . .2. . . .1. Espacios Vectoriales. . . Anexo: C´lculo de primitivas a A. . . . . . . . . . .8. 8. . . . . .4. . . B. . . . Vectores y ecuaciones matriciales. . . . . . . .6. . . . . . . . . . . . . . . o B.7. . . . . . . . . . . .

La ecuaci´n de Bessel. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Puntos regulares y singulares. Ortogonalidad y relaci´n de recurrencia. Sistemas lineales con coeficientes constantes. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. La matriz exponencial eA y sus propiedades. o a a Programa de la asignatura. Los momentos de las o o distribuciones continuas de probabilidad. Los sistemas lineales y la EDO de orden n. e o o Cap´ ıtulo 5: M´todo de las series de potencias. La EDO lineal de primer o orden. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Aplicaciones. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. Reducci´n de orden. e M´todo de integraci´n por series. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Ecuaciones diferenciales de primer orden. Ejemplos y aplicaciones. Ecuaciones de Bernoulli y de Ricati. F´rmula de Rodrigues. . Ecuaciones separables. M´todo de variaci´n de coeficientes.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. La ecuaci´n hipere o o geom´trica de Gauss. Existencia de la soluci´n. EDOs lineales de orden 2. Funcioo nes generatrices. Aplicaciones. Ecuaciones o lineales. Relaci´n con los sistemas de ecuaciones de primer orden. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. Polinomios cl´sicos discretos. EDOs de orden n. Sistemas de ecuaciones diferenciales ordinarias de primer orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. La EDO lineal o de primer orden. M´todo de Pic´rd. Aplicaciones. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Los polinomios cl´sio e o a cos. Ecuaciones diferenciales exactas. Ecuaciones lineales. Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Funciones generatrices.

No. 2002). MIR. Series...M. Springer Verlag. Integrales mltiples. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. Jr y David E.. Edwards. Para aprobar el examen es necesario obtener al menos 5 a puntos. Differential Ecuations and their Applications. Ecuaciones diferenciales y c´lculo variacional. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos. Despacho: 1er piso.E.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. Rainville E. Funciones de variable compleja. P. y Bedient R. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas. Bedient P. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Fundamentos de ecuaciones diferenciales. Marcell´n. s´lo en caso a a e o de mejorarla. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. 9 y 10 (URSS. 15-06 a . Casas´s.. MIR. G. McGrawo Hill. Simmons. Krasnov M.K. Ed. ´ Renato Alvarez Nodarse.S. McGraw-Hill. Bibliograf´ ıa Bibliograf´ b´sica ıa a C.D. Ecuaciones diferenciales. A. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. K. BOIARCHUK y G. Bugrov Ya. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. y Makarenko G. MIR. Prentice Hall. Elsgoltz L. a Kisilev A. H. Ecuaciones diferenciales. y Saff E. Pearson Educaci´n. GOLOVACH.E.F. Nikolski S. F. y Zarzo. Mod 15. Facultad de Matem´ticas. o Colecciones de problemas A.B. Ecuaciones diferenciales elementales. Pearson Educaci´n o Nagle R. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Bibliograf´ complementaria ıa Braun M. Matem´tica Superiores. Problemas de Ecuaciones diferenciales ordinarias.. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. L. Penney.

.1. . . Por ejemplo. . . ∀x ∈ A.. . . . y (x) + 3y (x) + 2y(x) = 2 cos(2x). y (x) = y. y (n−1) (x0) = y0 (n−1) . . y . As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. Nuestro principal objetivo es aprender a resolver EDOs. y (n) ) = 0. y . Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. (1. . y . y (x). y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . Estas ecuaciones son el objetivo del presente curso. Por ejemplo. Nos centraremos en las ecuaciones del tipo (1. Ecuaciones diferenciales “ordinarias” F (x. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. y (x) = sen x. las ecuaciones funcionau a les donde las inc´gnitas son funciones. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. y(x).1) se transforma en una identidad para todo x ∈ A. y + e − 1 = 0 es de orden dos. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. Diremos que o u una ecuaci´n diferencial del tipo (1. multiplicaci´n y divisi´n. Existen ecuaciones m´s “complicadas”.1) es de orden n si en ella aparece la derivada y (n) . En segundo. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). x2 + 4x = −3. Por ejemplo o 3x + 2 = 5. y . x2 − 2x + 1 = 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. x2 − 1 Estas ecuaciones.1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”.1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. resta. 1. En particular el denominado problema de valores iniciales (PVI). mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. En primer lugar por que estamos buscando funciones de x y no simples valores de x. quiz´ las m´s sencillas. o y (5) + 3 sen x − y = 0 es de orden cinco. Diremos que y = y(x) es una soluci´n de la (1.. . y (n) (x)) = 0. y. . ı. . Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. . x2 + 1 = 0. Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. La tercera sin embargo no tiene soluciones reales. . y (x) − ey(x) + 7 cos x = 0. y (x0) = y0. y. pero si complejas x = ±i.

4 Resolver la EDO del ejemplo 1.2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden.3) Ejemplo 1. x2 x2 x2 x2 x2 Definici´n 1.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1. o Como la soluci´n general es y(x) = Ce− 2 + 2. Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I. o o e ecuaci´n no homog´nea. dx Definici´n 1.1 La ecuaci´n o o a(x). de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 . dx a(x). (1.3 El problema de encontrar una soluci´n de la ecuaci´n (1. y(x0) = y0.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2. Teorema 1. la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt .4). (1. o sea. entonces. (1. La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x).2. b(x) ∈ CI .2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. ´ o En general.2 con la condici´n inicial y(0) = 1. o e La soluci´n general de (1. tenemos y(0) = 1 = C + 2. b(x) ∈ CI . existe una unica soluci´n del problema de valores iniciales (1.5) . d y(x) + a(x)y(x) = b(x).4).2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden.4) Ejemplo 1. para cualquiera sea el valor y0 .

6 (derecha) y circuito el´ctrico del ejemplo 1. Encuentra adem´s la a curva que pasa por el origen. Supongamos que el voltaje U es constante y que i(0) = i0.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva.8 (izquierda) e Ejemplo 1. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1. donde p es la presi´n en funci´n de la altura h. Ejemplo 1.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1.y) R 0 (x/2. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. Realizar el mismo estudio si U = U0 sen(ωt). Si h = 0. λ > 0.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t).8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U. dt donde L es la impedancia. Encontrar la dependencia de i respecto al tiempo t. la presi´n al nivel del mar (1 atm). h .0) x U L Q Figura 1: Curva del ejemplo 1. R la resistencia y U el voltaje.3.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x. y = 2y/x Ejemplo 1. y t y(x) P(x.

N (t0) = N0. 2 =⇒ λ= log 2 0. (1. E.64 0.g. Por ejemplo. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226.81 0.000124488 1/a˜os n 9 −10 4. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0.7) . que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva.71 0.0315067 1/a˜os n 138 d´ ıas . N (t0) = N0.000433217 1/a˜os n 47 min 0.5110 a˜os 1.32 4 Si h → 0.0147478 1/min 22 a˜os n 0. si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı. o e Si llamamos a esa aportaci´n r(t). lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones. (1.693147 = . Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo. u ´ N0 = N0 e−λT .5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva. entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t).00502281 1/dias 5568 a˜os n 0.62 0. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t).6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0.

y) = 1 + x2 − y = 0. y. y) = e2x + ey−x − 1 = 0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. y. y) = y − ex + 2 = 0. f (x.4. y = (y + e−x ) tan x 8. f (x) = 3/4e−2x . 3. f (x) = sen x 10. o o a o 1. y. y ) = xy + y − y 2 = 0 F (x. Problemas de EDOs lineales Problema 1. y + 2y = f (x). f (x. √ 6. y ) = yy + x = 0 F (x. y ) = y − y = 0 F (x. y = 6y + x2. y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. f (x. y) = y − 2 2+x F (x. y) = x2 + y 2 − 25 = 0. y. 2. y + y = xex 5. y ) = yy + x = 0 F (x. y ) = ex−y + ey−xy = 0 F (x. x y + y = x sen x Problema 1. Problemas Problema 1.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. y + xy = f (x). y + 2xy = x 4. f (x.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1. y) = x2 + y 2 + 1 = 0. y + x2y = x2 6. y + y cos x = 0 √ 2. y(1) = 0. f (x. y ) = y + y/x = 0 = 0. y. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. y) = x3 + y 3 − 3xy = 0.11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. 7. 5. 8. y ) = (1 + x2)y − xy = 0 F (x. y. x y + y = x3 7. 9. y = 3y + e5x . y(0) = 2. 2. 4. y ) = (y 2 − x)y − y + x2 = 0 F (x. y. y. x y + y cos x = 1/2 sin(2x) 11. y. . y + y x = 0 3. y) = x2 + y 2 − 25 = 0. f (x.5). f (x) = 3e−2x . f (x. f (x.

Problema 1. 2). ım . ∀x ∈ R. x2 + 2y 2 = 24).0) y(x) t P(x. c ∈ (0. Encontrar la curva que pasa por (4. 4.y) Q x n Curva del problema 1. b(x) ∈ CR . ım a(x). 0 ≤ t ≤ 1 0. x→∞ l´ b(x) = 0. y(0) = 1. (1 + x2)y + 4xy = x. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x).15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . y(1) = 1/4.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x. y 0 (x/2. x→∞ a(x) ≥ c > 0. y(0) = 0. t > 1 6 5. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial.14. Problema 1. b ∈ R. x→∞ a. ∞). y = y + e−x sen(2x). y + y = g(x). g(x) = 2. es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. (sol.

C = a/b. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1. 2. y) (2. Cuando esto ocurre se dice que la EDO (2. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x). y) = a(x)b(y).3 La velocidad de escape de la Tierra .2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b. luego x(t) = ab Ejemplo 2.2) cuando b ≡ 0. entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. Supongamos que a = b. (2.2) como x(0) = 0. Supongamos que la funci´n f (x. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C.1 Resolver la ecuaci´n y = x/y.1) admite la factorizaci´n f (x. y) en la o EDO y = f (x. Ejemplo 2. La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 .1. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . Por ejemplo. si nos interesa el PVI con la condici´n a o √ 2. Aplicaciones Ejemplo 2. b−x 1 − e(a−b)κt .2 OTRAS EDOS DE PRIMER ORDEN 7 2.1. b−x x(0) = 0. entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C.1) es o una ecuaci´n separable. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales.1. donde el signo + o − diferencial propuesta. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x). y(0) = 3. donde κ es la constante de proporcionalidad. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C.

tenemos GM T = gR2. v(0) = v0. Usando la regla de la cadena tenemos v gR2 dv =− 2 .5 Resolver el caso r = 3. ω= κ > 0. Como g = GMT /R2 .2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra.3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). g Escojamos r = 2. 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR. g Como ω > 0. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C. entonces. .4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r . entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. Si usamos la ley de Newton tenemos dv GMT =− 2 . siendo R el radio de la tierra (que supondremos una esfera). lo cual nos conduce al valor v0 ≥ 2gR. Ejercicio 2.8m/s2 obtenemos v0 = 11200m/s = 11. 1 − ω2 vr ω2 = κ . por ejemplo. r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. Poniendo los datos R = 6400000 metros g = 9.2Km/s. (2. Ejemplo 2. Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv .

Verhulst.4) cuya soluci´n p(t) = p0 er(t−t0) . F. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. o .5) tenemos p(t) = rp0er(t−t0) . de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t).5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2. p r/c p(t0) = p0. gr´fica 2. no hay o o a emigraci´n ni inmigraci´n).1. (2. r − cp0 + cp0 er(t−t0) (2. =⇒ p (t) = r(t. r > 0. Supongamos que la poblaci´n est´ aislada (o sea. propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). l´ t→∞ p(t) = r/c independientemente a ım de p0 . p)p(t)h. en particular. Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. p) = r.2 OTRAS EDOS DE PRIMER ORDEN 2. (2.5. p)p(t).4) es una aproximaci´n bastante buena. El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. Luego p(t + h) − p(t) = r(t. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n. P. As´ la o a ı. c > 0. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. r. poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento. e Aunque el modelo funciona razonablemente bien para poblaciones grandes. p). Sea r(t.6) Adem´s.2. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t. p(t0) = p0 . constante. h → 0. Malthus (1766– e e 1834). Resolviendo la EDO (2. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 . el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales.

(x log x)y + 1 + y2 = 0 7. y(0) = 0 3. 3xy = y cos x. l´ x→∞ y(x) = 5π/4 ım 2 . (1 + x2)y = 1 + y 2 2.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. y(1) = π/2 1+x 5.7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. b > 0.2 OTRAS EDOS DE PRIMER ORDEN 10 2. (1 − x)y = (x + 1)y. y = xy(y + 2) 3. 2. yy + x − 3xy 2 = 0. (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. cos(y)y + ex+1 tan y = 0 8. x2y − 1 = cos(2y). a. cos(y)y = − x sen2y . Problemas Problema 2. y(2) = 1 4. y(1 + x2)y + x(1 + y 2 ) = 0 4. y(1) = 0 6. cotg(y)y = x2 + 2 6.2. y(x0) = y0 > 0. y = 1 − x + y 2 − xy 2 5. y = y(a + by).

La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . Veamos un ejemplo. =⇒ z + (1 − n)a(x)z = (1 − n)b(x). En efecto. Hacemos el cambio z = y −3 . y hagamos el cambio o z = y − yp . Usemos la primera para resolver la EDO.3) que nos da o o x C z = − + 2. (2. x C − x3 . que es lineal y por tanto podemos usar la f´rmula (1.8 Resolver la EDO y − 1/(3x)y = y 4 log x. la podemos convertir en una EDO lineal. En general.8) que hab´ considerado a˜os antes Jacob Bernoulli. y =− 1 z − 2.9 Resolver la EDO de Riccati y = y 2 − 2/x2.3. Pasemos a estudiar la EDO de Riccati.8). 2 x z =⇒ 2 z + z = −1. x 2 4 −1/3 . mediante el cambio y = yp + 1/z. Supongamos que yp es una soluci´n particular de (2.1. 3 x =⇒ y= 3x2 1 + . z = (1 − n)y −n y . Ejemplo 2. x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x. 2. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n. luego la EDO se transforma en 1 z + z = −3 log x.2 OTRAS EDOS DE PRIMER ORDEN 11 2.7) en una EDO lineal. x La soluci´n la encontramos usando la f´rmula (1. Hacemos el cambio y = 1/x + 1/z. Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares. n = 0. 1. Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. (2.8). dada una EDO de Riccati (2.7) La resolvi´ su hermano Jacob en 1696.3) para resolverla. y tenemos o 4 y = −y y /3. o Ejemplo 2. Esta ecuaci´n es una EDO de Bernoulli con n = 4. haciendo z = y 1−n .3. y = y 4 z. En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x). La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x.

u = y/x. En efecto. y) se denomina homog´nea de orden k si para todo x. que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C. f (u) − u Ejemplo 2.11 Resolver la EDO y = (y + x2 − y 2 )/x. y y para todo t ∈ R.9) se transforma en la EDO separable dz = x + C. z = α + βF (z). entonces y = xu + u y la EDO (2. Si hacemos el o e cambio y = ux. y) y f es una funci´n homog´nea de orden o e 0. Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. si f es homog´nea de orden 0. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3. Una funci´n e o f (x. (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C. =⇒ (z − 2)2 − 1 = Cex . u) = g(u) = g(y/x). y) = f (x. (2.4. Entonces o e f (x. Sea f una a e funci´n homog´nea de orden 0. f (tx. entonces z = α + βy . x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x.2.10) se transforma el la EDO separable xu + u = f (u). N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy).2 OTRAS EDOS DE PRIMER ORDEN 2. =⇒ z = 2 ± 1 + Cex . 2. Sea y = u x. z−2 =⇒ (z − 2)dz = x + C. ux) = x0f (1.3. ty) = f (x. entonces la EDO anterior se transforma en la EDO y = f (y/x). 12 Sea la EDO (2. ty) = e tk f (x.9) y hagamos el cambio z = αx + βy. o sea. luego (2.10 Resolver la EDO y = y − x − 1 + 1 . o e o Supongamos que tenemos la EDO y = f (x. y). . podemos perder las soluciones y = x + 1 e y = x + 3. √ por tanto y = 2 + x ± 1 + Cex . Adem´s. entonces o F (z) = z − 1 + 1/(2 − z). toda funci´n homog´nea de orden 0 es una funci´n de y/x. Como z = y − 1 tenemos z = z−2− 1 . =⇒ α + βF (z) Ejemplo 2. entonces f (tx.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. y).

Luego si hacemos y = t. es f´cil comprobar que f (tx. siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t).2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. como hemos visto u = ±1. y). Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. de donde deducimos que o y = 0 o x + f (y ) = 0. Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2. ty) = f (x. Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ). 2 y=− x2 . =⇒ √ dx du = . Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. lo que puede hacernos perder las soluciones y = ±x. si u = ±1. Esta es una EDO de Clairaut con f (z) = z 2. La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). 2. Ejemplo 2. as´ que hacemos a ı el cambio y = u x y obtenemos. La primera condici´n nos da una familia o de rectas y = mx + n. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. y) = (y + x2 − y 2 )/x. x 1 − u2 Ahora bien. c ∈ R. Para descubrir cuales son las rectas soluci´n basta notar que si y = c. Para encontrar la otra soluci´n o o usamos que x = −f (y ).11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0.11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). luego las soluciones son las familias de rectas y = cx + c2 . y la soluci´n singular o   x = −2t 1  y = xt + f (t).12 Resolver la EDO y = xy + (y )2. 4 .  =⇒ y = xt + t2 x t=− . f derivable y con primera derivada continua (2. √ 1 − u2 .5.

12) se puede escribir de la forma 0. (2. La respuesta la da el siguiente o d (φ(x. y). y) = . (2.12) se puede reescribir de la forma dx (φ(x. y) y N (x. ∂x ∂φ(x.12) a o o d es equivalente a la expresi´n dx (φ(x. y) tal que o ∂φ(x. y)) dx = d (φ(x. Por ejemplo. dadas dos o funciones M (x. y). y) ∂y ∂φ(x.12) se puede escribir de la forma dx (φ(x. y). φ(x.2) y + [a(x)y − b(x)] = 0. dx x Obviamente no cualquier EDO del tipo (2. y)) = 0.13) d Por ejemplo. sin agujeros. y) ∈ Ω. En general no es trivial deducir si una EDO del tipo (2. y) existe una funci´n φ(x.14) Por dominio entenderemos un conjunto abierto de R2 y convexo. y) = N (x. y) = C si y s´lo si (2. As´ surge la pregunta ¿cu´ndo la EDO (2. y)) = 0. y) dos funciones tales que existan todas las derivadas parciales ∂M . y) y N (x.13) o o ∂φ(x.12) tendr´ una soluci´n en cuadraturas del tipo φ(x. y)) = 0. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . y)) = + = + y. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. y) ∂φ(x. y). no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. y) en la forma equivalente N (x. y) = M (x.12) si y s´lo si (2. o sea. y). y) = C. y) ∂M (x.12) se puede expresar de la forma d (φ(x. ∂x ∂y 2 ∂φ(x. y)) dx = 0. ∂x es necesario y suficiente que ∂N (x. y)) = 0. . Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. y).12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x. la EDO lineal (1. y) tal que se cumpla la condici´n (2. y)y + M (x.12) La EDO (2. Teorema 2. ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. o o Como 0= d ∂φ(x. para cierta funci´n φ(x. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0.6. y) (φ(x. Por conveniencia reescribiremos la EDO y = f (x. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. y) ∂φ(x. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior. y) = M (x. entonces la soluci´n de la o o EDO ser´ φ(x. Entonces. y) = N (x. ∂N . por ejemplo.13 Sean M (x. ∂y (2. y) = 0. ∂y ∀(x. o lo que es lo mismo. y) = C?.2 OTRAS EDOS DE PRIMER ORDEN 14 2. y) = C es una o d soluci´n de (2. y)) = 0 si y s´lo si.

y) = C. pero ∂φ(x.17 Comprobar si la EDO lineal (1.y) ∂y = 3y 2 +cos y +x.y) En este caso M (x. define la o soluci´n de (2. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2.y) (x. es exacta.y) .14 Una EDO del tipo (2. y) = x2 + xy + cos x + y 3 + sen y = C. ∂φ(x. y encontrar su soluci´n. es φ(x. y) tal que φ(x. y) = a(x)y − b(x) y N (x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. Corolario 2.y) que ∂N∂x = ∂M∂y .15 Para que la EDO (2. Ejemplo 2. luego ∂φ(x. o sea. ∂y φ(x. y) = 2x + y − sen x. y) = 2x + y − sen x y N (x. y) = 3y 2 + cos y + x.y) (x. y) = x+h (y) = 3y 2 +cos y +x. y la soluci´n. ∂x as´ φ(x. luego M (x. es decir existe una funci´n φ(x. y) = y 3 + sen y + xy + x2 + cos x = C. as´ que no es exacta. Adem´s. luego (x. y) = y 3 + sen y + xy + g(x). o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x. y) tal que se cumple (2. ∂y =⇒ h (y) = 3y 2 +cos y.12) es inexacta (o no es exacta) si o ∂M (x. luego ∂M∂y = 1 = ∂N∂x . luego seg´n el corolario 2. en cuadraturas.18 Una EDO del tipo (2. y) = x2 + xy + cos x + h(y). y) = y + g (x) = 2x + y − sen x. =⇒ h(y) = y 3 +sen y. y) = C.12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. ı =⇒ g(x) = x2 + cos x.2) es exacta. o Ejemplo 2.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2. Para calcular h(y) usamos que φ(x. En este caso y + [a(x)y − b(x)] = 0.12) se llama exacta si N y M son funciones tales o (x.15 es exacta.13). y) = 1.y) = ∂N∂x .y) ∂y = ∂N (x. ∂φ(x. ∂x .y) ∂M (x. Vamos a resolverla. Como la EDO es exacta entonces u existe φ(x. y) = 3y 2 + cos y + x.14) en cierto dominio Ω ⊂ R2. o (x.12) en Ω. ∂x De la primera deducimos ∂φ(x. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω.

y)N (x. y) + ρ(x.14).15) Es decir. y) ∂ρ(y) + ρ(y) = ρ(y) .2 OTRAS EDOS DE PRIMER ORDEN 2. dada la EDO (2. para que admita un factor integrante ρ(x. Veamos a continuaci´n dos de ellos: a o 1.19 En general. y) = N (x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y)N (x. en cuyo caso ρ(y) = exp( S(y)dy). una ecuaci´n inexacta tiene un factor integrante ρ(x. y) ≡ 0 es un factor o integrante de (2. o o o En el primer caso (2. cuando la funci´n ρ es una funci´n que s´lo depende de y. y) de la derecha es una funci´n o o o s´lo de y. ∂y ∂x ∂x . ∂y ∂x la cual es no trivial de resolver. y)x2 cos y = xey + ρ(x. y) + ρ(x. una EDO es exacta si y s´lo si se tiene la condici´n (2. y)M (x. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. y)ey . Ahora bien.12). y) ∂ρ(x. y) ∂ρ(x. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x. y) = N (x. De hecho en la mayor´ de los casos la ecuaci´n (2. ∂y ∂y ∂x ∂x (2. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. y)y es exacta. y). ρ(y) dy M (x. y) ∂N (x. ρ = ρ(x) o o o 2.15) es f´cilmente resoluble. ∂y ∂y ∂x ∂ρ(x) ∂N (x.1. y) ∂M (x. y).15). o sea. y)M (x. y) + ρ(x.6. se dice que ρ(x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. y) cumple o o con la condici´n (2. o En el segundo caso tenemos M (x. y) .15) nos da ρ(x) luego ∂M (x. y) luego ∂N (x. Entonces. y) ∂N (x. y) ∂M (x.12) si la EDO ρ(x. y) ∂ρ(x. y) = ∂y ∂x si y s´lo si o M (x. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea. y) si y s´lo si ρ(x. y) ∂M (x. y) de la derecha es una funci´n o o o s´lo de x. y) + ρ(x. Obviamente no es exacta. ρ(x) dx N (x. y) + ρ(x) . y) ∂N (x. en cuyo caso ρ(x) = exp( R(x)dx). luego ρ(x.15) es ıa o m´s complicada de resolver que la EDO original. Factores integrantes 16 Definici´n 2. y) − 1 dρ(x) ∂y ∂x = = R(x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. ρ = ρ(y). y) ∂ρ(x. o ∂M (x. y) − 1 dρ(y) ∂x ∂y = = S(x.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

67535 0. a Consideremos ahora el problema y − 1 − y 2 = 0.95 1.693171 0. 10. 2.6 0.676582 0.807602 0. 4. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.0162994 -0.6876 0.770184 0. Adem´s.726841 0.0181506 -0.0147575 -0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x. 17.70483 0.0169031 -0.837462 0. 8.723482 0. 11.00467484 -0.15 0.759376 0.952459 0. x ≥ 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.746675 0. y(xk ) 1. 16.3 0.1 0.0187748 -0.905 0.5 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x .5 2 1 1.713061 0.9 0.0100397 -0.45 0.2 OTRAS EDOS DE PRIMER ORDEN k 0 1.686241 0.55 0.8 0. 7. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?.5 1 1.0178206 -0.694429 0. 14. 60 40 30 20 20 0. x ∈ [0.0114527 -0.0155874 -0. Los resultados se pueden apreciar en la o gr´fica 4 (derecha).5 10 -20 -40 0.713139 0.25 0. 6.0185892 -0.0137992 -0. 5.00844901 -0.716972 y(xk ) 1. y(0) = 1 con N = 20.00666595 -0. 18.65 0.735759 y(xk ) − y(xk ) 0 -0.4 0.95 0. .35 0.697474 0. 15.0127016 -0.75 0.0184046 -0. Una pregunta natural es. a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2. 13.85 0.797562 0. por tanto.74064 0.0187107 -0.05 0. 0.68072 0.676684 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0.697623 0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden.2 0.781636 0.86475 0.909675 0. 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha). 20. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4). 9. xk 0 0.704707 0. 0.710499 0. y(0) = 0. 40 y(0) = 0.7039 0. Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha).00245885 -0.680253 0.0174074 -0.871416 0.7 0. o o Si usamos un esquema de 20 puntos en el intervalo [0.829012 0. 19. 12. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda).694733 0.694092 0.725256 0. 3.698658 0. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.

yk ) + f (xk+1 . N. . xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x. . y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . ∂x ∂y 2 y0 = y(x0 ).y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. yk+1 )] . yk + hf (xk . La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). 2 k = 0. yk ) (xk . Por ello se suele usar una o o modificaci´n del mismo. k = 0. . y0 = y(x0 ). N. ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. yk ) (ver figura 6 izquierda) xk +h xk f (x. Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. . o sea. o Para ello escribamos la EDO original y = f (x. de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . es “poco preciso”. 1. 2 . y0 = y(x0 ). y(x))dx. yk+1 )] . yk ))] . es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. y(x))dx ≈ hf (xk. de forma que tengamos yk+1 = yk + hf (xk . lo que nos conduce nuevamente al esquema de euler (2. y) en el intervalo xk .2 OTRAS EDOS DE PRIMER ORDEN 2. yk ) + f (xk+1.17) en el tercer orden. yk ) + f (xk . .18) f(x. yk ) . 1. Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. yk ). yk ). . yk ) + f (xk+1 .7.19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk .20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. . es un m´todo de orden e a e uno. es decir xk +h xk f (x.2. yk ) + h2 ∂f ∂f (xk . . (2. 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . (2.

005 0.70483 0.871416 0.693171 0. 0.75 0.00821835 -0. 16.686343 0. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1.7 0. 3.74064 0.0125 0.698658 0.2 0.0075 0.8021 0. 5.00345845 -0. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .6 0.4 0.832957 0. 0.015 0.00236077 -0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado.837462 0. 20.85 0.5 0.45 0.00450443 -0.735759 y(xk ) − y(xk ) 0 -0.75202 0.0143632 -0. 17. 11.00982318 -0.698244 0.3 0. xk 0 0.0105693 -0. 10.725256 0.00904012 -0.2 0.55 0. y(0) = 1.65 0.0148955 -0.0154026 -0.6 0.775186 0.681515 0.952459 0. 8.8 1 0.01 0.95125 0.909675 0.95 1.716216 0.9 0.15 0. 6. 0.95 0. 12.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.694092 0. 4. 14.00735595 -0.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.75 0.713139 0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales). 15.0025 0.0126034 -0.0175 0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.25 0.9 0.00120885 -0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.781636 0.0112803 -0. y(xk ) 1. 7.682134 0.703238 0. 9.8 0.694733 0. 19.69333 0.723482 0.0132186 -0.1 0.684853 0. 18. x ∈ [0.4 0.00550115 -0.8 0.719873 y(xk ) 1. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.713061 0. 13.0119578 -0.867958 0. 1]. 2.85 0.690467 0.732422 0.708079 0.05 0.759376 0.907314 0.00645092 -0.697623 0.0138047 -0.35 0.807602 0.7039 0.680567 0.

(x + y + 2)y = 3x − y − 6. 4y 3 y + 4xy 4 = 4x. 5. y + y = xy 3 . y = 1 + y/x + (y/x)2. 2. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v).8. 7. Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. xy + y = y 2 log x. y = x3 + 2y/x − y 2 /x. 6.22 Resolver las EDOs de Bernoulli 1. y − 2xy + y 2 = 5 − x2. 2. x3 sen yy +2y = x (resolverla respecto a x y no a y. (4x − 3y − 6)y + x − 2y + 1 = 0. 5. 4. yp = x. n + k = n. y = 2(y/x) + (y/x)2 √ 2. . (x − x y)y = y 3.2 OTRAS EDOS DE PRIMER ORDEN 23 2. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). Considerar los casos ae = cb y ab = cd. n = 1. 3. Como caso particular resolver la EDO y = (x + y)/(x − y). 7. yp = −x2. 3.24 Supongamos que tenemos la EDO y = f (y/x). (2x + 4y + 3)y + 2 + 2y + 3 = 0. 5. y = y/x + tan(y/x). y + 2yex − y 2 = e2x + ex . 3y + y 2 + 2/x2 = 0. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2. y + 2y = ex y 2 . v = y/x. (1 − x3)y − 2(1 + x)y = y 5/2 .23 Resolver las EDOs de Riccati 1. 4. 4. Problema 2. 6. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. Resuelve las siguientes o e EDOs 1. y = (ax + by)/(cx + ey). xy − y = xk y n .

7. 2xy + (x2 − y 2 )y = 0. 3. x(ey − y ) = 2. Problema 2. 3x2(1 + log y) − (2y − x3/y)y = 0. y(2) = 1. y(0) = 1. 0 4. e En caso de que no lo sean. 8. 2.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. Problema 2. 2. y = (x − y + 5)2. 2. 3x2 + 4xy + 2(y + x2)y = 0. un factor integrante. a ser posible. y/x + (y 3 + log x)y = 0. 2. 4. Problema 2. y(2) = 1.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. 3xt + y 2 + (x2 + xy)y = 0. 3. e 1. 2xy 3 + 3x2y 2 y = 0. (x2 − 2y + 1)y = x. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. 3. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0. y = x + y − 1. 4. y(t)dt. 4. 1. . y(1) = 1. y(x) = x + 1 + 0 x x x y(t)dt.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. encuentra. 3. Resolver la EDO y = (ax + by + m)/(cx + ey + n). (x2 + y 2 + x) + yy = 0. xy − y − y 2 = 0. 5.28 Resuelve los siguientes problemas de valores iniciales 1. 2x(1 + x2 − y) − x2 − yy = 0.2 OTRAS EDOS DE PRIMER ORDEN 24 8. 6. y = sen(x − y). e−y − (2y + xe−y )y = 0. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). y = 2(y − x) + (y − x)2. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2).

4. y + 2ey = x2 + y 2 . y(0) = 0. 1. y = ex y −2 . y = xy + log(y ). a. 2. k > 0. e 1.29 Resolver las EDOs de Clairaut 1. n = 0. y = xy + (y )n. 25 5. b y k. Problemas del m´todo de Euler e Problema 2. (y )2 + x3y − 2x2y = 0.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado. y(0) = 1. y = ex y.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. y = xy − ey . 2. √ 3. y = xy + 1 + (y )2 . y = k(a − y)(b − y). 5. (toma distintos valores de a. y(0) = 0. y = 1 + sen x(1 + y 2 ). z − 2xz = 2. y(0) = 1. 7. y(2) = 1. y + sen(x)y − cos(x)y 3 = 1 + x2. b. z(0) = 1. 4. 3. 6. 2 2 . y(0) = 1.

. y1. n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x). . y si al menos una componente de B es no nula. . . y1 . . F (x. . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). vamos a denotar por Y . . . . . . Y y F son los vectores       y1 (x) y1 (x) f1(x. 2 (3. n. o sea cuando todas las componentes del vector B son cero. . . y2 . . yn ).  . . . Usando lo anterior podemos reescribir (3. e e . yn (x) yn (x) fn (x. y2 . . . y2 . . . . . Por comodidad vamos a usar la forma vectorial del sistema anterior. . . Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x. Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado.. y1.  . . k = 1. an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . . . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   .1) .   . . .    y (x) = f (x. un sistema de ´stas es mucho m´s complejo.  (3. . .    y (x) = f2(x. y1 . y1 . . y2 . Y ) =  . . y . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . yn ) = j=1 akj (x)yj (x) + bk (x).3 SISTEMAS DE EDOS 26 3.  . y1 .  .  .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. . es decir cuando fk . . . fn son ciertas funciones conocidas. yn )     2    Y (x) =  .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). .3) (3. k = 1. . . . 2 . . diremos que SEDO es homog´neo.  .1) en la forma vectorial d Y (x) = Y (x) = F (x. n es una funci´n lineal de la forma o n fk (x. . .  . y ).    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). Y ).. Y (x) =  . . . . yn )  y2 (x)   y (x)   f2(x. bn (x)    . y2 . . . o sea. as´ que nos restringiremos al estudio e a ı de los SEDOs lineales. yn son funciones de x desconocidas y f1. y2 . . . no homog´neo. . . n 1 2 n n donde y1 .  . . . yn ). . ..4) Cuando B(x) = 0. .  . y . . dx (3.

Y = A(x)Y + B(x). . Nota 3. .8 Juntando los teoremas 3. Teorema 3. Entonces. . . existen unos unicos coeficientes c1 . Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y . o sea los vectores. En particular. Yi (x0) = Y0. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x). entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. e o Teorema 3. Para que los vectores (funciones) Y1 (x). Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas.k sean linealmente independientes. . Teorema 3. el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. Nota 3.i . . . . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y . .6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x). . . . . . . Yn (x0)| = 0. . Yk (x) soluciones del sistema Y = A(x)Y . . . .1. (3. A(x) ∈ Rn×n y continua en R. entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones.3 SISTEMAS DE EDOS 27 3. la soluci´n del PVI. .1 . . o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). Y = A(x)Y .1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R. . . . Y = A(x)Y . . ´ o Comenzaremos estudiando el sistema hom´geneo.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. Y0. . . .7 Si Y1 (x). obviamente son dependientes pues x0 x2 0 .5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . . o e Nota 3. para x = x0. . Yk (x) del PVI. .2 Sea A(x) ∈ Rn×n . u Corolario 3.3 y 3. O sea. Y0.6 Sea A(x) ∈ Rn×n . Los vectores (funciones) x x y x2 x2 . no obstante.5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. = x0 2 x0 x0 Teorema 3. e o Corolario 3. . Entonces el PVI. . k sean linealmente independientes es suficiente que las condiciones iniciales.3 Sean Y1 (x). son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes.4 Para que las soluciones Y1 (x). i = 1.

. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. seg´n o u el teorema 3. (3.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. de la forma n Y (x) = k=1 c k e λk v k . .3 SISTEMAS DE EDOS 28 3.2. vn linealmente independientes en cuyo caso la soluci´n general es. Autovalores simples A ∈ Rn×n .1. es decir estudiaremos el problema (3. n.7) en (3. . =⇒ v2 = 2 1 . Ejemplo 3. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 .3. k = 1. (3. (3.7) donde λ es cierta constante y v un vector constante. k = 1. .2. Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. =⇒ v1 = −2 1 . . . Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino. Es decir. Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 .8) donde c1 . por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 . (3. cn son constantes arbitrarias y λk .5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). .6) tenemos. e e .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. son los autovalores asociados a los autovectores vk . . . λ2 = 7. n.6) Busquemos la soluci´n de (3. Calculamos los autovectores. .6) en la forma o Y (x) = eλx v. . . 3. Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes. Sustituyendo (3. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5. . . . .

λ2 = −1 + i. exp[x(A + B)] = exp(xA) exp(xB). As´ pues. Proposici´n 3. Ahora bien. en nuestro ejemplo ı λ1 = −1 − i. t ∈ R y toda matriz A. sen x .12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R.3. Para todos x. 3. entonces el complejo conjugado λ es el autovalor asociado al autovector v. entonces Y (x) = eax ( v cos bx − v sen bx).9) donde la convergencia la entenderemos elemento a elemento. 2. Para toda matriz A. .11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. 4.3 SISTEMAS DE EDOS Ejemplo 3. donde On es la matriz nula. exp(0A) = In y para todo x ∈ R exp(xOn) = In . Y2 (x) = e−x − 3. si tenemos Y (x) = eλx v = Y (x) + i Y (x). Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). exp[(x + t)A] = exp(xA) exp(tA). Para toda matriz A. Para toda matriz A. la inversa [exp(xA)]−1 = exp(−xA). d dx exp(xA) = A exp(xA) = exp(xA)A. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. 5. 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . 29 Es decir. 2 −5 2 −4 Y. son complejos. k! 2 n! (3. B con AB = BA. Para todas las matrices A. Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY . Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x .

Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . .14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . las columnas de exp(xA) son soluci´n de los PVI. a En este caso existe una matriz P tal que A = P DP −1. y por tanto el PVI. Y (0) = ei que adem´s son linealmente independientes por el teorema 3. . As´ pues. =⇒ de donde se deducen nuevamente las soluciones del sistema. Si escogemos o o e v sucesivamente como ei . . . . Ak = P D k P −1 tenemos exp(xA) = pero.        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . . exp(xIn) = ex In. . . . . . i = 1. . De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . . exλn 0 0 . . Y = AY . Para todo x ∈ R. Y = AY con Yi (0) = ei . como hemos visto. e Definici´n 3. .3 SISTEMAS DE EDOS 6. para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. 0 . 0 . . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . . .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente.    . . n obtenemos n soluciones v1. vn del PVI. .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. . . con A ∈ R e siempre tiene n soluciones linealmente independientes. o o Corolario 3. . . Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. . λ2 = 4. . siendo (ei)i la base can´nica de Rn . . En efecto. . −1 2 − λ =⇒ λ1 = −1. . . . Y = AY .. . dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. . . como   D=   λ1 0 · · · 0 0 λ2 . . Entonces como para todo k ∈ N.. .13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . siendo D una matriz diagonal. Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. λn 0 0 . 2. .

=⇒ x1 = 3x2. . i = 1. . n. . . . 1 5 2 5 3 5 . i = 1. k. . ¿Qu´ hacer cuando hay una ra´ m´ltiple. . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. Entonces otra soluci´n. =⇒ v1 = 3 1 . 31 An´logamente.4. P −1 = 6 5 ex 2 5 ex −1 5 .3 SISTEMAS DE EDOS Calculamos los autovectores. El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . . x2 xk (A − λIn)2 v + . . . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. . 2 k! Es decir. . luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . por ejemplo. independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . . k = 1. Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. 2. . o 2. . P = 3 −2 1 1 . = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. .) Calculamos todos los autovalores λi y los correspondientes autovectores vi . 1)T . Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. para λ2 = 4 obtenemos v2 = (−2. o o donde v1 es el autovector asociado a λ. luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. xk x2 (A − λIn)2 v2 + . Si tenemos entonces n autovectores v1 . . . o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. . Una soluci´n es por tanto e λx v1. k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . + (A − λIn )k v + .) Si k < n entonces hay autovalores m´ltiples. . . . + (A − λIn )k v + .

Luego tenemos dos soluciones independientes     0 1 2x  x . (3. ⇐⇒  0 0 0   x2  = 0. . =⇒ x1 = 0. deducimos que β = 0. Y ı as´ con cada uno de los autovalores m´ltiples. 0 0 . respectivaa mente. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. o . aa generan todo el subespacio correspondiente a λ. es decir    x1 0 0 0 (A − I)2 v = 0. Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . y (A − λIn)3 v = 0. 0)T = 0. 0. Supongamos que ma > mg . Aj ∈ Rn . Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. y as´ sucesivamente hasta completar el subespacio. vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. 0. x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . los autovectores correspondientes son v1 = (0. x2 . 1)T y v2 = (1. e ´ Adem´s.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). 0. 0 0  pero como (A − I)v3 = (β.10) Cualquier elecci´n de α y β es posible siempre que β = 0. la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj .6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. buscamos la soluci´n del correspondiente subespacio (o sea. 0)T . luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. . . Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. x3 ∈ R. 2. Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n. luego tomando4 β = 1. . . . ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. Para cada autovalor. . .

0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior. . j = 0. . 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x .12) . . En efecto. 1.11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 . cn )T . . Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0. Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior.  1 0 1 0  Y. Ejemplo 3. exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). o Y = AY con Y (x0) = Y0 . . a3 a6 =⇒ a3 = a5 = a6 = 0. usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. entonces tenemos Y (x0) = Y0 = V (x0)c.1. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. (3.3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . (3. o e 3. es decir. . Sea ahora el PVI. .4. mk − 1 sean nulos. entonces si definimos el vector c = (c 1.            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x . luego c = V −1 (x0)Y0 .15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3.10. 0. a4 = a2 . la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. con a1 y a2 cualesquiera. .

3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5.15.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x). En este caso la matriz exponencial es la matriz del ejemplo 3. −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . es decir Yp (x) = AYp (x) + F (x). . si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x). (3.16 La soluci´n general del SEDO (3. donde C ∈ Rn . donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. 1)T y λ2 = 7 y v2 = (2. v1 = (−2. Y (0) = 0 1 .13). −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3.5.13) es de la forma Y (x) = Yh(x) + o o Yp (x). Y (x0) = o Y0 . 12 . Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = .17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). (3. 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x . Teorema 3.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad. cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt. En particular.14) Ejemplo 3.14). luego aplicamos (3. Proposici´n 3.

entonces ex(A+B) = exA exB = exB exA .19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. 6. 2. exI = ex I. Y (0) = 2 1 . Como aplicaci´n calcula exC con C = o a b −b a . b) A = −2 3 2 −5 2 −4 . y B 2n = (−1)nI2 . a) A =  0 1 2 .3 SISTEMAS DE EDOS 35 3. con Problema 3. 3. 0 0 2 0 0 2 b) 2. d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . a) A =  4 −1 −4 4 4 1 −8 8 . Problemas Problema 3. o o en su caso.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 .24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . . ∀x.23 Resuelve los sistemas hom´geneos o 1. Y = AY . Usando lo anterior calcula las matrices exA y exB . b) A =  0 1 0 .  0 1 −1 . 3.22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3.19). Problema 3. 1 12 3 1  . o Problema 3. A2n = I2 . a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. Problema 3. b) A =  0 2 −1 . a) y1 = y1 + 2y2 . c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . In es la matriz identidad n × n. 3. e0A = In . t ∈ R. e(x+t)A = exA etA . 0 1 2 −1 0 0 2 = AexA . Y (0) =  2 . 5. 1. Y (0) =  1 .20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. Prueba que A2n+1 = A. B 2n+1 = (−1)n B. 4. exA es invertible y su inversa (exA )−1 = e−xA . del problema de valores iniciales en los siguientes casos: 1. o sea AB = BA. Si A y B conmutan. cuya matriz de coeficientes es . Y (0) = b) A = Problema 3. 2.6. a) A = 2. Para todo x ∈ R.

sabiendo que su soluci´n es acotada si x → +∞. Y (0) =  1  4. e 3. Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. A = 2. 0 0 5 3 2 1 36 1. a) A = . Y (0) = 2 1 0 0   1 −1 4 2. 2 1 −1 Problema 3. B(x) = x ex . B(x) =  . o 2. A = 0 3 2 1 ex cos(2x) 1 1 sen x  . con x(0) = x0. Y (0) = . A =  3 2 −1 . y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . c) A =  2 1 −2 . i2. a) A =  3 2 −1 . la correspondiente soluci´n del problema de valores iniciales cuando o 1. v(0) = 0.26 Resuelve los sistemas lineales 1. c) A = .3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . B(x) =  0 . Uc en los siguientes casos: (a) V (t) = 0. β < ω. i1(0) = i2(0) = 0. b) A = Problema 3. x =v . en su caso. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . Uc 50 −50 −50 Uc 0 Se pide determinar i1. A =  1 12 3 1 2 −5 2 −4 . Uc(0) = 10. B(x) = . .

k = 1. Y. . m. Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. . 2. la soluci´n del SEDO Y = A(x)Y . . m. fk ∈ Rn . .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x).28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x).3 SISTEMAS DE EDOS (b) V (t) = 10. k=0 . . entonces. Problema 3. . k = 1. i1(0) = i2(0) = 0 = Uc(0) = 0. . 2. . A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x).

d  .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0. .   .3) es lineal. o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x).1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       . el sistema anterior o se transforma en un sistema homog´neo. e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 . . (4. diremos que la EDO (4. . αy1 + βy2 tambi´n es soluci´n. .   . en caso contrario es no hoo mog´nea.. es decir. .  . . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f. .  +  . una EDO del tipo (4. ⇒ dx . y (n−1) (x0) = y0 (n−1) . . que si tenemos dos soluciones y1 e y2 de la ecuaci´n.4) . . .  .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes. (4. La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x).1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. .2) Usando esta notaci´n podemos escribir (4. .   dx  . N´tese que cuando f (x) ≡ 0. .  .1) es hom´genea. y β ∈ R. . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x)..  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. (4. .  . zn(x) = y (n−1) (x)  dx Es decir. = . Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4. e a Proposici´n 4.  .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). . y (x0) = y0 . para cualesquiera o que sean α.´ 4 LA ECUACION LINEAL DE ORDEN N 38 4.1) Cuando f (x) ≡ 0. . . .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn ..  .  .    .  . . (4.

. . .1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 .3). Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4. . (4. . Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. Si alg´n λk es m´ltiple de multiplicidad m ≤ n. si λ = α + iβ. . . (n−1) ··· ··· . .3). cm ∈ R. .2 Sean a0 (x).3) con coeficientes constantes seguiremos la misma idea que para los sistemas. . y (x0) = y0 que escojamos. es decir buscaremos la soluci´n en la forma y(x) = e λx . Teorema 4. (4. ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . yn de la EDO (4. . . .3) coincide con (4.1) en la forma y(x) = yh(x) + yp (x). . Entonces el P. Obviamente si λk es complejo. entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). Finalmente. . . c1 . o . (n−1) = 0 ∀x. o Teorema 4.3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0. asociado a (4. n generan el espacio soluci´n de la la EDO (4. . definido por o y1 (x) y1 (x) .4 Dadas n soluciones y1 . yn ](x).I. siendo yp o una soluci´n particular de (4. Sustituyendo esta o funci´n en la EDO (4. es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . Lo anterior nos indica una estrategia para resolver el problema: 1. .. yn (x) yn (x) .3 El conjunto de soluciones de la EDO homog´nea (4.´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n. y (x0) = y (0). Es decir. . .6). notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4. k = 1. . c2 . entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). . y1 (n−1) W [y1 .1). . o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . . o 4.5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R.6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. . 2. . .V. en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R.3).7) donde pm−1 es un polinomio de grado m − 1 en x. an−1 (x) funciones continuas en R.3) es un espacio vectorial e de dimensi´n n. . . . . yn ](x) = y2 (x) y2 (x) .1. . . . .

10) Luego. Luego. Sea p2 = 4q. ω ∈ R.9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . entonces la ecuaci´n caracter´ o ıstica (4.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . la soluci´n general de (4. entonces la ecuaci´n caracter´ o ıstica (4. Entonces. . (4. B ∈ R. B ∈ R. como se pretend´ probar.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . o. δ ∈ R. A. ıa Caso de ra´ ıces complejas. obtenemos que la soluci´n o o general de (4. equivalentemente. y2 (x) = eλ2x . i = −1. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). o o e El caso general es completamente an´logo. en este caso. 2 2 Caso de dos ra´ ıces reales y distintas. Las soluciones de la ecuaci´n caracter´ o ıstica (4. λ.8) (4. p. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ.´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x .9) tiene una unica soluci´n real λ = −p/2. y(x) = A eλx cos (ωx + δ) . y2 (x) = eλ2x .8) tiene la forma o . λ2 = . φ ∈ R.7) tenemos que la soluci´n generada por λ es.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x .9) ser´n a p2 − 4q −p − p2 − 4q . entonces la ecuaci´n caracter´ o ıstica (4. (4. q ∈ R.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . A.9) La ecuaci´n caracter´ o ıstica (4. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx . o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx . la soluci´n general de (4.8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . usando (4.3 y la ecuaci´n homog´nea (4. 2 2 y la ecuaci´n homog´nea (4. λ2 + pλ + q = 0. λ1 = λ + iω. λ2 = λ − iω. 2 2 y la ecuaci´n homog´nea (4. B ∈ R. . Sea p2 > 4q. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4. En efecto. Sea p2 < 4q.6) de la ecuaci´n (4. Caso de dos ra´ ıces reales iguales. A. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. A.

f (x) continua. por tanto a0 en la expresi´n anterior puede ser cualquiera. q ∈ R. a o 4. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. a = 0.14) se reduce al caso anterior (4. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x). o sea.2. Para resolverlo hacemos el cambio y(x) = ecx v(x). (4. En efecto. q = 0. entonces cualquier constante es e soluci´n. por lo que nuestra EDO (4. Este m´todo obviamente funciona si q = 0 (¿por qu´?). Ahora bien. (4.2.13) e igualando coeficientes. pero ¿qu´ ocurre si q = 0?. as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero. v + (2c + p)v + (q + pc + c2 )v = pn (x). La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x). como la EDO homog´nea es y + py = 0. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 . Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx . si sustituimos la soluci´n anterior en la EDO (4.12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x). la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn.11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n. (4. an = 0. que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}.12). .´ 4 LA ECUACION LINEAL DE ORDEN N 41 4.14) luego siendo pn un polinomio de grado n.2. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. (4. de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n.12) siendo pn un polinomio de grado n. Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x).1.13) siendo pn un polinomio de grado n. p. 4.2. e e e si tenemos la EDO y + py = pn (x).

la f´rmula (4.16) (4. para obtener c1 [y1 y2 − y1 y2 ] = −f y2 . v.5 Resolver y − y = e2x .17) De esa forma tenemos que resolver dos EDOs de primer orden. [y1 y2 − y1 y2 ] = W [y1 .´ 4 LA ECUACION LINEAL DE ORDEN N 4. u. o e . El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4.2. y2 ](x) c2 (x) = f (x)y1(x) . c1 y1 + c2 y2 = f (x). 2 c3 (x) = − e2x . o bien. la primera por y2 y la segunda por y2 . entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x. W [y1 . de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . Para resolver este caso notemos que si y(x) = u(x) + iv(x). Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). y2 ](x) (4. 3 ex e3x . (4. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4. y + py + qy = pn (x)ecx cos(ωx). Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas. 6 =⇒ yp (x) = e2x . entonces L[u] = f1 y L[v] = f2]. Ahora bien.15) siendo pn un polinomio de grado n. W [y1 .4). 3 e−x .11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. Para ello multiplicamos la primera por y1. funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). c2 = − =⇒ 2 2 Por tanto. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 .2. e−x ] = −2. a Ejemplo 4. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx). La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x .18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. lo cual es consecuencia de la linealidad L. 42 Veamos ahora como resolver los casos (4. f1. 4.3.4. con c1 y c2 tales que c1 y1 + c2 y2 = 0. y2 ](x) = o W [ex . f2 funciones reales. Como W [y1 .18) nos da o c1 = c1 (x) = ex .

3.20) cuya demostraci´n es inmediata. x + 2αx + ω 2 x = f (t). 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. o equivalentemente. (4. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ). o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento. Aplicaciones Ejemplo 4. δ = arctan(b/a).19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . Entonces la EDO (4. δ = arctan(ωx0 /v0).6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). x PSfrag replacements 2.´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. α= a k F (t) > 0. o + c2 e−αx− √ α2 −ω 2 x . Supongamos ahora que eliminamos solamente la fuerza externa.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). f = 0 y α = 0. 2m m m (4. ω 2 = . Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x).6. o sea. . basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. A= √ a2 + b2. f (t) = . x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado.

En este caso se dice que el movimiento es amortiguado ya que aunque oscila. Veamos el caso general y. 3. (ω 2 − Ω2)2 + 4α2 Ω2 (4. Si usamos la identidad (4. 2b. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar.21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). entonces. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. Si α = ω. e 2c. entonces. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . en este caso m y k. Si α > ω. se suele denominar . consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. Si α < ω.´ 4 LA ECUACION LINEAL DE ORDEN N 2a. que tambi´n decrece exponencialmente a cero. que decrece exponencialmente a cero.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. por simplicidad. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. Obviamente para o forzadas: resonancia. (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . que decrece oscilando exponencialmente a cero (ver figura 9 derecha). Ω = ω la amplitud es m´xima. 2 −Ω Como se ve en la f´rmula anterior. entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt .

si t → ∞. en 1831. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. En este caso la EDO es x + ω 2 x = f0 cos(Ωt). Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. 2ω N´tese que a diferencia del caso con rozamiento. o .´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. f0 t f0t iωt = e sen(ωt). En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α. Por ejemplo. en ´ste. El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. Figura 11: Resonancia en un sistema sin rozamiento. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). Veamos ahora que ocurre si α = 0. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). o sea si no hay rozamiento. Este puente se abri´ al p´blico el 1 de julio de 1940. la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. Desde ese mismo d´ se observ´ que o u ıa. La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. Figura 12: El desastre del puente de Tacoma. En este caso tenemos que repetir el proceso anterior lo que nos da. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada.21) que nos da. Inglaterra).

 r>ω  c1 e−(α−β)t + c2 e−(α+β)t .19). la carga por unidad de tiempo. L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). o n o El puente parec´ aguantar bien. 2ω que es no acotada. U(t) Figura 13: Circuito RLC del ejemplo 4. ω 2 = 1/(LC) y u(t) = U (t)/L. Obviamente la EDO anterior es totalmente an´loga a la EDO (4.     (c1t + c2 )e−αt .´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. o sea. equivalentemente. en este fen´meno se basan los equipos de radio actuales. r < ω En particular. Entonces. es m´s varios expertos aseguraban que todo estaba bajo ıa a control. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t). De o hecho. o Ejemplo 4. si Ω = ω tenemos la soluci´n o u0 t sen(ωt). donde r = R/(2L). (ω 2 − Ω2)2 + 4r 2Ω2 (4. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia. q + 2rq + ω 2 q(t) = u(t). Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 .22) siendo β = |r 2 − ω 2 |. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros. Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador.7.8 Los osciladores acoplados . en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. o. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] .

Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. conocidas como frecuencias propias del sistema. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. x1(0) = 0. entonces obtenemos x1(t) = cos t x2(t) = cos t. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. 47 En la figura 14 vemos dos osciladores acoplados. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). Veamos que ocurre al incluir este ıa u resorte.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos.23) k2 + k 3 m2 − 2 k3 x1 = 0. Entonces (4. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1.24) ω2 = k . Supongamos que x1 (0) = 1. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. x2(0) = 1 y x2(0) = 0. Figura 14: Dos osciladores acoplados. An´logamente se puede obtener la a expresi´n para x2. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. m1 m2 (4. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4. √ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). m . m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. ±ωi.

x1(t) = cos( 3t). es una combinaci´n de las frecuencias. x2(0) = −1 y x2(0) = 1/2. x1 (0) = 1. x2(t) = − + − 4 4 4 4 3 es decir. x2 (0) = 1 y x2(0) = 0. x1(0) = 1. por ejemplo. x2(0) = −1 y x2(0) = 1/2. x1(0) = 1/2.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. x2 (0) = −1 y x2(0) = 0. x2(0) = −1 y x2(0) = 0. Pero si escogemos. Figura 16: Caso x1(0) = 1. x1(0) = 0. . obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . o sea. tenemos que las oscilaciones son con las frecuencias propias. Si x1(0) = 1. x1(0) = 0. x1(0) = 0. o Figura 17: Caso x1(0) = 1/2. tenemos √ √ x2(t) = − cos( 3t).

respectivamente.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. y − 4x = 4x2 + 2x.10 Resolver las EDOs 1.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. y − y − 6y = 0. y (2) = 1. 6. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y(0) = 1. 3. y(0) = y (0) = 2. Problema 4. y + 12y + 36y = 0.4. y − y = x2ex con y(0) = y (0) = 0. 3. y(2) = 0. e Las EDOs que gobiernan estos sistemas son my + ky = 0. 1. y + 2y = 1 + x2 + e−2x . y (0) = 0. y lθ + gθ = 0. a k mg Figura 18: El oscilador y el p´ndulo simple.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. Problemas Problema 4. Problema 4. 4. 2. y − 4y + 13y = 0. 5. Encuentra la soluci´n general de ambas EDOs. y (0) = 0. y + y − 6y = sen x + xe2x . donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). 2. y + y + y = 1 + 2x + 3x3. o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ .

) m1 = m2 y k1 = k2 = k3 .) m1 = m2 y k1 = k2 . y − 6y + 11y − 6y = xex + x2. sin e velocidad inicial. ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10.) m1 = 2m2 y k1 = k2 = k3 . Problema 4. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . 3. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  . En ambos casos resuelva la EDO correspondiente.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4. a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4. e 2.´ 4 LA ECUACION LINEAL DE ORDEN N 50 2.14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados.12 Resuelve las EDOs 1. k3 = 2k1 y 3. Analice los casos: 1.8 incluyendo rozamiento. y + 8y = x2 . y (4) − 16y = 3 cos(x). Problema 4. Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). 2.

2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. 2n − 2 (2n)(2n − 2) · · · 2 n! . Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1.2). Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0.1 Resolver la EDO y − 2x − 2y = 0. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. . Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). a4 . es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k .5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5. de donde tenemos o an+2 = 2 an . n+2 n ≥ 0. . si sabemos a0 . a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . (5. . de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n. a2k+1 . q(x) y f (x) dependen de x.2) en (5. la recurrencia anterior permite calcular los valores a2. Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk .1) e igualar los coeficientes de e las potencias. La idea del m´todo es sustituir la serie y(x) (5. As´ tenemos ı. Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . Es importante que la serie converja en todo un entorno de x0. (5. . = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. . En o o efecto. k ∈ N. . Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. a5 . ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. k ∈ N y si conocemos a1 entonces podemos calcular a3. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. a2k . ak ∈ R. Por sencillez supondremos x0 = 0.1) El objetivo es resolver la EDO anterior cuando las funciones p(x).

Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. sin p´rdida de generalidad C = 1 y D = 0.1.2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2. e Ejemplo 5. Esta claro que el m´todo anterior no siempre funciona. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. =⇒ v(x) = C + D. o a 5. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger. e− p(x)dx 2 y1 u=v. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . (n − 1)(n + 2)an = 0. ∀n ∈ N. n∈N =⇒ an = 0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1). 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1. Por ejemplo. s´lo podemos encontrar una soluci´n: y1(x) = x. entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. . n=1 es decir.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito.

an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias. asumiremos x0 = 0. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto. para a o x > 0. q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 .6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. por ejemplo x = 1. Usualmente la EDO homog´nea (f (x) ≡ 0) (5.1).1) a o es el menor de los radios de convergencia de p. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · .3) Definici´n 5.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0. En caso contrario se dice que o x0 es un punto singular. Es posible.1) si o p(x). Ello no siempre es posible. si lo es.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). aunque en algunos casos. si p(x). Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0. La soluci´n del problema de valores iniciales y(x0) = y0 . Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . probar que el radio de convergencia de la soluci´n de la EDO (5. q y f . el punto x0 se denomina punto regular de (5. en general. o sea. Entonces: 1. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. 2. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. Por ejemplo.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5. En lo que sigue. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . Definici´n 5. q(x) y f (x) son funciones anal´ ıticas en x = x0. Puntos regulares y singulares de una EDO Definici´n 5. (5. y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0.1). El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. ∀n ≥ 0.3 Dada la EDO (5.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas. adem´s. luego.5 Un punto x0 se denomina punto singular regular de la EDO (5. por simplicidad. (5. a e a . Teorema 5. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · .2.3) con un punto singular en x0.

y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. Veamos que ocurre en el caso general.8) Recordar que estamos suponiendo x0 = 0. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). (5. Caso (p0 − 1)2 − 4q0 > 0. r1. (5. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0.6) 3. x > 0. r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . x > 0.5) 2. entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x). . Sustituyendo y(x) = xr en (5. Sea r1 = a + bi. Caso (p0 − 1)2 − 4q0 = 0. k=0 de donde. (5. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. Entonces si sustituimos en la EDO (5. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. Sean r1 y r2 las soluciones de la ecuaci´n indicial. En general o o se tiene el siguiente Teorema 5.4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0.7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0.3) e igualamos potencias nos queda. al igualar la potencia xr . 2 Entonces se tienen los siguientes casos para x > 0 1.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 . x > 0. o r1. Caso (p0 − 1)2 − 4q0 < 0. Caso (p0 − 1)2 − 4q0 > 0. entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k . r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . r2 ∈ C (dos ra´ complejas). (5. x > 0.

ı o a 5. x > 0. x > 0. por tanto. entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. r1 = r2 − N ∈ R. (5. n(n + γ − 1) n ≥ 1. Sustituyendo y1 en (5. . x > 0. x2q(x) = −αβx + · · · . r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k .12) luego Por sencillez asumiremos que γ ∈ Z. x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · . Obviamente x = 0 es un punto singular regular. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. r1. y2 (x) = x1−γ bn x n . r2 ∈ C. (5.12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . Caso (p0 − 1)2 − 4q0 = 0. (5. Caso (p0 − 1)2 − 4q0 < 0.10) 4. Como hemos supuesto que γ ∈ Z.r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero).11) donde A es cierta constante que puede ser nula.3. Sea r1 = a + bi. Caso (p0 − 1)2 − 4q0 = 0. a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. (5. q(x) = . de donde tenemos o dos soluciones r = 0 y r = 1 − γ. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. n=0 n=0 Comencemos por la primera. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = .9) 3. En todos los casos las series convergen en un entorno de x0 = 0. En efecto. an = (n + α − 1)(n + β − 1) an−1 .

p ∈ R.13) (α)k (β)k xk . n ≥ 1. o o Como consecuencia del teorema de existencia y unicidad. 2.4. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . xy = 2y + xex.9 Sea la EDO (1 + x)y = py. y prueba que an = p(p − 1)(p − 2. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. Encuentra la regi´n de validez de la doluci´n anterior. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1.14) conocida como funci´n hipergeom´trica de Gauss. a . entonces obtenemos an = por tanto y(x) = 2 F1 α. α − γ + 1. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . 3. o o 3. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . β − γ + 1 x . x2y = y + x2 + 1. (x4 − 4)y + 3xy + y = 0. ∞ n=0 an xn. 2−γ 5. Problema 5. (α)n (β)n . β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). e indica la regi´n de convergencia de las mismas o 1. Problemas Problema 5. 1. (γ)k k! (5. que no es m´s que el teorema del binomio encontrado por Newton. (γ)nn! n ≥ 1.8 Resuelve las EDOs siguientes usando series de potencias. (5. si es posible. y + 2y + y = x. 4.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. y(0) = 1. n! p ∈ R. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma.

12 Resuelve las siguientes EDOs de Euler 1. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. 4. y − 2xy + 2py = 0. (EDO de Laguerre generalizada) 3. 3. 2. (EDO de Chebyshev) 2.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. Problema 5. c ∈ R. c ∈ R se transforma. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). o e Problema 5. a. . (EDO de Laguerre) 2. x2y + 2xy − 6y = 0. (EDO de Airy).14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0. xy + (1 + α − x)y + py = 0. (EDO de Hermite) 57 4. b. x2y + xy + (x2 − p2 )y = 0. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss. y + xy = 0. x2y + 3xy + 2y = 0. b.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. o e Encuentra dos soluciones linealmente independientes de la misma. (1 − x2)y − 2xy + p(p + 1)y = 0. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. xy + (1 − x)y + py = 0. x2y + xy − 5y = 0. a. (x − 1)2y − 2(x − 1)y + 2y = 0. Problema 5.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. (1 − x2)y − xy + p2 y = 0. a.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. (EDO de Bessel) Problema 5. Problema 5.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. (EDO de Legendre) 3.

que ρm (x) = σ m (x)ρ(x). [σ(x)ρm (x)] = τm (x)ρm (x). el autovalor λn de (6. Conocida ρ encontramos.5) (6.1) son ortogonales dos a dos: .1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6.2 Si para todo k ∈ N ∪ {0}.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6.2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)]. (6.1) y (6.1.1) donde σ y τ son polinomios de grados a lo m´s 2 y 1. . Para ello usualmente o se escriben (6. Esta ecuaci´n (6. 6. n = 0. e o Teorema 6.1 Si y es una soluci´n de (6.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. 2. (6. 1.4) Teorema 6. λ ≡ λn = −nτ − n(n − 1) σ .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn . entonces para las soluciones polin´micas de la ecuaci´n (6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ].1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad. (6.6) Anm = Am (λ) |λ=λn Adem´s. utilizando las ecuaciones anteriores. .3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x).1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. τ + kσ /2 = 0. respectivamente. Ann (n) (6. µm = λ + i=0 (x) .7) Cuando m = 0 la f´rmula (6.1). (6.5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x).. 2 (6. m−1 (6.

(βn )n y (γn )n.11). an+1 βn = bn bn+1 − . Generalmente se impone que P−1(x) = 0 y P0(x) = 1.11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. n (6.6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6. nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . a (6.14) . para todo k ≥ 0. an−1 an−1 an d 2 n−1 (6.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6.12) siendo an . o sea.b ciones polin´micas Pn de la ecuaci´n (6. y dn es la norma de los polinomios.13) Como un corolario de (6.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x). Corolario 6. n! k=0 n−1 bn = nτn−1 (0) an . sustituy´ndola en (6. τn−1 (6.3 Supongamos que xk σ(x)ρ(x) 59 x=a.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x).de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x). Luego. podemos utilizar la f´rmula de Rodrigues que.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) . y) ≡ n ≥ 1. = 2 2 dm dn x−y m=0 n Kern (x. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ]. Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 .9) o e n e integrando por partes. (6. (6. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. a Para calcular d2 .´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. se cumple que: o b a = 0.9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n . ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x).11) donde αn = an .

τn (x)Pn(x) − nτn Bn+1 (6. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). soluciones de la ecuaci´n (6.. o 3.2. Si escribimos la f´rmula (6. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1).1). n (6. es decir. En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias.e.1.16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x). cuando σ es de grado 1. (6.17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x. donde αn = ˜ Bn λn αn τ n − . respectivamente.18) λn ˜ [βn τn + τn (0)] . 2. Laguerre y Jacobi. Polinomios de Jacobi n α.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x). en las cuales (a)n denota al s´ ımbolo de Pochhammer (6. Tomando m = 1 en la f´rmula (6. Pn (x) = o a ´ xn + bn xn−1 + · · ·. . Los Polinomios de Hermite. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2.β Pn (x). Si definimos Qn (x) ≡ n+1 . ¯ Bn−1 (6. Par´metros Principales. 6.20) 6. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 .15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1. λ n γn . nτn Bn+1 P (x) n ≥ 0.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) . τ es un polinomio de grado exactamente uno. a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos.19) 4. tales que su coeficiente principal an = 1. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x.30). βn = nτn γn = ˜ (6. (6. i.2.

(b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6.. o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α.0 1.. α+1 2 6.2. 1 sen[(n + 1) arccos (x)] . 3.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. Representaci´n hipergeom´trica. ap x b1 . o usando el m´todo de las series de potencias. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = . Los polinomios de Legendre Pn(x) = Pn (x). 2 .2.β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α..3.β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x . Casos particulares. 0. H2m+1 (x) = (−1)m x 1 F1 m x2 .. a2 .. . α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas.24) Lα (x) = n α. 2n sen[ arccos (x)] 4. (6. b2 . 2.22) (6. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1.. Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 .21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 .2. γ > −1. (6. β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6. n + α + β + 1 1 − x . .23) (6. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk .γ− 2 (x). o e De la f´rmula de Rodrigues.5) se o e puede obtener la representaci´n de los polinomios de Hermite.

n = 0. Otras caracter´ ısticas. 1.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1).): o (Hn(x))(ν) = n! Hn−ν (x). Γ(α + 1) 2n (α + 1)n α.. e n! α+ν. 22m m! H2m+1 = 0.β Pn (1) = . 2. Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad.. 3. . (n − ν)! .β Pn (−1) = ..4.25) Utilizando la f´rmula (6..2. . (n − ν)! α.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6.β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x)..16) encontramos las ecuaciones (ν = 1.26) (6. Lα (0) = n (−1)nΓ(n + α + 1) .β+ν Pn−ν (x). 2. H2m (0) = (−1)m (2m)! .27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x). (n + α + β + 1)n (6. (n − ν)! n−ν (6. (n + α + β + 1)n (−1)n 2n (β + 1)n α. a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.

k = 1. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = . Γ(a) Finalmente. a(x) = 1. . Γ(a + k) . . (n − k)!k! k! . (a)k = a(a + 1)(a + 2) · · · (a + k − 1). n→∞ z(z + 1) · · · (z + n − 1) π . (a)k = (6. Gγ (x) = P2m 2 2m 1 γ− 1 . y adem´s.− 1 2 (2x2 − 1).28) 1 γ− 1 . respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt.30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 .γ− 2 (x) = β. 1 x Pm 2 2 (2x2 − 1). P m m 2 1 (x) = (6.β Pn (−x) = (−1)nPn (x). 3. x >> 1. 2.γ− 2 −1 2 H2m+1 (x) = xLm (x2) . . en general. cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z). ∀n ∈ N. En particular.α α. 2m Adem´s. Adem´s. de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1). 1 1 γ− 2 . (6. √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z). definida. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. . (z) > 0.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814.

. C0 = 0 ∞ xα e−x dx = Γ(α + 1). entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. para ν = 0. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos.3.33) deducimos que. µ = p ∈ N. como C0 = π. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.7 Sea µ ∈ C. Vamos a aplicar los resultados anteriores a los polinomios cl´sicos.µ+1 (z) = 0.33). 2m 2 m! C2m+1 = 0. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0. lo cual es √ la funci´n peso es una funci´n par.31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0. Se definen los momentos como b Cν. (6.µ (z) = a (s − z)µρν (s)ds.32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν.µ−1 (z) + [τν (z) + µσ (z)] Cν. a (6. que usar (6.33) y (6.34) sp ρ(s)ds.33) En particular. (6.34). Finalmente. De ella o como C1 = 0.34) es o (α + n + 1)Cn − Cn−1 = 0.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior. Teorema 6. Ejemplo 6.µ (z) + τν + µσ 2 Cν. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6. Adem´s. entonces todos los momentos impares son nulos. z = 0 obtenemos. de donde deducimos que Cn = Γ(α + n + 1). as´ que tenemos ı cuando z = 0. luego Cn = (α + 1)nC0 . (6. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. de (6. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6.p (0) = a b Cp+1 = 0.

n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0. n! R(1 − 2t + R)α (1 + 2t + R)β (6. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. o o Φ(x. (6. o Para los polinomios cl´sicos se tienen las siguientes identidades. por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia.4. En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. 2 . e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos. n! (1 − t)α+1 tx (6. Caso Hermite Hn (x): Primera prueba Sea Φ(x. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . t) = e2xt−t . t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x).37) con R = 1 + 4t(t + x). n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . t) = ∞ n=0 An Pn (x)tn. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . Para probar las mismas usualmente se hace uso del teorema integral de Cauchy.β Pn (x)tn = . Bn 2xt−t2 2n Hn(x)tn. t) tal que.36) 2α+β (−1)n (α + β + 1)n α. No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos.

n! n! n=0 ∞ o. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. e a o Sea la funci´n generatr´ Φ(x. usando el desarrollo en serie ı de Taylor en t para Φ(x.38) donde (gn)n es una sucesi´n de polinomios a determinar. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. (n − 1)! n! n! n=0 n=0 ∞ ∞ . n! (6. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. a Ahora sustituimos (6. por tanto. t) = ∞ n=0 2 2 2n gn (x)tn. t) + 2(t − x)Φ(x. como Φ(x. t). t) = e2xt−t . t) = 0. 0) = 2x. ∂t De aqu´ deducimos que Φ(x. equivalentemente.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. Ahora bien. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite).´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. 0) = 1 y Φt(x. t) y compar´ndolo con (6. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . t) = obtenemos la ecuaci´n o ∂ Φ(x. ∂t cuya soluci´n es Φ(x. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0.38) deducimos que g0(x) = 1 y g1(x) = x.

los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x).12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0. y)dx = p(y).9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4. si en vez de sustituir a en (6. Encontrar la relaci´n de recurrencia para los momentos Cn := C0.n (0) de o los polinomios de Jacobi. Problemas Problema 6. como g0(x) = 1 = H0(x) y g1(x) = x = H1(x).39) Problema 6. Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2. e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 . Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 .41) donde (γ)n es el s´ ımbolo de Pocchamer.33) z = 0 sustituimos el valor z = 1.5.40) Problema 6. N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = .− 1 0. 6. 2n (γ)n γ Cn (x)tn. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 .n (1). . (6. a ∀p(x) ∈ Pn . Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre. Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0.36). es decir. Problema 6. es decir. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn .0 Pn(x) = Pn (x). 2g2(x) − 4xg1(x) + 2g0(x) = 0. respectivamente. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. n! (6. kn a (6.n (0) en o este caso y resu´lvela. entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 . Problema 6.γ− 1 γ dada por (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x. 67 Ahora bien.

14 Prueba las relaciones α.14).β+1 Pn−1 (x) = α.α ηn = (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.15 Los polinomios n´cleos Ker n−1 (x.β α.42) α+1. Lm (x2) = √ KerH (x. 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.45) tenemos KerJ.44)-(6.β. 1) = n−1 Utilizando la relaci´n de simetr´ (6. 1) = (−1)n+1 ηn dx Pn n−1 β.β (x) + Pn (x).43) Problema 6.β+1 KerJ.β Pn−1 (x) = (6. 2α+β+n n!Γ(α + n)Γ(β + 1) β. los valores en los extremos (6.β−1 β.β α.β d α−1. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6. n Γ(α + 1)n! KerL (0.β α.45) (−1)n−1 Γ(2n + α + β) .α ηn (−1)n−1 Γ(2n + α + β) . 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.α d (x) = n(−1)n+1 ηn Pn−1 (x).29) para los polinomios de Jacobi prueba que o ıa J. 0) = . 2n(β + n) dx 2(β + n) 68 (6. n−1 β.β (1.α. −1).α α.β (x) − Pn (x).α. 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 . = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x).α α+1.β (x. 0) = √ Lm−1 (x2) = √ . 0) = n−1 (α + 1)n .β donde por ηn y ηn denotaremos las cantidades β. 1) = Kern−1 (−1.β (2n + α + β)(1 − x) d Pn (2n + α + β) α. KerJ. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 . Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α. y) = Pm (x)Pm(y) .β (x. 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .17). y) se definen mediante la expresi´n u o Kern−1 (x. n−1 . KerH (0.α.β (−1. 0) = √ 2m π(m)! π(m)! x KerH (0.44) (6.β (−1. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x.25) y las o f´rmulas de diferenciaci´n (6. 2n(α + n) dx 2(α + n) α.α.β (2n + α + β)(x + 1) d Pn (2n + α + β) α.α KerJ. −1) = ηn dx Pn (x) = nηn Pn−1 (x).α. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) . 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.

. (7. Obviamente si u(x) es continua u < +∞. a (x. y) : |x − x0| ≤ a. 1. y) ∈ R y (x. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y.y)∈R Como f es continua en R. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. Adem´s. ∂y Definici´n 7.2) Proposici´n 7. y). y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0.6) La sucesi´n anterior se conoce como sucesi´n de Picard. y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. (7. 2. entonces y1 (x) = y2(x) en todo Id . y(ξ))dξ. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. . una condici´n suficiente para que una funci´n f (x. . M siempre est´ definida. y) − f (x. El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden.1 El PVI (7. o o . x∈I |f (x. se tiene la desigualdad triangular a u+v ≤ u + v . . o ´ Lo primero que asumiremos es que la funci´n f (x. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x. (7.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . y)|. Sea M = m´x |f (x.1) tiene soluci´n unica. y(x0 ) = y0 .7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7.7.4 (Teorema de unicidad local de soluciones) o Sea f (x. Sea el problema de valores iniciales y = f (x. 1/K). o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. (7. Adem´s. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. Proposici´n 7. z)| ≤ K|y − z|. |y − y0 | ≤ b}. n = 0. a. y u = 0 si y s´lo si u(x) = 0 en o I.2 Diremos que una funci´n f (x.5) yn+1 (x) = y0 + x0 f (ξ. yn (ξ))dξ. b > 0. Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7.1) En el apartado 2.3) Definici´n 7.4) Para la norma tenemos la desigualdad evidente u ≥ 0. (7. y) es continua en el rect´ngulo R o a definido por R = {(x.

es decir existe una unica funci´n y(x) tal que y (x) = f (x. por tanto d = m´ ın(a. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. b/M. Entonces. las im´genes e a de yn (x) est´n contenidas en R. b/b. b/M )} tal que su imagen est´ contenida en R. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n. digamos que |y| ≤ b > 0. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. Problemas Problema 7. Escojamos un valor cualquiera para y. b/M. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1.9 Sea la EDO y = x − y 2 con y(0) = 0. por ejemplo. a Proposici´n 7.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. M = b. Entonces K = 2b y M = 1 + b2 . entonces o o |f (x. z)| = y 2 − z 2 = |y + z||y − z|.5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. Sea x ∈ R por ejemplo. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . b/(1 + b2 ).1) con f lipschitziana de constante K en R (7.7 (Teorema local de existencia y unicidad) Sea el PVI (7. π/2). Si ahora usamos. o a El procedimiento anterior es f´cilmente extensible a sistemas. la norma k=1 N Y = k=1 yk . luego f es lipschitziana con constante K = 1. y) = 1 + y 2 .y)∈R |f (x. para todo n ≥ 0. i. el PVI (7. Encuentra las tres primeras aproximacioo nes de la soluci´n. y) − f (x.1. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. |y0 (x) − y0 | ≤ b. 1/b). En este caso ´ la soluci´n es y = tan x definida s´lo en [0. 1/K)}.2). Entonces..7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7.1) o o en Id . y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. y(x)) e ´ o y(x0 ) = y0 . Las correspondientes o demostraciones se dejan como ejercicio. 1/K) = m´ ın(a. 7. y) = y. 2 Ahora bien. 1/1) = 1}. Como f (x. Los teoremas anteriores son s´lo condiciones suficientes. Corolario 7. 1/K)} tal que su imagen est´ contenida en R. o . Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |. y M = m´x(x. Para ello basta definir una a norma en RN y el valor absoluto de un vector. b/M. Problema 7.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. la sucesi´n de Picard e o (7. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. a Entonces.e.8 Prueba las propiedades anteriores para la norma u . y)|. entonces las demostraciones anteriores se adaptan perfectamente para el caso general.

a o .10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. 3/10] 3. Comp´ralas con la soluci´n exacta. y(0) = 0.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. y = y 2 + cos x2 . y = y 3 + e−5x . 1/2] Problema 7. y = x + y 2 . 1/2] 2. y(0) = 2/5.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . y(0) = 0. Problema 7. x ∈ [0. x ∈ [0.12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . y(0) = 0. y(0) = 0. x ∈ [0.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

4. 5.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. d dx f (x) dx = f (x) (A. b). b). la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x.4 (Propiedades de la integral indefinida. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). 7. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. b) si para todo x de (a.1) f (x) dx. 4.2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera).1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a. 3.) 1. b) se tiene que F (x) = f (x). Entonces. 2. De manera que. para todo o x de (a. F1 (x) − F2 (x) = const. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . 0 dx = C 1 dx = x + C xα dx = xα+1 + C. α+1 ∀α ∈ R.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a. f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange. 6. Teorema A. Por ejemplo. Anexo: C´lculo de primitivas a Definici´n A. log a a > 0. Definici´n A. α = −1 1 dx = log |x| + C x ax dx = ax + C. 3. 8. 2.5 Tabla de Integrales 1.

b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. A. 17. 11. Como la integral no es de la tabla es necesario convertirla en una de .6 Sea t = φ(x) una funci´n derivable en x y sean X = (a.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. b) el dominio y T = φ[(a. o o sea. e o Integraci´n por cambio de variable. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x). Como la integral no es de la tabla es necesario convertirla en una de la tabla.7 a) Calcular cos(2x) dx. 12.1. M´todos de integraci´n. 14. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). 16. Entonces sobre todo el conjunto (a. b)] o la imagen de φ(x). 13. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A.1. o Teorema A. o Ejemplo A. g(t)dt = G(t) + C. 10. 15.1.

. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a). u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx.2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). log φ(x). 3.8 a) Calcular xn log x dx. . Ejemplo A. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax .´ A ANEXO: CALCULO DE PRIMITIVAS A. arc cos x. (A. b). arc sen x. v(x) = x n+1 tabla.. b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). du(x) = aeax dx dv(x) = sen bx dx. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx. Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. respectivamente. Integraci´n por partes. Las integrales de la forma eax sen bx dx. sen(log x) dx y cos(log x) dx. (A. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . u(x) = (ax + b)n−1 . Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx. b) y existe la primitiva de la funci´n v(x)u (x) en (a. v(x) = 1 sen bx b eax sen bx a − b b de la tabla. potencias enteras de las funciones anteriores. Donde para 2. du(x) = aeax dx dv(x) = cos bx dx. b b b de donde.3) v(x)u (x) dx. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores.. (ax + b)n cos cx dx y (ax + b)n ecx dx. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. Las integrales (ax + b)n sen cx dx.1.2.. Las integrales donde aparezcan las funciones log x. Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x.4. sobre (a. du(x) = x dx n+1 dv(x) = xn dx. Entonces. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. eax cos bx dx. .

6) Como consecuencia de lo anterior. Ni .. Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A.. o sea. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk .2. la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A. Bi . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . si n < m. Definici´n A. si Qm (x) tiene m ceros reales y simples. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + .. o sea. (A. (A. N´tese que el denominador e o com´ n coincide con (A. Qm (x) Qm (x) Teorema A. xp son las ra´ces reales de Qm (x). Bi . y los factores x2 + pi x + qi . o sea. Integraci´n de funciones racionales.5) con P n (x).9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai .7) entonces. . k no tienen ı Pn (x) ra´ces reales. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i .10 Supongamos que donde k < m. el Ani de A ni Ani −1 A1 + + ··· + . Para determinar dichas constantes sumamos los t´rminos de la derecha. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x).. Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A. Li y Ki .´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. Entonces.4) donde x1 . Li y Ki son ciertas constantes reales. Pn (x) es una fracci´n simple. Mi . Qm (x) (A.8) . Mi . No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi .4) y el numerador es un polinomio de grado a lo sumo n. si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ).. . Ni .5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . i = 1.

k (x − a) 1 − k (x − a)k−1 k > 1. x y x0 son iguales. x−a B 1 B dx = + C. 2.. Qm (x) k = 1. utilizando (A. 7 (A. entonces Pn (x) ≡ Qn (x) para todo x ∈ R. x dx. .10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C. si P n (xk ) = Qn (xk ) e para ciertos x1 .11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C.12 a) Calcular x2 Luego. (A. xn+1 (distintos entre si). ıces . m. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 ..´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 . Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) . 2 x2 + px + q 2 4q − p 4q − p2 x dx...10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C.. Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + .. utilizando (A.9) obtenemos A = l´ ım x(x − 1) = −1. (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2.. . (x − 1)(x − 2) Ejemplo A.. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales. es decir. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A. x2 .9) Teorema A. B.. Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 .. Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . C.

2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o . cambio t = sen x f (sen x. cos x) dx. Esta integral es del tipo 1. (x − 1)2 x2 + 1 2(x − 1) 2 A. cos x). cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. Luego. donde f (sen x. 1 + t2 f (sen x. cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x .14 a) Calcular la integral dx = sen x dx . donde f (− sen x. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. cambio t = cos x f (sen x. o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . − cos x) = −f (sen x. o Ejemplo A. Integrales trigonom´tricas. cos x). e f (sen x. Luego. cambio t = tan x Ejemplo A.13 Calcular la integral dx = sen x dx . t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. cos x) = −f (sen x. donde f (− sen x. cos x) dx.3. f (sen x. cos x) dx. 3. cos x). 1 + t2 1 + t2 2 dt.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. sen x =− 1 x 1+t dt = − log +C = log tan +C. − cos x) = f (sen x. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. Ellas son las siguientes: 1. 2.

y f x. Esta integral es del tipo 1. a2 − x2) dx. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. a2 − x2 ) dx A. por tanto a2 − x2 + C. x2 ± a2 ) dx. f (x. sen3 x 1 +C. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. x2 ± a2) dx y √ f (x. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. 2 4 √ pero.4. Luego. a2 x x arc sen + 2 a 2 x2 − a2 dx. Integrales irracionales.1.15 a) Calcular la integral a2 − x2 dx. Luego. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . Las integrales √ f (x. cambio x = a tan t Ejemplo A. Esta integral es del tipo 2. 3. cambio x = a sen t x2 − a2 ) dx. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. Luego. √ f (x. √ f (x. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 .4. Esta integral es del tipo 2. 2 2 2 2 2 A. 2. Esta integral es del tipo 3. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. f (x. Luego. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. f (x. cambio x = a sen t x2 + a2 ) dx. a2 − x2 ) dx.

x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. (A. b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). (A.4. deshaciendo el cambio t = 3 x + 1. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 .16 Calcular la integral √ dx √ . obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. f (x) es integrable en [a. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x .17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. b] y una de ellas es la funci´n o x n x. Las integrales f x.2. a Teorema A. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. n ax + b cx + d dx. Entonces f tiene primitiva en [a. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. x2 +a2 pero.11) Adem´s. b] → R a o continua en [a. n ax + b cx + d dx. Sea f : [a.´ A ANEXO: CALCULO DE PRIMITIVAS pero. Luego. Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A. Esta integral se racionaliza con el cambio t = 3 x + 1. b]. F (x) = c f (t) dt. Esta integral es del tipo 3. c ∈ (a. ax+b cx+d .12) siendo Φ(x) una primitiva cualquiera de f (x). b). . x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. Luego.

Multiplicar por una constante no nula una ecuaci´n cualquiera. Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B.  . m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B. . . . xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B. .. .1) es compatible si existen los valores de x 1 .3) Un sistema lineal de la forma (B. . . .. . . . 2. 2. . 3. .. 2.1. . o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n.  . 2. . .. . B. .1). an1 an2   . y se denomina matriz ampliada del sistema. .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1. n) est´n colocados los coeficientes a ij (j = 1. an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m ..´ B ANEXO: ALGEBRA LINEAL 83 B.. an3 · · · anm  se le denomina matriz de coeficientes del sistema. Intercambiar dos ecuaciones. Si un sistema lineal de la forma (B.1) ..2)  . .. . . a El sistema de ecuaciones (B.. Multiplicar por una constante no nula una fila cualquiera. . . . Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1. De esta forma e e o la matriz asociada al sistema (B. Si existen dichos valores diremos que el sistema tiene soluci´n.1). .. A  a11 a12  a21 a22   . o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices. De forma que a cada una a le corresponden las siguientes operaciones por filas 1.  . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones.  .  (B. ´ Anexo: Algebra lineal Sistemas lineales y matrices.1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B.. . .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas. .1) no tiene soluci´n decimos que es o o un sistema incompatible. . x2 . Intercambiar dos filas. .

a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior. ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . Todas las filas no nulas est´n por encima de las nulas. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. ıa Diremos que una matriz est´ en forma escalonada si: a 1. Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas. es decir se cumple el siguiente teorema: ´ Teorema B. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila.   (B. 2. 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila.´ B ANEXO: ALGEBRA LINEAL 3.  0 0 1 0 0 ∗ . Formas escalonadas y el algoritmo de reducci´n por filas.2. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones.4) . Utilizando las formas escalonadas a anteriores (B. e u Las operaciones anteriores se denominan operaciones elementales de filas. (B. 3.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . o B. ıa Debajo de cada elemento gu´ s´lo puede haber ceros.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ .

Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. Este proceso consta de cuatro pasos: 1. El resto de las variables se denominan variables libres. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. a El significado de una variable libre es que dicha variable puede tomar cualquier valor. las cuales pueden venir expresadas en funci´n de las variables libres. B. La segunda parte consiste en transformar la forma escalonada en la forma reducida. si es preciso. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. 3. ceros encima del mismo.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. 4. Soluci´n de un sistema de ecuaciones lineales.3. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. Este ser´ el primer pivote. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. 2. o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. o El algoritmo de reducci´n por filas consta de dos fases (partes). a ∗ ∗ ∗ ∗ 0    . las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. As´ por ejemplo ı. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas. Comenzando por el primer pivote de la derecha creamos. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. Este paso se repite hasta que no queden m´s filas no nulas. Si el pivote no es uno dividimos por su valor para que lo sea. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. o .   (B. Este proceso consta del siguiente paso: 5. mediante operaciones elementales de filas.

x6 y las libres x3 ..4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). Es decir fijando diferentes valores de x3 .4.     =   ⇐⇒ x1 = y1 . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. Las variables principales ser´n x 1 .. . x5 . o sea  x1  x2  x=y ⇐⇒  ... x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . x4 . . los sistemas correspondientes a las dos matrices (B. n × 1. xn = yn .8) ∗ ∗ . . x4 obtenemos diferentes valores de x1 .2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote. ..´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo. Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas. Vectores y ecuaciones matriciales. el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B.. o lo que es igual. .. x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 . De o a la forma de la matriz observamos que x5 . . Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero. Los valores x1 . xn son n´ meros reales. x4 .  .7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. Diremos iguales.     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. . o sea. B. yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero. ıa o B. x2 . xn es decir un vector es una matriz de componentes) del vector x. u  . Por ejemplo. consideremos la matriz del sistema (B. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero).. . Por ejemplo..6). x2 . xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 .4. Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . donde x1 .  .1.

o sea..  . an . . . a2 . 2. . xn son las inc´gnitas que se quieren encontrar.´ B ANEXO: ALGEBRA LINEAL B.. 6.. o sea. Operaciones con vectores...   .. x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α..   .. .. Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b].. an de Rm con o pesos α1 . . . . y.  =  . αn ... an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 . .... quienes quiera sean α1 .   . wn αxn Sean x. an ) = span (a1 .. respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . + .  .     w1 αx1  w2   αx2      w = αx =⇒  .  =  .. a2 .. . x2 . 4. Definiremos espacio generado por los vectores a1 ...  =  . 7. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 . n´ meros reales.. Adem´s b est´ en span (a1 . . . an ) = L(a1 .4. 5. αn n´ meros reales... al conjunto de todos los vectores de la forma L(a1 . an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible. .. an ) = α1 a1 + α2 a2 + · · · + αn an .  .. a2 .. . β n´ meros reales.   .. an de Rm y lo denotaremos como span (a1 . donde b es un vector dado de Rm y x1 . z. a a o . w vectores de Rn y α. 8.. u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b.. .         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ . .   .. Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y. 3. 87 Dichas operaciones cumplen las propiedades 1.2.... . . es decir.

 . .  ..3. .  .  . la ecuaci´n A x = b tiene soluci´n. am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B. . an (vectores de Rm ) y x un vector de Rn . Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x..´ B ANEXO: ALGEBRA LINEAL B.      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        ..   .4 Sea A una matriz m×n con columnas a1 .3 Sea A una matriz m×n con columnas a1 .. .5 Sea A una matriz m × n con columnas a1 . an ). xn Teorema B.. . Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  .  =  ... Rm = Span(a1. o 88 Sea A una matriz m × n con columnas a1 . . an . a2 .  . . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b. a e o sea. ... Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A... a2 .  = x1 a1 + x2 a2 + · · · + xn an .  . o o 2) Las columnas de A generan Rm . 3) A tiene una posici´n pivote en cada fila. a2 .. la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b].  . a2 . . . 2) A(α x) = α (A x) . x. y vectores de Rn y α un n´mero real cualquiera.. La ecuaci´n Ax = b. o Regla para el c´lculo de Ax.4.. . . .. Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . an . . o Teorema B. an y b un vector de Rm . a2 . . o sea.. . .

xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales. x es un vector de R n y b es un vector de Rm .. s2 . El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero.5. · · · .. x2 . 1. o sea la matriz A tiene al menos o una columna que no es pivote. . Teorema B.4. Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre. Un conjunto de vectores a1 . El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0.. .. Dicho sistema siempre tiene la e soluci´n trivial x = 0. 89 Conjunto soluci´n de los sistemas lineales.7 Un conjunto S = {a1 . Para obtener los vectores s1 . ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s.´ B ANEXO: ALGEBRA LINEAL B.. es decir. .. . Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . ´ o Un conjunto de vectores a1 . .. o e (B. an se denomina linealmente dependiente si existen los valores x1 .6 Supongamos que A x = b tiene soluci´n para cierto b de R m .. El sistema lineal A x = 0 se denomina sistema homog´neo. o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2.. Y as´ sucesivamente. s2 .. a2 . e Teorema B. sp cuyo n´ mero coincide con el de las u variables libres del sistema. tiene como unica soluci´n la trivial x1 = · · · = xn = 0. Sea p una o soluci´n de A x = b (soluci´n particular). x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   .. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 .9) B. a2 . Dependencia e independencia lineal.4... a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 .4. a2 .. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres. u ..

10 Sean A. donde a1 . an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente.. Teorema B.. . . .. Entonces: u 1.. . ..10) B. . 5.1. .. 6. Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B.8 Un conjunto S = {a1 . . a2 . .. a2 . an y b1 . b2 . Teorema B. α(A + B) = αA + αB. 4. . . . Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. am1 am2  a11 a21 . es decir. B. a12 a22 . Suma de matrices y multiplicaci´n por un escalar.. . . . an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. α(β A) = (α β) A.5. · · · aij · · · ain . .5. A + 0 = 0 + A = A. bn son vectores de Rm .  . . an necesariamente cada vector es combinaci´n de los anteriores. .. Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n.. El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes.. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. . . B y C matrices de m × n y α.. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 .. . .. . . . o bien α A ≡ α||aij || = ||α aij ||. o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 . . 3.9 Un conjunto S = {a1 . . (α + β)A = α A + β A. a2 . .      . o Teorema B... donde 0 ≡ ||0|| es la matriz nula.. . . ´ Algebra de matrices. Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. . a2 . (A + B) + C = A + (B + C). o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||.. β n´meros reales. es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. .     (B. A + B = B + A.. Vamos a estudiar las operaciones elementales de las matrices. . a2 . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ].. . · · · amj · · · amn      fila i →  ai1 ai2   . .´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . 2.

B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real.5. Entonces: u 1. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ].11 Sean A de m × n. o elemento a elemento: ||(A · B)ij || = n n (B. Teorema B. k veces donde A0 ≡ In . k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. (A1 · A2 · · · An )T = AT · AT · · · AT . A · (B + C) = A · B + A · C. 2. (AT )T = A. α(A · B) = (α · A) · B. Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0.3. (A · B)T = B T · AT . u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In . Entonces: u 1.). o Teorema B. o Dada una matriz A de m × n. Es importante recordar que la multiplicaci´n de matrices no es conmutativa. Im · A = A · In = A. 3. . β n´meros reales. B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α. 1 n−1 n Como consecuencia de este teorema tenemos que . es la matriz de n × m cuyas filas coinciden con las columnas de A. B. 4..12 Sean A de m×n. (B + C) · A = B · A + C · A. 2. o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. Si A = ||a ij ||. (α A)T = α AT . A · 0 = 0 · A = 0. 5. (A + B)T = AT + B T .´ B ANEXO: ALGEBRA LINEAL B.. Transposici´n de matrices. 1.5. 3. que denotaremos por A T . Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. donde Ik es la matriz identidad de k × k. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p. 2. 6. donde 0 ≡ ||0|| es la matriz nula. (A · B) · C = A · (B · C). 4. Multiplicaci´n de matrices. entonces AT = ||aji ||.2. la matriz transpuesta de A. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A .11) aik bkj .

´ B ANEXO: ALGEBRA LINEAL B. n n−1 1 B. y su soluci´n se expresa por la f´rmula o o −1 b. x=A Teorema B. Si existe una matriz C tal que A · C = In . El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A.5. AT es invertible y (AT )−1 = (A−1 )T . C · A = In . N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0.5. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . Si A es invertible entonces A−1 es unica.5. Entonces: 1.14 Sea A una matriz cuadrada de n × n invertible. entonces A−1 = 1 ad − bc d −b −c a . (A−1 )−1 = A. ´ Teorema B. Matrices elementales. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n .13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d . la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 . Las matrices A para las cuales existe la inversa A−1 se denominan invertibles.4. o Teorema B. Por ejemplo. es decir son las que se obtienen al intercambiar dos filas. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 . Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. .15 Sean A y B matrices cuadradas de n × n invertibles. La inversa de una matriz cuadrada. entonces a C se le denomina matriz inversa de A y se le denota A −1 . (A · B)−1 = B −1 · A−1 . 2. 3. al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. 92 Sea A una matriz de n × n.

Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . · · · A b n = en . la inversa de E1 es E1 . 7. (Las columnas de A son linealmente o o independientes. A es invertible. Por ejemplo.. o sea. reducen In a A−1 . Reducimos por filas la matriz A a In . Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 ..17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. 2. Las o siguientes expresiones son equivalentes: 1. 3. 6. Teorema B. Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. . entonces [A In ] ∼ [In A−1 ]. Existe un D tal que D · A = I. en son las columnas de la matriz identidad. 2. E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila.) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n .16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . o ´ Existe un C tal que A · C = I. . 5. A b 2 = e2 . A es equivalente por filas a la matriz identidad In de n × n. A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In . 4. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  .  Teorema B. La ecuaci´n A x = 0 solo tiene la soluci´n trivial. o sea. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. (A tiene n posiciones pivote) A es un producto de matrices elementales. b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). donde e1 .. −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . Construimos la matriz [A In ]. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1. Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In .

. . . . ··· ··· . . . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n .       (B. . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n . .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. . . . .13). . . que se conoce como desarrollo del determinante de A por su primera fila. .. Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . . entonces A y B son invertibles y A = B −1 .. . . . . .  . .1.. . . . Determinantes.. .  .  .           . .  ai−11 ai−12 Aij =   ai+11 ai+12   . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . .6.. . AT es invertible. . Definici´n de determinante de una matriz cuadrada. donde suponemos que det a = a si a es un n´ mero real cualquiera. · · · anj−1 anj+1     . . . Sea A una matriz n×n (n ≥ 2). . . . a1n a2n . an1 an2  a11 a21 . . . . B. . . . .13) Denotaremos por Aij a la submatriz que j. . o sea  a11 a12  . ..  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j . . . . a12 a22 . ··· ··· .. B = A−1 . . . . . a1j+1 a2j+1 . . . . . anj+1 · · · ann · · · a1n . (B. . .. u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . .´ B ANEXO: ALGEBRA LINEAL 8. . . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . . B. · · · ai−1n · · · ai+1n . .  .6. · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j.

· · · a1n . Si E1 es la matriz que intercambia dos filas. mediante transformaciones elementales. . . transformar en una matriz triangular superior U (forma escalonada). . . a12 . det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj .2. e Teorema B. det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. . Por ejemplo. entonces det E = α. . o sea. .20 Sea A una matriz n × n.. . . · · · r ain . E2 ´ ´ o E3 . Este razonamiento nos conduce al siguiente teorema. 2. a Teorema B. es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . o 1. Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . . u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. det A = 0 y si una fila de A es proporcional a otra det A = 0. ..21 Sea A una matriz n × n y sea AT su traspuesta. la matriz B = E1 · A se obtiene al intercambiar dos filas de A. si a Entonces.. . Propiedades de los determinantes. . .. . . . . a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. Pero si A tiene n filas pivote entonces A es invertible. . B. . . la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. .6. 3. Luego. la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. . . · · · ann a11 . respectivamente. . Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila. an2 · · · ann r ai1 r ai2 .19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. . . Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. an1 a12 · · · a1n . . Es conocido de apartados anteriores que cualquier matriz A se puede. =r ai1 . . . Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 .18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . . . . . Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. . . ai2 · · · ain . Teorema B. Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. an1 an2 En particular si una fila de A es nula. entonces det A = det AT . .´ B ANEXO: ALGEBRA LINEAL Teorema B. respectivamente.

. ..   =  bi . . · · ·.24 Sea A  a11  . det An (ej ) = (−1)n+j det Ajn = Cjn .    . Sea A una matriz n × n y b un vector cualquiera de R n . . . . . Entonces det(A · B) = (det A) · (det B). . A =  ai1 · · · aij−1 aij aij+1 · · · ain  . B. donde e1 . . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . .  .  . bn b    .. . . . . · · · .. . . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   . . . . . det A ···. en son las columnas de la matriz identidad. an1 · · · anj−1 bn anj+1 · · · ann Teorema B.. Regla de Kramer. . b =  bi  .. . . seg´ n la regla de Kramer. . o Finalmente. . .    .  . A b 2 = e2 .. . . .  ..  .  .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B. ... det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. . .  . .  .  . .      . o Teorema B.  . .  ai1   . .  .   .  .  .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) .   . . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . . det A x2 = det A2 (b) .  .  . . . .. . . . . . . . . . · · · aij−1 aij aij+1 · · · ain   xi  . . . xn = . . . . . . .. . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas).3. . an1 matriz n × n invertible. . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b. .23 Sean A y B matrices n × n.6. o u det A1 (ej ) det An (ej ) x1 = . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. . .. . .  . .  . .      .    . · · · A b n = en . .  . . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 .  .   . .. .. . . . Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. . . .   . . . . . . .  .  . . . .  . . .. xn = det An (b) . . .

1  . B.25 Sea A una matriz invertible n × n. . y. el vector suma.. Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). . . . . La matriz ||C lm || se denomina matriz adjunta de A. β n´ meros reales. . z elementos arbitrarios de V y α.. x de Rn .16 del cap´ ıtulo anterior. . det A  C1i C2i · · · Cji . w = x + y. . Esta propiedad se conoce como la multilinealidad del determinante Teorema B.  −1 A =  ..  .. . . . . . Definici´n y ejemplos.. . Entonces V es un espacio vectorial si u 1. an ..1.. Cni   . Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x.. T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y). Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.7. . . . . . . . Para todos x e y. vectores de V . .7. Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados.  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. Espacios Vectoriales. tambi´n es un vector de V y se e cumple que: . .. .´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . 2. . y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. n. Cjn   ..20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 . .     B. . C1n C2n · · · Cjn · · · Cnn       . o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x.18 y B. . La aplicaci´n anterior es lineal pues para todo α de R y x. .. k = 1. . y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . . .

an n´ meros reales. El elemento nulo de V pertenece a H. (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn .2. 3. Sea V un espacio vectorial. que denotaremos por C[a. el vector w = x + y tambi´n es un vector de H.}.. tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V . .) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. H = Pn es un subespacio vectorial. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn . e . (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . b].) Para V = Pn ..) El conjunto de los polinomios de grado a lo sumo n.´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. H = Pk es un subespacio vectorial para todo k < n. q(x) = b0 + b1 t + · · · + bn tn . Pn = {pn (t) = a0 + a1 t + · · · + an tn . tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos. a0 . o sea. (α · f )(t) ≡ α · f (t). Para todos x e y. 1. ´ 2. 2. x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . 1.b] .26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). Subespacios vectoriales. 2.. 1. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x. 4.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento.7. w = α · x. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V . si y s´lo si a0 = a1 = · · · = an = 0...) El conjunto de las funciones continuas en el a o intervalo [a.) Dado un espacio vectorial V . entero. vectores de H. Dicho espacio lo denotaremos por R m×n o 3. que denotaremos por P n . el nulo) y H = V (el mismo espacio vectorial). Teorema B. o Ejemplos. Adem´s. el vector que se obtiene al multiplicar por un escalar. o 2. 1. B. para cualquier n = 0. pn = 0.b] .) Para V = C[a. .

. an ). ´ o Un conjunto de vectores v1 . ..... En particular si H coincide con V . v2 . tiene como unica soluci´n la trivial x1 = · · · = xp = 0. vp necesariamente cada vector es combinaci´n de los anteriores. e Teorema B. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. . v2 . vp ... . entonces sus columnas a 1 .. Por ejemplo. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 . B genera a todo H. el conjunto span (v1 ... v2 ..´ B ANEXO: ALGEBRA LINEAL 3. · · · . . . .. .. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 .. . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . Bases. el vector v j es combinaci´n lineal de o o los anteriores.27 Dado un conjunto de vectores {v1 . b2 . vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s.. Conjuntos linealmente independientes. vp ) es un subespacio vectorial de V . v2 . entonces B es una base de todo el espacio vectorial V .. Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V .. vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes. es o decir. . xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0..... v2 ... o sea.. si tomamos una matriz n × n invertible. v2 .. an son linealmente independientes y adem´s R n = Span(a1. v2 . . si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3.28 El conjunto de dos o m´s vectores v1 .7.. 1 < j < p.. b2 .. v2 . Teorema B.. 2.. vp se denomina linealmente dependiente si existen los valores x1 . Por tanto las siguientes afirmaciones son ciertas: 1. vp } de un espacio vectorial V . . B. . o a Un conjunto S = {v1 ... bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . . x2 . Un conjunto S = {v1 .. es decir... Un conjunto de vectores v1 ..... vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. bp ). 99 Para todos x vector de H.. .. Por tanto B = a1 . v2 ..3. an es una base de a . el vector w = α · x tambi´n es un vector de H.

el conjunto B = {v1 . v2 =  1  . vk . . u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial.´ B ANEXO: ALGEBRA LINEAL 100 Rn . tn ) = a Pn ... .  + · · · + x n  . Sin embargo.  = x 1 e1 + · · · x n en . S se conoce como la base can´nica de Pn . t 2 .  .. t.  . es decir los valores x1 .. Sistemas de coordenadas.. v2 . 1 ≤ j ≤ p...29 Sea S = {v1 . v3 no son linealmente a independientes.  . e2 .. es evidente que dado un vector x de R n sus coordenadas. v3 } no es una base de H pues v1 .. la matriz identidad n × n. a son unicos...  . las columnas e1 .. Entonces para todo x de V existe un unico conjunto de valores {α1 ... ´ Teorema B.. es combinaci´n lineal de los o restantes. El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn . vk−1 . digamos el vj . . t 2 . H no cambia. v3 =  1  . vp ) un subespacio de V .... ... . . consideremos el espacio generado por los vectores       2 1 1  0  . bn } es una base del espacio vectorial V . . S = {v1 .. 0 0 1 xn . Supongamos que B = {b1 . v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. . v2 . . ii) Si H no es el espacio {0}.   . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores. v2 . vk+1 . Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1. bn } una base del espacio vectorial V . vk+1 .. o Teorema B. En particular. v3 ] . b2 .30 Sea B = {b1 . tn } del espacio vectorial Pn . en de la misma son una base de Rn la cual se conoce como base can´nica de R n .  + x 2  .... xn . o Otro ejemplo lo constituye el conjunto de vectores S = {1. vk−1 . v3 ] = span [v1 . entonces alg´n subconjunto de S es una base de H. si A = In .. . H = Span [v1 ..  .  . . v2 .. Adem´s.. i) Supongamos que un vector de S. Entonces si suprimimos a dicho vector vk del conjunto S. H = Span(v1. ... v1 = 0 0 0 Es evidente que H = Span[v1 . o sea.. Adem´s. Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas. t.. .  = x 1  . B.4. ... αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn .. Por ejemplo. v2 . vp ) = span (v1 .. Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V . vp ). .. v2 .. Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  . b2 .7....

o Teorema B.b] = ∞. S es una base de V . dim Rn = n. .   . b2 .. o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . . bb } es una base de V y lo escribiremos de la forma dim V = n..´ B ANEXO: ALGEBRA LINEAL  α1 α2 . Si V no puede ser generado por una base finita de vectores.  = PCB · [x]B . En el caso que V = {0} sea el espacio vectorial nulo.. Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 .. e2 .. bn )..5. Consideremos nuevamente las coordenadas en Rn . o a es decir si V = Span(b1 . b) Si S genera a todo V ... . S es una base de V . a Este teorema es una generalizaci´n del teorema B. en }. dim Pn = n + 1. .. o (dim V = n < ∞).. dim C[a. bn ). bn } un conjunto de exactamente n vectores. .... B. . entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞. . entonces cualquier otra base de V tendr´ que tener n vectores de V . .. Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H. si las coordenadas de x en la base can´nica C son x 1 .. . b2 . b2 . Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . donde B = {b1 . o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n .32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B .8. bn }. a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos. bn }. o Teorema B. . N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica. dim{0} = 0.. o sea o −1 [x]B = PCB · [x]C = PBC · [x]C .. es decir si V = Span(b1 . y por tanto. b2 . La dimensi´n de un espacio vectorial.. .. Adem´s dim H ≤ dim V . . Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. Teorema B.34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 .33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V .. Supongamos ahora que pasamos a una nueva base B = {b1 . . Por ejemplo.. αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C.. bn }. b2 ...7. entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. a Teorema B.. xn . su dimensi´n. Entonces: a) Si S es un conjunto de vectores linealmente independientes..31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 .. αn      B 101   y lo denotaremos por   o [x]B .

. .. b2 . al vector no nulo x = 0..  .   . B. 2. luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B..8. . o sea. (B. x = 0. . (B.  . b1 = a11 d1 + a12 d2 + · · · + a1n dn .. Como D es una base de V y los elementos de B son elementos de V .  . xn B en la base  y1 . a1n   an1 an2 . . dn } o dos bases de V . ..  . Cambio de base... −1 [x]B = PDB [x]D . . Sea A una matriz de n × n. d2 . donde I es la matriz identidad n × n. a2 . bn =     D .. .35 Sea A una matriz triangular de n × n. tal que A x = λ x.14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ.    x1   . yn . o sea. =⇒  a11 a12 . el conjunto de los autovectores asociados a λ.. . Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D. resolver (A − λ I)x = 0..  . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii .   . y x = y1 d1 + · · · + yn dn −→ [x]D =  . o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = .  x = x1 b1 + · · · + xn bn −→ [x]B =  . encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones. 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . . . Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ.. y2 . cuyas columnas a1 . PDB es una matriz invertible (sus columnas son linealmente independientes).. yn D a1n · · · akn · · · ann xn B Adem´s..  . . ´stos se podr´n e a escribir en la base D. es decir. ann      D   b1 =       . dado un autovalor λ de A. Denominaremos al vector x de R n . n. . . x2 . es un subespacio vectorial de R n . .7.. b1 = an1 d1 + an2 d2 + · · · + ann dn .  . · · · . e Teorema B. bk = ak1 d1 + ak2 d2 + · · · + akn dn ..15) tiene soluciones no triviales. entonces el sistema a (A − λ I)x = 0. . . bn } y D = {d1 . autovector de A asociado al autovalor λ. Por tanto tenemos que [x] D = PDB [x]B . Por tanto. an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D. xn y D son y1 . yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B . ... . . Es importante destacar que conocido el autovalor λ. Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . que coincide con una base del n´ cleo de A. i = 1.´ B ANEXO: ALGEBRA LINEAL B.6. El problema de autovalores de una matriz. . o sea.

A es invertible. o Teorema B. o B = P −1 · A · P..2. Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ..17 (Teorema de inversi´n de matrices. La transformaci´n que a cada matriz le hace corresponder otra similar. La ecuaci´n caracter´ o ıstica.. vp asociados a los autovalores λ1 . en general. 2. se o denomina transformaci´n de similitud. Teorema B.. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B. B..15). o Matrices similares. distintos. si existe una matriz P invertible y otra D diagonal.17) Es evidente que si A es similar a B. .1. Sean A y B dos matrices n × n. los mismos autovalores.) Sea A una matriz cuadrada A de o o n × n. Diagonalizaci´n de matrices. o sea. (B. λ2 . (B.16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. v2 .16). entonces tienen el mismo polinomio caracter´stico y. λp son linealmente independientes. o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio. O sea. Entonces los autovectores v1 . Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B.36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp .37 Si las matrices A y B de n × n son similares. Teorema B. λ es un autovalor de A si y s´lo si p n (λ) = 0. . Teorema B. det(A − λ I) = 0. ı B. donde D es diagonal y P invertible.17). Si A = P · D · P −1 .. Las siguientes expresiones son equivalentes: 1. entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible.8. ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B.´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. Diremos que A es similar a B si existe una matriz invertible P . B es similar a A. Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0. tiene soluciones no triviales. para demostrarlo es suficiente tomar Q = P −1 . A −→ P −1 · A · P . (A − λ I)x = 0. o sea. entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores. tales que A = P · D · P −1 . por tanto. Es decir si U es la forma escalonada de A los autovalores de A y U son. tal que A = P · B · P −1 . λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A. conclusi´n.8. .

2. Entonces B es un conjunto de vectores de Rn linealmente independientes. Para ello comprobamos que A · P = P · D. λp .39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes. Si tenemos en total n autovectores linealmente independientes entonces el teorema B. λ2 . p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. 4.. Encontrar los autovalores de A resolviendo la ecuaci´n (B. dim(B) = n1 + n2 + · · · + np .. Sea Bk . A es diagonaa lizable si y s´lo si dim(B) = n... o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. k = 1. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P . Teorema B.40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . 3. 2. Algoritmo para diagonalizar una matriz A. . o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k .16). Adem´s. 1.. . o . Es recomendable comprobar que hemos calculado correctamente P y D. Si A es diagonalizable continuamos como sigue. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso. Teorema B.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn ..38 nos asegurar´ que nuestra matriz es diagonalizable. si B contiene exactamente n vectores. o sea B = B1 ∪ B 2 ∪ · · · ∪ B p . o sea. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. entonces es diagonalizable.

x ∈ R y R su radio de convergencia.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n . en el caso real si se sabe la convergencia en alguno de los extremos. an .C ANEXO: SERIES DE POTENCIAS 105 C. N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 .2) es decir. converge uniformemente en [0.3 Sea la serie de potencias ∞ n=0 an xn . z ∈ C. o C. z ∈ C. Anexo: Series de potencias ∞ n=0 Definici´n C. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|. es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R. Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. Obviamente si tenemos una serie de potencias del tipo (C. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . 0]). x ∈ R.1. En- tonces. . an . (C.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n .1) que denominaremos serie de potencias. cuando z0 = 0. k etc. ∞ k=0 zk . a Teorema C. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C. Adem´s. an . entonces absolutamente para todo x ∈ R con |x| < |r|.1). cualquiera sea la serie de potencias a ∞ n=0 an z n .1). Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. en el caso de las series de la forma (C. la podemos reducir a a la anterior (C. a en z0 (ver la figura 20). k! ∞ k=1 zk . La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que. R] ([−R. A diferencia del caso complejo. Si la serie converge para cierto r ∈ R.2) haciendo el cambio de variables ζ = z − z 0 y viceversa. an . entonces podemos definir la funci´n suma f (z) de la serie. si la serie converge en x = R (x = −R). Consideremos ahora en caso real. En este caso hay que trasladar los resultados a la recta real.2) est´n centrados en el origen y en el de las series (C. Si la serie converge para cierto w ∈ C. se puede saber mucho m´s sobre la serie.4 Sea la serie de potencias ∞ n=0 an xn . (C. Teorema C.

o sea. Entonces R = l´ ım n→∞ n 1 . Teorema C. =⇒ ım = l´ ım . toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. an . ım en cuyo caso 1 an an+1 = l´ n |an |. an .7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). x ∈ R con radio de convergencia R > 0. x ∈ R. ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. R). se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia.5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn . La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. ∞ n=0 Teorema C. ∞ n=0 an xn . si dicho l´mite existe. an xn es continua en (−R.6 La funci´n f (x) = o gencia de la serie. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . o sea. siendo R el radio de conver- En otras palabras. . l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades. Teorema C. n+1 2.

f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s. as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x). n Funciones elementales del an´lisis.C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R. Esta serie converge en (−1. (2k + 1)! ∞ k=1 cos x = (−α)k k x . (C. 1). radio de convergencia +∞. Para calcular la derivada usamos el teorema anterior. n (−x)n = ∞ n=0 (−1)n xn . Ejemplo C. n (C.5) xk . 1 = 1+x (−1)k xk . x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . a o o Los teoremas anteriores permiten calcular un buen n´ mero de series.6) Aplicando la integraci´n t´rmino a t´rmino en [0. a ex = ∞ k=0 ∞ k=0 xk . (C. x ∈ (−1. La funci´n que cumple lo anterior es la funci´n e x .6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . (C. x ∈ R. ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. 1). ∞ k=0 (C. f (0) = 1. R). as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn .4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C. k! x ∈ R. 1). k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1.8 Probar que la funci´n f (x) = o su derivada.8) . 1).7) Usando (C.3) sen x = (−1)k x2k+1 . como ya hemos calculado antes. x ∈ (−1.

C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. 2n + 1 x ∈ (−1.5) con α = − 2 y cambiemos x por −x2 . (C.10) de donde integrando t´rmino a t´rmino en [0. k!(2k + 1) x ∈ (−1. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 . integrando t´rmino a t´rmino en [0.9) 1 Escojamos ahora (C. x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 . (C.11) . 1). 1). (C. tenemos √ 1 ( 2 )k k 1 x . 1). = 1 − x2 k=0 k! ∞ x ∈ (−1.

Sign up to vote on this title
UsefulNot useful