P. 1
Ampliacion de Analisis Matematico - Ecuaciones Diferenciales Or Din Arias

Ampliacion de Analisis Matematico - Ecuaciones Diferenciales Or Din Arias

|Views: 64|Likes:
Publicado porDenise Faip

More info:

Published by: Denise Faip on Sep 22, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

02/14/2013

pdf

text

original

Sections

  • 1. Introducci´on a las EDOs: la EDO lineal de primer
  • 1.1. Ecuaciones diferenciales “ordinarias”
  • 1.2. La EDO lineal de primer orden
  • 1.3. Algunas aplicaciones de las EDOs lineales de primer orden
  • 1.4. Problemas
  • 2. Otras EDOs de primer orden
  • 2.1. Ecuaciones separables
  • 2.2. Problemas
  • 2.3. Ecuaciones que se reducen a EDOs lineales o separables
  • 2.4. Las EDOs homog´eneas
  • 2.5. Otras EDOs de primer orden: la EDO de Clairaut
  • 2.6. Ecuaciones exactas y factores integrantes
  • 2.7. Aproximaciones num´ericas: el m´etodo de Euler
  • 2.8. Problemas
  • 3. Sistemas de EDOs
  • 3.1. La ecuaci´on lineal Y = A(x)Y + B(x)
  • 3.2. Los SEDO lineales con coeficientes constantes
  • 3.3. La exponencial matricial exp(xA)
  • 3.4. El caso de autovalores m´ultiples
  • 3.5. El SEDO lineales no homog´eneo
  • 3.6. Problemas
  • 4. La ecuaci´on lineal de orden n
  • 4.1. Soluci´on de la ecuaci´on lineal homog´enea
  • 4.2. La EDO lineal de segundo orden no homog´enea con coeficien-
  • 4.3. Aplicaciones
  • 4.4. Problemas
  • 5. Soluciones de EDOs en serie de potencias
  • 5.1. El m´etodo de reducci´on de orden
  • 5.2. Puntos regulares y singulares de una EDO
  • 5.3. La ecuaci´on hipergeom´etrica de Gauss
  • 5.4. Problemas
  • 6. Los polinomios ortogonales cl´asicos
  • 6.1. La ecuaci´on diferencial hipergeom´etrica
  • 6.2. Los Polinomios de Hermite, Laguerre y Jacobi
  • 6.3. Los momentos de los polinomios cl´asicos
  • 6.4. Las funciones generatrices
  • 6.5. Problemas
  • 7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69
  • 7. El teorema de existencia y unicidad para las EDOs
  • 7.1. Problemas
  • 8. La transformada de Laplace
  • 8.1. Problemas
  • A. Anexo: C´alculo de primitivas
  • A.1. M´etodos de integraci´on
  • A.2. Integraci´on de funciones racionales
  • A.3. Integrales trigonom´etricas
  • A.4. Integrales irracionales
  • B. Anexo: ´Algebra lineal
  • B.1. Sistemas lineales y matrices
  • B.2. Formas escalonadas y el algoritmo de reducci´on por filas
  • B.3. Soluci´on de un sistema de ecuaciones lineales
  • B.4. Vectores y ecuaciones matriciales
  • B.6. Determinantes
  • B.7. Espacios Vectoriales
  • B.8. El problema de autovalores de una matriz
  • C. Anexo: Series de potencias
  • C.1. Propiedades de las series de potencias

´ ´ ´ AMPLIACION DE ANALISIS MATEMATICO: ECUACIONES DIFERENCIALES ORDINARIAS

x

x + ω 2x = f0 cos(Ωt)

´ Renato Alvarez Nodarse

£

¢

¡

 

t

Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. o a a
´ Prof. Renato Alvarez Nodarse

´ Indice
Programa de la asignatura 1. Introducci´n a las EDOs: la EDO lineal de primer o 1.1. Ecuaciones diferenciales “ordinarias” . . . . . . . . 1.2. La EDO lineal de primer orden . . . . . . . . . . . 1.3. Algunas aplicaciones de las EDOs lineales de primer 1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . orden . . . . . . . . . . orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1 1 2 3 5 7 7 10 11 12 13 14 18 23 26 27 28 29 31 34 35 38 39 41 43 49 51 52 53 55 56 58 58 60 64 65

2. Otras EDOs de primer orden 2.1. Ecuaciones separables . . . . . . . . . . . . . . . . . . . 2.2. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Ecuaciones que se reducen a EDOs lineales o separables 2.4. Las EDOs homog´neas . . . . . . . . . . . . . . . . . . e 2.5. Otras EDOs de primer orden: la EDO de Clairaut . . . 2.6. Ecuaciones exactas y factores integrantes . . . . . . . . 2.7. Aproximaciones num´ricas: el m´todo de Euler . . . . . e e 2.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de EDOs 3.1. La ecuaci´n lineal Y = A(x)Y + B(x) . . . . o 3.2. Los SEDO lineales con coeficientes constantes 3.3. La exponencial matricial exp(xA) . . . . . . . 3.4. El caso de autovalores m´ltiples . . . . . . . . u 3.5. El SEDO lineales no homog´neo . . . . . . . . e 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. La ecuaci´n lineal de orden n o 4.1. Soluci´n de la ecuaci´n lineal homog´nea . . . . . . . . . . . . . . . . . . . o o e 4.2. La EDO lineal de segundo orden no homog´nea con coeficientes constantes e 4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Soluciones de EDOs en serie de potencias 5.1. El m´todo de reducci´n de orden . . . . . e o 5.2. Puntos regulares y singulares de una EDO 5.3. La ecuaci´n hipergeom´trica de Gauss . . o e 5.4. Problemas . . . . . . . . . . . . . . . . . . 6. Los 6.1. 6.2. 6.3. 6.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. . . . o e Los Polinomios de Hermite, Laguerre y Jacobi. Los momentos de los polinomios cl´sicos . . . a Las funciones generatrices . . . . . . . . . . .

. . . . . . . . . . . . . . . o B. 67 69 70 72 73 75 76 78 80 81 83 83 84 85 86 90 94 97 102 ´ B. . . . . . . . . B. . . . . . . . 7. . . ´ B. . . . . . . . . . . . . B. . . . . Anexo: Series de potencias 105 C. . . . . El teorema de existencia y unicidad para las EDOs 7. . . . . . . . . . .2. . .5. . . . . . . . . . . . 8. Anexo: Algebra lineal B. . . . . . . .7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. Problemas . . . . . . . Problemas .1. . B. . . . e A. . .2. . o A. . . .5. . . . . . . . . . . Integrales trigonom´tricas. . . . . . . . . . . . . . . . . . . . . . . .4. o B. . . . . . . . .6. . . Determinantes. . . . . . . . . . . . . .1. .8. . . . . . . . . . A. . . . . . . . . . . . . . . . Sistemas lineales y matrices. . . . . . . . . . . . . . . El problema de autovalores de una matriz. . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . .3. . . . . . . . . . . Vectores y ecuaciones matriciales. La transformada de Laplace 8.6. . e o A. . . . . . Integrales irracionales. . . . . . . . . . . . . . C. . . . . . . . . . . . 105 . . . . . Propiedades de las series de potencias . . . . Formas escalonadas y el algoritmo de reducci´n por filas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Soluci´n de un sistema de ecuaciones lineales. . . . . . . . . . . . . . . . . . . . . . . .3. . Problemas . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . M´todos de integraci´n. . . . . . . . . Anexo: C´lculo de primitivas a A. . . . . . . . Algebra de matrices. . Integraci´n de funciones racionales. . . . . . . . B. . . . . .1. . . . . . . . . . Espacios Vectoriales.

M´todos e en diferencias para resolver EDOs de primer orden: El m´todo de Euler. o o La ecuaci´n de segundo orden de tipo hipergeom´trico. Los sistemas lineales y la EDO de orden n. La matriz exponencial eA y sus propiedades. EDOs lineales de orden 2. Puntos regulares y singulares. o a a Programa de la asignatura. Sistemas lineales con coeficientes constantes. La ecuaci´n hipere o o geom´trica de Gauss. Aplicaciones.Diplomatura de Estad´ ıstica “Ampliaci´n de An´lisis Matem´tico”. Cap´ ıtulo 4: Ecuaciones diferenciales de orden n. Polinomios cl´sicos discretos. Funciones generatrices. Ecuaciones lineales. Cap´ ıtulo 8: Ecuaciones en diferencias finitas. La EDO lineal o de primer orden. M´todo de Pic´rd. M´todo de variaci´n de coeficientes. Ecuaciones diferenciales exactas. Cap´ ıtulo 2: Ecuaciones diferenciales ordinarias de primer orden. e M´todo de integraci´n por series. Ortogonalidad y relaci´n de recurrencia. La EDO lineal de primer o orden. Funcioo nes generatrices. F´rmula de Rodrigues. Relaci´n con los sistemas de ecuaciones de primer orden. Los momentos de las o o distribuciones continuas de probabilidad. Teorema de existencia y unicidad para la EDO lineal de orden 1. e o Cap´ ıtulo 6: Polinomios ortogonales cl´sicos. Reducci´n de orden. Existencia de la soluci´n. Ecuaciones diferenciales de primer orden. Introducci´n a las ecuaciones en diferencias finitas: Ejemplos. Sistemas de ecuaciones diferenciales ordinarias de primer orden. La o e a ecuaci´n de Pearson y los momentos de las distribuciones discretas de probabilidad. Ejemplos y aplicaciones. Cap´ ıtulo 7: EDOs: Existencia y unicidad de las soluciones. EDOs de orden n. La ecuaci´n de Bessel. Aplicaciones. . Teorema de existencia y unicidad para una ecuaci´n diferencial ordie a o naria de primer orden. Curso 2003/2004 Cap´ ıtulo 1: Introducci´n a las ecuaciones diferenciales ordinarias. Aplicaciones. Ecuaciones separables. e Cap´ ıtulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden. Ecuaciones de Bernoulli y de Ricati. Motivaci´n de las ecuaciones diferenciales ordinarias (EDO). Los polinomios cl´sio e o a cos. a La ecuaci´n de tipo hipergeom´trico y sus soluciones polin´micas. Ecuaciones o lineales. e o o Cap´ ıtulo 5: M´todo de las series de potencias.

Springer Verlag. Marcell´n. Prentice Hall. o Colecciones de problemas A. Nikolski S. Ecuaciones diferenciales.E. Despacho: 1er piso. Ecuaciones diferenciales elementales. Bibliograf´ complementaria ıa Braun M. Facultad de Matem´ticas. y Bedient R.. Problemas de Ecuaciones diferenciales ordinarias. y Zarzo. BOIARCHUK y G. Bedient P. Bibliograf´ ıa Bibliograf´ b´sica ıa a C. McGrawo Hill. y Saff E. No. Ecuaciones diferenciales : con aplicaciones y notas hist´ricas.. y Makarenko G. K. Casas´s. Fundamentos de ecuaciones diferenciales. ´ Renato Alvarez Nodarse. A. Elsgoltz L. Para aprobar el examen es necesario obtener al menos 5 a puntos. GOLOVACH.F. Pearson Educaci´n. 2002). Rainville E. Ecuaciones diferenciales y c´lculo variacional.. Differential Ecuations and their Applications.S. G. Ed.D. F. MIR. McGraw-Hill.K. o a o o Al final del cuatrimestre se se efectuar´ un ex´men final constituido por una parte te´ricaa a o pr´ctica y otra de problemas. Jr y David E. Ecuaciones diferenciales: Problemas lineales y a u aplicaciones. MIR. 15-06 a . Simmons. Penney. Mod 15. Ecuaciones diferenciales. 9 y 10 (URSS. Las horas pr´cticas se e a dedicar´n a proponer y resolver diversos ejercicios que permitan al alumno una comprena si´n m´s profunda de los conceptos te´ricos y que sirvan de complemento a las clases te´ricas. Tambi´n se entregar´n varios proyectos sobre temas relacionados con el programa e a que complementen los tratados en clase. Bugrov Ya. H. Krasnov M.B. L. Las horas a o a de teor´ se dedicar´n a la explicaci´n de los principales conceptos y m´todos de resoluci´n ıa a o e o de EDOs tanto de orden uno como de ordenes superiores. Edwards.. Integrales mltiples. Dichos proyectos son totalmente voluntarios y no ser´n evaluados en el ex´men aunque si pueden complementar la nota de ´ste. P. Problemas Resuea tos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8. a Kisilev A. s´lo en caso a a e o de mejorarla. Matem´tica Superiores. MIR.E. Series. Adem´s se desarrollar´n distintos ´ a a ejemplos que permitan aplicar y profundizar los m´todos aprendidos.Metodolog´ y Evaluaci´n ıa o La asignatura est´ dividida en 3 horas te´ricas y 2 horas pr´cticas semanales. Pearson Educaci´n o Nagle R.M.. Funciones de variable compleja.

Por ejemplo. Diremos que o u una ecuaci´n diferencial del tipo (1. .´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 1 1. mientras que la segunda tiene dos soluciones reales ´ o x = 1 y x = 3. La inc´gnita en este caso es una unica o o o ´ variable x que puede ser real o compleja. ı. resta. las ecuaciones funcionau a les donde las inc´gnitas son funciones. y (x) = y. En ejemplo de ´stas son las ecuaciones diferenciales o e ´ “ordinarias”.1) se transforma en una identidad para todo x ∈ A. y. y .. Estas ecuaciones son el objetivo del presente curso. para la primera ecuaci´n es f´cil ver o a que x = 1 es la unica soluci´n posible. quiz´ las m´s sencillas.1) es de orden n si en ella aparece la derivada y (n) . Nuestro principal objetivo es aprender a resolver EDOs..1) donde y = y(x) es cierta funci´n n veces derivable en alg´n intervalo I ⊂ R. . Diremos que y = y(x) es una soluci´n de la (1. As´ por ejemplo la ecuaci´n y + 3y = 2 es de orden uno. Finalmente la ultima no tiene ninguna soluci´n pues la unica posible ser´ x = 1 que no ´ o ´ ıa puede ser soluci´n ya que la propia ecuaci´n no est´ definida en x = 1 (divisi´n por cero). Por ejemplo o 3x + 2 = 5. . Ecuaciones diferenciales “ordinarias” F (x. y (x) − ey(x) + 7 cos x = 0. multiplicaci´n y divisi´n. es o decir el orden de una EDO coincide con el mayor orden de la derivada de la funci´n inc´gnita o o y y. Introducci´n a las EDOs: la EDO lineal de primer o orden Todos sabemos que es una ecuaci´n. y (n−1) (x0) = y0 (n−1) . son ecuaciones algebraicas ya que involucran s´lo a a o las operaciones suma. o o a o Hasta ahora hemos visto ecuaciones “sencillas” en el sentido que su soluci´n es un conjuno to de n´meros determinado. porque tarde o temprano tendremos que calcular primitivas lo cual es bastante complicado en general. x2 − 2x + 1 = 0. o sea o y = y(x) es soluci´n en A o ⇐⇒ F (x. . . Por ejemplo. y . x2 + 4x = −3. y (x) = sen x. y . 1. . . . . y (x). pero si complejas x = ±i. Es f´cil entender que el problema de a encontrar la soluci´n de las ecuaciones diferenciales es m´s complicado que el de los casos o a anteriores. y(x). Existen ecuaciones m´s “complicadas”.1. . Estas son ecuaciones que involucran tanto a las funciones buscadas como sus derivadas “ordinarias”. y ) = 0 que cumpla con las condiciones iniciales y(x0 ) = y0 . En segundo. En particular el denominado problema de valores iniciales (PVI). . y (n) (x)) = 0. y + e − 1 = 0 es de orden dos. y (n) ) = 0. . (1. . .. y (x) + 3y (x) + 2y(x) = 2 cos(2x).1) en cierto dominio A ⊂ R si al sustituir o la funci´n y = y(x). y. y (x0) = y0. o y (5) + 3 sen x − y = 0 es de orden cinco. x2 + 1 = 0. ∀x ∈ A. Nos centraremos en las ecuaciones del tipo (1. y . La tercera sin embargo no tiene soluciones reales. En primer lugar por que estamos buscando funciones de x y no simples valores de x. es decir encontrar aquella soluci´n y de la ecuaci´n o o (n) F (x. x2 − 1 Estas ecuaciones.

dx e 2 2x dx = Ce− 2 + 2e− 2 e 2 = Ce− 2 + 2. (1.4). b(x) ∈ CI . o e La soluci´n general de (1. existe una unica soluci´n del problema de valores iniciales (1. la soluci´n del PVI es o x t x t y(x) = y0 exp − x0 a(s) ds + exp − a(s) ds x0 x0 exp x0 a(s) ds b(t) dt . Si b(x) ≡ 0 la ecuaci´n se denomina ecuaci´n homog´nea y si b(x) = 0.4) Ejemplo 1. La EDO lineal de primer orden d y(x) + a(x)y(x) = b(x). x2 x2 x2 x2 x2 Definici´n 1. o sea.4).´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 2 1.2 Encontrar la soluci´n de la ecuaci´n lineal o o Tenemos y = Ce− 2 + e− 2 x2 x2 dy + x y = 2x.2) (como inc´gnita tenemos a la funci´n derivable y(x)) se denomina ecuaci´n diferencial lineal o o o de primer orden. (1.5) . ´ o En general. Teorema 1. y(x0) = y0.3) Ejemplo 1. entonces. (1. de donde C = −1 o x2 x2 y y(x) = 2 − e− 2 .1 La ecuaci´n o o a(x).2) con la condici´n o o o o que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI para la EDO lineal de primer orden. para cualquiera sea el valor y0 .2) se expresa de la forma o y(x) = Ce− a(x) dx + e− a(x) dx e a(x) dx b(x) dx (1. o o e ecuaci´n no homog´nea.4 Resolver la EDO del ejemplo 1. dx a(x). dx Definici´n 1.5 (existencia y unicidad de la soluci´n del PVI para una EDO lineal 1er orden) o Sea el problema de valores iniciales (1. b(x) ∈ CI . o Como la soluci´n general es y(x) = Ce− 2 + 2. Si a(x) y b(x) son funciones continuas en cierto intervalo I ⊂ R que contenga al punto x0 ∈ I.2 con la condici´n inicial y(0) = 1.2. tenemos y(0) = 1 = C + 2. d y(x) + a(x)y(x) = b(x).3 El problema de encontrar una soluci´n de la ecuaci´n (1.

Supongamos que el voltaje U es constante y que i(0) = i0.0) x U L Q Figura 1: Curva del ejemplo 1. o o o ¿C´mo var´ la presi´n con la altura? o ıa o Ejemplo 1.8 Se sabe que la intensidad i del circuito el´ctrico representado en la figura 1 e est´ gobernada por la ecuaci´n diferencial a o L di + Ri = U.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3 1.9 La ecuaci´n barom´trica de Pascal es la EDO o e p (h) = −λp(h). Realizar el mismo estudio si U = U0 sen(ωt). R la resistencia y U el voltaje.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a la curva y en cada punto sea la suma de las coordenadas del punto. la presi´n al nivel del mar (1 atm). Algunas aplicaciones de las EDOs lineales de primer orden Ejemplo 1. dt donde L es la impedancia. y) dibujado entre P y el eje 0y quede bisecado por el eje Ox. entonces u ´ N (t + h) − N (t) = −λN (t)h ⇐⇒ N (t + h) − N (t) = −λN (t). Encuentra adem´s la a curva que pasa por el origen.6 (derecha) y circuito el´ctrico del ejemplo 1. λ > 0. Encontrar la dependencia de i respecto al tiempo t. y t y(x) P(x. y = 2y/x Ejemplo 1. Si h = 0. donde p es la presi´n en funci´n de la altura h.3.10 La descomposici´n radioactiva o Si N es el n´mero de atomos de una substancia radioactiva.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a la curva y en un punto cualquiera P (x.8 (izquierda) e Ejemplo 1.y) R 0 (x/2. h . Ejemplo 1.

62 0. 2 =⇒ λ= log 2 0.81 0.5101210 n 1/a˜os n En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una cadena radioactiva.0147478 1/min 22 a˜os n 0. pr´cticamente e a en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226. N (t0) = N0. u ´ N0 = N0 e−λT . si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos ı.693147 = .5110 a˜os 1. que tener en cuenta no s´lo la cantidad que se desintegra sino la que aporta cualquiera de los o elementos que aparecen por encima de ´l en la cadena radioactiva. Uranio 238 Torio 234 Uranio 234 Radio 226 Plomo 206 Polonio 210 Plomo 210 Plomo 214 As´ por ejemplo. entonces la ecuaci´n que gobierna la desintegraci´n del o o o Plomo 210 es la siguiente N (t) = −λN (t) + r(t). entonces podemos aproximar la ecuaci´n anterior mediante la siguiente EDO o N (t) = −λN (t). (1. o e Si llamamos a esa aportaci´n r(t).g. T T Elemento Radio 226 → Plomo 214 Plomo 214 → Plomo 210 Plomo 210 → Polonio 210 Polonio 210 → Plomo 206 Carbono 14 → Nitr´geno 14 o Uranio 238 → Torio 234 Per´ ıodo T λ 1600 a˜os n 0. N (t0) = N0.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN Sierra Grazalema (C´diz) a Picos de Europa (Cantabria) Sierra Nevada (Granada) Teide (tenerife) Everest (Himalaya) altura m´xima (metros) presi´n (atm) a o 1654 2648 3478 3710 8848 0. Por ejemplo.6) Se llama per´ ıodo de semi-desintegraci´n al tiempo necesario para disminuir en la mitad o el n´mero de atomos.000433217 1/a˜os n 47 min 0. lo que implica una aportaci´n a la cantidad de Plomo 210 despu´s de varias desintegraciones.64 0. (1.71 0.000124488 1/a˜os n 9 −10 4.32 4 Si h → 0.00502281 1/dias 5568 a˜os n 0.0315067 1/a˜os n 138 d´ ıas .7) . E.

y) = y − 2 2+x F (x. f (x. y = 3y + e5x . y) = 0 dada y determina la regi´n de R donde dicha soluci´n o o est´ definida: a 1. y + y cos x = 0 √ 2. y ) = (y 2 − x)y − y + x2 = 0 F (x. y. 5. La ´ soluci´n de la ecuaci´n anterior es f´cil de encontrar usando la f´rmula (1. √ 6. y + y x = 0 3. f (x. y ) = y − y = 0 F (x. y(0) = 2. y ) = (1 + x2)y − xy = 0 F (x. f (x) = 3/4e−2x .11 Decide si las funciones y(x) definidas expl´ ıcitamente o impl´ ıcitamente son soluciones de la EDO F (x. . f (x. 3. f (x. f (x) = 3e−2x . y) = x3 + y 3 − 3xy = 0. Problemas de EDOs lineales Problema 1. y. y ) = y + y/x = 0 = 0. 2. y ) = xy + y − y 2 = 0 F (x. y = 6y + x2. y. f (x. Problemas Problema 1. y) = e2x + ey−x − 1 = 0.4. y) = x2 + y 2 − 25 = 0. y) = x2 + y 2 − 25 = 0. y ) = ex−y + ey−xy = 0 F (x. y) = x2 + y 2 + 1 = 0. y. f (x. 8. f (x. y) = 1 + x2 − y = 0. y + 2y = f (x). y. y. f (x) = sen x 10. y + 2xy = x 4.12 Encuentra la soluci´n general de las siguientes EDO lineales de primer o orden 1.5). y + xy = f (x). x y + y = x sen x Problema 1. y(1) = 0. 9. y. y + y = xex 5.13 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y o la soluci´n correspondiente a las condiciones iniciales indicadas: o 1. 4. f (x. y. y) = y − ex + 2 = 0. y. x y + y cos x = 1/2 sin(2x) 11. y ) = yy + x = 0 F (x. y + x2y = x2 6. y ) = yy + x = 0 F (x. o o a o 1. 7. x y + y = x3 7.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 5 donde r(t) representa la cantidad de atomos de Radio que se desintegra en la muestra. y = (y + e−x ) tan x 8. 2.

b(x) ∈ CR . es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. ım b) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + a(x)y = b(x). ∀x ∈ R. ım a(x). x2 + 2y 2 = 24). x→∞ a. 2).0) y(x) t P(x. x→∞ l´ b(x) = 0. x→∞ a(x) ≥ c > 0. y(0) = 1. ım . y(1) = 1/4. 4.y) Q x n Curva del problema 1. g(x) = 2.15 a) Prueba que cualquier soluci´n y(x) de la ecuaci´n o o y + ay = be−cx . c ∈ (0. (sol.14 Encontrar la ecuaci´n de la familia de curvas tal que el segmento de la o normal entre la curva y y el eje 0y es biseccionado por el eje 0x.´ 1 INTRODUCCION A LAS EDOS: LA EDO LINEAL DE PRIMER ORDEN 3. y + y = g(x). es tal que l´ y(x) = 0 independientemente del valor y(0) = y0 inicial. y(0) = 0.14. y 0 (x/2. Problema 1. Encontrar la curva que pasa por (4. ∞). b ∈ R. 0 ≤ t ≤ 1 0. t > 1 6 5. (1 + x2)y + 4xy = x. y = y + e−x sen(2x). Problema 1.

Supongamos que la funci´n f (x. Por ejemplo. b−x 1 − e(a−b)κt . La expresi´n anterior define una familia de curvas en R2 √ son soluci´n de la ecuaci´n o que o o 2 . entonces tenemos dx = κdt (a − x)(b − x) =⇒ log a−x = (a − b)κt + C. 2. Supongamos que a = b. En general la soluci´n es y(x) = ± C + x o depender´ de las condiciones iniciales. y) = a(x)b(y). y) en la o EDO y = f (x. Se sabe que la velocidad la velocidad de formaci´n o o de C es proporcional a la concentraci´n de A y B. Cuando esto ocurre se dice que la EDO (2.2) cuando b ≡ 0. Un ejemplo trivial de ecuaci´n diferencial separable es la ecuaci´n o o o diferencial lineal homog´nea (1. Aplicaciones Ejemplo 2. b − ae(a−b)κt =⇒ a−x = Ce(a−b)κt . (2.2 Supongamos que tenemos una reacci´n qu´ o ımica A + B → C y que en t = 0 la concentraci´n de A es a y la de B es b.1 Resolver la ecuaci´n y = x/y. C = a/b. Ejemplo 2.2) como x(0) = 0. o Usando lo anterior tenemos ydy = xdx ⇐⇒ y 2 = x2 + C. Lo anterior nos conduce a la EDO o x = κ(a − x)(b − x).1) admite la factorizaci´n f (x.1.1) es o una ecuaci´n separable. donde κ es la constante de proporcionalidad. y(0) = 3. donde el signo + o − diferencial propuesta.1. e En general tenemos dy = a(x)b(y) dx ⇐⇒ dy = a(x)dx b(y) ⇐⇒ dy dy = b(y) a(x)dx. y) (2. luego x(t) = ab Ejemplo 2. luego la soluci´n de la ecuaci´n separable es o o G[y(x)] = A(x) + C. b−x x(0) = 0. donde G(y) es una primitiva de 1/b(y) y A(x) es una primitiva de a(x).3 La velocidad de escape de la Tierra . entonces C = 9 y la soluci´n ser´ y(x) = 9 + x o a 2.2 OTRAS EDOS DE PRIMER ORDEN 7 2. Otras EDOs de primer orden Ecuaciones separables Comenzaremos por las ecuaciones separables. si nos interesa el PVI con la condici´n a o √ 2.1.

siendo R el radio de la tierra (que supondremos una esfera). Entonces dv 1 (1 + ωv) (1 − ωv0 ) = log = g(t − t0 ). Usando la regla de la cadena tenemos v gR2 dv =− 2 . entonces.2Km/s. Poniendo los datos R = 6400000 metros g = 9. lo cual nos conduce al valor v0 ≥ 2gR. dt r donde G es la constante universal gravitatoria y MT es la masa de la tierra. o e o Supongamos que v0 es la velocidad inicial del cuerpo sobre la superficie terrestre. dr r La soluci´n de esta EDO usando el m´todo de separaci´n de variables es v 2 = 2gR2 /R + C.4 La ca´ de un cuerpo en un medio viscoso se puede modelizar mediante la ıda ecuaci´n para la velocidad v(t) o v = g − κv r .2 OTRAS EDOS DE PRIMER ORDEN 8 Nos interesa resolver el problema de encontrar la velocidad de escape al espacio exterior de un cuerpo que se encuentre en la superficie de la tierra. v(0) = v0. Ejercicio 2. Resolvamos la ecuaci´n o dv = dt g − κv r v v0 v =⇒ t − t0 = v0 dv 1 = g − κv r g v v0 dv . Si usamos la ley de Newton tenemos dv GMT =− 2 . la velocidad del cuerpo a cualquier distancia de la tierra viene dada por v2 = 2gR 2 + v0 − 2gR. Ejemplo 2.5 Resolver el caso r = 3. (2. 1 − ω2 vr ω2 = κ . ω= κ > 0.8m/s2 obtenemos v0 = 11200m/s = 11. g Escojamos r = 2. .3) donde g y κ son ciertas constantes (la gravedad y la viscosidad). r Para que nuestra nave escape definitivamente de la tierra es suficiente que v ≥ 0 cuando √ r → ∞. tenemos GM T = gR2. g Como ω > 0. Obviamente r varia con el tiempo por lo que la ecuaci´n anterior se torna algo complicada o a simple vista. entonces si t → ∞ el cuerpo s´lo podr´ alcanzar la velocidad l´ o a ımite vmax = 1/ω independiente del valor v0 inicial. Como g = GMT /R2 . 2 vr 1−ω 2ω (1 − ωv) (1 + ωv0 ) Despejando v tenemos la soluci´n o 1 v(t) = ω 1+ωv0 1−ωv0 1+ωv0 1−ωv0 e2gω(t−t0) − 1 e2gω(t−t0) + 1 . por ejemplo.

Verhulst. p)p(t). (2. Por tanto varios a˜os despu´s en a n e 1837 un matem´tico y bi´logo holand´s. constante. a 0 t0 t Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados. propuso un modelo algo m´s realista a o e a conocido como el modelo log´ ıstico. p)p(t)h. p) = r. el hecho de que la poblaci´n se o estabilice ha sido comprobado en distintos experimentos con paramecios obteni´ndose una e gran concordancia entre los resultados te´ricos y experimentales. r > 0. poblaci´n de individuos de la especie puede ser modelizada mediante el PVI o p (t) = r p(t). p(t0) = p0 . (2. p) la diferencia entre en ´ ındice de natalidad y mortalidad de la poblaci´n.2 OTRAS EDOS DE PRIMER ORDEN 2. p r/c p(t0) = p0. As´ la o a ı. Verhulst razon´ que como estad´ o ısticamente el encuentro 2 de dos individuos es proporcional a p (¿por qu´?) entonces tendremos que sustraerle al e t´rmino rp un t´rmino cp2 .4) cuya soluci´n p(t) = p0 er(t−t0) . Entonces la variaci´n p(t + h) − p(t) es proporcional a p(t)h y o o o el coeficiente de proporcionalidad es r(t. Sea r(t.1.5) En general c ha de ser mucho m´s peque˜o a n que r ya que si r no es muy grande la EDO (2. P. Resolviendo la EDO (2. r.4) es una aproximaci´n bastante buena. gr´fica 2. Luego p(t + h) − p(t) = r(t. r − cp0 + cp0 er(t−t0) (2. no hay o o a emigraci´n ni inmigraci´n). p).6) Adem´s. Si r < 0 la especie esta condenada a la extinci´n y si r > 0 ´sta crece en proporci´n o e o geom´trica. h → 0. En el caso cuando 0 < p0 < r/c la evoFigura 2: Evoluci´n de la poblaci´n seg´n luci´n de la poblaci´n est´ representada en la o o u o o a el modelo log´ ıstico 2. c > 0. Malthus (1766– e e 1834). El modelo de crecimiento de poblaciones 9 Imaginemos que tenemos una poblaci´n de cierta especie (consideraremos que tenemos o un n´mero bastante alto de individuos) y sea p(t) el n´mero de individuos de dicha especie en u u el momento t (evidentemente p(t) ∈ N). e Aunque el modelo funciona razonablemente bien para poblaciones grandes. pero si p o comienza a crecer demasiado entonces el t´rmie 2 no −cp no se puede obviar y termina frenando el crecimiento exponencial. en particular. Supongamos que la poblaci´n est´ aislada (o sea. =⇒ p (t) = r(t.5) tenemos p(t) = rp0er(t−t0) .2. La ecuaci´n m´s sencilla posible se obtiene si consideramos r(t.5. l´ t→∞ p(t) = r/c independientemente a ım de p0 . El modelo anterior se conoce como modelo de Malthus o o modelo maltusiano pues fu´ propuesto por el economista ingl´s Thomas R. F. de forma que la EDO que modeliza una poblaci´n ser´ e e o a p (t) = r p(t) − cp2 (t). hay que hacer varias correcciones pues si p(t) empieza a crecer demasiado habr´ muchos otros factores como a la falta de espacio o de alimentos que frenar´ el crecimiento. o .

7 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales: 1. 2.2 OTRAS EDOS DE PRIMER ORDEN 10 2. l´ x→∞ y(x) = 5π/4 ım 2 .2. y = xy(y + 2) 3. (x log x)y + 1 + y2 = 0 7. (1 + x2)y = 1 + y 2 2. x2y − 1 = cos(2y). y(2) = 1 4. (1 − x)y = (x + 1)y. y(1 + x2)y + x(1 + y 2 ) = 0 4. a. y(1) = π/2 1+x 5. cos(y)y + ex+1 tan y = 0 8. Problemas Problema 2. y(1) = 0 6. yy + x − 3xy 2 = 0. 3xy = y cos x.6 Encuentra a ser posible todas las soluciones y(x) definidas expl´ ıcitamente si se puede o impl´ ıcitamente de las EDOs siguientes 1. cos(y)y = − x sen2y . y = y(a + by). (xy + y)y + ey (x2 + 2x + 1) = 0 Problema 2. b > 0. y(x0) = y0 > 0. cotg(y)y = x2 + 2 6. y = 1 − x + y 2 − xy 2 5. y(0) = 0 3.

En efecto.3) para resolverla. x La soluci´n la encontramos usando la f´rmula (1. (2.8). =⇒ z + (1 − n)a(x)z = (1 − n)b(x). Usemos la primera para resolver la EDO. o Ejemplo 2.8) que hab´ considerado a˜os antes Jacob Bernoulli. que es una ecuaci´n de Bernoulli la cual mediante el cambio w = 1/z podemos convertir en o una lineal. 2. (2. Supongamos que yp es una soluci´n particular de (2. dada una EDO de Riccati (2. Hacemos el cambio z = y −3 . y =− 1 z − 2. luego la EDO se transforma en 1 z + z = −3 log x. la podemos convertir en una EDO lineal.3. 1.7) La resolvi´ su hermano Jacob en 1696. Esta ecuaci´n es una EDO de Bernoulli con n = 4. haciendo z = y 1−n . La forma de la EDO nos induce a buscar una soluci´n del tipo y = c/x. 3 x =⇒ y= 3x2 1 + . y tenemos o 4 y = −y y /3. x 2 4 −1/3 . En general. Ecuaciones que se reducen a EDOs lineales o separables Ecuaciones reducibles a EDOs lineales: Las EDOs de Bernoulli y Riccati En 1695 Johann Bernoulli propuso la resoluci´n de la EDO o y + a(x)y = b(x)y n. Veamos un ejemplo. que es lineal y por tanto podemos usar la f´rmula (1. x C − x3 . En 1724 Jacopo Francesco Riccati estudi´ la EDO o y + p(x)y + q(x)y 2 = f (x).7) en una EDO lineal. z = (1 − n)y −n y . Pasemos a estudiar la EDO de Riccati.2 OTRAS EDOS DE PRIMER ORDEN 11 2.1. Ese mismo a˜o Leibniz propuso el cambio z = y 1−n o n que transformaba la EDO (2. Hacemos el cambio y = 1/x + 1/z. La ecuaci´n anterior generalmente es ıa n o imposible de resolver anal´ ıticamente (en cuadraturas) a no ser que se sepa una soluci´n o particular yp . y hagamos el cambio o z = y − yp . Obtenemos z + [p(x) + 2q(x)]z + q(x)z 2 = 0.8 Resolver la EDO y − 1/(3x)y = y 4 log x. mediante el cambio y = yp + 1/z. Sustituyendo en la o EDO descubrimos que las funciones y = 1/x e y = −2/x son soluciones particulares.3.3) que nos da o o x C z = − + 2. n = 0.8). Ejemplo 2. y = y 4 z. 2 x z =⇒ 2 z + z = −1.9 Resolver la EDO de Riccati y = y 2 − 2/x2. x de donde obtenemos y= C 3 3 − − x log x + x x 2 4 =⇒ z=− C 3 3 − x log x + x.

toda funci´n homog´nea de orden 0 es una funci´n de y/x. o e o Supongamos que tenemos la EDO y = f (x. y y para todo t ∈ R. N´tese que hemos dividido por (z − 2)2 − 1 por lo que o podemos haber perdido soluciones. entonces y = xu + u y la EDO (2.9) y hagamos el cambio z = αx + βy. entonces f (tx. Sea y = u x. luego (2.9) se transforma en la EDO separable dz = x + C. u) = g(u) = g(y/x). entonces o F (z) = z − 1 + 1/(2 − z). podemos perder las soluciones y = x + 1 e y = x + 3. 2. Ecuaciones del tipo y = F (αx + βy) y = F (αx + βy). Si hacemos el o e cambio y = ux. Sea f una a e funci´n homog´nea de orden 0. z = α + βF (z). Las EDOs homog´neas e Un tipo especial de EDOs resolubles son las denominadas EDOs homog´neas. y) y f es una funci´n homog´nea de orden o e 0. ty) = f (x. u = y/x.10) A la ecuaci´n y = f (y/x) anterior se le suele denominar EDO homog´nea. √ por tanto y = 2 + x ± 1 + Cex .10 Resolver la EDO y = y − x − 1 + 1 . o sea. como (z − 2)2 − 1 = 0 se anula en z = 1 y 3.4. x−y+2 Esta ecuaci´n puede ser escrita en la forma y = F (αx + βy) si hacemos z = y − x. ty) = e tk f (x. =⇒ z = 2 ± 1 + Cex . (2. f (u) − u Ejemplo 2. y).2 OTRAS EDOS DE PRIMER ORDEN 2. =⇒ α + βF (z) Ejemplo 2. Una funci´n e o f (x. =⇒ (z − 2)2 − 1 = Cex . que se puede resolver en cuadraturas ya que es una EDO separable du = log |x| + C.3. ux) = x0f (1. Adem´s. 12 Sea la EDO (2. z−2 =⇒ (z − 2)dz = x + C. y) = f (x.2.10) se transforma el la EDO separable xu + u = f (u). Como z = y − 1 tenemos z = z−2− 1 . . entonces la EDO anterior se transforma en la EDO y = f (y/x). En efecto. si f es homog´nea de orden 0.11 Resolver la EDO y = (y + x2 − y 2 )/x. entonces z = α + βy . y) se denomina homog´nea de orden k si para todo x. f (tx. Entonces o e f (x. y). (z − 2)2 − 1 luego la soluci´n en cuadraturas es o √ log |(z − 2)2 − 1| = x + C.

siendo t un par´metro real tenemos la a siguiente soluci´n param´trica conocida com´nmente como soluci´n singular o e u o   x = −f (t). Para encontrar la otra soluci´n o o usamos que x = −f (y ). Vamos a o intentar encontrar alguna soluci´n de la EDO Clairaut para lo cual derivamos (2. 2 y=− x2 . =⇒ √ dx du = . Ejemplo 2. y la soluci´n singular o   x = −2t 1  y = xt + f (t). como hemos visto u = ±1. de donde deducimos que o y = 0 o x + f (y ) = 0. e o o entonces la EDO nos da la ecuaci´n y = xc + f (c). Otras EDOs de primer orden: la EDO de Clairaut La EDO y = xy + f (y ).11) se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudi´ en 1734. c ∈ R.2 OTRAS EDOS DE PRIMER ORDEN 13 Sea f (x. ty) = f (x.  =⇒ y = xt + t2 x t=− .12 Resolver la EDO y = xy + (y )2. Lo curioso de esta EDO es que la envolvente1 de todas las rectas tambi´n es soluci´n. x 1 − u2 Ahora bien. si u = ±1. Para descubrir cuales son las rectas soluci´n basta notar que si y = c. Esta es una EDO de Clairaut con f (z) = z 2. xu = de donde se deduce que arc sen u = log |x| + C ⇐⇒ arc sen(y/x) = log |x| + C. La primera condici´n nos da una familia o de rectas y = mx + n. y) = (y + x2 − y 2 )/x. luego las soluciones son las familias de rectas y = cx + c2 . 4 . es f´cil comprobar que f (tx. La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas rectas (curvas). y). f derivable y con primera derivada continua (2.5. Sustituyendo y = ±1 en la EDO inicial comprobamos que y = x e y = −x son tambi´n dos e soluciones de la EDO original. as´ que hacemos a ı el cambio y = u x y obtenemos. lo que puede hacernos perder las soluciones y = ±x.11) o y = xy + y + f (y )y ⇐⇒ [x + f (y)]y = 0. Luego si hacemos y = t. √ 1 − u2 . 2.

y) (φ(x. Teorema 2. ∂N . ∂x ∂x ∂y ∂y para que exista una funci´n φ(x. y)) dx = d (φ(x. (2. y). y).6. y). y). ∂x ∂y 2 ∂φ(x.2 OTRAS EDOS DE PRIMER ORDEN 14 2. ∂x es necesario y suficiente que ∂N (x. En general no es trivial deducir si una EDO del tipo (2. sin agujeros. a Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la forma anterior.13 Sean M (x. y) ∂M (x.13) o o ∂φ(x. no es f´cil intuir que la EDO a dx y 3 + yey cos(xy) − se puede escribir como 3 + [3xy 2 + ey sen(xy) + xey cos(xy)]y = 0 x2 3 d xy 3 + ey sen(xy) + = 0. y) tal que o ∂φ(x. y)) = 0 si y s´lo si. Por conveniencia reescribiremos la EDO y = f (x. φ(x. y) = . y) = C?. dx x Obviamente no cualquier EDO del tipo (2. o lo que es lo mismo. y)) = 0. y) ∂φ(x.2) y + [a(x)y − b(x)] = 0. y) ∈ Ω. y) existe una funci´n φ(x.12) se puede expresar de la forma d (φ(x. para cierta funci´n φ(x. ∂x ∂φ(x. y) = C. y) = C es una o d soluci´n de (2. dx ∂x ∂y ∂x ∂x ∂y d entonces la EDO (2. y)) = 0. . entonces la soluci´n de la o o EDO ser´ φ(x.12) se puede escribir de la forma ı a y por tanto su soluci´n es φ(x. La respuesta la da el siguiente o d (φ(x. y)) = 0.14) Por dominio entenderemos un conjunto abierto de R2 y convexo. y)) = 0.12) se puede reescribir de la forma dx (φ(x. dadas dos o funciones M (x. y) = M (x. Por ejemplo. y) = C si y s´lo si (2. la EDO lineal (1.13) d Por ejemplo. la EDO x + yy = 0 se puede escribir en la forma dx [x2 + y 2 ] = 0 y la EDO d 2x − exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x2 + y 2 − exp(x + y)] = 0. y)) = + = + y. y) ∂φ(x.12) La EDO (2. y) dos funciones tales que existan todas las derivadas parciales ∂M . y) = M (x. y) = N (x. ∂y ∀(x. y) y N (x. y)y + M (x.12) se puede escribir de la forma dx (φ(x. Ecuaciones exactas y factores integrantes Sea una EDO del tipo y = f (x. o o Como 0= d ∂φ(x. As´ surge la pregunta ¿cu´ndo la EDO (2. Est´ claro que si la EDO anterior la podemos a d reescribir en la forma dx (φ(x. ∂M y ∂N y sean funciones continuas en cierto dominio2 Ω ∈ R2 . y) = N (x.12) a o o d es equivalente a la expresi´n dx (φ(x. y). y)) dx = 0.12) se puede escribir de la forma 0. y) y N (x. ∂y (2. y) ∂y ∂φ(x.12) si y s´lo si (2. y) tal que se cumpla la condici´n (2. Entonces. o sea. por ejemplo. y) = 0. (2. y) en la forma equivalente N (x. y).12) tendr´ una soluci´n en cuadraturas del tipo φ(x.

12) sea exacta es necesario y suficiente que se cumpla la condici´n (2. luego ∂φ(x.16 Decidir si la EDO (2x + y − sen x) + (3y 2 + cos y + x)y = 0. ∂y φ(x.18 Una EDO del tipo (2. es exacta. ∂y =⇒ h (y) = 3y 2 +cos y. ∂x .y) (x. as´ que no es exacta.15 es exacta. y encontrar su soluci´n.14) en cierto dominio Ω ⊂ R2. Ejemplo 2.17 Comprobar si la EDO lineal (1. y) = C. es φ(x. y) = C. ∂x De la primera deducimos ∂φ(x. y) = y 3 + sen y + xy + g(x). y) = 2x + y − sen x. y) tal que se cumple (2. o (x. y) = x2 + xy + cos x + h(y). En este caso y + [a(x)y − b(x)] = 0. en cuadraturas. o sea. Vamos a resolverla. y) tal que φ(x. ∂φ(x.15 Para que la EDO (2. define la o soluci´n de (2. Corolario 2.2 OTRAS EDOS DE PRIMER ORDEN 15 Definici´n 2.14 Una EDO del tipo (2.y) .y) ∂y = ∂N (x. y) = 2x + y − sen x y N (x. ı =⇒ g(x) = x2 + cos x. y) = 3y 2 + cos y + x. y) = a(x)y − b(x) y N (x. luego ∂M∂y = 1 = ∂N∂x . y) = x2 + xy + cos x + y 3 + sen y = C. ∂φ(x.y) En este caso M (x. Como la EDO es exacta entonces u existe φ(x. Adem´s.13). y) = y + g (x) = 2x + y − sen x. y) = 3y 2 + cos y + x. es decir existe una funci´n φ(x. luego M (x.2) es exacta.y) ∂y = 3y 2 +cos y +x. y) = y 3 + sen y + xy + x2 + cos x = C. y) = x+h (y) = 3y 2 +cos y +x. y la soluci´n.12) es inexacta (o no es exacta) si o ∂M (x. pero ∂φ(x.12) se llama exacta si N y M son funciones tales o (x. luego seg´n el corolario 2. ¿Qu´ hacer en este caso? ı e ∂y Definici´n 2. Para calcular h(y) usamos que φ(x. y) = 1.12) en Ω.y) ∂M (x. o Obviamente pod´ ıamos haber comenzado por la segunda ecuaci´n o entonces φ(x. toda EDO exacta tiene una soluci´n o a o en cuadraturas en Ω. ∂x as´ φ(x.y) = ∂N∂x . luego (x. o Ejemplo 2.y) (x.y) que ∂N∂x = ∂M∂y . =⇒ h(y) = y 3 +sen y.

y). y) − 1 dρ(y) ∂x ∂y = = S(x.14). y)ey . y) ∂ρ(x. para que admita un factor integrante ρ(x. y)M (x. y) + ρ(x. y) ha o o de satisfacer la ecuaci´n o ∂ρ(x. o ∂M (x. en cuyo caso ρ(y) = exp( S(y)dy). y) ∂N (x. y).15) es ıa o m´s complicada de resolver que la EDO original. Entonces. o En el segundo caso tenemos M (x. ρ(y) dy M (x. y) = N (x. ∂y ∂x la cual es no trivial de resolver. ρ = ρ(y). una ecuaci´n inexacta tiene un factor integrante ρ(x. y) La expresi´n anterior es sencilla de resolver si la funci´n R(x. Obviamente no es exacta. ρ = ρ(x) o o o 2. y) ∂ρ(x. y) = N (x. y) luego ∂N (x. y) ∂ρ(x. De hecho en la mayor´ de los casos la ecuaci´n (2. y) + ρ(x) . y)x2 cos y = xey + ρ(x. por tanto el uso de ´sta estar´ restringido a a e a aquellos casos en los que (2. y) ∂M (x. luego ρ(x. una EDO es exacta si y s´lo si se tiene la condici´n (2. y) ∂M (x. y)y es exacta.12).15) nos da ρ(x) luego ∂M (x. y) + ρ(x. y) de la derecha es una funci´n o o o s´lo de x. dada la EDO (2. Ahora bien.15) es f´cilmente resoluble. o sea. y)N (x.15). y) cumple o o con la condici´n (2. y) ≡ 0 es un factor o integrante de (2. o o o En el primer caso (2. Veamos a continuaci´n dos de ellos: a o 1. en cuyo caso ρ(x) = exp( R(x)dx). y) = ∂y ∂x si y s´lo si o M (x. y)N (x. y) ∂ρ(y) + ρ(y) = ρ(y) . ∂y ∂x ∂x . cuando la funci´n ρ es una funci´n que s´lo depende de y. y) − 1 dρ(x) ∂y ∂x = = R(x. y) ∂ρ(x. y) ∂N (x. Factores integrantes 16 Definici´n 2. se dice que ρ(x. o Por ejemplo consideremos la EDO x2 sen y + xey y = 0. cuando la funci´n ρ es una funci´n que s´lo depende de x o sea.6. y) ´ste debe satisfacer la ecuaci´n e o x2 sen y ∂ρ(x.12) si la EDO ρ(x. y) ∂N (x. y) La expresi´n anterior es sencilla de resolver si la funci´n S(x. y) + ρ(x. ρ(x) dx N (x. y) ∂M (x. y)M (x. y) + ρ(x. ∂y ∂y ∂x ∂x (2.19 En general.1. y) si y s´lo si ρ(x.2 OTRAS EDOS DE PRIMER ORDEN 2.15) Es decir. ∂y ∂y ∂x ∂ρ(x) ∂N (x. y) . y) de la derecha es una funci´n o o o s´lo de y.

2 OTRAS EDOS DE PRIMER ORDEN Ejemplo 2.20 Resolver la EDO (x2 − sen2 y) + x sen(2y)y = 0. ∂M (x, y) ∂N (x, y) − = −2 sen(2y), ∂y ∂x =⇒ ∂M (x, y) ∂N (x, y) − ∂y ∂x /N (x, y) = −

17

ρ 2 = , x ρ

luego ρ(x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta sen2 y 1− x2 as´ ı y ∂φ(x, y) sen(2y) sen(2y) = + h (y) = N (x, y) = , ∂y x x y la soluci´n es, por tanto, φ(x, y) = x + o Ejemplo 2.21 Resuelve la EDO (x3/y + 5xy)y + (x2 + y 2 ) = 0. Tenemos ∂M (x, y) ∂N (x, y) 3 − = (x2 + y 2 ), ∂y ∂x y =⇒ 3 ρ ∂N (x, y) ∂M (x, y) /M (x, y) = = , − ∂y ∂x x ρ
sen2 y x

+

sen(2y) x

y = 0, sen2 y + h(y), x

∂φ(x, y) sen2 y =1− , ∂x x2

=⇒

φ(x, y) = x +

=⇒

h (y) = 0,

=⇒

h(y) = C,

= C.

luego ρ(y) = y 3 . Multiplicando la EDO por y 3 obtenemos la EDO exacta (x3y 2 + 5xy 4)y + (x2y 3 + y 5 ) = 0. Usando el m´todo descrito tenemos e ∂φ(x, y) = x2 y 3 + y 5 , ∂x y ∂φ(x, y) = x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 , ∂y =⇒ h (x) = 0, =⇒ h(x) = C, =⇒ φ(x, y) = x3 y 3 + xy 5 + h(x), 3

1 y la soluci´n es, por tanto, φ(x, y) = 3 x3y 3 + xy 5 = C. o

2 OTRAS EDOS DE PRIMER ORDEN

18

2.7.
2.7.1.

Aproximaciones num´ricas: el m´todo de Euler e e
El m´todo de Euler e

Como ya hemos visto son pocas las EDOs que se pueden resolver anal´ ıticamente, es por ello que se necesita de m´todos fiables para obtener la soluci´n de una EDO num´ricamente. e o e Supongamos que queremos resolver el problema de valores iniciales d y(x) = f (x, y), dx y(x0 ) = y0 . (2.16)

Obviamente usando un ordenador s´lo podremos resolver el problema en un intervao lo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos [x0 , x1] ∪ [x1 , x2 ] ∪ · · · ∪ [xN −1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para encontrar una soluci´n aproximada y(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N o mediante l´ ıneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser y e y funciones continuas, la soluci´n aproximada y(x) estar´ “muy cercana” a la soluci´n real y(x) en cada uno de los o a o intervalos [xi , xi+1 ].
y ^ y(x) y(x)

x

x0

x1

x2

xk

Figura 3: Construcci´n de un esquema num´rico. o e Vamos a usar por simplicidad intervalos iguales, es decir, vamos a escoger los nodos xi equidistantes. Lo anterior se conoce en la teor´ de m´todos num´ricos como una red ıa e e equiespaciada o uniforme de paso h = l/N . As´ pues tendremos las siguientes ecuaciones ı l xk = x0 + kh = x0 + k N , k = 0, 1, . . . , N , xk+1 = xk + h. Obviamente la unica informaci´n ´ o que tenemos para calcular los valores yi es la EDO que satisface nuestra inc´gnita y(x). o ¿C´mo encontrar entonces los valores yi ? La idea es como sigue: o 1. Usando la EDO y la condici´n inicial calculamos el valor de y1 en el punto x1 = x0 + h o 2. A continuaci´n usando el valor y1 calculamos el valor aproximado y2 de y(x) en x2 , y o as´ sucesivamente. ı 3. Conocido el valor yk encontramos el valor yk+1 de y(x) en xk+1 . Para resolver nuestro problema de encontrar en valor de y(xk+1 ) conocido el valor de y(xk ) usamos el teorema de Taylor y(xk+1 ) = y(xk + h) = y(xk ) + y (xk )h + y (xk ) 2 h + ···. 2! (2.17)

2 OTRAS EDOS DE PRIMER ORDEN Pero y (xk ) = f (xk , y(xk )), adem´s, a y (xk ) = = d dx dy dx =
x=xk

19

d (f (x, y(x))) dx

=
x=xk

∂f (x, y) ∂f (x, y) ∂y + ∂x ∂y ∂x

(x,y)=(xk ,y(xk )

∂f (x, y) ∂f (x, y) + f (x, y) ∂x ∂y

.
(x,y)=(xk,y(xk )

Luego, (2.17) nos da y(xk+1 ) = y(xk ) + hf (xk, y(xk )) + ∂f ∂f h2 (xk , y(xk )) + f (xk , y(xk )) (xk , y(xk )) + ···. ∂x ∂y 2!

La aproximaci´n m´s sencilla es por tanto cuando nos quedamos en la serie anterior con o a el t´rmino de primer orden, o sea, cuando tenemos el esquema n´merico e u y1 = y0 + hf (x0, y0 ), y2 = y1 + hf (x1, y1 ), ..., yk+1 = yk + hf (xk , yk ), (2.18)

donde obviamente y0 = y(x0 ). El esquema anterior se conoce por el nombre de esquema o m´todo de Euler y constituye e el m´todo m´s sencillo para resolver n´mericamente una EDO de primer orden. N´tese que e a u o dicho esquema necesita en cada paso del valor y(xk ), por tanto cuanto m´s cercano sea el a valor yk calculado del y(xk ) real m´s preciso ser´ el m´todo. Obviamente en cada paso arrasa a e tramos el error del c´culo del paso anterior. En efecto, para calcular y1 usamos el valor real a y0 pero cuando calculamos y2 , sustituimos el valor exacto y(x1) desconocido por su valor aproximado y1, para calcular y3 sustituimos el valor y(x2) por su valor aproximado y2 , y as´ sucesivamente. ı Veamos algunos ejemplos. Comenzaremos con una ecuaci´n que sepamos resolver exactamente. Por ejemplo, estuo diemos el problema de valores iniciales y + y = x, y(0) = 1, x ∈ [0, 1],

cuya soluci´n exacta es y(x) = 2e−x − 1 + x. Escogeremos una discretizaci´n equidistante o o con paso h = 1/20 (20 subintervalos iguales). Los resultado est´n escritos en la tabla 1 o a dibujados en la gr´fica 4 (izquierda). a
0.2 0.95 0.9 0.85 0.8 0.75 0.7 0.4 0.6 0.8 1 0.95 0.9 0.85 0.8 0.75 0.7 0.2 0.4 0.6 0.8 1

Figura 4: Soluci´n num´rica (•) y exacta (l´ o e ınea clara) de y + y = x, y(0) = 1 para N = 20 (izquierda) y N = 40 (derecha)

15.15 0. 4. y(0) = 0. 1] tenemos la soluci´n representada o en la gr´fica 5(izquierda). x ≥ 0.0184046 -0. ¿Qu´ ocurre si aumentamos a a e el intervalo hasta llegar a x = 2?.770184 0.5 2 Figura 5: Soluciones num´ricas de y − 1 − y 2 = 0. . 2] (izquierda) y e comparaci´n con la soluci´n exacta (derecha).5 0. 18. 2.7 0.0178206 -0.698658 0.74064 0.704707 0.807602 0.694429 0.0187748 -0. 16. 8.723482 0. 11.3 0.018787 20 Tabla 1: Soluci´n n´merica de la ecuaci´n y + y = x. como la soluci´n exacta de esa ecuaci´n es y(x) = tan x.45 0.67535 0. o o Si usamos un esquema de 20 puntos en el intervalo [0.00666595 -0. 0. o u o Comparemos ahora la soluci´n n´merica con la exacta (ver figura 4). a a La principal raz´n de la divergencia consiste en que la soluci´n tan x no est´ definida en o o a x = π/2. x ∈ [0.0187107 -0. por tanto.68072 0.0100397 -0.781636 0.713061 0.693171 0. 3.25 0.70483 0. Adem´s. 12.0155874 -0. 0. y(xk ) 1. 5. 60 40 30 20 20 0.05 0.35 0. 20.0174074 -0.905 0. 13.697474 0. a a o o podemos ver en la gr´fica 5 derecha que pr´cticamente coinciden.0162994 -0.0181506 -0.829012 0.676582 0.2 OTRAS EDOS DE PRIMER ORDEN k 0 1.909675 0. xk 0 0. 9.00467484 -0.95 1.694092 0. 7.680253 0.759376 0.6 0.697623 0.694733 0.65 0.7039 0. ¿c´mo decidir a priori si el m´todo de Euler o e nos est´ dando la souci´n correcta? y ¿en qu´ intervalo podemos asegurar que y es una buena a o e aproximaci´n de y? Eso nos conduce una vez m´s a preguntarnos condiciones suficientes que o a nos garanticen la existencia y unicidad de las soluciones de una EDO.2 0. y(0) = 1 con N = 20.0137992 -0. 6.5 2 1 1.55 0. Para ello primero o u resolvemos la ecuaci´n exactamente y(x) = x − 1 + 2e−x . Si repetimos los c´lculos con 40 puntos (para que el h sea el mismo) pero tomando l = 2 a obtenemos los resultados que est´n representados en la gr´fica 5 (derecha).86475 0.00245885 -0.4 0.871416 0.00844901 -0.9 0. Los resultados se pueden apreciar en la o gr´fica 4 (derecha).837462 0. 14.1 0.0114527 -0.686241 0.8 0. 19.726841 0.735759 y(xk ) − y(xk ) 0 -0.75 0.85 0.952459 0. o Si hacemos un simple cambio como aumentar en n´mero de subintervalos hasta 40 (el u doble) vemos que la precisi´n mejora notablemente.746675 0.5 10 -20 -40 0.676684 0. 10.797562 0. Una pregunta natural es.6876 0.725256 0. a Consideremos ahora el problema y − 1 − y 2 = 0.0169031 -0. 17.716972 y(xk ) 1.0147575 -0.0185892 -0.713139 0. 40 y(0) = 0.5 1 1.710499 0.95 0.0127016 -0.

Una mejor aproximaci´n es usar la regla de los trapecios o o (ver figura 6 derecha) para aproximar la integral. es a e algo inc´modo sobre todo si f es una funci´n algo “complicada”. . yk+1 )] . y0 = y(x0 ). La ecuaci´n anterior se conoce como el m´todo de la serie de Taylor de tres t´rminos y o e e aunque es m´s preciso que el de Euler (se puede probar que es un m´todo de orden 2). de esta forma obtenemos el m´todo de Euler mejorado e yk+1 = yk + yk+1 = yk + h [f (xk . yk ) .2. 2 k = 0. yk ) + f (xk . lo que nos conduce nuevamente al esquema de euler (2. (2. yk+1 )] .7. yk ))] . ¿C´mo mejorarlo? o Una posibilidad es truncar la serie de Taylor (2. de forma que tengamos yk+1 = yk + hf (xk . Una forma de obviar esta dificultad es usar la predicci´n que da el m´todo de o e Euler yk+1 = yk + hf (xk . y0 = y(x0 ). Por ello se suele usar una o o modificaci´n del mismo. es un m´todo de orden e a e uno.19) Para resolver este problema aproximamos la integral mediante un rect´ngulo de altura a f (xk .17) en el tercer orden. xk + h en su forma integral xk +h y(xk+1 ) = y(xk ) + xk f (x.2 OTRAS EDOS DE PRIMER ORDEN 2. N. o Para ello escribamos la EDO original y = f (x. . y) en el intervalo xk . yk ) + f (xk+1. . 2 . yk ). y(x))dx ≈ hf (xk. . y(x))dx. yk ) + f (xk+1 . . k = 0. ∂x ∂y 2 y0 = y(x0 ). yk ) (ver figura 6 izquierda) xk +h xk f (x. 1. yk ) + f (xk+1 . yk ) (xk . . es “poco preciso”. yk + hf (xk . y(x))dx ≈ de donde se deduce el esquema impl´ ıcito h [f (xk . 2 Obviamente este esquema es muy inc´modo pues hay que resolver la ecuaci´n impl´ o o ıcita para hallar yk+1 . es decir xk +h xk f (x. El m´todo de Euler mejorado e 21 El m´todo de Euler es el m´s sencillo pero tiene un problema. yk ) + h2 ∂f ∂f (xk . o sea. . (2.18) f(x.y(x)) y k xk Figura 6: Regla del rect´ngulo (izquierda) y del trapecio (derecha) para aproximar una a integral Esta aproximaci´n es muy burda. 1.20) ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢  ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢   ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¢  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢ ¢ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡  ¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢¡¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡ ¢  y k x k+1 h [f (xk. yk ). . N.

74064 0.680567 0. 2.781636 0. 16.70483 0.2 0.0175 0.75 0.0105693 -0.0119578 -0. Comenzaremos con la misma primera ecuaci´n de antes o y + y = x.708079 0.909675 0.0148955 -0.837462 0.0112803 -0.7039 0.15 0. 8. 19.0132186 -0.65 0.867958 0.00450443 -0. Escogeremos una discretizaci´n equidistante con o o paso h = 1/20 (20 subintervalos iguales).9 0.00982318 -0.725256 0. 22 cuya soluci´n exacta es y(x) = 2e−x − 1 + x.00345845 -0. 20.735759 y(xk ) − y(xk ) 0 -0. A la derecha vemos la e comparaci´n de los errores del del m´todo de Euler (c´ o e ırculos obscuros) con los del m´todo e de Euler mejorado (c´ ırculos claros) .95125 0.732422 0. 7.8021 0.015 0.00236077 -0.0126034 -0.0025 0. y(0) = 1. 3. 13.832957 0. y(0) = 1 con N = 20 usando el m´todo o u o e de Euler mejorado. 1].95 0. Los resultados los vemos en la gr´fica 7 izquierda) a k 0 1. 0.4 0.85 0.0125 0.694092 0.69333 0. 6.8 0.719873 y(xk ) 1.00735595 -0. 0. 18.00904012 -0.716216 0.00645092 -0. 15.698244 0.5 0.01 0.686343 0.775186 0.55 0.907314 0.694733 0.05 0.1 0.0075 0. y(xk ) 1.35 0.85 0.2 OTRAS EDOS DE PRIMER ORDEN Veamos algunos ejemplos.0154026 -0.45 0.698658 0.871416 0.681515 0.0158858 Tabla 2: Soluci´n n´merica de la ecuaci´n y + y = x.95 1.00550115 -0.00821835 -0. 12.8 0.690467 0.75202 0. 10.75 0.4 0.713139 0.6 0.005 0.684853 0.682134 0.00120885 -0.7 5 10 15 20 Figura 7: Comparaci´n gr´fica de la soluci´n num´rica y exacta de y + y = x.703238 0.0138047 -0. 9.952459 0. x ∈ [0. 0.25 0.759376 0. 11.7 0.693171 0.2 0. 14.713061 0.697623 0.0143632 -0. 4. 5.807602 0.6 0. xk 0 0.8 1 0.723482 0. y(0) = 1 para o a o e N = 20 (izquierda) usando los m´todos de Euler y Euler mejorado.3 0.9 0. 17.

5. 6. yp = x. Considerar los casos ae = cb y ab = cd. Resuelve las siguientes o e EDOs 1. A la ecuaci´n y = f (y/x) se le suele denominar EDO homog´nea. (4x − 3y − 6)y + x − 2y + 1 = 0. y = (ax + by)/(cx + ey). Como caso particular resolver la EDO y = (x + y)/(x − y). 4. n + k = n. y = x3 + 2y/x − y 2 /x. yp = −x2. 7. v = y/x. Problemas Problemas de EDOs de Bernoulli y Riccati Problema 2.8. 6. 4. (x − x y)y = y 3. 4y 3 y + 4xy 4 = 4x. y + y = xy 3 .23 Resolver las EDOs de Riccati 1. y = y/x + tan(y/x).22 Resolver las EDOs de Bernoulli 1. xy + y = y 2 log x. (1 − x3)y − 2(1 + x)y = y 5/2 . 4. y = 1 + y/x + (y/x)2. y + 2yex − y 2 = e2x + ex . Problemas de EDOs reducibles a EDOs lineales o separables Problema 2. 5. Prueba que esta ecuaci´n o es equivalente a la EDO separable xv + v = f (v). 5. 3. n = 1.24 Supongamos que tenemos la EDO y = f (y/x). x3 sen yy +2y = x (resolverla respecto a x y no a y. . 3y + y 2 + 2/x2 = 0. y = 2(y/x) + (y/x)2 √ 2. y − 2xy + y 2 = 5 − x2. y + 2y = ex y 2 . 2. 3. 2. para ello usar que y (x) = dy/dx = 1/(dx/dy) = 1/x (y)). Problema 2.2 OTRAS EDOS DE PRIMER ORDEN 23 2. xy − y = xk y n . 7. (2x + 4y + 3)y + 2 + 2y + 3 = 0. (x + y + 2)y = 3x − y − 6.

y = (x − y + 5)2. 2. . a ser posible. 2.26 Haciendo un cambio de variables o derivando transforma las siguientes EDOs en EDOs lineales y resu´lvelas. 7. y = 2(y − x) + (y − x)2. Resolver la EDO y = (ax + by + m)/(cx + ey + n). y/x + (y 3 + log x)y = 0. 3. e En caso de que no lo sean. 1. 2xy 3 + 3x2y 2 y = 0. 2x(1 + x2 − y) − x2 − yy = 0. y = x + y − 1. 6. Problema 2. 0 4. Problema 2. 3. e 1. 2. 4. 3x2 + 4xy + 2(y + x2)y = 0. (3y 2 + 2xy + 2x) + (6xy + x2 + 3)y = 0. y(x) = x + 1 + 0 x x x y(t)dt. y(1) = 1. y(2) = 1. y(2) = 1. 0 (x − t)y(t)dt = 2x + Problemas de EDOs exactas y factores integrantes Problema 2. y(t)dt. Para ello prueba que existe un cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO del apartado anterior y = (ax + by)/(cx + ey). 3. 2. Problema 2.27 Decide si las siguientes ecuaciones ecuaciones son exactas y resu´lvelas. y = sen(x − y). e−y − (2y + xe−y )y = 0. (x2 + y 2 + x) + yy = 0. 5.28 Resuelve los siguientes problemas de valores iniciales 1. 3x2(1 + log y) − (2y − x3/y)y = 0. (x2 + y 2 − a)x + (y 2 + x2 + a)yy = 0.25 Resolver las EDOs del tipo y = F (ax + by) √ 1. x(ey − y ) = 2. 4. encuentra. y(0) = 1. 3. Como caso particular resolver la EDO y = (x + y + 1)/(x − y + 2). 3xt + y 2 + (x2 + xy)y = 0. (x2 − 2y + 1)y = x.2 OTRAS EDOS DE PRIMER ORDEN 24 8. 8. 2xy + (x2 − y 2 )y = 0. xy − y − y 2 = 0. 4. un factor integrante.

b y k. y = xy + 1 + (y )2 . y + sen(x)y − cos(x)y 3 = 1 + x2. 3. 2. 5. 4. y = xy + log(y ). y(0) = 1. e 1. (y )2 + x3y − 2x2y = 0. y(0) = 0. a. n = 0. (toma distintos valores de a. √ 3. y = k(a − y)(b − y). y = xy − ey . y(0) = 1. 25 5.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el m´todo de Euler y el de Euler mejorado.2 OTRAS EDOS DE PRIMER ORDEN Problemas de EDOs de Clairaut Problema 2. y + 2ey = x2 + y 2 .29 Resolver las EDOs de Clairaut 1. Problemas del m´todo de Euler e Problema 2. y = xy + (y )n. y(0) = 0. 4. 1. 2. 7. b. z − 2xz = 2. y = ex y −2 . 6. 2 2 . z(0) = 1. y(2) = 1. k > 0. y = ex y. y = 1 + sen x(1 + y 2 ). y(0) = 1.

y2 . diremos que SEDO es homog´neo. Usando lo anterior podemos reescribir (3. . y .    y (x) = f2(x. . yn ) es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes las derivadas de cada una de las componentes del vector original. . . . n. un sistema de ´stas es mucho m´s complejo. . . n1 1 n2 2 nn n n n El sistema anterior se puede escribir en forma matricial Y (x) = A(x)Y (x) + B(x).  . e e . y1. .  . . . . y ). y2 . Sistemas de EDOs Un sistema de ecuaciones diferenciales ordinarias de primer orden (SEDO) es un sistema de la forma   y1 (x) = f1(x.  . . fn son ciertas funciones conocidas. . . Por comodidad vamos a usar la forma vectorial del sistema anterior. y2 .  . . .  . . . .    y (x) = f (x. . bn (x)    . k = 1. . . no homog´neo. yn )     2    Y (x) =  . ..3 SISTEMAS DE EDOS 26 3.. F (x. yn ) = j=1 akj (x)yj (x) + bk (x). an1(x) an2 (x) an3(x) · · · ann (x)   B(x) =    b1 (x) b2 (x) . y1 . . as´ que nos restringiremos al estudio e a ı de los SEDOs lineales.3) (3. . . yn ). y1 . 2 . . y2 . . . . y1 .    y (x) = a (x)y (x) + a (x)y (x) + · · · + a (x)y (x) + b (x). yn )  y2 (x)   y (x)   f2(x.. o sea.  . .1) en la forma vectorial d Y (x) = Y (x) = F (x. o sea cuando todas las componentes del vector B son cero. k = 1. . . . . . . Y ). yn son funciones de x desconocidas y f1.4) Cuando B(x) = 0. Est´ claro que si el estudio de una EDO de primer orden era “bastante” a complicado. yn ).  (3. . lo que nos conduce a los sistemas lineales   y1 (x) = a11 (x)y1(x) + a12 (x)y2(x) + · · · + a1n(x)yn(x) + b1 (x). . . donde   A(x) =     a11(x) a12(x) a13(x) · · · a1n (x) a21(x) a22(x) a23(x) · · · a2n (x)   .1) . . . es decir cuando fk . . y1 . . . y .  . .2) Evidentemente que el caso n = 1 recuperamos las EDOs de primer orden estudiadas en el cap´ ıtulo anterior. . n es una funci´n lineal de la forma o n fk (x. y si al menos una componente de B es no nula. . vamos a denotar por Y . yn (x) yn (x) fn (x. n 1 2 n n donde y1 .   . dx (3. . .    y (x) = a21 (x)y1(x) + a22 (x)y2(x) + · · · + a2n(x)yn(x) + b2 (x). . y2 . . . . 2 (3. .  . Y ) =  . Y (x) =  . . y2 . . y1. . .  . Y y F son los vectores       y1 (x) y1 (x) f1(x. .

1. son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible obtener una de otro al multiplicar por constantes. Los vectores (funciones) x x y x2 x2 . La ecuaci´n lineal Y = A(x)Y + B(x) o Comenzaremos enunciando un teorema que demostraremos al final de este cap´ ıtulo. obviamente son dependientes pues x0 x2 0 . . Para que los vectores (funciones) Y1 (x). .9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R. . . . Y = A(x)Y . entonces toda soluci´n de Y = A(x)Y se puede expresar como una unica o ´ combinaci´n lineal de dichas soluciones. . Yi (x0) = Y0. .2 Sea A(x) ∈ Rn×n . e o Corolario 3. existen unos unicos coeficientes c1 . k sean linealmente independientes es suficiente que las condiciones iniciales.3 Sean Y1 (x). .6 Sea A(x) ∈ Rn×n . Y0. para x = x0.6 tenemos un criterio para encontrar una base del espacio S de todas las soluciones de Y = AY : Para que las soluciones Y1 (x).5 Es importante destacar que el resultado que hemos probado en relaci´n con la o dependencia lineal s´lo es cierto para vectores soluci´n de un SEDO lineal lo cual queda de o o manifiesto en el siguiente ejemplo. Entonces. . . . A(x) ∈ Rn×n y continua en R. i = 1. Yk (x) del PVI. .1 Sean A(x) ∈ Rn×n y B(x) ∈ Rn una matriz un un vector cuyos elementos son funciones continuas en R.7 Si Y1 (x). . o sea los vectores. Y = A(x)Y + B(x).3 SISTEMAS DE EDOS 27 3. . . ´ o Comenzaremos estudiando el sistema hom´geneo. Teorema 3. . e o Teorema 3. . entonces cualquiera de sus combinaciones lineales son tambi´n soluci´n. Yn (x) son soluciones linealmente independientes del sistema Y = A(x)Y .1 . En particular. . no obstante. . Y0. . . . . . Teorema 3. Si Y1 e Y2 son soluciones del sistema Y = A(x)Y .8 Juntando los teoremas 3.5) El corolario anterior se puede parafrasear de la siguiente forma: conjuntos de condiciones linealmente independientes generan soluciones linealmente independientes y conjuntos de condiciones linealmente dependientes generan soluciones linealmente dependientes.k sean linealmente independientes. Yn (x) del sistema Y = A(x)Y sean linealmente dependientes para todo x ∈ R es necesario y suficiente que para alg´n x0 ∈ R u det |Y1 (x0) Y2 (x0) . Y (x0) = Y0 tiene una unica soluci´n cualquiera sean las condiciones iniciales Y0 escogidas. . . o sea cuando B(x) = 0 o Y (x) = A(x)Y (x). la soluci´n del PVI. cn o ´ tales que Y (x) = c1 Y1 (x) + c2 Y2 (x) + · · · + ck Yn (x).3 y 3. . Entonces el PVI. . Yn (x0)| = 0. . . el conjunto de todas las soluciones del sistema homog´neo Y = A(x)Y es un espacio vectorial de dimensi´n n. Y = A(x)Y . Yk (x) soluciones del sistema Y = A(x)Y . Nota 3. . u Corolario 3. . Yk (x) sean linealmente dependientes para todo x ∈ R es necesario y suficiente que lo sean para alg´n t ∈ R. .i . = x0 2 x0 x0 Teorema 3. Y (x0) = Y0 se expresa de manera unica o ´ como una combinaci´n lineal de las soluciones del sistema homog´neo correspondiente. O sea. o e Nota 3. Nota 3. (3.4 Para que las soluciones Y1 (x).

.7) en (3. . Los SEDO lineales con coeficientes constantes En adelante asumiremos que A es una matriz n × n real de coeficientes constantes.6) tenemos. como v es constante3 Y (x) = (eλx v) = λeλxv =⇒ λeλxv = A eλx v. por tanto para resolver nuestro sistema lineal basta encontrar n autovectores v1 . Por tanto la soluci´n general es o Y (x) = c1 e−5x 3 −2 1 + c2 e7x 2 1 . son los autovalores asociados a los autovectores vk . Entenderemos que la derivada de un vector o una matriz es la derivada t´rmino a t´rmino.6) Busquemos la soluci´n de (3.8) donde c1 .3 SISTEMAS DE EDOS 28 3. n. . cn son constantes arbitrarias y λk .1. de la forma n Y (x) = k=1 c k e λk v k .5) cuando la matriz A es de coeficientes constantes Y (x) = AY (x). . . n. seg´n o u el teorema 3. =⇒ v2 = 2 1 .7) es soluci´n del sistema homog´neo si y s´lo si λ es un autovalor de A y o e o v su autovector asociado. . . Es decir. . =⇒ v1 = −2 1 . Comenzamos con el correspondiente a λ1 = −5 (A − λI)v = 0 Para λ1 = 7 (A − λI)v = 0 =⇒ −6 12 3 −6 x1 x2 =0 =⇒ x1 = 2x2. . λ2 = 7. Comenzamos calculando los autovalores y autovectores det(A − λI) = −35 − 2 λ + λ2 = 0 =⇒ λ1 = −5.2. (3. . Sustituyendo (3. . Autovalores simples A ∈ Rn×n .7) donde λ es cierta constante y v un vector constante. (3. . 3. (3. k = 1. k = 1.6) en la forma o Y (x) = eλx v. e e . . vn linealmente independientes en cuyo caso la soluci´n general es.10 Encontrar la soluci´n general del SEDO o Y = 1 12 3 1 Y. . . es decir estudiaremos el problema (3. . Calculamos los autovectores. (3. =⇒ 6 12 3 6 x1 x2 =0 =⇒ x1 = −2x2 .2. Ejemplo 3.3.

B con AB = BA. 3.9) donde la convergencia la entenderemos elemento a elemento. Y (x) y Y2 (x) = Y (x) son soluci´n de o Y ser´ soluci´n de Y = AY si y s´lo si Y1 (x) = a o o Y = AY . entonces Y (x) = eax ( v cos bx − v sen bx). 2. As´ pues. si tenemos Y (x) = eλx v = Y (x) + i Y (x). Definiremos la funci´n exp(xA) mediante la serie formal o exp(xA) = xk Ak x2 A2 xn An = In + xA + + ···+ + ···. λ2 = −1 + i. Y1 (x) = e−x por tanto Y (x) = c1 e−x 5 3 cos x + 0 1 sen x + c2 e−x − 5 3 sen x + 0 1 cos x . Proposici´n 3. La serie anterior converge para todo x ∈ R quienquiera sea la matriz A (de hecho converge en todo C). Y (x) = eax ( v sen bx + v cos bx) son soluciones linealmente independientes de Y = AY . 2 −5 2 −4 Y. . Para toda matriz A. sen x . 5 3 cos x + 0 1 v1 = 5 3+i =⇒ 5 3 sen x + 0 1 cos x . exp(0A) = In y para todo x ∈ R exp(xOn) = In . Ahora bien. la inversa [exp(xA)]−1 = exp(−xA). 29 Es decir. exp[x(A + B)] = exp(xA) exp(xB). La exponencial matricial exp(xA) ∞ k=0 Sea A una matriz n × n y x ∈ R. Para toda matriz A. Para todos x. donde On es la matriz nula.11 Encontrar la soluci´n general del SEDO o Y = Calculamos los autovalores y autovectores det(A − λI) = 2 + 2 λ + λ2 = 0 =⇒ λ1 = −1 − i. 4. ¿Qu´ hace en este caso? e Si A es real y λ es el autovalor complejo asociado al autovector v. t ∈ R y toda matriz A. exp[(x + t)A] = exp(xA) exp(tA). Y2 (x) = e−x − 3.3. son complejos. 5. Para todas las matrices A. en nuestro ejemplo ı λ1 = −1 − i. entonces el complejo conjugado λ es el autovalor asociado al autovector v. k! 2 n! (3.12 La funci´n exp(xA) satisface las siguientes propiedades: o o 1. d dx exp(xA) = A exp(xA) = exp(xA)A.3 SISTEMAS DE EDOS Ejemplo 3. Para toda matriz A.

. 0 . como   D=   λ1 0 · · · 0 0 λ2 .    . . λ2 = 4. . As´ pues. . . exλn 0 0 .. para encontrar la soluci´n general del sistema Y = AY basta saber calcular la ı o exponencial de xA. De esta definici´n y de lo anterior deducimos entonces que exp(xA) es una matriz funo damental del sistema Y = AY . o o Corolario 3. Comencemos por el caso m´s sencillo cuando la matriz es diagonalizable. . =⇒ de donde se deducen nuevamente las soluciones del sistema. . siendo (ei)i la base can´nica de Rn . y por tanto el PVI. Ak = P D k P −1 tenemos exp(xA) = pero. Y (x0) = Y0 siempre tiene una unica soluci´n ´ o n cualquiera sea Y0 ∈ R y es de la forma Y (x) = exp[(x − x0)A]Y0 . . . . .14 (de existencia y unicidad de la soluci´n del SEDO homog´neo) o e n×n El sistema homog´neo Y = AY . Y = AY . λn 0 0 . . e Como ejemplo calculemos la matriz exponencial de la matriz A= 1 −6 −1 2 . . . Y (0) = ei que adem´s son linealmente independientes por el teorema 3. e Definici´n 3. . Si escogemos o o e v sucesivamente como ei . En efecto. Ante todo tenemos que el polinomio caracter´ ıstico de A es 1 − λ −6 = 4 − 3 λ + λ2 = 0. N´tese que el caso de n autovao lores distintos se puede resolver por este m´todo. Para todo x ∈ R. . . vn del PVI. Entonces como para todo k ∈ N. exp(xIn) = ex In. a En este caso existe una matriz P tal que A = P DP −1. . . . . . . . i = 1. 2. . .  ∞ k=0 A kx k k! = ∞ k=0 PD P k −1 x k k! =P ∞ k=0 Dk xk k! P −1 = P [exp(xD)]P −1. 0 . Dado cualquier vector constante v ∈ Rn se cumple d [exp(xA)v] = A[exp(xA)v]. . como hemos visto. .3 y por tanto a constituyen una base del espacio de soluciones del sistema homog´neo correspondiente. . .13 Una matriz V ∈ Rn×n es una matriz fundamental del sistema Y = AY si o sus n columnas son un conjunto linealmente independiente de soluciones de Y = AY . . con A ∈ R e siempre tiene n soluciones linealmente independientes. n obtenemos n soluciones v1.. . las columnas de exp(xA) son soluci´n de los PVI.3 SISTEMAS DE EDOS 6. Y = AY . . −1 2 − λ =⇒ λ1 = −1. dx 30 por tanto exp(xA)v es soluci´n de la ecuaci´n homog´nea Y = AY y Y (0) = v. Y = AY con Yi (0) = ei .        exp(xD) =    e λ1 x 0 · · · 0 0 e λ2 x . . . . . siendo D una matriz diagonal.

. luego a exp(xD) = Luego exp(xA) = P exp(xD)P −1 e−x 0 0 e4 x . exp(xA)v = eλx v + x(A − λIn)v + En el caso de un autovalor simple tenemos obviamente (A − λIn)v = 0 si v es el correspondiente autovector. por ejemplo. . Una soluci´n es por tanto e λx v1. . . Si k = n entonces las Yi (x) generan a todo el espacio soluci´n. 2 k! =0 =0 En el caso que la multiplicidad de λ sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homog´neo e 1. . . k. . =⇒ v1 = 3 1 . . Sea λ uno de tales autovalores y sea m a u la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geom´trica (o sea la e . P −1 = 6 5 ex 2 5 ex −1 5 . o 2.3 SISTEMAS DE EDOS Calculamos los autovectores. k y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eλix vi . Si tenemos entonces n autovectores v1 . xk x2 (A − λIn)2 v2 + . Para λ1 = −1 tenemos 2 −6 −1 3 x1 x2 = 0 0 . 1 5 2 5 3 5 . o o donde v1 es el autovector asociado a λ. 31 An´logamente. P = 3 −2 1 1 . i = 1. para λ2 = 4 obtenemos v2 = (−2. . =⇒ x1 = 3x2. . . . Usando la propiedad 5 de exp(xA) tenemos exp(xA)v = exp[(A − λIn)x] exp(λIx)v. luego exp(xA)v = eλx v que es lo mismo que ten´ ıamos antes. vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = eλk x vk . exp(λIx)v = eλx v =⇒ exp(xA)v = eλx exp[(A − λIn)x]v. . 2. = 4x 3 + 2 e5 5 ex 4x 1 − e5 5 ex − + 6 e4 x 5 3 e4 x 5 3. . que el autovalor λ es doble y que tiene asociado un unico ´ autovector (el autoespacio asociado es de dimensi´n 1). . .4. . El otro vector v2 que necesitaremos lo buscaremos de forma que (A − λIn)v2 = 0 pero (A − λIn)2v2 = 0. El caso de autovalores m´ ltiples u pero Vamos a explotar las propiedades de la matriz exponencial. + (A − λIn )k v + . k = 1. Entonces otra soluci´n. ¿Qu´ hacer cuando hay una ra´ m´ltiple.) Calculamos todos los autovalores λi y los correspondientes autovectores vi .) Si k < n entonces hay autovalores m´ltiples. i = 1. independiente o de la anterior es exp(xA)v2 = eλx v2 + x(A − λIn )v2 + = eλx v + eλx x(A − λIn)v2 . . . + (A − λIn )k v + . . o m´s exactamente si la matriz A no es diae ız u a gonalizable? Supongamos. . . x2 xk (A − λIn)2 v + . n. 2 k! Es decir. 1)T . . .

buscamos la soluci´n del correspondiente subespacio (o sea. Calculamos los autovalores λk de la matriz A ∈ Rn×n del sistema Y = AY y sea mk la multiplicidad algebraica del autovalor. . . Supongamos que ma > mg . luego los los vectores v tales que (A−λIn )v = 0 y (A − λIn)2 v = 0. . x3 ∈ R. y as´ sucesivamente hasta completar el subespacio. Luego tenemos dos soluciones independientes     0 1 2x  x . 0 0 . Aj ∈ Rn . entonces para completar el espacio soluci´n asociado al autovalor λ (nos falta encontrar m a −mg o soluciones linealmente independientes) buscamos los vectores v1 . vl (l ≤ ma − mg ) tales que (A−λIn )v = 0 pero que (A−λIn )2v = 0. Y ı as´ con cada uno de los autovalores m´ltiples. aa generan todo el subespacio correspondiente a λ. e ´ Adem´s. 0.3 SISTEMAS DE EDOS 32 dimensi´n de autoespacio asociado a λ). Y3 (x) = e exp(A − I3 ) 0 0 0 As´ pues ı      x 1 0 2x   + c2 ex  0  + c3 ex  1  . . 0. Aplicando el m´todo antes descrito buscamos un tercer o e vector v3 que no sea autovector de A asociado a λ2 = 1 y tal que (A − I3 )2v = 0. (3. . . x3 0 0 1 o sea    0 1 v3 = α  0  + β  1  . =⇒ x1 = 0. 0 Y (x) = c1 e 0 0 1  El m´todo anterior nos indica un procedimiento general para resolver el SEDO (3. 0)T = 0. Si ma = mg entonces los vectores Yi (x) = eλi x vi o i = 1. Y1 (x) = e Y2 (x) = e 1 0 y necesitamos una tercera soluci´n.6) en e general conocido como m´todo de Euler que consiste en lo siguiente: e 1. . 0 0  pero como (A − I)v3 = (β. los autovectores correspondientes son v1 = (0. 0. deducimos que β = 0. . 2. y (A − λIn)3 v = 0. o . respectivaa mente. la o soluci´n “generada” por el autovalor) en la forma o Yk (x) = e 4 λk x mk −1 j=0 Aj xj . es decir    x1 0 0 0 (A − I)2 v = 0. ı u Veamos un ejemplo:  1 1 0 Y =  0 1 0  Y. 0)T . 1)T y v2 = (1. α = 0 obtenemos la tercera soluci´n que buscabamos o       x 0 0 x  1  = ex [I3 + x(A − I3 )]  1  = ex  1  . luego tomando4 β = 1.10) Cualquier elecci´n de α y β es posible siempre que β = 0. x2 . ⇐⇒  0 0 0   x2  = 0. 0 0 2  Obviamente los autovalores son λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. Para cada autovalor.

entonces tenemos Y (x0) = Y0 = V (x0)c. (3. . a3 a6 =⇒ a3 = a5 = a6 = 0. 1)T y para el segundo buscamos las soluciones en la forma      a1 a4 Y2 (x) = ex  a2  +  a5  x .            x 1 a2 a1 Y2 (x) =  a2  +  0  x ex = ex a1  0  + a2  1  x .11) Lo anterior nos permite encontrar una expresi´n para la matriz exponencial conocida o una matriz fundamental. . usando que la matriz exp(xA) es la soluci´n del sistema o matricial V = AV con las condiciones iniciales V (0) = In deducimos. Sea ahora el PVI. o e 3.1. exp(xA) = V (x)V −1 (0)I = V (x)V −1 (0). 0. Ejemplo 3. 0 2 33 Sustituyendo en el sistema tenemos         a1 + a2 + (a4 + a5)x a4 a4 a1 . . luego c = V −1 (x0)Y0 . o Y = AY con Y (x0) = Y0 . Veamos como funciona este m´todo en el e  1 0 Y = 0 ejemplo anterior. . 1. cn )T .10. La matriz fundamental de soluciones y la matriz exp(xA) Sea V (x) una matriz fundamental. . la soluci´n general de Y = AY se puede escribir de la forma Y (x) = V (x)c. mk − 1 sean nulos. a2 + a 5 x Y2 (x) = ex  a2  +  a5  x +  a5  =  2a3 + 2a6x a6 a6 a3 Igualando componentes   a4 a5  a6 tenemos el sistema = a2 + a5 = 0 = a3 + a6 x Tenemos que λ1 = 2 y λ1 = 1 siendo ´ste ultimo de multiplicidad 2. 0 0 0 0 que coincide con la soluci´n encontrada por el m´todo anterior.3 SISTEMAS DE EDOS donde puede ocurrir que alguno de los vectores Aj . entonces si definimos el vector c = (c 1. a4 = a2 . Para el primero tenemos e ´ al igual que antes Y1 (x) = e2x (0.12) .  1 0 1 0  Y. . con a1 y a2 cualesquiera. En efecto. . por tanto la soluci´n es o Y (x) = V (x)V −1 (x0)Y0 .15 Calcular exp(xA) para la matriz A = 1 3 12 1 del ejemplo 3. . (3.4. j = 0. es decir.

Proposici´n 3. 1)T y por tanto una matriz fundamental es V (x) = luego exp(xA) = V (x)V −1 (0) = = 1 −5x 1 e + 2 e7x 2 1 − 4 e−5x + 1 e7x 4 −2e−5x 2e7x e−5x e7x .14). En particular. (3. cualquiera sea Y0 ∈ Rn existe y es unica y se expresa mediante la f´rmula ´ o x Y (x) = exp[(x − x0 )A]Y0 + x0 exp[(x − t)A]F (t)dt.18 Resolver el siguiente sistema lineal de EDOs Y = 1 12 3 1 Y + 0 ex . si V (x) es una o matriz fundamental Y (x) = V (x)C + Yp (x).17 La soluci´n del problema de valores iniciales Y (x) = AY (x)+F (x). Teorema 3. 12 . donde C ∈ Rn .3 SISTEMAS DE EDOS 34 Los autovalores y autovectores son λ1 = −5.13) Pasemos a estudiar el sistema no homog´neo e Para resolverlo usaremos la linealidad.13) es de la forma Y (x) = Yh(x) + o o Yp (x). es decir Yp (x) = AYp (x) + F (x). v1 = (−2. 1)T y λ2 = 7 y v2 = (2. −2 2 1 1 −1 = −2e−5x 2e7x e−5x e7x 1 −4 1 4 1 2 1 2 3.16 La soluci´n general del SEDO (3. −2e−5x 2e7x e−5x e7x −e−5x + e7x 1 −5x e + 1 e7x 2 2 . donde Yh es la soluci´n general del SEDO homog´neo Y = AY y Yp es cualquier o e soluci´n particular de (3. . −e6t−5x + e−6t+7x 1 − 3 ex + 1 e−5x (1 + e12x ) 6 1 6t−5x e 2 + 1 e−6t+7x 2 −e−5x + e7x 1 −5x 1 e + 2 e7x 2 − 1) . exp[(x − x0)A]Y0 = 1 −5x e + 1 e7x 2 2 1 − 4 e−5x + 1 e7x 4 = −e−5x + e7x 1 −5x e 2 1 + 2 e7x luego la soluci´n del PVI es o Y (x) = 1 7 − 5 e−5x − 3 ex + 6 e7x 6 5 −5x e 12 + 7 7x e . luego aplicamos (3. Comenzamos por x 0 x exp[(x − t)A]F (t)dt = = 0 x 0 1 5(x−t) e + 1 e7(x−t) 2 2 1 − 1 e5(x−t) + 4 e7(x−t) 4 −e−5(x−t) + e7(x−t) 1 5(x−t) 1 e + 2 e7(x−t) 2 dt = 0 1 1 −5x 12x e (e 12 0 et dt = . Y (x0) = o Y0 . (3.15.14) Ejemplo 3. Y (0) = 0 1 .5. En este caso la matriz exponencial es la matriz del ejemplo 3.13). El SEDO lineales no homog´neo e Y (x) = AY (x) + F (x).

 0 1 −1 . e0A = In . o o en su caso. Si A y B conmutan.24 Encuentra una matriz fundamental de soluciones de los sistemas Y = AY . a) A = 2. e(x+t)A = exA etA .19 Encuentra la soluci´n general del sistema hom´geneo Y (x) = AY (x) y. Y (0) =  1 . a) A =  0 1 2 .19). entonces ex(A+B) = exA exB = exB exA . 3. o Problema 3. o sea AB = BA.21 Sean las matrices A = 0 1 1 0 B= 0 1 −1 0 . b) A = −2 3 2 −5 2 −4 . 2.3 SISTEMAS DE EDOS 35 3. a) A = b) A = 2 1 −1 0 1 1 1       1 2 1 1 1 1 0 4. 3. Y (0) = b) A = Problema 3. y B 2n = (−1)nI2 . 3. a) y1 = y1 + 2y2 . 1. exA es invertible y su inversa (exA )−1 = e−xA .20 Prueba las siguientes propiedades de la matriz exA con A ∈ Rn×n : 1. Problema 3.23 Resuelve los sistemas hom´geneos o 1. Usando lo anterior calcula las matrices exA y exB . a) A =  4 −1 −4 4 4 1 −8 8 . In es la matriz identidad n × n. Problemas Problema 3. A2n = I2 . Problema 3. Para todo x ∈ R. 6. del problema de valores iniciales en los siguientes casos: 1. b) A =  0 1 0 . Y (0) =  2 . Como aplicaci´n calcula exC con C = o a b −b a . d xA e dx     1 −1 4 1 0 0 1  3 2 −1 . ∀x. B 2n+1 = (−1)n B. y2 = 4y1 + 3y2 y1 = y 1 − y 2 y1 = y1 − 5y2 . 1 12 3 1  . 2. Y = AY .6. 5. . exI = ex I. con Problema 3. Prueba que A2n+1 = A. c) y2 = y1 + 3y2 y2 = 2y1 − y2     2 1 3 1 1 0 a) A =  0 1 0 . cuya matriz de coeficientes es . b) A =  0 2 −1 . 4. 0 0 2 0 0 2 b) 2. 0 1 2 −1 0 0 2 = AexA .22 Usando las propiedades de la matriz exA con A ∈ Rn×n encuentra la soluci´n de los SEDO del ejercicio (3. t ∈ R. Y (0) = 2 1 .

b) A = Problema 3. . B(x) =  . a) A = . A = 0 3 2 1 ex cos(2x) 1 1 sen x  . Y (0) = 2 1 0 0   1 −1 4 2. con x(0) = x0. c) A =  2 1 −2 . en su caso. o 2.3 SISTEMAS DE EDOS 1 −5 0 1  1 12 2 −5 . e 3. B(x) =  0 . Y (0) =  1  2 1 −1 ex 1       1 0 0 0 0  2 1 −2 . Este sistema modeliza el v = −ω 2 x − 2βv + f (t) movimiento de un p´ndulo con rozamiento y una fuerza externa f . 0 0 5 3 2 1 36 1. Uc en los siguientes casos: (a) V (t) = 0. Se considera el siguiente circuito el´ctrico e L 1 R L 1 2 R 2 i1 + − Uc C R i2 V Las intensidades i1. B(x) = x ex . A = 2. Uc(0) = 10. β < ω. i2 y las tensiones Uc y V satisfacen el siguiente sistema diferencial        −10 0 −20 i1 V i1  i2  =  0 −10 20   i2  + 20  0  . v(0) = 0. A =  1 12 3 1 2 −5 2 −4 . i2. 3 1 2 −4     1 1 1 1 0 0 b) A =  0 3 2 . x =v . la correspondiente soluci´n del problema de valores iniciales cuando o 1.25 Encuentra la soluci´n general del sistema de EDOs no homog´neo Y (x) = o e AY +B(x) y. c) A = .26 Resuelve los sistemas lineales 1. i1(0) = i2(0) = 0. 2 1 −1 Problema 3. sabiendo que su soluci´n es acotada si x → +∞. Y (0) =  1  4. B(x) = . Uc 50 −50 −50 Uc 0 Se pide determinar i1. y1 = 2y1 + y2 − 7xe−x − 3 y2 = −y1 + 2y2 − 1    1 −1 4 0 2 3. a) A =  3 2 −1 . A =  3 2 −1 . Y (0) = .

3 SISTEMAS DE EDOS (b) V (t) = 10. m. Y (0) = Y0 se puede expresar mediante la o x o o expresi´n Y (x) = exp( 0 A(t)dt)Y0. la soluci´n del SEDO Y = A(x)Y . .27 Demuestra que si la matriz A(x) es tal que x x 37 A(x) · A(t)dt = 0 0 A(t)dt · A(x). Y. m. k = 1. fk ∈ Rn . k=0 . 2. i1(0) = i2(0) = 0 = Uc(0) = 0. . . entonces. . . . 2. Como aplicaci´n calcula la soluci´n general del sistema o y1 = cos x y1 + sen x y2 y2 = sen x y1 + cos x y2 Problema 3. . k = 1. Problema 3. A ∈ Rn×n es la k=0 suma m Yk de las soluciones Yk de las ecuaciones Yk = A(x)Yk + fk (x).28 Demuestra el siguiente principio de superposici´n: La soluci´n del sistema o o de EDOs lineales Y = A(x)Y + m fk (x). .

. (4. es decir.. . .   dx  . e a Proposici´n 4.  (n−2)  zn−1 (x) = y (x)  dz1  = z2 . . = .    . o Por comodidad introduciremos el operador L[y] definido sobre el espacio de las funciones n veces derivables con n-`sima derivada continua definido por e L[y] = y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x). entonces diremos que y es la soluci´n del correspondiente problema de valores iniciales. zn(x) = y (n−1) (x)  dx Es decir.  . . . .´ 4 LA ECUACION LINEAL DE ORDEN N 38 4. . zn (x) de forma que  dzn  z1(x) = y(x)  = −an−1 zn − an−2 zn−1 − · · · − a0z1 + f. para cualesquiera o que sean α. ⇒ dx .  .1) como L[y] = f (x) y el correspondiente problema o homog´neo ser´ L[y] = 0.. el sistema anterior o se transforma en un sistema homog´neo. y (n−1) (x0) = y0 (n−1) . La ecuaci´n lineal de orden n o Vamos a continuaci´n a aplicar los resultados obtenidos a un grupo de EDOs muy imo portante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la ecuaci´n: o y (n) (x) + an−1 (x)y (n−1)(x) + · · · + a1(x)y (x) + a0(x)y(x) = f (x). . y (x0) = y0 . e o Para estudiar las propiedades de las EDOs lineales de orden n vamos a introducir unas nuevas funciones z1 (x).  +  . (4. . d  .2) Usando esta notaci´n podemos escribir (4. N´tese que cuando f (x) ≡ 0.  . Lo anterior tiene una implicaci´n evidente: toda la e o teor´ de las ecuaciones lineales (4. .  . . .  .  . y β ∈ R.4) .  .   0 0 0 ··· 0 1   zn−1   0   zn−1     0 0 0 ··· 0 1 f (x) zn zn −a0 −a1 −a2 · · · −an−2 −an−1 o en forma matricial Z (x) = AZ(x) + F (x). . αy1 + βy2 tambi´n es soluci´n.1 La EDO o y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a1(x)y (x) + a0(x)y(x) = 0. una EDO del tipo (4. .   dx z2(x) = y (x)    dzn−1  z3(x) = y (x) = zn .3) es lineal.1) es equivalente al siguiente sistema lineal de ecuaciones         0 1 0 ··· 0 0 0 z1 z1   0 1 ··· 0 0   z2   0   z2   0       .1) Cuando f (x) ≡ 0. .1) es hom´genea. . (4. (4.  . e Si adem´s imponemos que la soluci´n y sea tal que a o y(x0 ) = y0 . . diremos que la EDO (4.   . . . en caso contrario es no hoo mog´nea.   .1) se puede construir a partir de la teor´ de los sistemas ıa ıa lineales que estudiamos antes. . que si tenemos dos soluciones y1 e y2 de la ecuaci´n.

definido por o y1 (x) y1 (x) . . asociado a (4. an−1 (x) funciones continuas en R. .´ 4 LA ECUACION LINEAL DE ORDEN N 39 Teorema 4. (4.1. cm ∈ R. . siendo yp o una soluci´n particular de (4. y (x0) = y0 que escojamos. . .6) La ecuaci´n anterior se denomina ecuaci´n caracter´ o o ıstica de la EDO (4. . . . (4. . y1 (n−1) W [y1 . es decir la soluci´n asociada a dicha o ra´ tendr´ la forma ız a y(x) = c1 eλk x + c2 xeλk x + · · · + cm xm−1 eλk x . Entonces el P.1) en la forma y(x) = yh(x) + yp (x). Es decir. y (x0) = y (0). ´stas son linealmente indee pendientes si y s´lo si el wronskiano W [y1 . . notemos que conocida la soluci´n general yh(x) de la EDO homog´nea poo e demos dar la soluci´n general de la EDO (4.V. es decir buscaremos la soluci´n en la forma y(x) = e λx . si λ = α + iβ. (n−1) ··· ··· . . yn ](x) = y2 (x) y2 (x) . .1).3) es un espacio vectorial e de dimensi´n n. . o En el caso que tengamos ra´ ıces complejas hay que proceder como en el caso de los sistemas: tomar partes reales y complejas de cada una de ellas. yn (x) yn (x) . (4. . n generan el espacio soluci´n de la la EDO (4. tenemos que tomar partes reales y complejas que nos generan todo el espacio soluci´n.3 El conjunto de soluciones de la EDO homog´nea (4. Es f´cil probar a que el polinomio caracter´ ıstico de la matriz A asociada a la EDO (4. . . . Sustituyendo esta o funci´n en la EDO (4.6). .3) obtenemos que λ debe satisfacer la ecuaci´n o o λn + an−1 λn−1 + · · · a1 λ + a0 = 0..3).5) (x) y2 (x) · · · yn (x) es distinto de cero para alg´n x ∈ R. c2 .2 Sean a0 (x). . (n−1) = 0 ∀x.I. . . Finalmente. k = 1. . . . en cuyo caso el Wronskiano es distinto de cero para u todo x ∈ R. o 4. entonces las dos soluciones independientes son [e(α+iβ)x ] = eαx cos(βx) y [e(α+iβ)x ] = eαx sen(βx). yn de la EDO (4. . Lo anterior nos indica una estrategia para resolver el problema: 1. . 2. Teorema 4. . o Teorema 4. .3) coincide con (4. c1 . .3). Obviamente si λk es complejo.1) siempre tiene soluci´n y es unica cualquiera sean las las condiciones iniciales o ´ (n−1) (n−1) y(x0 ) = y0 . yn ](x). . Soluci´n de la ecuaci´n lineal homog´nea o o e Para resolver la EDO (4.3) con coeficientes constantes seguiremos la misma idea que para los sistemas. Si alg´n λk es m´ltiple de multiplicidad m ≤ n. Si tenemos valores reales λ1 = λ2 = · · · = λn entonces las funciones yk (x) = eλk x . . .7) donde pm−1 es un polinomio de grado m − 1 en x. o .3). ..4 Dadas n soluciones y1 . entonces la soluci´n habr´ que buscara u u o a en la forma y(x) = eλk x pm−1 (x). .

la soluci´n general de (4. (4.10) se puede escribir de la forma y(x) = eλx (A cos ωx + B sen ωx) . Sea p2 < 4q. λ2 = .6) de la ecuaci´n (4. 2 2 y la ecuaci´n homog´nea (4. B ∈ R.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . λ. y(x) = A eλx cos (ωx + δ) . entonces la ecuaci´n caracter´ o ıstica (4. sin embargo dicho espacio es o o e de dimensi´n 2 como nos asegura el teorema 4.9) tiene una unica soluci´n real λ = −p/2. δ ∈ R. en este caso. .9) La ecuaci´n caracter´ o ıstica (4. o. A. o y(x) = eλx p1 (x) = eλx (c1 + c2 x) = c1 eλx + c2 xeλx .9) tiene dos soluciones complejas: √ −p − i 4q − p2 −p + i 4q − p2 . q ∈ R.9) se expresar´ de la forma o a y(x) = Aeλ1 x + Beλ2x . En efecto. y2 (x) = eλ2x .10) Luego. entonces la ecuaci´n caracter´ o ıstica (4. entonces la ecuaci´n caracter´ o ıstica (4.8) tendr´ dos o o e a soluciones linealmente independientes de la forma y1(x) = eλx y y2(x) = xeλx .8) tiene la forma o .´ 4 LA ECUACION LINEAL DE ORDEN N 40 Por simplicidad mostraremos c´mo resolver la ecuaci´n homog´nea de segundo orden.3 y la ecuaci´n homog´nea (4. A.7) tenemos que la soluci´n generada por λ es. Sea p2 > 4q. Caso de dos ra´ ıces reales iguales. La ecuaci´n diferencial lineal homog´nea con a o e coeficientes constantes tiene la forma: y (x) + py (x) + qy(x) = 0. λ1 = λ + iω. 2 2 Caso de dos ra´ ıces reales y distintas.8) tendr´ dos soluciones linealmente independientes o e a λ1 = −p + y1 (x) = eλ1x . A. equivalentemente. p. Sea p2 = 4q. Luego. ω ∈ R.9) tiene dos soluciones reales y distintas: λ1 = −p + −p − p2 − 4q p2 − 4q . y2 (x) = eλ2x . la soluci´n general de (4. 2 2 y la ecuaci´n homog´nea (4. usando (4.8) tendr´ dos soluciones linealmente independientes o e a λ1 = y1 (x) = eλ1x . (4. Entonces. Esto significa que aparentemente s´lo tenemos una ´ o o funci´n que genera al espacio soluci´n de la EDO homog´nea. λ2 + pλ + q = 0. B ∈ R. Las soluciones de la ecuaci´n caracter´ o ıstica (4. λ2 = λ − iω.9) ser´n a p2 − 4q −p − p2 − 4q . como se pretend´ probar. Llamemos λ a la parte real de λ1 (o λ2) y ω a la parte imaginaria de λ1 (o λ2 ). φ ∈ R. B ∈ R. ıa Caso de ra´ ıces complejas. Si ahora utilizamos la f´rmula de Euler eiφ = cos φ+i sen φ. obtenemos que la soluci´n o o general de (4. A. .8) (4. i = −1. o o e El caso general es completamente an´logo.

12) obtenemos o qan xn + (qan−1 + pnan )xn−1 + · · · + (qak + p(k + 1)ak+1 + (k + 1)(k + 2)ak+2 )xk + · · · +(qa0 + pa1 + 2a2) = pn (x).2. a = 0. an = 0.13) e igualando coeficientes. entonces cualquier constante es e soluci´n.14) luego siendo pn un polinomio de grado n. por lo que nuestra EDO (4. por tanto a0 en la expresi´n anterior puede ser cualquiera. (4. Entonces el m´todo anterior no funciona pues si sustie n tuimos yp (x) = a0 + a1x + · · · + anx .11) Vamos a estudiar la EDO En general no es trivial resolverla aunque en muchos casos es “f´cil” adivinar la soluci´n.13) siendo pn un polinomio de grado n.12) siendo pn un polinomio de grado n. Caso f (x) = pn (x)ecx Veamos ahora las EDOs del tipo y + py + qy = ecx pn (x).2.14) se reduce al caso anterior (4. a o 4. Para resolverlo hacemos el cambio y(x) = ecx v(x). (4. pero ¿qu´ ocurre si q = 0?. . que nos conduce a L[y] = ecx {v + (2c + p)v + (q + pc + c2 )v}. (4. Este m´todo obviamente funciona si q = 0 (¿por qu´?). v + (2c + p)v + (q + pc + c2 )v = pn (x). como la EDO homog´nea es y + py = 0. (4. Para resolver el problema buscamos la soluci´n de la o forma yp (x) = a0 + a1x + · · · + anxn + an+1 xn+1 .2.´ 4 LA ECUACION LINEAL DE ORDEN N 41 4.12). Caso f (x) = pn (x) En general si tenemos la EDO y + py + qy = pn (x). La EDO lineal de segundo orden no homog´nea con coeficiene tes constantes y (x) + py (x) + qy(x) = f (x). q = 0. f (x) continua. la soluci´n particular siempre es de la forma o yp (x) = a0 + a1 x + · · · + an xn. luego la soluci´n particular la podemos buscar en la o forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha soluci´n o en (4. de donde igualando coeficientes obtenemos un sistema compatible de ecuaciones ya que hemos supuesto que el grado de pn es exactamente n.1. e e e si tenemos la EDO y + py = pn (x). as´ que sin p´rdida de o o ı e generalidad la tomaremos igual a cero.2. obtenemos que L[yp ] es un polinomio de grado n − 1 mientras que el derecho es de grado n. Ahora bien. p. q ∈ R. 4. o sea. si sustituimos la soluci´n anterior en la EDO (4. En efecto.

3. la segunda por y1 y las restamos lo que nos da c2 [y1 y2 − y1 y2 ] = f y1 . entonces L[u] = f1 y L[v] = f2]. la f´rmula (4. 3 ex e3x . c1 y1 + c2 y2 = f (x). (4.16) (4. W [y1 . Para resolver este caso notemos que si y(x) = u(x) + iv(x). 42 Veamos ahora como resolver los casos (4. Para ello multiplicamos la primera por y1. Entonces [yp ] = u(x) es soluci´n de y + py + qy = pn (x) cos(ωx) y o y + py + qy = pn(x) sen(ωx). 4. W [y1 . o bien. o e .2. 6 =⇒ yp (x) = e2x . para obtener c1 [y1 y2 − y1 y2 ] = −f y2 .11) y (x) + py (x) + qy(x) = f (x) y sean y1(x) e y2 (x) e dos soluciones linealmente independientes. y2 ](x) = o W [ex . e−x ] = −2. de e donde obtenemos que c1 y c2 satisfacen las EDOs c1 (x) = − f (x)y2(x) . c2 = − =⇒ 2 2 Por tanto. Obviamente este m´todo se e e puede generalizar f´cilmente para el caso de orden n. Ahora bien. El m´todo de los coeficientes indeterminados e [yp ] = v(x) de Sea la EDO lineal no homog´na (4. a Ejemplo 4.2. Sea entonces yp (x) = u(x) + iv(x) una soluci´n particular de o L[y] = y + py + qy = pn (x)eiωx = pn (x) cos(ωx) + ipn(x) sen(ωx).15) siendo pn un polinomio de grado n. entonces buscao e 5 mos la soluci´n particular en la forma yp (x) = c1 (x)ex + c2 (x)e−x.5 Resolver y − y = e2x . y2 ](x) = 0 cualquiera sea x ∈ R pues el Wronskiano de dos soluciones linealmente independientes de la EDO homog´nea nunca se anula (ver el teorema 4.´ 4 LA ECUACION LINEAL DE ORDEN N 4. con c1 y c2 tales que c1 y1 + c2 y2 = 0. f2 funciones reales. la soluci´n general es o y(x) = c1 ex + c2 e−x + 5 De aqu´ el nombre de m´todo de variaci´n de las constantes. y2 ](x) (4. lo cual es consecuencia de la linealidad L.18) El m´todo anterior se denomina m´todo de Lagrange de reducci´n del orden de la EDO e e o de segundo orden o m´todo de los coeficientes indeterminados. La soluci´n general del problema homog´neo es yh (x) = c1 ex + c2 e−x . u.17) De esa forma tenemos que resolver dos EDOs de primer orden. Caso f (x) = pn (x)ecx sen(ωx) y pn (x)ecx sen(ωx) y + py + qy = pn (x)ecx sen(ωx). Como W [y1 .4). Entonces vamos a buscar la soluci´n de la EDO o en la forma yp (x) = c1 (x)y1(x) + c2 (x)y2(x). la primera por y2 y la segunda por y2 .18) nos da o c1 = c1 (x) = ex . pues se cambian las constantes que aparecen ı e o en la soluci´n general del problema homog´neo por funciones indeterminadas.4. y + py + qy = pn (x)ecx cos(ωx). funciones reales es una soluci´n de o L[y] = y + py + qy = f (x) = f1(x) + if2(x). [y1 y2 − y1 y2 ] = W [y1 . 2 c3 (x) = − e2x . f1. y2 ](x) c2 (x) = f (x)y1(x) . v. 3 e−x .

´ 4 LA ECUACION LINEAL DE ORDEN N 43 4. x PSfrag replacements 2. Si suponemos adem´s que la fuerza de rozamiento es proporcional a su a velocidad entonces la segunda ley de Newton nos conduce a la EDO mx + ax + kx = F (x).6. x t t Figura 9: El movimiento arm´nico simple y el movimiento amortiguado. 0 la soluci´n en este caso es peri´dica con periodo T = 2π/ω por lo que el movimiento se o o denomina movimiento arm´nico simple (ver figura 9 izquierda). x + 2αx + ω 2 x = f (t). δ = arctan(ωx0 /v0). (4. o Vamos a estudiar los distintos casos PSfrag replacements que al usar las condiciones iniciales se transforma en x(t) = x0 cos(ωt) + v0 /ω sen(ωt) = 2 x2 + v0 /ω 2 cos(ωt − δ). El primer caso corresponde cuando no tenemos fuerza externa ni rozamiento.19) con las condiciones iniciales para t = 0 de la posici´n x(0) = x0 y la velocidad x (0) = v0 . Entonces la EDO (4. f (t) = . entonces la soluci´n es o x(t) = c1 e−αx+ Tenemos que considerar tres casos: √ α2 −ω 2 x ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡£¤ ¢£¤£¤ Figura 8: Carro del ejemplo 4. basta aplicar la f´rmula para el coseno de una suma e o o identificar los coeficientes del seno y el coseno. Supongamos ahora que eliminamos solamente la fuerza externa.3. α= a k F (t) > 0. o En la ultima igualdad hemos usado la identidad ´ a cos(ωt) + b sen(ωt) = A cos(ωt − δ).20) cuya demostraci´n es inmediata.19) es x + ω 2 x = 0 y por tanto la soluci´n general o es x(t) = c1 sen(ωt) + c2 cos(ωt). δ = arctan(b/a). 2m m m (4. A= √ a2 + b2. Aplicaciones Ejemplo 4. f = 0 y α = 0.6 Vibraciones mec´nicas a Como primer ejemplo consideraremos un carro de masa m que se mueve bajo la acci´n o de una fuerza F y que esta sujetado a la pared mediante un resorte de constante el´stica a k (ver figura 8). o equivalentemente. . ¦ ¦ ¥¡¥¡ ¡¡¥¦ ¨ §¡ ¡£¤£¤§¨£¤£¤ £¤£¤ £¤ £¤£¤ £ £¤£¤ ¤£¤£¤ £¤£¤ k m F 1. o sea. ω 2 = . o + c2 e−αx− √ α2 −ω 2 x .

que decrece oscilando exponencialmente a cero (ver figura 9 derecha). que decrece exponencialmente a cero. entonces. entonces la soluci´n es o x(t) = (c1 t + c2 )e−αt . 3. entonces. − Ω2 )2 + 4α2 Ω2 donde δ = arctan ω2αΩ 2 . Si α < ω. En este caso la ecuaci´n es de la forma o x + 2αx + ω 2 x = f0 cos(Ωt). que tambi´n decrece exponencialmente a cero. por simplicidad. 2 −Ω Como se ve en la f´rmula anterior.20) obtenemos para t suficientemente grande la soluci´n o x(t) ≈ xp(t) = ω Ω Sfrag replacements (ω 2 f0 cos(Ωt − δ). (ω 2 − Ω2)2 + 4α2 Ω2 (4. llamando β = |α2 − ω 2 | < α tenemos la soluci´n o x(t) = e−αt [c1 cos(βt) + c2 sen(βt)] . Obviamente para o forzadas: resonancia. las oscilaciones terminan en un breve espacio de tiempo y el carro se para. Obviamente la soluci´n general es la suma de una soluci´n particular m´s la soluci´n general o o a o de la EDO homog´nea que acabamos de considerar. 2b. las oscio Figura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la propia frecuencia de oscilaci´n. consideremos el caso de una fuerza peri´dica o muy frecuente en la naturaleza. es decir cuando la a frecuencia Ω de la fuerza exterior es igual a ω — como ω s´lo depende de las caracter´ o ısticas de sistema. en este caso m y k. se suele denominar .21) |A(Ω)| N´tese que en todos los casos xh(t) tiende exo ponencialmente a cero por lo que si t es suficiente grande x(t) ≈ xp(t). (ω 2 − Ω2 )2 + 4α2 Ω2 de donde deducimos la soluci´n o x(t) = xh(t) + (ω 2 − Ω2 ) cos(Ωt) + 2αΩ sen(Ωt) f0 . Si α > ω. Para encontrar una soluci´n particular e o usamos el m´todo aprendido antes. e 2c.´ 4 LA ECUACION LINEAL DE ORDEN N 2a. Si usamos la identidad (4. Ω = ω la amplitud es m´xima. Veamos el caso general y. lo que nos da e yp (t) = f0eiΩt ω2 − Ω2 + i2αΩ =⇒ xp (t) = [yp ] = (ω 2 − Ω2) cos(Ωt) + 2αΩ sen(Ωt) f0 . llamando β = √ α2 − ω 2 < α tenemos la soluci´n o 44 x(t) = c1 e−(α−β)t + c2 e−(α+β)t . En este caso se dice que el movimiento es amortiguado ya que aunque oscila. En este caso se dice que el movimiento es sobreamortiguado ya que en un breve espacio de tiempo el carro se para. Si α = ω.

Si Ω = ω entonces simplemente tomamos el l´ ımite cuando α → 0 en (4. Veamos ahora que ocurre si α = 0. 2iω 2ω x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 t sen(ωt). si t → ∞. f0 t f0t iωt = e sen(ωt). En este caso la EDO es x + ω 2 x = f0 cos(Ωt). Este puente se abri´ al p´blico el 1 de julio de 1940. La gr´fica m´s alta corresponde a a al menor valor de α (menor “viscosidad”) y la m´s peque˜a al mayor.´ 4 LA ECUACION LINEAL DE ORDEN N 45 frecuencia propia—. A partir de ese momento se prohibi´ a los soldados marchar o cuando fuesen a cruzar un puente. Inglaterra). la soluci´n es no acoo e o tada pues f0t/(2ω) → ∞. un grupo de soldados a a intent´ cruzar marchando en puente de Broughton (cerca de Manchester. Si α = 0 es f´cil ver a n a que para Ω = ω la amplitud es no acotada. Otro famoso desastre fue el puente de Tacoma en el estado norteamericano de Washington. o . La o fuerza peri´dica que ejercieron al marchar entr´ en resonancia con la frecuencia propia del o o puente y este se vino abajo. En este caso tenemos que repetir el proceso anterior lo que nos da. Desde ese mismo d´ se observ´ que o u ıa. Figura 12: El desastre del puente de Tacoma. en 1831. es decir nuestro sistema presenta un movimiento oscilatorio con frecuencia fija pero con amplitud que aumenta linealmente con el tiempo. en ´ste. El fen´meno de la resonancia es conocido desde hace muchos a˜os y es el causante de o n m´s de un desastre en sistemas mec´nicos. Por ejemplo. Figura 11: Resonancia en un sistema sin rozamiento.21) que nos da. ω 2 − Ω2 x Si Ω = ω entonces la soluci´n anterior no vale como se o puede comprobar f´cilmente (pues f0/(ω 2 − Ω2 ) cos(Ωt) deja a de tener sentido). o sea si no hay rozamiento. x(t) = c1 cos(ωt) + c2 sen(ωt) + f0 cos(Ωt). 2ω N´tese que a diferencia del caso con rozamiento. para la soluci´n particular la expresi´n o o t PSfrag replacements xp(t) = y por tanto. Este fen´meno de “amplificaci´n” de la amplitud o o de las oscilaciones se conoce como resonancia. En la figura 10 representamos el valor de la amplitud (eje y en funci´n o de la frecuencia exterior (eje x) para distintos valores de α.

o. L una inductancia y C un capacitor conectados en seria a una fuente de corriente U (t). (ω 2 − Ω2)2 + 4r 2Ω2 (4. En particular la a soluci´n general de ´sta en el caso cuando u(t) = u0 cos(Ωt) es o e q(t) = qh (t) + donde (ω 2 − Ω2 ) cos(Ωt) + 2rΩ sen(Ωt) u0 . o n o El puente parec´ aguantar bien. De o hecho. U(t) Figura 13: Circuito RLC del ejemplo 4.7 Vibraciones el´ctricas e Consideremos ahora el circuito el´ctrico representado el la figura 13 donde R es una e resistencia.8 Los osciladores acoplados . r < ω En particular. Denotemos por q(t) la carga que hay en L el capacitor en el momento de tiempo y por i(t) = q (t) la corriente. q + 2rq + ω 2 q(t) = u(t). o sea. Obviamente el puente hab´ entrado en resonancia ıa con el aire debido a un fen´meno aerodin´mico y termin´ por derrumbarse a las 11:10am o a o (ver figura 12 derecha). o Ejemplo 4. en particular tendremos el mismo fen´meno de resonancia cuando Ω ≈ ω. Entonces. en este fen´meno se basan los equipos de radio actuales. o q(t) = c1 cos(ωt) + c2 sen(ωt) + Ejemplo 4. la carga por unidad de tiempo.´ 4 LA ECUACION LINEAL DE ORDEN N 46 el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirti´ en una atracci´n o o tur´ ıstica local pues cientos de conductores iban s´lo para disfrutar de este extra˜o fen´meno. la Ley de Kirchov nos da la siguiente ecuaci´n que detero mina la carga q(t) C R U (t) = Li (t) + Ri + C −1 q(t). donde r = R/(2L). 2ω que es no acotada. Lo anterior nos indica que el an´lisis de un circuito RLC es an´logo al de a a un oscilador. r=ω qh (t) =     −αt  e [c1 cos(βt) + c2 sen(βt)] . Obviamente la EDO anterior es totalmente an´loga a la EDO (4. es m´s varios expertos aseguraban que todo estaba bajo ıa a control. equivalentemente.19).22) siendo β = |r 2 − ω 2 |.     (c1t + c2 )e−αt . afortunadamente sin ninguna v´ ıctima humana (s´lo muri´ el perrito o o de un periodista que hasta ultima hora estuvo sobre el puente y logr´ escapar de milagro ´ o pero olvid´ su perro en el interior de su coche atrapado en el medio del puente). si Ω = ω tenemos la soluci´n o u0 t sen(ωt). ω 2 = 1/(LC) y u(t) = U (t)/L. pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre las 10:00 am alcanzaban los 7 metros.  r>ω  c1 e−(α−β)t + c2 e−(α+β)t .7.

√ √ x2 (t) = c1 cos t + c2 sen t − c3 cos( 3t) + c4 sen( 3t). 47 En la figura 14 vemos dos osciladores acoplados. An´logamente se puede obtener la a expresi´n para x2. entonces la segunda Ley de Newton nos da m1 x1 = −k1 x1 + k3 (x2 − x1) = −(k1 + k3 )x1 + k3 x2 . Veamos que ocurre al incluir este ıa u resorte.24) ω2 = k . m1 m2 (4. x2(0) = 1 y x2(0) = 0. Vamos a ver a continuaci´n el caso de varios osciladores acoplao dos. conocidas como frecuencias propias del sistema. x1(0) = 0. ±ωi.23) k2 + k 3 m2 − 2 k3 x1 = 0. entonces obtenemos x1(t) = cos t x2(t) = cos t. Entonces √ √ x1(t) = c1 cos( 3t) + c2 sen( 3t) + c3 cos t + c4 sen t.24) nos da x1 + 4ω 2 x1 + 3ω 4 x1 = 0. La ecuaci´n caracter´ o ıstica es λ4 + 4ω 2 λ2 + 3ω 4 = 0 =⇒ √ λ = ± 3ωi. Para resolver el problema vamos a despejar x2 en la primera ecuaci´n y sustituirla en la o segunda. Llamemos x1 y x2 a los desplazamientos de la posici´n de equilibrio de los carros m1 o y m2 respectivamente. De la soluci´n podemos ver que en funci´n de las condiciones iniciales puede ocurrir que A 1 o o o √2 se anulen. Figura 14: Dos osciladores acoplados. En este caso el sistema tiene un movimiento oscilatorio con frecuencias ω A y 3ω. Obviamente si no existiera el resorte k3 que los une cada uno oscilar´ seg´n la ley que hemos visto antes. (4) de donde deducimos que la soluci´n tiene la forma o √ √ x1 (t) = c1 cos( 3ωt) + c2 sen( 3ωt) + c3 cos(ωt) + c4 sen(ωt) √ = A1 cos( 3ωt − δ1 ) + A2 cos(ωt − δ2 ). Supongamos que x1 (0) = 1. o √ x2(t) = c1 (2 − ω 2 ) cos(ωt) + c3 (2√ 3ω 2 ) cos( 3ωt) + 2c2 sen(ωt) − √ −c2 ω2 sen(ωt) + 2c4 sen( 3ωt) − 3c4 ω2 sen( 3ωt) Escojamos k = m = 1 de forma que ω = 1. Eso nos conduce a la siguiente EDO lineal de cuarto orden x1 + (4) k1 + k 3 k2 + k 3 + m1 m2 x1 + k1 + k 3 m1 Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Entonces (4.´ 4 LA ECUACION LINEAL DE ORDEN N En el ejemplo anterior hemos estudiado el movimiento de un oscilador arm´nico y hemos descuo bierto que ´ste se puede describir f´cilmente con e a una EDO lineal de orden dos. m2 x2 = −k3 (x2 − x1) − k2 x2 = k3 x1 − (k2 + k3 )x2. m . ¦ ¢£¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£¥£ ££££££££££££££££££££££ ¡¥¦ ¤ ¡ ¢¤£¢¢ ¡  ¢ ¤¤£¢  ¡  ¤¢£¢  ¡ ¢¢£¢ ¤¤£¢ ¡ ¡ ¤¢£¢ ¡  ¤£¢¢ ¢¢£  ¡  ¢¤ £¢  ¡ k1 m1 k3 m2 k2 (4.

x2(0) = −1 y x2(0) = 1/2.´ 4 LA ECUACION LINEAL DE ORDEN N 48 Figura 15: Caso x1(0) = 1. o sea. x1(0) = 0. x1(0) = 0. x2(t) = − + − 4 4 4 4 3 es decir. Figura 16: Caso x1(0) = 1. tenemos √ √ x2(t) = − cos( 3t). por ejemplo. Pero si escogemos. Si x1(0) = 1. tenemos que las oscilaciones son con las frecuencias propias. . o Figura 17: Caso x1(0) = 1/2. obtenemos √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x1 (0) = 1. x1(t) = cos( 3t). x2 (0) = 1 y x2(0) = 0. x2(0) = −1 y x2(0) = 1/2. x1(0) = 1/2. x2(0) = −1 y x2(0) = 0. x1(0) = 1. es una combinaci´n de las frecuencias. + + + x1(t) = 4 4 4 4 3 √ √ − cos(t) 3 cos( 3 t) 3 sin(t) sin( 3 t) √ . x2 (0) = −1 y x2(0) = 0. x1(0) = 0.

y − y − 6y = 0. 1. 2. 2.4. y − y = x2ex con y(0) = y (0) = 0. y + 2y = 1 + x2 + e−2x . 5. y (0) = 0. 3. Encuentra la soluci´n general de ambas EDOs. y lθ + gθ = 0. y + y + y = 1 + 2x + 3x3. y − 4y + 13y = 0. o © © © © © © © © © © © © © © © © © © ¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦¨¦ ¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¦¨© ¤¤ ky m §¦§¦§¦§¦§¦§¦§¦¥ ¦¦¦¦¦¦¦§¦¥ ¥ ¥ ¥ ¥ ¥ ¥ ¥ θ l m h £ ¢ ¢ ¢ ¢ ¢£ ¢ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡¢¡¢¡¢¡¢¡¢¡¢¡ ¢  ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¢¡ ¡¡¡¡¡¡¡¡   ¤ ¤¤ . y − 4x = 4x2 + 2x.11 El oscilador arm´nico simple y el p´ndulo simple se representan esquem´ticamente en la o e a gr´fica 18 a la izquierda y derecha respectivamente. y(0) = 1. Problemas Problema 4. 6. y(0) = y (0) = 2. y + y − 6y = sen x + xe2x . y(2) = 0. e Las EDOs que gobiernan estos sistemas son my + ky = 0. Problema 4.´ 4 LA ECUACION LINEAL DE ORDEN N 49 4. y + 2y + 1 = xe−x sen(2x) con y(0) = 1. y (2) = 1.9 Encontrar la soluci´n general de las siguientes ecuaciones diferenciales y la soluci´n correso o pondiente a las condiciones iniciales indicadas: 1. Problema 4. donde y(t) es distancia a que se encuentra el cuerpo de masa m de su posici´n de equilibrio (figura 18 izquierda) y θ(t) es el angulo que forma el p´ndulo con la o ´ e horizontal (figura 18 derecha). 3.10 Resolver las EDOs 1. respectivamente. a k mg Figura 18: El oscilador y el p´ndulo simple. 4. y + 12y + 36y = 0. y (0) = 0.

14 Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la figura 19 y resu´lvela. e 2. Analice los casos: 1. a qu´ altura se encuentra el mismo al cabo de 1 segundo ¿y al cabo e de t segundos? Problema 4.´ 4 LA ECUACION LINEAL DE ORDEN N 50 2. £ ¢£¢ £ ¢£¢ m1 m2 £ ¢£¢ ¢£¢ £¢£ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¦ ¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥¤¥ ¢£ ¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥¥ ¡¤¦ ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  ¡  .) m1 = m2 y k1 = k2 = k3 . Si suponemos que inicialmente el p´ndulo se deja caer desde una altura h = l/10. Si el oscilador se encontraba en el inicio en su posici´n de equilibrio (y(0) = 0) y ten´ o ıa una velocidad inicial y (0) = v0 . Haga el estudio an´logo si sobre el primer carro act´a una fuerza a u externa del tipo F (t) = F0 cos(Ωt). 2. k3 = 2k1 y 3. y (4) − 16y = 3 cos(x).) m1 = m2 y k1 = k2 . Problema 4.13 Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo 4. En ambos casos resuelva la EDO correspondiente.) m1 = 2m2 y k1 = k2 = k3 . 3. y + 8y = x2 . k1 k4 k2 m3 k 3 Figura 19: Tres osciladores acoplados. y − 6y + 11y − 6y = xex + x2. sin e velocidad inicial.12 Resuelve las EDOs 1. ¿qu´ posici´n ocupa al cabo de 1 segundo? ¿y al cabo e o de t segundos? 3. Problema 4.8 incluyendo rozamiento.

.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 51 5.1 Resolver la EDO y − 2x − 2y = 0.1) El objetivo es resolver la EDO anterior cuando las funciones p(x). La idea del m´todo es sustituir la serie y(x) (5. a5 . De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en (5. En o o efecto. (5. Por sencillez supondremos x0 = 0. ak ∈ R.2) Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo un entorno de x = x0 como la anterior se denominan funciones anal´ ıticas en x = x0. q(x) y f (x) dependen de x. a4 . (5.1) e igualar los coeficientes de e las potencias. a2n 2 a2n−2 = = 2n 2 2n 2 2n a0 a2n−4 = · · · = a0 = . . Obviamente la ecuaci´n anterior define todos los valores de an en funci´n de a0 y a1. si sabemos a0 . es o decir en la forma ∞ y(x) = k=0 ak (x − x0)k . Es importante que la serie converja en todo un entorno de x0. de donde tenemos o an+2 = 2 an . la recurrencia anterior permite calcular los valores a2. Antes de enunciar nuestros o o primeros resultados veamos un ejemplo: Ejemplo 5.2) en (5. . a2k+1 . Buscamos la soluci´n y(x) = o d y (x) = dx ∞ k=0 ∞ k=0 k ak xk . n+2 n ≥ 0. . . = ∞ n=0 d d y (x) = y (x) = dx dx lo que nos da ∞ k=0 = k=0 ∞ k=0 k(k − 1)ak x ∞ k−2 (n + 1)(n + 2)an+2 xn k(k − 1)ak x ∞ k−1 −2 k=0 kak x − 2 k ∞ k=0 ak xk = 0. . Como (x )n es una sucesi´n de funciones linealmente independientes la igualdad a cero tiene o lugar si y s´lo si (n + 1)(n + 2)an+2 − (2n + 2)an = 0. 2n − 2 (2n)(2n − 2) · · · 2 n! . Para ello vamos a suponer que dichas funciones son “razonablemente” buenas en un entorno de cierto punto x0 de la recta real y buscaremos la soluci´n como una serie de potencias. la sustituimos en la EDO y usamos que ∞ ak x = k ∞ k=0 ∞ k=0 (ak x ) = kak x k−1 kak x k−1 = ∞ n=0 (n + 1)an+1 xn . k ∈ N y si conocemos a1 entonces podemos calcular a3.2). Soluciones de EDOs en serie de potencias Sea la EDO y + p(x)y + q(x)y = f (x). k ∈ N. ya que en caso que x0 = 0 siempre podemos realizar el cambio de variable z = x − x0 de forma que en la nueva variable z0 = 0. a2k . de esta forma tenemos asegurada la existencia de la soluci´n al menos en cierta regi´n. que equivale a n=0 n [(n + 1)(n + 2)an+2 − (2n + 2)an] xn = 0. As´ tenemos ı.

n=1 es decir. s´lo podemos encontrar una soluci´n: y1(x) = x. o Como y1 (x) = x−p0/2+1/2 y p(x) = p0 /x. =⇒ v(x) = C + D. x x Si sustituimos la serie de potencias tenemos ∞ k=0 k(k − 1)ak xk + ∞ k=0 2kak xk − ∞ k=0 2ak xk = 0 de donde se deduce a0 = 0. Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger. Sustituo yendo y2 en la EDO y usando que y1 + p(x)y1 + q(x)y1 = 0 tenemos para v la EDO y1v + (2y1 + p(x)y1)v = 0 de donde deducimos u(x) = C e− p(x)dx 2 y1 =⇒ y1 u + (2y1 + p(x)y1)u. n! (2n + 1)!! n=0 ∞ Obviamente la primera suma es f´cilmente reconocible como la serie de potencias de la funa 2 ci´n ex . sin p´rdida de generalidad C = 1 y D = 0. o Busquemos la segunda soluci´n independiente y2 (x) en la forma y2(x) = v(x)y1(x). El m´todo de reducci´n de orden e o Supongamos que conocemos una soluci´n y1(x) no nula de la EDO y +p(x)y +q(x)y = 0. entonces u(x) = v (x) = C C e− p0/xdx = Ce−p0 log x xp0−1 = −p0 +1 x x =⇒ v(x) = log x de donde y2 (x) = x−p0/2+1/2 log x. no as´ la segunda que en general no se expresa como combinaci´n de funciones o ı o elementales. 2n + 1 2n + 1 2n − 1 (2n + 1)(2n − 1) · · · 3 · 1 es decir 2n /(2n + 1)!! a1.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 52 2 2n 2 2 a2n−3 = · · · = a2n−1 = a1 . o a 5. e− p(x)dx 2 y1 u=v. e Ejemplo 5. consideremos la e EDO 2 2 x2y + 2xy − 2y = 0 ⇐⇒ y + y − 2 y = 0. De la expresi´n expl´ o ıcita de las dos sumas anteriores es f´cil comprobar que el a radio de convergencia es infinito. Es f´cil ver que si aplicamos el m´todo de reducci´n de orden a la ecuaci´n x2y + 2xy − a e o o 2y = 0 estudiada en el apartado anterior obtenemos que la segunda soluci´n linealmente o independiente es y2 (x) = 1/x2. De esta forma obtenemos dos soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares) a2n+1 = y(x) = a0 ∞ n=0 2n x2n+1 x2n + a1 . Por ejemplo. (n − 1)(n + 2)an = 0. donde (2n + 1)!! = 1 · 3 · 5 · · · (2n + 1). ∀n ∈ N. . Ello es f´cil de entender pues la o o a 2 otra soluci´n de esta EDO es y2 (x) = 1/x que obviamente no est´ definida en x = 0. n∈N =⇒ an = 0. Esta claro que el m´todo anterior no siempre funciona.1.2 Encontrar la segunda soluci´n linealmente independiente de la ED y +p0 /xy + o 2 2 (p0 − 1) /(4x )y = 0 si una soluci´n es y1 (x) = x−p0/2+1/2.

y (x0) = y0 existe y es unica o ´ y se expresa mediante una serie de potencias (es decir es una funci´n anal´ o ıtica). luego. si lo es. el punto x0 se denomina punto regular de (5. si las o funciones (x − x0)p(x) y (x − x0)2 q(x) son anal´ ıticas en x = x0 . en general.1). aunque en algunos casos. mientras que x0 = 0 es un punto singular de y + x2y + x2/3y = 0. En caso contrario se dice que o x0 es un punto singular. Es posible.3) Definici´n 5. asumiremos x0 = 0. k (x−x0) q(x) 2 qk (x−x0)k = q0 +q1 x+· · · .1) a o es el menor de los radios de convergencia de p. La soluci´n del problema de valores iniciales y(x0) = y0 . por simplicidad. Ello no siempre es posible.1). si p(x). adem´s. an = 0 lo cual indica que la EDO anterior no tiene como soluci´n ninguna o serie de potencias.1) si o p(x). probar que el radio de convergencia de la soluci´n de la EDO (5. o No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular. Definici´n 5. a e a . (5. Es f´cil ver que la soluci´n se puede buscar en la forma y(x) = x r . q(x) y f (x) admiten una representaci´n en serie de potencias en un entorno de x0 . Por ejemplo.4 Sea x0 un punto regular de la EDO y + p(x)y + q(x)y = f (x). q y f . o sea. 2. En lo que sigue. ∀n ≥ 0. q(x) y f (x) son funciones anal´ ıticas en x = x0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 53 5.6 La ecuaci´n r(r − 1) + p0 r + q0 = 0 se denomina ecuaci´n indicial de la o o o EDO (5. Un ejemplo muy sencillo de EDO con un punto singular regular en el cero es la EDO de Euler x2 y + xp0 y + q0 y = 0. Teorema 5.4) Si buscamos la soluci´n en forma de serie y(x) = ∞ ak xk y sustituimos en la EDO anterior o k=0 deducimos [n(n − 1) + np0 + q0 ]an = 0. Usualmente la EDO homog´nea (f (x) ≡ 0) (5. el punto x0 = 0 es un punto regular de la EDO xy + (sen x)y + x3y = 0.5 Un punto x0 se denomina punto singular regular de la EDO (5. Para f (x) = 0 (problema homog´neo) la EDO anterior tiene como soluciones lineale mente independientes dos funciones anal´ ıticas.3) con un punto singular en x0. Entonces: 1. El caso x < 0 se deduce f´cilmente de ´ste sin m´s que hacer el cambio x = −z. para a o x > 0. Una opci´n o es resolver entonces la ecuaci´n usando una serie en torno a otro punto.3 Dada la EDO (5. Puntos regulares y singulares de una EDO Definici´n 5. (5. por ejemplo x = 1. Lo anterior equivale a que (x−x0)p(x) = ∞ k=0 ∞ k=0 pk (x−x0) = p0+p1 x+· · · . Esta claro que el punto x = 0 es singular para la EDO y + x2y + x2/3y = 0.2.1) con un punto singular en x 0 se escribe e de la forma (x − x0 )2y + (x − x0)[(x − x0)p(x)] + [(x − x0 )2q(x)]y = 0.

entonces las dos soluciones linealmente o independientes soluciones de la EDO anterior son de la forma 1. Sean r1 y r2 las soluciones de la ecuaci´n indicial. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 xr1 + c2 xr1 log(x). entonces ıces la soluci´n es o y(x) = c1 xa cos(b log x) + c2 xa sen(b log x).3) e igualamos potencias nos queda. Veamos que ocurre en el caso general. Sea r1 = a + bi. al igualar la potencia xr . r1 < r2 ∈ R (dos ra´ reales y distintas) ıces y(x) = c1 xr1 + c2 xr2 . r1 < r2 ∈ R con r2 − r1 ∈ Z (dos ra´ reales y distintas que ıces no difieran en un entero) y(x) = 6 c 1 xr 1 ∞ k=0 ak x + k c2 xr 2 ∞ k=0 bk x k . (5. Dada la ecuaci´n indicial r(r − 1) + p0 r + q0 = 0. 2 Entonces se tienen los siguientes casos para x > 0 1. (5. Entonces si sustituimos en la EDO (5. k=0 de donde. x > 0. x > 0.5) 2.7 Sea la EDO x2y + x[xp(x)] + [x2 q(x)]y = 0. En este caso la l´gica indica que quiz´ la soluci´n o a o 6 tenga la forma y(x) = xr ∞ k=0 ak x k .8) Recordar que estamos suponiendo x0 = 0. Caso (p0 − 1)2 − 4q0 = 0. x > 0. ∞ n=0 n−1 [(n + r)(n + r − 1) + (n + r)p0 + q0 ]an + [(k + r)pn−k + qn−k ]ak = 0. (5. Caso (p0 − 1)2 − 4q0 < 0. Caso (p0 − 1)2 − 4q0 > 0. . (5. No obstante tenemos que ser cuidadosos pues o puede ocurrir que la relaci´n recurrente para los coeficientes an no tenga soluci´n. o r1. Caso (p0 − 1)2 − 4q0 > 0. y adem´s se deduce una relaci´n de recurrencia para cada uno de a o los coeficientes an en la expresi´n de la serie. se sigue que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0.6) 3. r1.2 = − p0 − 1 ± 2 (p0 − 1)2 − 4q0 .7) Si queremos tener la soluci´n tambi´n para x < 0 basta sustituir en las expresiones el valor o e de x por |x|. r2 ∈ C (dos ra´ complejas).4) tenemos que r ha de satisfacer la ecuaci´n indicial o r(r − 1) + p0 r + q0 = 0. x > 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 54 z > 0. En general o o se tiene el siguiente Teorema 5. Sustituyendo y(x) = xr en (5. y las funciones p(x) y q(x) tales que xp(x) = p0 + p1 x + · · · y x2q(x) = q0 + q1 x + · · · sean funciones anal´ ıticas en x0 = 0.

x > 0. Caso (p0 − 1)2 − 4q0 < 0.12) luego Por sencillez asumiremos que γ ∈ Z.3.10) 4. por tanto. Sustituyendo y1 en (5. La ecuaci´n hipergeom´trica de Gauss o e Como ejemplo consideraremos la ecuaci´n hipergeom´trica de Gauss o e x(1 − x)y + [γ − (1 + α + β)x]y − αβy = 0. Obviamente x = 0 es un punto singular regular. N ∈ Z (dos ra´ ıces reales que difieren en un entero) y(x) = c1 xr1 ∞ k=0 ak x k + c 2 A x r 1 ∞ k=0 ak x k log x + xr1+N ∞ k=0 bk x k . entonces la soluci´n es o y(x) = c1 x cos(b log x) a ∞ k=0 ak x + c2 x sen(b log x) k a ∞ k=0 bk x k . x(1 − x) x(1 − x) xp(x) = γ − (1 + α + β − γ)x + · · · .12) obtenemos (n + 1)(n + γ)an+1 = [n2 + (α + β)n + αβ]an . En todos los casos las series convergen en un entorno de x0 = 0. de donde tenemos o dos soluciones r = 0 y r = 1 − γ. (5. ı o a 5. x2q(x) = −αβx + · · · . x > 0. entonces p0 = γ y q0 = 0 y la ecuaci´n indicial es r(r − 1) + γr = 0. Esta claro del teorema anterior que este caso es mucho m´s complicado que el anterior. y2 (x) = x1−γ bn x n . (5. entonces tenemos dos soluciones ∞ ∞ y1 (x) = an x n . Sea r1 = a + bi.11) donde A es cierta constante que puede ser nula. (5.9) 3. Caso (p0 − 1)2 − 4q0 = 0. a Aqu´ s´lo nos limitaremos a mostrar un ejemplo del primer caso por ser este el m´s sencillo. an = (n + α − 1)(n + β − 1) an−1 .r2 − r1 ∈ Z (dos ra´ complejas que no difieran ıces en un entero). n=0 n=0 Comencemos por la primera. q(x) = . (5. En efecto. dividiendo por x(1 − x) tenemos γ − (1 + α + β)x −αβ p(x) = . . Como hemos supuesto que γ ∈ Z. r1 = r2 ∈ R (dos ra´ reales iguales) ıces y(x) = c1 x r1 ∞ k=0 ak x + c 2 k x r1 ∞ k=0 ak x k log x + x r1 ∞ k=0 bk x k . r2 ∈ C. Caso (p0 − 1)2 − 4q0 = 0.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS 55 2. r1 = r2 − N ∈ R. r1. x > 0. n(n + γ − 1) n ≥ 1.

13) (α)k (β)k xk . y(0) = 1. y + 2y + y = x. n ≥ 1. ∞ n=0 an xn. 4. n(n − γ + 1) y2 (x) = x1−γ 2 F1 =⇒ an = (α − γ + 1)n(β − γ + 1)n . Encuentra la regi´n de validez de la doluci´n anterior. a . (α)n (β)n . si es posible.9 Sea la EDO (1 + x)y = py. Busca su soluci´n en serie de potencias o 2) · · · (p − n + 1)/n!. en la regi´n de convergencia de la o serie tendremos (1 + x) = p ∞ n=0 p(p − 1)(p − 2) · · · (p − n + 1) n x . (x4 − 4)y + 3xy + y = 0. Problemas Problema 5. 2.14) conocida como funci´n hipergeom´trica de Gauss. e indica la regi´n de convergencia de las mismas o 1. 3. x2y = y + x2 + 1. n! p ∈ R. 1. o o Como consecuencia del teorema de existencia y unicidad. (5. (γ)k k! (5.8 Resuelve las EDOs siguientes usando series de potencias. o o 3.5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Si denotamos por (a)n el producto (a)0 = 1. y prueba que an = p(p − 1)(p − 2. que no es m´s que el teorema del binomio encontrado por Newton. β − γ + 1 x . β x γ = ∞ k=0 56 (a)n = a(a + 1) · · · (a + n − 1). p ∈ R. α − γ + 1. Problema 5.4. Es f´cil comprobar que el radio de cono e a vergencia de la serie anterior es R = 1. Si ahora sustituimos la segunda soluci´n obtenemos o an = (n + α − γ)(n + β − γ) an−1 . (2 − γ)n n! de donde tenemos N´ese que si γ ∈ Z entonces una de las soluciones deja de estar definida. entonces obtenemos an = por tanto y(x) = 2 F1 α. xy = 2y + xex. (γ)nn! n ≥ 1. Comprueba que la funci´n y(x) = (1 + x)p es soluci´n de la misma. En este caso o hay que buscar la soluci´n incluyendo el correspondiente t´rmino logar´ o e ıtmico. 2−γ 5.

b. c ∈ R se denomina ecuaci´n hipergeom´trica de Gauss (aunque fue introducida por Euler en 1769). 3. 4. con el cambio x = ez en una EDO con coeficientes constantes: ay (z) + (b − a)y (z) + cy(z) = 0. (1 − x2)y − 2xy + p(p + 1)y = 0. xy + (1 − x)y + py = 0. b. x2y + xy + (x2 − p2 )y = 0. x2y + 3xy + 2y = 0. (x − 1)2y − 2(x − 1)y + 2y = 0. o e Encuentra dos soluciones linealmente independientes de la misma. (1 − x2)y − xy + p2 y = 0. Problema 5. Problema 5. y − 2xy + 2py = 0.11 Prueba que la EDO de Euler ax2y (x) + bxy (x) + cy(x) = 0. a. y + xy = 0. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se pueden expresar en funci´n de las soluciones de la EDO hipergeom´trica de Gauss.13 Resueve las siguientes EDOs alrededor de x = 0 (punto singular regular) 1. o e Problema 5.14 La EDO x(1 − x)y + [c − (a + b + 1)x]y − aby = 0.10 Resolver las EDOs usando series alrededor del cero (punto regular) 1. Problema 5. (EDO de Bessel) Problema 5.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeom´trica confluente definida por e xy + [c − x]y − ay = 0. 2. Usando la soluci´n de la EDO de Airy resolver la EDO o y − xy = 0. (EDO de Chebyshev) 2. a. c ∈ R se transforma. (EDO de Laguerre) 2.12 Resuelve las siguientes EDOs de Euler 1. x2y + xy − 5y = 0. (EDO de Hermite) 57 4. . (EDO de Laguerre generalizada) 3. a. (EDO de Airy).5 SOLUCIONES DE EDOS EN SERIE DE POTENCIAS Problema 5. c ∈ R. xy + (1 + α − x)y + py = 0. (EDO de Legendre) 3. x2y + 2xy − 6y = 0.

5) se convierte en la f´rmula de Rodrigues para los polinomios o o cl´sicos a B n dn n [σ (x)ρ(x)].1) a o usualmente se denomina ecuaci´n diferencial hipergeom´trica y sus soluciones y cumplen con o e la propiedad. Los polinomios ortogonales cl´sicos a La ecuaci´n diferencial hipergeom´trica. Ann (n) (6. µm = λ + i=0 (x) .2) τi (x) = λ + mτ (x) + m(m−1) σ 2 τm (x) = τ (x) + mσ (x).2 Si para todo k ∈ N ∪ {0}.1) sus m-´simas derivadas y (m) ≡ ym satisfacen la o e ecuaci´n o σ(x)ym + τm (x)ym + µm ym = 0. respectivamente. Para ello usualmente o se escriben (6. n = 0.1). λ ≡ λn = −nτ − n(n − 1) σ . (6. τ + kσ /2 = 0. 2. 6. e o Teorema 6.5) (6. La propiedad de hipergeometricidad es es muy importante pues nos permite encontrar una f´rmula expl´ o ıcita para los polinomios que satisfacen la ecuaci´n (6. m−1 (6.. el autovalor λn de (6. (6.1) y (6.4) Teorema 6.6) Anm = Am (λ) |λ=λn Adem´s. ρm (x) dxn−m n! = (n − m)! m−1 Bn = Pn .1) o sus m-´simas derivadas y (m) ≡ ym satisfacen una ecuaci´n del mismo tipo. 2 (6.1) son ortogonales dos a dos: ..2) se tiene la siguiente f´rmula de Rodrigues: o o o (m) Pn (x) = Anm Bn dn−m [ρn (x)]. conocida como propiedad de hipergeometricidad: Si y es una soluci´n de (6. Conocida ρ encontramos.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 58 6.1) es a k=0 1 [τ + 2 (n + k − 1)σ ]. 1.2) en su forma sim´trica o autoconjugada: e [σ(x)ρ(x)y ] + λρ(x)y = 0.7) Cuando m = 0 la f´rmula (6.1 Si y es una soluci´n de (6. . (6.8) Pn(x) = ρ(x) dxn Si imponemos unas sencillas condiciones adicionales se tiene que las soluciones de (6. entonces para las soluciones polin´micas de la ecuaci´n (6.1) donde σ y τ son polinomios de grados a lo m´s 2 y 1. Esta ecuaci´n (6. o e Nuestro objetivo ser´ estudiar los polinomios ortogonales cl´sicos definidos sobre el eje a a real los cuales vamos a definir como las soluciones polin´micas de la siguiente EDO o σ(x)y + τ (x)y + λy = 0. .1.3) donde ρ y ρm son funciones de simetrizaci´n que satisfacen las ecuaciones diferenciales de o primer orden (conocidas como ecuaciones de Pearson): [σ(x)ρ(x)] = τ (x)ρ(x). utilizando las ecuaciones anteriores. [σ(x)ρm (x)ym ] + µm ρm (x)ym = 0. que ρm (x) = σ m (x)ρ(x). [σ(x)ρm (x)] = τm (x)ρm (x). (6.

11) se obtiene la conocida f´rmula de Christoffel-Darboux: o Teorema 6. (6. Entonces se cumple que: e Pm (x)Pm (y) αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x) .11) donde αn = an . nos da: b d2 = Bn (−1)n n!an n σ n (x)ρ(x)dx. y dn es la norma de los polinomios.de donde obtenemos la para la n − 1-´sima derivada de Pn: Pn e igualdad: (n−1) Pn (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x).9) o e n e integrando por partes. a (6. se cumple que: o b a = 0.14) . (6.11).3 Supongamos que xk σ(x)ρ(x) 59 x=a. bn y cn los coeficientes del desarrollo Pn(x) = anxn + bn xn−1 + cn xn−2 + · · ·. con lo que la sucesi´n de polinomios o ortogonales queda determinada de forma unica conocidas las sucesiones (α n)n . Corolario 6. = 2 2 dm dn x−y m=0 n Kern (x. n! k=0 n−1 bn = nτn−1 (0) an . τn−1 (6. sustituy´ndola en (6. ´ Para calcular los coeficientes principales an y bn podemos usar la f´rmula de Rodrigues o (n−1) (x) = Ann−1 Bn τn−1 (x). an an+1 γn = cn − αn cn+1 bn an−1 d2 n − βn = . o sea. Luego. Entonces las solu- Pn (x)Pm(x)ρ(x)dx = δnm d2 . an−1 an−1 an d 2 n−1 (6.9) donde δnm es el s´ ımbolo de Kronecker y dn denota la norma de los polinomios Pn. an = Bn Ann 1 = Bn [τ + 2 (n + k − 1)σ ].13) Como un corolario de (6.10) Una consecuencia de la propiedad de ortogonalidad es el siguiente Teorema 6. para todo k ≥ 0. Generalmente se impone que P−1(x) = 0 y P0(x) = 1.5 Los polinomios ortogonales satisfacen una relaci´n de recurrencia a tres t´rmio e nos de la forma xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x).b ciones polin´micas Pn de la ecuaci´n (6.12) siendo an . an+1 βn = bn bn+1 − . n (6. podemos utilizar la f´rmula de Rodrigues que. y) ≡ n ≥ 1.4 Si (Pn)n es una familia de polinomios ortogonales respecto a ρ entonces para b todo k entero con 0 ≤ k ≤ n − 1 se tiene que xk Pn (x)ρ(x)dx = 0. (βn )n y (γn )n.1) constituyen una SPO respecto a la funci´n peso o o o ρ definida por la ecuaci´n [σ(x)ρ(x)] = τ (x)ρ(x).6 Si (Pn)n es una sucesi´n de polinomios ortogonales que satisface la relaci´n o o de recurrencia a tres t´rminos (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Teorema 6. a Para calcular d2 .

a Comenzaremos escribiendo los principales par´metros de las sucesiones de polinomios a ortogonales m´nicos cl´sicos.2. o 3.19) 4. λ n γn . soluciones de la ecuaci´n (6. satisfacen la siguiente relaci´n de estructura: o o Pn(x) = Qn + δn Qn−1 + n Qn−2 . cuando σ es de grado 1. obtenemos la f´rmula confluente de Christoffel-Darboux: o Kern (x.e. (6. respectivamente. en las cuales (a)n denota al s´ ımbolo de Pochhammer (6. τn (x)Pn(x) − nτn Bn+1 (6. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x). (6.20) 6. nτn Bn+1 P (x) n ≥ 0.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Si hacemos tender y → x.5) se deduce que o Pn(x) = −λnBn ¯ Pn−1 (x). n (6. Polinomios de Laguerre Lα (x) y cuando σ es de grado 2. es decir.16) ¯ donde Pn−1 denota al polinomio ortogonal respecto a la funci´n peso ρ1 (x) = σ(x)ρ(x).1.. Par´metros Principales. tales que su coeficiente principal an = 1.β Pn (x). τ es un polinomio de grado exactamente uno. x) ≡ 2 Pm (x) αn = 2 [Pn+1 (x)Pn(x) − Pn+1 (x)Pn(x)] 2 dm dn m=0 n 60 n ≥ 1. Si escribimos la f´rmula (6. Los Polinomios de Hermite. 2.5) para el polinomio de grado n + 1 obtenemos una f´rmula o o de diferenciaci´n o σ(x)Pn(x) = λn Bn Pn+1 (x) . . Polinomios de Jacobi n α. i.15) De la f´rmula de Rodrigues se deducen una serie de consecuencias muy interesantes o 1. donde αn = ˜ Bn λn αn τ n − . Si definimos Qn (x) ≡ n+1 .2. Estos se pueden clasificar en tres grandes familias en funci´n del grado del o polinomio σ (τ siempre es un polinomio de grado 1).17) de la cual se deduce una relaci´n de estructura o ˜ ˜ ˜ σ(x)Pn(x) = αn Pn+1 (x) + βn Pn (x) + γn Pn−1 (x). En las tablas 3 y 4 est´n representados los principales par´metros a a de dichas familias.18) λn ˜ [βn τn + τn (0)] . βn = nτn γn = ˜ (6. Tomando m = 1 en la f´rmula (6. ¯ Bn−1 (6. Laguerre y Jacobi. Pn (x) = o a ´ xn + bn xn−1 + · · ·. entonces los polinomios ortogonales m´nicos Pn (x) = o n+1 xn + · · ·. 6.30).1).

Representaci´n hipergeom´trica. (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 61 Tabla 3: Clasificaci´n de las SPO Cl´sicas.. .. Casos particulares. γ > −1.2. Los polinomios de Legendre Pn(x) = Pn (x). 3. a2 . (b1)k (b2)k · · · (bq )k k! 3 2 −m 3 2 (6.γ− 2 (x). 2.. 2n sen[ arccos (x)] 4. α+1 2 6. o a Pn(x) σ(x) τ (x) λn ρ(x) Hn(x) 1 −2x 2n e−x 2 Lα (x) n x α. β > −1 (1 − x)n+α (1 + x)n+β ρn (x) e−x 2 xn+α e−x 6.0 1..3. Laguerre y Jacobi en t´rminos o e de la funci´n hipergeom´trica de Gauss 2 F1 definida en el caso m´s general de forma: o e a p Fq a1.− 1 2 (x) = 1 2n−1 cos[n arccos (x)]. o e De la f´rmula de Rodrigues. Los polinomios de Chebyshev de primera especie Tn(x): Tn(x) = Pn 1 − 2 . α+1 2n (α + 1)n 2 F1 (n + α + β + 1)n −n. Los polinomios de Chebyshev de segunda especie Un (x): 1 1 2 Un(x) = Pn 2 (x) = .β Pn (x) = (−1)n Γ(n + α + 1) 1 F1 Γ(α + 1) −n x .24) Lα (x) = n α. 1 sen[(n + 1) arccos (x)] .23) (6. ap x b1 .5) se o e puede obtener la representaci´n de los polinomios de Hermite. bq = ∞ k=0 (a1)k (a2)k · · · (ap)k xk . .β Pn (x) 1 − x2 −x + α + 1 −(α + β + 2)x + β − α n xα e−x α > −1 n(n + α + β + 1) (1 − x)α (1 + x)β α. b2 .. 2 . H2m+1 (x) = (−1)m x 1 F1 m x2 .2.22) (6. (6. n + α + β + 1 1 − x . Los polinomios de Gegenbauer Gλ (x): n Gγ (x) = Pn n 1 1 γ− 2 .21) De esta manera encontramos que: H2m (x) = (−1)m 1 2 1 F1 m −m 1 2 x2 . o usando el m´todo de las series de potencias. 0..2.

25) Utilizando la f´rmula (6.β Pn (x) (−1)n (n + α + β + 1)n n(α − β) 2n + α + β 2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1) Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2 n 1 β 2 − α2 (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2(α − β)n(n + α + β + 1) (2n + α + β)(2n + 2 + α + β) 4n(n + α)(n + β)(n + α + β)(n + α + β + 1) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) 2n(α − β) (2n + α + β)(2n + 2 + α + β) − 4n(n − 1)(n + α)(n + β) (2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1) −n bn d2 n αn βn γn αn ˜ ˜ βn γn ˜ −n(n + α) Γ(n + α + 1)n! 1 2n + α + 1 n(n + α) 0 n n(n + α) δn n 0 0 n 0 6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 62 Tabla 4: Par´metros de las SPO M´nicas (an = 1). 22m m! H2m+1 = 0.27) donde (Pn(x))(ν) denota la ν−´sima derivada de Pn(x).. Lα (0) = n (−1)nΓ(n + α + 1) .. Γ(α + 1) 2n (α + 1)n α.β+ν Pn−ν (x). 1.β Pn (1) = . H2m (0) = (−1)m (2m)! . (n + α + β + 1)n (−1)n 2n (β + 1)n α. (n + α + β + 1)n (6.26) (6. 3. ... 2.β Pn (−1) = . (n − ν)! α..4. Otras caracter´ ısticas.): o (Hn(x))(ν) = n! Hn−ν (x).β (Pn (x))(ν) = (Lα (x))(ν) = n n! Lα+ν (x). . 2. (n − ν)! . Como consecuencia de las f´rmulas anteriores podemos obtener los valores de los polio nomios en los extremos del intervalo de ortogonalidad. e n! α+ν.2. a o Pn (x) Bn Hn (x) (−1)n 2n 0 √ n! π 2n 1 0 n 2 0 0 n Lα (x) n (−1)n α.16) encontramos las ecuaciones (ν = 1. (n − ν)! n−ν (6. n = 0.

cumple la propiedad a Γ(1 − z)Γ(z) = √ 1−2z π2 Γ(2z). Adem´s. y adem´s. k = 1. . (a)k = a(a + 1)(a + 2) · · · (a + k − 1). 2m Adem´s. √ 1 a Utilizando las expresiones anteriores se concluye que Γ( 2 ) = π. respectivamente mediante las siguientes relaciones: H2m (x) = Lm2 (x2).30) La siguiente f´rmula asint´tica de la funci´n Γ es de gran utilidad o o o √ 1 Γ(ax + b) ∼ 2πe−ax (ax)ax+b− 2 . ∀n ∈ N. 1 x Pm 2 2 (2x2 − 1). sen πz Dicha funci´n satisface las ecuaciones funcionales o Γ(z + 1) = zΓ(z). . de la f´rmula de Rodrigues se puede encontrar la siguiente propiedad de simetr´ a o ıa para los polinomios de Jacobi: 2 Gγ 2m+1 (x) = P2m+1 1 γ− 1 . n→∞ z(z + 1) · · · (z + n − 1) π . 3. 1 1 γ− 2 . Γ(a) Finalmente. Otra funci´n muy relacionada con la o x→∞ b(x) funci´n Γ es el s´ o ımbolo de Pochhammer (a)k (5. Gγ (x) = P2m 2 2m 1 γ− 1 . (6. . mediante la integral de Euler ´ Γ(z) = 0 ∞ e−t tz−1 dt. x >> 1.β Pn (−x) = (−1)nPn (x). en general.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 63 Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi. 2.28) 1 γ− 1 .α α. Γ(z)Γ(z + 1 ) = 2 Γ(n + 1) = n! = n(n − 1) · · · (2)(1).− 1 2 (2x2 − 1). (a)k = (6. Esta funci´n fue definida por Euler en 1729 como l´ o ımite de un producto de donde se puede deducir la integral anterior (considerada tambi´n por Euler en 1772) aunque su nombre e y notaci´n se deben a Legendre quien la estudi´ en detalle en 1814.13) donde por a(x) ∼ b(x) entenderemos l´ ım Es muy sencillo comprobar que (a)0 = 1.29) Ap´ndice: La funci´n Gamma de Euler e o Una de las funciones que con m´s frecuencia encontraremos es la funci´n Gamma de a o Euler o Γ. (z) > 0. (n − k)!k! k! . P m m 2 1 (x) = (6. Euler o o prob´ que o 1 Γ(z) = z n=1 ∞ 1 1+ n z 1+ z n −1 = l´ ım 1 · 2 · · · (n − 1) zn. . definida.γ− 2 (x) = β. Γ(a + k) .γ− 2 −1 2 H2m+1 (x) = xLm (x2) . En particular. a(x) = 1. definiremos los coeficientes binomiales n k = (−1)k (−n)k n! = .

a (6. as´ que tenemos ı cuando z = 0.µ+1 (z) = 0.34).31) Si se cumple la condici´n de frontera o b σ(s)ρν (s)(s − z)µ = 0. Adem´s.33). (6. (6.8 Calcula los momentos de los polinomios de Laguerre y Hermite usando el m´todo anterior.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 64 6. de (6.µ−1 (z) + [τν (z) + µσ (z)] Cν. .33) deducimos que. Ejemplo 6. evidente ya que para los polinomios de Hermite tenemos que σ(0) = 0. De ella o como C1 = 0. Finalmente.3. la siguiente relaci´n o de recurrencia a dos t´rminos e 1 µσ(0)Cp−1 + [τ (0) + pσ (0)]Cp + τ + pσ 2 para los momentos cl´sicos a Cp ≡ C0.p (0) = a b Cp+1 = 0.33) En particular.34) sp ρ(s)ds. Los momentos de los polinomios cl´sicos a En este apartado vamos a considerar brevemente una forma de obtener una relaci´n para o los momentos. e En el caso Laguerre tenemos que la relaci´n de recurrencia (6.34) es o (α + n + 1)Cn − Cn−1 = 0. que usar (6.32) entonces los momentos generalizados verifican la siguiente relaci´n de recurrencia a tres o t´rminos e 1 µσ(z)Cν. lo cual es √ la funci´n peso es una funci´n par.33) y (6. a Para obtener los momentos de los polinomios de Jacobi usaremos las expresiones (6. z = 0 obtenemos. de donde deducimos que Cn = Γ(α + n + 1). Vamos a aplicar los resultados anteriores a los polinomios cl´sicos. 2m 2 m! C2m+1 = 0. como C0 = π. entonces o o a C2m = (2m − 1)!! √ (2m)! √ π = 2m π. µ = p ∈ N. C0 = 0 ∞ xα e−x dx = Γ(α + 1). (6. luego Cn = (α + 1)nC0 . Teorema 6.µ (z) + τν + µσ 2 Cν. para ν = 0.7 Sea µ ∈ C.µ (z) = a (s − z)µρν (s)ds. entonces todos los momentos impares son nulos. Se definen los momentos como b Cν. Ello nos conduce a la relaci´n pCp−1 − 2Cp+1 = 0.

2 . e a Comenzaremos con los polinomios de Hermite al ser ´stos los m´s sencillos.37) con R = 1 + 4t(t + x). o o Φ(x. (6.4.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS 65 6. Las funciones generatrices El objetivo de este apartado es encontrar las funciones generatrices de los polinomios cl´sicos.35) Obviamente la serie anterior puede no converger prefijado un valor cualquiera del par´metro a t. t) = Pero ∂ Φ ∂tn luego e n ∞ k=0 2 1 n! ∂ nΦ ∂tn tn . t) = e2xt−t . No obstante daremos la prueba de las mismas usando m´todos m´s “elementales”. a ∞ n=0 ∞ n=0 2n 2 Hn (x)tn = e2xt−t . Bn 2xt−t2 2n Hn(x)tn. t) = ∞ n=0 An Pn (x)tn. Caso Hermite Hn (x): Primera prueba Sea Φ(x.β Pn (x)tn = . t) tal que. o Para los polinomios cl´sicos se tienen las siguientes identidades. Al ser esta funci´n anal´ o ıtica en R podemos usar la serie de Taylor Φ(x. Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. t=0 =e t=0 x2 ∂ n −(x−t)2 e ∂tn = t=0    ξ = x−t   dξ = −dx  = ∞ n=0 (−1) e n x2 ∂ n −ξ 2 e ∂ξ n ξ=x (−1)n = Hn(x). por ello asumiremos que t es lo suficientemente peque˜o para que la serie converja en una n regi´n de las x lo suficientemente amplia. Daremos tres e a pruebas distintas para mostrar los distintos trucos que se suelen usar. n! R(1 − 2t + R)α (1 + 2t + R)β (6. n! (1 − t)α+1 tx (6.36) 2α+β (−1)n (α + β + 1)n α. n! ∞ n=0 e− 1−t (−1)n α n Ln (x)t = . En general el problema se puede plantear como sigue: Dada una sucesi´n n´merica a o u (An )n y una sucesi´n de polinomios (Pn)n encontrar una funci´n Φ(x. n! Caso Hermite Hn (x): Segunda prueba Vamos a usar la relaci´n de recurrencia a tres t´rminos o e Hn+1 (x) + n Hn−1 (x) − xHn(x) = 0.

t) = ∞ n=0 2 2 2n gn (x)tn.38) en la ecuaci´n diferencial anterior lo que nos da o ∞ n=0 2n 2n gn(x)ntn−1 − 2(x − t) gn(x)tn = 0. t) = e2xt−t . 0) = 1 y Φt(x. t) = obtenemos la ecuaci´n o ∂ Φ(x. es decir a partir de la expresi´n expl´ o ıcita de la funci´n generatr´ deducimos una relaci´n de recurreno ız o cia para los correspondientes polinomios (en este caso los de Hermite). por tanto. ∞ n=1 2n 2n+1 2n gn(x)tn−1 − 2x gn(x)tn + gn(x)tn+1 = 0.38) donde (gn)n es una sucesi´n de polinomios a determinar. usando el desarrollo en serie ı de Taylor en t para Φ(x. t) = 0. t) = (2x − 2t)e2xt−t = 2(x − t)Φ(x.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Multiplicamos por 2n+1 tn /n! 2n+1 2n 2n+1 Hn+1 (x)tn + Hn−1 (x)tn − x Hn(x)tn = 0. e a o Sea la funci´n generatr´ Φ(x. La raz´n fundamental o es que este m´todo es muy general y nos permitir´ probar el resto de las expresiones. ∂t cuya soluci´n es Φ(x. 0) = 2x. t). ∂t De aqu´ deducimos que Φ(x. ∂t (n + 1)! (n − 1)! n! y sumamos en n = 0 hasta ∞ y usamos que 1/(−1)! = 0 y obtenemos ∂ ∂t ∞ n=0 ∞ ∞ 66 2n−1 2n 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn(x)tn = 0. o Un sencillo c´lculo nos muestra que a ∂ 2 Φ(x. t) + 2(t − x)Φ(x. equivalentemente. (n − 1)! n! n! n=0 n=0 ∞ ∞ . n! n! n=0 ∞ o. como Φ(x. Ahora bien. a Ahora sustituimos (6. n! (n − 1)! n! o equivalentemente 2n−1 2n ∂ 2n+1 Hn+1 (x)tn+1 + 2t Hn−1 (x)tn−1 − 2x Hn (x)tn = 0. t) y compar´ndolo con (6.38) deducimos que g0(x) = 1 y g1(x) = x. o Caso Hermite Hn (x): Tercera prueba Vamos a dar una tercera prueba que escencialmente es la inversa de la anterior. t) = e2xt−t que escribiremos mediante la expresi´n o ız Φ(x. (n + 1)! (n − 1)! n! n=1 n=0 ∞ 2n n n=0 n! Hn (x)t . n! (6.

e b (k) (k) Pn (x)Pm (x)ρk (x)dx = δnm d2 . (6.9 Calcula todas las car´cter´ a ısticas de los polinomios cl´sicos que aparecen en a la tabla 4.n (0) de o los polinomios de Jacobi. si en vez de sustituir a en (6. 2gn+1 (x) − 2xgn(x) + ngn−1 (x) = 0. Encontrar la relaci´n de recurrencia para los momentos Cn := C0. respectivamente. 2n (γ)n γ Cn (x)tn.40) Problema 6. Como casos particulares deducir la de los polinomios de Chebychev de primera y segunda especie y la de los polinomios de Legendre. Γ(α + β + 2) −1 α β 1 H´gase lo mismo pero para los momentos Cn := C0. y)dx = p(y). como g0(x) = 1 = H0(x) y g1(x) = x = H1(x). es decir. A partir de ´sta encuentra los momentos de los polinomios de Legendre e e − 1 . entonces comparando las relaciones anteriores con la relaci´n de recurrencia a tres t´rminos para los polinomios m´nicos o e o de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretend´ ıamos probar.5.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Igualando coeficientes de las potencias de t a cero tenemos t0 : t1 : tn : 2g1(x) − 2xg0(x) = 0.γ− 1 γ dada por (6. Sean los polinomios de Gegenbauer Cn (x) := Pn 2 2 (x) que son un caso particular de los polinomios de Jacobi. Problemas Problema 6. n! (6. kn a (6.10 Probar la ortogonalidad de las k−´simas derivadas de los polinomios hie (k) pergeom´tricos yk ≡ Pn . N´tese que o 2α+β+1 Γ(α + 1)Γ(β + 1) C0 = (1 − x) (1 + x) dx = . Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso α = β = γ − 1/2. 2g2(x) − 4xg1(x) + 2g0(x) = 0.33) z = 0 sustituimos el valor z = 1. a ∀p(x) ∈ Pn . los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los 1 1 polinomios de Chebyshev de segunda especie Un (x) = Pn2 2 (x).12 Encontrar la relaci´n de recurrencia para los momentos Cn := C0.13 Demuestra que la funci´n generatr´ para los polinomios de Laguerre viene o ız γ− 1 . Problema 6. es decir.11 Prueba que los polinomios n´cleos satisfacen la siguiente propiedad reprou ductora b p(x)Kern (x.39) Problema 6. Prueba que en este caso 1 = (1 − 2xt + t2 )γ ∞ n=0 .n (0) en o este caso y resu´lvela.n (1). Problema 6.0 Pn(x) = Pn (x).36). 67 Ahora bien. .41) donde (γ)n es el s´ ımbolo de Pocchamer. 6.− 1 0.

44) (6.β donde por ηn y ηn denotaremos las cantidades β.β α. KerJ.β α.β+1 Pn−1 (x) = α.15 Los polinomios n´cleos Ker n−1 (x.α.β (x. 2α+β+n n!Γ(α + 1)Γ(β + n) Usando (6.β Pn−1 (x) = (6.β (x. 2α+β+n n!Γ(α + n)Γ(β + 1) β.β+1 KerJ. 0) = √ 2m π(m)! π(m)! x KerH (0.α KerJ.α ηn = (6.´ 6 LOS POLINOMIOS ORTOGONALES CLASICOS Problema 6.β.α. = 2m−2 √ = 2m √ 2m 2 π Γ(m) π Γ(m + 1) 2 π(m − 1)! 2 π m!2 (−1)n−1 (Lα ) (x).α. 2m−1 π(m − 1)! 2 π(m − 1)! x 1 (−1)m H2m (x) (−1)m 2 .42) α+1.α ηn (−1)n−1 Γ(2n + α + β) .β d α−1. n−1 β.17).β (2n + α + β)(1 − x) d Pn (2n + α + β) α.β α. y) = Pm (x)Pm(y) .45) (−1)n−1 Γ(2n + α + β) .β−1 β. 1) = n−1 Utilizando la relaci´n de simetr´ (6.β (−1.14).25) y las o f´rmulas de diferenciaci´n (6. Lm (x2) = √ KerH (x. 0) = .β (1. Γ(α + 2)(n − 1)! • N´cleos de los polinomios de Jacobi: u α. 2n(β + n) dx 2(β + n) 68 (6. n−1 . 2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1) KerJ.45) tenemos KerJ. y) se definen mediante la expresi´n u o Kern−1 (x. −1) = n−1 Γ(β + n + 1)Γ(α + β + n + 1) .44)-(6. −1). 0) = n−1 (α + 1)n . 1) = (−1)n+1 ηn dx Pn n−1 β. 0) = n−1 1 2 Γ(m + 3 ) 2 Γ(m + 2 ) (2m − 1)! (2m + 1)! 2 .29) para los polinomios de Jacobi prueba que o ıa J.β (x) − Pn (x). 0) = √ Lm−1 (x2) = √ . n Γ(α + 1)n! KerL (0.14 Prueba las relaciones α.β (x) + Pn (x).α α+1. prueba las siguentes f´rmulas: o o o • N´cleos de los polinomios de Hermite: u 1 (−1)m−1 H2m (x) (−1)m−1 2 KerH (x.α d (x) = n(−1)n+1 ηn Pn−1 (x). 0) = 2m−1 • N´cleos de los polinomios de Laguerre: u KerL (x.α.α. KerH (0.β (−1. 2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n) (−1)n−1 Γ(α + β + n + 1) .43) Problema 6. los valores en los extremos (6. 2n(α + n) dx 2(α + n) α.α α.β (2n + α + β)(x + 1) d Pn (2n + α + β) α. d2 m m=0 n−1 Usando la f´rmula de Christoffel-Darboux (6. −1) = ηn dx Pn (x) = nηn Pn−1 (x). 1) = Kern−1 (−1.

4 (Teorema de unicidad local de soluciones) o Sea f (x. (7. .3) Definici´n 7. Vamos a definir una sucesi´n de funciones yn (x) de la siguiente forma e o x (7. o ´ Lo primero que asumiremos es que la funci´n f (x. y) de la clase de Lipschitz seg´n la definici´n a o u o anterior es continua en y. Vamos a dar aqu´ algunas ´ ıa o ı condiciones bajo las cuales podemos garantizar que el PVI (7.y)∈R Como f es continua en R. z)| ≤ K|y − z|.4) Para la norma tenemos la desigualdad evidente u ≥ 0.1 de aproximaciones n´mericas vimos algunos ejemplos donde la soluci´n u o o bien no era unica o bien no correspond´ con la soluci´n exacta. entonces y1 (x) = y2(x) en todo Id . y)|. (7.1) En el apartado 2. y) es continua en el rect´ngulo R o a definido por R = {(x.3 Dada una funci´n u(x) definida en un intervalo cerrado y acotado I ⊂ R. a. Sea M = m´x |f (x. y) ∈ R y (x. y) − f (x. z) ∈ R se cumple Es f´cil comprobar que toda funci´n f (x.1) es equivalente a la siguiente ecuaci´n integral o o x y(x) = y0 + x0 f (ξ. y) sea a o o de la clase de Lipschitz es que su derivada parcial ∂f sea continua en R. y). 1. . y) es de la clase de Lipschitz o lipschitziana o o (en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x. se tiene la desigualdad triangular a u+v ≤ u + v . Si y 1 (x) o e y2 (x) son dos soluciones del PVI (7. a (x. x∈I |f (x.1) tiene soluci´n unica. o o . ∂y Definici´n 7. 1/K).2) Proposici´n 7.5) yn+1 (x) = y0 + x0 f (ξ. y) una funci´n de la clase de Lipschitz con constante K y sea d ∈ (0. y(ξ))dξ. y u = 0 si y s´lo si u(x) = 0 en o I. Proposici´n 7. (7. y(x0 ) = y0 . |y − y0 | ≤ b}. n = 0.7.6) La sucesi´n anterior se conoce como sucesi´n de Picard. (7. M siempre est´ definida. yn (ξ))dξ. Adem´s. a Sea y0 (x) una funci´n continua definida en un entorno de x0 tal que la imagen de y0 (x) o est´ contenida en R. . una condici´n suficiente para que una funci´n f (x.1 El PVI (7. y) : |x − x0| ≤ a. (7. b > 0. . 2. Obviamente si u(x) es continua u < +∞. o o definiremos la norma de u(x) a la cantidad u = sup |u(x)|. Sea el problema de valores iniciales y = f (x.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 69 7. Adem´s.1) definidas en Id = {x : |x − x0| < d} tales que y1 (x0) = y2 (x0) = y0 . El teorema de existencia y unicidad para las EDOs Vamos a resolver uno de los problemas pendientes m´s importantes: la existencia y unia cidad de soluciones para una EDO de primer orden.2 Diremos que una funci´n f (x.

z)| = y 2 − z 2 = |y + z||y − z|. b/b. N´tese que en este caso el teorema es util o o ´ pues para x > 1/2 no nos garantiza la existencia de la soluci´n como ocurre en la pr´ctica. Corolario 7. 1/1) = 1}. b/M. por ejemplo.. 1/K)}.9 Sea la EDO y = x − y 2 con y(0) = 0.6) converge cuando n tiende a infinito a una funci´n y(x) que es soluci´n del PVI (7. por lo que como mucho asegurar a que la soluci´n existe en el intervalo |x| < 1/2. 1/K)} tal que su imagen est´ contenida en R. Entonces K = 2b y M = 1 + b2 . 7.2).5 Sea y0(x) una funci´n continua definida en Id = {x : |x − x0| < d = o o m´ ın(a. y(x)) e ´ o y(x0 ) = y0 . entonces o o |f (x. a Proposici´n 7. Para ello basta definir una a norma en RN y el valor absoluto de un vector. Entonces. la sucesi´n de Picard e o (7. b/M.6 (Teorema de existencia local de soluciones) o Sea y0 (x) una funci´n continua definida en Id = {x : |x − x0| < d = m´ o ın(a. m´x b/(1 + b ) = 1/2 y se alcanza en b = 1. a Entonces. b/(1 + b2 ). 1/b). Los teoremas anteriores son s´lo condiciones suficientes. por tanto d = m´ ın(a. Escojamos un valor cualquiera para y. Encuentra el intervalo donde se puede garantizar la existencia y unicidad de la soluci´n.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 70 Proposici´n 7.1) o o en Id . digamos que |y| ≤ b > 0. Para este ultimo podemos usar la definici´n ´ o |Y (x)| = N |yk |. Problemas Problema 7. Sea x ∈ R por ejemplo.y)∈R |f (x. i. entonces las demostraciones anteriores se adaptan perfectamente para el caso general. Entonces.7 (Teorema local de existencia y unicidad) Sea el PVI (7. el PVI (7. Como f (x. b/M )} tal que su imagen est´ contenida en R.1) con f lipschitziana de constante K en R (7. En este caso ´ la soluci´n es y = tan x definida s´lo en [0. y el teorema anterior nos garantiza s´lo la soluci´n en el intervalo Id = {x : |x − x0| < d = m´ o o ın(a. y)|. luego f es lipschitziana con constante K = 1. Si ahora usamos. M = b. Problema 7. la norma k=1 N Y = k=1 yk . las im´genes e a de yn (x) est´n contenidas en R. 2 Ahora bien.e. y M = m´x(x. y) = y. y) − f (x.8 Prueba las propiedades anteriores para la norma u . |y0 (x) − y0 | ≤ b. o . π/2). 1/K) = m´ ın(a. o a El procedimiento anterior es f´cilmente extensible a sistemas. Por ejemplo si consideramos la o EDO lineal y = y sabemos que su soluci´n existe y es unica en todo R (es la exponencial) o ´ sin embargo si escogemos x ∈ R cualquiera y tomamos b > 0 cualquiera tenemos f (x. b/M. N´tese o que con esta elecci´n se tiene que si |Y (x)| ≤ M entonces Y ≤ N M . y) = 1 + y 2 . Las correspondientes o demostraciones se dejan como ejercicio. Encuentra las tres primeras aproximacioo nes de la soluci´n. para todo n ≥ 0.1. Como ultimo ejemplo veamos el caso de la EDO y = 1 + y 2 con y(0) = 0. es decir existe una unica funci´n y(x) tal que y (x) = f (x.1) tiene soluci´n unica en el intervalo Id = {x : |x − x0 | < d = o ´ m´ ın(a.

y(0) = 0. y = x + y 2 . Comp´ralas con la soluci´n exacta. Problema 7. 1/2] 2.7 EL TEOREMA DE EXISTENCIA Y UNICIDAD PARA LAS EDOS 71 Problema 7. 3/10] 3. y(0) = 0.10 Prueba que la soluci´n de cada uno de los siguientes PVI existe en el o intervalo indicado 1. y = y 3 + e−5x . y(0) = 0.11 Encuentra las tres primeras iteraciones de la sucesi´n de Picard para el o 2 x PVI y = y + e . 1/2] Problema 7. x ∈ [0. y(0) = 2/5. x ∈ [0. y = y 2 + cos x2 .12 Encuentra las cuatro primeras iteraciones de la sucesi´n de Picard para el o PVI y = 1 + y 2 . a o . x ∈ [0. y(0) = 0.

8 LA TRANSFORMADA DE LAPLACE

72

8.

La transformada de Laplace
 

Definici´n 8.1 Sea f una funci´n definida en [0, ∞). La transformada de Laplace [f ] o o o F(t) es la transformada integral F(t) = [f ](t) =
 

∞ 0

e−tx f (x)dx,

(8.1)

donde la integral se entiende en el sentido impropio, o sea
∞ 0 z

e

−tx

f (x)dx = l´ ım

z→∞

e−tx f (x)dx.
0

Definici´n 8.2 Diremos que una funci´n f es de orden exponencial si existen dos constantes o o no negativas c y M tales que |f (x)| ≤ M ecx para todo x ≥ 0. Teorema 8.3 Si f es una funci´n continua a trozos de orden exponencial entonces f tiene o transformada de Laplace para todo t suficientemente grande. En la siguiente tabla incluimos algunas de las transformadas de Laplace m´s comunes incluida a la de la funci´n escal´n χc (s) definida como 1 si x ∈ [0, c] y 0 en el resto. o o
 

f (x) c xn eax sen(ax) cos(ax) senh(ax) cosh(ax) x−1/2 χc (x)

F(t) = [f ](t) c t n! tn+1 1 , t>a t−a a t2 + a 2 t 2 + a2 t a , t>a t2 − a 2 t , t>a t2 − a 2 π , t>0 t e−ct , t>0 t

Tabla 5: Transformadas de Laplace de algunas funciones Proposici´n 8.4 Si F(t) = [f ](t) entonces o 1. [f ](t) = t [f ](t)−f (0) = tF(t)−f (0) y en general [f (n) ](t) = tn F(t)− 2. [eax f (x)](t) = F(t − a)
         

n−1 k (n−k−1) (0) k=0 t f

8 LA TRANSFORMADA DE LAPLACE 3. [xf (x)](t) = −F (t) y en general, 4. [χc (x)f (x − c)] = e−ct F(t).
     

73

[xnf (x)](t) = (−1)n F(n) (t).

5. Definiremos la convoluci´n de dos funciones f y g como la funci´n h(x) = (f ∗ g)(x) o o definida por
x

(f ∗ g)(x) =
     

0

f (x − z)g(z)dz.

(8.2)

Entonces, [(f ∗ g)(x)](t) = [f (x)](t) · [g(x)](t).

8.1.

Problemas

Problema 8.5 Calcula las transformadas de Laplace de las funciones de la tabla 8. Problema 8.6 Calcula las transformadas de Laplace de las funciones x cos(ωx) y x sen(ωx). Usando lo anterior encuentra la transformada de las funciones t2 , (t2 + ω 2 )2 (t2 1 + ω 2 )2

Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci´n de la EDO o y + ω 2 y = f0 sen(ωx), y(0) = y (0) = 0.

Problema 8.8 Usa la transformada de Laplace para resolver las EDOs 1. y − 5y + 4y = 0, y(0) = 1, y (0) = 0, 2. y − 4y + 4y = 0, y(0) = 0, y (0) = 1, 3. y + y = xex , y(0) = y (0) = 0, 4. y + 2y + 5y = 3e−x sen x, y(0) = 0, y (0) = 1, 5. y + 2y + y = [1 − χπ/2 (x)] sen(2x), y(0) = 1, y (0) = 0, 6. y + 3y + 2y = χπ/2 (x)e3x, y(0) = 1, y (0) = 1. Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 4. Problema 8.9 La EDO xy + y + xy = 0, se conoce como ecuaci´n de Bessel de orden 0. o Prueba que si Y(t) es la transformada de Laplace de la soluci´n de esta EDO con y(0) = 1, o prueba que entonces Y satisface la EDO (t2 + 1)Y (t) + tY(t) = 0. Prueba que la soluci´n de la EDO anterior se puede expresar en serie como o Y(t) = c
∞ n=0

(−1)n (2n)! 1 . 22n(n!)2 t2n+1

A partir de lo anterior deduce la funci´n y(x) soluci´n de la EDO de Bessel. o o

8 LA TRANSFORMADA DE LAPLACE

74

Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO: Y = Y = Y = 1 −3 −2 2 Y + Y + Y, 1 1 ex , , Y (0) = 0 5 , 2 1 , 0 0 .

1 4 1 1

Y (0) =

Resuelve los mismos problemas usando las t´cnicas aprendidas en el cap´ e ıtulo 3.

3 −2 2 −2

1 − χπ (x) 0

Y (0) =

Por ejemplo. si F (x) es una dF (x) = F (x) + C [f (x) ± g(x)] dx = [A · f (x)] dx = A f (x) dx ± f (x) dx g(x) dx Teorema A. para todo o x de (a. Teorema A. α+1 ∀α ∈ R. b) se tiene que F (x) = f (x). b).2 Sean F1 (x) y F2 (x) dos primitivas de la funci´n f (x) en (a. F1 (x) − F2 (x) = const. 2. α = −1 1 dx = log |x| + C x ax dx = ax + C. Definici´n A.4 (Propiedades de la integral indefinida.5 Tabla de Integrales 1. 5.3 El conjunto de todas las primitivas de una funci´n f (x) definida en (a.´ A ANEXO: CALCULO DE PRIMITIVAS 75 A. 4. 7. 4. d dx f (x) dx = f (x) (A. b) se o o denomina integral indefinida de f (x) y se denota por primitiva de f (x). Entonces. Es decir dada una funci´n f (x) sus primitivas difieren en una o constante (en adelante denotaremos por C a una constante cualquiera). f (x) dx = F (x) + C Mediante una simple derivaci´n es sencillo comprobar el siguiente o Teorema A. la funci´n F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 ) = 2x.1 Se dice que una funci´n F (x) es una primitiva de otra funci´n f (x) sobre un o o o intervalo (a. b) si para todo x de (a. 3. 3. Anexo: C´lculo de primitivas a Definici´n A. a = 1 sen x dx = − cos x + C cos x dx = sen x + C 1 dx = tan x + C cos2 x . 2. De manera que.) 1. 8. 0 dx = C 1 dx = x + C xα dx = xα+1 + C. o El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange.1) f (x) dx. 6. log a a > 0. b).

1. 13. 17.1. b)] o la imagen de φ(x). 15. 1 √ dx = log x + 2±1 x x+1 1 1 dx = log +C 1 − x2 2 x−1 sinh x dx = cosh x + C cosh x dx = sinh x + C 1 dx = tanh x + C cosh2 x 1 dx = coth x + C sinh2 x A. b) el dominio y T = φ[(a. 16. Como la integral no es de la tabla es necesario convertirla en una de la tabla. 11. o o sea. Como la integral no es de la tabla es necesario convertirla en una de . 10.6 Sea t = φ(x) una funci´n derivable en x y sean X = (a. Entonces sobre todo el conjunto (a. o Ejemplo A.7 a) Calcular cos(2x) dx.1. b) la funci´n g[φ(x)]φ (x) tiene una primitiva y adem´s o a g[φ(x)]φ (x) dx = G[φ(x)] + C. Para ello hacemos: cos(2x) dx = b) Calcular la tabla: ecos x sen x dx = t = cos x dt = − sen dx =− ey dy = −ey + C = −ecos x + C y = 2x dy = 2 dx = cos(y) 1 1 dy = sen y + C = sen(2x) + C 2 2 2 ecos x sen x dx. 14. e o Integraci´n por cambio de variable.´ A ANEXO: CALCULO DE PRIMITIVAS 1 dx = − cotan x + C sen2 x 1 √ dx = 1 − x2 1 dx = 1 + x2 arc sen x + C − arc cos x + C arctan x + C − arcctg x + C x2 ± 1 + C 76 9. 12. M´todos de integraci´n. Supongamos que sobre el conjunto T existe la primitiva de la funci´n g(t). A. g(t)dt = G(t) + C. o Teorema A. Demostraci´n: Basta notar que (G[φ(x)]) = G [φ(x)]φ (x) = g[φ(x)]φ (x).

Las integrales donde aparezcan las funciones log x. arc cos x. du(x) = aeax dx dv(x) = cos bx dx. o 77 Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a. b) existe la primitiva de u(x)v (x) y o se cumple que u(x)v (x) dx = u(x)v(x) − o en forma diferencial u(x)dv(x) = u(x)v(x) − v(x)du(x). b). sobre (a. log φ(x). b) y existe la primitiva de la funci´n v(x)u (x) en (a. entre otras donde tendremos que escoger como funci´n o u(x) a alguna de las funciones anteriores (ver ejemplo a).. sen(log x) dx y cos(log x) dx. Entonces. respectivamente. resolviendo la ecuaci´n respecto a I obtenemos: o b sen bx + a cos bx ax e + C. du(x) = aeax dx dv(x) = sen bx dx. Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores. Donde para 2. Utilicemos la integraci´n por partes: o xn log x dx = xn+1 n+1 = xn+1 log x − n+1 xn dx = n+1 = log x − 1 n+1 +C b) Calcular I = eax cos bx dx.2. encontrar las primitivas hay que utilizar la f´rmula de integraci´n por partes n veces tomando o o cada vez u(x) = (ax + b)n . v(x) = x n+1 tabla. potencias enteras de las funciones anteriores. (ax + b)n cos cx dx y (ax + b)n ecx dx. . v(x) = 1 sen bx b eax sen bx a − b b de la tabla. . (A. Utilicemos la integraci´n por partes: o I= eax cos bx dx = = eax sen bx dx.8 a) Calcular xn log x dx. du(x) = x dx n+1 dv(x) = xn dx. Integraci´n por partes..4. Como la integral no es de la tabla es necesario convertirla en una u(x) = eax . Juntando las dos f´rmulas anteriores concluimos que o eax sen bx a a2 + 2 eax cos bx − 2 I. u(x) = (ax + b)n−1 .3) v(x)u (x) dx. La integral eax sen bx dx es de la misma forma que la original as´ que volveremos a aplicar ı u(x) = eax .. Las integrales (ax + b)n sen cx dx. Las integrales de la forma eax sen bx dx. 3..2) Demostraci´n: Para probarlo es suficiente notar que [u(x)v(x)] = u (x)v(x) + u(x)v (x) y la o propiedad 1 del teorema A. Como la integral no es de la tabla es necesario convertirla en una de la 1 u(x) = log x.´ A ANEXO: CALCULO DE PRIMITIVAS A. (A. Ejemplo A.1. eax cos bx dx. I = eax cos bx dx = a2 + b 2 Algunas de las integrales que pueden ser calculadas utilizando la integraci´n por partes son: o 1. aplicar dos veces integraci´n por partes y resolver la ecuaci´n resultante respecto a I (ver o o ejemplo b). arc sen x. b b b de donde. u(x) = − 1 cos bx b I= eax cos bx a + b b integraci´n por partes: o eax sen bx dx = =− eax cos bx dx.

o sea. Li y Ki . i = 1.. + ··· + 2 mk + pk x + q k ) (x + pk x + qk ) donde Ai . y los factores x2 + pi x + qi . xp son las ra´ces reales de Qm (x). Li y Ki son ciertas constantes reales. Entonces. Bi . N´tese que el denominador e o com´ n coincide con (A.. y que el polinomio denominador o Qm (x) se puede factorizar de la siguiente forma Qn (x) = (x − x1 )n1 · · · (x − xp )np (x2 + p1 x + q1 )m1 · · · (x2 + pk x + qk )mk .4) donde x1 . (A. si Qm (x) tiene m ceros reales y simples.. Pn (x) se puede descomponer en las fracciones elementales simples: Qm (x) Pn (x) A1 A2 Am−1 Am = + + ··· + + . Ni .5) M1 x + N 1 Mm x + N m1 + ··· + 2 + ···+ + 2 1 m1 (x + p1 x + q1 ) (x + p1 x + q1 ) + (x2 L1 x + K 1 L mk x + K mk . (A. .5) con P n (x). Mi . si su factorizaci´n o es de la forma Qn (x) = (x − x1 )(x − x2 ) · · · (x − xm−1 )(x − xm ). No obstante es posible encontrar el coeficiente Ani de los sumandos correspondientes a uno de los ceros reales xi .9 Diremos que una funci´n racional f (x) = o o Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que Pn (x) Rk (x) = pn−m (x) + . ni ni −1 (x − xi ) (x − xi ) (x − xi ) utilizando la propiedad que x→xi l´ ım Pn (x)(x − xi )ni = A ni . la fracci´n simple ı o se puede descomponer en las siguientes fracciones Qm (x) elementales simples: Pn (x) = Qm (x) A n1 An1 −1 A1 + + ··· + + ···+ (x − x1 )n1 (x − x1 )n1 −1 (x − x1 ) + Bn p Bnp −1 B1 + + ··· + + ···+ np np −1 (x − xp ) (x − xp ) (x − xp ) (A.´ A ANEXO: CALCULO DE PRIMITIVAS 78 A. . Definici´n A.8) . Ni . si n < m..10 Supongamos que donde k < m. k no tienen ı Pn (x) ra´ces reales. o sea.4) y el numerador es un polinomio de grado a lo sumo n. a Igualando los coeficientes de ambos obtendremos un sistema de n ecuaciones con n inc´gnitas o que podemos resolver para encontrar los coeficientes indeterminados A i . Qm (x) Qm (x) Teorema A. el Ani de A ni Ani −1 A1 + + ··· + . Qm (x) (A. Qm (x) (x − x1 ) (x − x2 ) (x − xm−1 ) (x − xm ) (A.7) entonces. Integraci´n de funciones racionales. Bi . Luego comparamos u el polinomio numerador que se obtiene al sumar las fracciones m´s simples en (A. Pn (x) es una fracci´n simple. Mi ..6) Como consecuencia de lo anterior.2. o Pn (x) es simple si el grado del poliQm (x) nomio Pn (x) es menor que el del polinomio Qm (x). Para determinar dichas constantes sumamos los t´rminos de la derecha. o sea.

.. Primero encontraremos las fracciones simples mas elementales: (x − 1)2 (x2 + 1) x (x − 1)2 (x2 + 1) = = A B Cx + D + + 2 (x − 1)2 x − 1 x +1 A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 . x−a B 1 B dx = + C.12 a) Calcular x2 Luego. − 3x + 2 (x − 1)(x − 2) x−1 x−2 x(x − 2) = 2. utilizando (A. Am se calculan por la f´rmula o Ak = l´ ım x→xk 79 Pn (x)(x − xk ) . Qm (x) k = 1. 2 x2 + px + q 2 4q − p 4q − p2 x dx.10) obtenemos x dx = x2 − 3x + 2 a) Calcular dx = − log |x − 1| + 2 log |x − 2| + C.11 (Primitivas de las fracciones simples m´s elementales) a 1) 2) A dx = A log |x − a| + C. si P n (xk ) = Qn (xk ) e para ciertos x1 . Primero encontraremos las fracciones simples mas elementales: − 3x + 2 x2 x x A B = = + .. En nuestro 7 Se supone que x2 + px + q no tiene ra´ reales. Dos polinomios de grado 3 son iguales si los coeficientes de las potencias x 3 . m.. x y x0 son iguales... 2. x dx. por lo que igualando dichos coeficientes obtenemos el sistema de ecuaciones: x3 x2 x1 x0 : B+C =0 : A − B − 2C + D = 0 : B + C − 2D = 1 : A−B +D = 0 1 A= 2 B=0 C=0 D = −1 2 cuya soluci´n es o Tambi´n es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman e n − 1 valores iguales en n + 1 puntos dados son id´nticamente iguales. ıces .9) obtenemos A = l´ ım x(x − 1) = −1. k (x − a) 1 − k (x − a)k−1 k > 1. xn+1 (distintos entre si).9) Teorema A. .´ A ANEXO: CALCULO DE PRIMITIVAS donde A1 .. D igualamos los polinomios de los numeradores: x = A(x2 + 1) + B(x2 + 1)(x − 1) + (Cx + D)(x − 1)2 .10) 3) M 2N − M p Mx + N 2x + p dx = log |x2 + px + q| + arctan + C.. (A.. x2 . utilizando (A. (x − 1)2 (x2 + 1) Para encontrar los coeficientes A. B. 7 (A.. es decir. . (x − 1)(x − 2) −1 2 + x−1 x−2 B = l´ ım x→1 x→2 Finalmente. (x − 1)(x − 2) Ejemplo A. entonces Pn (x) ≡ Qn (x) para todo x ∈ R. C.

donde f (− sen x. cos x). o e 2 2dt 1 + t2 1 − t2 cos x = 1 + t2 dx = 2t 1 − t2 . Integrales trigonom´tricas. cambio t = cos x f (sen x.13 Calcular la integral dx = sen x dx . cambio t = sen x f (sen x. 1 + t2 1 + t2 2 dt. sen x 2dt dx = 1+t2 2 cos x = 1−t2 1+t t = tan x 2 2t sen x = 1+t2 = x dt = log |t| + C = log tan + C. cos x) dx. Luego. e f (sen x. cos x) = −f (sen x. cos x) dx. − cos x) = −f (sen x. Luego. cos x) dx las cuales se En este apartado vamos a estudiar las integrales de la forma   t = tan x  2   sen x =      convierten en integrales racionales mediante la sustituci´n trigonom´trica t = tan x . sen x =− 1 x 1+t dt = − log +C = log tan +C. f (sen x.´ A ANEXO: CALCULO DE PRIMITIVAS 80 ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el resto de los valores tomarlos los m´s sencillos posibles: a 1 x=1: A= 2 x = −1 : 2A − 4B − 4C + 4D = −1 x=2: 5A + 5B + 2C + D = 2 x=0: A−B +D = 0 cuya soluci´n es o A= 1 2 B=0 C=0 1 D = −2 que coincide con la encontrada por el m´todo anterior. cambio t = tan x Ejemplo A.3. o Ejemplo A. e x 1 dx = (x − 1)2 (x2 + 1) 2 1 1 1 1 dx = − − − arctan x + C. Ellas son las siguientes: 1. cos x) dx. cos x). 1 + t2 f (sen x. cos x). (x − 1)2 x2 + 1 2(x − 1) 2 A. t 2 Existen varios tipos de integrales trigonom´tricas que se pueden racionalizar con cambios m´s e a sencillos. 3. cos x) dx = 2t 1 + t2 = f que es un integral de una funci´n racional. − cos x) = f (sen x. 2 1−t 2 1−t 2 x 2 dt t = cos x dx = − √1−t2 √ sen x = 1 − t2 cos x = t que coincide con el resultado obtenido al utilizar la sustituci´n t = tan o .14 a) Calcular la integral dx = sen x dx . donde f (sen x. Esta integral es del tipo 1. donde f (− sen x. 2.

3. 1 − t2 dt = t− t3 +C = sen x− 3 3 cos3 x dx = dt t = sen x dx = √1−t2 √ cos x = 1 − t2 sen x = t = c) Calcular la integral tan3 x dx. √ f (x. f (x. Esta integral es del tipo 2. Luego. sen3 x 1 +C. f (x. √ f (x. Luego. a2 − x2 ) dx A. cos2 t dt = sen3 t y = cos t sen t = 1− y2 dt = − √ dy cos t = y + C. Estas integrales irracionales se convierten en integrales trigonom´tricas mediante los cambios: e 1. 2 4 √ pero. Esta integral es del tipo 2. a2 − x2 ) dx. Esta integral es del tipo 1.4. x2 ± a2) dx y √ f (x. Las integrales √ f (x. a2 − x2) dx. cambio x = a sen t x2 − a2 ) dx. y f x. 2. x = a sen t dx = a cos tdt = a2 2x a2 a2 − x2 dx = cos2 tdt = a2 a2 t+ sen 2t + C. Integrales irracionales. x2 ± a2 ) dx. a2 x x arc sen + 2 a 2 x2 − a2 dx.´ A ANEXO: CALCULO DE PRIMITIVAS 81 b) Calcular la integral cos3 x dx. t = tan x 1 cos x = √1+t2 dt dx = 1+t2 t sen x = √1+t2 tan3 x dx = = t3 dt = 1 + t2 t− t dt = 1 + t2 = t2 1 tan2 x 1 tan2 x − log(1 + t2 ) + C = − log(1 + tan2 x) + C = + log | cos x| + C. Luego. sen 2t = 2sent cos t = 2 sen t 1 − sen2 t = a2 − x2 dx = b) Calcular la integral   x= √ a2 − x2 . cambio x = a tan t Ejemplo A. 1−y 2 = a2  a  sen t = −a2 x2 − a2 dx =  dx = − a cos t dt  sen2 t a2 y2 dt = (1−y 2 )2 4 y−1 1 1 1 a2 1 2y − + − +log dt = 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y+1 . cambio x = a sen t x2 + a2 ) dx.15 a) Calcular la integral a2 − x2 dx. n En este apartado vamos a estudiar las integrales de la forma ax+b cx+d dx. Luego. 2 2 2 2 2 A. f (x.4. por tanto a2 − x2 + C.1. Esta integral es del tipo 3.

x = a tan t dt dx = cos2 t 1 dt = cos3 t y = sen t cos t = dt = √ dy 1 − y 2 sen t = y + C. c ∈ (a. ax+b cx+d . x2 +a2 pero. Esta integral se racionaliza con el cambio t = 3 x + 1. Sea f : [a. a Teorema A. Luego. 2 El c´lculo de primitivas es necesario para calcular integrales definidas de funciones continuas. Luego.4.16 Calcular la integral √ dx √ . b] y a b b f (x) dx = Φ(x) a a = Φ(b) − Φ(a). b] → R a o continua en [a. F (x) = c f (t) dt. x x2 + a2 dx = 2 √ a2 x x + x 2 + a2 √ x2 + a2 + log +C = 2 + a2 4 2 x− x A. f (x) es integrable en [a. Las integrales f x. 3 1+ x+1 √ dx 3 dt t2 d t t= 3x+1 √ = 3 (t−1)dt+3 = t(t−2)+3 log(1+t)+C.2. obtenemos √ √ 3√ 3 x + 1( 3 x + 1 − 2) + 3 log(1 + 3 x + 1) + C. =3 = 2 dt 3 dx = 3t 1+t t+1 2 1+ x+1 √ de donde. n ax + b cx + d dx.17 Teorema fundamental del c´lculo y F´rmula de Newton-Leibniz.´ A ANEXO: CALCULO DE PRIMITIVAS pero. y = sen t = por tanto x 2 + a2 + a2 log x + 2 x2 + a2 +C. b]. b). . x2 + a2 dx = =a 2 1−y 2 = a2 a2 1 dt = (1 − y 2 )2 4 √ tan t 1+tan2 t y+1 2y a2 1 1 1 1 dt = + + + + log 2 2 2 (1−y) (1−y) (1+y) (1+y) 4 1−y y−1 = √ x . x = 2 √ x − x 2 − a2 x a2 √ log +C = 2 − a2 4 2 x+ x c) Calcular la integral x2 + a2 dx. (A. x 82 por tanto x 2 − a2 − a2 log x + 2 x2 − a2 +C. Las integrales del tipo f se racionalizan mediante el cambio t = Ejemplo A.12) siendo Φ(x) una primitiva cualquiera de f (x). deshaciendo el cambio t = 3 x + 1. y = cos t = x2 − a2 dx √ 1 − sen2 t = x2 − a2 − √ x2 −a2 .11) Adem´s. b] y una de ellas es la funci´n o x n x. (A. Esta integral es del tipo 3. Entonces f tiene primitiva en [a. n ax + b cx + d dx.

Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante las siguientes operaciones elementales: 1..  (B.  . Un sistema compatible que tiene una unica soluci´n se llama determinado ´ o y si tiene infinitas soluciones indeterminado. . 2. .. xm tales que se cumplan todas y cada una de las ecuaciones del sistema (B.1) no tiene soluci´n decimos que es o o un sistema incompatible.. n) est´n colocados los coeficientes a ij (j = 1.  .. . Multiplicar por una constante no nula una ecuaci´n cualquiera. .  .. .2)  . . 2. De esta forma e e o la matriz asociada al sistema (B.. Multiplicar por una constante no nula una fila cualquiera. o e u o Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas) las operaciones anteriores tienen su an´logo al operar con las matrices. Si existen dichos valores diremos que el sistema tiene soluci´n. . an1 an2 an3 · · · anm bn la matriz a13 · · · a1m a23 · · · a2m . . Intercambiar dos filas. .1).1.1) tendr´ la forma a   a11 a12 a13 · · · a1m b1  a21 a22 a23 · · · a2m b2    (B. . . . Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones.. a El sistema de ecuaciones (B. . x2 . Diremos que un sistema de n ecuaciones y m inc´gnitas es un sistema lineal si dicho sistema o tiene la forma:   a11 x1 + a12 x2 + a13 x3 + · · · + a1m xm = b1    a21 x1 + a22 x2 + a23 x3 + · · · + a2m xm = b2 (B. A  a11 a12  a21 a22   . .3) Un sistema lineal de la forma (B.. o Reemplazar una ecuaci´n por la suma de ´sta mas un m´ ltiplo de cualquier otra ecuaci´n. .. . . .1).. . . Intercambiar dos ecuaciones.1) es compatible si existen los valores de x 1 .1) est´ completamente caracterizado por su matriz asociada que no a es m´s que la matriz en cuya fila i (i = 1. .    an1 x1 + an2 x2 + an3 x3 + · · · + anm xm = bn Una matriz de dimensiones n×m no es m´s que una “caja rectangular” con n filas y m columnas.  . . ´ Anexo: Algebra lineal Sistemas lineales y matrices. y se denomina matriz ampliada del sistema. . De forma que a cada una a le corresponden las siguientes operaciones por filas 1. . 3. . . . B.´ B ANEXO: ALGEBRA LINEAL 83 B. . an1 an2   . . m) a a y el t´rmino independiente bi correspondientes a la i-´sima ecuaci´n del sistema (B.1) . . . 2.. 2. an3 · · · anm  se le denomina matriz de coeficientes del sistema. Si un sistema lineal de la forma (B.

4) . 84 Reemplazar una fila por la suma de ´sta mas un m´ ltiplo de cualquier otra fila. Por el contrario las e ´ ´ formas escalonadas reducidas son unicas. Si exigimos ahora que los elementos gu´ ıas ıas donde sean todos iguales a 1. o En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente de cero. Definiremos elemento gu´ de una fila al primer elemento (por la izquierda) no nulo de la fila. Dichas posiciones se denominan pivotes y las columnas donde se Las matrices escalonadas tienen  ∗ ∗  0 ∗   0 0 0   0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 ∗ ∗ 0 0 ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗    . ıa o t´ ıpicamente la forma:   ∗ ∗ ∗ ∗  ∗ ∗ ∗ ∗    0 ∗ ∗ . Formas escalonadas y el algoritmo de reducci´n por filas. 2.2. Utilizando las formas escalonadas a anteriores (B. (B. Es importante recordar que las o operaciones elementales de filas son reversibles y por tanto las operaciones elementales descritas no cambian la soluci´n del sistema original de ecuaciones. es decir se cumple el siguiente teorema: ´ Teorema B.4) tenemos que sus correspondientes formas reducidas son:     1 0 0 0 0 ∗ 1 0 ∗ ∗ 0 0 ∗  0 1 0 0 0 ∗   0 1 ∗ ∗ 0 0 ∗       0 0 0 0 1 0 ∗ . Todas las filas no nulas est´n por encima de las nulas.5)      0 0 0 1 0 ∗   0 0 0 0 0 1 ∗  0 0 0 0 1 ∗ 0 0 0 0 0 0 0 Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una matriz con forma escalonada no teniendo siempre ´sta ultima una forma unica. 3. a El elemento gu´a de cada fila se encuentra siempre en una columna a la derecha del elemento ı gu´ de la fila anterior.1 Cualquier matriz es equivalente por filas a una unica matriz con forma escalonada ´ reducida.   (B. ıa Debajo de cada elemento gu´ s´lo puede haber ceros. y que adem´s sean los unicos elementos diferentes de cero de la columna a ´ entonces diremos que la matriz escalonada est´ en forma reducida. e u Las operaciones anteriores se denominan operaciones elementales de filas. o B. Una consecuencia del teorema anterior es que los elementos gu´ est´n siempre en la misma ıas a posici´n en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transo formaciones elementales de fila.     ∗  0 0 0 0 0 0 denota a los elementos gu´ de cada fila.  0 0 1 0 0 ∗ . Diremos que dos matrices son equivalentes por filas si a cualquiera de ellas la podemos transformar en la otra utilizando s´lo operaciones elementales de filas.´ B ANEXO: ALGEBRA LINEAL 3. ıa Diremos que una matriz est´ en forma escalonada si: a 1.

o La soluci´n de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz o asociada al sistema. Si el pivote no es uno dividimos por su valor para que lo sea. Para obtener la matriz en forma escalonada realizamos lo siguiente: Subproceso hacia abajo. La soluci´n o de un sistema viene dada al escribir el valor de las variables principales. 4. 2. si es preciso. 3. Comenzando por el primer pivote de la derecha creamos. Este proceso consta de cuatro pasos: 1. Se comienza por la primera columna de la izquierda (generalmente es una columna pivote) y se selecciona un elemento diferente de cero. Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda. Este proceso consta del siguiente paso: 5. las cuales pueden venir expresadas en funci´n de las variables libres. Las variables correspondientes a las columnas pivote se denominan variables principales o b´sicas.´ B ANEXO: ALGEBRA LINEAL 85 encuentran se denominan columnas pivotes. Esta fase se le denomina fase hacia abajo o subproceso hacia abajo. a Se coloca el elemento seleccionado en el extremo superior izquierdo intercambiando. mediante operaciones elementales de filas. B.6) Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente: Subproceso hacia arriba. La primera consiste en transo formar una matriz cualquiera en una equivalente por filas con forma escalonada. ceros encima del mismo. As´ por ejemplo ı. las filas de la matriz hasta que dicho elemento se encuentre en la posici´n de pivote. o Utilizando las operaciones elementales de filas crear ceros debajo del pivote. o .3. Para ello primero transformamos la matriz en una equivalente por filas que tenga forma escalonada o escalonada reducida. pivote ↓  ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗   0 0 0 0 ∗   0 0 0 0 0 0 0 0 0 0 0 ↑ ↑ ↑ ↑ columnas pivote Algoritmo de reducci´n por filas. A la segunda parte se le denomina fase hacia arriba o subproceso hacia arriba. La segunda parte consiste en transformar la forma escalonada en la forma reducida. o El algoritmo de reducci´n por filas consta de dos fases (partes). Tapamos la fila (o filas si hay m´s de una) con la posici´n pivote creada en los pasos antea o riores (1-3) y aplicamos los pasos 1-3 a la submatriz que nos queda (constituida por las filas restantes). a El significado de una variable libre es que dicha variable puede tomar cualquier valor. Este paso se repite hasta que no queden m´s filas no nulas. Soluci´n de un sistema de ecuaciones lineales. El resto de las variables se denominan variables libres. a ∗ ∗ ∗ ∗ 0    .   (B. Este ser´ el primer pivote.

Vectores de Rn Un vector de Rn no es m´s que un conjunto de n n´ meros ordenados de la forma a u   x1  x2    x =  . . Por ejemplo. yn      xn Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.4) son compatibles siendo el correspondiente a la primera matriz indeterminado (tiene dos variables libres) y el segundo determinado (no tiene variables libres). .. x4 obtenemos diferentes valores de x1 .. Por ejemplo. xn = yn .  . Por el contrario el sistema correspondiente a la matriz   ∗ ∗ ∗ ∗ ∗ ∗  0 ∗ ∗ ∗ ∗ ∗     0 0 0 0 (B. . x5 .  . Los valores x1 ..4.     0 0 0 0 0 0 0 0 0 0 0 0 0 es incompatible al ser la ultima columna una columna pivote. ıa o B. xn es decir un vector es una matriz de componentes) del vector x. xn se denominan coordenadas (o que dos vectores son iguales si todas sus componentes son   y1 y2 . . Dicha matriz representa un sistema de 5 ecuaciones con 6 inc´gnitas. Las variables principales ser´n x 1 . x6 y las libres x3 .6). donde x1 . x2 . o sea. Diremos iguales. De o a la forma de la matriz observamos que x5 .. n × 1. al tener la fila ´ (0 0 0 · · · 0 ) (recordar que denotaba al elemento gu´ que por definici´n es diferente de cero). xn son n´ meros reales.1. no existe ninguna fila de la forma (0 0 0 · · · 0 α) con α diferente de cero.´ B ANEXO: ALGEBRA LINEAL 86 Por ejemplo. x4 . o sea  x1  x2  x=y ⇐⇒  . x4 . Es decir fijando diferentes valores de x3 . el sistema (x1 depende de la variable libre x3 )    1 0 −5 1  x1 = 1 + 5x3  0 1 0 4  tiene la soluci´n o x2 = 4 (B.. ...     =   ⇐⇒ x1 = y1 . .2 Un sistema de ecuaciones lineales en compatible si y s´lo si la primera columna de o la derecha de la matriz ampliada del sistema no es una columna pivote. consideremos la matriz del sistema (B.8) ∗ ∗ . x2 dependen tanto de los t´rminos independiente como de las variables e libres x3 . u  . los sistemas correspondientes a las dos matrices (B. B. . x2 . Si el sistema es compatible entonces tiene soluci´n unica (sistema compatible determinado) si no hay ninguna variable libre y tiene infinitas o ´ soluciones (sistema compatible indeterminado) si existe al menos una variable libre. Vectores y ecuaciones matriciales. o lo que es igual. x6 est´n completamente determinados por los t´rminos a e independientes (recordar que la ultima columna est´ compuesta por los t´rminos independientes ´ a e de las ecuaciones) pero x1 ...4.7)  x3 es libre 0 0 0 0 De todo lo anterior deducimos el siguiente teorema de existencia y unicidad: Teorema B. .

al conjunto de todos los vectores de la forma L(a1 . a2 . o sea.. + . respectivamente si x se expresa de la forma u x = α 1 a1 + α 2 a2 + · · · + α n an . es decir..     w1 αx1  w2   αx2      w = αx =⇒  . a2 . . Definiremos espacio generado por los vectores a1 . an . .. Definiremos la suma de dos vectores u x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y. 2... ... w vectores de Rn y α. .. n´ meros reales. . y. Es f´cil o a comprobar que la ecuaci´n vectorial anterior tiene la misma soluci´n que el sistema de ecuaciones o o lineales cuya matriz ampliada tiene la forma [a1 a2 · · · an b]. u Definiremos una ecuaci´n vectorial a la ecuaci´n de la forma o o x1 a1 + x2 a2 + · · · + xn an = b. .. an ) si y s´lo si el sistema [a1 a2 · · · an b] es compatible. an de Rm y lo denotaremos como span (a1 . xn son las inc´gnitas que se quieren encontrar.. ... quienes quiera sean α1 .  =  . an ) al subespacio de Rm constituido por todos las combinaciones lineales de los vectores a1 .   .. Operaciones con vectores. ..   . 3.2. a2 .. Adem´s b est´ en span (a1 . an ) = α1 a1 + α2 a2 + · · · + αn an .  =  . donde b es un vector dado de Rm y x1 . . o sea. x2 . . . αn . z..   . . an de Rm con o pesos α1 .... . . β n´ meros reales.... a a o ..   .  .  .  . 6. wn αxn Sean x.. . . an ) = span (a1 ....         x1 + y1 y1 x1 z1  z2   x 2   y 2   x 2 + y 2          z = x+y =⇒ .. 4. 5.. x+y = y+x (x + y) + z = x + (y + z) x+0 = 0+x = x y definiremos la multiplicaci´n de un vector x por un escalar (n´ mero) α al vector w cuyas como u ponentes se obtienen al multiplicar las componentes de x por α.´ B ANEXO: ALGEBRA LINEAL B. αn n´ meros reales..  =  . 8.. . an ) = L(a1 .4.. zn xn yn xn + yn x + (−x) = (−x) + x = 0 donde (−x) denota al vector (−1) x α(x + y) = αx + αy (α + β)x = αx + βx α(βx) = (αβ)x 1x = x Diremos que un vector x de Rm es combinaci´n lineal de los vectores a1 .   . 7.. 87 Dichas operaciones cumplen las propiedades 1.

o Teorema B. .  ..4. Una consecuencia de este teorema es que la ecuaci´n A x = b tiene soluci´n si y s´lo si b es una o o o combinaci´n lineal de las columnas de A. an ). an . . o sea.  = x1 a1 + x2 a2 + · · · + xn an .. 3) A tiene una posici´n pivote en cada fila.  =  .. a2 . La ecuaci´n o matricial Ax = b tiene la misma soluci´n que la ecuaci´n vectorial o o x1 a1 + x2 a2 + · · · + xn an = b.3 Sea A una matriz m×n con columnas a1 . a2 .´ B ANEXO: ALGEBRA LINEAL B. Las siguientes tres afirmaciones son equivalentes: 1) Para todo b vector de Rm . a2 . ..  . . o 88 Sea A una matriz m × n con columnas a1 . Rm = Span(a1.. 2) A(α x) = α (A x) .   .. o o 2) Las columnas de A generan Rm . an (vectores de Rm ) y x un vector de Rn .3.. . .. a2 . . an y b un vector de Rm . a2 . . la cual a su vez tiene la misma soluci´n que el sistema cuya matriz ampliada tiene la forma o [a1 a2 · · · an b]. x. la ecuaci´n A x = b tiene soluci´n. .  . La ecuaci´n Ax = b.4 Sea A una matriz m×n con columnas a1 . o Regla para el c´lculo de Ax.  ..  .. . an . xn Teorema B. Para calcular la i−´sima componente del vector Ax (si ´ste a e e est´ definido) tenemos que sumar los productos de la i−´sima fila de A por las coordenadas de x.  . a e o sea.. Definiremos la multiplicaci´n de una matriz A de m × n por un vector x de R n al vector z de Rm o definido por   x1  x2    z = Ax = [a1 a2 · · · an ]  . .5 Sea A una matriz m × n con columnas a1 ...      a11 a12 a13 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn  a21 a22 a23 · · · a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn        .  ... . am1 am2 am3 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn Teorema B.. . Las siguientes propiedades son v´lidas: u a 1) A (x + y) = A x + A y. . . . y vectores de Rn y α un n´mero real cualquiera. .

Adem´s se cumple que el sistema homog´neo tiene soluciones no trio a e viales si y s´lo si el sistema tiene al menos una variable libre.. si o existe un n´ mero real α tal que a1 = αa2 o a2 = αa1 . Dependencia e independencia lineal. sp cuyo n´ mero coincide con el de las u variables libres del sistema. Para obtener los vectores s1 . El segundo vector s2 se obtiene del vector x anterior al sustituir la segunda a variable libre por 1 y las dem´s por cero. 89 Conjunto soluci´n de los sistemas lineales.. e Teorema B. · · · . ap } de dos o m´s vectores es linealmente dependiente a si y s´lo si al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s.. a ı Por ejemplo si la soluci´n x de A x = 0 viene dada por (dos variables libres x 2 . Entonces el conjunto soluci´n del sistema no o o o m homog´neo A x = b es el conjunto de todos los vectores de R de la forma e x = p + xh . an de Rn se denomina linealmente independiente si la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. sp se puede hacer lo siguiente: 1) Escribir el vector soluci´n x expresando las variables principales en funci´n de las libres.5.. .. . Dicho sistema siempre tiene la e soluci´n trivial x = 0. donde xh es la soluci´n general del sistema homog´neo correspondiente A x h = 0.7 Un conjunto S = {a1 . es decir. o Todo sistema lineal de m ecuaciones con n inc´gnitas se puede escribir en forma matricial o A x = b donde la matriz de coeficientes A es una matriz m × n. x2 .. s2 . .9) B.4.´ B ANEXO: ALGEBRA LINEAL B. a2 . Sea p una o soluci´n de A x = b (soluci´n particular). xn no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 a1 + x2 a2 + · · · + xn an = 0. El sistema lineal A x = 0 se denomina sistema homog´neo. o sea la matriz A tiene al menos o una columna que no es pivote. s2 . an se denomina linealmente dependiente si existen los valores x1 . entonces  x2  = x2  1  +x3  0  x2 x3 x3 0 1 s1 s2 2. o e (B. ´ o Un conjunto de vectores a1 . Teorema B. ..4.. . u .. El sistema lineal A x = b con b = 0 se denomina sistema no homog´neo. Un conjunto de vectores a1 .. x3 ) o  3   3     1  1 x1 x − 2 x3 −2 2 2 2   . o o 2) El vector s1 se obtiene del vector x anterior al sustituir la primera variable libre por 1 y las dem´s por cero. El conjunto soluci´n de un sistema homog´neo se escribe como el conjunto de todas las o e combinaciones lineales de ciertos vectores s1 .. x es un vector de R n y b es un vector de Rm .6 Supongamos que A x = b tiene soluci´n para cierto b de R m . a2 . tiene como unica soluci´n la trivial x1 = · · · = xn = 0....4. 1.. a2 . Y as´ sucesivamente. o o a Como consecuencia del teorema anterior se deduce que: 1) Dos vectores a1 y a2 son linealmente dependientes si y s´lo si son proporcionales.

10) B. Definiremos el producto de una matriz por un escalar a la matriz cuyas columnas coinciden con las de A multiplicadas por α. Sean A = [a1 a2 · · · an ] y B = [b1 b2 · · · bn ] matrices de dimensiones m×n. an } de dos o m´s vectores de Rm con alguno de los a vectores ai = 0 (1 ≤ i ≤ n) es necesariamente un conjunto de vectores linealmente dependientes. . b2 . 3. a2 . es decir: C = A + B = [a1 a2 · · · an ] + [b1 b2 · · · bn ] = [a1 + b1 a2 + b2 · · · an + bn ]. a2 ... β n´meros reales.. a12 a22 . . . 6.. . El elemento a ij de una matriz A es el que se encuentra situado en la intercepci´n de la fila i con la columna j: o columna j ↓ · · · a1j · · · a1n · · · a2j · · · a2n . (α + β)A = α A + β A. o aj = x1 a1 + x2 + a2 + · · · + xj−1 aj−1 .. an son vectores linealmente dependientes y a1 = 0 entonces para cierto j > 1 el vector aj es combinaci´n lineal de los anteriores. .      . .´ B ANEXO: ALGEBRA LINEAL 90 2) Si a1 . a2 .     (B. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. . a2 . . am1 am2  a11 a21 . ..5.1. . . . an necesariamente cada vector es combinaci´n de los anteriores. . NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes a 1 .... . es decir: αA = α[a1 a2 · · · an ] = [αa1 αa2 · · · αan ]. . ..  . · · · amj · · · amn      fila i →  ai1 ai2   . .9 Un conjunto S = {a1 . . . .. · · · aij · · · ain . es decir. A + B = B + A.. . . o Teorema B.. . B. bn son vectores de Rm . α(β A) = (α β) A. o o en t´rminos de los elementos matriciales: C ≡ ||cij || = ||aij +bij ||. Definiremos la suma de dos matrices A y B a la matriz C cuyos vectores columnas coinciden con la suma de los correspondientes vectores columnas de A y B. Vamos a estudiar las operaciones elementales de las matrices. Entonces: u 1. 4. .. . 2. . A + 0 = 0 + A = A.. a2 .8 Un conjunto S = {a1 . . Teorema B.. . B y C matrices de m × n y α.10 Sean A. . an } de dos o m´s vectores de Rm con n > m es a necesariamente un conjunto linealmente dependiente. 5. ´ Algebra de matrices. . . Teorema B. α(A + B) = αA + αB. Sea α un n´ mero real cualquiera e u y A = [a1 a2 · · · an ] una matriz de m × n.. donde a1 . . . donde 0 ≡ ||0|| es la matriz nula.5. an y b1 . .. (A + B) + C = A + (B + C).. o bien α A ≡ α||aij || = ||α aij ||. Suma de matrices y multiplicaci´n por un escalar.. .

Im · A = A · In = A. (B + C) · A = B · A + C · A. (A · B)T = B T · AT .11 Sean A de m × n. o 91 Sea A = [a1 a2 · · · an ] matriz de m × n y B = [b1 b2 · · · bp ] de n × p. B una matriz de dimensiones apropiadas para que est´n definidas e las operaciones y α un n´mero real. Multiplicaci´n de matrices. la matriz transpuesta de A. 4. (α A)T = α AT . 3.2. 2. 1 n−1 n Como consecuencia de este teorema tenemos que . Teorema B. 2. (A · B) · C = A · (B · C). 5. 6. o elemento a elemento: ||(A · B)ij || = n n (B. (AT )T = A. 2. B. k=1 Una interpretaci´n de la multiplicaci´n de matrices se puede dar a partir de la composici´n de las o o o n m aplicaciones lineales: Sea T : R −→ R una aplicaci´n lineal con matriz A de m×n y S : Rp −→ Rn o una aplicaci´n lineal con matriz B de n × p. k=1 N´tese que cada columna de A · B es una combinaci´n lineal de las columnas de A: o o n n A · B = [Ab1 Ab2 · · · Abp ] = [ bk1 ak k=1 k=1 bk2 ak · · · bkp ak ].´ B ANEXO: ALGEBRA LINEAL B. es la matriz de n × m cuyas filas coinciden con las columnas de A. entonces a la aplicaci´n Q : R p −→ Rm definida por o o Q(x) = T (S(x)) (composici´n de T y S) le corresponde la matriz A · B de m × p. 3. o Dada una matriz A de m × n.5. k veces donde A0 ≡ In .3. β n´meros reales. donde Ik es la matriz identidad de k × k. 4. (A1 · A2 · · · An )T = AT · AT · · · AT . (A + B)T = AT + B T . 1.. α(A · B) = (α · A) · B. o Teorema B. Es importante recordar que la multiplicaci´n de matrices no es conmutativa. entonces AT = ||aji ||. Entonces: u 1..). Se define la matriz producto C = A · B a la matriz de m × p definida por: A · B = A[b1 b2 · · · bp ] = [Ab1 Ab2 · · · Abp ]. Entonces: u 1. A · 0 = 0 · A = 0. A · (B + C) = A · B + A · C. que denotaremos por A T .12 Sean A de m×n. Si A es una matriz cuadrada n × n y k es un n´ mero entero no negativo (k = 0. Si A = ||a ij ||. Transposici´n de matrices. donde 0 ≡ ||0|| es la matriz nula. es decir para cualo quiera sean las matrices A y B tenemos que A · B = B · A . .5. u definiremos la potencia k− ´sima de A por la f´rmula e o Ak = A · A · · · A ·In .11) aik bkj . B y C matrices de dimensiones apropiadas para que est´n e definidas las operaciones y α.

´ B ANEXO: ALGEBRA LINEAL B. AT es invertible y (AT )−1 = (A−1 )T . o Teorema B. entonces A−1 = 1 ad − bc d −b −c a . (A · B)−1 = B −1 · A−1 . Una matriz elemental de n × n es aquella que se obtiene al realizar una operaci´n elemental o de filas sobre la matriz identidad de n × n. (A−1 )−1 = A. la matriz elemental e o correspondiente al intercambio de la 1 y 2 filas de una matriz de 3 × 3 ser´ a   0 1 0  1 0 0 .14 Sea A una matriz cuadrada de n × n invertible. 3. Entonces el sistema A x = b es compatible determinado para cualquiera sea b vector de R n . La inversa de una matriz cuadrada. Matrices elementales. E1 = 0 0 1 la que corresponde a cambiar la 3 fila por la 3 m´s α a  1 0  0 1 E2 = α 0 veces la primera ser´ a  0 0 .5. Entonces: 1. .13 Sea A una matriz cuadrada de 2 × 2 invertible A= a b c d .5. Si existe una matriz C tal que A · C = In . El n´ mero ad − bc se llama determinante de la matriz A de 2 × 2 y se le denota por det A.15 Sean A y B matrices cuadradas de n × n invertibles. es decir son las que se obtienen al intercambiar dos filas. 0 0 1 Se puede comprobar que si multiplicamos la matriz E1 por una matriz cualquiera A de 3 × p la matriz E1 · A coincide con la matriz que se obtiene a partir de A al intercambiar la 1 y 2 filas. Las matrices A para las cuales existe la inversa A−1 se denominan invertibles. x=A Teorema B. 92 Sea A una matriz de n × n. Por ejemplo. y su soluci´n se expresa por la f´rmula o o −1 b. al multiplicar por una constante no nula una fila cualquiera y al reemplazar una fila por la suma de ´sta mas una combinaci´n lineal de cualquier otra. Como consecuencia de este teorema tenemos que (A1 · A2 · · · An )−1 = A−1 · A−1 · · · A−1 . 2.5. ´ Teorema B. n n−1 1 B. N´tese u o que una matriz A de 2 × 2 tiene inversa si y s´lo si det A = 0. 1 y la que multiplica la 2 fila por el n´ mero α ser´ u a   1 0 0 E3 =  0 α 0  . entonces a C se le denomina matriz inversa de A y se le denota A −1 . C · A = In . Si A es invertible entonces A−1 es unica.4.

A b 2 = e2 . Las o siguientes expresiones son equivalentes: 1. A[b1 · · · bn ] = [A b1 · · · A bn ] = [e1 · · · en ] = In .17 (Teorema de inversi´n de matrices) Sea A una matriz cuadrada A de n × n. Es decir al multiplicar una matriz elemental E de m × m por A de m × n se obtiene una nueva matriz E · A que coincide con la matriz que se se obtiene al realizar la operaci´n elemental sobre A y dicha matriz o E se obtiene realizando sobre la matriz identidad Im de m × m la misma operaci´n elemental que o se quiere realizar sobre A. 3. o ´ Existe un C tal que A · C = I. 7. −α 0 1 y la de E3 es  −1 E3 =  0  1 0 0 1 α 0 0 1  0 . Construimos la matriz [A In ]. Es decir es equivalente a resolver las n ecuaciones A b 1 = e1 . A es invertible.´ B ANEXO: ALGEBRA LINEAL 93 An´logamente. Teorema B. Por ejemplo. · · · A b n = en .. o sea. Puesto que todas las operaciones elementales son invertibles ello implica que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz identidad Im la operaci´n inversa. o sea. La inversa de E2 es o   1 0 0 −1 E2 =  0 1 0  . en son las columnas de la matriz identidad. la inversa de E1 es E1 . Existe un D tal que D · A = I. Como consecuencia de este teorema se tiene el siguiente algoritmo para calcular A −1 : Dada la matriz A de n × n invertible: 1.  Teorema B. . La ecuaci´n A x = 0 solo tiene la soluci´n trivial.. 2. E2 · A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m´s α a a veces la 1 fila y E3 · A coincide con la matriz que se obtiene al multiplicar por α la 2 fila. 2. N´tese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que o A · B = I. Ello implica que A ∼ Ek · Ek−1 · · · E1 · A = In . b es un o o elemento del subespacio generado por las columnas de A (la soluci´n de A x = b es unica). . A es equivalente por filas a la matriz identidad In de n × n. 5..16 Una matriz cuadrada A de n × n es invertible si y s´lo si A es equivalente por o filas a la matriz identidad In de n × n en cuyo caso toda secuencia de operaciones elementales que reducen A a In . Luego A = (Ek · Ek−1 · · · E1 )−1 lo cual implica que A−1 = Ek · Ek−1 · · · E1 · In . 4. (Las columnas de A son linealmente o o independientes. reducen In a A−1 . entonces [A In ] ∼ [In A−1 ]. 6. (A tiene n posiciones pivote) A es un producto de matrices elementales. donde e1 . Reducimos por filas la matriz A a In .) La ecuaci´n A x = b tiene al menos una soluci´n para cada b vector de R n .

. . · · · anj−1 anj+1     . . Utilizando esta notaci´n tenemos que la definici´n anterior se puede reescribir de la o o forma: det A = a11 C11 + a12 C12 + · · · + a1n C1n . · · · ai−1n · · · ai+1n . · · · anj−1 anj ai−1j+1 · · · ai−1n aij+1 · · · ain ai+1j+1 · · · ai+1n . . . Sea A una matriz n×n (n ≥ 2). . .  .  . . . . B = A−1 . . a1n a2n . a12 a22 . . . 94 Una consecuencia de este teorema es que si A · B = I o B · A = I. . o Sea A una matriz cuadrada columna j ↓ a1j−1 a1j a2j−1 a2j . . . .  ai−11 ai−12 Aij =   ai+11 ai+12   .´ B ANEXO: ALGEBRA LINEAL 8. .. ..13). . . .  . . . . anj+1 · · · ann · · · a1n . .1. . . . . ··· ··· .  · · · ai−1j−1 ai−1j · · · aij−1 aij · · · ai+1j−1 ai+1j .. . . an1 an2  a11 a21 . . a1j+1 a2j+1 .6. . an1 an2       ai−11 ai−12  ai2 fila i →  ai1   a  i+11 ai+12  . .  .12) que coincide con el determinante definido en el cap´ ıtulo anterior (teorema B. . . (B. . . . Determinantes. . . · · · ann  se obtiene a partir de A si quitamos la fila i y la columna · · · a1j−1 a1j+1 . . . o sea  a11 a12  . . ..13) Denotaremos por Aij a la submatriz que j. .. Usualmente a la cantidad (−1)i+j det Aij se le conoce como cofactor (o menor) asociado al elemento aij . . Definici´n de determinante de una matriz cuadrada. . que se conoce como desarrollo del determinante de A por su primera fila. . . . . .       (B.. .. B. . ··· ··· . . donde suponemos que det a = a si a es un n´ mero real cualquiera.6. El determinante det A de la matriz A es la suma de los t´rminos e ±a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes submatrices obtenidas eliminando la fila 1 y la columna j. . B. AT es invertible.           . . . . · · · ai−1j−1 ai−1j+1 · · · ai+1j−1 ai+1j+1 . u Utilizando la definici´n anterior obtenemos para una matriz 2 × 2 el resultado: o det A = a11 a12 a21 a22 = a11 a22 − a21 a12 . M´s exactamente: a det A = a11 det A11 − a12 det A12 + · · · + a1n (−1)n+1 det A1n .. . . entonces A y B son invertibles y A = B −1 .

. . .. Luego. . det B = det(E · A) = α det A donde α =  1 si E es del tipo E3 A = I es la matriz identidad y por tanto det I = 1. . . entonces det E = α. .2. la matriz B = E3 · A se obtiene al reemplazar una fila de A por la suma de ´sta e mas un m´ltiplo de cualquier otra fila. 2. det A = a11 · a22 · · · ann · det A = a1j C1j + a2j C2j + · · · + anj Cnj . . · · · r ain .. . Las dos f´rmulas anteriores se conocen como desarrollo del determinante de A por su i−´sima fila o e y desarrollo del determinante de A por su j−´sima columna. Si E3 es la matriz que reemplaza una fila por la suma de ´sta mas un m´ltiplo de cualquier e u otra fila.. u   −1 si E es del tipo E1 r si E es del tipo E2 Adem´s. Es conocido de apartados anteriores que cualquier matriz A se puede. . a12 . . e Teorema B. . =r ai1 . es decir el determinante de cualquier matriz elemental vale o −1 o r o 1 en dependencia si dicha matriz es del tipo E 1 . . . Sea B una matriz que se obtiene de A al realizar sobre A alguna de las operaciones elementales de filas y sea E la matriz elemental que realiza dicha operaci´n. an2 · · · ann r ai1 r ai2 . . . Como consecuencia del teorema anterior tenemos que si una fila es m´ ltiplo de un n´ mero r u u entonces tenemos: a11 . . Pero si A tiene n filas pivote entonces A es invertible. E2 ´ ´ o E3 .´ B ANEXO: ALGEBRA LINEAL Teorema B. . . . ai2 · · · ain . · · · a1n . det A = 0 y si una fila de A es proporcional a otra det A = 0..6. Si E1 es la matriz que intercambia dos filas. transformar en una matriz triangular superior U (forma escalonada). o 1. . o sea. Este razonamiento nos conduce al siguiente teorema. si a Entonces. .20 Sea A una matriz n × n. Por ejemplo. · · · ann a11 .18 Si A es de n × n entonces: 95 det A = ai1 Ci1 + ai2 Ci2 + · · · + ain Cin . . Adem´s si resulta a que la matriz A tiene n filas pivote entonces el determinante de A ser´ proporcional al det U . . Los dos teoremas que enunciaremos a continuaci´n son los m´s importantes de este apartado o a y nos permitir´n calcular los determinantes de matrices de orden alto (n ≥ 4) de manera eficiente. Propiedades de los determinantes. B. a si tenemos n filas pivote todos los pivotes son distintos de cero y det A = 0. . 3. an1 an2 En particular si una fila de A es nula. . . a Teorema B.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto de los elementos de la diagonal. . . mediante transformaciones elementales. . . Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera. . .21 Sea A una matriz n × n y sea AT su traspuesta. Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la palabra filas por columnas. respectivamente. entonces det A = det AT . . la matriz B = E2 · A se obtiene al multiplicar por r la correspondiente fila de A. . Teorema B. . respectivamente. la matriz B = E1 · A se obtiene al intercambiar dos filas de A. . an1 a12 · · · a1n .

. .. o u det A1 (ej ) det An (ej ) x1 = . an1 matriz n × n invertible. . . · · · anj−1 anj anj+1 · · · ann xn A x   b de R n el sistema    b1   .   . recordemos que “invertir” una matriz es equivalente a resolver n sistemas de ecuaciones de la forma: A b 1 = e1 . .   ..  ..3.23 Sean A y B matrices n × n. donde e1 . . . .  . . . . . . . . .  ai1   . .  .  .  . .  .24 Sea A  a11  . . . . Entonces para todo  · · · a1j−1 a1j a1j+1 · · · a1n x1 . . . .  . .    es compatible y tiene una unica soluci´n que viene dada por ´ o x1 = det A1 (b) ..  . . . . det A Es importante tener en cuenta que este m´todo es ineficiente para calcular la soluci´n de sistemas e o de m´s de 3 ecuaciones pues en el est´n involucrados determinantes. . . . .  . . Sea A una matriz n × n y b un vector cualquiera de R n . . . · · · A b n = en .      . . .  . . .    . . .  .. .. .  .  .      . . . . .  . det A x2 = det A2 (b) . xn = . .   =  bi . . . . .  . .   . · · · aij−1 aij aij+1 · · · ain   xi  . A =  ai1 · · · aij−1 aij aij+1 · · · ain  . en son las columnas de la matriz identidad. . . . es decir si A y b son e a     b1 a11 · · · a1j−1 a1j a1j+1 · · · a1n  . . . .6. . . .  ai1 · · · aij−1 bi aij+1 · · · ain Aj (b) =   . . . det An (ej ) = (−1)n+j det Ajn = Cjn . .  . . . . . . . det A ···. B. . pero det A det A det A1 (ej ) = (−1)1+j det Aj1 = Cj1 . . .   .. . · · · .    . .  .  . . an1 · · · anj−1 bn anj+1 · · · ann Teorema B.. Por tanto para calcular la j−´sima columna e de A−1 tenemos que resolver el sistema A x = ej cuya soluci´n es. . .    . Es recomendable resolver los a a sistemas por el m´todo de reducci´n de filas descrito en la primera parte del curso (ver Algoritmo e o de reducci´n por filas). bn b    .  .22 Una A n × n es invertible si y s´lo si det A es diferente de cero. . xn = det An (b) . A b 2 = e2 . .. .. . b =  bi  . Entonces det(A · B) = (det A) · (det B).. · · ·.. seg´ n la regla de Kramer. . .. o Teorema B. . .  . .´ B ANEXO: ALGEBRA LINEAL 96 Teorema B.  . . . . bn an1 · · · anj−1 anj anj+1 · · · ann entonces Aj (b) es la matriz a11 · · · a1j−1 b1 a1j+1 · · · a1n  . . Regla de Kramer. .. . o Finalmente.. . Denotaremos por Aj (b) a la matriz en la cual la j− ´sima columna de A est´ reemplazada por el vector b.  .

. Entonces  C11 C21 · · · Cj1 · · · Cn1  C12 C22 · · · Cj2 · · · Cn2   . Esta propiedad se conoce como la multilinealidad del determinante Teorema B. . .18 y B. Espacios Vectoriales. . tambi´n es un vector de V y se e cumple que: ..25 Sea A una matriz invertible n × n. x de Rn . C1n C2n · · · Cjn · · · Cnn       .1. . .. .     B..7.´ B ANEXO: ALGEBRA LINEAL luego la columna j de A−1 es 97   Todo esto nos conduce al teorema 1    det A  Cj1 Cj2 . . . . an . Definamos la aplicaci´n o lineal: T (x) = det([a1 · · · x · · · an ]) = det Ak (x). . z elementos arbitrarios de V y α. . w = x + y.7. Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B. vectores de V .. . . . .16 del cap´ ıtulo anterior. .. T (x + y) = det([a1 · · · x + y · · · an ]) = det([a1 · · · x · · · an ]) + det([a1 · · · y · · · an ]) = = T (x) + T (y).. . 2. . det A  C1i C2i · · · Cji . . . . . .. el vector suma. . . 1  .. k = 1. B. . En esta secci´n vamos a definir los espacios vectoriales que son la generalizaci´n de los eso o pacios Rn ya estudiados. Cni   . La aplicaci´n anterior es lineal pues para todo α de R y x. Es importante notar que este m´todo es ineficiente para calcular inversas (recurre a la regla de e Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A −1 aplicar el algoritmo descrito en el teorema B. y de V y multiplicaci´n “·” de un escalar (n´ mero real) α por un elemento de o u V . Entonces V es un espacio vectorial si u 1. y de R n : o T (α x) = det([a1 · · · α x · · · an ]) = α det([a1 · · · x · · · an ]) = α T (x). n.  .  donde Clm = (−1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. . .  −1 A =  . La matriz ||C lm || se denomina matriz adjunta de A. . .. y. Cjn   . . o Sea V un conjunto de elementos sobre el cual est´n definidas las operaciones suma “+” de a dos elementos x. Definici´n y ejemplos. Diremos que V es un espacio vectorial si se cumplen las siguientes propiedades (axiomas): Sean x. β n´ meros reales. Para todos x e y..20: Sea A = [a1 a2 · · · an ] una matriz de n × n con columnas a1 ..

el vector que se obtiene al multiplicar por un escalar. entero. Subespacios vectoriales. an n´ meros reales. 4. 2. 3. . son subespacios vectoriales “triviales” los subespacios H = {0} (conjunto que tiene como unico elemento.) El conjunto de las funciones continuas en el a o intervalo [a. q(x) = b0 + b1 t + · · · + bn tn . Adem´s. vectores de H. w = α · x.) Para V = Pn ..) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci´n por un o escalar es la definida en la secci´n 2. ´ 2. (α · p)(t) ≡ α p(t) = (αa0 ) + (αa1 )t + · · · + (αan )tn . tal que x + (−x) = (−x) + x = 0 donde (−x) es vector opuesto de x Para todo x vector de V . 2.}. B. El elemento nulo de V pertenece a H.) El conjunto de las matrices m × n cuando la suma de dos matrices y la multiplicaci´n por un o escalar es la definida en la secci´n 3. pn = 0. 1. (p + q)(t) ≡ p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn .. tambi´n es un vector de V y se cumple que: e a) b) c) d) α · (x + y) = α · x + α · y α · (β · x) = (αβ) · x (α + β) · x = α · x + β · x 1·x=x Ejemplos.) Para V = C[a. que denotaremos por C[a. para cualquier n = 0.b] . e . o 2. el vector w = x + y tambi´n es un vector de H. o sea..b] . Dicho espacio lo denotaremos por R m×n o 3. Pn = {pn (t) = a0 + a1 t + · · · + an tn .. x+y =y+x (x + y) + z = x + (y + z) 98 Existe un elemento “nulo” de V . Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma “+” y multiplicaci´n “·” que V .´ B ANEXO: ALGEBRA LINEAL a) b) c) d) 2. el nulo) y H = V (el mismo espacio vectorial).) Dado un espacio vectorial V .. Para todos x e y. b]. 1. H = Pk es un subespacio vectorial para todo k < n. que denotaremos por P n . Teorema B. a0 . o Ejemplos. H = Pn es un subespacio vectorial. 1.) El conjunto de los polinomios de grado a lo sumo n.2. . si y s´lo si a0 = a1 = · · · = an = 0. cuando la suma de dos funciones f y g y la multiplicaci´n o por un escalar α est´n dadas por a (f + g)(t) ≡ f (t) + g(t). 1. Sea V un espacio vectorial. tal que x + 0 = 0 + x = x Existe el elemento (−x) “opuesto” a x.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s´lo si o se cumplen las siguientes tres condiciones. (α · f )(t) ≡ α · f (t).7. u donde definiremos la suma de dos polinomios y la multiplicaci´n por un escalar de la siguiente o forma: p(t) = a0 + a1 t + · · · + an tn .

. v2 . vp de V con v1 = 0 es un conjunto a linealmente dependiente si y s´lo si para cierto j. B... v2 .. v2 .. b2 . entonces sus columnas a 1 . o sea. Teorema B. vp necesariamente cada vector es combinaci´n de los anteriores.. vp se denomina linealmente dependiente si existen los valores x1 . .. .. Un conjunto S = {v1 . Para estudiar la dependencia lineal de los vectores de V podemos utilizar los mismos teoremas estudiados en la secci´n 2 cambiando los espacios Rn por los correspondientes espacios vectoriales o V . an es una base de a .. Un conjunto de vectores v1 .. bp } de V es una base de H si i) B es un conjunto de vectores linealmente independientes ii) H = Span(b1 . En particular si H coincide con V . si existe un n´mero real α tal que v1 = αv2 o v2 = αv1 u 3.. v2 . o Los vectores linealmente independientes de un espacio vectorial juegan un papel fundamental en el estudio de los sistemas lineales gracias a la siguiente definici´n o Dado un subespacio vectorial H del espacio vectorial V diremos que el conjunto de vectores B = {b1 . x2 . si tomamos una matriz n × n invertible.. el vector w = α · x tambi´n es un vector de H. vp } de un espacio vectorial V . v2 .. v2 .. o sea si alguno de los vectores de S es el vector nulo entonces S es un conjunto de vectores linealmente dependientes. vj = x1 v1 + x2 v2 + · · · + xj−1 vj−1 . Dos vectores v1 y v2 de V son linealmente dependientes si y s´lo si son proporcionales. vp de un espacio vectorial V se denomina linealmente independiente si la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. Bases. v2 .. ... .. . . 99 Para todos x vector de H.7. NOTA: Esto no implica que si tenemos un conjunto de vectores linealmente dependientes v 1 . entonces B es una base de todo el espacio vectorial V .. el vector v j es combinaci´n lineal de o o los anteriores.. vp ) es un subespacio vectorial de V . es decir.. Dicho subespacio vectorial com´nmente se u denomina subespacio generado por los vectores v1 . .. B genera a todo H.. vp . xp no todos iguales a cero tales que se verifique la ecuaci´n vectorial o x1 v1 + x2 v2 + · · · + xp vp = 0. . Por tanto B = a1 .´ B ANEXO: ALGEBRA LINEAL 3. an ).28 El conjunto de dos o m´s vectores v1 . b2 . an son linealmente independientes y adem´s R n = Span(a1. v2 .. · · · .. 1 < j < p. tiene como unica soluci´n la trivial x1 = · · · = xp = 0.. ....3.. ´ o Un conjunto de vectores v1 . vp } de dos o m´s vectores de V con alguno de los vectores a vi = 0 (1 ≤ i ≤ p) es necesariamente un conjunto de vectores linealmente dependientes. es o decir. .... e Teorema B.. vp } de dos o m´s vectores es linealmente dependiente si y s´lo si a o al menos uno de los vectores del conjunto es combinaci´n lineal de los dem´s.. el conjunto span (v1 . 2. Por ejemplo. Conjuntos linealmente independientes. bp ). o a Un conjunto S = {v1 . .. v2 . Por tanto las siguientes afirmaciones son ciertas: 1...27 Dado un conjunto de vectores {v1 . ...... .

. el conjunto B = {v1 . αn } tal que ´ x = α 1 b1 + α 2 b2 + · · · + α n bn . Supongamos que B = {b1 . v2 . Cuando estudiamos el espacio Rn (secci´n 2) definimos a los vectores de Rn mediante sus o coordenadas... En particular... tn } del espacio vectorial Pn . El siguiente teorema generaliza este resultado para cualquier espacio vectorial V . o Teorema B... vk+1 .. ii) Si H no es el espacio {0}. v3 ] .´ B ANEXO: ALGEBRA LINEAL 100 Rn .. v2 . .. . t... v2 . bn } es una base del espacio vectorial V .  = x 1 e1 + · · · x n en . entonces alg´n subconjunto de S es una base de H.  = x 1  . v2 . en de la misma son una base de Rn la cual se conoce como base can´nica de R n ..  .. i) Supongamos que un vector de S. Ello era evidente pues         x1 1 0 0  x2   0   1   0          x =  .... Es f´cil comprobar que dichos vectores son linealmente independientes y que span (1. Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores {α 1 . Entonces para todo x de V existe un unico conjunto de valores {α1 . v2 ... .7. B.  . vp } un conjunto de vectores de un espacio vectorial V y sea H = Span(v1. H = Span(v1. ... .. vk+1 . Adem´s. t. o sea. vk−1 ... ..29 Sea S = {v1 .. Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V . S se conoce como la base can´nica de Pn . v3 } no es una base de H pues v1 . . xn . es combinaci´n lineal de los o restantes. . o Otro ejemplo lo constituye el conjunto de vectores S = {1.. vp ). v2 =  1  . v2 . vk . .  .. consideremos el espacio generado por los vectores       2 1 1  0  . digamos el vj .. v2 } que se obtiene al suprimir el tercer elemento si que es una base de H. vp ) un subespacio de V . 0 0 1 xn . a son unicos. . v2 ] pues el tercer vector es combinaci´n lineal de o los dos anteriores. H = Span [v1 .. . v3 =  1  . es decir los valores x1 .. es evidente que dado un vector x de R n sus coordenadas. αn } tales que x = α 1 b1 + α 2 b2 + · · · + α n bn . v1 = 0 0 0 Es evidente que H = Span[v1 . S = {v1 .  . Sin embargo.  . Adem´s.  + x 2  . la matriz identidad n × n...  .. .  + · · · + x n  . las columnas e1 . bn } una base del espacio vectorial V .. e2 .   . vk−1 . u Este teorema nos dice que a partir de un conjunto de vectores que generan un espacio vectorial siempre es posible “extraer” una base de dicho espacio vectorial. tn ) = a Pn .. v3 ] = span [v1 . Sistemas de coordenadas.4. ´ Teorema B.... b2 . vp ) = span (v1 . H no cambia. t 2 . si A = In . b2 . Entonces si suprimimos a dicho vector vk del conjunto S. 1 ≤ j ≤ p.. v3 no son linealmente a independientes.. t 2 . Por ejemplo.. .. .30 Sea B = {b1 .

. S es una base de V . B. dim C[a. En el caso que V = {0} sea el espacio vectorial nulo.   . αn      B 101   y lo denotaremos por   o [x]B .8.33 Sea H un subespacio vectorial de un espacio vectorial de dimensi´n finita V .5. ..7. Entonces: a) Si S es un conjunto de vectores linealmente independientes.. a Teorema B.. la siguiente relaci´n o o ser´ cierta: a [x]C = PCB · [x]B .. o a es decir si V = Span(b1 ..  = PCB · [x]B .. bn ).. bn }. . entonces cualquier otra base de V tendr´ que tener n vectores de V . b2 . en }.32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . Consideremos nuevamente las coordenadas en Rn .... a Un espacio vectorial es de dimensi´n finita n si V est´ generado por una base de n elementos. y por tanto. Teorema B.b] = ∞. b) Si S genera a todo V . αn B donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la base B a las escritas en C. b2 . es decir si V = Span(b1 . Como vimos al principio de este apartado los elementos de cualquier vector X de Rn coinciden con las coordenadas de dicho vector en la base can´nica C = {e1 . su dimensi´n. dim{0} = 0. .´ B ANEXO: ALGEBRA LINEAL  α1 α2 . . .. bn }.. . entonces cualquier conjunto con m´s de n vectores de V es linealmente dependiente. xn . bn }.... Supongamos ahora que pasamos a una nueva base B = {b1 . . o Teorema B. dim Pn = n + 1... Si V no puede ser generado por una base finita de vectores. bn } un conjunto de exactamente n vectores.. o Entonces   α1  α2    x = x1 e1 + · · · + xn en = α1 b1 + · · · + αn bn = [b1 b2 · · · bn ]  . La dimensi´n de un espacio vectorial. . .31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 . S es una base de V . b2 . Por ejemplo.. entonces diremos que V es de dimensi´n infinita y lo o denotaremos por dim V = ∞.34 Sea V un espacio vectorial n-dimensional (dim V = n < ∞) y sea S = {b 1 . o sea o −1 [x]B = PCB · [x]C = PBC · [x]C . o (dim V = n < ∞). Es evidente que la matriz P CB es invertible (todas sus o −1 columnas son independientes y por tanto el det PCB = 0) por tanto la matriz inversa PCB ser´ la a matriz de cambio de base de base can´nica a la base B. b2 . b2 . e2 ... bn ). .. bb } es una base de V y lo escribiremos de la forma dim V = n. a Este teorema es una generalizaci´n del teorema B. donde B = {b1 . . Entonces todo conjunto de vectores linealmente independientes de H se puede ampliar hasta convertirlo en una base de H... .. N´tese que las columnas de la matriz P CB coinciden con los vectores de o la nueva base escritos en la base can´nica. . o Teorema B. Resulta que dicho n´ mero n es una propiedad intr´ u ınseca de V . o Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . Adem´s dim H ≤ dim V . dim Rn = n. si las coordenadas de x en la base can´nica C son x 1 ..

´stos se podr´n e a escribir en la base D. Por tanto tenemos que [x] D = PDB [x]B . b1 = an1 d1 + an2 d2 + · · · + ann dn . y x = y1 d1 + · · · + yn dn −→ [x]D =  . entonces el sistema a (A − λ I)x = 0. Sea A una matriz de n × n.35 Sea A una matriz triangular de n × n. es un subespacio vectorial de R n . B. . .. b2 . x2 . xn B en la base  y1 . e Teorema B. n.7. Es decir si conocemos como se expresan los vectores de la base B en la base D podemos encontrar la matriz de cambio de base B en D.. es decir. El problema de autovalores de una matriz. d2 . bk = ak1 d1 + ak2 d2 + · · · + akn dn . dado un autovalor λ de A. . .. . −1 [x]B = PDB [x]D .  . ... xn y D son y1 .  . autovector de A asociado al autovalor λ.14) Es f´cil comprobar que si x es un autovector asociado al autovalor λ. bn =     D .. Entonces tenemos que Supongamos que las coordenadas de un vector x de V en la base B son x 1 . PDB es una matriz invertible (sus columnas son linealmente independientes). yn D a1n · · · akn · · · ann xn B Adem´s. Como D es una base de V y los elementos de B son elementos de V . luego existe a −1 la inversa PDB la cual es la matriz de cambio de base D en B. Denominaremos al vector x de R n . que coincide con una base del n´ cleo de A. 102 Sea V un espacio vectorial de dimensi´n finita n y sea B = {b1 . . . =⇒  a11 a12 . i = 1. y2 . o sea.   .  x = x1 b1 + · · · + xn bn −→ [x]B =  .   ....´ B ANEXO: ALGEBRA LINEAL B. · · · . Por tanto. resolver (A − λ I)x = 0.    x1   . cuyas columnas a1 . a2 .8. yn . . o sea.  . Es importante destacar que conocido el autovalor λ. Dicho u espacio se denomina autoespacio de A correspondiente al autovalor λ.. 2. . . Entonces los autovalores de A coinciden con los elementos de la diagonal principal λ = aii . Cambio de base. (B. . a1n   an1 an2 .. .6. . .. donde I es la matriz identidad n × n..  . yn D [x]D = [x1 b1 + · · · + xn bn ]D = x1 [b1 ]D + · · · xn [bn ]D = ([b1 ]D [b2 ]D · · · [bn ]D )[x]B . tal que A x = λ x. encontrar el autoespacio consiste en encontrar las soluciones de un sistema homog´neo de ecuaciones. an no son m´s que las coordenadas a de los vectores de la base B escritos en la base D.  . x = 0. .  . .. ann      D   b1 =       . bn } y D = {d1 . . o sea.  . . . dn } o dos bases de V .. el conjunto de los autovectores asociados a λ. o en forma matricial      x1 a11 · · · ak1 · · · an1 y1  a12 · · · ak2 · · · an2   x2   y2       = .15) tiene soluciones no triviales. . b1 = a11 d1 + a12 d2 + · · · + a1n dn ... al vector no nulo x = 0. (B.

Es decir si U es la forma escalonada de A los autovalores de A y U son. A es invertible. o sea.37 Si las matrices A y B de n × n son similares.17) Es evidente que si A es similar a B. Entonces los autovectores v1 . entonces los elementos de la diagonal de D son los autovalores de A y las columnas de P son los correspondientes autovectores. Teorema B.. λ es un autovalor de A si y s´lo si p n (λ) = 0. o Una matriz A de n × n es diagonalizable si A es similar a una matriz diagonal D. Lo anterior lo podemos resumir o o ı como: Un n´ mero λ es un autovalor de la matriz A de n × n si y s´lo si λ satisface la ecuaci´n caracu o o ter´ ıstica de A (B. vp asociados a los autovalores λ1 .8.16) La ecuaci´n anterior se denomina ecuaci´n caracter´stica de A. los mismos autovalores.17). B es similar a A. Por tanto diremos simplemente que las matrices A y B son similares si se cumple (B. 2. tiene soluciones no triviales. tal que A = P · B · P −1 . det(A − λ I) = 0. v2 . λ2 . entonces A x = 0 tiene que tener soluciones no triviales y por tanto A no puede ser invertible.16). Pero un sistema homog´neo tiene soluciones no triviales si y s´lo si e o det(A − λ I) = 0.. Sean A y B dos matrices n × n. La transformaci´n que a cada matriz le hace corresponder otra similar. . distintos. Si A = P · D · P −1 .. tales que A = P · D · P −1 . O sea. donde D es diagonal y P invertible.) Sea A una matriz cuadrada A de o o n × n. (A − λ I)x = 0. Teorema B. por tanto. para demostrarlo es suficiente tomar Q = P −1 . se o denomina transformaci´n de similitud. ¿C´mo calcular los autovalores? La respuesta a esta pregunta no es dif´ pues los autovalores o ıcil λ son tales que el sistema (B.38 Una matriz A de n × n es diagonalizable si y s´lo si A tiene n autovectores o linealmente independientes. Por tanto a o el polinomio pn (λ) = det(A − λ I) se denomina polinomio caracter´ ıstico de A y los autovalores de A ser´n las ra´ a ıces de dicho polinomio.. Las siguientes expresiones son equivalentes: 1. La ecuaci´n caracter´ o ıstica. (B. Diremos que A es similar a B si existe una matriz invertible P . A −→ P −1 · A · P .´ B ANEXO: ALGEBRA LINEAL 103 Es importante destacar que las operaciones elementales de filas cambian los autovalores de una matriz.17 (Teorema de inversi´n de matrices. entonces tienen el mismo polinomio caracter´stico y. o sea.8. o B = P −1 · A · P. . si existe una matriz P invertible y otra D diagonal. ı B. B.2.. en general. o Teorema B. λ = 0 no es un autovalor de A El teorema anterior es evidente pues si λ = 0 es autovalor de A.36 Sea A una matriz de n × n que tiene p autovalores distintos λ 1 = λ2 = · · · = λp ..15). . Es f´cil comprobar que la expresi´n det(A−λ I) = 0 es un polinomio de grado n en λ.1. Teorema B. Diagonalizaci´n de matrices. (B. o Matrices similares. conclusi´n. λp son linealmente independientes.

A es diagonaa lizable si y s´lo si dim(B) = n. o sea. 4. . . Entonces B es un conjunto de vectores de Rn linealmente independientes.40 (Condici´n suficiente para que una matriz sea diagonalizable II) o Sea A una matriz de n × n con p autovalores distintos λ1 . o sea B = B1 ∪ B 2 ∪ · · · ∪ B p . Teorema B... o Encontrar los autovectores linealmente independientes correspondientes a cada uno de los autovalores calculados en el paso 1. Si A es diagonalizable continuamos como sigue. Algoritmo para diagonalizar una matriz A. Sea Bk . λ2 . k = 1. si no a hay n autovectores independientes entonces A no es diagonalizable y detenemos el proceso.39 (Condici´n suficiente para que una matriz sea diagonalizable I) o Si una matriz A de n × n tiene n autovalores distintos. Para ello comprobamos que A · P = P · D.´ B ANEXO: ALGEBRA LINEAL 104 Este teorema se puede reformular diciendo que A es diagonalizable si y s´lo si sus autovectores o forman una base de Rn . Si tenemos en total n autovectores linealmente independientes entonces el teorema B.. Adem´s.. Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. o . entonces es diagonalizable. Teorema B. o Construyamos el conjunto de vectores que contiene a todos los conjuntos B k . 1. dim(B) = n1 + n2 + · · · + np . λp . 2.. 2. Construimos la matriz P cuyas n columnas son los n autovectores linealmente independientes.16). Encontrar los autovalores de A resolviendo la ecuaci´n (B. Es recomendable comprobar que hemos calculado correctamente P y D.. si B contiene exactamente n vectores. Es importante colocar en cada columna de D el autovalor asociado al autovector de la correspondiente columna de P .38 nos asegurar´ que nuestra matriz es diagonalizable. p una base del correspondiente autoespacio asociado al autovalor λk y sea nk la dimensi´n de dicho autoespacio. 3.

z ∈ C. En- tonces. El primer teorema de Abel quedar´ entonces de la siguiente forma ıa Teorema C. converge uniformemente en [0. 0]). x ∈ R y R su radio de convergencia. Teorema C. cuando z0 = 0.4 Sea la serie de potencias ∞ n=0 an xn . Adem´s.2) est´n centrados en el origen y en el de las series (C. en el caso real si se sabe la convergencia en alguno de los extremos.1). Dicho n´ mero se denomina radio de convergencia de la u serie de potencias. Obviamente si tenemos una serie de potencias del tipo (C. la podemos reducir a a la anterior (C. Si la serie converge para cierto w ∈ C. se puede saber mucho m´s sobre la serie. an . es decir cuando (an )n es una sucesi´n de n´ meros reales y o u z = x ∈ R.3 Sea la serie de potencias ∞ n=0 an xn . an . . N´tese que se obtiene una de la otra al hacer una traslaci´n en el plano o o complejo del c´ ırculo mediante el vector z0 .1). a en z0 (ver la figura 20). A diferencia del caso complejo. x ∈ R. entonces la serie converge absolutamente para todo z ∈ C con |z| < |w|.2) es decir.1 Dada una sucesi´n de n´meros complejos (a n )n y z0 ∈ C definiremos serie o o u an (z − z0 )n . Consideremos ahora en caso real. La regi´n de convergencia de una serie de potencias siempre son c´ o ırculos en el plano complejo que. k! ∞ k=1 zk .2) haciendo el cambio de variables ζ = z − z 0 y viceversa. R] ([−R. entonces podemos definir la funci´n suma f (z) de la serie. entonces absolutamente para todo x ∈ R con |x| < |r|. Como casos especiales de las series de potencias tenemos: ∞ k=0 xk . en el caso de las series de la forma (C. En este caso hay que trasladar los resultados a la recta real. ∞ k=0 zk . k etc. Si la serie converge para todos los valores de z de cierto conjunto A ⊂ C. (C. existe un n´ mero real no negativo R ≥ 0 o R = +∞ tal que para todo z con |z| < R la u ´ serie converge y si |z| > R la serie diverge. o C. an . (C. an . Si la serie converge para cierto r ∈ R.C ANEXO: SERIES DE POTENCIAS 105 C.2 Primer Teorema de Abel para las series de potencias Sea la serie de potencias ∞ n=0 an z n . a Teorema C. z ∈ C. si la serie converge en x = R (x = −R). cualquiera sea la serie de potencias a ∞ n=0 an z n .1) que denominaremos serie de potencias. Propiedades de las series de potencias ∞ n=0 Sin p´rdida de generalidad vamos a considerar las series del potencias del tipo e an z n . Anexo: Series de potencias ∞ n=0 Definici´n C.1.

ım en cuyo caso 1 an an+1 = l´ n |an |. se cumple que ∞ n=0 an x n = ∞ n=0 nan xn−1 . an . x ∈ R.C ANEXO: SERIES DE POTENCIAS Im z 106 Im z | z −z 0 | <| w− 0 | z | z | < | w| R w R z0 0 Re z w 0 Re z Figura 20: Regi´n de convergencia de las series o cha). =⇒ ım = l´ ım .5 (Cauchy-Hadamard) Dada una serie de potencias ∞ n=0 ∞ n=0 anz (izquierda) y n ∞ n=0 an (z − z0)n (dere- an xn .6 La funci´n f (x) = o gencia de la serie. Teorema C. l´ ım l´ ım n→∞ n→∞ n |a | n→∞ an+1 n→∞ an n Para las series de potencias en R tienen lugar las siguientes propiedades.7 Derivaci´n e integraci´n t´rmino a t´rmino de una serie de potencias real o o e e Sea la serie de potencias f (x) = 1. La serie se puede derivar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia. x ∈ R con radio de convergencia R > 0. an . ∞ n=0 Teorema C. o sea. Entonces R = l´ ım n→∞ n 1 . si dicho l´mite existe. . o sea. toda serie de potencias con radio de convergencia no nulo define una funci´n o continua. n+1 2. Teorema C. se cumple que x ∞ 0 n=0 an x = n ∞ n=0 an n+1 x . an xn es continua en (−R. ∞ n=0 an xn . siendo R el radio de conver- En otras palabras. R). ı |an | Una condici´n suficiente para que exista l´ n→∞ n |an | es que exista el l´ o ım ımite l´ n→∞ |an+1 /an |. Entonces La serie se puede integrar t´rmino a t´rmino y la serie resultante tiene el mismo radio de e e convergencia.

∞ k=0 (C. n (−x)n = ∞ n=0 (−1)n xn . k! ∞ k=0 (−1)k x2k (2k)! x ∈ (−1. radio de convergencia +∞. a ex = ∞ k=0 ∞ k=0 xk . La funci´n que cumple lo anterior es la funci´n e x .6) Aplicando la integraci´n t´rmino a t´rmino en [0. (C. 1 = 1+x (−1)k xk . 1). n (C. x ∈ (−1.6) haciendo el cambio x por x2 obtenemos 1 = 1 + x2 ∞ k=0 (−1)k x2k . n Funciones elementales del an´lisis. a o o Los teoremas anteriores permiten calcular un buen n´ mero de series. 1).C ANEXO: SERIES DE POTENCIAS 107 Una consecuencia trivial del ultimo teorema es que una serie de potencias define una funci´n ´ o infinitas veces derivable en (−R.8) . f (0) = 1. x] tenemos o e e log(1 + x) = ∞ n=1 (−1)n+1 xn . Ejemplo C. x ∈ R. R). as´ pues ı ∞ ∞ ∞ kxk−1 xk−1 xk d = = = f (x). (2k + 1)! ∞ k=1 cos x = (−α)k k x .5) xk . Esta serie converge en (−1. 1).8 Probar que la funci´n f (x) = o su derivada. k! x ∈ R. ex = ∞ k=0 xk es continua y derivable en R y calcular k! Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener. x ∈ (−1. por ejemplo u log(1 + x) = Para ello notamos que 1 1 = = 1+x 1 − (−x) ∞ n=0 ∞ n=1 (−1)n+1 xn . (C. (C. Para calcular la derivada usamos el teorema anterior. como ya hemos calculado antes. 1). as´ que integrando t´rmino a t´rmino tenemos ı e e t log(1 + t) = 0 1 dx = 1+x t 0 ∞ n=0 (−1)n xn dx = ∞ n=0 (−1)n tn+1 = n+1 ∞ n=1 (−1)n+1 tn . f (x) = dx k! k! (k − 1)! k=0 k=0 k=1 Adem´s.4) (1 + x)α = 1 + en particular 1 = 1−x ∞ k=0 (C.3) sen x = (−1)k x2k+1 .7) Usando (C.

(C. (C. x] obtenemos e e arctan x = ∞ n=0 (−1)n x2n+1 .C ANEXO: SERIES DE POTENCIAS 108 a partir de la cual. x] obtenemos e e arc sen x = ∞ k=0 1 ( 2 )k x2k+1 .10) de donde integrando t´rmino a t´rmino en [0. 1).5) con α = − 2 y cambiemos x por −x2 . tenemos √ 1 ( 2 )k k 1 x . integrando t´rmino a t´rmino en [0. 2n + 1 x ∈ (−1. (C. = 1 − x2 k=0 k! ∞ x ∈ (−1.11) .9) 1 Escojamos ahora (C. 1). 1). k!(2k + 1) x ∈ (−1.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->