Está en la página 1de 106

Instituto Politécnico Nacional

Escuela Superior de Fı́sica y Matemáticas

OSCILACIONES NO LINEALES
EN CADENAS FINITAS DE
OSCILADORES

T E S I S
QUE PARA OBTENER EL TÍTULO DE
INGENIERO MATEMÁTICO

PRESENTA:
HUGO PARRA PRADO

ASESOR:
DR. LUIS ALBERTO CISNEROS AKE

29 de julio de 2015
En especial agradezco a mis padres por
siempre motivarme y su confianza.
A mis hermanos con cariño y admiración.
Gracias, totales.

i
Agradecimientos

Quiero dar mi más sincero agradecimiento a mi asesor de Tesis, al Dr. Luis Alberto
Cisneros Ake, por su apoyo en la realización de esta Tesis, brindándome su tiempo y
dedicación. Fueron muy provechosos sus consejos, fue para mı́ un privilegio trabajar
con usted.

Agradezco a mi codirector de Tesis el Dr. Jorge Viveros Rogel, por sus comentarios
provechosos, ası́ como su tiempo, muchas gracias.

Quiero destacar el tiempo y la ayuda recibida de los Drs. Jesús Adrián Espinola
Rocha y Francisco J. Martı́nez Farı́as.

A mis sinodales: Dr. Adrián Alcántar Torres y Dr. Jesús Garcı́a Ravelo, por sus
comentarios los cuales enriquecieron mi presente trabajo.

Mi más profundo agradecimiento a mis padres, ya que gracias a ellos estoy aquı́, por
apoyarme en todo momento. Por haberme dado la oportunidad de tener una educación
en el transcurso de mi vida. Sobre todo por ser un excelente ejemplo a seguir.

A mis hermanos por ser parte importante de mi vida, por confiar y creer en mı́ y
haber hecho de mi etapa universitaria un trayecto de vivencias que nunca olvidaré.

Son muchas las personas que, de una u otra manera, han contribuido a la realización
de este trabajo de Tesis. A todas ellas quiero expresar mi gratitud y afecto.

iii
Agradecimientos

Agradezco la beca BEIFI-IPN bajo el proyecto SIP-IPN 20140852 por el apoyo al


congreso de la Sociedad Matemática Mexicana efectuado en Mérida.

Por último quiero destacar que este trabajo fue presentado en el XLVII congreso de
la Sociedad Matemática Mexicana en Durango y la XIX Reunión Nacional Académica
de Fı́sica y Matemáticas.

iv
Índice general

Resumen VII

Introducción IX

1. Aspectos teóricos 1
1.1. Transformada discreta de Fourier . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Breve repaso de álgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Métodos de perturbación . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Método de Poincaré-Lindstedt . . . . . . . . . . . . . . . . . . . 12
1.3.2. Escalas múltiples . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4. Aproximación numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.1. Método de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . 26

2. Sistemas finitos oscilatorios 33


2.1. Osciladores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.1. Solución matricial . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.2. Solución por ondas planas . . . . . . . . . . . . . . . . . . . . . . 42
2.1.3. Descomposición en frecuencias y amplitudes . . . . . . . . . . . . 43
2.1.4. Solución numérica en el caso lineal . . . . . . . . . . . . . . . . . 46
2.2. Osciladores débilmente no lineales . . . . . . . . . . . . . . . . . . . . . 48
2.3. Hamiltoniano asociado al problema FPU . . . . . . . . . . . . . . . . . . 51

3. Soluciones aproximadas en la cadena FPU 57


3.1. El método de Perturbación Asintótica: una primera aproximación . . . . 57
3.2. Aproximación completa método de Poincaré-Lindstedt para dos masas . 65
3.3. Ecuaciones completas en espacio de Fourier . . . . . . . . . . . . . . . . 74

v
ÍNDICE GENERAL

Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

A. Códigos fuente en Matlab 81


A.1. Código de la solución de Runge-Kutta y la comparación con el método
de Poincaré-Lindstedt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
A.2. Código para mostrar el fenómeno de recurrencia y super recurrencia . . 87

Bibliografı́a 89

vi
Resumen

Estudiamos por medios asintóticos y numéricos los efectos no lineales del tipo cúbi-
co en un sistema finito de osciladores sujeto a condiciones de frontera Dirichlet. La
aproximación asintótica está basada en el método de escalas múltiples, mientras que la
aproximación numérica en el método de Runge-Kutta de cuarto orden.

Encontramos la solución analı́tica exacta para el caso armónico reducido resolviendo


un problema de valores y vectores propios, haciendo uso de la aproximación por ondas
planas. En el caso completo no lineal encontramos correcciones a segundo orden, de las
soluciones del caso armónico, en el parámetro de perturbación dado por la no linealidad.

La teorı́a de perturbación muestra la ocurrencia de resonancias entre los modos


normales de oscilación, con ayuda de dichos efectos resonantes damos una explicación
al fenómeno de recurrencia en el problema de equipartición de la energı́a en osciladores
débilmente no lineales.

vii
Introducción

En este trabajo nos restringimos a examinar un fenómeno bastante especial, que


hasta la fecha ha motivado la aparición de varias teorı́as asociadas a dicho fenómeno.
Se trata de un fenómeno que fue analizado primeramente numéricamente, y originó el
cálculo computacional aplicado a ideas fı́sicas, es decir, fue posiblemente la primera
simulación computacional de un fenómeno fı́sico [1].

En 1952, la máquina de computación MANIAC-I (Mathematical Analyzer, Nume-


rical Integrator and Computer) entró en funcionamiento en Los Alamos. Uno de los
cerebros de la creación del arma nuclear, Enrico Fermi, querı́a desarrollar ”experimen-
talmente” nuevas técnicas heurı́sticas para la investigación de problemas dinámicos no
lineales, comenzando con el problema no lineal más simple posible, y después pasar a
problemas sucesivamente más complejos. Fermi propuso a John Pasta y Stanislaw Ulam
(uno de los cientı́ficos involucrados en las cuestiones matemáticas de los reactores), el
uso de la computación para simular numéricamente la idea fı́sica del momento: la teorı́a
ergódica o de equiparticion de la energı́a.

Motivados por un estudio sobre la transferencia de calor en sólidos, se decidió es-


tudiar las vibraciones de una cuerda bajo la influencia de fuerzas internas no lineales.
El objetivo principal de Fermi y sus colaboradores era justamente comprobar usando
la nueva computadora MANIAC-I, la teorı́a de equiparticion de la energı́a la cual dice
que en equilibrio térmico la energı́a se reparte en partes iguales entre las partı́culas,
esto significa que en equilibrio térmico todo modo posible de movimiento está excitado.

ix
Introducción

El modelo matemático es un cristal unidimensional, este no fue más que una cuerda
discreta, es decir, que es una cadena de masas unidas por resortes. Se propuso que si
se le ”inyecta” energı́a desde fuera a un sistema de 32 partı́culas, la energı́a se distri-
buirı́a equitativamente entre todos los modos de vibración, un modo de vibración es
el movimiento periódico a una frecuencia fija y definida. Esto se llevarı́a a cabo según
la hipótesis de Fermi, Pasta y Ulam (FPU) debido a la interacción entre las masas
vecinas mediante fuerzas internas no lineales. Esto ya que, como veremos más adelante,
las interacciones lineales armónicas desacoplan los modos normales de oscilación por lo
que es imposible la tranferencia de energı́a entre los sitios.

Sin embargo aclaremos qué son las fuerzas no lineales. Uno podrı́a empezar di-
ciendo que son distintas de las lineales, pero y estas últimas ¿qué son?. Clarifiquemos
este punto. Por ejemplo, pensemos en un cristal. Las moléculas de cristal están coloca-
das en forma ordenada en lugares especı́ficos. La manifestación del movimiento de las
moléculas del cristal puede ser debido a variaciones de temperatura. Se observa que las
moléculas del cristal están oscilando alrededor de su posición de equilibrio. Se ha en-
contrado experimentalmete que para pequeños desplazamientos de las moléculas desde
sus posiciones de equilibrio, las fuerzas que oponen resistencia a que estos desplaza-
mientos ocurran, son proporcionales a estos desplazamientos. Por ejemplo, denotemos
a la fuerza interna como F (x), donde x denota el desplazamiento desde la posición
de equilibrio. Una dependencia lineal entre F y x estará dada por la ley de Hooke;
F (x) = −kx. Supongamos ahora que tenemos un resorte que tiene unida una masa a
uno de sus extremos, y el otro extremo del resorte está a una pared, y colocamos todo
esto sobre un escritorio. Si jalamos un poco la masa y la soltamos, entonces, en caso
de ausencia de fricción, esta masa realizarı́a un movimiento oscilatorio indefinidamente
alrededor del punto de equilibrio. Por otro lado, las fuerzas no lineales serán aquellas
que muestran matemáticamente dependencias distintas a las de Hooke. Esto es, que la
constante del resorte k depende del desplazamiento x. Es decir, una fuerza no lineal
será una fuerza del desplazamiento cuadrática, cúbica, etcétera.

Como se menciono, FPU decidieron verificar la equipartición de la energı́a entre


todos los posibles modos de oscilación de la cuerda discreta. De esta forma, crearon

x
este modelo matemático de un cristal unidimensional, consistente en una cadena de
partı́culas de masas atadas entre sı́ por resortes que originan fuerzas no lineales. Esto
quiere decir lo siguiente: FPU pensaron que, debido a estos términos no lineales, la
energı́a introducida en el primer modo de oscilación, se irı́a filtrando lentamente hacia
otros modos, hasta que la equipartición de la energı́a predicha por la fı́sica estadı́stica
se llevara a cabo.

Pero cual fue la sorpresa una vez construidos los algoritmos del modelo y llevados
al código de la máquina para procesarlos, se obtuvieron resultados bastante desalen-
tadores. La duración de sus cálculos fluctuó entre 10 000 y 82 500 pasos de cómputo.
Sin embargo, contrario a lo que esperaban encontrar, la máquina entregó resultados
inesperados. La energı́a no se termaliza, es decir, no ocurre la distribución equitativa
de la energı́a cuando se tiene este tipo de sistemas no lineales. Entonces, ¿qué es lo
que se obtiene? La energı́a inicialmente empieza a distribuirse en el primer modo, luego
pasa al segundo, pero en el tercero y cuarto se detiene el proceso, y súbitamente regresa
al estado inicial de la distribución de energı́a. Esto es bastante extraño. No se cumple
la teorı́a ergódica. ¿Qué está pasando entonces? Después de varios periodos toda la
energı́a parecı́a que siempre regresaba al primer modo de oscilación. Y este proceso se
repite. Por lo tanto, claramente se observa un fenómeno recurrente, es decir, se regresa
hacia estados anteriores. Para entender por qué es extraño este fenómeno basta hacer
el siguiente ejercicio: si tenemos una varilla de metal y la calentamos por un extremo,
entonces después de un cierto tiempo el calor se propagará por toda la varilla, y no
esperamos obviamente que el calor se detenga bruscamente y retorne luego al lugar de
donde partió, por eso la recurrencia de FPU es “contraintuitiva” e inesperada.

La solución del fenómeno recurrente encontrado por FPU se buscó en dos princi-
pales lı́neas de investigación. Por una parte, investigadores como J. Ford (1961) y E.
Atlee Jackson (1963), se enfocaron en la dinámica de los modos de Fourier, buscando
condiciones no resonantes que explicarı́an la ineficacia del transporte de energı́a, es
decir, confirmaron que los términos no lineales no garantizan equilibrio térmico [2].

Además el teorema anunciado por Kolmogorov y probado por Arnold y Moser

xi
Introducción

(KAM), el cual establece que la mayorı́a de las órbitas cuasi periódicas de un sistema
hamiltoniano débilmente perturbado se preservan, tampoco pudo dar una explicación
cuantitativa al fenómeno. Posteriormente, Izrailev y Chirikov (Izrailev, 1966) usando la
incipiente teorı́a de KAM obtuvieron cierto “umbral” perturbativo más allá del cual si la
perturbación es suficientemente fuerte entonces la recurrencia de FPU desaparece. Pero
según Shepelyansky (Shepelyansky, 1997), es posible también observar la recurrencia
de FPU incluso a bajas frecuencias. Estos importantes esfuerzos fueron investigados
por varios autores durante los últimos años, con argumentos contradictorios en favor
y en contra de la recurrencia, por lo que podemos decir en relación con esta lı́nea de
investigación, que todavı́a no existe una conclusión definida hasta el momento.

La otra lı́nea de investigación, que considera el lı́mite continuo, conduce a la solución


de la paradoja FPU. Esto quiere decir, que cuando se introduce energı́a en los primeros
modos de oscilación, se excitan ondas solitarias (o solitones) estudiadas por Zabusky
y Kruskal (ZK) (Zabusky, 1965), que impiden la distribución de la energı́a a los otros
modos superiores (Dauxois, 2005). Dicho de otro modo, los solitones predicen la no
ergodicidad o coherencia del problema.

ZK usaron computadoras más avanzadas y ecuaciones mejoradas discretas del mo-


delo de FPU. En el lı́mite continuo de la ecuación discreta de la cuerda no lineal, ellos
llegaron a obtener una ecuación, conocida ahora como ecuación de Korteweg y de Vries
(KdV) para la descripción de las ondas que se propagan a lo largo de la cadena no li-
neal de FPU. Usando la descomposición de Taylor en las discretizaciones, recuperaron
ecuaciones no lineales en diferencias, del tipo usado por FPU. Ası́, cuando consideraron
una cadena de FPU tipo α, ellos llegaron a la ecuación KdV, y al considerar una cadena
tipo β, encontraron la ecuación modificada de KdV, [3].

La ecuación de KdV es un sistema completamente “integrable” (es decir, que se


puede obtener su solución de manera exacta o cerrada), en cuyas soluciones consideran
a los llamados “solitones”. El solitón es el resultado de la mutua interacción entre la
no linealidad que tiende a juntar a los modos de oscilación y la dispersión que tiende
a desvanecerlos. Al analizar la ecuación de KdV se observa el siguiente proceso: una

xii
condición inicial sinusoidal provoca la aparición abrupta que posteriormente se rompe
de una serie de pulsos, que son los solitones. Estos solitones preservan sus formas y
velocidades durante sus movimientos en el sistema finito con condiciones periódicas de
frontera e interactúan de manera elástica en sus colisiones. De tiempo en tiempo, éstos
regresan a las posiciones que tenı́an inicialmente, restaurando la condición inicial. Esto
es el motivo por el cual se observa la recurrencia de FPU.

El resultado del experimento numérico de FPU originó una nueva vertiente de la


fı́sica-matemática con el concepto de los solitones, y muchos aspectos del fenómeno
del caos, y además por primera vez se realizó un experimento numérico o simulación
numérica como actualmente se conoce. La computadora ahora no sólo se usa para
hacer grandes cálculos, sino también para probar teorı́as fı́sicas sobre procesos de la
naturaleza. No obstante estos experimentos numéricos no poseen la complejidad de los
procesos que modelan, pero en muchos casos predicen aspectos que después se usan
como paradigmas en verdaderos experimentos fı́sicos. Incluso se rehacen experimentos
si se obtienen resultados contrarios a los predichos por los experimentos numéricos, ver
[4] y [5].

La presenta Tesis está organizada en tres capı́tulos distribuidos como sigue:

El capı́tulo 1 desarrolla algunos aspectos teóricos como la transformada discreta de


Fourier, métodos de perturbación (como lo es el método de Poincaré-Lindsted y de es-
calas multiples), álgebra lineal (valores y vectores propios) y el método de aproximación
numérica de Runge-Kutta de cuarto orden.

Posteriormente, el capı́tulo 2 presenta dos formas de resolver el sistema de ecuacio-


nes diferenciales para el modelo FPU en el caso lineal (potencial hookeano). Se muestra
una primer forma de obtener la solución exacta la cual es en forma matricial en donde
se trabajará con los valores y vectores propios para su desarrollo. También otra forma
de obtener la solución exacta es por medio de las ondas planas. Realizaremos la des-
composición en frecuencias y amplitudes para la energı́a total del sistema asociado al

xiii
Introducción

problema FPU. Explicamos de manera ejemplificada la ecuación de movimiento para


un potencial debilmente no lineal.

Por último, en el capı́tulo 3 se aplican los dos métodos de perturbación del capitulo
1 para dar una aproximación a la solución del problema FPU, los cuales nos mostraran
el efecto de la resonancia y de los divisores pequeños. Para finalizar se hace un estudio
de las ecuaciones de movimiento en el espacio de Fourier para el caso general de N
masas.

Finalmente, en el apéndice, se agregan los pseudocodigos que se emplearon para la


aproximación numérica de los ejemplos resueltos en la presente Tesis.

xiv
Capı́tulo 1

Aspectos teóricos

En este presente capı́tulo se presenta la teorı́a básica, que será necesaria para el
desarrollo de capı́tulos posteriores; la transforma de Fourier y la teorı́a de perturbacio-
nes. También se revisaran algunos aspectos básicos de álgebra lineal y un método de
aproximación numérica.

1.1. Transformada discreta de Fourier

Sea f (x) una función real y además f ∈ L2 (R), esto es:


Z ∞
2
kf (x)k = |f (x)|2 dx < +∞. (1.1)
−∞

Es decir, f es cuadrado integrable. Tenemos ası́ la siguiente definición.

Definición 1.1.1 Sea f (x) como antes. La transformada de Fourier de f (x) se define
por: Z ∞
ˆ
f (ξ) = F (ξ) = F{f (x)} = e−iξx f (x)dx, ξ ∈ R, (1.2)
−∞

donde F es el operador transformada de Fourier. También f (x) puede ser recuperada

1
1. ASPECTOS TEÓRICOS

por la transformada inversa de Fourier fˆ(ξ), en la forma:


Z ∞
1
f (x) = F−1 {fˆ(ξ)} = eiξx fˆ(ξ)dξ, x ∈ R, (1.3)
2π −∞
donde x corresponde al espacio fı́sico y ξ al espacio de Fourier o de frecuencias.

Ahora si f (x) ∈ L2 (R) y fˆ(ξ) ∈ L2 (R) entonces ambas estan relacionadas por la
identidad de Parseval [6] y [7] como:

2πkf k2 = kfˆk2 , (1.4)

donde kk es la norma inducida por el producto interior <, > definido en L2 (R) mediante
1
< f, g >= R f (x)g(x)dx para f, g ∈ L2 (R). El factor 2π
R
se puede fraccionar como sea
1
de tal forma que el producto en la directa con el de la inversa sea proporcional a 2π .
Supongamos que, por ejemplo f (x) es la función:
 1
 2 para −1 ≤ x ≤ 1 ,
f (x) = (1.5)
0 otro caso .


Entonces por (1.1) tenemos que kf (x)k = 1/ 2, y por (1.2) se tiene que:
1
1 1 −iξx e−iξx
Z
ˆ sen(ξ)
f (ξ) = e dx = = , (1.6)
2 −1 −2iξ −1 ξ
en la Figura 1.1, se muestra la función f (x) y su transformada de Fourier.

Pulso rectangular

0.8
0.6
f(t)

0.4
0.2
0
−0.2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
t
Transformada de Fourier
2

1
F(ξ)

−1
−15 −10 −5 0 5 10 15
ξ

Figura 1.1. Gráfica de f (x) y de su transformada de Fourier fˆ(ξ) = F (ξ).

2
1.1 Transformada discreta de Fourier

De la identidad de Parseval (1.4) se puede afirmar que:


Z ∞
sen2 (ξ)
dξ = π . (1.7)
−∞ ξ2

Aplicando la identidad de Euler, eiθ = cos(θ) + i sen(θ), en (1.2) se tiene:


Z ∞ Z ∞
ˆ
f (ξ) = f (x) cos(ξx)dx − i f (x) sen(ξx)dx. (1.8)
−∞ −∞

Si f (x) es una función par en R, esto es f (−x) = f (x), tenemos:


Z ∞
ˆ
fc (ξ) = Fc {f (x)} = Fc (ξ) = 2 cos(ξx)f (x)dx, (1.9)
0

la cual definimos como la transformada coseno de Fourier y su inversa como:


1 ∞
Z
−1 ˆ
Fc {fc (ξ)} = f (x) = cos(ξx)fˆc (ξ)dξ. (1.10)
π 0

Por otro lado si f (x) es una función impar en R, es decir f (−x) = −f (x), tenemos:
Z ∞
fˆs (ξ) = Fs {f (x)} = Fs (ξ) = 2 sen(ξx)f (x)dx, (1.11)
0

la cual definimos, de manera análoga, como la transformada seno de Fourier y su inversa


como: Z ∞
1
Fs−1 {fˆs (ξ)} = f (x) = sen(ξx)fˆs (ξ)dξ . (1.12)
π 0
Observamos de las definiciones (1.1) y (1.2) que si x ∈ R es continua y no acotada
entonces en el espacio de Fourier se tiene que ξ ∈ R es continua y no acotada. Ahora
consideremos funciones discretas reales f : Z → R en la forma vj = f (xj ) = f (jh)
donde j ∈ Z, h ≡ constante fija y xj = jh, ver Figura 1.2. Podemos entonces pensar
que vj ”discretiza” a la función de variable continua x ∈ R y f (x) ∈ L2 (R).

Figura 1.2. Discretización del espacio continuo R por xj = jh, j ∈ Z y h ≡ cte ∈ R.

Notemos que xj+1 −xj = h, define el espaciamiento entre los sitios j, denotamos por
vj : Zh → R a la función discreta donde Zh = {jh|j ∈ Z y h ∈ R fija}. Puede analizarse

3
1. ASPECTOS TEÓRICOS

que si el dominio del espacio fı́sico es discreto (esto es, la variable fı́sica x es discreta en
la forma xj = jh), entonces en el espacio de Fourier (la variable de Fourier ξ) seguira
siendo continua pero acotada, por lo que no se extendera sobre todo R. Consideremos
ahora la función discreta vj ∈ l2 (R), es decir:

X
kvj k2 = |vj |2 h < +∞. (1.13)
j=−∞

Podemos definir (en analogı́a con (1.2)) la transformada discreta de Fourier de vj como:


X ∞
X h π πi
−iξxj
v̂(ξ) = e vj h = h e−iξxj vj , ξ∈ − , (1.14)
h h
j=−∞ j=−∞

y también (en analogı́a con (1.3)) definimos la transformada discreta inversa de Fourier
de v̂(ξ) de la siguiente forma:
Z π/h
1
vj = eiξxj v̂(ξ)dξ, j ∈ Z. (1.15)
2π −π/h

Notamos que en el lı́mite h → 0, la transformada de Fourier discreta parte a la trans-


formada de Fourier continua usual. Veamos ası́ que si x ∈ R es discreta y no acotada
entonces en el espacio de Fourier tenemos ξ ∈ [−π/h, π/h] es continua y acotada, para
que tenga solución única [8] y [9]. Reescribiendo (1.14) utilizando la identidad de Euler
se tiene:

X
v̂(ξ) = h [vj cos(ξxj ) − ivj sen(ξxj )] . (1.16)
j=−∞

Definimos entonces la transformada discreta coseno de Fourier como:



X
v̂c (ξ) = h vj cos(ξxj ), (1.17)
j=−∞

y su inversa como:
Z π/h
1
vj = v̂c (ξ) cos(ξxj )dξ. (1.18)
2π −π/h
También tenemos que la transformada discreta seno de Fourier es:

X
v̂s (ξ) = h vj sen(ξxj ), (1.19)
j=−∞

y su inversa:
Z π/h
1
vj = v̂s (ξ) sen(ξxj )dξ. (1.20)
2π −π/h

4
1.1 Transformada discreta de Fourier

Se pueden observar las analogı́as entre (1.9) con (1.24) y (1.11) con (1.26).

Por otro lado, en el caso que xj sea discreto y acotado en el espacio fı́sico la trans-
formada discreta de Fourier es:
N
X
v̂ξ = h e−iξxj vj , (1.21)
j=1

con ξ = 1, 2, ..., N , y su inversa se define como:


N
1 X iξxj
vj = e v̂ξ . (1.22)

ξ=1

Reescribiendo (1.21) utilizando la identidad de Euler se tiene:


N
X
v̂ξ = h [vj cos(ξxj ) − ivj sen(ξxj )] . (1.23)
j=1

Definimos entonces la transformada discreta coseno de Fourier finita como:


N
X
v̂cξ = h vj cos(ξxj ), (1.24)
j=1

y su inversa como:
N
1 X
vj = v̂cξ cos(ξxj ). (1.25)

ξ=1

También tenemos que la transformada discreta seno de Fourier finita es:


N
X
v̂sξ = h vj sen(ξxj ), (1.26)
j=1

y su inversa:
N
1 X
vj = v̂sξ sen(ξxj ). (1.27)

ξ=1

Notemos que ha este nivel la inversa y la directa no se distinguen. Para cuestiones


posteriores la transformada discreta seno de Fourier finita es muy importe, ya que
con ésta se realizarán cambios de variable al espacio de frecuencias que serán de gran
utilidad.

5
1. ASPECTOS TEÓRICOS

1.2. Breve repaso de álgebra lineal

En diversas aplicaciones resulta útil encontrar un vector v en V espacio vectorial


tal que T v y v son paralelos, para cierta transformación lineal T : V → V . Tenemos
ası́ la siguiente definición.

Definición 1.2.1 (Valor caracterı́stico y vector caracterı́stico)


Sea V un espacio vectorial y sea T un operador lineal sobre V . Un valor propio de T
es un escalar λ tal que existe un vector no nulo v con T v = λv. Si λ es un valor propio
de T , entonces:

1. Cualquier v tal que T v = λv se llama un vector propio de T asociado al valor


propio λ;

2. La colección de todos los v tales que T v = λv se llama espacio propio asociado a


λ.
Sea pues T : V → V una transformación lineal, se busca un vector v y un escalar λ tal
que,
T v = λv. (1.28)

Si v 6= 0 y λ satisface (1.28), entonces λ se denomina un valor propio de T y v un vector


propio de T correspondiente al valor propio λ. Si V tiene dimensión finita, entonces T
se puede representar por una matriz AT . El interes es en espacios reales de dimensión
finita, por esta razón que se estudiarán los valores y los vectores propios de las matrices
de n × n. Sea A una matriz de n × n con componentes reales. El número λ (real o
complejo) se denomina valor caracterı́stico de A si existe un vector no trivial diferente
de cero, v en Cn tal que,
Av = λv. (1.29)

El vector v se denomina vector propio de A correspondiente al valor propio λ, también


conocido este como valor espectral.

6
1.2 Breve repaso de álgebra lineal

Definición 1.2.2 Si A es una matriz de n × n, un valor propio de A es un escalar


λ ∈ R tal que la matriz (A − λI) es singular (no invertible), donde I es la matriz
identidad de n × n.

Teorema 1.2.1 Sea A una matriz de n × n. Entonces λ es un valor propio de A si y


sólo si,
p(λ) = det(A − λI) = 0 (1.30)

La ecuación (1.30) se denomina la ecuación caracterı́stica de A; p(λ) se denomina el


polinomio caracterı́stico asociado a A. El procedimiento para calcular valores y vectores
caracterı́sticos es:

1. Se forma el polinomio p(λ) = det(A − λI) = 0.

2. Se encuentran las raı́ces λ1 , λ2 , ..., λm de p(λ) = 0.

3. Se resuelve el sistema homogéneo (A − λi I)v = 0, correspondiente a cada valor


caracterı́stico λi .

De lo cual se obtienen especificamente los valores y vectores propios, los cuales se


utilizaran más adelante.

Definición 1.2.3 (Matrices semejantes)


Decimos que dos matrices A y B de n×n son semejantes si existe una matriz invertible
C de n × n tal que,
B = C −1 AC. (1.31)

La función definida por (1.31) que lleva la matriz A en la matriz B se denomina trans-
formación de semejanza. Se puede escribir esta transformación como:

T (A) = C −1 AC,

donde notemos que C −1 (A1 + A2 )C = C −1 A1 C + C −1 A2 C y C −1 (αA)C = αC −1 AC


de manera que la función definida por (1.31) es, de hecho, una transformación lineal.

7
1. ASPECTOS TEÓRICOS

Definición 1.2.4 (Matriz diagonalizable)


Una matriz A de tamaño n × n es diagonalizable si existe una matriz diagonal D tal
que A es semejante a D.

La matriz diagonal D es la matriz cuyos únicos elementos no cero, posiblemente, están


en su diagonal principal.

Teorema 1.2.2 Una matriz A de n × n es diagonalizable si y sólo si tiene n vectores


propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A
está dada por,
D = C −1 AC, (1.32)

donde C es una matriz cuyas columnas son vectores propios linealmemte independientes
de A.

Corolario 1.2.2.1 Si la matriz A de n × n tiene n valores propios diferentes, entonces


A es diagonalizable.

Teorema 1.2.3 Sea A una matriz simétrica real de n × n. Entonces todos los valores
caracterı́sticos de A son reales.

Demostración 1.2.3.1 Sea λ un valor propio de A con vector caracterı́stico v; es


decir, Av = λv. El vector v está en Cn y el producto interno < , > en Cn satisface:

< αx, y >= α < x, y > y < x, αy >= α < x, y >, (1.33)

donde α es el conjugado de α. Entonces:

< Av, v >=< λv, v >= λ < v, v >, (1.34)

más aún, por el hecho de que A es real y simétrica se tiene que At = A, con At la
transpuesta de A, luego:

< Av, v >=< v, At v >=< v, Av >=< v, λv >= λ < v, v > . (1.35)

Igualando (1.34) y (1.35) se tiene:

λ < v, v >= λ < v, v > . (1.36)

8
1.2 Breve repaso de álgebra lineal

Pero < v, v >= kvk2 6= 0 ya que v es un vector propio. Entonces se puede dividir ambos
lados de (1.36) entre (v, v) para obtener,

λ = λ, (1.37)

si λ = a + ib, entonces λ = a − ib y de (1.37) se tiene,

a + ib = a − ib, (1.38)

lo que se cumple sólo si b = 0. Esto muestra que λ = a; por lo tanto λ es real. 

Teorema 1.2.4 Sea A una matriz simétrica real de n × n. Si λ1 y λ2 son valores


propios diferentes con vectores propios reales correspondientes v1 y v2 entonces v1 y v2
son ortogonales.

Demostración 1.2.4.1 Se calcula

Av1 · v2 = λ1 v1 · v2 = λ1 (v1 · v2 ), (1.39)

y
Av1 · v2 = v1 · At v2 = v1 · Av2 = v1 · (λ2 v2 ) = λ2 (v1 · v2 ). (1.40)

Combinando (1.39) y (1.40), se tiene λ1 (v1 ·v2 ) = λ2 (v1 ·v2 ) y como λ1 6= λ2 se concluye
que v1 · v2 = 0. 

Teorema 1.2.5 Sea A una matriz simétrica real de n × n, entonces A tiene n vectores
propios reales ortonormales.

Definición 1.2.5 (Matriz diagonalizable ortogonalmente)


Se dice que una matriz A de n×n es diagonalizable ortogonalmente si existe una matriz
ortogonal Q tal que,
Qt AQ = D, (1.41)

donde Q satisface Qt = Q−1 , por lo tanto (1.41) se puede escribir como Q−1 AQ = D.

Teorema 1.2.6 Sea A una matriz real de n × n. Entonces A es diagonizable ortogo-


nalmente si y sólo si A es simétrica.

9
1. ASPECTOS TEÓRICOS

Demostración 1.2.6.1 Sea A simétrica. Entonces de acuerdo con los teoremas an-
teriores, A es diagonizable ortogonalmente con la matriz Q cuyas columnas son los
vectores caracterı́sticos.
Inversamente, suponga que A es diagonizable ortogonalmente. Entonces existe una ma-
triz ortogonal Q tal que Qt AQ = D. Al multiplicar esta ecuación por la izquierda por
Q y por la derecha por Qt , y utilizando el hecho de que Qt Q = QQt = I, se obtiene,

A = QDQt . (1.42)

Entonces At = (QDQt )t = (Qt )t Dt Qt = QDQt = A. Por lo tanto, A es simétrica. 

Los pasos para encontrar una matriz diagonalizable Q son:

1. Encuentre una base para cada espacio caracterı́stico de A.

2. Encuentre una base ortonormal para cada espacio caracterı́stico de A usando el


proceso de Gram-Schmidt o algún otro.

3. Escriba Q como la matriz cuyas columnas son los vectores caracterı́sticos orto-
normales obtenidos en el paso anterior.

Para dar una idea del procedimiento consideremos la siguiente matriz real simétrica:
 
2 −1
A= .
−1 2

Entonces el polinomio caracterı́stico de A es:



2−λ −1 = (2 − λ)2 − 1 = (λ − 1)(λ − 3),

det(A − λI) =
−1 2−λ

el cual tiene dos raı́ces λ1 = 1 y λ2 = 3, para λ1 se obtiene (A − λ1 I)v1 = 0, es decir,


    
1 −1 x1 0
= ,
−1 1 x2 0


 
1
se encuentra que el vector caracterı́stico es v1 = y también kv1 k = 2. Por lo
1
tanto, normalizando el vector v1 se tiene:
 
1 1 1
u1 = v1 = √
kv1 k 2 1

10
1.3 Métodos de perturbación

Después para λ2 se calcula (A − λ2 I)v2 = 0:


    
−1 −1 x1 0
= ,
−1 −1 x2 0
 
1
y encontramos que v2 = . Observe que v1 · v2 = 0 lo que debe ser cierto por el
−1

Teorema 1.2.4. Luego, se encuentra que kv2 k = 2, y entonces:
 
1 1 1
u2 = v2 = √ .
kv2 k 2 −1
Por último, tenemos que la matriz formada por las columnas de vectores propios es:
 
1 1 1
Q= √ ,
2 1 −1

y esta tal que:


   
t 1 1 1 2 −1 1 1
Q AQ =
2 1 −1 −1 2 1 −1
  
1 1 1 1 3
=
2 1 −1 1 −3
 
1 2 0
=
2 0 6
 
1 0
= = D.
0 3

Por lo cual hemos diagonalizado la matriz A simétrica de dimensión 2 usando la matriz


ortonormal. Ésta teorı́a la utilizaremos posteriormente para una matriz de tamaño
N × N que surgirá de nuestra aplicación en osciladores.

1.3. Métodos de perturbación

La teorı́a de perturbaciones fue desarrollada muchos años antes de la existencia de


las computadoras. Aunque las computadoras pueden ser utilizadas para resolver una
gran variedad de problemas numéricos, los métodos de perturbaciones más antiguos
se siguen utilizando. Esto es ası́ porque las soluciones numéricas no siempre son nece-
sarias, a veces no son la forma de aproximación más útil (por ejemplo, si la ecuación

11
1. ASPECTOS TEÓRICOS

resuelta contiene muchos parámetros y requerimos la solución como una función de


esos parámetros). También algunas veces, es más conveniente tener una solución apro-
ximada en terminos de sus parámetros que tener un resultado numérico, pues podemos
analizar las soluciones en cierta región de parámetros.

La teorı́a de perturbaciones es una colección de métodos para obtener soluciones


analı́ticas aproximadas de ecuaciones en las que se involucra uno o varios parámetros
pequeños. Las ecuaciones pueden ser, por ejemplo, algebraicas, ecuaciones diferenciales
ordinarias o parciales, integrales, integrodiferenciales, etc. La teorı́a de perturbaciones
se aplica en diferentes áreas del conocimiento. Por ejemplo, la mayorı́a de los métodos
de la fı́sica moderna contienen aplicaciones de métodos de perturbación. A continua-
ción explicaremos un método de perturbación para resolver ecuaciones diferenciales
ordinarias donde se involucra una perturbación no lineal por medio de un parámetro
pequeño.

1.3.1. Método de Poincaré-Lindstedt

Las ecuaciones derivadas de modelos matemáticos por lo general no se pueden resol-


ver de forma exacta. Por lo cual necesariamente se recurre a aproximaciones y métodos
numéricos. Principalmente las técnicas de aproximación son métodos de perturbación,
las cuales llevan a una solución aproximada para un problema donde la ecuación del
modelo tiene términos que son pequeños [10], [11] y [12]. Estos términos surgen porque
el proceso fı́sico subyacente tiene pequeños efectos. Por ejemplo, en un problema de
fluidos la viscosidad puede ser pequeña comparada con la advección, de manera simi-
lar en el movimiento de un proyectil la fuerza causada por la resistencia del aire es
pequeña comparada con la gravedad. Estos efectos de orden inferior son representados
por términos en los modelos de ecuaciones que, en comparación con los otros térmi-
nos, son insignificantes. Cuando se escala apropiadamente, el orden de magnitud de
estos términos es representado por un parámetro pequeño, digamos ε. Para dar una
idea general de un procedimiento de aproximación consideremos la ecuacion diferencial

12
1.3 Métodos de perturbación

llamada de Duffing [13]:

u00 (t) + u(t) + εu3 (t) = 0, t > 0,


u(0) = 1, u0 (0) = 0, (1.43)

donde la prima denota la diferenciación con respecto a t. Debido a la presencia del


término no lineal εu3 (t), la solución de este problema no se puede representar con
funciones elementales. Podemos pensar que la solución de (1.43) es de la forma u =
u(t, ε) para el parámetro continuo y pequeño ε. Una expansión de Taylor alrededor de
ε = 0 sugiere que:

X
u = u(t, ε) = an (t)εn , (1.44)
n=0
donde a0 (t), a1 (t), ... estan por ser determinados. Sustituyendo (1.44) en (1.43) obtene-
mos:

(a000 + εa001 + ...) + (a0 + εa1 + ...) + ε(a0 + εa1 + ...)3 = 0 ,


a0 (0) + εa1 (0) + ... = 1, a00 (0) + εa01 (0) + ... = 0 . (1.45)

Igualando los coeficientes de las potencias de ε0 y ε con 0 se tiene:

ε0 : a000 + a0 = 0, a0 (0) = 1, a00 (0) = 0, (1.46)

ε: a001 + a1 = −a30 , a1 (0) = a01 (0) = 0. (1.47)

Resolviendo (1.46) se encuentra que la solución es:

a0 = cos(t).

Por lo tanto, la ecuación (1.47) nos queda como:

a001 + a1 = − cos3 (t), a1 (0) = a01 (0) = 0. (1.48)


1
Empleando la identidad trigonométrica cos3 (t) = [3 cos(t) + cos(3t)] reescribimos a
4
(1.48) como:
1
a001 + a1 = − [3 cos(t) + cos(3t)] , a1 (0) = a01 (0) = 0, (1.49)
4
donde la solución de (1.49) es:
1 3
a1 = [cos(3t) − cos(t)] − t sin(t).
32 8

13
1. ASPECTOS TEÓRICOS

Por lo tanto, la solución aproximada a orden O(ε) toma la forma:


 
1 3
u(t) = cos(t) + ε (cos(3t) − cos(t)) − t sin(t) . (1.50)
32 8

Primeramente notemos que hemos cargado la condición inicial u(0, ε) = 1, u0 (0, ε) = 0


en (1.46) al primer término de la expansión (1.44) para no tener dependencia de ε en
los términos de orden más alto a1 (t), a2 (t), ... Observemos que el comportamiento a
primer orden de la solución aproximada es cos(t), la cual es oscilatoria. El segundo
término o el término de correción, sin embargo, es no necesariamente pequeño. Para
un valor fijo de tiempo t el término tiende a cero cuando ε → 0, pero si t es del orden
de ε−1 o más grande, entonces el término − 38 t sin(t) será grande. Tal término se llama
término secular. La palabra secular significa ”perteneciente a un largo periódo de
tiempo”, y es utilizado en este contexto matemático para el estudio de los movimientos
planetarios donde dicho término secular podrı́a ser no perceptible durante cientos de
años, debido a la escala de tiempo larga [14]. Los términos seculares desempeñan un
papel importante en el análisis de escalas múltiples.

Definición 1.3.1 (Término secular). Llamamos f (t) un término secular si se vuelve


no acotado cuando t → ∞, es decir,

f secular ⇐⇒ ∀ T > 0, ∀ C > 0, ∃ t > T tal que |f (t)| > C.

Por lo tanto, esperamos que la amplitud de la solución aproximada (1.50) crecerá con
el tiempo, lo cual no es coherente con la situación fı́sica o con la solución exacta del
problema (1.43), como se puede observar en la Figura 1.3. Si restringimos la varia-
ble
 independiente t para un intervalo
 finito [0, T ], entonces el término de correción
1 3
ε (cos(3t) − cos(t)) − t sin(t) se puede hacer arbitrariamente pequeño por la elec-
32 8
ción de ε suficientemente pequeña, para algún t ∈ [0, T ].

14
1.3 Métodos de perturbación

Aproximacion con perturbación asintótica


4
ode45
Teoría de Perturbación
2
u(t)

−2
0 10 20 30 40 50
t
Diferencia entre ode45 y Perturbación asintótica
2

1.5
Error

0.5

0
0 10 20 30 40 50
t

Figura 1.3. Evolución de la amplitud con respecto al tiempo de la solución a la ecuación (1.43)
y la ecuación (1.50) con ε = 0.1 y T ∼ 10, mostrando también el error absoluto de aproximación
con la solución numérica.

En donde ode45 es una función del sofware MATLAB


R
el cual resuelve mediante
procedimientos numéricos ecuaciones diferenciales. Empleando la idea del método de
Poincaré-Lindstedt, la cual es introducir una escala de tiempo distorsionada en la serie
de aproximación (1.44), ver [15]. En particular, dejamos que:

u(τ ) = a0 (τ ) + εa1 (τ ) + ε2 a2 (τ ) + ... , (1.51)

donde se ha escalado el ”tiempo” en la forma:

τ = wt, (1.52)

y se ha ”corregido” :
w = 1 + εw1 + ε2 w2 + ... (1.53)

15
1. ASPECTOS TEÓRICOS

Aquı́ w0 ha sido elegido para que sea la unidad, la frecuencia de la solución de el


problema no perturbado. Según la transformación de escala (1.52) el problema de valor
inicial (1.43) de nuestro ejemplo queda de la siguiente manera:

w2 u00 (τ ) + u(τ ) + εu3 (τ ) = 0, τ > 0, (1.54)

u(0) = 1, u0 (0) = 0, (1.55)

donde la prima denota ahora la diferenciación con respecto a la nueva escala τ . Susti-
tuyendo (1.51) y (1.53) en (1.54) y (1.55) se encuentra:

[1 + 2εw1 + ε2 w12 + 2w2 + ...][a000 + εa001 + ...] + [a0 + εa1 + ...] + ε[a30 + 3εa20 a1 + ...] = 0,


a0 (0) + εa1 (0) + ... = 1, a00 (0) + εa01 (0) + ... = 0.

Igualando los coeficientes de las potencias de ε0 y ε con 0 obtenemos:

ε0 : a000 + a0 = 0, a0 (0) = 1, a00 (0) = 0, (1.56)

ε1 : a001 + a1 = −2w1 a000 − a30 , a1 (0) = a01 (0) = 0. (1.57)

La solución de (1.56) es a0 (τ ) = cos(τ ). Entonces la ecuación diferencial (1.57) se


convierte en:
 
3 1
a001 + a1 = 2w1 cos(τ ) − cos3 (τ ) = 2w1 − cos(τ ) − cos(3τ ). (1.58)
4 4
Debido a que cos(τ ) es una solución para la ecuación homogenea en (1.58), el término
cos(τ ) en el lado derecho de la ecuación conduce a una solución particular con un
término τ cos(τ ), que es un término secular. La observación clave es que podemos
evitar un término secular si elegimos w1 = 38 .

Proposición 1.3.1 Supongamos que f : T → R es una función suave 2π periódica,


donde T es el cı́rculo unitario de longitud 2π. La EDO:

y 00 + y = f, (1.59)

tiene una solución 2π periódica si y sólo si,


Z Z
f (t) cos(t) dt = 0, f (t) sin(t) dt = 0. (1.60)
T T

16
1.3 Métodos de perturbación

Demostración 1.3.0.2 Sea L2 (T) el espacio de Hilbert de las funciones 2π−periódi-


cas, con producto interno definido de la manera usual:
Z
< y, z >= y(t)z(t) dt, y, z ∈ L2 (T).
T
Se escribe la EDO (1.59) como:
d2
Ay = f , con A= + 1.
dt2
Dos integraciones por partes implican que:
Z Z
< y, Az >= y(z 00 + z) dt = (y 00 + y)z dt =< Ay, z >,
T T
en donde:
yz 0 − zy 0 T = 0,


lo que significa que el operador A es formalmente autoadjunto en L2 (T). Por lo tanto,


se deduce que si Ay = f y Az = 0, entonces:

< f, z >=< Ay, z >=< y, Az >= 0.

El espacio nulo de A esta generado por las funciones periódicas cos(t) y sin(t). Por lo
tanto, la condición indica que es necesaria para la existencia de una solución. Cuando
estas condiciones de solvencia se mantienen, el método de variación de parámetros
puede ser utilizado para construir una solución periódica. Por lo tanto, las condiciones
también son suficientes. 

En efecto por la proposición anterior se tiene que:


 
3 1
f (τ ) = 2w1 − cos(τ ) − cos(3τ ). (1.61)
4 4
Ahora proyectando f (τ ) con la función seno:
Z 2π   Z 2π
3
f (τ ) sen(τ )dτ = 2w1 − cos(τ ) sen(τ )dτ
0 4 0
1 2π
Z
− cos(3τ ) sen(τ )dτ = 0, (1.62)
4 0
y proyectando también a f (τ ) con la función coseno se obtiene:
Z 2π   Z 2π
3
f (τ ) cos(τ )dτ = 2w1 − cos(τ ) cos(τ )dτ
0 4 0
1 2π
Z
− cos(3τ ) cos(τ )dτ
4 0
3
= (2w1 − )π, (1.63)
4

17
1. ASPECTOS TEÓRICOS

pero se tiene que:


Z 2π
f (τ ) cos(τ )dτ = 0,
0
3
(2w1 − )π = 0,
4
3
w1 = . (1.64)
8
Como ya se habı́a observado anteriormente se tiene que elegir adecuadamente a w1 para
eliminar términos seculares. Entonces (1.58) se convierte en:
1
a001 + a1 = − cos(3τ ).
4
La cual tiene como solución general:
1
a1 (τ ) = c1 cos(τ ) + c2 sin(τ ) + cos(3τ ).
32
Evaluando las condiciones iniciales se encuentra que la solución es:
1
a1 (τ ) = (cos(3τ ) − cos(τ )).
32
Por lo tanto la aproximación de perturbación de (1.43) es:
ε
u(τ ) = cos(τ ) + [cos(3τ ) − cos(τ )] + O(ε2 ),
32
3
τ = t + εt + O(ε2 ). (1.65)
8
La Figura 1.4 muestra la aproximación por el método de Poincaré-Lindstedt a la solu-
ción exacta, la cual fue obtenida por ode45 de matlab, en la cual se puede apreciar que
la aproximación es muy cercana a la solución ”exacta” para tiempos largos.

Notemos que los métodos de perturbación asintótica permiten aproximar una so-
lución periódica de ecuaciones diferenciales ordinarias débilmente no lineales. En la
siguiente subsección generalizaremos el método de Poincaré-Lindstedt.

18
1.3 Métodos de perturbación

Aproximacion con Poincaré−Lindsted


2
ode45
Poincaré−Lindsted
1
u(t)

−1
0 10 20 30 40 50
t
Diferencia entre ode45 y Poincaré−Lindsted
0.04

0.03
Error

0.02

0.01

0
0 10 20 30 40 50
t

Figura 1.4. Evolución de la amplitud con respecto al tiempo de la ecuación (1.43) y la ecuación
(1.65) con ε = 0.1, y el error de aproximación con la solución exacta.

1.3.2. Escalas múltiples

El método de escalas múltiples es aplicable a problemas caracterizados por incorpo-


rar dos o más procesos fı́sicos gobernados cada uno por su propia escala pero actuando
simultáneamente. La idea básica en este método es, como su nombre lo indica, introdu-
cir varias escalas diferentes (medidas en términos del parámetro pequeño del problema)
asociadas cada una con alguna propiedad de la solución, es decir, no solo usar una es-
cala de tiempo t, sino más escalas t, 2t, ..., de tal manera que podamos hacer frente a
los tiempos t de orden O(ε−k ), ver [14] y [16]. Introducimos entonces nuevas variables

19
1. ASPECTOS TEÓRICOS

o escalas independientes de la forma:

Tm = εm t, m = 0, 1, 2, ... (1.66)

donde Tm denota la escala de tiempo. Prosiguiendo con el método se deben tener las
derivadas con respecto a t, mediante el uso de la regla de la cadena. Las derivadas en
el tiempo se transforman como:
d dT0 ∂ dT1 ∂ dT2 ∂
= + + + ... ,
dt dt ∂T0 dt ∂T1 dt ∂T2
d2 ∂2 ∂2 ∂2 ∂2
 
= + 2ε +ε +2 + ... (1.67)
dt2 ∂T02 ∂T1 ∂T0 ∂T12 ∂T2 ∂T0
y deben ser usadas en la ecuación diferencial a resolver considerando sus condiciones.
Antes de empezar su aplicación haremos una aclaración: El proceso transforma cual-
quier ecuación diferencial (ordinaria) en una ecuación diferencial parcial. Esto podrı́a
parecer una dificultad; sin embargo en general debemos anticipar que el problema que
resulta no es más complicado que el problema original. Lo que generalmente ocurre
es que, en los procesos de integración que aparecen al aplicar el método, en lugar de
presentarse constantes arbitrarias, resultan funciones arbitrarias de las otras variables.
Para propósitos ilustrativos consideremos la siguiente ecuación diferencial ordinaria y
lineal homogenea:

d2 y(t) dy(t)
+ 2ε + y(t) = 0, y(0) = α, y 0 (0) = 0, (1.68)
dt2 dt
con ε  1 y α una constante. Supongamos que la solución de (1.68) puede ser repre-
sentada por una expansión que tiene la forma:

X
y(t) = εn Yn (T0 , T1 , T2 , ...), (1.69)
n=0

para nuestro propósito pensamos a las variables T0 = t, T1 = τ = εt y T2 = σ = ε2 t, es


decir, Yn = Yn (t, τ, σ), entonces tenemos usando (1.67) que:
 X ∞
d ∂ ∂ 2 ∂
y(t) = +ε +ε εn Yn (t, τ, σ, ...)
dt ∂t ∂τ ∂σ
n=0
 
∂ ∂ ∂
+ ε2 Y0 (t, τ, σ) + εY1 (t, τ, σ) + ε2 Y2 (t, τ, σ) + O(ε3 )
 
= +ε
∂t ∂τ ∂σ
   
∂ ∂ ∂ 2 ∂ ∂ ∂
= Y0 + ε Y0 + Y1 + ε Y0 + Y1 + Y2 + O(ε3 ), (1.70)
∂t ∂τ ∂t ∂σ ∂τ ∂t

20
1.3 Métodos de perturbación

y también:

d2 ∂2 ∂2 ∂2
 
y(t) = Y 0 + ε 2 Y0 + Y 1
dt2 ∂t2 ∂τ ∂t ∂t2
 2
∂2 ∂2 ∂2

2 ∂
+ε Y0 + 2 Y0 + 2 Y1 + 2 Y2 + O(ε3 ). (1.71)
∂τ 2 ∂σ∂t ∂τ ∂t ∂t

Ahora sustituimos (1.70) y (1.71) en la ecuación diferencial (1.68) y ordenamos las


potencias de ε, resulta que:
 2  2
∂2
 
∂ ∂ ∂
Y0 + Y0 + ε Y1 + Y1 + 2 Y0 + 2 Y0
∂t2 ∂t2 ∂τ ∂t ∂t
 2 2 2 ∂2

2 ∂ ∂ ∂ ∂ ∂
+ ε Y2 + Y2 + 2 Y0 + 2 Y0 + 2 Y0 + 2 Y1 + 2 Y1
∂t2 ∂τ ∂σ∂t ∂τ ∂τ ∂t ∂t
+ O(ε3 ) = 0, (1.72)

donde las condiciones iniciales (1.68) ahora son:

α = Y0 (0, 0, 0) + εY1 (0, 0, 0) + ε2 Y2 (0, 0, 0) + ... ,


 
∂ ∂ ∂
0 = Y0 (0, 0, 0) + ε Y0 (0, 0, 0) + Y1 (0, 0, 0) +
∂t ∂τ ∂t
 
2 ∂ ∂ ∂
ε Y0 (0, 0, 0) + Y1 (0, 0, 0) + Y2 (0, 0, 0) + ... . (1.73)
∂σ ∂τ ∂t

Comparamos las potencias de ε, se encuentran las siguientes ecuaciones diferenciales


parciales,

∂2
Y0 + Y0 = 0,
∂t2

Y0 (0, 0, 0) = α, Y0 (0, 0, 0) = 0. (1.74)
∂t

∂2 ∂2
 

Y1 + Y1 = − 2 Y0 + 2 Y0 ,
∂t2 ∂τ ∂t ∂t
∂ ∂
Y1 (0, 0, 0) = 0, Y1 (0, 0, 0) = − Y0 (0, 0, 0). (1.75)
∂t ∂τ

∂2 ∂2 ∂2 ∂2
 
∂ ∂
Y2 + Y2 = − Y0 + 2 Y0 + 2 Y0 + 2 Y1 + 2 Y1 ,
∂t2 ∂τ 2 ∂σ∂t ∂τ ∂τ ∂t ∂t
∂ ∂ ∂
Y2 (0, 0, 0) = 0, Y2 (0, 0, 0) = − Y1 (0, 0, 0) − Y0 (0, 0, 0). (1.76)
∂t ∂τ ∂σ

21
1. ASPECTOS TEÓRICOS

Resolviendo (1.74) se encuentra que la solución es de la forma:

Y0 (t, τ, σ) = A(τ, σ) cos(t) + B(τ, σ) sen(t), A(0, 0) = α, B(0, 0) = 0, (1.77)

donde aún falta especificar las funciones A y B. Calculamos las derivadas parciales
de Y0 con respecto a t, τ y σ, y sustituimos en (1.75), esto también nos dará algunas
condiciones, que A y B deben satisfacer, y obtenemos:

∂2
   
∂ ∂
Y1 +Y1 = 2 A(τ, σ) + A(τ, σ) sen(t)−2 B(τ, σ) + B(τ, σ) cos(t). (1.78)
∂t2 ∂τ ∂τ

Notemos que el lado derecho está en resonancia con la solución de la ecuación homo-
genea,
∂2
Y1 + Y1 = 0, (1.79)
∂t2
si los términos que acompañan a cos(t) y sen(t) son no cero. Más aún como tratamos a
t, τ y σ como independientes, tales términos son constantes con respecto a t, entonces
por lo tanto para evitar términos seculares A y B deben satisfacer:

A = −A, A(0, 0) = α,
∂τ

B = −B, B(0, 0) = 0, (1.80)
∂τ
donde las condiciones iniciales son dadas a partir de (1.77). Entonces resolviendo la
ecuación diferencial parcial (1.80) se encuentra que:

A(τ, σ) = γ(σ)e−τ , γ(0) = α,


B(τ, σ) = δ(σ)e−τ , δ(0) = 0. (1.81)

Ası́ entonces tenemos que (1.78) nos queda como:

∂2 ∂
Y1 + Y1 = 0, Y1 (0, 0, 0) = 0, Y1 (0, 0, 0) = α, (1.82)
∂t2 ∂t
la cual tiene como solución:

Y1 (t, τ, σ) = C(τ, σ) cos(t) + D(τ, σ) sen(t), C(0, 0) = 0, D(0, 0) = α. (1.83)

Cuando quisimos determinar las funciones A(τ, σ) y B(τ, σ) para Y0 , hemos tenido
que considerar la ecuación para Y1 y se tuvo la condición (1.81) para evitar términos

22
1.3 Métodos de perturbación

seculares. Lo mismo se hace ahora con el fin de determinar C y D mediante el análisis


de la ecuación diferencial para Y2 , y por lo tanto obtenemos:
∂2
 2
∂2 ∂2

∂ ∂ ∂
Y2 + Y2 = − Y0 + 2 Y0 + 2 Y0 + 2 Y1 + 2 Y1
∂t2 ∂τ 2 ∂σ∂t ∂τ ∂τ ∂t ∂t
  

2γ 0 (σ) + δ(σ) e−τ + 2

= C +C sen(t)
∂τ
  
0
 −τ ∂
+ −2δ (σ) + γ(σ) e − 2 D + D cos(t). (1.84)
∂τ
Una vez más tenemos que elegir adecuadamente los términos que acompañan a sen(t)
y cos(t) para evitar términos seculares, entonces tenemos:
 
0 τ ∂
2γ (σ) + δ(σ) = −2e ( C + C ,
∂τ
 
0 τ ∂
−2δ (σ) + γ(σ) = 2e D+D , (1.85)
∂τ
y como el lado izquierdo solo depende de σ concluimos que el lado derecho tiene que
ser constante con respecto a τ . Por lo tanto escribimos las ecuaciones para C(τ, σ) y
D(τ, σ) como:
∂ 1
C + C = − e−τ f (σ), C(0, 0) = 0,
∂τ 2
∂ 1 −τ
D+D = e g(σ), D(0, 0) = α. (1.86)
∂τ 2
Observando el lado derecho de las últimas ecuaciones uno reconoce los términos se-
culares e−τ , entonces con el fin de asegurar que Y1 permanezca acotada, tenemos que
establecer f (σ) = 0 = g(σ) y encontramos:

C(τ, σ) = 0,
D(τ, σ) = αe−τ . (1.87)

Entonces (1.85) se convierte en:

2γ 0 (σ) + δ(σ) = 0, γ(0) = α,


−2δ 0 (σ) + γ(σ) = 0, δ(0) = 0. (1.88)

Como se puede comprobar fácilmente, las funciones,


   
1 1
γ(σ) = α cos σ y δ(σ) = α sen σ , (1.89)
2 2

23
1. ASPECTOS TEÓRICOS

son soluciones al sistema enterior. Finalmente obtenemos que (1.77) y (1.83) son:
     
−τ 1 1
Y0 (t.τ, σ) = αe cos σ cos(t) + sen σ sen(t)
2 2
 
1
= αe−τ cos t − σ ,
2
−τ
Y1 (t, τ, σ) = αe sen(t). (1.90)

Por último, si realizamos un poco de cálculos vemos que la ecuación (1.76), simplifica
en:
∂2 ∂
Y2 + Y2 = 0, Y2 (0, 0, 0) = 0, Y2 (0, 0, 0) = 0, (1.91)
∂t2 ∂t
y la solución para está última es Y2 (t, τ, σ) = 0 , para todo t, τ, σ. En general tenemos
que la aproximación (1.69) para el problema (1.68) se escribe como:

y(t) = Y0 (t, τ, σ) + εY1 (t, τ, σ) + O(ε3 )


ε2
    
−εt
= αe cos 1− t + ε sen(t) + O(ε3 ). (1.92)
2
La aproximación del método de escalas multiples y la solución numérica por medio de
ode45 de matlab para α = 5 y ε = 0.25 se representa en la Figura 1.5.

5
ode45
a) Escalas Multiples
y(t)

−5
0 5 10 15 20
t

0.08
b)
0.06
Error

0.04

0.02

0
0 5 10 15 20
t

Figura 1.5. a) Evolución en amplitud de la solución a la ecuación diferencial (1.68) en el


tiempo, con α = 5 y ε = 0.25. La lı́nea discontinua (continua) muestra la aproximación con el
método de escalas múltiples (ode45). b) Error entre la solución exacta de ode45 de matlab y la
solución aproximada con el método de escalas múltiples.

24
1.4 Aproximación numérica

Como se puede observar la aproximación es muy buena a pesar de haber hecho el


parámetro de perturbación relativamente grande, se observa la gran importancia del
método de escalas multiples el cual aproxima la solución por medio de varias escalas,
esto nos permite encontrar adecuadamente las amplitudes y frecuencias de la solución
exacta la cual es:
 
−εt
p
2
 ε p
2
y(t) = αe cos 1−ε t + √ sen 1−ε t . (1.93)
1 − ε2
Si comparamos la solución asintótica (1.92) con la solución exacta (1.93) vemos como las
escalas múltiples τ y σ ”ajustaron” de distinta manera o a distinto orden los argumentos
de los términos exponencial, coseno y seno tal que la aproximación fuese buena para
tiempos largos, a pesar de tener un parámetro de perturbación grande.

En el siguiente apartado presentamos un método de aproximación numérica para re-


solver ecuaciones diferenciales, el cual será de gran utilidad en el problema de aplicación
de esta Tesis.

1.4. Aproximación numérica

En ciencia e ingenierı́a son escasos los problemas que se pueden resolver de forma
analı́tica exacta. En ocasiones afortunadas logramos al menos hallar soluciones analı́ti-
cas aproximadas como las proveı́das por las escalas múltiples de la sección anterior, en
otros casos, nuestra solución del problema es de un tipo menos especı́fico, más global,
más cualitativo. Felizmente, en muchos casos podemos recurrir a la resolución de es-
tos problemas mediante los métodos numéricos. Encontramos varios ejemplos de estas
afirmaciones en las ecuaciones diferenciales no lineales. La importancia de los métodos
numéricos es creciente debido a la existencia generalizada de ordenadores relativamente
baratos y de gran potencia de cálculo. Sin embargo, los métodos numéricos carecen de
una incapacidad para el análisis. Por este motivo es generalmente muy difı́cil entender
un sistema si sólo se sabe de él lo que nuestros cálculos numéricos nos han propor-
cionado y es por ello que pueden eventualmente volverse ”cajas negras”. Más aún las

25
1. ASPECTOS TEÓRICOS

expresiones analı́ticas o los resultados cualitativos tienen la enorme ventaja de permi-


tirnos entender de “un vistazo” lo que es relevante en un problema fı́sico. Alcanzar un
grado equivalente de certeza o comprensión mediante procedimientos exclusivamente
numéricos sin apenas apoyos teóricos suele ser imposible o, si hay suerte, puden ser
extremadamente laboriosos.

1.4.1. Método de Runge-Kutta

Debido a su sencilla programación y su precisión, el método de Runge-Kutta es


uno de los métodos más frecuentemente aplicados en la determinación de soluciones
numéricas de problemas de valor inicial. Consideremos el problema de valor inicial:
dy
= f (x, y),
dx
y(x0 ) = y0 . (1.94)

Vamos a suponer que (1.94) es un problema bien planteado, esto es, que hay solución
y que ésta es única. Además, supondremos que f es suficientemente diferenciable en
x y y. Los métodos de Runge-Kutta de orden m + 1 se diseñan para reproducir la
estimación de yn+1 − yn que proporciona la serie de Taylor:
dy(xn ) h2 d2 y(xn ) h3 d3 y(xn )
y(xn+1 ) = y(xn ) + h + + + ... (1.95)
dx 2! dx2 3! dx3
De (1.94) se obtienen las derivadas altas:
d2 y ∂f ∂f dy
= + = fx + f fy ,
dx2 ∂x ∂y dx
 2 2
d3 y ∂2f dy ∂ 2 f
 
dy ∂ f ∂f ∂f dy ∂f
= +2 + + +
dx3 ∂x2 dx ∂x∂y dx ∂y 2 ∂y ∂x dx ∂y
= fxx + 2f fxy + f 2 fyy + fy (fx + f fy ) , (1.96)

con fx y fy las derivadas parciales de f con respecto de x y y. Ahora sustituyendo


(1.96) en (1.95), obtenemos:
h2
yn+1 = yn + fn h + [fx + f fy ]n
2!
 h3
fxx + 2f fxy + f 2 fyy + fy (fx + f fy ) n

+ + . . . , (1.97)
3!

26
1.4 Aproximación numérica

en donde el subı́ndice n indica que las funciones deben ser evaluadas en el punto (xn , yn ).
Por otro lado, con el propósito de evitar el uso de varias derivadas, tomamos arbitra-
riamente:
yn+1 = yn + α0 k0 + α1 k1 + α2 k2 + α3 k3 + . . . + αm km , (1.98)

donde:

k0 = f (xn , yn )h,
k1 = f (xn + a1 h, yn + b10 k0 )h
k2 = f (xn + a2 h, yn + b20 k0 + b21 k1 )h
..
.
km = f (xn + am h, yn + bm0 k0 + bm1 k1 + . . . + bm,m−1 km−1 )h. (1.99)

Las αi , ai y bij son constantes desconocidas. La serie de Taylor para dos variables sobre
el punto (x, y) esta descrita por:

f (x + p, y + q) = f (x, y) + fx (x, y)p + fy (x, y)q


1 
fxx (x, y)p2 + 2fxy (x, y)pq + fyy (x, y)q 2 + . . . ,(1.100)

+
2!
el cual también se puede reescribir como:
 
∂ ∂
f (x + p, y + q) = f (x, y) + p +q f (x, y)
∂x ∂y
∂ 2
 
1 ∂
+ p +q f (x, y)
2! ∂x ∂y
∂ 3
 
1 ∂
+ p +q f (x, y) + . . . (1.101)
3! ∂x ∂y

Ahora si usamos (1.101) en la expansión de los lados derechos de (1.99), obtenemos,


para m = 3,

k0 = fn h,
"
∂ 2
   
∂ ∂ 1 ∂
k1 = fn + a1 h + b10 k0 fn + a1 h + b10 k0 fn
∂x ∂y 2! ∂x ∂y
#
∂ 3
 
1 ∂
+ a1 h + b10 k0 fn + . . . h, (1.102)
3! ∂x ∂y

27
1. ASPECTOS TEÓRICOS

  
∂ ∂
k2 = fn + a2 h + (b20 k0 + b21 k1 ) fn
∂x ∂y
∂ 2
 
1 ∂
+ a2 h + (b20 k0 + b21 k1 ) fn
2! ∂x ∂y
#
∂ 3
 
1 ∂
+ a2 h + (b20 k0 + b21 k1 ) fn + . . . h,
3! ∂x ∂y
  
∂ ∂
k3 = fn + a3 h + (b30 k0 + b31 k1 + b31 k2 ) fn
∂x ∂y
∂ 2
 
1 ∂
+ a3 h + (b30 k0 + b31 k1 + b31 k2 ) fn
2! ∂x ∂y
#
∂ 3
 
1 ∂
+ a3 h + (b30 k0 + b31 k1 + b31 k2 ) fn + . . . h. (1.103)
3! ∂x ∂y

Por otro lado sustituyendo (1.103) en (1.98), y luego igualando los coeficientes corres-
pondientes con (1.97), obtenemos que:

a1 = b10 ,
a2 = b20 + b21 ,
a3 = b30 + b31 + b32 ,
α0 + α1 + α2 + α3 = 1,
1
α1 a1 + α2 a2 + α3 a3 = ,
2
1
α1 a21 + α2 a22 + α3 a23 = ,
3
3 3 3 1
α1 a1 + α2 a2 + α3 a3 = ,
4
1
α2 a1 b21 + α3 (a1 b31 + a2 b32 ) = ,
6
2 2 2
 1
α2 a1 b21 + α3 a1 b31 + a2 b32 = ,
12
1
α2 a1 a2 b21 + α3 a3 (a1 b31 + a2 b32 ) = ,
8
1
α3 a1 b21 b32 = . (1.104)
24

28
1.4 Aproximación numérica

Como podemos notar tenemos 13 incógnitas y solo 11 ecuaciones por lo que tomaremos
arbitrariamente α1 = α2 = 31 . Con estos valores de α, las demás constantes son:

1 1 1
α0 = , a1 = , b10 = ,
6 2 2
1 1 1
α1 = , a2 = , b20 = 0, b21 = ,
3 2 2
1
α2 = , a3 = 1, b30 = 0, b31 = 0, b32 = 1,
3
1
α3 = . (1.105)
6
Ésta es una solución de las ecuaciones (1.104), como puede verificar el lector fácilmente.
Sustituyendo estas constantes en (1.98), obtenemos:
h
yn+1 = yn + (kn0 + 2kn1 + 2kn2 + kn3 ) , (1.106)
6
ki
donde kni = h estan dadas por:

kn0 = f (xn , yn ),
 
h kn0
kn1 = f xn + , yn + h ,
2 2
 
h kn1
kn2 = f xn + , yn + h ,
2 2
kn3 = f (xn + h, yn + kn2 h) , (1.107)

Esta fórmula discretizada es conocida como fórmula de Runge-Kutta de cuarto orden


pues la expansión de Taylor corrige la aproximación a orden h4 . El método numérico que
hemos presentado esta diseñado para resolver una única ecuación diferencial de primer
orden. Sin embargo, su generalización para hacerlo aplicable a sistemas de ecuaciones
diferenciales de primer orden no es especialmente difı́cil. Por ejemplo, para el sistema:
dx
= f (t, x, y),
dt
dy
= g(t, x, y). (1.108)
dt
El método de Runge-Kutta de cuarto orden que resuelve el sistema (1.108) es:
h
xn+1 = xn + (kn0 + 2kn1 + 2kn2 + kn3 ) ,
6
h
yn+1 = yn + (ln0 + 2ln1 + 2ln2 + ln3 ) , (1.109)
6

29
1. ASPECTOS TEÓRICOS

donde se tiene que kni y lni estan dados por, ver [17]:

kn0 = f (tn , xn , yn ),
ln0 = g(tn , xn , yn ),
 
h kn0 ln0
kn1 = f tn + , xn + h, yn + h ,
2 2 2
 
h kn0 ln0
ln1 = f tn + , xn + h, yn + h ,
2 2 2
 
h kn1 ln1
kn2 = f tn + , xn + h, yn + h ,
2 2 2
 
h kn1 ln1
ln2 = f tn + , yn + h, yn + h ,
2 2 2
kn3 = f (tn + h, xn + kn2 h, yn + ln2 h) ,
ln3 = f (tn + h, xn + kn2 h, yn + ln2 h) . (1.110)

Si se tiene una ecuación diferencial de segundo orden ésta la podemos convertir en un


sistema de ecuaciones diferenciales de primer orden.

En general el método de Runge-Kutta va a degradar las soluciones ya que este tiene


un error de precisión y si a ésto le sumamos también que la computadora va perdiendo
dı́gitos significativos por la mantisa que éste tenga, entonces el error acumulando cre-
cera y el método empezará a perder precisión con respecto a la solución exacta. En el
desarrollo de esta Tesis cabe resaltar que se tiene un sistema conservativo, es decir, que
nuestro sistema preserva energı́a. Entonces debemos tener cuidado con esta situación,
ya que nuestro método numérico puede no ser tan bueno por las cuestiones antes men-
cionadas y éste podrá decirnos que nuestro sistema no es conservativo. Ésto puede ser
cuando grafiquemos por ejemplo la energı́a y tenga perturbaciones. Para prevenir ésta
cuestión existen otro tipo de métodos llamado integrador simpléctico, el cual se cons-
truye ajustando el orden de aproximación deseado pero conservando la energı́a total del
sistema. Para los alcances de esta tesis basta con ocupar el método de Runge-Kutta de
cuarto orden con un tamaño de paso adecuado h. Sin embargo, es preciso hacer notar
que para evoluciones demasiado largas el integrador simpléctico sı́ es necesario.

30
1.4 Aproximación numérica

Con la teorı́a desarrollada en este capı́tulo pretendemos estudiar un sistema de


ecuaciones diferenciales basado en el movimiento de N masas (partı́culas) conectadas
por medio de resortes donde las masas en los extremos estan fijas, además el potencial
de interacción entre éstas no cumple la ley de Hooke, ya que tendrá una perturbación
no lineal por un parámetro relativamente pequeño. Esto lo desarrollaremos a detalle en
el siguiente capı́tulo.

31
Capı́tulo 2

Sistemas finitos oscilatorios

Consideremos el problema de transferencia de energı́a en sistemas finitos de oscila-


dores. En la primera parte estudiamos el lı́mite lineal Hookeano y mostramos que en
las variables de Fourier o de ángulo y acción, no es posible dicha transferencia debido al
desacople entre los sitios. El desacople del caso lineal es obtenido por medios matriciales
y de ondas planas. Finalmente, consideramos efectos débilmente no lineales, del tipo
cúbico, y mostramos númericamente la posibilidad de transferencia (comunicación) en-
tre los sitios. Dicha transferencia se estudia con el análisis de la evolución temporal de
la energı́a mecánica total del sistema.

2.1. Osciladores lineales

Consideremos el problema de mecánica clásica para una cadena (lattice) de N masas


iguales conectadas por resortes, en donde la primera y la última de las masa están fijadas
por las condiciones de frontera de Dirichlet esquematizado en la Figura 2.1.

33
2. SISTEMAS FINITOS OSCILATORIOS

Figura 2.1. Cadena unidimensional finita de N osciladores lineales.

En un sistema conservativo la fuerza de interacción entre las masas satisface:


dφ(r)
F (r) = − , (2.1)
dr
para un campo potencial φ conocido. Cuando la fuerza de interacción, F (r), es propor-
cional a r se tiene la ley de Hooke, es decir, el resorte es lineal. Luego:
k 2
φ(r) = r , (2.2)
2
donde k es la constante del resorte o constante de Hooke. Sea rj = yj+1 − yj el despla-
zamiento relativo de la j-ésima masa con respecto a la (j + 1)−ésima. De ésta manera
la ecuación de movimiento para la j-ésima partı́cula con masa m se obtiene de aplicar
segunda y tercera ley de Newton, en donde la fuerza que ejerce la partı́cula j−ésima
sobre la partı́cula (j + 1)−ésima es:

Fjj+1 = k(yj+1 − yj ). (2.3)

La fuerza que ejerce la partı́cula j−ésima sobre la reacción de la (j − 1)−ésima es:

Fjj−1 = −k(yj − yj−1 ), (2.4)

por lo tanto, se tiene que la ecuación que describe el movimiento de la n−ésima masa
es:
d2 yn
m = Fnn−1 + Fnn+1 . (2.5)
dt2
Esto es:
d2 yn
m = k(yn+1 − yn ) − k(yn − yn−1 )
dt2
= k(yn+1 − 2yn + yn−1 ), (2.6)

34
2.1 Osciladores lineales

donde n = 1, 2, ..., N y de la condición de frontera y0 (t) = yN +1 (t) = 0, es decir,


podemos pensar las condiciones como tener sujeta la cadena a una pared. En el siguiente
apartado resolveremos el sistema (2.6) con la ayuda del álgebra lineal que fue revisado
en el capı́tulo anterior.

2.1.1. Solución matricial

Las ecuaciones de movimiento para cada una de las partı́culas quedan descritas de
la siguiente forma:

d2 y1
m = k(y2 − 2y1 ),
dt2
d2 y2
m 2 = k(y3 − 2y2 + y1 ),
dt
..
.
d2 yN −1
m = k(yN − 2yN −1 + yN −2 ),
dt2
d2 yN
m 2 = k(−2yN + yN −1 ). (2.7)
dt
Observemos que tenemos un sistema de N ecuaciones diferenciales linealmente acopla-
das, el cual se puede reescribir en forma matricial de la siguiente forma:

Y 00 = c2 AY, (2.8)
k
con c2 = es una constante, y la prima denota la diferenciación con respecto a t,
m
donde también:
−2 ···
 
1 0 0 0 0
 1
 −2 1 ··· 0 0 
 0
 0 1 −2 ··· 0 0  0
A= . ,
 
.. .. .. .. .. ..
 .. . . . . . .
 
 0 0 0 ··· 1 −2 1 
0 0 0 ··· 0 1 −2

35
2. SISTEMAS FINITOS OSCILATORIOS

 
y1 (t)

 y2 (t) 

 y3 (t) 
Y = .
 
..

 . 

 yN −1 (t) 
yN (t)
Se tiene que A es una matriz real de tamaño N × N y simétrica, donde además se
~ T AY
puede verificar que es definida negativa, esto es, que Y ~ < 0, Y 6= 0. De la sección
1.2 sabemos que A tiene todos sus valores propios reales y vectores propios asociados
ortogonales. Sea v = (v1 , v2 , ..., vN ) uno de dichos vectores propios de A con valor propio
λ, entonces:
Av = λv. (2.9)

Dada la forma tridiagonal de A, la n−ésima relación obtenida de la ecuación anterior


es de la forma:

vn+1 − 2vn + vn−1 = λvn , n = 1, 2, ..., N. (2.10)

Ahora planteamos primero una ecuación en diferencias de primer orden, cuya solución
nos proporciona intuición acerca de cómo resolver (2.10). Comenzamos con la discreti-
zación de una ecuación diferencial de primer orden, la cual deseamos resolver, digamos:

y 0 (t) = αy(t), y(t0 ) = y0 . (2.11)

En el caso de que t sea una variable continua tenemos la sencilla solución y(t) =
y0 eα(t−t0 ) . Pero qué ocurre si resolvemos la ecuación anterior discretizando el intervalo.
Consideremos el intervalo [t0 , T ] y lo dividimos en N partes iguales de tamaño h =
(T − t0 )/N . Denotemos por sn , con n = 0, 1, ..., N , a los puntos de la partición pidiendo
obviamente que s0 = t0 y sN = T . De ésto se deduce que sn+1 − sn = h y sn =
t0 + nh. La ecuación diferencial y la condición inicial en sus versiones discretas, con
una aproximación de Euler de primer orden, quedan ahora:
yn+1 − yn
= αyn , y(t0 ) = y0 , (2.12)
h
donde hemos escrito que y(sn ) = yn . De la ecuación (2.12) llegamos a yn+1 = (1+αh)yn ,
notando entonces que esta relación nos da una yn en términos de la anterior, y como
conocemos y0 , podemos hacer iteraciones llegando finalmente a:

yn+1 = (1 + αh)n+1 y0 , para n = 0, 1, ..., N − 1. (2.13)

36
2.1 Osciladores lineales

Entonces el valor de yn en cualquier punto de la partición es del tipo exponencial


yn = bz n con b una constante. El notar que la solución es ası́, representa el punto
importante del problema y este resultado se utilizará más adelante. Debido a que en
realidad el valor T y la partición en N partes es arbitraria, podemos conocer a yn
mediante este proceso en cualquier punto posterior a t0 , haciendo una partición lo
suficientemente buena. Por otro lado, apartir de la solución discreta (2.13) se puede
obtener la solución para el lı́mite continuo, es decir, y(t) = y0 eα(t−t0 ) . Tomando ahora
a T como nuestra variable y viendo que el valor de y en ese punto está dado por:

y(sN ) = yN = (1 + αh)N y0 . (2.14)

Recordamos que h = (T − t0 )/N , reescribimos la ecuación (2.14) como:

α(T − t0 ) N
 
y(sN ) = 1 + y0 . (2.15)
N
Ahora hacemos el lı́mite cuando N → ∞ donde (sN = T ):

α(T − t0 ) N
 
y(T ) = lı́m 1 + y0 = y0 eα(T −t0 ) . (2.16)
N →∞ N
De esta manera recuperamos la solución para el caso continuo, que ya sabı́amos. En
nuestro problema de interés (2.6), resolveremos a los tres términos recurrentes consecu-
tivos (2.5) y vemos que la solución encontrada para la ecuación en diferencias anterior
es del estilo yn = bz n . Esto nos motiva a buscar una solución similar. Proponemos
vn = z n en (2.10) y, notando que z n describe una solución (2.10) si y sólo si:

z 2 − (λ + 2)z + 1 = 0, (2.17)

las raı́ces de (2.17) son: p


2+λ± λ(4 + λ)
z= . (2.18)
2
Ası́, usando la linealidad de la recurrencia de vn , la solución general tiene la forma:

vn = µz n + ϑz −n , (2.19)

donde µ y ϑ son escalares arbitrarios. Por otra parte, en vista de la condición de frontera,
se tiene v0 = 0 y vN +1 = 0, necesitamos que:

µ + ϑ = 0,
1
z N +1 − N +1 = 0. (2.20)
z

37
2. SISTEMAS FINITOS OSCILATORIOS

En particular, z debe satisfacer la ecuación z 2(N +1) = 1. Las posibles opciones para z
son las raı́ces de la unidad, las cuales son de la forma:

zl = eπil/(N + 1) , l = 0, 1, 2, ..., 2N + 1. (2.21)

Sustituyendo zl en (2.17) obtenemos:

e2iπl/(N + 1) − (λ + 2)eiπl/(N + 1) + 1 = 0. (2.22)

De donde se encuentra que los valores propios son:


 
πl
λl = −4 sin2 , (2.23)
2(N + 1)
se puede mostrar que los zl corresponden a N distintos valores propios de la matriz A,
para ver esto directamente consideremos el rango de enteros l expresados en la forma:

0, 1, ... , N, N + 1, (N + 1) + 1, ... , (N + 1) + N. (2.24)

Verifiquemos que los correspodientes zl estan dados unicamente por:

z0 = 1, z1 , ... , zN , zN +1 = −1, −z1 , ..., −zN , (2.25)

con los correspondientes λl :

λ0 = 0, λ1 , ... , λN , λN +1 = −4, λN , ..., λ1 . (2.26)

En efecto tenemos que:


π(0) π πN π(N +1)
z0 = ei N +1 = 1, z1 = ei N +1 , ... , zN = ei N +1 , zN +1 = ei N +1 = −1, (2.27)

Luego:
π(N +1+1) π
z(N +1)+1 = ei N +1 = eiπ ei N +1 = −z1 ,
..
.
π(N +1+N ) πN
z(N +1)+N = ei N +1 = eiπ ei N +1 = −zN . (2.28)

Ahora verifiquemos que los valores propios son N distintos:


   
2 π(0) 2 π
λ0 = −4 sen = 0, λ1 = −4 sen , ... ,
2(N + 1) 2(N + 1)
   
2 πN 2 π(N + 1)
λN = −4 sen , λN +1 = −4 sen = −4, (2.29)
2(N + 1) 2(N + 1)

38
2.1 Osciladores lineales

y también:
   
π(N + 1 + 1)
2 2 π(2(N + 1) − N )
λ(N +1)+1 = −4 sen = −4 sen
2(N + 1) 2(N + 1)
   
πN πN
= −4 sen2 π − = −4 sen2 = λN ,
2(N + 1) 2(N + 1)
   
2 π(N + 1 + N ) 2 π(2(N + 1) − 1)
λ(N +1)+N = −4 sen = −4 sen
2(N + 1) 2(N + 1)
   
2 π 2 π
= −4 sen π − = −4 sen = λ1 . (2.30)
2(N + 1) 2(N + 1)
Aquı́ los casos z0 = 1 y zN +1 = −1, están asociados a la condición de frontera por lo
tanto no producen valores propios, y entonces solo tenemos N valores propios distintos.
De (2.20) y (2.21) sus respectivos vectores propios (2.19) son:
 

iπln/(N + 1) −iπln/(N + 1)
 πln
vn = µ e −e = 2iµ sin . (2.31)
N +1

Si µ = 1/2i, entonces tenemos que para cada l = 1, ..., N , los vectores propios son v l
con componentes:  
l πl
vn = sin n . (2.32)
N +1
Debido a que A es simétrica, los vectores propios (2.32) correspondientes a distintos
valores propios son ortogonales con respecto al producto interno usual descrito en el
capitulo 1. Entonces se tiene que:
N  
D
l l
E X
2 πl
vn , vn = sin n . (2.33)
N +1
n=1

Sin embargo:
N   N    N  
X πl 1X 2πl N 1X 2πl
sin2 n = 1 − cos n = − cos n . (2.34)
N +1 2 N +1 2 2 N +1
n=1 n=1 n=1

Por otro lado, reescribiendo la sumatoria anterior se obtiene:


N   N  
X 2πl X 2πl
cos n = −1 + cos n , (2.35)
N +1 N +1
n=1 n=0

y usando la identidad de Euler, cos(θ) = Re(eiθ ) con Re la parte real, se tiene:


N   N
X 2πl X 2πl
cos n = Re eiθn , θ= , (2.36)
N +1 N +1
n=0 n=0

39
2. SISTEMAS FINITOS OSCILATORIOS

prosiguiendo con algunos cálculos obtenemos que:


 
πl
N   cos N sin(πl)
X 2πl N +1
cos n =   = 0, (2.37)
N +1 πl
n=0 sin
N +1
esto porque sin(πl) = 0 para l = 1, ..., N . Por lo tanto se encuentra:
N  
X
2 πl N 1 N +1
sin n = + = . (2.38)
N +1 2 2 2
n=1

Ası́, los vectores propios (2.32) normalizados:

 1  1  1
2 2 v1, 2 2 v 2 , ..., 2 2 vN , (2.39)
N +1 N +1 N +1

forman una base ortonormal de RN . Por otro lado, como la matriz A es real y simétrica,
entonces es diagonalizable ortogonalmente, esto es,

A = QDQ−1 , con Q−1 = Qt , (2.40)

en donde D es igual a la matriz diagonal (λ1 , λ2 , ..., λN ) y Q es la matriz formada por


los vectores propios normalizados (2.39). Entonces (2.8) se puede reescribir de la forma:

Y 00 = c2 QDQ−1 Y. (2.41)

Es decir:

Q−1 Y 00 = c2 DQ−1 Y. (2.42)

Realizando el cambio de variable X = Q−1 Y , el sistema (2.42) nos queda:

X 00 = c2 DX, (2.43)

el cual representa a un sistema desacoplado de ecuaciones diferenciales de segundo


orden, de la forma:
d2 xl
= c2 λl xl , l = 1, 2, .., N. (2.44)
dt2
Del sistema anterior se obtienen trivialmente las siguientes soluciones:
 p   p 
xl (t) = Cl cos c −λl t + Dl sen c −λl , l = 1, 2, ...N. (2.45)

40
2.1 Osciladores lineales

Pero tenemos que Y = QX, ası́ la solución general del sistema (2.6) es:
r N  
2 X πl
yn (t) = [Cl cos (ωl t) + Dl sen (ωl t)] sen n , (2.46)
N +1 N +1
l=1

con n = 1, 2, ..., N y también:


r  
p k πl
ωl = c −λl = 2 sen , l = 1, 2, ..., N, (2.47)
m 2(N + 1)

Más aún por medio de identidades trigonométricas, la solución (2.46) se puede reescribir
en la forma:
r N  
2 X πl
yn (t) = an cos (ωl t + ρl ) sen n , n = 1, 2, ..., N. (2.48)
N +1 N +1
l=1

Éste es l-ésimo modo normal de oscilación, y el movimiento general esta dado por una
superposición lineal de tales modos. Es aparente, de las ecuaciones de movimiento en
el sistema coordenado acoplado yn dado por (2.6), que el sistema lineal de masas y re-
sortes pueden transmitir energı́a entre los sitios (osciladores) debido a su acoplamiento
a vecinos cercanos. Sin embargo, el enfoque matricial encontrada en la presente sección
muestra en realidad la excitación de un sistema coordenado xn dado por (2.43) donde
el sistema masa-resorte esta desacoplado, por lo que en realidad es imposible la trans-
ferencia de energı́a entre los sitios . Esto último lo podemos interpretar, por ejemplo,
como cuando un conjunto de personas brincan de la mano, una tras otra, y que median-
te un cambio de coordenadas el sistema es equivalente a personas que brincan soltadas
de las manos. La amplitud an y la fase ρl de cada modo son constantes determinadas
por la condición inicial.

Observemos que el procedimiento para obtener las soluciones no es tan fácil y rápido,
no obstante, existe otra forma más sencilla para reproducir la solución general (2.48)
al sistema de ecuaciones diferenciales (2.6). El método esta basado en la aproximación
por ondas planas y recuerda la transformada discreta seno de Fourier por lo que debido
a su utilidad la reproducimos en el siguiente apartado.

41
2. SISTEMAS FINITOS OSCILATORIOS

2.1.2. Solución por ondas planas

Existe otra forma alternativa de expresar el movimiento armónico simple, mediante


el uso de amplitudes complejas. Partiendo de la fórmula de Euler se tiene la relación
cos(α) = Re eiα , aplicando esto a la solución del movimiento armónico simple obte-


nemos la relación:
x = A cos(ωt + φ) = Re x̃eiωt ,

(2.49)

donde:
x̃ = Aeiφ , (2.50)

es una cantidad compleja constante cuyo módulo es la amplitud de las oscilaciones y


cuyo argumento es la constante de fase φ. El producto x̃eiωt es un vector rotado por
ω en el plano complejo cuya parte real nos da la posición instantánea de la partı́cula.
Entonces para resolver el sistema original (2.6) suponemos ondas planas de la siguiente
forma:
yn (t) = Re(An eiΩt ). (2.51)

La idea clave detrás de esta técnica es suponer que la dependencia temporal del n-ésimo
modo queda agrupada en la fase Ωt. An puede ser en general un número complejo, es
decir, An = an einφ para an constante. Notemos que An no es dependiente del tiempo
pues dicha dependencia ya quedó agrupada en la fase. Tenemos pues básicamente una
separación apropiada de las variables temporal y espacial para la solución. Sustituyendo
(2.51) en (2.6), encontramos la siguiente relación de recurrencia para la parte espacial:

−Ω2 An = c2 (An+1 − 2An + An−1 ) , (2.52)

Realizando ahora la sustitución de An = aeinφ y desarrollando un poco de álgebra


encontramos:  
φ
Ω = 2c sen . (2.53)
2
De las condiciones de frontera y0 (t) = yN +1 (t) = 0, esto es, de (2.51) A0 = AN +1 = 0.
Para satisfacer esto último tomamos la parte imaginaria de An , la cual es la función
seno, e inmediatamente cumplimos la condición A0 = 0. Para la condición AN +1 = 0

42
2.1 Osciladores lineales

debemos tener que sen((N +1)φ) = 0, es decir φ = φj = jπ/(N +1) para j = 1, 2, ..., N,
y entonces:  

Ω = Ωj = 2c sen
. (2.54)
2(N + 1)
De donde también se tiene:
 

An = A(j)
n = Im(an e inφj
) = an sen n , (2.55)
N +1
con Im la parte imaginaria. Por lo tanto, la solución general para el n-ésimo modo
(2.51) esta descrito por:
N N  
X X jπ
yn (t) = yn(j) = an sen n cos (Ωj t + ρj ) , (2.56)
N +1
j=1 j=1

donde: r  
k jπ
Ωj = 2 sen . (2.57)
m 2(N + 1)
Por lo que el movimiento general (2.6) para condiciones de frontera Dirichlet está dado
por la superposición lineal de modos como queda expresado en (2.56). Las amplitudes
an y fases φj de cada modo son constantes determinadas por condiciones iniciales pres-
critas. El factor φj = jπ/(N + 1) en la solución analı́tica (2.56) refiere la equipartición
de la energı́a del sistema en el n-ésimo modo. En el siguiente apartado discutiremos
porque no ocurre transferencia de energı́a en el sistema. Este análisis se realizará en las
variables de frecuencia y amplitud (variables de ángulo y acción). Una última observa-
ción importante que se desprende de la solución por ondas planas es la reminiscencia
de los términos en (2.56) de la transformada seno discreta de Fourier, las cuales vienen
heredadas de la condición de frontera.

2.1.3. Descomposición en frecuencias y amplitudes

El cambio de variable Y = QX encontrado en la sección 2.1.1 no es más que la


transformada inversa discreta seno de Fourier (TIDSF) que se discutido en el capı́tulo
anterior para la n-ésima variable:
r N  
2 X lπ
yn = sen n xl , (2.58)
N +1 N +1
l=1

43
2. SISTEMAS FINITOS OSCILATORIOS

y la transformada discreta seno de Fourier (TDSF) para la l-ésima variable es:


r N  
2 X lπ
xl = sen n yn . (2.59)
N +1 N +1
n=1

Cuando se realizó la TDSF al sistema Y 00 = c2 AY , se obtuvo en las variables de Fourier


el desacoplamiento de la ecuaciones diferenciales y la solución de este sistema es más
inmediato. Ahora el análisis que se realizará es sobre la energı́a del sistema. La energı́a
mecánica del sistema es la suma de la energı́a cinética más la potencial. La energı́a
cinética esta descrita por:
N +1 N N
X m 0 2 m 02 m X 02 m 0 mX 02
K= yn = y0 + yj + yN +1 = yn , (2.60)
2 2 2 2 2
n=0 n=1 n=1

esto por las condiciones de frontera y0 (t) = yN +1 (t) = 0. Para la energı́a potencial
tenemos:
k k k k
U = (y1 − y0 )2 + (y2 − y1 )2 + ... + (yN − yN −1 )2 + (yN +1 − yN )2
2 2 2 2
N −1 N
k 2 X k k 2 X k
= y1 + (yn+1 − yn )2 + yN = (yn+1 − yn )2 . (2.61)
2 2 2 2
n=1 n=0

Por lo tanto, la energı́a mecánica total esta descrita de la siguiente manera:


N N
mX 02 kX
E =K +U = yn + (yn+1 − yn )2 . (2.62)
2 2
n=1 n=0

Por otro lado tenemos que el momento es:

pn = myn0 . (2.63)

Entonces (2.62) se simplifica como:


N N
1 X 2 kX
E= pn + (yn+1 − yn )2 . (2.64)
2m 2
n=1 n=0

Sea p = (p1 , p2 , ..., pn ), entonces:


N
X
p2n = p21 + p22 + ... + p2N =< p, p > . (2.65)
n=1

44
2.1 Osciladores lineales

Por otro lado se tiene:


N
X
(yn+1 − yn )2 = y12 + (y2 − y1 )2 + ... + (yN − yN −1 )2 + yN
2
. (2.66)
n=0

Sea Y = (y1 , y2 , ..., yN )T , entonces reescribimos (2.66) de la siguiente forma:


N
X
(yn+1 − yn )2 = Y T BY =< Y, BY >, (2.67)
n=0

donde Y T es la transpuesta de Y , y también:


2 −1 0 · · ·
 
0 0 0
 −1 2 −1 · · · 0 0 0
 
 0 −1 2 · · · 0 0 0
B= . , (2.68)
 
.. .. .. .. .. ..
 .. . . . .  . .
 
 0 0 0 ··· −1 2 −1 
0 0 0 ··· 0 −1 2

donde similarmente de la sección 2.1.1 se obtiene la descomposición B = QDQ−1 y D


es la diagonal con entradas (2.23):
 
2 πl
λl = 4 sin . (2.69)
2(N + 1)
Entonces la energı́a mecánica se escribe por (2.62), (2.65) y (2.67):
1 k
E= < p, p > + < Y, BY > . (2.70)
2m 2
Ahora realizando el cambio de variable con la matriz Q definida anteriormente, que no
es más que la TDSF, se tiene:

P = Q−1 p =⇒ p = QP, donde P = (P1 , P2 , ..., PN )


X = Q−1 Y =⇒ Y = QX, donde X = (x1 , x2 , ..., xN ). (2.71)

Sustituyendo esto último en (2.70) se tiene:


1 k
E = < QP, QP > + < QX, BQX >
2m 2
1 k
= < P, Q−1 QP > + < X, Q−1 BQX >
2m 2
1 k
= < P, P > + < X, DX >
2m 2
N N
1 X 2 kX
= Pl + λl x2l . (2.72)
2m 2
l=1 l=1

45
2. SISTEMAS FINITOS OSCILATORIOS

de (2.71) se obtiene que:


r N  
2 X lπ
Pl = pn sen n
N +1 N +1
n=1
r N  
2 X 0 lπ
= myn sen n = mx0l . (2.73)
N +1 N +1
n=1

Ası́, se tiene que Pl2 = m2 x0l 2 . Por lo tanto la energı́a mecánica en las variables de
Fourier es descrita por:
N N N
m X 02 k X X
E= xl + λl x2l = El . (2.74)
2 2
l=1 l=1 l=1

Como se puede observar de (2.74) no ocurre transferencia de energı́a entre los modos,
ya que cada sitio se queda con su propia energı́a inicial para todo tiempo de evolución.
dxi
Esto último, puede verse también de (2.44), multiplicando por dt y recordando que los
λi ya son positivos entonces sacamos un signo menos en (2.44) y reescribiendo como:

dxi d2 xi dxi
2
= −c2 λi xi ,
dt dt dt
1 d dxi 2 c2 λi d 2 
 
=− x , (2.75)
2 dt dt 2 dt i

integrando obtenemos que:

1 0 c2
x + λi x2i = ci ,
2 i 2
m 0 k
x + λi x2i = ci , (2.76)
2 i 2
donde ci es una constante distinta para cada sitio y de (2.76) se observa que cada sitio se
queda con su propia energı́a, es decir, no hay transferencia de energı́a entre los modos.

2.1.4. Solución numérica en el caso lineal

A continuación analizamos numéricamente el sistema lineal (2.6) por medio del


método de Runge-Kutta de cuarto orden descrito en el capı́tulo 1.

46
2.1 Osciladores lineales

0.1
RK4
0.05 Exacta

y1(t)
0

−0.05

−0.1
0 200 400 600 800 1000
t
−14 Error
x 10
4

0
0 200 400 600 800 1000
t

Figura 2.2. Comparación entre la solución y1 (t) exacta y con el método de Runge-Kutta, mos-
trando la diferencia entres éstas para el caso lineal.

En la Figura 2.2 comparamos la solución en el sitio n = 1 para N = 32 masas con


m = k = 1, y la solución exacta descrita por (2.48) para la condición inicial yn (0) =
 
B sin Nπ+1 n . Podemos ver que la aproximación es del orden de la máquina, por lo que
el método de Runge-Kutta es confiable, al menos para tiempos suficientemente pequeños
(pensando que t = 1000 es pequeño respecto a otros tiempos, digamos t = 1012 ).

Ahora pensemos en la posibilidad de transferencia de energı́a entre los sitios. Con-


sideremos los mismos parámetros y condiciones iniciales dadas en la Figura 2.2. Como
tenemos la solución analı́tica exacta (2.59) la sustituimos en la energı́a del sistema
(2.74) y consideramos la evolución de ésta en el l−ésimo sitio. La Figura 2.3 muestra
la energı́a en los sitios l = 1, 2, 3. Podemos ver que la energı́a en los sitios permanece
constante, con su correspondiente frecuencia de oscilación como es de esperarse.

Un posible mecanismo para la ocurrencia de transferencia de energı́a entre los si-


tios es introducir acoplamientos no lineales entre los sitios, pues de esta forma ya no
será posible la existencia de un cambio de variable que las desacople como en (2.72).
Ésto precisamente fue lo que se le ocurrió a Fermi como un posible mecanismo de
transferencia, lo cual se analizará en la siguiente sección.

47
2. SISTEMAS FINITOS OSCILATORIOS

E1
0.1
E2
E3
0.08

0.06
Energía

0.04

0.02

1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
Tiempo

Figura 2.3. Energı́a para los sitios 1, 2 y 3 para N = 32 osciladores lineales.

2.2. Osciladores débilmente no lineales

Fermi, Pasta y Ulam (FPU) consideraron el modelo más simple de una cadena no
lineal discretizada, que también puede ser interpretado como un modelo de un cristal
de una sola dimensión, es decir, una cadena de partı́culas iguales con vecinos cercanos
e interactuando no linealmente (resortes no lineales), y extremos fijos (condición de
frontera Dirichlet). Denotando por yn los desplazamientos de las partı́culas de sus
posiciones de equilibrio para n = 0, ..., N + 1, con condiciones de frontera:

y0 (t) = 0,
yN +1 (t) = 0. (2.77)

Consideremos ahora efectos no lineales anarmónicos como una “corrección” no lineal


al potencial Hookeano tal como lo pensaron FPU [18, 19]. Para ello, modificamos el

48
2.2 Osciladores débilmente no lineales

potencial dado en (2.2) en la forma:


k 2 k 3 k 4
φ(r) = r + αr + βr , (2.78)
2 3 4
donde α  1 y β  1, en principio, es la corrección no lineal que considera los efectos
anarmónicos de la cadena. Ası́, de esta manera la ecuación de movimiento para la j-
ésima partı́cula con masa m se obtiene como antes aplicando la segunda y tercera Ley
de Newton y en donde la fuerza que ejerce la partı́cula j sobre la partı́cula j + 1 es:

Fjj+1 = k(yj+1 − yj ) + kα(yj+1 − yj )2 + kβ(yj+1 − yj )3 , (2.79)

mientras que la fuerza que ejerce la partı́cula j sobre la j − 1 es:

Fjj−1 = −k(yj − yj−1 ) − kα(yj − yj−1 )2 − kβ(yj+1 − yj )3 . (2.80)

Por lo tanto, tenemos que la ecuación que describe el movimiento es:

d2 yn
m = Fnn−1 + Fnn+1
dt2
= k(yn+1 − yn ) + kα(yn+1 − yn )2 + kβ(yn+1 − yn )3
−k(yn − yn−1 ) − kα(yn − yn−1 )2 − kβ(yn+1 − yn )3
= k(yn+1 − 2yn + yn−1 ) + kα (yn+1 − yn )2 − (yn − yn−1 )2
 

+kβ (yn+1 − yn )3 − (yn − yn−1 )3 ,


 
(2.81)

donde el modelo FPU-α (β = 0) es definido como:

d2 yn
m = k(yn+1 − 2yn + yn−1 ) + kα(yn+1 − 2yn + yn−1 )(yn+1 − yn−1 )
dt2
d2 yn
m 2 = k(yn+1 − 2yn + yn−1 ) [1 + α(yn+1 − yn−1 )] , (2.82)
dt
mientras que el modelo FPU-β (α = 0) se define:

d2 yn
= k(yn+1 − 2yn + yn−1 ) + kβ (yn+1 − yn )3 − (yn − yn−1 )3 , (2.83)
 
m
dt2
con n = 1, 2, ..., N . Independientemente de las condiciones de frontera, el problema no
lineal (2.82) y (2.83) no es soluble por fórmulas cerradas en el caso general de 2N grados
de libertad, por lo que argumentos aproximativos como los numéricos y los asintóticos se
vuelven importantes. En el presente trabajo de Tesis solamente estamos interesados en
el sistema (2.82). Usamos un algoritmo de Runge-Kutta de cuarto orden para resolver

49
2. SISTEMAS FINITOS OSCILATORIOS

el sistema de EDO’s de segundo orden acoplados (2.82). Hacemos notar que la solución
numérica anterior es consistente para el caso reducido lineal α = 0, donde conocemos
la solución analı́tica exacta con condición de frontera Dirichlet cero, como se observa
en la Figura 2.2 y 2.3.

Ilustramos ahora la solución numérica completa del problema FPU-α. Tradicional-


mente, dicho problema considera condiciones de frontera de Dirichlet para N = 32 y
N = 64 masas, ver [19]. Las condiciones iniciales del problema FPU-α para el sistema
(2.82) considera la excitación del modo (ver (2.59)) más bajo,
 
π
yn (0) = B sen n ,
N +1
0
yn (0) = 0, (2.84)

para n = 1, 2, ..., N y B es una constante. Como ejemplo, en la Figura 2.4 se muestra


la evolución temporal del sitio n = 3.

0.4

0.3

0.2
y3(t)

0.1

−0.1

−0.2

−0.3
3500 4000 4500
Tiempo

Figura 2.4. Evolución temporal para el sitio n = 3 en el sistema FPU de N = 32 masas


interactuando no linealmente, con α = 0.25, B = 1, m = 1, k = 1.

50
2.3 Hamiltoniano asociado al problema FPU

De la Figura 2.4 podemos ver que las soluciones de (2.82) son funciones cuasi-
periódicas donde los perı́odos cortos y largos no permanecen constantes. Este es el efecto
anarmónico de la no linealidad en α. Posteriormente en otra sección consideramos la
energı́a del sistema con el efecto de haber agregado al potencial la pequeña perturbación
α y veremos como será el comportamiento de la energı́a en las variables de frecuencia
y amplitud.

2.3. Hamiltoniano asociado al problema FPU

Una manera de estudiar las fluctuaciones de las oscilaciones cuasi-periódicas del sis-
tema (2.82) es considerar la evolución temporal de la energı́a del n-ésimo modo [20],[1].
El hamiltoniano es una función escalar a partir de la cual pueden obtenerse las ecuacio-
nes de movimiento, cuando se trata de un sistema mecánico clásico conservativo. Bajo
ciertas condiciones relacionadas con las caracterı́sticas del sistema y las coordenadas
empleadas, el hamiltoniano puede identificarse con la energı́a mecánica del sistema,
para nuestro caso es la energı́a total del sistema. Usualmente el hamiltoniano es una
función de las variables de posición y sus momentos conjugados. Se emplea con prefe-
rencia cuando se trata de resolver cuestiones sobre la existencia de sistemas integrables,
periodicidad de trayectorias, comportamientos estables, caóticos, etc. Entonces tenemos
de (2.78) que el Hamiltoniano para el modelo FPU-α es descrito como:
N  
X 1 2 k 2 kα 3
H= myn0 + (yn+1 − yn ) + (yn+1 − yn ) . (2.85)
2 2 3
n=0

Anteriormente en (2.64) o (2.74) se reescribio hasta la parte cuadrática del Hamilto-


niano en las variables de frecuencia y amplitud, el cual pertenecı́a al potencial Hookeano.
Aquı́ empezamos a notar los efectos de la corrección α. Entonces solo nos hace falta
reescribir la parte cúbica, la cual reescribimos como un triple producto y realizaremos el
cambio de variable al espacio de amplitudes y frecuencias, lo correspondiente a aplicar
la TDSF al término:
N
X
(yn+1 − yn ) (yn+1 − yn ) (yn+1 − yn ) . (2.86)
n=0

51
2. SISTEMAS FINITOS OSCILATORIOS

Se tienen las siguientes relaciones para los subı́ndices r, l y s:


r N  
2 X πr
yn = sen n xr
N +1 N +1
r=1
r N  
2 X πl
yn = sen n xl
N +1 N +1
l=1
r N  
2 X πs
yn = sen n xs .
N +1 N +1
s=1

Luego entonces:
r N     
2 X πr πr
yn+1 − yn = sen (n + 1) − sen n xr
N +1 N +1 N +1
r=1
r N    
2 X πr (2n + 1)πr
= 2 sen cos xr . (2.87)
N +1 2(N + 1) 2(N + 1)
r=1

Por lo tanto, obtenemos que la parte cúbica se puede reescribir como:


N
"r     #
3 2 X πr (2n + 1)πr
(yn+1 − yn ) = 2 sen cos xr
N +1 2(N + 1) 2(N + 1)
r=1
N
"r     #
2 X πl (2n + 1)πl
2 sen cos xl
N +1 2(N + 1) 2(N + 1)
l=1
N
"r     #
2 X πs (2n + 1)πs
2 sen cos xs . (2.88)
N +1 2(N + 1) 2(N + 1)
s=1

Haciendo:  
πr
ωr = 2 sen , (2.89)
2(N + 1)
entonces reescribimos:
N  3 X
N
X
3 2 2
(yn+1 − yn ) = Crls ωr ωl ωs xr xl xs , (2.90)
N +1
n=0 s,l,r=1
con:
N      
X (2n + 1)πr (2n + 1)πl (2n + 1)πs
Crls = cos cos cos . (2.91)
2(N + 1) 2(N + 1) 2(N + 1)
n=0

Por lo tanto, se obtiene en la variable de Fourier xl que el Hamiltoniano se reescribe


como:
N N   XN 3
m X 02 k X 2 kα 2 2
H= xl + λ l xl + Crls ωr ωl ωs xr xl xs . (2.92)
2 2 3 N +1
l=1 l=1 s,l,r=1

52
2.3 Hamiltoniano asociado al problema FPU

Es interesante hacer notar que:


N
X
Crls ωr ωl ωs = 0. (2.93)
s,l,r=1

En efecto, aplicando la identidad de Euler,


eiθ + e−iθ
cos(θ) = , (2.94)
2
en:      
(2n + 1)πr (2n + 1)πl (2n + 1)πs
cos cos cos , (2.95)
2(N + 1) 2(N + 1) 2(N + 1)
y realizando algunas operaciones, se encuentra que:
         
1 1 1 1
cos n+ θ1 + cos n+ θ2 + cos n+ θ3
4 2 2 2
  
1
+ cos n+ θ4
2
      
1 θ1 θ1 θ2
= cos(nθ1 ) cos − sen(nθ1 ) sen + cos(nθ2 ) cos
4 2 2 2
     
θ2 θ3 θ3
− sen(nθ2 ) sen + cos(nθ3 ) cos − sen(nθ3 ) sen
2 2 2
   
θ4 θ4
+ cos(nθ4 ) cos − sen(nθ4 ) sen , (2.96)
2 2
donde:
(r + l + s)π (r + l − s)π
θ1 = , θ2 = ,
N +1 N +1
(r − l + s)π (r − l − s)π
θ3 = , θ4 = . (2.97)
N +1 N +1
Luego, tenemos que:
N   N +1

X N sen 2 θ
cos (nθ) = cos θ ,
sen 2θ

2
n=0
N   N +1

X N sen 2 θ
sen (nθ) = sen θ , (2.98)
sen 2θ

2
n=0

entonces por (2.98), y realizando algunas operaciones trigonométricas se encuentra:



1  sen ((r + l + s) π) sen ((r + l − s) π) sen ((r − l + s) π)
Crls =   +   +  
8 sen (r+l+s)π sen (r+l−s)π
sen (r−l+s)π
2(N +1) 2(N +1) 2(N +1)

sen ((r − l − s) π) 
+   . (2.99)
sen (r−l−s)π
2(N +1)

53
2. SISTEMAS FINITOS OSCILATORIOS

Por otro lado, también se tiene que:


     
πr πl πs
ωr ωl ωs = 8 sen sen sen , (2.100)
2(N + 1) 2(N + 1) 2(N + 1)
aplicando la identidad de Euler:
eiθ − e−iθ
sen(θ) = , (2.101)
2
en (2.100) y simplificando se obtiene:
    
(r + l + s)π (r + l − s)π
ωr ωl ωs = −2 sen − sen
2(N + 1) 2(N + 1)
   
(r − l + s)π (r − l − s)π
− sen + sen , (2.102)
2(N + 1) 2(N + 1)
realizando el producto de Crls y ωr ωl ωs , y después hacemos la suma sobre los ı́ndices
r, l y s, ası́ mostramos que:
N
X
Crls ωr ωl ωs = 0. (2.103)
s,l,r=1

El resultado (2.93) es muy importante porque nos dice que podremos excluir a primer
orden la parte de la triple suma en el hamiltoniano (2.92), ya que este valor es muy
cercano a cero.

Energía en los primeros cinco sitios


0.08 Energía 1
Energía 2
Energía 3
0.07
Energía 4
Energía 5
0.06

0.05
Energía

0.04

0.03

0.02

0.01

0
0 5000 10000 15000
Tiempo

Figura 2.5. Evolución temporal de la energı́a para los sitios n = 1, 2, ..., 5 en el sistema FPU
de N = 32 masas interactuando no linealmente, con α = 0.25, B = 1, m = 1, k = 1.

54
2.3 Hamiltoniano asociado al problema FPU

En la Figura (2.5) mostramos la evolución temporal de la energı́a para los cinco


primeros sitios, ya que es donde se ve influenciada la energı́a. Esto debido a la condición
inicial y al efecto de agregar una perturbación con un parámetro pequeño al potencial.
En los demás sitios su valor es muy cercano a cero, por eso fueron excluidos en (2.93).
Ésto se realizó en un programa de Matlab R
. De esta figura podemos ver el fenómeno
de recurrencia de la energı́a en los modos, donde casi recurre a su valor inicial después
de un tiempo relativamente largo. De la Figura 2.5 se puede estimar que la energı́a, por
ejemplo, en el sitio 1 casi recurre a su valor inicial en t ≈ 10, 000 con un error del 1 %
aproximadamente. Si uno hace evolucionar para tiempos más largos uno pensarı́a que
después de varias recurrencias el valor de la energı́a recurra ”exactamente” a su valor
inicial en t = 0. Esto último da lugar al fenómeno de super recurrencia.

Energía en los primeros cinco sitios


0.08
Energía 1
Energía 2
0.07 Energía 3
Energía 4
Energía 5
0.06

0.05
Energía

0.04

0.03

0.02

0.01

0
0 10000 20000 30000 40000 50000 60000
Tiempo

Figura 2.6. Evolución temporal a tiempos relativamente cortos de la energı́a para los sitios
n = 1, 2, ..., 5 en el sistema FPU de N = 32 masas interactuando no linealmente, con α = 0.25,
B = 1, m = 1, k = 1.

55
2. SISTEMAS FINITOS OSCILATORIOS

En la Figura 2.6 graficamos la super recurrencia para tiempos relativamente cortos.


De dicha figura podemos observar como la energı́a de los sitios casi recurre a la inicial,
pero nunca lo hace.

En el siguiente capı́tulo se darán argumentos asintóticos los cuales fueron vistos en


el capı́tulo 1 que den información de las soluciones (2.82).

56
Capı́tulo 3

Soluciones aproximadas en la
cadena FPU

En este capı́tulo presentamos una forma alternativa de analizar las soluciones al


sistema de ecuaciones diferenciales considerando el potencial de FPU-α, usando los
conceptos aproximativos desarrollados en capı́tulos previos, como lo son las aproxima-
ciones asintóticas del método de Poincaré-Lindstendt y escalas múltiples.

3.1. El método de Perturbación Asintótica: una primera


aproximación

Recordemos que el sistema de ecuaciones diferenciales para el potencial propuesto


por FPU-α es de la forma (2.82). Como se sabe, este problema no es soluble por fórmulas
cerradas elementales. Una forma alternativa de realizar un análisis cuasi analı́tico del
tipo asintótico de las soluciones es usar el método de Poincaré-Lindstedt sin escala de
tiempo donde se proponen perturbaciones solamente en las amplitudes de la forma:

X
yn (t) = yn(l) (t)εl , n = 1, 2, ..., N, (3.1)
l=0

57
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

con ε = α, como el parámetro de perturbación. Realizando la sustitución (3.1) en (2.82),


se encuentra que las ecuaciones son:

"∞ ∞ ∞
#
X 00 k X (l) X X (l)
yn(l) εl = yn+1 εl − 2 yn(l) εl + yn−1 εl
m
l=0 l=0 l=0 l=0
∞ ∞
" !#
X (l) X (l)
l l
1+ε yn+1 ε − yn−1 ε
l=0 l=0
∞  ∞ 
" #" #
k X (l) (l)
 X (l) (l)

= yn+1 − 2yn(l) + yn−1 εl 1+ε yn+1 − yn−1 εl
m
l=0 l=0
∞ 
" #
k X (l) (l)

= yn+1 − 2yn(l) + yn−1 εl
m
l=0
"∞ ∞ 
#
k X  (l)
(l) (l)
 X
l (l) (l)

l
+ ε yn+1 − 2yn + yn−1 ε yn+1 − yn−1 ε . (3.2)
m
l=0 l=0
Si ordenamos para cada una de la potencias de ε tenemos sistemas de ecuaciones dife-
renciales lineales recurrentes. Para este caso mostramos hasta orden ε1 . Luego:
00 k h (0) (0)
i
ε0 : yn(0) (t) = yn+1 − 2yn(0) + yn−1 , (3.3)
m

00 k h (1) (1)
i
ε1 : yn(1) (t) = yn+1 − 2yn(1) + yn−1
m
k h (0) (0)
ih
(0) (0)
i
+ yn+1 − 2yn(0) + yn−1 yn+1 − yn−1
m
(1) 00 k h (1) (1)
i 00
h
(0) (0)
i
yn (t) = yn+1 − 2yn(1) + yn−1 + yn(0) (t) yn+1 − yn−1 . (3.4)
m
Notemos que para resolver el orden ε1 necesitamos de la solución a orden ε0 .
1

0.9

0.8

0.7

0.6
yn(t)

0.5

0.4

0.3

0.2

0.1

0
0 5 10 15 20 25 30 35
n

Figura 3.1. Frecuencia más baja de un oscilador con N = 32 partı́culas acopladas.

58
3.1 El método de Perturbación Asintótica: una primera aproximación

En lo que sigue mostramos la solución al sistema anteriormente descrito hasta O(ε2 ),


para el caso donde la condición inicial de FPU-α es el modo más bajo. Dicha condición
dada por FPU-α como en (2.84) es el modo más bajo de oscilación. Ésto se puede obser-
var en la Figura 3.1. Observemos que el sistema (3.3) corresponde al sistema Hookeano
que ya ha sido resuelto en el capı́tulo previo y cuya solución es (2.46). Evaluando las
condiciones iniciales de FPU dadas por (2.84), se encuentra:
r N    
2 X jπ π
Cj sen n = B sen n ,
N +1 N +1 N +1
j=1
r N
2 X
ωj Dj = 0, (3.5)
N +1
j=1

y las igualdades (3.5) se cumplen sı́,


r
N +1
C1 = B, C2 = C3 = ... = CN −1 = CN = 0,
2
D1 = D2 = ... = DN −1 = DN = 0. (3.6)

Esto debido a que los vectores que conforman la matriz Q son ortogonales entre sı́ ver
(2.39). Observamos que la igualdad se cumple si las igualdades entre la función seno
son iguales, y por lo tanto el único valor de j que cumple con esto es 1 y el resto de los
Cj es cero. De igual manera sucede para los Dj , pero en este caso todos son iguales a
cero. Por lo tanto, la solución que se obtiene de (2.46) a O(ε0 ) es:
 
(0) π
yn (t) = B cos (ω1 t) sen n ,
N +1
r  
k π
ω1 = 2 sen . (3.7)
m 2(N + 1)

Con este resultado podemos resolver para ε1 , es decir, el sistema de ecuaciones diferen-
ciales (3.4). Para nuestros propósitos simplificamos el término:
00
h i
(0) (0)
gn (t) = yn(0) (t) yn+1 (t) − yn−1 (t) , (3.8)

de dicho sistema se tiene:


 
(0) π
yn+1 (t) = B cos (ω1 t) sen (n + 1) ,
N +1
 
(0) π
yn−1 (t) = B cos (ω1 t) sen (n − 1) . (3.9)
N +1

59
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

Usando algunas identidades trigonométricas y simplificando se encuentra:


   
(0) (0) π π
yn+1 (t) − yn−1 (t) = 2B sen cos n cos (ω1 t) . (3.10)
N +1 N +1
También se tiene:
 
00 π
yn(0) (t) = −ω12 B sen n cos (ω1 t) . (3.11)
N +1
Por lo que:
   
1 π 2π
gn (t) = − ω12 B 2 sen [1 + cos (2ω1 t)] sen n . (3.12)
2 N +1 N +1
La ecuación (3.4) plantea resolver:
00 k h (1) (1)
i
yn(1) (t) − yn+1 − 2yn(1) + yn−1 = gn (t). (3.13)
m
Como tenemos la solución general para el caso lineal, cuando gn (t) = 0, entonces
resolveremos el problema anterior por variación de parámetros, donde las constantes
de (2.46) van a variar con el tiempo, entonces se tiene:
r N  
(1) 2 X jπ
yn (t) = [Cj (t) cos (ωj t) + Dj (t) sen (ωj t)] sen n ,
N +1 N +1
j=1
r  
k jπ
ωj = 2 sen . (3.14)
m 2(N + 1)
Calculando la primera derivada con respecto al tiempo t se obtiene:
r N
(1) 0 2 X 0
yn (t) = Cj (t) cos (ωj t) − ωj Cj (t) sen (ωj t)
N +1
j=1
 
0
 jπ
+ Dj (t) sen (ωj t) + ωj Dj (t) cos (ωj t) sen n , (3.15)
N +1
y por el método de variación de parámetros pedimos que en (3.15) se cumpla:
r N  
2 X 0 0
 jπ
Cj (t) cos (ωj t) + Dj (t) sen (ωj t) sen n = 0. (3.16)
N +1 N +1
j=1

Tenemos de (3.15) y la condición (3.16) que:


r N  
(1) 00 2 X 0 0
 jπ
yn (t) = −ωj Cj (t) sen (ωj t) + ωj Dj (t) cos (ωj t) sen n
N +1 N +1
j=1
r N  
2 X 2 2
 jπ
+ −ωj Cj (t) cos (ωj t) − ωj Dj (t) sen (ωj t) sen n . (3.17)
N +1 N +1
j=1

60
3.1 El método de Perturbación Asintótica: una primera aproximación

Ahora sustituyendo en (3.13) se obtiene:


r N  
2 X jπ
−ωj Cj0 sen (ωj t) + ωj Dj0 cos (ωj t) sen

n = gn (t),(3.18)
N +1 N +1
j=1

más aún como los vectores propios son ortogonales entre sı́, entonces la igualdad (3.18)
 
debe cumplirse para cada sen Njπ +1 n , con j = 1, 2, ..., N . Pero esto último sucede nada
más para j = 2, por lo tanto se tiene que resolver el sistema:

C20 (t) cos (ω2 t) + D20 (t) sen (ω2 t) = 0,


r  
2  0 0
 2π
ω2 −C2 (t) sen (ω2 t) + D2 (t) cos (ω2 t) sen n = gn (t). (3.19)
N +1 N +1
(1) (1) 0
Resolviendo (3.19) junto con las condiciones yn (0) = yn (0) = 0, se encuentra que la
solución de (3.14) a orden O(ε1 ) es:

(1) A A
yn (t) = − 2 + 2 cos (2ω1 t)
ω2 4ω1 − ω22
2ω 2 − ω 2
  

+2A 2 1 2 2 2 cos (ω2 t) sen n , (3.20)
ω2 (4ω1 − ω2 ) N +1

donde
ω12 B 2
 
π
A = sen ,
2 N +1
 
k π
ω12 = 4 sen2 ,
m 2(N + 1)
   
2 k 2 2π k 2 π
ω2 = 4 sen = 4 sen . (3.21)
m 2(N + 1) m N +1

Por lo tanto se ha obtenido la solución general de (3.1) a orden O(ε) con las condiciones
iniciales prescritas al modelo FPU-α en la forma:
  
π A A
yn (t) = B cos (ω1 t) sen n +ε − 2 + 2 cos (2ω1 t)
N +1 ω2 4ω1 − ω22
2ω12 − ω22
  

+2A 2 cos (ω2 t) sen n + O(ε2 ). (3.22)
ω2 (4ω12 − ω22 ) N +1

Un resultado muy importante de ésto es que se tienen divisores pequeños en el deno-


(1)
minador precisamente en la corrección yn (t). Es decir, el método de perturbaciones
encuentra el fenómeno interesante de posibles resonancias o cuasi-resonancias en el
primer orden. Si consideramos el caso de N = 32 partı́culas y k = m = 1, entonces

61
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

las frecuencias ωj también son 32, las cuales se encuentran muy cercanas una de la
otra dado que todas se localizan dentro del intervalo [0, 2] correspondiente al espectro
continuo. En efecto:

4ω12 − ω22 = (2ω1 + ω2 )(2ω1 − ω2 ), (3.23)

y de aquı́ observamos que:


   
π 2π
2ω1 − ω2 = 4 sen − 2 sen
2(N + 1) 2(N + 1)
π π
= 4 sen − 2 sen
66 33
≈ 0.0002155766866038522, (3.24)

con k = m = B = 1. Estos efectos de resonancia o cuasi-resonancia entre los modos


normales de oscilación son muy importantes para la base de otras teorı́as en donde se
encuentra el caso de divisores pequeños como lo es en la teorı́a KAM (Kolmogorov-
Arnold-Moser), [4]. Es sin embargo de notar que la aproximación hecha en el desarrollo
previo, y debido a sólo a la excitación del modo más bajo, sólo predice una cuasi-
resonancia entre el primer y segundo modo normal de oscilación. Es de esperarse que
una aproximación asintótica que prediga más cuasi-resonancias entre los sitios será más
ergódico y reproducirá más fielmente las recurrencias y super recurrencias descritas en
el capı́tulo anterior.
Comportamiento de y 3(t)
0.4
RK4
Teoría de Perturbación
0.3

0.2

0.1

−0.1

−0.2

−0.3

−0.4
0 200 400 600 800 1000
Tiempo

Figura 3.2. Evolución temporal de la partı́cula y3 (t) hasta un tiempo de t = 1000, con los
parámetros α = 0.25, m = 1, k = 1 y B = 1.

62
3.1 El método de Perturbación Asintótica: una primera aproximación

En la Figura 3.2 se puede observar la comparación entre la solución numérica,


la cual se obtiene con el método de Runge-Kutta, en donde este resuelve el sistema
de ecuaciones diferenciales (2.82), y la aproximación asintótica (3.22). Se observa una
muy buena aproximación para tiempos cortos en amplitud y fase, a pesar de tener
una aproximación asintótica simplificada. Esto de alguna manera obvio del teorema de
promediación de la teorı́a de perturbaciones, [21]. En la Figura 3.3 se muestra el error
relativo de aproximación.

0.18

0.16

0.14

0.12

0.1

0.08

0.06

0.04

0.02

0
0 200 400 600 800 1000
Tiempo

Figura 3.3. Error relativo entre la solución asintótica y la de Runge-Kutta en el sitio y3 (t).

Se puede observar que a pesar de ser ε relativamente grande la aproximación


asintótica es muy buena. Sin embargo, como es usual en teorı́a de perturbaciones,
deberı́amos incluir modulación en fase para aproximar mejor amplitudes y fases de las
oscilaciones, ya que como se puede ver en la Figura 3.4 la aproximación asintótica tiene
precisamente este defecto.

63
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

Comportamiento de y 3(t)

RK4
0.5
Teoría de Perturbación

0.4

0.3

0.2

0.1

−0.1

−0.2

−0.3

900 950 1000 1050 1100


Tiempo

Figura 3.4. Evolución temporal de la partı́cula y3 (t) para un tiempo entre 900 y 1100, de donde
se puede observar como la solución con teorı́a de perturbación trata de ”perseguir” en amplitud
y fase a la solución exacta.

Una forma de solucionar los desfases es considerando perturbación en las frecuencias


y no solo en amplitudes como lo hicimos en la presente sección. Por lo que es necesario
el uso del método de escalas múltiples. En la siguiente sección presentamos una forma
de modular amplitud y fase usando los conceptos desarrollados en el capı́tulo 1.

El análisis aproximativo de esta sección sugiere corregir, no sólo amplitud, sino


la fase también. Sin embargo, la aproximación que module amplitud y fase requiere
bastantes cálculos. Para dar una idea de la aproximación, consideramos en la siguiente
sección un caso donde el número de partı́culas es pequeño.

64
3.2 Aproximación completa método de Poincaré-Lindstedt para dos masas

3.2. Aproximación completa método de Poincaré-Lindstedt


para dos masas

Consideremos el caso reducido de N = 2 masas oscilando, es decir, consideramos


las ecuaciones de movimiento (ver ecuaciones (2.82)):
k
y100 (t) = [y2 (t) − 2y1 (t)] [1 + αy2 ] ,
m
k
y200 (t) = [−2y2 (t) + y1 (t)] [1 − αy1 ] . (3.25)
m
Transformando ahora las ecuaciones de movimiento al espacio de Fourier por medio de
la TDSF, por lo que hacemos:
r N  
2 X lπ
yn = sen n xl , (3.26)
N +1 N +1
l=1

donde: r N  
2 X lπ
xl = sen n yn . (3.27)
N +1 N +1
n=1

En nuestro caso pequeño de osciladores:


r    √ √
2 π  2π 2 2
y1 = x1 sen + x2 sen = x1 + x2 ,
3 3 3 2 2
r      √ √
2 2π 4π 2 2
y2 = x1 sen + x2 sen = x1 − x2 . (3.28)
3 3 3 2 2

De esta manera, el sistema (3.25) se reescribe en términos de las variables x1 y x2 :


√ kα
x001 = −ω12 x1 − 2 x1 x2 ,
√ m
2 kα 2
x002 = −ω22 x2 − x1 − 3x22 ,

(3.29)
2 m
donde ω1 y ω2 son las frecuencias naturales de oscilación:
   
2 k 2 π k 2 k 2 2π k
ω1 = 4 sen = y ω2 = 4 sen =3 . (3.30)
m 2(3) m m 2(3) m

65
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

Aplicando ahora la condición inicial de excitación del modo más bajo en variable fı́sica,
yn , obtenemos las nuevas condiciones iniciales en la variable de Fourier xn en la forma:
√ √ √
2 2 2
x1 (0) = y1 (0) + y2 (0) = [y1 (0) + y2 (0)]
2 " 2 2
√ √ √ # r
2 3 3 3
= B+ B = B,
2 2 2 2
√ √ √
2 2 2
x2 (0) = y1 (0) − y2 (0) = [y1 (0) − y2 (0)]
2 " 2 2
√ √ √ #
2 3 3
= B− B = 0, (3.31)
2 2 2

en donde B es una constante. Para modular amplitud y frecuencia en (3.29) en términos


del parámetro de perturbación, suponemos expansión de la forma:

x1 (t) = q10 (Ω1 t) + αq11 (Ω1 t) + α2 q12 (Ω1 t) + ... ,


x2 (t) = q20 (Ω2 t) + αq21 (Ω2 t) + α2 q22 (Ω2 t) + ... , (3.32)

para su solución, donde tenemos las correcciones en las frecuencias naturales ω1 y ω2 :

Ω1 = ω1 + αω11 + α2 ω12 + ... ,


Ω2 = ω2 + αω21 + α2 ω22 + ... (3.33)

Se puede observar de lo anterior que las escalas para x1 (t) y x2 (t) estan definidas como:

T10 = ω1 , T11 = αω11 , T12 = α2 ω12 , ... , (3.34)

para x1 (t), mientras que para x2 (t):

T20 = ω2 , T21 = αω21 , T22 = α2 ω22 , ... , (3.35)

vemos entonces la aproximación de escales múltiples visto previamente en el capı́tulo


1. Definamos τ1 = Ω1 t y τ2 = Ω2 t, entonces la segunda derivada con respecto al tiempo
en (3.32) nos queda como:

d2 x1 (t) d2 q10 (τ1 ) d2 q11 (τ1 ) 2


 
2 d q12 (τ1 )
= Ω21 +α +α + ... ,
dt2 dτ12 dτ12 dτ12
d2 x2 (t)
 2
d2 q21 (τ2 ) 2

d q20 (τ2 ) 2 d q22 (τ2 )
= Ω22 + α + α + ... . (3.36)
dt2 dτ22 dτ22 dτ22

66
3.2 Aproximación completa método de Poincaré-Lindstedt para dos masas

De lo anterior tenemos la siguiente relación para las derivadas con los siguientes cam-
bios,

d2 q10 (t) d2 q10 (τ1 )


= Ω21 ,
dt2 dτ12
d2 q20 (t) d2 q20 (τ2 )
= Ω22 . (3.37)
dt2 dτ22

Similarmente para q11 , q12 , ... y q21 , q22 , ... las derivadas están relacionadas de igual
manera y este resultado será de utilidad posteriormente. Ahora sustituyendo (3.32),
(3.33) y (3.36) en (3.29), y ordenando con respecto a las potencias de α se tienen los
siguientes sistemas de ecuaciones:

d2 q10 (τ1 )
α0 : + q10 (τ1 ) = 0,
dτ12
d2 q20 (τ2 )
+ q20 (τ2 ) = 0,
dτ22
d2 q11 (τ1 ) √ k 1 2ω11 d2 q10 (τ1 )
α1 : + q 11 (τ1 ) = − 2 q 10 (τ1 )q 20 (τ2 ) − ,
dτ12 m ω12 ω1 dτ12
√ √
d2 q21 (τ2 ) 2k 1 2 3 2k 1 2 2ω21 d2 q20 (τ2 )
+ q 21 (τ2 ) = − q (τ1 ) + q 20 (τ2 ) ) − ,
dτ22 2 m ω22 10 2 m ω22 ω2 dτ22
d2 q12 (τ1 ) √ k 1 √ k 1
α2 : 2 + q12 (τ1 ) = − 2 2 q11 (τ1 )q20 (τ2 ) − 2 q10 (τ1 )q21 (τ2 )
dτ1 m ω1 m ω12
ω 2 d2 q10 (τ1 ) 2ω12 d2 q10 (τ1 ) 2ω11 d2 q11 (τ1 )
− 11 − − ,
ω12 dτ12 ω1 dτ12 ω1 dτ12
d2 q22 (τ2 ) √ k 1 √ k 1
+ q 22 (τ2 ) = − 2 q 10 (τ1 )q 11 (τ1 ) + 3 2 q20 (τ2 )q21 (τ2 )
dτ22 m ω22 m ω22
ω 2 d2 q20 (τ2 ) 2ω22 d2 q20 (τ2 ) 2ω21 d2 q21 (τ2 )
− 21 − − ,
ω22 dτ22 ω2 dτ22 ω2 dτ22

d2 q13 (τ1 ) 2ω11 ω12 d2 q10 (τ1 ) 2ω13 d2 q10 (τ1 ) ω11 2 d2 q (τ )
11 1
α3 : 2 + q 13 (τ1 ) = − 2 2 − 2 − 2
dτ1 ω1 dτ1 ω1 dτ1 ω1 dτ12
2ω12 d2 q11 (τ1 ) 2ω11 d2 q12 (τ1 ) √ k 1
− − − 2 q12 (τ1 )q20 (τ2 )
ω1 dτ12 ω1 dτ12 m ω12
√ k 1 √ k 1
− 2 2 q11 (τ1 )q21 (τ2 ) − 2 q10 (τ1 )q22 (τ2 ),
m ω1 m ω12

67
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

d2 q23 (τ2 ) 2ω21 ω22 d2 q20 (τ2 ) 2ω23 d2 q20 (τ2 ) ω21 2 d2 q (τ )
21 2
+ q (τ
23 2 ) = − − −
dτ22 ω22 dτ22 ω2 dτ22 ω22 dτ22

2ω22 d2 q21 (τ2 ) 2ω21 d2 q22 (τ2 ) 2 k 1 d2 q11 (τ1 )
− − −
ω2 dτ22 ω2 dτ22 2 m ω22 dτ12

√ k 1 3 2k 1 2
− 2 q10 (τ1 )q12 (τ1 ) + q (τ2 )
m ω2 2 2 m ω22 21
√ k 1
+3 2 q20 (τ2 )q22 (τ2 ), (3.38)
m ω22
donde de acuerdo al método las condiciones iniciales son:
r
3
q10 (0) = B, q11 (0) = q12 (0) = ... = 0,
2
0 0
q10 (0) = q11 (0) = ... = 0,
q20 (0) = q21 (0) = ... = 0,
0 0
q20 (0) = q21 (0) = ... = 0. (3.39)

Resolviendo el sistema a orden α0 , encontramos:

q10 (t) = A10 cos (Ω1 t) + B10 sen (Ω1 t) ,


q20 (t) = A20 cos (Ω2 t) + B20 sen (Ω2 t) , (3.40)

donde hemos usado que τi = Ωi t para i = 1, 2. Evaluando condiciones iniciales, las


soluciones anteriores simplifican como:
r
3
q10 (t) = B cos (Ω1 t) ,
2
q20 (t) = 0. (3.41)

Ahora que tenemos las soluciones a orden α0 , procedemos a encontrar las soluciones al
siguiente orden α1 , donde las ecuaciones quedan de la siguiente manera:
d2 q11 (t) √ ω11 2
+ Ω21 q11 (t) = 6 Ω B cos (Ω1 t) , (3.42)
dt2 ω1 1
√ √
d2 q21 (t) 2 3 2 k Ω22 2 3 2 k Ω22 2
+ Ω2 q21 (t) = − B − B cos (2Ω1 t) . (3.43)
dt2 8 m ω22 8 m ω22
Observemos que en la ecuación (3.42) para evitar términos seculares (es decir, términos
no acotados) debemos de elegir adecuadamente ω11 = 0, y luego solo tenemos que
resolver:
d2 q11 (t)
+ Ω21 q11 (t) = 0, (3.44)
dt2

68
3.2 Aproximación completa método de Poincaré-Lindstedt para dos masas

cuya solución tiene la forma:

q11 (t) = A1 cos (Ω1 t) + B1 sen (Ω1 t) , (3.45)

y por las condiciones iniciales q11 (0) = q11 0 (0) = 0 encontramos que q11 (t) = 0. Por
otro lado en (3.43) no se tiene términos seculares, entonces se encuentra que la solución
general es de la forma:

q21 (t) = A3 cos (Ω2 t) + B3 sen (Ω2 t) + A2 + B2 cos (2Ω1 t) , (3.46)

donde se tiene:

3 2k 1 2
A2 = − B ,
8 m ω22

3 2k Ω22
B2 = −  B2. (3.47)
8 m ω22 Ω22 − 4Ω21

Evaluando las condiciones iniciales homogéneas q21 (0) = q21 0 (0) = 0 encontramos que:

q21 (t) = A3 cos (Ω2 t) + A2 + B2 cos (2Ω1 t) , con A3 = −A2 − B2 . (3.48)

Por otro lado a orden α2 las ecuaciones quedan como:


" √ √ #
d2 q12 (t) 2 3k Ω21 3k Ω21 √ ω12 2
+ Ω1 q12 (t) = − BA2 − BB2 + 6 BΩ1 cos (Ω1 t)
dt2 m ω12 2m ω12 ω1
√ √
3k Ω21 3k Ω21
− BB 2 cos (3Ω 1 t) − BA3 cos ((Ω1 + Ω2 )t)
2m ω12 2m ω12

3k Ω21
− BA3 cos ((Ω1 − Ω2 )t) , (3.49)
2m ω12

d2 q22 (t) 2 ω21 Ω22 ω21 Ω21


+ Ω 2 q 22 (t) = 2 A 3 cos (Ω2 t) + 8 B2 cos (2Ω1 t) . (3.50)
dt2 ω2 ω2
Nuevamente se tiene que en (3.49), para evitar términos seculares, elegimos adecuada-
mente: 2 2
Ω22
 
3 k 1 3 k
ω12 =− 2 B2 − 2
 B2. (3.51)
Ω22 − Ω21

8 m ω1 ω2 16 m ω1 ω2

69
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

En este último término podemos apreciar la aparición de resonancias (problema de


divisor pequeño), debido a que Ω1 ≈ Ω2 . Por lo que la solución de (3.49) evaluando
condiciones iniciales homogéneas es:

q12 (t) = A5 cos (Ω1 t) + A4 cos (3Ω1 t) + B4 cos ((Ω1 + Ω2 )t)


+C4 cos ((Ω1 − Ω2 )t) , (3.52)

con:

3k 1
A4 = BB2 ,
16 m ω12

3k Ω21
B4 = − h i BA3 ,
2 m ω 2 Ω2 − (Ω + Ω )2
1 1 1 2

3k Ω21
C4 = − h i BA3 ,
2 m ω 2 Ω2 − (Ω − Ω )2
1 1 1 2

A5 = −A4 − B4 − C4 . (3.53)

Volvemos a apreciar la aparición de más divisores pequeños debido a que Ω1 ≈ Ω1 + Ω2


y Ω1 ≈ Ω1 − Ω2 . En (3.50) debemos también de evitar términos seculares por lo que
elegimos ω21 = 0, y la ecuación que resulta es:

d2 q22 (t)
+ Ω22 q22 (t) = 0, (3.54)
dt2
por lo que la solución evaluando condiciones iniciales homogéneas resulta: q22 (t) =
0. Se puede notar que ya tenemos las solución a O(α2 ), pero también queremos que
la perturbación en las frecuencias también sea de O(α3 ), por lo que nos hace falta
encontrar ω22 y esto lo haremos al orden α3 en las ecuaciones (3.38) y simplificando
resulta:
d2 q13 (t) 2
√ ω13 Ω21
+ Ω q
1 13 (t) = 6 B cos (Ω1 t) , (3.55)
dt2 ω1
d2 q23 (t) 2 2ω22 d2 q21 (t) √ k Ω2
+ Ω 2 q 23 (t) = − − 2 q10 (t)q12 (t)
dt2 ω2 dt2 m ω22

3 2 k Ω22 2
+ q (t). (3.56)
2 m ω22 21

Finalmente podemos observar que para evitar términos seculares en (3.55) debemos de
elegir ω13 = 0 de modo que la solución considerando las condiciones iniciales resulta es

70
3.2 Aproximación completa método de Poincaré-Lindstedt para dos masas

q13 (t) = 0. Por otro lado en (3.56) se encuentra cómo debe ser elegido ω22 para evitar
términos seculares, utilizando identidades trigonométricas y manipulación algebraica
se obtiene:
√ √ √
3k 1 3k 1 3 2k 1
ω22 = BB4 + BC4 − A2 A3 . (3.57)
4 m ω2 4 m ω2 2 m ω2

Como ya se habı́a mencionado, las cálculos realizados en las ecuaciones de orden α3


fueron para encontrar simplemente como debı́a de ser elegido ω22 , por lo que no encon-
traremos la solución q23 (t). Por lo tanto, se encontró que:

x1 (t) = q10 (t) + α2 q12 (t) + O(α3 ),


x2 (t) = q20 (t) + α2 q22 (t) + O(α3 ), (3.58)

con:

Ω1 = ω1 + α2 ω12 + O(α3 ),
Ω2 = ω2 + α2 ω22 + O(α3 ). (3.59)

Es importante observar que el método de escalas múltiples obtuvó una aproximación


de orden par en α (debido en parte a la condición inicial de excitación del modo más
bajo), por lo que para ver los efectos aproximativos tuvimos que ir hasta el orden α3 .
Uno se preguntarı́a por qué no se realizó el método de escalas multiples en las variables
fı́sicas y por qué en las variables de Fourier. La cuestión es que en el capı́tulo anterior
encontramos que para el caso lineal las ecuaciones se desacoplan en el espacio de Fourier,
y las soluciones son inmediatas de observar. Como se realizó en este caso para N = 2
masas tenemos que el modelo FPU-α está compuesto por la parte lineal cuando α = 0
y la manipulación de resolver las ecuaciones en este nuevo sistema es más accesible que
en el espacio fı́sico. Ahora de (3.28) las soluciones en las variables fı́sicas son:

2
y1 (t) = [x1 (t) + x2 (t)] ,
√2
2
y2 (t) = [x1 (t) − x2 (t)] . (3.60)
2
Realizamos también una comparación con la solución numérica y la solución obtenida
con el método de escalas múltiples. Esto lo podemos ver en las Figuras 3.5 y 3.6. En
dichas figuras comparamos la solución numérica ”exacta” de Runge-Kutta de cuarto

71
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

orden y la encontrada con el método de escalas múltiples a orden O(ε2 ). Se observa


una muy buena aproximación en amplitud y fase, debido a las correcciones de escalas
de tiempo.

Comportamiento de y 1(t) RK4


1 Escalas

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 20 40 60 80 100
Tiempo

Figura 3.5. Evolución temporal de la partı́cula y1 (t) para un tiempo de t = 100, con N = 2
masas oscilando y los parámetros α = 0.25, m = 1, k = 1 y B = 1.

Comportamiento de y 2(t)
RK4
1
Escalas

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 20 40 60 80 100
Tiempo

Figura 3.6. Evolución temporal de la partı́cula y2 (t) para un tiempo de t = 100, con N = 2
masas oscilando y los parámetros α = 0.25, m = 1, k = 1 y B = 1.

72
3.2 Aproximación completa método de Poincaré-Lindstedt para dos masas

En la Figura 3.7 se muestra el error entre las aproximaciones.

Diferencias del método RK4 y Escalas


0.16
y1(t)
y2(t)
0.14

0.12

0.1

0.08

0.06

0.04

0.02

0
0 20 40 60 80 100
Tiempo

Figura 3.7. Errores relativos entre las soluciones obtenidas por el método de escalas multiples
y RK4.

Se puede notar que a pesar de ser α relativamente grande la aproximación es muy


buena esto en términos de lo que garantiza el teorema de promediación, el cual garantiza
1
aproximaciones de orden α para tiempos del orden de α. La procedimiento descrito
anteriormente fue para mostrar el desarrollo y ver que es muy complicado obtener las
aproximaciones, esto debido al trabajo que se tiene que realizar para poder obtener las
soluciones, ya que aquı́ nada más se plasmaron los resultados finales sin expandir las
cuentas a lujo de detalle. Por ejemplo, paso considerar el caso completo de N = 32
masas la cantidad de ecuaciones y la manipulación trigonométrica y algebraica crecen
demasiado. Cabe resaltar una cuestión muy importante: el modelo FPU-α considera que
el número de masas son potencias de 2 y que se encuentran entre 32 ≤ N ≤ 128, como se

73
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

puede ver en [22]. Más aún, se puede verificar que entre más masas se tiene, la solución
aproximativa mejora mientras el tiempo transcurre, la cual puede ser complicada por
el aumento en los grados de libertad, para este caso se tiene 2N grados de libertad y
se pensarı́a que la aproximación serı́a para menor tiempo conforme N es más grande.
Pero contrario a ésto, la ergodicidad del problema (el efecto α), es decir, obtenida
de los divisores pequeños que ocurren debido a resonancias entre los múltiples modos
normales de oscilación ocurren mejor para N grande.

En la siguiente sección reescribiremos las ecuaciones (2.82), para el caso general


en las variables de Fourier xl , con l = 1, 2, ..., N , y en donde como trabajo futuro
se tratará de resolver también el caso general con el método de Poincaré-Lindstedt o
escalas múltiples.

3.3. Ecuaciones completas en espacio de Fourier

Debido a la dificultad algebraica inherente en el problema completo, digamos de


N = 32 de FPU-α. Analizamos la forma de las ecuaciones en el espacio de Fourier.
Recordamos que las ecuaciones de movimiento (2.82) son:
k
yn00 (t) = [yn+1 (t) − 2yn (t) + yn−1 (t)]
m

+ [yn+1 (t) − 2yn (t) + yn−1 (t)] [yn+1 − yn−1 ] , (3.61)
m
con n = 1, 2, ..., N . Tenemos que la relación entre las variables en el espacio fı́sico y de
Fourier están dadas por (3.26) y (3.27), ası́ se tiene que:
r N     
2 X lπ lπ
yn+1 (t) − 2yn (t) + yn−1 (t) = sen (n + 1) − 2 sen n
N +1 N +1 N +1
l=1
 

+ sen (n − 1) xl (t), (3.62)
N +1

74
3.3 Ecuaciones completas en espacio de Fourier

donde con el uso de algunas identidades trigonométricas y manipulación algebraica se


encuentra la siguiente identidad:
     
lπ lπ lπ
sen (n + 1) − 2 sen n + sen (n − 1)
N +1 N +1 N +1
   
lπ 2 lπ
= −4 sen n sen . (3.63)
N +1 2(N + 1)
Asi,
r N    
2 X lπ 2 lπ
yn+1 (t) − 2yn (t) + yn−1 (t) = − 4 sen n sen xl (t).
N +1 N +1 2(N + 1)
l=1
(3.64)
Por otro lado:
r N     
2 X rπ rπ
yn+1 (t) − yn−1 (t) = sen (n + 1) − sen (n − 1) xr (t)
N +1 N +1 N +1
r=1
r N    
2 X rπ rπ
= 2 sen cos n xr (t). (3.65)
N +1 N +1 N +1
r=1

Por lo tanto, el segundo término de (3.61) simplifica en:



[yn+1 (t) − 2yn (t) + yn−1 (t)] [yn+1 (t) − yn−1 (t)]
m
N N      
4α X X 2 lπ rπ rπ
= − ωl sen n sen cos n xl (t)xr (t),
N +1 N +1 N +1 N +1
l=1 r=1
con:  
k lπ
ωl2 = 4 sen2 . (3.66)
m 2(N + 1)
Más aún tenemos un vector con N entradas de la siguiente manera:
 P P       
N N 2 sen lπ rπ rπ
ω (1) sen cos (1) xl (t)xr (t)
 Pl=1 Pr=1 l  N +1   N +1   N +1  
N N 2 lπ rπ rπ
r=1 ωl sen N +1 (2) sen N +1 cos N +1 (2) xl (t)xr (t)
 
4  l=1 
L=− 
..

N +1 

 P P  .     


N N 2 lπ rπ rπ
l=1 ω
r=1 l sen N +1 N sen N +1 cos N +1 N xl (t)xr (t)
(3.67)

En general, como las ecuaciones de movimiento en las variables fı́sicas se escriben en la


forma matricial:
k
Y 00 = − BY + αL. (3.68)
m

75
3. SOLUCIONES APROXIMADAS EN LA CADENA FPU

Pero del cambio de variable para la diagonalización de B, tenemos:

B = QDQ−1 , (3.69)
 

donde D es la matriz diagonal con entradas 4 sen2 2(N +1) , ası́ entonces:

k −1
Q−1 Y 00 = − Q QDQ−1 Y + αQ−1 L
m
k
X 00 = − DX + αQ−1 L, (3.70)
m
donde Q y Q−1 fueron definidas anteriormente por (2.39). Por lo tanto, obtenemos que
la s−ésima ecuación de movimiento de (3.70) esta descrita por:
 3 N X
N  
2 2 X rπ
x00s = −ωs2 xs −2 α ωl2 sen Alrs xl xr (3.71)
N +1 N +1
l=1 r=1

con s = 1, 2, ..., N donde:


N      
X lπ rπ sπ
Alrs = sen n cos n sen n . (3.72)
N +1 N +1 N +1
n=1

El sistema (3.71) representa el caso general de N masas en variable de Fourier para las
ecuaciones de movimiento (3.61) y coinciden con lo desarrollado en la sección anterior
para N = 2 masas, ver ecuación (3.29).

Por otro lado, es de destacar que en los años sesenta con las ideas que se tenı́a de
la teorı́a de perturbación, Joseph Ford y Atlee Jackson desarrollaron contribuciones
al problema FPU-α. Usando la técnica de perturbación de Kryloff y Bogoliuboff [23],
buscaron una solución a (3.71) de la forma:

X
xs = as sen(τs ) + αl xsl (τ1 , ..., τN ), (3.73)
l=1

donde
τs = Ωs t + φs (3.74)

y

X
Ω s = ωs + αl Ωsl (3.75)
l=1

76
3.3 Ecuaciones completas en espacio de Fourier

con Ωsl constantes independientes para eliminar los términos seculares. Las constantes
as y φs son constantes determinadas por la condición inicial. Ford encontro la solución
a orden α2 , ver [24], [25], [26], [27]. En los que observo divisores pequeños de la forma:

2
ω2l+1 − (ωr − ωr+2l+1 )2 . (3.76)

Ford propuso la condición inicial x1 (0) = 250 y x2 (0) = ... = xN (0) = x01 (0) = ... =
x0N (0) = 0 para obtener la primer recurrencia con la solución aproximada como se
puede ver en Figura 3.8

Figura 3.8. Energı́a en los tres primeros modos para N = 32, α = 0.25 y la condición inicial
mencionada anteriormente, ver [24].

Se puede observar de la figura que inicialmente, el modo 1 posee la energı́a total y


los modos más altos son muy pequeños, los cuales no se muestran en la figura ya que
son insignificantes en esta escala.

77
Conclusiones

Estudiamos el problema de equipartición de energı́a en una cadena finita de osci-


ladores (problema FPU-α). Mostramos que en ausencia de no linealidades (α = 0), el
sistema armónico correspondiente desacopla amplitudes y frecuencias por lo que los
osciladores no pueden transferir energı́a entre ellos. Hicimos un análisis detallado del
caso armónico de N masas por medios matriciales y de onda plana. Con ayuda de dicha
solución pudimos mostrar, en una primer aproximación, el efecto de la no linealidad
haciendo aproximaciones asintóticas solamente en amplitudes. Se mostró la posibili-
dad de resonancias, y en consecuencia la ocurrencia de divisores pequeños, los cuales
permitieron correcciones apropiadas en la evolución completa.

En modulaciones de amplitud y frecuencia sólo fuimos capaces, de hacer la aproxi-


mación de escalas múltiples para un sistema reducido de N = 2 masas, estó debido a
que las cuentas para encontrar las soluciones a ordenes más altos se vuelven muy com-
plicadas esto por la manipulación algebraica, trigonométrica y también el de resolver
las ecuaciones diferenciales que resulten.

Es importante de resaltar que dicho caso reducido muestra efectos que explican
el fenómeno encontrado por FPU. Esperamos en algún trabajo futuro completar las
escalas múltiples para N sitios arbitrarios, y tal vez describir problemas diferentes
como el modelo FPU-α pero con condiciones periódicas y al menos el caso reducido de
N = 3 masas.

79
Anexo A

Códigos fuente en Matlab

A.1. Código de la solución de Runge-Kutta y la compa-


ración con el método de Poincaré-Lindstedt

Código de la solución de Runge-Kutta y la comparación con el método de Poincaré-


Lindstedt. A continuación se lista el código que se utilizo para el caso de N masas
interactuando, ası́ como la comparación con el metodo de Poincaré-Lindstedt.

1 function fpu ( t f )
2

3 h=0.001; k=1; m=1; N=33; B=1; alpha =0.25;


4

5 I n t r o d u c i r c o n d i c i \ ’on inicial
6

7 n =0: N;
8 yn =B .* sin (( pi .* n) ./ N);
9 ynp = zeros ( size ( yn ));
10

11 tic
12

13 E (1) =( m .* sum ( ynp .^2) ) ./2+ k .* sum ( diff ( yn ) .^2) ./2+ k .* alpha .* sum ( diff ( yn ) .^3)
./3;
14 y1 (1) = yn (2) ;
15 y2 (1) = yn (3) ;

81
A. CÓDIGOS FUENTE EN MATLAB

16 y3 (1) = yn (4) ;
17 y4 (1) = yn (5) ;
18 y5 (1) = yn (6) ;
19 y6 (1) = yn (7) ;
20 y7 (1) = yn (8) ;
21

22 T =( tf ./ h) +1;
23 Y= zeros (N -1 , T);
24 En = zeros (N -1 ,T);
25

26 I =1:N -1;
27 A =( B .^2) .* sin ( pi ./ N) .*( sin ( pi ./(2.* N))) .^2;
28 w1 =2.* sin ( pi ./(2.* N));
29 w2 =2.* sin ( pi ./ N);
30

31 Y(I ’ , 1 )=B. ∗ cos ( sqrt ( k . /m) . ∗ w1 . ∗ ( 0 ) ) . ∗ ( sin ( pi ∗ I . /N) )+a l p h a . ∗ ( − ( 2 . ∗A) . / ( w2


. ˆ 2 ) +(2.∗A) . / ( 4 . ∗ w1.ˆ2 −w2 . ˆ 2 ) . ∗ cos ( 2 . ∗ sqrt ( k . /m) . ∗ w1 . ∗ ( 0 ) ) +(2.∗w1.ˆ2 −
w2 . ˆ 2 ) . / ( ( w2 . ˆ 2 ) . ∗ ( 4 . ∗ w1.ˆ2 −w2 . ˆ 2 ) ) . ∗ 4 . ∗A. ∗ cos ( sqrt ( k . /m) . ∗ w2 . ∗ ( 0 ) ) )
. ∗ ( si n ( 2 . ∗ pi ∗ I . /N) ) ;
32

33 plot ( n , yn , ’k ’ ) ; hold on ; plot ( n , yn , ’or ’ ) ; hold on ; plot ( I ,Y( : , 1 ) , ’g ’ ) ; hold on


; plot ( I ,Y( : , 1 ) , ’ob ’ ) ; hold on ; axis ( [ 0 N −1 1 ] ) ; pause ( 1 ) ;
34 con =0; c o n t a =2;
35

36 j =2;
37

38 f o r t=h : h : t f ,
39 [ yn1 , ynp1 ]= r k 4 f p u ( t , yn , ynp , k ,m, a l p h a ) ;
40 [ yn2 , ynp2 ]= r k 4 f p u ( t+h . / 2 , yn+(h . ∗ yn1 ) . / 2 , ynp+(h . ∗ ynp1 ) . / 2 , k ,m, a l p h a ) ;
41 [ yn3 , ynp3 ]= r k 4 f p u ( t+h . / 2 , yn+(h . ∗ yn2 ) . / 2 , ynp+(h . ∗ ynp2 ) . / 2 , k ,m, a l p h a ) ;
42 [ yn4 , ynp4 ]= r k 4 f p u ( t+h , yn+h . ∗ yn3 , ynp+h . ∗ ynp3 , k ,m, a l p h a ) ;
43 yn=yn+(h . ∗ ( yn1 +2.∗ yn2 +2.∗ yn3+yn4 ) ) . / 6 ;
44 ynp=ynp+(h . ∗ ( ynp1 +2.∗ ynp2 +2.∗ ynp3+ynp4 ) ) . / 6 ;
45 E( c o n t a ) =(m. ∗sum( ynp . ˆ 2 ) ) ./2+ k . ∗sum( d i f f ( yn ) . ˆ 2 ) ./2+ k . ∗ a l p h a . ∗sum( d i f f
( yn ) . ˆ 3 ) . / 3 ;
46 y1 ( c o n t a )=yn ( 2 ) ;
47 y2 ( c o n t a )=yn ( 3 ) ;
48 y3 ( c o n t a )=yn ( 4 ) ;
49 y4 ( c o n t a )=yn ( 5 ) ;
50 y5 ( c o n t a )=yn ( 6 ) ;
51 y6 ( c o n t a )=yn ( 7 ) ;
52 y7 ( c o n t a )=yn ( 8 ) ;
53

54

55 Y( I ’ , j )=B. ∗ cos ( sqrt ( k . /m) . ∗ w1 . ∗ t ) . ∗ ( sin ( pi ∗ I . /N) )+a l p h a . ∗ ( − ( 2 . ∗A) . / ( w2

82
A.1 Código de la solución de Runge-Kutta y la comparación con el método de
Poincaré-Lindstedt

. ˆ 2 ) +(2.∗A) . / ( 4 . ∗ w1.ˆ2 −w2 . ˆ 2 ) . ∗ cos ( 2 . ∗ sqrt ( k . /m) . ∗ w1 . ∗ t ) +(2.∗w1


.ˆ2 −w2 . ˆ 2 ) . / ( ( w2 . ˆ 2 ) . ∗ ( 4 . ∗ w1.ˆ2 −w2 . ˆ 2 ) ) . ∗ 4 . ∗A. ∗ cos ( sqrt ( k . /m) . ∗ w2
. ∗ t ) ) . ∗ ( sin ( 2 . ∗ pi ∗ I . /N) ) ;
56

57 j=j +1;
58

59 c o n t a=c o n t a +1;
60 con=con +1;
61 i f con /1000==1 ,
62 clf ;
63 plot ( n , yn , ’k ’ ) ; hold on ; plot ( n , yn , ’or ’ ) ; hold on ; plot ( I ,Y( : , j −1) , ’g
’ ) ; hold on ; plot ( I ,Y( : , j −1) , ’ob ’ ) ; hold on ; axis ( [ 0 N −1 1 ] ) ;
64 title ( t ) ;
65 pause ( . 1 ) ;
66 con =0;
67 end
68 end
69

70 toc
71

72 t =0:h : t f ;
73

74 figure (2)
75 plot ( t , E , ’k ’ ) ; grid on ; hold on ;
76

77 figure (3)
78 plot ( t , y1 , ’r ’ ) ; grid on ; hold on ;
79 plot ( t ,Y( 1 , : ) , ’ --’ ) ;
80 t i t l e ( ’ Comportamiento de y2 (t) ’ )
81 xlabel ( ’ Tiempo ’ )
82 ylabel ( ’ Amplitud ’ )
83 legend ( ’RK4 ’ , ’ Teor \ ’ i a de P e r t u r b a c i \ ’on ’ ) ;
84

85 figure (4)
86 plot ( t , y3 , ’r ’ ) ; grid on ; hold on ;
87 plot ( t ,Y( 3 , : ) , ’ --’ ) ;
88 t i t l e ( ’ Comportamiento de y3 (t) ’ )
89 xlabel ( ’ Tiempo ’ )
90 ylabel ( ’ Amplitud ’ )
91 legend ( ’RK4 ’ , ’ Teor \ ’ i a de P e r t u r b a c i \ ’on ’ ) ;
92

93 figure (5)
94 plot ( t , y6 , ’r ’ ) ; grid on ; hold on ;
95 plot ( t ,Y( 6 , : ) , ’ --’ ) ;
96 t i t l e ( ’ Comportamiento de y6 (t) ’ )

83
A. CÓDIGOS FUENTE EN MATLAB

97 xlabel ( ’ Tiempo ’ )
98 ylabel ( ’ Amplitud ’ )
99 legend ( ’RK4 ’ , ’ Teor \ ’ i a de P e r t u r b a c i \ ’on ’ ) ;
100

101 figure (6)


102 plot ( t , y7 , ’r ’ ) ; grid on ; hold on ;
103 plot ( t ,Y( 7 , : ) , ’ --’ ) ;
104 t i t l e ( ’ Comportamiento de y7 (t) ’ )
105 xlabel ( ’ Tiempo ’ )
106 ylabel ( ’ Amplitud ’ )
107 legend ( ’RK4 ’ , ’ Teor \ ’ i a de P e r t u r b a c i \ ’on ’ ) ;
108

109 figure (7)


110 plot ( t , y1−Y( 1 , : ) , ’k ’ ) ; grid on ; hold on ;
111 plot ( t , y2−Y( 2 , : ) , ’r ’ ) ;
112 plot ( t , y3−Y( 3 , : ) , ’b ’ ) ;
113 plot ( t , y4−Y( 4 , : ) , ’g ’ ) ;
114 plot ( t , y5−Y( 5 , : ) , ’m ’ ) ;
115 plot ( t , y6−Y( 6 , : ) , ’c ’ ) ;
116 plot ( t , y7−Y( 7 , : ) , ’y ’ ) ;
117 t i t l e ( ’ Diferencias del m\ ’ e t o d o RK4 y Teor \ ’ia de Perturbaci \ ’on ’ )
118 xlabel ( ’ Tiempo ’ )
119 ylabel ( ’ Error ’ )
120 legend ( ’y1 -Y (1 ,:) ’ , ’y2 -Y (2 ,:) ’ , ’y3 -Y (3 ,:) ’ , ’y4 -Y (4 ,:) ’ , ’y5 -Y (5 ,:) ’ , ’y6 -Y
(6 ,:) ’ , ’y7 -Y (7 ,:) ’ ) ;

También listamos el código de la solución de Runge-Kutta y la comparación con el


método de escalas múltiples para el caso de N = 2 masas.

1 function E s c a l a s 2 m a s a s ( t f )
2

3 h=0.001; k=1; m=1; N=3; B=1; alpha =0.25;


4

5 I n t r o d u c i r c o n d i c i \ ’on inicial
6 n =0: N;
7 yn =B .* sin (( pi .* n) ./ N);
8 ynp = zeros ( size ( yn ));
9

10 E (1) =( m .* sum ( ynp .^2) ) ./2+ k .*( yn (1) .^2+ sum ( diff ( yn ) .^2) ) ./2+ k .* alpha .*( yn
(1) .^3+ sum ( diff ( yn ) .^3) ) ./3;
11

12 y1 (1) = yn (2) ;

84
A.1 Código de la solución de Runge-Kutta y la comparación con el método de
Poincaré-Lindstedt

13 y2 (1) = yn (3) ;
14

15 plot (n ,yn , ’k ’ ) ; hold on ; plot ( n , yn , ’or ’ ) ; hold on ; axis ( [ 0 3 −2 2 ] ) ; pause ( 1 )


;
16

17 con =0; c o n t a =2;


18

19 tic
20

21 f o r t=h : h : t f ,
22 [ yn1 , ynp1 ]= r k 4 f p u ( t , yn , ynp , k ,m, a l p h a ) ;
23 [ yn2 , ynp2 ]= r k 4 f p u ( t+h . / 2 , yn+(h . ∗ yn1 ) . / 2 , ynp+(h . ∗ ynp1 ) . / 2 , k ,m, a l p h a ) ;
24 [ yn3 , ynp3 ]= r k 4 f p u ( t+h . / 2 , yn+(h . ∗ yn2 ) . / 2 , ynp+(h . ∗ ynp2 ) . / 2 , k ,m, a l p h a ) ;
25 [ yn4 , ynp4 ]= r k 4 f p u ( t+h , yn+h . ∗ yn3 , ynp+h . ∗ ynp3 , k ,m, a l p h a ) ;
26 yn=yn+(h . ∗ ( yn1 +2.∗ yn2 +2.∗ yn3+yn4 ) ) . / 6 ;
27 ynp=ynp+(h . ∗ ( ynp1 +2.∗ ynp2 +2.∗ ynp3+ynp4 ) ) . / 6 ;
28 E( c o n t a ) =(m. ∗sum( ynp . ˆ 2 ) ) ./2+( yn ( 1 ) .ˆ2+sum( d i f f ( yn ) . ˆ 2 ) ) ./2+ k . ∗ a l p h a
. ∗ ( yn ( 1 ) .ˆ3+sum( d i f f ( yn ) . ˆ 3 ) ) . / 3 ;
29 E1 ( c o n t a )=m. ∗ ynp ( 2 ) .ˆ2+ k . ∗ ( ( yn ( 3 )−yn ( 2 ) ) .ˆ2+ yn ( 2 ) . ˆ 2 ) . / 2 ;
30 E2 ( c o n t a )=m. ∗ ynp ( 3 ) .ˆ2+ k . ∗ ( yn ( 3 ) .ˆ2+( yn ( 3 )−yn ( 2 ) ) . ˆ 2 ) . / 2 ;
31 y1 ( c o n t a )=yn ( 2 ) ;
32 y2 ( c o n t a )=yn ( 3 ) ;
33 c o n t a=c o n t a +1;
34 con=con +1;
35 i f con /1000==1 ,
36 clf ;
37 plot ( n , yn , ’k ’ ) ; hold on ; plot ( n , yn , ’or ’ ) ; hold on ; axis ( [ 0 3 −2 2 ] ) ;
38 title ( t ) ;
39 pause ( . 1 ) ;
40 con =0;
41 end
42 end
43

44 toc
45

46 t =0:h : t f ;
47

48 figure (2)
49

50 plot ( t , E , ’k ’ ) ; grid ; hold on ;


51 t i t l e ( ’ Comportamiento de la energ \ ’ i a en e l s i s t e m a ’ )
52 xlabel ( ’ Tiempo ’ )
53 ylabel ( ’ Energ \ ’ i a ’ )
54 legend ( ’ Etotal ’ ) ;
55

85
A. CÓDIGOS FUENTE EN MATLAB

56 w1=sqrt ( k . /m) ;
57 w2=sqrt ( 3 . ∗ k . /m) ;
58

59 W1= 1 . 0 0 3 8 0 3 0 0 9 1 9 9 9 0 7 5 ;
60 W2= 1 . 7 3 6 7 0 9 3 5 9 0 4 7 4 4 5 6 ;
61

62 B2=−(3.∗ sqrt ( 2 ) . / 8 ) . ∗ ( k . /m) . ∗ ( (W2. ˆ 2 ) . / ( w2 . ˆ 2 . ∗ (W2.ˆ2 −4.∗W1. ˆ 2 ) ) ) . ∗B . ˆ 2 ;


63 A2=−(3.∗ sqrt ( 2 ) . / 8 ) . ∗ ( k . /m) . ∗ ( 1 . / w2 . ˆ 2 ) . ∗B . ˆ 2 ;
64 A3=−A2−B2 ;
65 A4=(sqrt ( 3 ) . / 1 6 ) . ∗ ( k . /m) . ∗ ( 1 . / w1 . ˆ 2 ) . ∗ B2 . ∗B ;
66 B4=−(sqrt ( 3 ) . / 2 ) . ∗ ( k . /m) . ∗ (W1. ˆ 2 . / ( w1 . ˆ 2 . ∗ (W1.ˆ2 −(W1+W2) . ˆ 2 ) ) ) . ∗ A3 . ∗B ;
67 C4=−(sqrt ( 3 ) . / 2 ) . ∗ ( k . /m) . ∗ (W1. ˆ 2 . / ( w1 . ˆ 2 . ∗ (W1.ˆ2 −(W1−W2) . ˆ 2 ) ) ) . ∗ A3 . ∗B ;
68 A5=−A4−B4−C4 ;
69

70 q10=sqrt ( 3 . / 2 ) . ∗B. ∗ cos (W1. ∗ t ) ;


71 q11 =0;
72 q12=A5 . ∗ cos (W1. ∗ t )+A4 . ∗ cos ( 3 . ∗ w1 . ∗ t )+B4 . ∗ cos ( (W1+W2) . ∗ t )+C4 . ∗ cos ( (W1−W2) . ∗
t);
73

74 q20 =0;
75 q21=A3 . ∗ cos (W2. ∗ t )+A2+B2 . ∗ cos ( 2 . ∗W1. ∗ t ) ;
76 q22 =0;
77

78 x1=q10+a l p h a . ∗ q11+( a l p h a . ˆ 2 ) . ∗ q12 ;


79 x2=q20+a l p h a . ∗ q21+( a l p h a . ˆ 2 ) . ∗ q22 ;
80

81 yy1=(sqrt ( 2 ) . / 2 ) . ∗ x1+(sqrt ( 2 ) . / 2 ) . ∗ x2 ;
82 yy2=(sqrt ( 2 ) . / 2 ) . ∗ x1 −(sqrt ( 2 ) . / 2 ) . ∗ x2 ;
83

84 figure (3)
85

86 plot ( t , y1 , ’r ’ ) ; grid on ; hold on ;


87 plot ( t , yy1 , ’ --’ ) ;
88 t i t l e ( ’ Comportamiento de $y_ {1}( t)$ ’ )
89 xlabel ( ’ Tiempo ’ )
90 ylabel ( ’ Amplitud ’ )
91 legend ( ’RK4 ’ , ’ Escalas ’ ) ;
92

93 figure (4)
94

95 plot ( t , y2 , ’r ’ ) ; grid on ; hold on ;


96 plot ( t , yy2 , ’ --’ ) ;
97 t i t l e ( ’ Comportamiento de $y_ {2}( t)$ ’ )
98 xlabel ( ’ Tiempo ’ )
99 ylabel ( ’ Amplitud ’ )

86
A.2 Código para mostrar el fenómeno de recurrencia y super recurrencia

100 legend ( ’RK4 ’ , ’ Escalas ’ ) ;


101

102 figure (5)


103 plot ( t , abs ( y1−yy1 ) , ’r ’ ) ; grid ; hold on ;
104 plot ( t , abs ( y2−yy2 ) , ’b ’ ) ;
105 t i t l e ( ’ Diferencias del m\ ’ e t o d o RK4 y E s c a l a s ’ )
106 xlabel ( ’ Tiempo ’ )
107 ylabel ( ’ Amplitud ’ )
108 legend ( ’y_ {1}( t) ’ , ’y_ {2}( t) ’ ) ;

A continuación se lista el código rk4fpu que es utilizado en los dos anteriores.

1 function [ yn1 ynp1 ]= r k 4 f p u ( t , yn , ynp , k ,m, a l p h a )


2 nn=max( s i z e ( yn ) ) ;
3 yn1=zeros ( s i z e ( yn ) ) ;
4 ynp1=zeros ( s i z e ( yn ) ) ;
5 ynma=[yn ( 2 : nn ) 0 ] ;
6 ynme=[0 yn ( 1 : nn−1) ] ;
7 yn1 ( 2 : nn−1)=ynp ( 2 : nn−1) ;
8 ynp1 ( 2 : nn−1)=((k . ∗ ( ynma ( 2 : nn−1) −2.∗yn ( 2 : nn−1)+ynme ( 2 : nn−1) ) ) . /m) .∗(1+ a l p h a
. ∗ ( ynma ( 2 : nn−1)−ynme ( 2 : nn−1) ) ) ;
9 return

A.2. Código para mostrar el fenómeno de recurrencia y


super recurrencia

A continuación se lista el código que se utilizo para mostrar el fenómeno de la


recurrencia y super recurrencia en la cadena unidimensional finita no lineal.

1 tic
2 f o r I =1:N,
3 a =1; b ( I )=a ∗ sin ( pi ∗ I / (N+1) ) ; b ( I+N) =0; % FPU i n i t i a l c o n d i t i o n
4 omegak2 ( I ) =4∗( sin ( pi ∗ I /2/N) ) ˆ 2 ; % Mode F r e q u e n c i e s
5 end
6

7 [ T,Y]=ode45 ( ’ fpu1 ’ , tspan , b ’ , o p t i o n s ,N) ; % Time i n t e g r a t i o n

87
A. CÓDIGOS FUENTE EN MATLAB

8 f o r IT =1:(TMAX/DT) ,
9 TIME( IT )=IT∗DT∗ sqrt ( omegak2 ( 1 ) ) /2/ pi ; % Time i t e r a t i o n l o o p
10 YX( IT , 1 : N+1)=[0 Y( IT , 1 : N ) ] ; YV( IT , 1 : N+1)=[0 Y( IT ,N+1:2∗N ) ] ;
11 sXF ( IT , : ) =imag ( f f t ( [YX( IT , 1 : N+1) 0 −YX( IT ,N+1: −1:2) ] ) ) / sqrt ( 2 ∗ (N+1) ) ;
12 sVF ( IT , : ) =imag ( f f t ( [YV( IT , 1 : N+1) 0 −YV( IT ,N+1: −1:2) ] ) ) / sqrt ( 2 ∗ (N+1) ) ;
13 Energ ( IT , 1 : N) =(omegak2 ( 1 :N) . ∗ ( sXF ( IT , 2 : N+1) . ˆ 2 )+sVF ( IT , 2 : N+1) . ˆ 2 ) / 2 ;
14 f o r J =2:N−1 , % Space l o o p
15 DifY ( IT , J )=Y( IT , J+1)−Y( IT , J ) ;
16 end
17 end
18 toc
19 figure ;
20 plot (TIME, Energ ( : , 1 ) , ’r ’ ,TIME, Energ ( : , 2 ) , ’b ’ ,TIME, Energ ( : , 3 ) , ’g ’ ,TIME,
Energ ( : , 4 ) , ’y ’ ,TIME, Energ ( : , 5 ) , ’m ’ ) ;
21 t i t l e ( ’ Comportamiento de la energ \ ’a en e l s i s t e m a ’ )
22 xlabel ( ’ Tiempo ’ )
23 ylabel ( ’ Energ \ ’ i a ’ )
24 legend ( ’ Energ \ ’ i a 1 ’ , ’ Energ \ ’ i a 2 ’ , ’ Energ \ ’ i a 3 ’ , ’ Energ \ ’ i a 4 ’ , ’ Energ \ ’ i a
5 ’) ;

A continuación se lista el código fpu1 que es utilizado en el anterior.

1 function dy=fpu1 ( t , y ) ;
2 N=32; a l p h a = 0 . 2 5 ;
3

4 D(N+1)=y ( 2 ) −2∗y ( 1 )+a l p h a ∗ ( ( y ( 2 )−y ( 1 ) ) ˆ2−y ( 1 ) ˆ 2 ) ;D( 1 )=y (N+1) ;


5 D( 2 ∗N)=y (N−1)−2∗y (N)+a l p h a ∗ ( y (N) ˆ2−(y (N)−y (N−1) ) ˆ 2 ) ;D(N)=y ( 2 ∗N) ;
6 f o r I =2:N−1 ,
7 D(N+I )=y ( I +1)+y ( I −1)−2∗y ( I )+a l p h a ∗ ( ( y ( I +1)−y ( I ) ) ˆ2−(y ( I )−y ( I −1) )
ˆ2) ;
8 D( I )=y (N+I ) ;
9 end
10 dy=D ’ ;

88
Bibliografı́a

[1] Thierry Dauxois Stefano Ruffo and Michael Peyrard. The fermi-pasta-ulam ”numerical
experiment”: history and pedagogical perspectives. 2005. ix, 51

[2] Michel Remoissenet. Waves called solitons. Springer, 1999. xi

[3] Martin D. Kruskal Robert M. Miura Clifford S. Gardner, Jhon M. Greene. Korteweg-de
vries equation and generalizations. method for exact solution. Communications on pure
and applied mathematics, 1974. xii

[4] F. M. Izrailev G. P. Berman. The fermi-pasta-ulam problem: 50 years of progress. Theo-


retical Division and CNLS, Los Alamos National Laboratory, 2008. xiii, 62

[5] Thomas P. Weissert. The genesis of simulation in dynamics. Springer, 1997. xiii

[6] M.A. Al-Gwaiz. Sturm-liouville theory and its applications. Springer, 2000. 2

[7] Dambaru Bhatta Lokenath Debnath. Integral transforms and their applications. Chapman,
2006. 2

[8] Lloyd N. Trefethen. Spectral methods in matlab. Society for Industrial and Applied
Mathemetics, 2000. 4

[9] Lloyd N. Trefethen. Spectral methods in matlab. finite Difference and spectral methods
for ordinary and partial differential equations, 1994. 4

[10] E. J. Hinch. Perturbation methods. Cambridge University Press, Cambridge, 1991. 12

[11] M. H. Holmes. Introduction to perturbation methods. Springer-Verlag, New York, 1995.


12

[12] J. D. Cole J. Kevorkian. Multiple scale and singular perturbation methods. Springer-
Verlag, New York, 1995. 12

89
BIBLIOGRAFÍA

[13] Michael J. Brennan Ivana Kovacic. The duffing equation nonlinear oscillatiors and their
behaviour. Wiley, 2011. 13

[14] Patrick Krämer. The methods of multiple scales for nonlinear klein-gordon schrödinger
equation. 2013. 14, 19

[15] John K. Hunter. Asymptotic analysis and singular perturbation theory. Department of
Mathematics, University of California at Davis, 2004. 15

[16] Ali H. Nayfeh. Perturbation methods. Wiley-VCH, 2004. 19

[17] Tyn Myint-U. Ordinary differential equations. North-Holland, New York, 1978. 30

[18] Morikazu Toda. Theory of nonlinear lattices. Springer, 1981. 48

[19] S. Ulam E. Fermi, J. Pasta. Los Álamos report la-1940 (1955). University of Chicago
Press, Vol. II, 1965. 48, 50

[20] David Sholl. Modal coupling in one-dimensional anharmonic lattices. Physics Letters A.
Vol. 149, Number 5,6, pp. 253-257, 1990. 51

[21] J. Murdock J.A. Sanders, F. Verhulst. Averaging methods in nonlinear dynamical systems.
Springer, 2000. 63

[22] C. G. Goedde S. Lichter C. Y. Lin, S. N. Cho. When is a one-dimensional lattice small?


Physical Review Letters, 1999. 74

[23] N. Bogoliuboff N. Kryloff. Introduction to nonlinear mechanics. Princeton University


Press, Princeton, New Jersey, 1947. 76

[24] Joseph Ford. Equipartition of energy for nonlinear systems. Journal of Mathematical
Physics, January, 1961. 77

[25] John Waters Joseph Ford. Computer studies of energy sharing and ergodicity for nonlinear
oscillator systems. Journal of Mathematical Physics, January, 1963. 77

[26] E. Atlee Jackson. Nonlinear coupled oscillators. i. perturbation theory; ergodic problem.
Journal of Mathematical Physics, August, 1962. 77

[27] E. Atlee Jackson. Nonlinear coupled oscillators. ii. comparison of theory with computer
solutions. Journal of Mathematical Physics, November, 1962. 77

90

También podría gustarte