Está en la página 1de 153

Modelos Matemáticos

(2023-2024)

1
Gonzalo Galiano Casas
2
Julián Velasco Valdés

Departamento de Matemáticas
Universidad de Oviedo

1 E-mail: gonzalo@galianocasas.es; galiano@uniovi.es


2 E-mail: julian@uniovi.es
Índice general

1. Transformadas de Fourier: Análisis de señales 5

1. Transformadas de Fourier discretas . . . . . . . . . . . . . . . . . . . 8

1.1. La transformada de Fourier discreta . . . . . . . . . . . . . . . 8

1.2. Espectro de potencias e identidad de Plancherel . . . . . . . . 9

1.3. Reescalado de la DFT . . . . . . . . . . . . . . . . . . . . . . 10

1.4. Otras propiedades de la DFT . . . . . . . . . . . . . . . . . . 12

1.5. La transformada ventaneada de Fourier discreta . . . . . . . . 15

1.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Ejercicios de la Sección 1 . . . . . . . . . . . . . . . . . . . . . . . . . 27

2. Resultados fundamentales de Análisis Funcional . . . . . . . . . . . . 29

2.1. La integral de Lebesgue . . . . . . . . . . . . . . . . . . . . . 29

2.2. Espacios Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.3. Aproximación por funciones regulares . . . . . . . . . . . . . . 34

2.4. La delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . 36

3. La transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . 40

3.1. La transformada de Fourier en L1 (R) . . . . . . . . . . . . . . 40

3.2. La transformada de Fourier en L2 (R) . . . . . . . . . . . . . . 44

3.3. Fórmula de dualidad y transformada de la delta de Dirac . . . 49

Ejercicios de la Sección 3 . . . . . . . . . . . . . . . . . . . . . . . . . 51
1
2 ÍNDICE GENERAL

4. Fórmula de Poisson y teorema de muestreo . . . . . . . . . . . . . . . 55

4.1. Fórmula de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 55

4.2. Teorema de muestreo . . . . . . . . . . . . . . . . . . . . . . . 57

5. La transformada ventaneada de Fourier . . . . . . . . . . . . . . . . 62

Ejercicios de la Sección 5 . . . . . . . . . . . . . . . . . . . . . . . . . 65

2. Modelos de reacción-difusión: Evolución y equilibrio 67

1. La ley general de conservación . . . . . . . . . . . . . . . . . . . . . . 69

2. Modelos para una especie: Malthus y Verlhust . . . . . . . . . . . . . 73

2.1. Equilibrios y estabilidad . . . . . . . . . . . . . . . . . . . . . 76

3. Modelos de interacción entre especies . . . . . . . . . . . . . . . . . . 81

3.1. Las ecuaciones de Lotka-Volterra . . . . . . . . . . . . . . . . 81

3.2. Modelo SIR de Epidemiología . . . . . . . . . . . . . . . . . . 86

Ejercicios de la Sección 3 . . . . . . . . . . . . . . . . . . . . . . . . . 92

4. Modelos con dependencia espacial . . . . . . . . . . . . . . . . . . . 97

4.1. Modelos con dependencia espacial para una especie . . . . . . 97

4.2. Modelos con dependencia espacial para dos especies . . . . . . 102

4.3. Consideraciones generales sobre los modelos en EDP . . . . . 105

5. Inestabilidad de Turing: formación de patrones . . . . . . . . . . . . . 108

5.1. Modelos con un especie . . . . . . . . . . . . . . . . . . . . . . 111

5.2. Modelos con dos especies: discusión general . . . . . . . . . . . 114

5.3. Modelos con dos especies: difusión lineal diagonal y


reacción general . . . . . . . . . . . . . . . . . . . . . . . . . . 118

5.4. Modelos con dos especies: difusión cruzada y Lotka-Volterra


de competencia . . . . . . . . . . . . . . . . . . . . . . . . . . 122

5.5. Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

Ejercicios de la Sección 5 . . . . . . . . . . . . . . . . . . . . . . . . . 127


ÍNDICE GENERAL 3

6. Modelos con estructura de edad . . . . . . . . . . . . . . . . . . . . . 135

6.1. Modelo de McKendric . . . . . . . . . . . . . . . . . . . . . . 135

6.2. El modelo SIR con estructura de edad . . . . . . . . . . . . . 144

Ejercicios de la Sección 6 . . . . . . . . . . . . . . . . . . . . . . . . . 149

Bibliografía 152
Capítulo 1

Transformadas de Fourier: Análisis


de señales

En 1822, Joseph Fourier publicó la Teoría analítica del calor donde, entre otras
aportaciones de gran importancia, introdujo una nueva metodología de desarrollo
de una función en términos de series de senos y cosenos, aplicándola, en particular,
a la resolución de la ecuación en derivadas parciales del calor.

La cuestión de la validez, es decir, de la convergencia de estos desarrollos ha


alimentado a generaciones de matemáticos y sigue siendo, con variantes y amplia-
ciones, un tema de estudio muy importante tanto desde el punto de vista conceptual
como del computacional.

En pocas palabras, el resultado fundamental de la teoría de Fourier es que si


una función 1-periódica, f : R → C, satisface ciertas condiciones de regularidad,
entonces puede identificarse con su desarrollo de Fourier, es decir, que

X Z 1
f (t) = i2πkt
ck e , donde ck = f (t)e−i2πkt dt. (1.1)
k=−∞ 0

En esta expresión, la colección de funciones {ei2πkt }k∈Z y de números {ck }k∈Z juegan
el mismo papel que el que la base {ei }N N
i=1 del espacio vectorial R y las coordenadas
{xi }N N
i=1 juegan en la descomposición x = (x1 , . . . , xN ) de un vector de R .

El que algún coeficiente, ck , sea grande en comparación con los demás indica
que la función posee un alto contenido frecuencial en la frecuencia k, es decir, que
su componente de la forma1 ak cos(2πkt) + bk sin(2πkt) destaca entre las demás
componentes.
1
Con ak = ck + c−k y bk = i(ck − c−k ).
5
6 Transformadas de Fourier: Análisis de señales

El desarrollo de Fourier es un caso particular de expansión de una función en el


cual el espectro de frecuencias es discreto (k ∈ Z). Puede demostrarse que este ca-
rácter discreto del espectro es consecuencia de la periodicidad de f . Si obviamos esta
condición sobre f y consideramos cualquier función f : R → C (satisfaciendo ciertas
condiciones de integrabilidad) entonces el sumatorio de (1.1) ha de ser reemplazado
por una integral sobre R, pasando el correspondiente espectro de frecuencias a ser
continuo. En este caso hablamos de la transformada de Fourier.

Más concretamente, la transformada de Fourier fˆ : R → C de una función2 ,


f : R → C se define por
Z
ˆ
f (ω) = f (t)e−i2πωt dt. (1.2)
R

Esta expresión es la análoga a la de los coeficientes ck del desarrollo de Fourier. Bajo


condiciones muy generales sobre f (que sea integrable), la transformada está bien
definida (es finita) ya que, como |e−i2πωt | = 1, deducimos que
Z
ˆ
|f (ω)| ≤ |f (t)|dt < ∞, para ω ∈ R.
R

La primera cuestión que debemos resolver es la de bajo qué condiciones podemos


expresar f en términos de su transformada fˆ, en analogía a lo que ocurre en el caso
del desarrollo de Fourier. Si esto es posible, y respetando dicha analogía, esperamos
que la expresión sea3
Z
f (t) = fˆ(ω)ei2πωt dω.
R

Esta cuestión no es en absoluto trivial. La trataremos en la Sección 3 de este


capítulo, para lo que antes, en la Sección 2, introduciremos algunas herramientas de
análisis funcional que son indispensables para su estudio.

El desarrollo y la transformada de Fourier tienen un interés puramente matemá-


tico indudable. Pero también están muy presentes en distintas ramas científicas y
tecnológicas. Fourier las desarrolló, con gran éxito, para la resolución de ecuaciones
en derivadas parciales. Pero, en la actualidad, quizás sea el análisis de señales donde
esta teoría4 tiene una presencia más relevante.
2
Aunque en las aplicaciones nos centraremos en funciones de variable real, f : R → R, resulta
conveniente desarrollar la teoría en el marco más amplio de funciones con valores complejos.
3
Como comentaremos más adelante, no hay una convención única en las definiciones del desa-
rrollo y la transformada de Fourier. Debido al carácter 2π−periódico de la base de funciones que
la definen, este factor, 2π, puede incluirse de distintas maneras en la definición de fˆ.
4
Y otras relacionadas, como la de las wavelets.
7

Como resulta evidente de la definición de la transformada de Fourier, toda infor-


mación temporal sobre la señal se pierde cuando se pasa al espacio de frecuencias.
Si la señal está determinada por frecuencias que varían con el tiempo entonces la
transformada de Fourier solo ofrecerá un resultado promediado en tiempo de dichas
frecuencias, con lo que su utilidad queda limitada.

Para analizar este tipo de señales, en la Sección 5 introduciremos la transformada


ventaneada de Fourier, una herramienta que permite obtener una representación del
contenido frecuencial de una señal a lo largo del tiempo.

Debido al principio de indeterminación de Heisenberg, esta representación no


puede ser puntual. De hecho, existe un intercambio de certidumbre entre la posición
y la frecuencia5 . Pero sí podemos determinar, con ciertas limitaciones, su posición y
frecuencias aproximadas en pequeños intervalos de tiempo que se concatenen para
cubrir la duración de la señal.

Estos intervalos de tiempo son modelizados mediante la introducción


R de una
2
ventana w : R → R, es decir, una función w par, no negativa y con R |w(t)| dt = 1,
a partir de la cual se define la transformada ventaneada de Fourier de f como
Z
Sf (t, ω) = f (τ )w(τ − t)e−i2πωτ dτ. (1.3)
R

Finalmente, queda la cuestión del cálculo.

La teoría de Fourier lleva dos siglos impulsando el desarrollo teórico de muchas


ramas de las matemáticas ya que su objeto, las funciones, juegan un papel central
en ellas. Pero, como bien sabían los primeros estudiosos de los métodos numéricos,
Newton, Euler, Gauss,..., las teorías matemáticas ganan mucho si contribuyen a la
resolución de problemas concretos. En lo que respecta a la transformada de Fourier,
la teoría sobre su discretización y su cálculo eficiente es una historia de éxitos.

Dada la organización temporal de la asignatura, y con el fin de aprovechar al


máximo las horas dedicadas al laboratorio, comenzaremos el estudio de la transfor-
mada de Fourier de un modo inusual. En la Sección 1 introduciremos la descripción
de las versiones discretas y finitas de la transformada de Fourier y de su versión
ventaneada, así como algunas de sus propiedades.

La validez del planteamiento discreto será analizada en la Sección 4 a través


del teorema de muestreo, y las propiedades deducidas en el contexto discreto se
estudiarán más en detalle cuando definamos las correspondientes versiones continuas.

La teoría de Fourier tiene una intuición clara, unas matemáticas profundas y,


5
No podemos determinar de manera exacta ni la posición ni la frecuencia. Y cuanto más certi-
dumbre tengamos sobre una de ellas, menos tendremos sobre la otra.
8 Transformadas de Fourier: Análisis de señales

a menudo, difíciles, y un rango de aplicaciones amplio e interesante. Estas notas


pretenden ser una introducción a sus conceptos y resultados fundamentales.

1. Transformadas de Fourier discretas

Existen dos razones principales para considerar la versión discreta de la trans-


formada de Fourier de una función f : R → C. La primera es que, en general, no
sabemos calcular la integral que define a fˆ(ω) de un modo exacto. La segunda es
que, en la práctica, las funciones (señales) que capturamos mediante aparatos de
medición son discretas y finitas. Es decir, la cantidad que define f la medimos a
intervalos de tiempo dado (frecuencia de muestreo) durante un período de tiempo
finito.

Normalmente, hablaremos de señales, frecuencia de muestreo, duración de la se-


ñal, etc., ya que las aplicaciones que tenemos en mente están relacionadas con fun-
ciones que representan mediciones capturadas a lo largo del tiempo, que solemos
representar por f (t), con t ∈ [0, T ] denotando el tiempo. Sin embargo, lo que si-
gue es válido en muchos otros contextos, siendo el más importante aquel en que
f = f (x), denotando x la variable espacial.

1.1. La transformada de Fourier discreta

Una señal finita de dimensión N es, simplemente, un vector f ∈ CN . Denotaremos


por f [n], con n = 0, 1, . . . , N − 1, a sus componentes o muestras.

En nuestras aplicaciones, f vendrá determinada por una señal periódica continua


−1
f : [0, T ) → C evaluada en una malla equiespaciada {nτ }N
n=0 de [0, T ), con τ = T /N .
Es decir, pondremos f [n] = f (tn ).

Como es bien sabido, CN es un espacio vectorial euclídeo de dimensión N para


el producto escalar definido por
N
X −1
hf , hi = f [n]h[n],
n=0

donde h es el complejo conjugado de h. El siguiente teorema establece que cualquier


señal finita de dimensión N puede descomponerse como una suma de funciones
sinusoidales discretas.

−1
Teorema 1.1.1 La familia {ek }N

k=0 , con e k [n] = exp i2πkn/N , n = 0, . . . , N − 1,
define una base ortogonal del espacio de señales discretas de dimensión N .
1.1. Transformadas de Fourier discretas 9

Demostración. Para k, m = 0, . . . , N − 1, tenemos


N
X −1  i2πkn   −i2πmn  N
X −1  i2πn(k − m) 
hek , em i = exp exp = exp .
n=0
N N n=0
N

Si m = k entonces kek k2 = hek , ek i = N . Si m 6= k, observemos primero que


zN − 1
z N −1 + · · · + z + 1 = , para todo z ∈ C, z 6= 1.
z−1
Tomando z = exp(i2π(k − m)/N ) tenemos que z 6= 1 (pues k 6= m) y z N = 1, ya
que

z N = exp(i2π(k − m)) = cos(2π(k − m)) + i sen(2π(k − m)) = 1,

pues k − m es un número entero. Por tanto, hek , em i = 0.


−1
Deducimos que {ek }N
k=0 es una familia ortogonal de N vectores contenidos en
N
C , de modo que forman una base. 

A partir de esta familia ortogonal, formulamos la siguiente definición.

Definición 1 Sea f una señal discreta de dimensión N . La transformada de Fourier


discreta (DFT) de f está definida por
N
X −1  −i2πkn 
f̂ [k] = hf , ek i = f [n] exp , para k = 0, . . . , N − 1.
n=0
N

También usaremos la notación f̂ = Fd (f ).

La descomposición de f en la base {ek } nos proporciona una fórmula para la


transformada inversa de Fourier discreta,
N −1 N −1
X hf , ek i 1 X  i2πkn 
f [n] = ek [n] = f̂ [k] exp para n = 0, . . . , N − 1. (1.4)
k=0
kek k2 N k=0 N

1.2. Espectro de potencias e identidad de Plancherel

Puesto que la DFT de una señal discreta finita es un vector complejo, a menudo
resulta útil considerar transformaciones de la misma que reflejen el contenido fre-
cuencial de la señal en términos de variables reales. La más utilizada es el espectro
de potencias, que está definido por el módulo al cuadrado de la DFT. Es decir

PS f [k] = f̂ [k]f̂ [k] = |f̂ [k]|2 , para k = 0, . . . , N − 1.


10 Transformadas de Fourier: Análisis de señales

Observación 1.1.1 Simetría del espectro de frecuencias. Teniendo en cuenta


la Observación 1.1.3, supongamos que f es una señal discreta con valores reales de
dimensión N impar, y que tomamos como frecuencias discretas el conjunto {−(N −
1)/2, . . . , (N − 1)/2}. Entonces, para k = 0, . . . , (N − 1)/2, tenemos
N
X −1  i2πkn  N
X −1  −i2πkn 
f̂ [−k] = f [n]exp = f [n] exp = f̂ [k].
n=0
N n=0
N

Por tanto, PS f [−k] = f̂ [−k]f̂ [−k] = f̂ [k]f̂ [k] = PS f [k], es decir, el espectro de poten-
cias de una señal real tiene simetría par.

La Identidad de Plancherel establece que es equivalente medir la energía de


una señal en el espacio del tiempo o en el de las frecuencias. En el caso discreto
se reduce a la siguiente identidad entre las normas euclídeas de la señal y de su
transformada (Ejercicio 1):
1
kf k = √ kf̂ k. (1.5)
N

1.3. Reescalado de la DFT

Como hemos visto, la DFT se define sobre vectores arbitrarios f ∈ C, sin hacer
referencia a lo que los mismos puedan representar. En esta sección estableceremos
la relación que existe entre la DFT de un vector f ∈ C y la transformada de Fourier
de una señal f : R → C.

Sea T > 0 la duración, en segundos, de una señal T -periódica f : [0, T ) → C, y


sea f la correspondiente señal discreta finita.

Sea fs la frecuencia de muestreo de la señal f , esto es, el número de muestras por


segundo (Hz) que tomamos de la misma, de modo que el número total de muestras
es N = [T fs ], donde [x] denota la parte entera de x. Observemos que si T fs no es
un número entero, entonces estamos reduciendo levemente el dominio de definición
de f a [0, Teff ], donde Teff = N/fs y, por tanto, la condición de periodicidad solo se
satisface de modo aproximado en este intervalo.

El tamaño del paso de tiempo del muestreo es, pues, τ = 1/fs , con lo que la señal
discreta la definimos por
f [n] = f (nτ ), para n = 0, 1, . . . , N − 1.
1.1. Transformadas de Fourier discretas 11

Debido a la hipótesis de periodicidad sobre f se tiene que f (0) = f (T ) ≈ f (Teff ),


con lo que podemos eliminar del muestreo uno de los dos extremos del intervalo.
Normalmente, se toma como último punto del muestreo a Teff − τ , de modo que
f (Teff ) no está incluido en la señal discreta f .

Como veremos más adelante, el Teorema 1.4.17 de muestreo establece que el


dominio frecuencial libre de aliasing para f es [− 2τ1 , 2τ1 ] = [− f2s , f2s ]. Sin embargo,
debido a cuestiones relacionadas con la discretización, en la práctica consideraremos
el siguiente dominio frecuencial6

fs fs (N − 2) i
h
 − , si N es par,


2 2 N
Dω = h (1.6)
 − fs N − 1 , fs N − 1
 i
si N es impar.

2 N 2 N
En Dω , consideramos una partición uniforme de N puntos con el tamaño del paso
de frecuencia dado por

|Dω | fs 1 1
∆ω = = = = .
N −1 N Nτ Teff

Usando que τ ∆ω = 1/N , obtenemos la siguiente relación entre la transformada


continua y la discreta,
Z T N −1 N −1
X X i2πkn 
F(f )(k∆ω) = f (t)e−i2πtk∆ω dt ≈ τ f [n]e−i2πnτ k∆ω = τ f [n] exp −
0 n=0 n=0
N
= τ Fd (f )[k],

para k = 0, 1, . . . , N − 1, de modo que definimos la versión reescalada, Fr , de Fd por

Fr (f )[k] = τ Fd (f )[k]. (1.7)

Con esta definición, la identidad de Plancherel de la versión continua se aproxima


correctamente, ya que
Z N
X −1 N
X −1
2 2 2
|F(f )(ω)| dω ≈ ∆ω |Fr (f )[k]| = ∆ωτ |Fd (f )[k]|2
Dω k=0 k=0
N
X −1 N
X −1 Z T
2 2 2
= N ∆ωτ |f [n]| = τ |f [n]| ≈ |f (t)|2 dt,
n=0 n=0 0

donde hemos usado la identidad de Plancherel discreta (1.5).


6
Este dominio coincide con el utilizado en los programas de software científico.
12 Transformadas de Fourier: Análisis de señales

Tabla 1.1: Parámetros de la discretización

Parámetro Dimensión Relación


T Tiempo final
fs Frecuencia de muestreo
Teff Tiempo final efectivo [T fs ]/fs
N Número de muestras N = Teff fs
τ Paso de tiempo τ = 1/fs
∆ω Paso de frecuencia ∆ω = fs /N

Finalmente, para aproximar la transformada inversa de la versión continua me-


diante la versión reescalada de la DFT dada por (1.4) observemos que, para g :
Dω → C y g[k] = g(k∆ω), para k = 0, 1, . . . , N − 1, se tiene
Z N −1
−1 i2πωnτ
X i2πkn 
F (g)(nτ ) = g(ω)e dω ≈ ∆ω g[k] exp
Dω k=0
N
N −1
1 X i2πkn  1 −1
= g[k] exp = Fd (g)[n],
Nτ k=0
N τ

para n = 0, 1, . . . , N − 1, de modo que definimos


1 −1
Fr−1 (g)[n] = F (g)[n],
τ d
que es lo que esperábamos, en vista de (1.7).

Observemos que, de la linealidad de la transformada de Fourier en sus diferentes


versiones, obtenemos la fórmula de reconstrucción

Fr−1 (Fr (f )) = Fd−1 (Fd (f )) = f .

1.4. Otras propiedades de la DFT

Las propiedades que se enuncian a continuación serán deducidas en detalle en el


contexto de la transformada de Fourier continua.

Teorema de convolución. Sean f y h dos señales de dimensión N y consi-


deremos las señales

f̃ [n] = f [n Mod N ], h̃[n] = h[n Mod N ],


1.1. Transformadas de Fourier discretas 13

definidas para todo n ∈ Z, las cuales son una N −periodificación de las señales
originales. Definimos la convolución circular de f y h por
N
X −1
f ~ h[n] = f̃ [n − m]h̃[m],
m=0

para n = 0, . . . , N − 1. El teorema de la convolución establece que la DFT de


g = f ~ h viene dada por (Ejercicio 2)

ĝ[k] = f̂ [k]ĥ[k], para k = 0, . . . , N − 1.

Frecuencia de Nyquist. Supongamos que queremos discretizar una señal


continua f : R → C con un contenido frecuencial limitado. Digamos que
sop fˆ(ω) ⊂ (−ωN , ωN ], con ωN ∈ R. El Teorema 1.4.17 de muestreo establece
que la frecuencia de muestreo, fs = 1/τ , que debemos utilizar en la discreti-
zación debe satisfacer fs ≥ 2ωN . En caso contrario, se producirá el fenómeno
del aliasing, el cual consiste en una representación incorrecta del contenido
frecuencial de la señal.

Por ejemplo, si f (t) = ei2πω t , entonces debemos tomar un muestreo f [n] =
f (nτ ), con τ < 1/(2ω ∗ ), es decir, fs > 2ω ∗ . Si tomamos fs < 2ω ∗ , se produ-
cirá aliasing. En este caso, la frecuencia máxima representable (frecuencia de
Nyquist) será ωN = fs /2 < ω ∗ , y la consecuencia será que la señal original es
interpretada como ei2πωa t , siendo
(
(−1)n − 1 n = int(ω ∗ /ωN ),
ωa = r + ωN , donde
2 r = ω ∗ − nωN .

Observemos finalmente que si f tiene valores reales, digamos f (t) = cos(2πω ∗ t),
∗ ∗
entonces podemos expresarla como f (t) = (ei2πω t + e−i2πω t )/2, de modo que
las frecuencias representadas por el muestreo serán ±ωa .

1.4.1. Forma matricial de la DFT

Consideremos a f y f̂ como vectores columna. Entonces, puesto que la DFT es


una aplicación lineal, podemos introducir la notación matricial para escribir

f̂ = Ff ,

donde F es la matriz de Fourier.


k N −1
Consideremos ωN = e−i2π/N , de modo que {ωN }k=0 son las N raíces de la unidad,
N
es decir, las soluciones de z = 1. Entonces, la matriz de Fourier puede escribirse
14 Transformadas de Fourier: Análisis de señales

como
···
 
1 1 1 1
2 N −1 
1 ωN ωN ··· ωN
2(N −1) 
 
2 2·2
F = 1
 ωN ωN ··· ωN .
 .. .. .. .. 
. . . . 
N −1 2(N −1) (N −1)2
1 ωN ωN ··· ωN

Observemos que si kn > N , digamos7 kn = m1 N + m2 , con m1 ∈ N y m2 ∈


kn N m1 m2 m2
{0, 1, . . . , N −1}, entonces ωN = (ωN ) ωN = ωN . Por tanto, todos los coeficientes
de F son raíces N −ésimas de la unidad, y la matriz de Fourier puede reescribirse
como
 
1 1 1 ··· 1
2 N −1 
1 ωN
 ωN · · · ωN 
2 2·2 N −2 
F = 1 ωN
 ωN · · · ωN .
 .. .. .. .. 
. . . . 
N −1 N −2
1 ωN ωN · · · ωN

La matriz de Fourier es claramente simétrica, es decir, F = FT . Sus columnas son los


−1
vectores de la base {ek }N
k=0 , y como en el Teorema 1.1.1, deducimos que FF = N I,
donde I es la matriz identidad. Por tanto, la matriz de la transformada inversa de
la DFT viene dada por
1
F−1 = F.
N

Observación 1.1.2 El coste computacional de calcular la DFT es el mismo que el


de multiplicar una matriz N × N por un vector N −dimensional. Es decir, del orden
O(N 2 ). Lo que hace útil a la DFT es que, usando las simetrías de F (implementadas
en la transformada rápida de Fourier (fft)), este coste puede reducirse al orden
O(N log(N )).

Observación 1.1.3 Debido a la periodicidad de los vectores de la base que definen


la DFT, el rango de frecuencias discretas k ∈ {0, 1, . . . , N − 1} puede reemplazarse
por cualquier traslación entera del mismo. En los programas de software científico
el rango suele estar centrado en el cero. De este modo si, por ejemplo, N es impar,
se considera k ∈ {−(N − 1)/2, . . . , (N − 1)/2}.

7
Es decir, m2 = kn Mod N .
1.1. Transformadas de Fourier discretas 15

1.5. La transformada ventaneada de Fourier discreta

La discretización de la transformada ventaneada de Fourier (STFT8 ) definida en


(1.3) sigue las mismas ideas introducidas para la discretización de la transformada
de Fourier.

Sea f una señal discreta de dimensión N y consideremos una ventana discreta w


par y no negativa, con kwk = 1, definida para n = 0, 1, . . . , N − 1.

Aunque el caso de mayor interés es el de ventanas que tienen un soporte relati-


vamente pequeño comparado con el de la señal, es decir, en el que w 6= 0 solo para
un conjunto de M puntos, con M  N , asumiremos que la ventana está definida
en todo Z mediante su extensión periódica.

Definición 2 La transformada ventaneada de Fourier discreta de una señal f de


dimensión N viene dada por, para m, l = 0, 1, . . . , N − 1,
N
X −1  −i2πln 
Sf [m, l] = f [n]w[n − m] exp . (1.8)
n=0
N

En la expresión (1.8) los índices m y l representan, respectivamente, el tiempo y la


frecuencia. Observemos que el cálculo de la STFT discreta se reduce a, para cada
tiempo m fijo, calcular la DFT de f [·]w[· − m].

Ejemplo 1.1.1 El ejemplo más sencillo de ventana es el de una función escalón.


Sea M un número impar con M  N y
(
√1
M
si n ∈ {− M2−1 , − M2−3 , . . . , M2−1 },
w[n] =
0 en otro caso,
de modo que w es par, no negativa y kwk = 1. Entonces, w[n − m] 6= 0 si
M −1 M −1
m− ≤n≤m+ .
2 2
Puesto que el índice del sumatorio está limitado a n = 0, . . . , N − 1, tendremos dos
casos:

M −1
1. El interior. Es el conjunto de tiempos m que satisfacen m − 2
≥ 0 y m+
M −1
2
≤ N − 1, de modo que la STFT discreta será
m+ M2−1  −i2πln 
1 X
Sf [m, l] = √ f [n] exp ,
M N
n=m− M2−1

es decir, una DFT de tamaño M .


8
Short Time Fourier Transform.
16 Transformadas de Fourier: Análisis de señales

2. Los bordes. Son los conjuntos de tiempos m en los que o bien m < M2−1 o
bien m > N − 1 − M2−1 . Para estos tiempos la DFT resultante es de tamaño
estrictamente menor que M . Aunque el cálculo puede realizarse sin dificultad,
desde el punto de vista computacional resulta más eficiente modificar la señal
f para obtener DFT’s del mismo tamaño que en el interior.

Observación 1.1.4 Enunciamos aquí las versiones discretas de la fórmula de re-


construcción y de la propiedad de conservación de la energía cuyas versiones conti-
nuas se establecerán en el Teorema 1.5.18.

Teorema 1.1.2 Si f es una señal de periodo N entonces, para n = 0, 1, . . . , N − 1


N −1 N −1
1 XX  i2πln 
f [n] = Sf [m, l]w[n − m] exp
N m=0 l=0 N
N −1 N −1 N −1
X
2 1 XX
|f [n]| = |Sf [m, l]|2 .
n=0
N m=0 l=0

Demostración. Ejercicio 8.

1.5.1. Implementación de la STFT reescalada

El problema del borde. Antes de proceder al cálculo efectivo de la STFT discreta,


reflexionemos brevemente sobre el problema del borde.

Supongamos que, en la situación del Ejemplo 1.1.1, queremos calcular Sf [0, l], es
decir
M −1
2  −i2πln 
1 X
Sf [0, l] = √ f [n] exp .
M N
n=− M2−1

Puesto que f no está definida para n = − M2−1 , . . . , −1, debemos extenderla a este
rango de índices de algún modo significativo. En el marco de la DFT es habitual
considerar la extensión de la señal por periodicidad debido al carácter estacionario
de las señales estudiadas.

Sin embargo, la introducción de la STFT está motivada fundamentalmente porque


las señales a estudiar no son estacionarias, es decir, su frecuencia varía con el tiempo.
Esto hace que la extensión por periodicidad no esté fundamentada y que otras
estrategias puedan tener mayor sentido desde el punto de vista de la modelización.
1.1. Transformadas de Fourier discretas 17

En cualquier caso, a efectos prácticos, si el soporte de la ventana, w, es mucho


más pequeño que el de f , la extensión por periodicidad o mediante cualquier otro
procedimiento solo afecta a una pequeña región centrada en los bordes temporales
de la correspondiente STFT, con lo que su importancia es de orden menor.

Para ilustrar una de las estrategias más comunes de extensión de f , alternativa


a la periodicidad, consideraremos en lo que sigue que dicha extensión se realiza por
cero (zero padding).

La señal. Sea f : [0, T ) → C una señal continua que muestreamos con una fre-
cuencia de muestreo fs para obtener la señal discreta f de tamaño N = [T × fs ],
dada por
f [n] = f (nτ ), para n = 0, 1, . . . , N − 1,
con τ = 1/fs .

La ventana discreta. Sea w : R → R una ventana con soporte en el intervalo


[−Tw /2, Tw /2], donde Tw está dado en segundos y asumimos que Tw  T .

De acuerdo a la sección anterior, la discretización finita de w, w, debería estar


definida en el mismo rango de índices que f , esto es, para n = 0, 1, . . . , N − 1. Sin
embargo, como estamos asumiendo que el soporte de w es mucho menor que el de f ,
podemos ahorrar tiempo de computación si restringimos el rango de w a un número
menor de índices (allí donde w > 0).

Así, tomamos el tamaño de la ventana discreta como el entero impar, M , dado


por
(
[Tw fs ] si [Tw fs ] es impar,
M=
[Tw fs ] + 1 si [Tw fs ] es par.

Observemos que como Tw  T se tiene que M  N , y que el soporte real de w


puede ser ligeramente diferente a [−Tw /2, Tw /2] debido a la aproximación realizada.
La elección de M impar no es necesaria, y se toma únicamente para que exista un
punto central en la ventana discreta, que corresponde a w(0), un valor relevante de
la misma.

Definimos, pues,
 M − 1 
w[m] = w m− τ , para m = 0, 1, . . . , M − 1.
2
Recordemos que w debe normalizarse para tener
M
X −1
w[m]2 τ = 1.
m=0
18 Transformadas de Fourier: Análisis de señales

Extensión por cero de f . En el contexto continuo tenemos, para τ ∈ [0, T ),


Z Z Tw /2
−i2πξt s=t−τ −i2πξτ
Sf (τ, ξ) = f (t)w(t − τ )e dt = e f (τ + s)w(s)e−i2πξs ds.
R −Tw /2
(1.9)
Entonces
Z Tw /2 Z Tw /2
−i2πξs −i2πξT
Sf (0, ξ) = f (s)w(s)e ds, Sf (T, ξ) = e f (T + s)w(s)e−i2πξs ds,
−Tw /2 −Tw /2

y, por tanto, solo necesitamos realizar la extensión de f por cero en la unión de


intervalos [−Tw /2, 0] ∪ [T, T + Tw /2].

En el contexto discreto, la extensión de f por cero es entonces una nueva señal,


fp , de tamaño N + M , dada por

0
 para n = 0, . . . , M2−1 − 1,
fp [n] = f [n − M2−1 ] para n = M2−1 , . . . , N + M2−1 − 1,
para n = N + M2−1 , . . . , N + M − 1.

0

Cálculo de la STFT. Observemos primero que como la STFT discreta es una


DFT sobre M nodos de tiempo, la correspondiente malla frecuencial será como en
(1.6) pero con N reemplazado por M , es decir,
h f M − 1 f M − 1i
s s
Dω = − , ,
2 M 2 M
donde hemos usado que M es impar. El tamaño de la malla viene dado por ∆ω =
fs /M = 1/M τ = 1/(Tw )eff .

La fórmula para calcular la STFT de fp es similar a (1.8), pero tomando en cuenta


el cambio de variable de integración realizado en (1.9), con lo que queda
M −1
i2πkn  X  i2πkm 
Sf [n, k] = exp − fp [n + m]w[m] exp − ,
M m=0
M

para n = 0, . . . , N − 1 y k = 0, . . . , M − 1. Considerando la señal auxiliar


hn [m] = fp [n + m]w[m], para m = 0, . . . , M − 1,
podemos calcular la versión reescalada de Sf mediante la DFT (reescalada) de hn ,
obteniendo así ,
i2πkn 
Sr f [n, k] = τ Sf [n, k] = τ exp − Fd (hn )[k]
M
i2πkn 
= exp − Fr (hn )[k], (1.10)
M
1.1. Transformadas de Fourier discretas 19

para n = 0, . . . , N − 1 y k = 0, . . . , M − 1.

Solapamiento. La STFT es una representación tiempo-frecuencia muy redundante.


En efecto, para una ventana con M nodos temporales cada valor f [n] de la señal
participa en M transformadas DFT.

Esta redundancia es un inconveniente desde el punto de vista computacional,


dado que exige el cómputo de N transformadas de señales de longitud M .

Para aliviar la carga computacional podemos usar la estrategia del solapamiento,


la cual consiste en reducir el número de nodos temporales en los que se calculan
las DFT’s. De modo que, en vez de calcularlas para t = 0, τ, 2τ, . . . , (N − 1)τ ,
las calculamos para t = 0, sp τ, 2sp τ, . . . , (N − 1)τ , donde sp ∈ {1, 2, . . . , M } es un
parámetro que nos indica la extensión del solapamiento entre las DFT’s.

Claramente, sp = 1 indica un solapamiento máximo (la STFT original), mientras


que sp = M indica que no hay solapamiento. Esta modificación se traduce en el
siguiente cambio de la fórmula de la STFT deducida en (1.10), que pasa a ser
i2πkj 
Srsp f [j, k] = τ exp − Fd (hn )[k],
M
para j = 0, . . . , J − 1 y k = 0, . . . , M − 1, donde n = jsp , J = N/sp (que asumimos
s
que es un número entero, por sencillez), y Sr p se refiere a la STFT discreta reescalada
y con solapamiento.

El solapamiento afecta asímismo al escalamiento de la fórmula de la conservación


de la energía. En efecto, se tiene,
Z Z J−1 M
X X −1
|Srsp f (τ, ξ)|2 dξdτ ≈ sp τ ∆ω |Srsp f [j, k]|2
R R j=0 k=0
J−1 M −1
1 XX
= sp τ 2 |Fd (hn )[k]|2
M j=0 k=0
J−1 M −1
1 2X X
= sp τ M |hn [m]|2
M j=0 m=0
M
X −1 J−1
X
= |w[m]|2 τ |fp [jsp + m]|2 sp τ
m=0 j=0
Z
≈ |f (t)|2 dt.
R

Finalmente, la fórmula para la STFT inversa con solapamiento es similar a la


s
obtenida sin solapamiento, reemplazando Sr f por Sr p f .
20 Transformadas de Fourier: Análisis de señales

Figura 1.1: Distribución del lobo en España

1.6. Aplicaciones

1.6.1. Aplicación al conteo de individuos de una manada de lobos

La9 idea de esta aplicación surge de la necesidad que existe en determinadas zonas
de España de elaborar censos de las poblaciones de lobos.

El noroeste de España (Galicia, Asturias, León y Zamora) es la zona de Europa


con mayor densidad de lobos. Por varias razones, siendo una de las principales que
el lobo ya no está catalogado como alimaña y que goza de protección, la especie
ha ido aumentando su población y reconquistando zonas en las que que se había
extinguido, véase la Figura 1.1.

Es aquí donde surgen los problemas. Los ganaderos, después de muchos años de
ausencia de este depredador, han cambiado el manejo del ganado. Esto hace que el
ganado esté desprotegido y sea presa fácil para tan hábil depredador. Los ataques
del lobo al ganado doméstico crean grandes perdidas económicas a los ganaderos y
estos exigen el pago de indemnizaciones por las muertes de sus reses.

Es en este momento cuando surge la necesidad de realizar estudios científicos


sobre la especie: su etología, su población y sus migraciones. A día de hoy solo se
9
El texto de esta sección contiene extractos del Trabajo de Fin de Carrera de Ingeniería In-
formática de Ricardo Alvar Rozas titulado Implementación de una aplicación en Android para
detectar la presencia de cachorros en manadas de lobo y elaborado en el curso 2013-2014 en la
Universidad de Oviedo.
1.1. Transformadas de Fourier discretas 21

puede dar una cifra estimada de cuál es la población del lobo ibérico en España. Esta
cifra se consigue contando el número de manadas y multiplicándolo por un número
medio de individuos por manada estimado previamente. Para poder realizar estos
estudios, profesionales como biólogos y guardamontes necesitan herramientas que les
simplifiquen y hagan más eficiente su trabajo, para poder llegar a las conclusiones
más precisas posibles.

En países donde los lobos habitan en grandes extensiones despejadas y, a menu-


do, nevadas, el conteo de los ejemplares se realiza mediante una inspección visual
directa, normalmente desde avionetas, o mediante la inspección de las huellas que
los animales dejan en la nieve.

Sin embargo, en el caso de España y de otros países del entorno, la visualización


es imposible debido a la alta densidad arbórea del hábitat del lobo. Y las huellas
(en barro) u otros marcadores (como excrementos) constituyen una metodología de
conteo poco fiable. Sin embargo, debido a la alta densidad de población humana, la
localización de las manadas es relativamente sencilla, y la escucha y grabación de
los coros de lobos es plausible.

Los biólogos de la empresa ARENA10 decidieron experimentar con la grabación


de coros de lobos. Sin embargo, la identificación del número de ejemplares que aúllan
en un coro mediante su escucha es difícil incluso para expertos en la materia. Y es
aquí donde la transformada (ventaneada) de Fourier viene en nuestra ayuda.

Un coro de lobos de N individuos puede modelizarse mediante la superposición


de los aullidos emitidos por cada uno de ellos, es decir, por una señal continua de la
forma
N
X
f (t) = fn (t).
n=1

El aullido de cada ejemplar puede, a su vez, modelizarse mediante una señal de la


forma
J
X
fn (t) = Anj (t)ei2πϕnj (t) ,
j=1

donde An0 es la amplitud de la frecuencia instantánea principal, ϕ0n0 (t), siendo ϕn0 (t)
la fase. Los términos similares definidos para j = 1, 2, . . . , J corresponden a los
armónicos de dichas componentes.

Es de esperar que la señal grabada contenga ruidos de distintos tipos. Pueden


ser ruidos con cierta estructura (normalmente gaussiana) producidos por la baja
10
Asesores de Recursos Naturales S.L.
22 Transformadas de Fourier: Análisis de señales

Figura 1.2: Espectrograma de una grabación de un coro de lobos. Se observa ruido


de baja frecuencia (en torno a t = 4, y varios aullidos compuestos por una frecuencia
(instantánea) principal y varios de sus armónicos

intensidad de la señal captada11 , por el viento, por el tráfico en una carretera lejana,
etc. También puede contener señales no deseadas que no sean propiamente ruidos,
como el cri-cri de los grillos, ladridos de perros, etc.

De este modo, la señal captada por la grabadora será del tipo


N
X
g(t) = fn (t) + h(t),
n=1

donde h(t) recoge todos los ruidos y señales no deseados, y el objetivo del análisis
de g(t) será determinar el número de lobos, N .

En la Figura 1.2 mostramos el espectrograma de una señal real de un coro de


lobos. En ella pueden distinguirse tanto las frecuencias instantáneas fundamentales
correspondientes a los aullidos como algunos de sus armónicos. También se observa
ruido de baja frecuencia. La determinación exacta del número de aullidos, N , no es
sencilla a simple vista. Normalmente, el objetivo es obtener una estimación de dicho
número.

1.6.2. Aplicación a las ondas gravitacionales

Según12 la Teoría General de la Relatividad, el universo (más comunmente, el


espacio-tiempo) se modeliza como una variedad diferenciable de dimensión cuatro
11
La propia grabadora introduce este tipo de ruido.
12
El texto de esta sección es un extracto del Trabajo de Fin de Grado de Matemáticas de
Alejandro Pérez Rodríguez titulado Representaciones Tiempo-Frecuencia y elaborado en el curso
2019-2020 en la Universidad de Oviedo.
1.1. Transformadas de Fourier discretas 23

(tres dimensiones espaciales y una temporal) dotada en todo punto de una métrica
que nos permite calcular la distancia entre puntos. La idea central de la teoría es
que la métrica del espacio-tiempo viene determinada por la distribución de materia
y energía en el mismo, de acuerdo a un sistema de ecuaciones diferenciales conocidas
como ecuaciones de Einstein. La solución estática de las ecuaciones de Einstein para
un universo vacío es un espacio-tiempo plano que recibe el nombre de espacio de
Minkowski. En el límite en que las velocidades de los observadores son pequeñas
respecto a la velocidad de la luz, la coordenada temporal se desacopla de las coorde-
nadas espaciales, y la parte espacial de la métrica se reduce al espacio tridimensional
euclídeo en que se desarrolla nuestra experiencia cotidiana.

Sin embargo, puede comprobarse que un espacio-tiempo vacío admite también


soluciones de tipo oscilatorio. Más concretamente, este tipo de soluciones constan
de una métrica de la forma gµν = ηµν + hµν , donde ηµν es la métrica del espa-
cio de Minkowski (estática) y hµν es una perturbación a la métrica que satisface
la ecuación de ondas de d’Alembert. Físicamente, esto se interpreta como que el
vacío puede transportar pequeñas perturbaciones de la métrica. A dichas pertur-
baciones en desplazamiento se las denomina ondas gravitacionales. El motivo de la
nomenclatura es la analogía entre este fenómeno y otros fenómenos de transporte
de perturbaciones conocidos en física (las ondas sonoras, las ondas en un fluido, las
ondas electromagnéticas...).

Cuando una onda gravitacional atraviesa una región del espacio-tiempo (por ejem-
plo, la Tierra), la métrica del espacio-tiempo en dicha región se ve perturbada. Pues-
to que la métrica permite calcular la distancia entre los puntos del espacio-tiempo,
una onda gravitacional se manifiesta físicamente como una (pequeña) alteración
transitoria de la distancia entre los puntos de la región en cuestión. La Figura 1.3
ilustra este fenómeno. El cambio en la distancia inducido por la onda gravitacional
es proporcional a la distancia original y a un parámetro h que indica la magnitud
típica de las componentes del tensor hµν . Este parámetro h es el que contiene el
carácter oscilatorio en el tiempo de la onda gravitacional (es decir, la información
sobre la amplitud y la fase de la onda).

Así pues, la manifestación física de una onda gravitacional es un cambio en la


distancia entre dos puntos. De esta forma, para detectar una onda gravitacional,
únicamente necesitamos un dispositivo que nos permita medir (con mucha precisión)
la distancia instantánea entre dos puntos de referencia. A día de hoy, la mejor opción
es un dispositivo conocido como interferómetro de Michelson-Morley. Esencialmente,
este aparato determina las variaciones de la distancia entre dos puntos atendiendo
a las alteraciones del patrón de interferencias generado por un rayo láser que se
propaga entre dichos puntos (el patrón de interferencias de un rayo láser depende
de la distancia recorrida por el rayo). Este es el fundamento del experimento LIGO
(por sus siglas en inglés, Observatorio de Ondas Gravitacionales por Interferometría
Láser).
24 Transformadas de Fourier: Análisis de señales

Figura 1.3: Efecto sobre un disco de radio R sobre el plano XY de una onda gravi-
tacional propagándose en la dirección de eje Z. El trazo discontinuo indica la forma
original del disco (en ausencia de onda gravitacional). En trazo continuo se mues-
tra la forma del disco para dos fases opuestas (i.e. que difieren en π) de la onda
gravitacional

Antes de abordar el tratamiento numérico, conviene tener una idea de cuál es el


perfil de frecuencias típico que esperamos en una onda gravitacional. Las ondas gra-
vitacionales se producen en sistemas dinámicos de gran masa y carentes de simetría
esférica. El ejemplo más común en el universo de este tipo de sistemas es un par de
objetos muy masivos (típicamente agujeros negros) a una cierta distancia entre sí
que orbitan en torno al centro de masas del sistema. Al hacerlo, liberan energía en
forma de ondas gravitacionales (cuya frecuencia está ligada al periodo de traslación
de los objetos). A medida que pierden energía, se van acercando, orbitando cada vez
más rápido, y liberando ondas gravitacionales de mayor frecuencia y amplitud. El
proceso finaliza con una violenta fusión en la que se libera gran cantidad de energía
en la forma de un pulso gravitacional. Después de esto, el objeto único resultante
(típicamente esférico) vuelve al reposo, desapareciendo la emisión de ondas gravita-
cionales. Un esquema de este proceso y el perfil oscilatorio asociado que esperamos
se tiene en la Figura 1.4.

Tratamiento previo de los datos

Los datos que se obtienen en LIGO contienen altos niveles de ruido, varios órde-
nes de magnitud por encima de la amplitud de la señal correspondiente a la onda
gravitacional. Por ello, antes de aplicar las técnicas relacionadas con la transforma-
da ventaneada de Fourier, es necesario un tratamiento previo de los datos en dos
etapas: blanqueamiento y filtrado.
1.1. Transformadas de Fourier discretas 25

Figura 1.4: Modelo ideal de la evolución de un sistema de dos agujeros negros y la


correspondiente onda gravitacional. En (1), los agujeros negros están alejados, su
periodo orbital alrededor del centro de masas es bajo y la radiación gravitatoria
emitida tiene poca frecuencia y amplitud. Ambas aumentan (2) a medida que los
agujeros negros se aproximan, hasta que finalmente colisionan y se funden (3) con
una violenta liberación de energía (que se manifiesta como un máximo en la amplitud
de las ondas gravitacionales emitidas). A partir de ahí, el sistema vuelve rápidamente
al reposo (4)

• Blanqueamiento. El blanqueamiento es una técnica estándar de tratamiento de


datos que se aplica con frecuencia en astrofísica. Básicamente, consiste en norma-
lizar la contribución de todas las frecuencias a la amplitud de la señal de partida.
Veámoslo más en detalle.

En primer lugar, se calcula la densidad espectral de la señal, que nos informa


de la densidad de energía de la señal en el dominio de frecuencias. De acuerdo con
la fórmula de Parseval, esto no es más que el módulo cuadrado de la transformada
de Fourier de la señal. Al hacerlo, se observa que la energía se acumula en torno
a ciertas frecuencias. La mayoría de estas acumulaciones están previstas, ya que
son de origen experimental. Por ejemplo, la densidad espectral tiene un pico en
60 Hz, que se corresponde con la frecuencia de la corriente alterna que alimenta
los láseres; también en 500 Hz (y sus armónicos), que es la frecuencia con la que
oscilan los espejos en suspensión usados en el dispositivo óptico del interferómetro;
etc. Por su propia naturaleza, la intensidad de estas señales es varios órdenes de
magnitud mayor que la de las ondas gravitacionales. Por tanto, al combinarse todas
las contribuciones (las frecuencias del dispositivo experimental y las de las ondas
gravitacionales) en una única señal, las ondas gravitacionales son prácticamente
invisibles en el conjunto.

Para solucionar esto, se toma la transformada de Fourier de la señal de partida


(en bruto) y se divide por la raíz cuadrada de la densidad espectral. De esta forma,
obtenemos una nueva función (en el dominio de frecuencias) en el que todas las
26 Transformadas de Fourier: Análisis de señales

frecuencias tienen la misma densidad de energía. En efecto, si partimos de una


señal f (t), consideramos su transformada de Fourier fˆ(ω) y su densidad espectral
S(f )(ω) = |fˆ(ω)|2 y definimos una nueva función

fˆ(ω) fˆ(ω)
g(ω) = p =
S(f )(ω) |fˆ(ω)|

se cumple trivialmente que |g(ω)| = 1 para todo ω ∈ R. Por último, tomamos


f˜(t) = F −1 (g) para volver al dominio de tiempos. Esta nueva función es a la que
denominamos blanqueamiento de f . Con esta construcción, se garantiza que en f˜
estén presentes las mismas frecuencias que en f , pero todas con la misma densidad
de energía. En particular, las frecuencias correspondientes a las ondas gravitacionales
ya no se ven dominadas por las frecuencias procedentes del dispositivo experimental.

Figura 1.5: Izquierda: Espectrograma obtenido con nuestro programa. Derecha: es-
pectrograma publicado por LIGO

• Filtrado. Una vez blanqueados los datos, podemos aplicar un filtro frecuencial pa-
ra restringir el estudio al rango de frecuencias que nos interesa. Por un lado, LIGO
no está calibrado a frecuencias bajas, por lo que el ruido (en este caso de carácter
aleatorio, no sistemático) crece varios órdenes de magnitud por debajo de los 20 Hz.
Para evitar que los elevados niveles de ruido a estas frecuencias distorsionen los
resultados, se filtran las frecuencias inferiores a 30 Hz. Por otro lado, las prediccio-
nes teóricas no esperan eventos detectables para frecuencias superiores a 400 Hz,
de modo que las frecuencias por encima de 400 Hz se filtran también. Este paso
podría no resultar tan crítico como el anterior: a frecuencias altas no hay niveles de
ruido que vayan a distorsionar notablemente los resultados. Sin embargo, al filtrar
frecuencias superiores a 400 Hz logramos disminuir la influencia de la oscilación de
los espejos (recuérdese: 500 Hz), que daría lugar casi siempre a máximos de origen
no gravitacional en el espectrograma.
1.1. Transformadas de Fourier discretas 27

Un último comentario. Aplicamos el tratamiento de datos por este orden: primero


blanqueado y posteriormente filtrado. Sin embargo, los datos disponibles al público
con resultados de LIGO incluyen un filtrado previo por debajo de los 8 Hz (el ruido
se dispara a esas frecuencias). Por ello, hay que tener en cuenta que el tratamiento
de datos que hacemos no es sobre datos totalmente en bruto, sino que ya contienen
un pequeño tratamiento en la forma de un filtro pasa-alta.

Ejemplo: Evento H150914. Hemos utilizado la implementación del espectrogra-


ma que utilizamos en los laboratorios a la señal del Evento H150914 proporcionada
por LIGO, que es el primer evento en el que se detectaron ondas gravitacionales.

Los parámetros del programa son:

varianza de la ventana gaussiana: σ = 10−2 ,


longitud de la ventana: Tw = 1,
parámetro de solapamiento: sp = 2.

En la Figura 1.5 mostramos el espectrograma obtenido con nuestra implementación


y el proporcionado por LIGO. Dos advertencias sobre las gráficas. Por un lado, los
eventos de LIGO se registran en series de datos de 32 segundos, mientras que la
duración de la señal asociada a una onda gravitacional es del orden de 0.1 segundos.
Las gráficas que se muestran se corresponden con recortes de las señales originales,
más extensas. En consecuencia, los ejes de tiempos de las gráficas en general no
coinciden, ya que el origen de tiempos y la longitud de la señal son distintos. Por
otro lado, los ejes de frecuencias en la representación del espectrograma de LIGO
está en escala logarítmica, mientras que el nuestro está en escala lineal.

Ejercicios de la Sección 1
1. Probar la fórmula de Plancherel para señales finitas
N −1
2 1 X
kf k = |f̂ [k]|2 .
N k=0

2. Probar el teorema de convolución para señales finitas: Si f y h tienen periodo


N entonces la DFT de g = f ~ h es ĝ[k] = f̂ [k]ĥ[k].
3. Probar que los autovectores de un operador definido como una convolución cir-
cular, Lf = f ~h, son las exponenciales complejas discretas ek [n] = exp(i2πkn/N )
¿Cuáles son los correspondientes autovalores?
Indicación: Calcular Lek [n] para cualquier h dado.
28 Transformadas de Fourier: Análisis de señales

4. a) Sea f : R → R una función de L1 (R). Probar que f es Hermítica, es decir,


que

fˆ(−ω) = fˆ(ω), para todo ω ∈ C.

b) Sea f una señal discreta finita de tamaño N (par) con valores reales. Probar
que la DFT de f queda determinada por N2 + 1 números complejos.
N
c) Obtener la fórmula de la DFT inversa usando únicamente esos 2
+ 1 valores
de f̂ , y demostrar que todos sus sumandos son números reales.

5. Demostrar el Teorema 1.5.18: Si f es una señal de periodo N entonces, para


n = 0, 1, . . . , N − 1
N −1 N −1
1 XX  i2πln 
f [n] = Sf [m, l]w[n − m] exp
N m=0 l=0 N
N −1 N −1 N −1
X
2 1 XX
|f [n]| = |Sf [m, l]|2 .
n=0
N m=0 l=0
1.2. Resultados fundamentales de Análisis Funcional 29

2. Resultados fundamentales de Análisis Funcional

En esta sección introduciremos algunos resultados fundamentales de análisis fun-


cional que necesitaremos para desarrollar la teoría de la transformada de Fourier.
Nuestros principales objetivos son: definir con precisión los espacios Lp , enunciar
el resultado de aproximación de funciones de Lp a partir de funciones regulares y,
finalmente, definir la δ de Dirac de un modo riguroso y operativo.

Aunque todos los conceptos y resultados que veremos son válidos para funciones
con valores complejos, la notación se simplifica tratando el caso real, es decir, de
funciones f : Ω ⊂ R → R, donde Ω es un conjunto abierto. Así que nos restringiremos
a este caso.

2.1. La integral de Lebesgue

2.1.1. La medida de Lebesgue

La medida de Lebesgue surge por la necesidad de establecer un concepto de


medida más allá del de longitud. Es decir, para poder medir subconjuntos de R que
no sean intervalos o uniones e intersecciones finitas de intervalos.

Una medida, µ, es una función que se aplica sobre conjuntos, es decir, una asig-
nación de un número µ(A) a cada conjunto A de una cierta clase. Dicha clase debe
tener cierta estructura (σ-álgebra) y la función µ debe satisfacer ciertas propiedades.
Concretamente:

1. Una σ-álgebra de R es una colección, M, de subconjuntos de R tal que:

a) ∅ ∈ M,
b) A ∈ M =⇒ Ac ∈ M,
S
c) Si {An }n∈N ⊂ M entonces n∈N An ∈ M.

2. µ : M → [0, ∞] es una medida si µ(∅)S= 0 y si para toda familia {An }n∈N de
∞ P∞
conjuntos disjuntos de M se tiene µ n=1 An = n=1 µ(An ).

A los miembros de M se les denomina conjuntos medibles. Los conjuntos A ∈ M


tales que µ(A) = 0 son llamados conjuntos de medida nula. Diremos que una pro-
piedad se satisface en casi todo punto de R (c.t.p. en R) si se satisface para todo
x ∈ R\A, donde A es un conjunto de medida nula.
30 Transformadas de Fourier: Análisis de señales

Un ejemplo particularmente importante de σ-álgebra es la σ-álgebra de Borel,


denotada por B(R). Se define como la menor σ-álgebra de conjuntos de R que
contiene a todos los intervalos de la forma13 (a, b].

Intuitivamente, podemos pensar que los conjuntos de Borel se generan partien-


do de todos los intervalos de R y realizando todos los complementos y uniones e
intersecciones contables posibles.

La medida de Lebesgue 14 , L, de un intervalo (a, b] coincide con la noción usual de


longitud: L(a, b] = b − a. La medida de Lebesgue está bien definida sobre B(R) y,
por tanto, podemos medir con L cualquier conjunto de dicha σ-álgebra15 .

2.1.2. La integral de Lebesgue

Decimos que la función f : R → R es medible Borel 16 si para todo A ∈ B(R)


se tiene f −1 (A) ∈ B(R). Por ejemplo, si A es el intervalo (a, ∞), el super-nivel
{x : f (x) > a} debe ser medible.

Para construir la noción de integral de Lebesgue comenzamos definiéndola para


las funciones simples. Decimos que la función s : R → R es simple si es de la forma
m
X
s(x) = si IAi (x), con si ∈ R, Ai ∈ B(R) disjuntos, y m < ∞.
i=1

Entonces, definimos la integral de Lebesgue de s como


Z m
X
s(x)dx = si λ(Ai ).
R i=1

Si f es una función medible no negativa entonces se define


Z Z 
f (x)dx = sup s(x)dx : s es simple y 0 ≤ s ≤ f .
R R

Observemos que esta integral siempre existe, aunque puede ser infinita.

Finalmente, si f es una función medible arbitraria entonces la descomponemos


en sus partes positiva y negativa y aplicamos la definición anterior. Es decir, siendo
f + = máx(f, 0), f − = máx(−f, 0), definimos
Z Z Z
f (x)dx = f (x)dx − f − (x)dx, si no es de la forma ∞ − ∞.
+
R R R
13
También pueden elegirse de otras formas: [a, b), (a, ∞), etc. De hecho, B(R) contiene todos los
intervalos posibles de R.
14
A menudo usaremos la notación |A| en lugar de L(A).
15
Aunque puede ser difícil calcular la medida.
16
O boreliana o, simplemente, medible.
1.2. Resultados fundamentales de Análisis Funcional 31

Las funciones medibles cuyaR integral


R de Lebesgue es finita se denominan funciones
integrables. En particular, R f + y R R f − deben ser finitas, con lo que f también es
absolutamente integrable, es decir, R |f | < ∞17 .

Mencionemos finalmente algunas propiedades relativas a las funciones medibles


y a la integración de Lebesgue.

Teorema 1.2.3 1. Si f1 , f2 son medibles entonces f1 + f2 , f1 − f2 , f1 f2 y f1 /f2


son medibles (siempre que estén bien definidas).

2. Si {fn } es una sucesión de funciones medibles y fn (x) → f (x) para todo x ∈ R


entonces f es medible.
R
3. Sea f una función medible no negativa. Entonces µ(A) = A f (x)dx es una
medida.

4. Sean α, β ∈ R y f, g funciones medibles. Entonces


Z Z Z
(αf (x) + βg(x))dx = α f (x)dx + β g(x)dx.
R R R

R R
5. Sean f, g medibles con f ≤ g c.t.p. en R. Entonces R f (x)dx ≤ R g(x)dx.
R R
6. Sea f una función medible. Entonces18 R f (x)dx ≤ R |f (x)|dx.

Observemos que la primera propiedad nos permite definir la integral de una función
medible en un conjunto de Borel:
Z Z
f (x)dx = f (x)IA (x)dx.
A R

2.2. Espacios Lp

El espacio de funciones integrables definidas sobre un conjunto abierto Ω, deno-


tado por L1 (Ω), es un espacio de Banach. Esto quiere decir que L1 (Ω) dotado de su
norma19
Z
kf kL1 (Ω) = |f (x)|dx,

17
Observemos que |f | = f + + f − .
18
Nos referiremos a esta propiedad como Desigualdad triangular para integrales.
19
Recordemos que una norma sobre el espacio vectorial X es una aplicación k · k : X → R tal
que para todos x, y ∈ X y α ∈ R se tiene (i) kxk ≥ 0, (ii) kxk = 0 ⇐⇒ x = 0, (iii) kαxk = |α|kxk,
(iv) kx + yk ≤ kxk + kyk.
32 Transformadas de Fourier: Análisis de señales

es un espacio normado completo, es decir en el cual toda sucesión de Cauchy20


converge a un elemento de dicho espacio. Dicho de otro modo, si {fn } ⊂ L1 (Ω) es
una sucesión de Cauchy entonces existe f ∈ L1 (Ω) tal que fn converge fuertemente
a f , es decir,
lı́m kfn − f kL1 (Ω) = 0.
n→∞

Observación 1.2.1 Para que k · kL1 (Ω) sea una norma, debe satisfacerse kf kL1 (Ω) =
0 =⇒ f = 0. Sin embargo, aquí solo tenemos kf kL1 (Ω) = 0 =⇒ f = 0 c.t.p. en
Ω. Para evitar este inconveniente, los elementos de L1 (Ω) se definen como clases de
funciones bajo la relación de equivalencia f ≡ g si f = g c.t.p. en Ω.

Sea p ∈ R con 1 ≤ p < ∞. El espacio


 Z 
p p
L (Ω) = f : Ω → R : f es medible y |f (x)| dx < ∞

es un espacio de Banach para la norma


Z  p1
p
kf kLp (Ω) = |f (x)| dx .

2
En particular, para p = 2, el espacio L (Ω)
R es un espacio de Hilbert con norma
21
inducida por el producto escalar hf, gi = Ω f (x)g(x)dx.

Finalmente, el espacio de Banach L∞ (Ω) está formado por las funciones medibles
esencialmente acotadas, es decir,
L∞ (Ω) = {f : Ω → R : f es medible y ∃ C constante tal que |f (x)| ≤ C c.t.p. en Ω} ,
y su norma viene dada por kf kL∞ (Ω) = ı́nf{C : |f (x)| ≤ C c.t.p. en Ω}.

2.2.1. Teoremas de integración y otras propiedades

Los dos primeros resultados que enunciamos se refieren a la justificación del in-
tercambio en el orden en el que se efectúan un límite y una integración, es decir, a
establecer que
Z Z
lı́m fn (x)dx = f (x)dx cuando fn → f en un sentido a precisar.
n→∞ Ω Ω
20
Una sucesión, xn , de elementos de un espacio normado (X, k · k) es una sucesión de Cauchy
si para todo ε > 0 existe N ∈ N tal que para cualesquiera números naturales m, n > N se tiene
kxm − xn k < ε.
21
R
En el caso complejo, el producto escalar viene dado por hf, gi = Ω f (x)ḡ(x)dx.
1.2. Resultados fundamentales de Análisis Funcional 33

Teorema 1.2.4 (de la convergencia monótona) Sea {fn } una sucesión de fun-
ciones de L1 (Ω) tal que:

1. f1 ≤ f2 ≤ · · · ≤ fn ≤ fn+1 ≤ · · · c.t.p. en Ω,
R
2. supn Ω fn (x)dx < ∞.

Entonces fn (x) converge c.t.p. en Ω a un límite finito, que denotamos por f (x).
Además, f ∈ L1 (Ω) y kfn − f kL1 (Ω) → 0 cuando n → ∞.

Teorema 1.2.5 (de la convergencia dominada) Sea {fn } una sucesión de fun-
ciones de L1 (Ω) tal que:

1. fn (x) → f (x) c.t.p. en Ω.

2. Existe una función g ∈ L1 (Ω) tal que para todo n ∈ N se tiene


|fn (x)| ≤ g(x) c.t.p. en Ω.

Entonces f ∈ L1 (Ω) y kfn − f kL1 (Ω) → 0 cuando n → ∞.

Observación 1.2.2 Claramente, se tiene que


Z Z Z
− |fn − f | ≤ (fn − f ) ≤ |fn − f |,
Ω Ω Ω

de modo que si kfn − f kL1 (Ω) → 0, deducimos


Z Z
lı́m fn (x)dx = f (x)dx.
n→∞ Ω Ω

El siguiente resultado nos proporciona condiciones bajo las cuales se puede inter-
cambiar el orden de integración en integrales definidas en espacios producto.

Teorema 1.2.6 (Fubini) Sea F ∈ L1 (Ω1 × Ω2 ). Entonces

R
1. F (x, y) ∈ L1 (Ω2 ) para c.t.p. x ∈ Ω1 , y Ω2
F (x, y)dy ∈ L1 (Ω1 ),
R
2. F (x, y) ∈ L1 (Ω1 ) para c.t.p. y ∈ Ω2 , y Ω1
F (x, y)dx ∈ L1 (Ω2 ),
34 Transformadas de Fourier: Análisis de señales

y, además,
Z Z Z  Z Z 
F (x, y)dxdy = F (x, y)dy dx = F (x, y)dx dy.
Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1

Terminamos esta sección con una desigualdad muy útil.

Teorema 1.2.7 (Desigualdad de Hölder) Supongamos que f ∈ Lp (Ω) y g ∈


0
Lp (Ω), con 1 ≤ p ≤ ∞, donde p0 es el exponente conjugado22 de p. Entonces
f g ∈ L1 (Ω) y
Z
|f (x)g(x)|dx ≤ kf kLp (Ω) kgkLp0 (Ω) .

2.3. Aproximación por funciones regulares

Denotamos por C(Ω) al espacio vectorial formado por las funciones continuas de
Ω en R y por C0 (R) al conjunto de funciones f ∈ C(R) tales que lı́m|x|→∞ f (x) = 0.
C0 (R) es un espacio de Banach con la norma
kf kC0 (R) = máx |f (x)|.
x∈R

El soporte de f ∈ C(Ω) se define como


sop(f ) = {x ∈ Ω : f (x) 6= 0}.
Una función continua, f , se dice de soporte compacto si sop(f ) es un conjunto
compacto. En particular, una función con soporte compacto se anula en todas partes
salvo en un conjunto acotado y, por tanto, de medida finita. El subespacio de C(Ω)
dado por las funciones continuas con soporte compacto se denota por Cc (Ω) y es un
espacio de Banach con la norma del supremo
kf kCc (Ω) = sup |f (x)|.
x∈Ω

Sea m ∈ N ∪ {∞}. Denotamos por C m (Ω) al espacio de funciones con derivadas


continuas hasta el orden m. El espacio Ccm (Ω) = C m (Ω) ∩ Cc (Ω) es un espacio de
Banach para la norma del supremo
kf kCcm (Ω) = máx sup |f (n) (x)|.
0≤n≤m x∈Ω

El siguiente teorema, que no enunciamos en su mayor generalidad, es de gran


importancia. Nos dice que incluso funciones muy irregulares pueden ser aproximadas
por funciones de Cc∞ (Ω).
22
Es decir, p0 es tal que 1
p + 1
p0 = 1.
1.2. Resultados fundamentales de Análisis Funcional 35

Teorema 1.2.8 (De aproximación) El espacio Cc∞ (Ω) es denso en Lp (Ω), para
1 ≤ p < ∞. Es decir, para toda f ∈ Lp (Ω) existe una sucesión, {fn } ⊂ Cc∞ (Ω) tal
que
lı́m kfn − f kLp (Ω) = 0.
n→∞

La sucesión aproximante {fn } puede construirse explícitamente. Para ello se utilizan


las sucesiones regularizantes, es decir, cualquier sucesión {ρn } ⊂ Cc∞ (R) tal que
Z
1 1
sop(ρn ) ⊂ (− n , n ), ρn (x)dx = 1, ρn (x) ≥ 0 para todo x ∈ R.
R

Para construir una de estas sucesiones regularizantes basta con encontrar una fun-

R
ción ρ ∈ Cc (R) tal que sop(ρ) ⊂ (0, 1), RR ρ > 0 y ρ ≥ 0 en R, y entonces tomar el
reescalado ρn (x) = Cnρ(nx), con C −1 = R ρ. Tales funciones ρ existen. Por ejemplo
  1 
exp si |x| < 1,
ρ(x) = |x|2 − 1
0 si |x| ≥ 1.

A partir de las sucesiones regularizantes definimos la sucesión aproximante mediante


el producto de convolución. Recordemos que dadas dos funciones g, h ∈ L1 (R) su
producto de convolución h ∗ g es la función integrable dada por
Z Z
h ∗ g(x) = h(x − y)g(y)dy = h(y)g(x − y)dy.
R R

Puesto que la función f que queremos aproximar solo está definida en Ω, para utilizar
el producto de convolución comenzamos por extender f a R mediante su extensión
por cero, f˜, definida por
(
f (x) si x ∈ Ω,
f˜(x) =
0 si x ∈ R\Ω.

Claramente, f˜ ∈ L1 (R). Entonces ponemos


Z
fn (x) = f˜ ∗ ρn (x) = f˜(x − y)ρn (y)dy.
R

Puesto que ρn ∈ Cc∞ (R), se tiene que fn ∈ Cc∞ (R) ya que tanto f˜ como ρ son de
soporte compacto y, además, la derivada m−ésima de fn ,
Z
(m)
fn (x) = f˜(y)ρ(m)
n (x − y)dy
R

es continua. La demostración del teorema de aproximación utiliza estas aproximantes


para concluir que si f ∈ Lp (Ω) entonces
lı́m kfn − f kLp (Ω) = 0.
n→∞
36 Transformadas de Fourier: Análisis de señales

2.4. La delta de Dirac

Es posible que el lector ya se haya encontrado con la delta de Dirac, denotada


por δ, en textos que se refieren a la misma como función delta de Dirac, con las
propiedades de ser nula en todas partes excepto en el origen, donde vale infinito, y
que tiene la propiedad siguiente:
Z
ϕ(x)δ(x)dx = ϕ(0), para cualquier función continua ϕ. (1.11)
R

El párrafo anterior caracteriza la delta de Dirac de un modo informal y, de hecho,


erróneo. Una función no puede satisfacer las propiedades que hemos atribuido a δ.

Ejemplo 1.2.1 Sea h : R → R dada por


(
1 si t ∈ (−1/2, 1/2),
h(x) =
0 en otro caso,

y definamos, para n ∈ N, hn (x) = nh(nx), es decir,


(
1 1
n si x ∈ (− 2n , 2n ),
hn (x) =
0 en otro caso.

Observemos que, para n grande, hn tiene un soporte pequeño centrado en el cero,


donde toma un valor grande. Cuando n → ∞ la medida del soporte tiende a cero,
mientras el valor tiende a infinito. Por ello, el límite de hn cuando n → ∞ idealiza
la situación en la que en x = 0 ocurre algo singular y extremo . Podría decirse que
la función explota en x = 0.

Es fácil comprobar que la sucesión {hn } satisface las siguientes propiedades:

(i) hn es no negativa y par.

(ii) hn (0) → ∞ cuando n → ∞.

(iii) Para todo x 6= 0, hn (x) → 0 cuando n → ∞.


R R
(iv) R hn (x)dx = 1 para todo n ∈ N, con lo que lı́mn→∞ R hn (x)dx = 1.

Por tanto, si existe H ∈ L1 (R) tal que khn −HkL1 (R) → 0 cuando n → ∞, tendremos
que (iii) implica que H(x) = 0 en c.t.p. x ∈ R pero (iv) nos dice que kHkL1 (R) = 1,
lo cual es contradictorio. 
1.2. Resultados fundamentales de Análisis Funcional 37

Desde el punto de vista de la modelización, el significado de lı́mn→∞ hn es intere-


sante e intutivamente claro ¿Cómo podemos dotarle de un significado matemático
correcto? La respuesta está inspirada en la expresión (1.11).

Consideremos una función continua ϕ y el producto de funciones ϕ(x)hn (x) pa-


1 1
ra t ∈ R. Como hn tiene su soporte en (− 2n , 2n ), dicho producto es integrable.
Pongamos
Z s
1 2
I(s) = ϕ(x)dx, s ∈ R,
s − 2s

de modo que
Z
I(1/n) = ϕ(x)hn (x)dx.
R

La regla de L’Hôpital asegura que


Z s/2
0
lı́m I(s) = lı́m G (s), donde G(s) = ϕ(x)dx.
s→0 s→0 −s/2

Reescribiendo G(s) como


Z s/2 Z 0 Z s/2
G(s) = ϕ(x)dx = ϕ(x)dx + ϕ(x)dx
−s/2 −s/2 0
Z s
1 s y
Z
1 y
= ϕ − dτ + ϕ dτ,
2 0 2 2 0 2

obtenemos
1 
lı́m I(1/n) = lı́m I(s) = lı́m ϕ(−s/2) + ϕ(s/2) = ϕ(0),
n→∞ s→0 2 s→0
debido a la continuidad de ϕ. Es decir, para cualquier función, ϕ, continua,
Z
lı́m ϕ(x)hn (x)dx = ϕ(0).
n→0 R

Este ejemplo nos muestra que, aunque no podemos interpretar el límite de hn en


sentido puntual, es decir, como una función, sí existe una interpretación en un sentido
relacionado con su acción sobre las funciones continuas. A esta acción la denotaremos
por hδ, ϕi, y su efecto es evaluar la función ϕ en x = 0.

Está claro que, en nuestra discusión, no ha sido relevante el haber elegido x = 0


como el punto en el que hn (x) → ∞. La siguiente definición generaliza esta situación.
38 Transformadas de Fourier: Análisis de señales

Definición 3 La delta de Dirac centrada en x0 ∈ R es la aplicación lineal, positiva


y continua, δx0 , que a cada función ϕ ∈ C(R) le asocia su valor en x0 , es decir,
ϕ(x0 ). Usaremos la notación23

hδx0 , ϕi = ϕ(x0 ) para toda ϕ ∈ C(R).

En esta definición,

La linealidad significa que si ϕ1 , ϕ2 ∈ C(R) y a1 , a2 ∈ R entonces

hδx0 , a1 ϕ1 + a2 ϕ2 i = a1 hδx0 , ϕ1 i + a2 hδx0 , ϕ2 i.

La positividad significa que si ϕ ∈ C(R) es tal que ϕ(x) ≥ 0 para todo x ∈ R


entonces se tiene hδx0 , ϕi ≥ 0.

La continuidad significa que existe una constante C > 0 tal que para toda
ϕ ∈ C(R) se tiene

|hδx0 , ϕi| ≤ C sup |ϕ(x)|.


x∈R

Es un ejercicio sencillo el comprobar que δx0 satisface estas propiedades.

Observación 1.2.3 La sucesión {hn } que hemos utilizado para obtener la delta de
Dirac no es la única que puede utilizarse. Consideremos, para empezar, una función
g ∈ L1 (R) tal que kgkL1 (R) = 1, y definamos la sucesión gn (x) = ng(nx), con n ∈ N.
Entonces kgn kL1 (R) = 1 y, usando el cambio de variable s = n(x − x0 ), obtenemos
Z Z s 
gn (x − x0 )ϕ(x)dx = fn (s)ds, donde fn (s) = g(s)ϕ + x0 .
R R n
Queremos usar el teorema de la convergencia dominada para deducir que
Z
lı́m gn (x − x0 )ϕ(x)dx =< δx0 , ϕ >= ϕ(x0 ),
n→∞ R

para lo cual necesitamos:

fn ∈ L1 (R) para todo n,

fn (s) → g(s)ϕ(x0 ) cuando n → ∞, para casi todo s ∈ R,

23
R
Es común encontrar la notación R
ϕ(x)dδx0 (x) en vez de hδx0 , ϕi.
1.2. Resultados fundamentales de Análisis Funcional 39

existe ψ ∈ L1 (R) tal que |fn (s)| ≤ ψ(s) para todo n y para casi todo s ∈ R.

Hay muchas combinaciones de espacios funcionales que satisfacen estas condiciones.


Las más importantes para nosotros serán las siguientes:

1. g ∈ L1 (R) y ϕ ∈ L∞ (R) y es continua en un entorno de x0 .

2. g ∈ L1 (R) ∩ L∞ (R) y ϕ ∈ L1 (R) ∩ C0 (R).

Observación 1.2.4 Es común definir la delta de Dirac actuando sobre funciones


ϕ ∈ Cc∞ (R). Como δ es un funcional lineal y continuo sobre Cc∞ (R), se sigue que δ
es un elemento del espacio dual de Cc∞ (R). Este espacio dual es llamado el espacio
de las distribuciones o funciones generalizadas, y se denota por D0 (R). Entendida
de este modo, la delta de Dirac es una distribución (nunca una función).
40 Transformadas de Fourier: Análisis de señales

3. La transformada de Fourier

3.1. La transformada de Fourier en L1 (R)

La transformada de Fourier fˆ : R → C de una función f : R → C se define por


Z
ˆ
f (ω) = f (t)e−i2πωt dt, (1.12)
R

y nos da una idea de cuántas oscilaciones tiene f en la frecuencia ω ∈ R, es decir,


de cuánto se parece, por ejemplo, a la función α sen(2πωt) + β cos(2πωt).

Si f ∈ L1 (R) entonces fˆ ∈ L∞ (R) ya que, usando la desigualdad triangular para


integrales, deducimos que
Z
ˆ
|f (ω)| ≤ |f (t)|dt < ∞, para ω ∈ R.
R

De hecho, la transformada de Fourier es uniformemente continua. En efecto, como


e−iωt es uniformemente continua, para todo ε > 0 existe un δ > 0, independiente de
ω, tal que si |ω − ω0 | < δ entonces |e−i2πωt − e−i2πωt | < ε. Se sigue que
Z
ˆ ˆ f (t) e−i2πωt − e−i2πω0 t dt < εkf kL1 (R) .

|f (ω) − f (ω0 )| =
R

Más aún, como demostraremos en el Ejercicio 6, también se tiene que lı́m fˆ(ω) = 0,
|ω|→∞
de modo que la transformada de Fourier puede interpretarse como la aplicación

F : L1 (R) → C0 (R) definida por F(f ) = fˆ.

En la Tabla 1.2 mostramos algunas de sus propiedades elementales, que serán pro-
badas en el Ejercicio 1. Veamos un ejemplos de transformada de Fourier que es
especialmente relevante.

Ejemplo 1.3.1 Transformada de la gaussiana. Consideremos la gaussiana nor-


malizada en L1 (R) dada por
1 t2
g(t) = √ e− 2 ,

y calculemos su transformada
Z
ĝ(ω) = g(t)e−i2πωt dt.
R
1.3. La transformada de Fourier 41

Propiedad Función Trans. de Fourier


Traslación f (t − t0 ) e−i2πωt0 fˆ(ω)
Modulación ei2πω0 t f (t) fˆ(ω − ω0 )
Reescalado f (t/α) αfˆ(αω)
Conjugado f¯(t) F(f )(−ω)
Derivada f (p) (t) (i2πω)p fˆ(ω)

Tabla 1.2: Propiedades elementales de la transformada de Fourier

Derivando respecto ω en la definición de la transformada, observando que g 0 (t) =


−tg(t) y usando la propiedad de la derivación de la Tabla 1.2 obtenemos la ecuación
diferencial
Z Z
0 −i2πωt
ĝ (ω) = −i2π tg(t)e dt = i2π g 0 (t)e−i2πωt dt = −(2π)2 ωĝ(ω),
R R

2 ω2
cuya solución es de la forma ĝ(ω) = ĝ(0)e−2π . Teniendo en cuenta que ĝ(0) =
2 2
g(t) = 1, deducimos que ĝ(ω) = e−2π ω .
R
R

Más en general, usando las propiedades de traslación y reescalado de la Tabla 1.2,


obtenemos que si g es la gaussiana normalizada centrada en t0 y de varianza σ 2 , dada
por

1 (t−t0 )2 2 σ2 ω2
gt0 ,σ (t) = √ e− 2σ2 entonces F(gt0 ,σ )(ω) = e−i2πωt0 e−2π .
σ 2π

Puesto que la transformada de Fourier puede entenderse como una aplicación,


F, entre espacios de funciones cabe preguntarse si existe la inversa de F, esto es,
una aplicación que podemos denotar por F −1 tal que F −1 (F(f )) = f . Esto nos
permitiría, entre otras cosas, extraer la información frecuencial de f mediante F(f ),
modificarla mediante algún procedimiento, y volver al espacio inicial mediante F −1
para obtener una función f˜ que contenga las modificaciones frecuenciales de f desea-
das. Un caso común es el de eliminar las altas frecuencias de una función.

Para definir la transformada de Fourier hemos asumido que f ∈ L1 (R). Si, ade-
más, obtenemos que fˆ es también integrable, el siguiente teorema nos proporciona
una fórmula de reconstrucción para f mediante la transformada inversa de Fourier.
42 Transformadas de Fourier: Análisis de señales

Teorema 1.3.9 Sea f ∈ L1 (R) ∩ C(R) y supongamos que fˆ ∈ L1 (R). Entonces


Z
f (t) = fˆ(ω)ei2πωt dω, para todo t ∈ R. (1.13)
R

Demostración. Comenzamos por introducir la expresión (1.12) en (1.13), obte-


niendo
Z Z Z 
ˆ
f (ω)e i2πωt
dω = f (τ )e i2πω(t−τ )
dτ dω.
R R R

Como veremos en lo que sigue, una técnica habitual en las demostraciones de resulta-
dos de la teoría de Fourier es el intercambio en el orden de integración, justificándolo
mediante el teorema de Fubini. Sin embargo, en este caso no podemos justificarlo
debido a que f (τ )ei2πω(t−τ ) no es integrable en R2 . En efecto, tenemos que
Z Z Z
−i2πωt
|f (t)e |dtdω = |f (t)|dtdω = kf kL1 (R) dω = ∞.
R2 R2 R

Para evitar este problema, multiplicamos el integrando por la gaussiana gn (ω) =


exp(−2π 2 ω 2 /n2 ), definiendo así la función
Z Z 
In (t) = f (τ )gn (ω)ei2πω(t−τ ) dτ dω.
R R

Observemos que el papel que juega la gaussiana es el de atenuar el valor del inte-
grando lejos de ω = 0, haciendo así que la función resultante sea integrable.

Paso 1: Integrando la expresión que define a In con respecto a τ , obtenemos


Z
In (t) = fˆ(ω)gn (ω)ei2πωt dω,
R

y, claramente,

fˆ(ω)gn (ω)ei2πωt ≤ |fˆ(ω)| para todo n ∈ N.

Como el límite puntual de fˆ(ω)gn (ω)ei2πωt cuando n → ∞ converge a fˆ(ω)ei2πωt y


como, por hipótesis, fˆ ∈ L1 (R), el teorema de la convergencia dominada implica
Z
lı́m In (t) = fˆ(ω)ei2πωt dω.
n→∞ R

Paso 2: Calcularemos lı́mn→∞ In (t) de forma diferente. Puesto que el integrando de


In (t) es integrable, podemos usar el teorema de Fubini e intercambiar el orden de
integración, obteniendo
Z Z
In (t) = Gn (t − τ )f (τ )dτ, donde Gn (s) = gn (ω)ei2πωs dω,
R R
1.3. La transformada de Fourier 43

de modo que Hn (s) = Gn (−s) es la transformada de la gaussiana gn . De acuerdo al


Ejemplo 1.3.1 (con t y ω intercambiados y σ = n/(2π)), tenemos que
1 n2 s 2
Hn (s) = √ e− 2 ,
n 2π
y por la simetría par de Hn deducimos que Gn (s) = Hn (s). Por tanto, Gn (t − τ )
es una sucesión de gaussianas normalizadas en L1 (R), centradas en t y de varianza
1/n, con lo que, teniendo en cuenta la Observación 1.2.3, deducimos que
Z
lı́m In (t) = lı́m Gn (t − τ )f (τ )dτ =< δt , f >= f (t),
n→∞ n→∞ R

de donde se sigue el resultado 

Observación 1.3.1 Existen definiciones alternativas de la transformada y la trans-


formada inversa de Fourier en las que la constante 2π juega distintos papeles ya sea
en el factor multiplicativo de la transformada o en el exponente de la exponencial
compleja. Esto se ha de tener en cuenta siempre que se manejen textos alternativos.

Una de las propiedades fundamentales de la transformada de Fourier se expresa


en el teorema de la convolución.

Teorema 1.3.10 (Teorema de la convolución) Sean f, h ∈ L1 (R). Entonces la


función g = h ∗ f ∈ L1 (R), y

ĝ(ω) = ĥ(ω)fˆ(ω), para ω ∈ R.

Demostración. Tenemos que


Z Z 
ĝ(ω) = h(t − τ )f (τ )dτ e−i2πωt dt. (1.14)
R R

El resultado se obtiene mediante un cambio en el orden de integración. Veamos que


esto está justificado. Sea F (t, τ ) = h(t − τ )f (τ )e−i2πωt . Entonces, para casi todo
τ ∈ R, tenemos
Z Z
|F (t, τ )|dt = |f (τ )| |h(t − τ )|dt = |f (τ )| khkL1 (R) ,
R R

de modo que
Z Z
|F (t, τ )|dtdτ = khkL1 (R) |f (τ )|dτ = khkL1 (R) kf kL1 (R) .
R2 R
44 Transformadas de Fourier: Análisis de señales

Por tanto, F es integrable en R2 y podemos usar el teorema de Fubini y realizar el


cambio de orden de integración en (1.14), obteniendo
Z Z  Z Z 
−i2πωt t=s+τ
ĝ(ω) = f (τ ) h(t − τ )e dt dτ = f (τ ) h(s)e−i2πω(s+τ ) ds dτ
ZR R Z R R

= f (τ )e−i2πωτ dτ h(s)e−i2πωs ds = fˆ(ω)ĥ(ω).


R R

Ejemplo 1.3.2 Filtro frecuencial. La importancia de la operación de convolu-


ción en la Teoría de la Señal puede intuirse con este sencillo ejemplo.

Dada h ∈ L1 (R), el operador lineal L : L1 (R) → L1 (R) definido por Lf = h ∗ f


puede expresarse mediante las transformadas de Fourier de f y h. En efecto,

Lf = F −1 (F(h ∗ f )) = F −1 (F(h)F(f )),

o, con la notación convencional,


Z
Lf (t) = ĥ(ω)fˆ(ω)ei2πωt dω.
R

La interpretación de este operador lineal es la siguiente: la amplitud de cada com-


ponente frecuencial, ei2πωt , de la señal f viene dada por fˆ(ω). Al realizar la con-
volución con la función h dicha amplitud es amplificada o atenuada por un factor
ĥ(ω). En este sentido, entendemos que h ∗ f es un filtro frecuencial. Por ejemplo,
si ĥ(ω) = 1[−ω0 ,ω0 ] (ω), entonces todas las componentes frecuenciales de f fuera del
rango [−ω0 , ω0 ] son filtradas (eliminadas) en la nueva función Lf . 

3.2. La transformada de Fourier en L2 (R)

Al principio de la Sección 3.1 probamos que si f ∈ L1 (R) entonces fˆ es continua.


O, dicho de otro modo, si fˆ no es continua entonces f 6∈ L1 (R) y, como consecuencia,
no podemos definir la transformada de Fourier mediante la fórmula (1.12).

Hemos visto en el Ejemplo 1.3.2 que la transformada inversa de Fourier de fun-


ciones discontinuas puede ser una herramienta muy útil en el filtrado de señales y,
de hecho, en muchas otras aplicaciones.

Aparece así, de modo natural, la cuestión de si podemos evitar la restricción de


que fˆ sea continua cambiando el espacio L1 (R) en el que definimos la transformada
por algún otro espacio de funciones. La respuesta a esta cuestión es afirmativa, y en
lo que sigue presentamos la extensión más inmediata: la extensión a L2 (R).
1.3. La transformada de Fourier 45

Este cambio de espacios funcionales, además de comportar el operar en un espacio


dotado de producto escalar y, por tanto, de relaciones de ortogonalidad, existencia
de bases, etc., también nos permitirá definir las tranformadas para ciertas funciones
discontinuas como la función indicadora del Ejemplo 1.3.2. En efecto, si ĥ(ω) =
1[−ω0 ,ω0 ] (ω), entonces
Z ω0
sen(2πω0 t)
h(t) = ei2πωt dω = , (1.15)
−ω0 πt

y tenemos que h 6∈ L1 (R) pero h ∈ L2 (R), véase el Ejercicio 3.

Comenzamos probando que los productos escalares y las normas de L2 (R) se con-
servan bajo la transformada de Fourier. Es decir, las transformadas son isometrías.

Teorema 1.3.11 (Identidades de Parseval y Plancherel)

Si f, h ∈ L1 (R) ∩ L2 (R) entonces


Z Z
¯
f (t)h̄(t)dt = fˆ(ω)ĥ(ω)dω. (Identidad de Parseval) (1.16)
R R

En particular,
Z Z
2
|f (t)| dt = |fˆ(ω)|2 dω. (Identidad de Plancherel) (1.17)
R R

Demostración. Consideremos las funciones

g(t) = f ∗ H(t) y H(t) = h̄(−t).

Por una parte, tenemos que


Z Z
g(0) = f (−τ )h̄(−τ )dτ = f (τ )h̄(τ )dτ. (1.18)
R R

Por otra parte, como


Z Z Z
−i2πωt i2πωt
F(H)(ω) = h̄(−t)e dt = h̄(t)e dt = h̄(t)e−i2πωt dt = F(h)(ω),
R R R

tenemos, por el teorema de convolución,

F(g) = F(f )F(h),

de modo que aplicando la transformada inversa obtenemos


Z
g(t) = F(f )(ω)F(h)(ω)ei2πωt dω.
R
46 Transformadas de Fourier: Análisis de señales

Particularizando en t = 0, y teniendo en cuenta (1.18), deducimos la identdad de


Parseval. La identidad de Plancherel es un caso particular de la anterior. 

Si f ∈ L2 (R) pero f ∈
/ L1 (R), la transformada de Fourier no puede calcularse
directamente mediante (1.12) porque f (t)ei2πωt no es, en general, integrable. Sin
embargo, podremos definirla mediante un procedimiento de aproximación basado
en la densidad de Cc∞ (R) en L2 (R) establecida en el Teorema 1.2.8 (teorema de
aproximación).

De acuerdo al dicho teorema, dada f ∈ L2 (R) existe una sucesión de funciones


{fn } ⊂ Cc∞ (R) tales que

lı́m kfn − f kL2 (R) = 0.


n→∞

Como fn es convergente en L2 (R) entonces es una sucesión de Cauchy en este espacio.


Debido a que fn es continua y con soporte compacto deducimos que fn ∈ L1 (R) y,
por tanto, su transformada de Fourier está bien definida. La identidad de Plancherel
(1.17) implica

kfˆn − fˆm kL2 (R) = kfn − fm kL2 (R) ,

de modo que fˆn también es una sucesión de Cauchy en el espacio de Banach L2 (R),
y por tanto converge en este espacio a cierta función que denotamos por fˆ, y que
tomamos como definición de la transformada de Fourier de f . Es decir, se define fˆ
como

fˆ = lı́m fˆn en el sentido de L2 (R).


n→∞

Esta extensión de la transformada de Fourier también satisface el teorema de


convolución, las identidades de Parseval y Plancherel, y las propiedades básicas que
se enuncian en el Ejercicio 1. Todas estas propiedades pueden probarse mediante
argumentos de densidad 24 .

Como ya hemos mencionado, la transformada de Fourier es una herramienta


esencial para conocer el contenido frecuencial de una función. Siendo una función de
valores complejos, a menudo es conveniente trabajar con cantidades relacionadas con
su módulo y su argumento. En particular, el espectro de potencias es fundamental.

Definición 4 Dada f ∈ L2 (R), definimos el espectro de potencias de f como

PS (f )(ω) = |fˆ(ω)|2 para ω ∈ R.


24
Es decir, probándolo primero para funciones f ∈ Cc∞ (R) y usando después que podemos
aproximar las funciones de L2 (R) mediante sucesiones de Cc∞ (R).
1.3. La transformada de Fourier 47

Obsérvese que la fórmula de Plancherel implica que PS (f ) es una función integrable.


Ejemplo 1.3.3 La gaussiana compleja f (t) = exp − (a − ib)t2 tiene como trans-
formada de Fourier a otra gaussiana compleja (Ejercicio 4),
r
π  π 2 (a + ib)ω 2 
ˆ
f (ω) = exp − . (1.19)
a − ib a2 + b 2


3.2.1. Principio de indeterminación de Heisenberg

En física de partículas, se asume que ciertas características de las partículas pue-


den ser descritas mediante una función de onda, f . El valor de la función de onda de
una partícula en cierto punto del espacio y del tiempo está relacionado con la pro-
babilidad de que la partícula se encuentre en dicho punto espacial en ese momento.

En lo que sigue, fijaremos el instante de tiempo, T , en el que observamos la


partícula, de modo que la función de onda solo dependerá de la variable espacial,
x ∈ R.

Sea f ∈ L2 (R) no idénticamente nula. Entonces fˆ ∈ L2 (R) y, usando la propiedad


(3) del Teorema 1.2.3 tenemos que

|f (x)|2 |fˆ(ω)|2
µf (x) = dx y µ ˆ
f (ω) = dω
kf k2L2 (R) kf k2L2 (R)

inducen medidas de probabilidad en espacio y en frecuencia25 , respectivamente. De


este modo, la probabilidad de que la partícula (en el instante fijado T ) se encuentre
en el intervalo espacial (a, b) será
Z b
P (a ≤ x ≤ b) = µf (x)dx.
a

Consideremos la posición promedio y la frecuencia promedio respecto a estas


medidas, dadas por
Z Z
1 1
xm = 2
x|f (x)| dx y ωm = ω|fˆ(ω)|2 dω. (1.20)
kf k2L2 (R) R kf k2L2 (R) R
25
La longitud de onda, λ, y el momento, p, de una partícula están vinculadas mediante la relación
λ = h/p, donde h es la constante de Planck. Como λ = 1/ω y p = mv, donde ω es la frecuencia, m
la masa y v la velocidad de la partícula, tenemos que la velocidad y la frecuencia de la partícula son
proporcionales. Por tanto, los resultados que obtengamos pueden interpretarse tanto en términos
de frecuencias como de velocidades.
48 Transformadas de Fourier: Análisis de señales

Las varianzas correspondientes son


Z Z
1 1
2
σx = 2
2 2 2
(x − xm ) |f (x)| dx y σω = 2
(ω − ωm )2 |fˆ(ω)|2 dω.
kf kL2 (R) R kf kL2 (R) R
(1.21)
Cuanto mayor sea la varianza espacial mayor será la incertidumbre que existe en
cuanto a la posición de la partícula. Similarmente ocurre con la varianza frecuencial
y la velocidad de la partícula.

Por tanto, para reducir la incertidumbre sobre la posición de la partícula debemos


reducir σx2 . Una primera idea es la de realizar un reescalado de la función y considerar,
por ejemplo, la expresión f (x/s), con s > 0. Un sencillo cálculo√ muestra que la norma
2
L (R) se mantendrá constante √ si multiplicamos por el factor 1/ s. Así, consideramos
la función fs (x) = f (x/s)/ s, para la cual se obtiene σx2 (fs ) = s σx2 (f ), que implica
una reducción de la varianza temporal si elegimos s < 1.

Su transformada de Fourier es fˆs (ω) = sfˆ(sω). Por tanto, la incertidumbre
sobre la frecuencia de la partícula viene dada por σω2 (fˆs ) = σω2 (fˆ)/s. Deducimos que
la posible ganancia en localización temporal que podamos conseguir tomando s < 1
implicará une pérdida en localización frecuencial.

El principio de indeterminación de Heisenberg que, en realidad, es un teorema,


recoge este fenómeno.

Teorema 1.3.12 (de indeterminación de Heisenberg) Las varianzas espacial


y frecuencial de f ∈ L2 (R) satisfacen
1
σx2 σω2 ≥ . (1.22)

Esta desigualdad es una igualdad si y solo si
2
f (x) = aei2πωm x e−b(x−xm ) , (1.23)
para ciertos xm , ωm ∈ R y a, b ∈ C.

Demostración. Para simplificar, en esta demostración asumiremos la hipótesis


adicional
lı́m x|f (x)|2 = 0, (1.24)
|x|→∞

aunque el resultado es cierto para cualquier f ∈ L2 (R).

Observemos primero que la función f˜(x) = e−i2πωm x f (x + xm ) tiene como pro-


medios x̃m = ω̃m = 0 y como varianzas σ̃x = σx y σ̃ω = σω (Ejercicio 9). Por tanto,
podemos asumir sin pérdida de generalidad que xm = ωm = 0.
1.3. La transformada de Fourier 49

Paso 1. Tenemos
Z Z
1
σx2 σω2 = 2
|xf (x)| dx |ω fˆ(ω)|2 dω.
kf k4L2 (R) R R

Como F(f 0 )(ω) = i2πω fˆ(ω) (Ejercicio 1), la fórmula de Plancherel para iω fˆ(ω) da
Z Z
1
2 2
σx σω = |xf (x)| dx |f 0 (x)|2 dx.
2
(1.25)
2πkf k4L2 (R) R R

Paso 2. Tenemos que (|f (x)|2 )0 = 2 Re(f (x)f 0 (x)) (Ejercicio 10) , con lo que
(x|f (x)|2 )0 = |f (x)|2 + 2x Re(f (x)f 0 (x)).
Integrando en R y usando la hipótesis (1.24) obtenemos
Z 
2
kf kL2 (R) = −2 Re xf (x)f 0 (x)dx .
R

Paso 3. Usando la desigualdad (Ejercicio 10)


Z 
Re ¯
ϕ(x)ξ(x)dx ≤ kϕkL2 (R) kξkL2 (R) (1.26)

con ϕ(x) = xf (x) y ξ(x) = f 0 (x), obtenemos


Z Z
1 4
kf kL2 (R) ≤ x |f (x)| dx |f 0 (x)|2 dx,
2 2
4 R R

y de (1.25) se sigue (1.22).

Finalmente, la igualdad se da en el caso en que (1.26) sea también una igualdad.


Es decir, si ϕ y ξ son colineales. Esto se traduce en que exista b ∈ C tal que
f¯0 (x) = −2bxf (x), y es fácil ver que la solución general de esta ecuación diferencial
viene dada por (1.23). 

3.3. Fórmula de dualidad y transformada de la delta de Dirac

La siguiente fórmula es también un resultado fundamental de la teoría de Fourier,


ya que permite extender la noción de transformada de Fourier más allá de los espacios
de funciones. Nosotros la aplicaremos, en particular, a la delta de Dirac.

Teorema 1.3.13 (Fórmula de dualidad) Si f1 , f2 ∈ L1 (R) entonces


Z Z
ˆ
f1 (s)f2 (s)ds = fˆ1 (s)f2 (s)ds.
R R
50 Transformadas de Fourier: Análisis de señales

Demostración. En efecto, usando el teorema de Fubini, obtenemos


Z Z  Z  Z  Z 
ˆ
f1 (s)f2 (s)ds = f1 (s) f2 (σ)e −i2πσs
dσ ds = f2 (σ) f1 (s)e−i2πσs
ds dσ
R ZR R R R

= fˆ1 (s)f2 (s)ds.


R

La delta de Dirac no es una función, por lo que, de acuerdo a nuestra definición,


no podemos calcular su transformada de Fourier. Sin embargo, ampliando el marco
funcional en el que se define la transformada, es posible justificar la validez de los
cálculos que exponemos a continuación.

La definición de la transformada de la delta de Dirac está basada en la fórmula


de dualidad. Es la siguiente:

< δ̂t0 , ϕ >=< δt0 , ϕ̂ > para toda ϕ ∈ L1 (R) ∩ C0 (R).

Para hacernos una idea de lo que implica esta fórmula, consideremos una sucesión
gn ∈ L1 (R) que aproxima a la delta de Dirac centrada en t0 y sea ϕ ∈ L1 (R)∩C0 (R).
Recordemos que, entonces, tenemos que ĝn , ϕ̂ ∈ L∞ (R) ∩ C0 (R). De acuerdo a la
fórmula de dualidad
Z Z
ĝn (ω)ϕ(ω)dω = gn (ω)ϕ̂(ω)dω.
R R

Usando el teorema de la convergencia dominada deducimos


Z Z
lı́m ĝn (ω)ϕ(ω)dω = lı́m gn (ω)ϕ̂(ω)dω = hδt0 , ϕ̂i.
n→∞ R n→∞ R

Por otra parte, como ϕ̂ es continua, tenemos que


Z
hδt0 , ϕ̂i = ϕ̂(t0 ) = ϕ(ω)e−i2πωt0 dω,
R

de modo que
Z Z
lı́m ĝn (ω)ϕ(ω)dω = e−i2πωt0 ϕ(ω)dω para toda ϕ ∈ L1 (R) ∩ C0 (R),
n→∞ R R

lo cual indica que la transformada de Fourier de δt0 debe definirse por

δ̂t0 (ω) = e−i2πωt0 .


1.3. La transformada de Fourier 51

Un cálculo similar nos permite definir la convolución de una delta de Dirac con
una función y corroborar que la definición de δ̂t0 es acertada. Introduzcamos la
notación ϕt (s) = ϕ(t − s) y consideremos la convolución de gn con ϕ. Tenemos
Z Z
gn (t − τ )ϕ(τ )dτ = gn (s)ϕt (s)ds → hδt0 , ϕt i cuando n → ∞,
R R

lo que sugiere la definición de la convolución de δt0 con una función integrable y


continua como

ϕ ∗ δt0 (t) = ϕt (t0 ) = ϕ(t − t0 ). (1.27)

Para que el teorema de convolución se extienda a esta situación, debe satisfacerse

F(ϕ ∗ δt0 )(ω) = ϕ̂(ω)δ̂t0 (ω),

y como, de acuerdo a (1.27) y a la propiedad de traslación del Ejercicio 1, la trans-


formada de ϕ ∗ δt0 (t) = ϕ(t − t0 ) es e−i2πωt0 ϕ̂(ω), debe tenerse δ̂t0 (ω) = e−i2πωt0 .

Ejercicios de la Sección 3
1. Probar las siguientes propiedades básicas de la transformada de Fourier.

Propiedad Función Trans. de Fourier


Traslación f (t − t0 ) e−i2πωt0 fˆ(ω)
Modulación ei2πω0 t f (t) fˆ(ω − ω0 )
Reescalado f (t/α) αfˆ(αω)
Conjugado f¯(t) F(f )(−ω)
Derivada f (k)
(t) (i2πω)k fˆ(ω)

Para todas las propiedades, asumimos f ∈ L1 (R). Además, para la propiedad


de la derivación, asumimos f ∈ C0k (R) con k ∈ N.

2. Sea α > 0 y consideremos la función exponencial truncada dada por


(
e−αt si t > 0,
Eα (t) =
0 si t ≤ 0.

a) Calcular F(Eα )(ω).


b) Calcular (Eα ∗ Eβ )(t).
c) Concluir, sin usar el teorema de convolución, que F(Eα ∗ Eβ )(ω) =
Êα (ω)Êβ (ω).
52 Transformadas de Fourier: Análisis de señales

3. Consideremos la función seno cardinal definida por



1 si x = 0,
sinc(x) = sen(x)
 si x 6= 0.
x
Probar que
R
a) R sinc(x)dx = π.
R
b) R | sinc(x)|dx = ∞.
R
c) R | sinc(x)|2 dx < ∞.

Por tanto, la función sinc es integrable en el sentido de Riemann, como una


integral impropia. Sin embargo, no es una función integrable en el sentido de
Lebesgue, es decir sinc 6∈ L1 (R), aunque sinc ∈ L2 (R).
R∞ R Nπ
Indicación: Para a), usar que 0 e−xt dt = 1/x. Para b) descomponer 0
R nπ
como N
P
n=1 (n−1)π , y usar una mayorante para 1/x en cada subintervalo.


4. Sea f (t) = exp − (a − ib)t2 , con a > 0 y b ∈ R. Probar que
r
π  π 2 (a + ib)ω 2 
fˆ(ω) = exp − .
a − ib a2 + b 2

5. Sean f1 , f2 las gaussianas normalizadas en L1 (R) dadas por


(x−mi )2

2σ 2
fi (x) = si e i , i = 1, 2,

1
donde si = √ .
σi 2π
Se tiene que tanto f1 f2 como f1 ∗ f2 son gaussianas de la forma
2
(x−mp ) (x−mc )2
sp − 2 1 −
f1 (x)f2 (x) = √ e 2σp , f1 ∗ f2 (x) = √ e 2
2σc .
σp 2π σc 2π

a) Determinar los parámetros sp , mp , σp y mc , σc de cada una de ellas.


b) Sean

1 x2
f (x) = √ e− 2σ2 , gn (x) = f ∗ · · · ∗ f .
σ 2π | {z }
n veces

√ √
Determinar la función g(x) = σ n gn (xσ n) para n ∈ N.
1.3. La transformada de Fourier 53

6. Teorema de Riemann-Lebesgue. Probar que si f ∈ L1 (R) entonces lı́m fˆ(ω) = 0.


|ω|→∞
Indicación: Probarlo primero para f ∈ C0∞ (R) usando integración por partes
y aplicar entonces un argumento de densidad.
7. Sea f ∈ L1 (R), τ > 0 y definamos, para n ∈ N,
n
X
ϕn (t) = |f (t − kτ )|.
k=−n

a) Probar que existe ϕ ∈ L1 (R) tal que ϕn → ϕ a.e. t ∈ R y en el sentido


fuerte de L1 (R).
b) Probar que kϕkL1 (0,τ ) = kf kL1 (R) .
c) Sea f˜(t) = n∈Z f (t−nτ ). Probar que f˜ es τ −periódica y que kf˜kL1 (0,τ ) ≤
P
kf kL1 (R) .

8. Probar el recíproco del teorema de convolución, es decir: si f, g ∈ L1 (R) en-


tonces F(f g) = fˆ ∗ ĝ.
Indicación: Probar primero el análogo del teorema de convolución para la
transformada inversa: F −1 (F ∗ G) = F −1 (F )F −1 (G). Tomar entonces F = fˆ,
G = ĝ.
9. Dada f ∈ L2 (R), con promedios y varianzas temporal y frecuencial dados por
(1.20) y (1.21), probar que f˜(t) = e−i2πωm t f (t + tm ) tiene como promedios
t̃m = ω̃m = 0 y como varianzas σ̃t2 = σt2 y σ̃ω2 = σω2
10. Para f, ϕ, ξ : R → C, diferenciables, probar que
a) (|f (t)|2 )0 = 2 Re(f (t)f 0 (t)).
b)
Z
Re ¯
ϕ(t)ξ(t)dt ≤ kϕkL2 (R) kξkL2 (R) ,

y la igualdad se da si y solo si ϕ y ξ son colineales.


Indicación: Comenzar probándolo para números complejos, es decir, pro-
bar que para z1 , z2 ∈ C, se tiene

| Re(z1 z̄2 )| ≤ |z1 ||z2 |,

y que la igualdad se da si y solo si z1 = az2 , con a ∈ R.


11. a) Calcular la transformada de Fourier de g(t) = e−|t|
b) Teniendo en cuenta el resultado del apartado anterior, calcular la trans-
1
formada de Fourier de f1 (t) = .
1 + t2
54 Transformadas de Fourier: Análisis de señales

c
c) Calcular la transformada de Fourier de fc (t) = , con c ∈ R.
c2
+ t2
d ) Usar el teorema de convolución para calcular fa ∗ fb (t), donde a, b > 0.
12. Sean γ : [0, 1] → R2 una curva diferenciable cerrada parametrizada por lon-
gitud de arco, de modo que su longitud, P , y el área que encierra, A, vienen
dadas por
Z 1 Z 1
0
2
P = 2
kγ (t)k dt, A = γ1 (t)γ20 (t)dt.
0 0
2
Probar la desigualdad isoperimétrica P ≥ 4πA. Probar que la igualdad se
satisface si y sólo si la curva es una circunferencia.
Indicación: Considerar los desarrollos de γ1 y γ2 en series de Fourier para
calcular las integrales mediante las identidades de Parseval y Plancherel.
13. Sean X1 , . . . , Xn variables aleatorias independientes e idénticamente distribui-
das, con media cero, varianza σ 2 y función de densidad ρ. Es sabido que la
función de densidad de
X1 + · · · + Xn
Xn = es (ρ∗)n = ρ ∗ · · · ∗ ρ .
n | {z }
n veces

El teorema del límite central establece que n X n → N (0, σ 2 ) cuando n → ∞
que, en términos de las funciones de densidad puede expresarse como
√ √ 1 x2
σ n(ρ∗)n (σ nx) → √ e− 2 para todo x ∈ R.

Aunque el teorema es válido bajo condiciones más generales, aquí asumiremos
que ρ ∈ C(R) (y, por supuesto, kρkL1 (R) = 1), y que
Z
ρ(x)|x|k dx ≤ M < ∞.
R

Para probar el teorema, podemos seguir los siguientes pasos:


√ √ x2
a) Sean fn (x) = σ n(ρ∗)n (σ nx) y g(x) = √12π e− 2 . Calcular fˆn (ω) y ĝ(ω).
P∞ x 2
ω
= 1 − (2πω)

b) Usando que ex = k=0 k! , deducir que ρ̂ σ n

2n
+ Rn (ω),
donde

(−i2πω)k µk
X Z
Rn (ω) = k , siendo µk = ρ(x)xk dx.
k
σ n 2 k! R
k=3

c) De lo anterior se deduce que


 (2πω)2 n
fˆn (ω) = 1 − + Rn (ω) .
2n
Calcular el límite y comprobar que coincide con ĝ(ω).
d ) Concluir mediante el uso de la transformada inversa de Fourier.
1.4. Fórmula de Poisson y teorema de muestreo 55

4. Fórmula de Poisson y teorema de muestreo

Gran parte de las señales discretas se obtienen mediante el muestreo de una


señal continua subyacente, f . El modo más simple de discretizar f es obteniendo los
valores de las muestras {f (nτ )}n∈Z a intervalos de duración constante τ > 0.

Surge entonces la cuestión de hasta qué punto están relacionadas la señal con-
tinua, en general desconocida, y la discretización de la que disponemos. De si la
discretización de f implica siempre una pérdida de información o de si, por el con-
trario, hay casos en los que se puede reconstruir exactamente la señal continua a
partir de sus muestras.

En esta sección abordaremos esta cuestión, que culmina con la respuesta dada
por el teorema de muestreo, demostrado independientemente por Whitakker (1914)
y Shannon (1949).

Bajo las hipótesis que asumiremos, el teorema puede ser demostrado con todo
rigor26 . Sin embargo, en algunas de las demostraciones que ofrecemos en esta sección
hemos preferido primar una descripción liberal27 de los argumentos que subyacen en
las demostraciones rigurosas con el fin de ganar intuición sobre las razones que las
sustentan.

4.1. Fórmula de Poisson

Enunciaremos la fórmula de Poisson de dos maneras diferentes. La primera (Teo-


rema 1.4.14), que podemos demostrar rigurosamente, establece una relación intere-
sante entre la transformada de Fourier y la serie de Fourier. La segunda (Coro-
lario 1.4.15), para la que solo podemos dar una idea informal de la demostración,
establece la manera en que la discretización de la señal mediante una malla temporal
determina la malla frecuencial asociada a su transformada de Fourier discreta.

Comenzamos introduciendo la noción de periodificación de una función. Sea f ∈


1
L (R), τ > 0 y consideremos su τ −periodificación definida por
X
f˜(t) = f (t − nτ ), para n ∈ N y t ∈ R, (1.28)
n∈Z

la cual, siendo claramente τ − periódica, podemos identificar con su restricción a


cualquier intervalo de longitud τ , al que denotaremos genéricamente por28 T. Es
decir, realizamos la identificación f˜ ≡ f˜|T .
26
Véase, por ejemplo, Plonka et al., Theorem 2.29.
27
Es decir, no totalmente justificables con las herramientas de las que disponemos.
28
T es el toro de longitud τ . Dicho de otro modo, cualquier intervalo de longitud τ bajo la
identificación de sus extremos.
56 Transformadas de Fourier: Análisis de señales

Teorema 1.4.14 (Fórmula de Poisson) Sean τ > 0 y f ∈ L1 (R) ∩ C0 (R) tales


que

P
1. n∈Z máxt∈T |f (t − nτ )| < ∞,

|fˆ(k/τ )| < ∞.
P
2. k∈Z

Entonces,
1X ˆ
f˜(t) = f (k/τ )ei2πkt/τ para todo t ∈ T,
τ k∈Z

donde la serie converge absoluta y uniformemente. En particular, para t = 0, obte-


nemos la fórmula de Poisson
X 1 X ˆ k 
f (nτ ) = f .
n∈Z
τ k∈Z τ

Demostración. La hipótesis 1 del teorema y el criterio de Weierstrass29 aseguran


que la convergencia de la serie (1.28) que define a f˜ es absoluta y uniforme para todo
t ∈ T, de modo que f˜ ∈ C(T). Esta regularidad junto con la condición 2 del teorema
implican30 que la serie de Fourier de f˜ converge uniformemente a f˜, es decir, que
∞ Z τ
X 1
f˜(t) = ck ei2πkt/τ
, donde ck = f˜(t)e−i2πkt/τ dt. (1.29)
k=−∞
τ 0

Ahora bien, por la definición de f˜, tenemos


Z τ Z −τ (n−1)
1X −i2πkt/τ 1X
ck = f (t − nτ )e dt = f (s)e−i2πks/τ ds,
τ n∈Z 0 τ n∈Z −τ n

ya que e−i2πkn = 1. Por tanto,


Z
1 1ˆ
ck = f (s)e−i2πks/τ ds = f (k/τ ).
τ R τ

Vemos así que los coeficientes del desarrollo de Fourier de la τ −periodificación de f


vienen determinados por la transformada de Fourier de f restringida a τ1 Z. Final-
mente, evaluando f˜(0) en (1.28) y (1.29), deducimos la fórmula de Poisson. 
29
P
Si fnP: A → C es tal que |fn (t)| ≤ Mn para todos n ∈ N y t ∈ A, donde n∈N Mn < ∞,
entonces n∈N fn (t) converge absoluta y uniformemente para todo t ∈ A.
30
Véase, por ejemplo, Plonka, Theorem 1.37.
1.4. Fórmula de Poisson y teorema de muestreo 57

Para enunciar el siquiente corolario, necesitamos introducir al peine de Dirac, que


es una expresión del tipo
X
δnτ , τ > 0,
n∈Z

que representa la localización de la malla de nodos equiespaciados t = {nτ }n∈Z .

En este caso, la fórmula de Poisson establece que la transformada de Fourier de un


peine de Dirac en el espacio temporal es un peine de Dirac en el espacio frecuencial,
con una distancia entre nodos inversamente proporcional a la que posee la malla
temporal.

Corolario 1.4.15 (Fórmula de Poisson) Sea τ > 0. Se tiene


X  1X
F δnτ = δ nτ . (1.30)
n∈Z
τ n∈Z

Demostración. Tomando τ = 1/µ, el Teorema 1.4.14 se expresa como


X n X
f =µ fˆ(nµ).
n∈Z
µ n∈Z
P
El término de la izquierda puede escribirse usando deltas de Dirac como h n δn/µ , f i
y, similarmente, el término de la derecha puede expresarse como µh n δnµ , fˆi. Usan-
P
do la fórmula de dualidad31 establecida en el Teorema 1.3.13, deducimos que
X  X 1 X
hF δnµ , f i = h δnµ , fˆi = h δn/µ , f i.
n n
µ n

Siendo f arbitraria, deducimos el resultado. 

4.2. Teorema de muestreo

Sea {f (nτ )}n∈Z un muestreo de f : R → C tomado a intervalos de duración


constante, τ . En términos de deltas de Dirac, podemos expresar este muestreo como
el producto de la señal por un peine de Dirac de paso δ escribiendo
X
fd = f δnτ .
n∈Z

31
Asumiéndola válida para deltas de Dirac
58 Transformadas de Fourier: Análisis de señales

Esta expresión no tiene sentido puntual, debiendo entenderse en el sentido


X X X
< fd , ϕ >=< f δnτ , ϕ >=< δnτ , f ϕ >= f (nτ )ϕ(nτ ),
n∈Z n∈Z n∈Z

para toda ϕ ∈ C(R), siempre que la suma sea finita. P Observemos que, con esta
interpretación, es equivalente escribir fd como fd = n∈Z f (nτ )δnτ .

Para estudiar la relación entre la señal continua, f , y su discretización, fd , comen-


zaremos estudiando sus transformadas de Fourier. El siguiente teorema nos dice que
muestrear f a intervalos de duración τ es equivalente a hacer que su transformada
de Fourier sea 1/τ -periódica mediante la suma de todas sus traslaciones fˆ(ω − n/τ ).

Teorema 1.4.16 Sea f ∈ L1 (R) ∩ C0 (R). Entonces fˆd es τ1 -periódica y dada por
1 X ˆ n
fˆd (ω) = f ω− , ω ∈ R. (1.31)
τ n∈Z τ

Demostración.
P Podemos reescribir fd como fd = f p, donde p es el peine de Dirac
p = n δnτ . Usando el teorema de convolución, véase el Ejercicio 8 de la Sección 3,
deducimos que fˆd (ω) = fˆ ∗ p̂(ω). La fórmula de Poisson (1.30) asegura que
1X
p̂(ω) = δn ,
τ n∈Z τ

y como por (1.27) tenemos que fˆ ∗ δξ (ω) = fˆ(ω − ξ), se deduce el resultado. 

El teorema anterior nos dice que fd es 1/τ -periódica, de modo que todo su con-
tenido frecuencial está contenido en cualquier intervalo de longitud 1/τ , como por
ejemplo (− 2τ1 , 2τ1 ]. Parece claro que para que f pueda ser reconstruida a partir de
su versión discreta, el contenido frecuencial de f debe cumplir la misma condición.

El siguiente teorema nos proporciona la respuesta.

Teorema 1.4.17 (Teorema de muestreo de Whittaker y Shannon) Sea f ∈


L1 (R) ∩ C0 (R). Si el soporte de fˆ está contenido en (− 2τ1 , 2τ1 ] entonces
X sin(πs/τ )
f (t) = f (nτ )hτ (t − nτ ), donde hτ (s) = sinc(πs/τ ) = .
n∈Z
πs/τ

Demostración. Para n ∈ Z, consideremos la sucesión de intervalos disjuntos


 1 n 1 ni
An = − − , −
2τ τ 2τ τ
1.4. Fórmula de Poisson y teorema de muestreo 59

y, dado ω ∈ sop(fˆ) ⊂ A0 , la sucesión de puntos ωn = ω − n/τ es tal que ωn ∈ An .

Como A0 contiene al soporte de fˆ, deducimos que fˆ(ωn ) = 0 para todo n 6= 0, de


modo que la fórmula (1.31) se reduce a
1
fˆd (ω) = fˆ(ω) si ω ∈ A0 .
τ
Introduciendo la función ĥτ (ω) = τ χA0 (ω), podemos escribir fˆ como
fˆ(ω) = ĥτ (ω)fˆd (ω) = F(hτ ∗ fd )(ω). (1.32)
Usando (1.15), deducimos que
sin(πt/τ )
hτ (t) = . (1.33)
πt/τ
Finalmente, aplicando la transformada inversa de Fourier en (1.32), obtenemos
 X  X
f (t) = (hτ ∗ fd )(t) = hτ ∗ f (nτ )δnτ (t) = f (nτ )(hτ ∗ δnτ )(t)
n∈Z n∈Z
X
= f (nτ )hτ (t − nτ ).
n∈Z

4.2.1. Aliasing

Denotemos por ωN = 2τ1 a la frecuencia máxima representable por un muestreo


de paso τ , llamada frecuencia de Nyquist. El teorema de muestreo nos dice que si el
soporte de fˆ está incluido en (−ωN , ωN ] entonces el muestreo de paso τ garantiza
que f pueda recuperase a partir de dicho muestreo mediante una interpolación con
funciones regulares (sinc).

Si la condición sobre el soporte no se satisface, aparece el fenómeno del aliasing.


Veamos en qué consiste.

Supongamos, por ejemplo, que para cierto k ∈ Z, con k 6= 0, se tiene sop(fˆ) ⊂ Ak ,


de modo que los elementos de sop(fˆ) son de la forma ωk = ω − k/τ , con ω ∈ A0 .
De acuerdo con la fórmula (1.31), tenemos

fˆ(ωk ) = τ fˆd (ω)χA0 (ω),


con lo que, usando la transformada inversa y la propiedad sobre la transformada de
una modulación, véase la Tabla 1.2, obtenemos
f (t)ei2πkt/τ = (hτ ∗ fd )(t)
que es obviamente distinta de f (t).
60 Transformadas de Fourier: Análisis de señales

Ejemplo 1.4.1 

La fórmula (1.31) nos dice que el espectro de fd es τ -periódico de modo que a fˆd (ωa ),
con ωa ∈ (−ωN , ωN ] no solo contribuye el posible contenido frecuencial que tenga f
en esta frecuencia, es decir, fˆ(ωa ), sino todo el contenido que pueda tener lugar en
las frecuencias ωk = ωa − k/τ , con k ∈ Z.

Supongamos que la señal f (t) = ei2πω t ha sido muestreada con un muestreo de
paso τ , siendo |ω ∗ | > ωN . Entonces, el espectro de fd tendrá una contribución en
la frecuencia ωa ∈ (−ωN , ωN ], donde ωa viene determinada por ser ω ∗ = ωa − k/τ ,
para cierto k ∈ Z.

Determinar ωa es equivalente a determinar el k ∈ Z para el cual ω ∗ = ωa − k/τ ,


y eso es lo que haremos a continuación. Puesto que τ = 1/(2ωN ), tenemos
 −ω − ω ∗ ω − ω ∗ i
∗ N N
ω + 2kωN = ωa ∈ (−ωN , ωN ] ⇐⇒ k ∈ , ∩ Z.
2ωN 2ωN
Como estamos asumiendo que |ω ∗ | > ωN , siempre es posible realizar la descomposi-
ción ω ∗ = nωN + r, con n ∈ Z, n 6= 0, y r ∈ R con 0 ≤ r < ωN . Entonces, buscamos
k ∈ Z con
 −1 − n r 1−n r i
k∈ − , − .
2 2ωN 2 2ωN
Para determinar k, distinguimos dos casos: n par o impar.

Caso n impar: Pongamos n = 1 + 2M , con M ∈ Z, de modo que debe ser


 r r i
k ∈ −1−M − , −M − .
2ωN 2ωN
Tenemos, de nuevo, dos casos. Si r = 0, es decir, ω ∗ es un múltiplo entero de ωN ,
entonces k = −M . De lo contrario, como r/(2ωN ) < 1/2, se tiene k = −1 − M . Es
decir,
1 − n
 si r = 0,
2

k= y n es impar.
− 1 + n si r > 0,

2
Siendo ωa = ω ∗ + 2kωN = (n + 2k)ωN + r, la frecuencia representada será
(
ωN si r = 0,
ωa = y n es impar.
r − ωN si r > 0,

Caso n par: Razonando de manera similar al caso impar, obtenemos que ωa = r.


1.4. Fórmula de Poisson y teorema de muestreo 61

Podemos resumir estas fórmulas del siguiente modo:


(
n
(−1) − 1 n = int(ω ∗ /ωN ),
ωa = r + ωN , donde (1.34)
2 r = ω ∗ − nωN .

Observemos finalmente que si f tiene valores reales, digamos f (t) = cos(2πω ∗ t),
∗ ∗
entonces podemos expresarla como f (t) = (ei2πω t + e−i2πω t )/2, de modo que las
frecuencias representadas por el muestreo serán ±ωa , con ωa dada por (1.34).

Eliminación del aliasing. El aliasing puede eliminarse aproximando f por la


señal más cercana, φ, cuya transformada de Fourier tenga el soporte contenido en
(− 2τ1 , 2τ1 ]. Usando la fórmula de Plancherel (1.17) obtenemos que la distancia entre
f y φ en la norma de L2 (R) puede expresarse como
Z Z
2 ˆ 2
kf − φkL2 (R) = kf − φ̂kL2 (R) = ˆ 2
|f (ω)| dω + |fˆ(ω) − φ̂(ω)|2 dω.
|ω|>ωN |ω|≤ωN

La distancia se hace mínima cuando la segunda integral se anula, y por tanto, usando
(1.33), deducimos que
1
φ̂(ω) = χ(−ωN ,ωN ] (ω)fˆ(ω) = ĥτ (ω)fˆ(ω).
τ
Haciendo la transformada inversa obtenemos que φ = τ1 hτ ∗ f . Por tanto, el filtrado
de f mediante hτ elimina el aliasing al anular cualquier frecuencia mayor que ωN .
Además, puesto que φ̂ tiene su soporte incluido en ωN , ωN ], el Teorema 1.4.17 de
muestreo implica que φ puede recuperarse mediante las muestras φ(nτ ).

Por ello, la conversión de una señal analógica a una discreta debe constar de dos
pasos: un filtrado que limite su banda de frecuencias al intervalo (−ωN , ωN ], seguido
de un muestreo uniforme de paso τ .
62 Transformadas de Fourier: Análisis de señales

5. La transformada ventaneada de Fourier

La transformada de Fourier resulta especialmente útil cuando la señal considerada


tiene un comportamiento estacionario. En caso contrario, nos proporcionará unos
valores promediados en tiempo de las distintas frecuencias contenidas por las que
atraviesa la señal. Es decir, no nos informará sobre la progresión en tiempo de las
mismas.

La transformada ventaneada de Fourier (STFT) es una herramienta que permite


obtener una representación del contenido frecuencial de una señal a lo largo del
tiempo. Debido al principio de indeterminación de Heisenberg, esta representación
no puede ser puntual. Es decir, no podemos determinar la frecuencia de una señal en
un momento concreto. Pero sí podemos hacerlo, con ciertas limitaciones, en pequeños
intervalos de tiempo que se concatenen para cubrir la duración de la señal.

Sea w : R → R una función par no negativa con kwkL2 (R) = 1, a la que nos
referiremos como una ventana. Un ejemplo de ventana, muy utilizado en la práctica,
es el de la ventana gaussiana de media nula y varianza σ 2 > 0,
 t2 
w(t) = (πσ 2 )−1/4 exp − 2 . (1.35)

Asociado a una ventana, definimos el átomo de Fourier por modulación en frecuencia
y traslación en tiempo como

wτ,ξ (t) = ei2πξt w(t − τ ), para τ, ξ ∈ R.

Los átomos de Fourier forman una familia de funciones que permiten localizar tem-
poralmente la transformada de Fourier.

Definición 5 La transformada ventaneada de Fourier (STFT) de f ∈ L2 (R) es la


función Sf : R2 → C definida en el plano tiempo-frecuencia por
Z
Sf (τ, ξ) = hf, wτ,ξ i = f (t)w(t − τ )e−i2πξt dt.
R

Como w es par, w(t − τ ) está centrada en τ , y por ello la multiplicación por esta
ventana trasladada centra la tranformada de Fourier en t = τ . Además, si w tiene
un soporte pequeño, el centrado en t = τ es acompañado por una localización de la
señal entorno a dicho punto.

Observemos que Sf es una función definida sobre R2 a partir de la información


contenida en f , que está definida sobre R. Por tanto, la información proporcionada
por Sf tiene que ser muy redundante.
1.5. La transformada ventaneada de Fourier 63

Podemos aproximar el tamaño del entorno del plano tiempo-frecuencia en el que


se localiza la STFT mediante el cálculo de las varianzas temporal y frecuencial de
los átomos de Fourier:

La varianza temporal es
Z Z Z
2 2 2 2 2
στ = (t − τ ) |wτ,ξ (t)| dt = (t − τ ) |w(t − τ )| dt = t2 |w(t)|2 dt. (1.36)
R R R

La varianza frecuencial es
Z
σξ2 = (ω − ξ)2 |ŵτ,ξ (ω)|2 dω.
R

Sea hτ (t) = w(t−τ ), de modo que wτ,ξ (t) = ei2πξt hτ (t). Usando las propiedades
de la transformada de Fourier demostradas en el Ejercicio 1 de la Sección 3
tenemos, por una parte, que ŵτ,ξ (ω) = ĥτ (ω−ξ), y por otra parte, que ĥτ (ω 0 ) =
0
e−i2πτ ω ŵ(ω 0 ). Por tanto,

ŵτ,ξ (ω) = ŵ(ω − ξ)e−i2πτ (ω−ξ) ,

de modo que
Z Z
σξ2 = 2
(ω − ξ) |ŵ(ω − ξ)| dω = 2
ω 2 |ŵ(ω)|2 dω. (1.37)
R R

Observemos que como w es real y simétrica, también lo es ŵ (Ejercicio 1), de


modo que ŵ(ω − ξ) está centrada en la frecuencia ω = ξ.

Por tanto, la localización tiempo-frecuencia de la transformada ventaneada está


totalmente determinada por la ventana w. Al rectángulo del plano tiempo-frecuencia
centrado en (τ, ξ) y con lados de longitud στ y σξ en las respectivas direcciones, se
le denomina caja de Heisenberg.

Observemos que el tamaño de la caja de Heisenberg, στ σξ , es independiente del


centro de la misma, (t, ξ), lo cual implica que la STFT tiene la misma resolución
en cualquier punto del plano tiempo-frecuencia. Además, por el principio de in-
determinación de Heisenberg (Teorema √ 1.3.12) el tamaño de la caja no puede ser
arbitrariamente pequeño (στ σξ ≥ 1/(2π 2)), lo que quiere decir que la resolución
de la STFT está limitada.

En la siguiente definición introducimos la magnitud análoga al espectro de poten-


cias definido para la transformada de Fourier. En este caso, el espectrograma mide
la energía de f en el entorno de (τ, ξ) especificado por la correspondiente caja de
Heisenberg del plano tiempo-frecuencia.
64 Transformadas de Fourier: Análisis de señales

Definición 6 Sea f ∈ L2 (R). El espectrograma de f es la función integrable


PS f : R2 → R, dada por
PS f (τ, ξ) = |Sf (τ, ξ)|2 .

La transformada ventaneada posee propiedades similares a la transformada de


Fourier en lo que respecta a la reconstrucción y a la conservación de la energía.

Teorema 1.5.18 Si f ∈ L2 (R) entonces


Z Z Z Z Z
f (t) = Sf (τ, ξ)w(t − τ )ei2πξt dξdτ, y 2
|f (t)| = |Sf (τ, ξ)|2 dξdτ.
R R R R R

Demostración. Comenzamos por asumir que fˆ ∈ L1 (R), de modo que podremos


utilizar el teorema de Fubini en las integrales en las que aparezca dicha función. El
caso general se demuestra mediante un argumento de densidad.

Paso 1: Fórmula de reconstrucción. Podemos reescribir Sf como un producto


de convolución dado por
Z
−i2πξτ
Sf (τ, ξ) = e f (t)w(τ − t)ei2πξ(τ −t) dt = e−i2πξτ wξ ∗ f (τ ),
R

donde wξ (s) = w(s)ei2πξs , y hemos usado que w es par. Definiendo fξ (τ ) = Sf (τ, ξ),
tenemos que (Ejercicio 1 de la Sección 3)
fˆξ (ω) = fˆ(ω + ξ)ŵξ (ω + ξ) = fˆ(ω + ξ)ŵ(ω). (1.38)
Usando la fórmula de Parseval (1.16) respecto la integración en τ y teniendo en
cuenta que la transformada de Fourier de w(t − τ ) con respecto a τ es e−i2πtω ŵ(ω),
obtenemos
Z Z  Z Z
  i2πξt
Sf (τ, ξ)w(t − τ )e i2πξt
dτ dξ = ˆ
fξ (ω)F w(t − τ ) dτ e dξ
R R Z Z R R

= fˆ(ω + ξ)|ŵ(ω)|2 ei2πt(ω+ξ) dω dξ = I1 .
R R

Como fˆ ∈ L1 (R) y |ŵ|2 ∈ L1 (R) ya que, por la identidad de Plancherel, kŵk2L2 =


kwk2L2 = 1, podemos intercambiar el orden de integración, obteniendo
Z Z  Z
I1 = |ŵ(ω)|2 ˆ
f (ω + ξ)e i2πt(ω+ξ)
dξ dω = |ŵ(ω)|2 dω = f (t).
R R R

Paso 2: Conservación de la energía. Usando (1.38) y la identidad de Plancherel


con respecto a τ , tenemos que
Z Z Z Z 
2
|Sf (τ, ξ)| dτ dξ = ˆ 2 2
|f (ω + ξ)| |ŵ(ω)| dω dξ = I2 .
R R R R
1.5. La transformada ventaneada de Fourier 65

Intercambiando el orden de integración y usando la fórmula de Plancherel con res-


pecto a ξ y ω, obtenemos
Z Z 
I2 = |ŵ(ω)|2 ˆ
|f (ω + ξ)| dξ dω = kwk2L2 kf k2L2 = kf k2L2 .
2
R R

Ejemplo 1.5.1 Cuando escuchamos una señal del tipo f (t) = exp(i2πbt2 ) observa-
mos que posee una frecuencia que crece con el tiempo, es decir, el tono va haciéndose
más agudo. Considerando la ventana gaussiana dada por (1.35), podemos calcular
la STFT de f usando la transformada de Fourier de una función gaussiana, véase
(1.19). En particular, el espectrograma viene dado por (Ejercicio 5)
 4πσ 2 1/2  4π 2 σ 2 (ξ − 2bτ )2 
PS f (τ, ξ) = exp − . (1.39)
1 + 16π 2 b2 σ 4 1 + 16π 2 b2 σ 4
Es fácil ver que fijado τ , el espectrograma PS f (τ, ξ) es una gaussiana que alcanza
su máximo en ξ(τ ) = 2bτ .

Si escribimos f en términos de la fase φ(t) = bt2 , es decir, f (t) = exp(i2πφ(t)),


entonces ξ(τ ) = φ0 (τ ) es lo que se conoce como frecuencia instantánea. Por tanto, la
curva de máximos del espectrograma ξ = 2bτ coincide con la frecuencia instantánea
de la señal. 

Ejercicios de la Sección 5
1. Probar que si w : R → R satisface w(t) = w(−t) entonces ŵ es real y ŵ(ω) =
ŵ(−ω).

2. Sea g ∈ L1 (R) una función dada. Calcular Sf en función de Sg, donde

a) f (t) = g(t − t0 ), b) f (t) = ei2πξ0 t g(t).

3. Calcular la STFT de f (t) = exp(i2πξ0 t).

4. Argumentar por qué la STFT de una delta de Dirac δτ0 es la función

Sδτ0 (τ, ξ) = w(τ − τ0 ) exp(−i2πξτ0 ).

5. Calcular la STFT de f (t) = exp(i2πbt2 ) para la ventana gaussiana dada por


(1.35), y comprobar que su espectrograma viene dado por (1.39).
Indicación: Usar la expresión de la transformada de Fourier de una gaussiana
dada en (1.19).
66 Transformadas de Fourier: Análisis de señales

6. Supongamos que la ventana w genera varianzas temporal y frecuencial de la


STFT dadas por σt y σω , y consideremos la dilatación ws (t) = s−1/2 w(t/s).
Recalcular las integrales (1.36) y (1.37) con ws reemplazando a w para obtener
las nuevas varianzas asociadas a ws . Calcular el área de la caja de Heisenberg.

7. La distribución Wigner-Ville y el espectrograma.


Sea f ∈ L2 (R). Se define su distribución de Wigner-Ville como
 Z   
0 0 0 t 0
t −i2πtξ0
PV f (τ , ξ ) = f τ + f τ − e dt. (1.40)
R 2 2

a) Consideremos el átomo de Fourier φτ,ξ (t) = w(t−τ )ei2πξt , donde kwkL2 (R) = 1.
Calcular PV φτ,ξ en términos de PV w.
b) El teorema de Moyal dice: Si f, g ∈ L2 (R) entonces
Z 2 Z Z
f (t)g(t)dt = PV f (τ, ξ)PV g(τ, ξ)dτ dξ. (1.41)
R R R

Definamos Pθ f como la convolución bidimensional de las distribuciones


Wigner-Ville de la señal y de la ventana, es decir,
Z Z
Pθ f (τ, ξ) = PV f (τ 0 , ξ 0 )PV w(τ 0 − τ, ξ 0 − ξ)dτ 0 dξ 0 .
R R

Demostrar que Pθ f = PS f , donde PS f denota el espectrograma de f .


c) Demostrar el teorema de Moyal.
Indicación: Comenzando con la parte derecha de (1.41), introducir las
R f y g, intercambiar
expresiones (1.40) de
0
el orden de integración y usar,
justificándolo, que R e−i2πξ(t+t ) dξ = δ−t (t0 ).

8. Demostrar el Teorema 1.5.18: Si f es una señal de periodo N entonces, para


n = 0, 1, . . . , N − 1
N −1 N −1
1 XX  i2πln 
f [n] = Sf [m, l]w[n − m] exp
N m=0 l=0 N
N −1 N −1 N −1
X 1 XX2
|f [n]| = |Sf [m, l]|2 .
n=0
N m=0 l=0
Capítulo 2

Modelos de reacción-difusión:
Evolución y equilibrio

Originalmente, los sistemas de reacción-difusión aparecieron para describir cómo


cambian con el tiempo (evolucionan) las concentraciones de una o más sustancias
químicas distribuidas en el espacio debido a la influencia de dos procesos fundamen-
tales:

1. Reacciones químicas locales, en las que las sustancias se transforman las unas
en las otras o son consumidas o creadas.

2. Difusión, que provoca que las sustancias se relocalizen en el espacio debido a


interacciones moleculares.

Matemáticamente, los sistemas de reacción-difusión tienen la forma de ecuaciones


de evolución en derivadas parciales y pueden representarse bajo la forma general

∂t u(t, x) = A(u(t, x)) + f (u(t, x)), (2.1)

donde cada componente del vector u(t, x) representa la concentración de una sustan-
cia, A es un operador de difusión, y f da cuenta de las reacciones químicas locales,
y es por ello llamado el término de reacción.

Como a menudo sucede con los modelos matemáticos, su ámbito de aplicación


pronto se extendió a otros procesos dinámicos de naturaleza no química, provenien-
tes de la física, de la biología, y de otros campos. Además, dichos modelos fueron
extendidos para tomar en cuenta otros procesos de interés, como el transporte de
las sustancias por un flujo. Por ejemplo, porque las sustancias están disueltas en un
fluido que se mueve.
67
68 Modelos de reacción-difusión: Evolución y equilibrio

Por simplicidad, en este capítulo nos centraremos en unos modelos para los que
no es necesario el conocimiento previo de otras disciplinas, como la química de las
reacciones, y que se deducen de un modo más o menos intuitivo: los modelos de
dinámica de poblaciones. Además, aunque bajo el título de modelos de reacción-
difusión, incluiremos otros modelos que no son estrictamente de este tipo, pero que
se deducen de forma similar a partir de leyes de conservación.

El primer objetivo de este capítulo es el de utilizar la modelización matemática


para obtener formas funcionales concretas del operador de difusión, A, del término
de reacción, f , y de otros términos que puedan aparecer en el ámbito de la dinámica
de poblaciones.

Las soluciones de los modelos que deduciremos muestran un amplio rango de


comportamientos. A menudo se espera que cuando t → ∞ la solución u(t, x) tienda
a una función u∗ (x) (un equilibrio) que viene determinado por ser la solución de
cierto problema matemático. Por ejemplo, en el caso más simple en el que u∗ es una
constante, dicha constante se determina a partir de la ecuación f (u) = 0.

Sin embargo, siguiendo con este ejemplo, la ecuación f (u) = 0 puede tener múlti-
ples soluciones, por lo que debemos estudiar cuál de ellas será efectivamente el límite
de u(t, x) cuando t → ∞; o bajo qué condiciones el límite será uno u otro equilibrio.

Este estudio está íntimamente ligado al de la estabilidad de los equilibrios. La


idea es que si u∗ es un equilibrio que realmente esperamos observar, debe ser, en
cierto sentido, un equilibrio robusto. Es decir, un equilibrio que sigamos observando
aunque hayamos cometido pequeñas imprecisiones en la determinación de los datos
que alimentan el modelo.

El segundo objetivo de este capítulo es el estudio de la determinación de los


equilibrios y de su estabilidad. Examinaremos dos situaciones de especial interés. La
primera es aquella en la que la estabilidad de los múltiples equilibrios de un problema
dependen de un parámetro b de forma que haya un intercambio de estabilidad entre
los equilibrios cuando b rebasa cierto umbral. A este parámetro, b, se le denomina
parámetro de bifurcación, y a menudo proorciona información importante sobre el
modelo.

La segunda situación de interés es cuando el intercambio de estabilidad se produce


debido a la inclusión en el modelo de términos adicionales. Por ejemplo, cuando
pasamos del estudio de ∂t u(t) = f (u(t)) al estudio de la ecuación (2.1), que incluye
el efecto de la difusión. En este contexto se produce el fenómeno conocido como
bifurcación de Turing, en el que se intercambia la estabilidad entre un equilibrio
constante y otro oscilante, dando lugar a la formación de patrones.
2.1. La ley general de conservación 69

1. La ley general de conservación

Imaginemos que nos encontramos en una sala con las ventanas abiertas en la
que se encuentra un grupo de personas. Por ejemplo, un aula. Queremos establecer
una ley para calcular la concentración de CO2 en la sala teniendo en cuenta que: (i)
existe una corriente de aire que transporta el CO2 ; (ii) se aplica la ley de Fick, la cual
nos dice que, por razones de índole molecular, las sustancias tienden a desplazarse
de regiones de mayor concentración a regiones de menor concentración; y (iii) las
personas generan CO2 con su respiración.

Denotemos por x ∈ R3 a un punto genérico de la sala y por t > 0 a un instante de


tiempo. Asumamos que existe una función de densidad de CO2 , que denotamos por
u(t, x), que nos permite representar la concentración de CO2 en un volumen fijado
V ⊂ R3 de la siguiente manera:
Z
masa de CO2 en V en el instante t = u(t, x)dx.
V

Es importante seguir la pista de las magnitudes que estamos utilizando. Denotaremos


por [L], [MR] y [T ] a las magnitudes de longitud, masa y tiempo, respectivamente.
Puesto que V u es una masa, debe tenerse que la dimensión de u es [u] = [L]−3 [M ],
ya que la de V es [V ] = [L]3 .

Por (i), al estar las ventanas abiertas, se genera una corriente en la que fluye el
CO2 . Denotemos la velocidad de esa corriente (conocida) por va (t, x). Llamaremos
flujo de transporte de CO2 al vector qa (t, x) = va (t, x)u(t, x), cuyas dimensiones
son [qa ] = [L]−2 [M ][T ]−1 .

Por (ii), el CO2 se desplaza de acuerdo al gradiente de su concentración. Este


desplazamiento se expresa en términos de un flujo difusivo qd (t, x), que supondremos
que es proporcional al gradiente de concentración, es decir qd (t, x) = −k∇u(t, x),
con k > 0 (Ley de Fick: desplazamiento desde regiones de mayor concentración a
regiones de menor concentración). Para que la definición sea consistente, la constante
k, llamada difusividad, debe tener dimensiones [k] = [L]2 [T ]−1 .

Los flujos qa y qd , aunque provocados por fenómenos de distinta naturaleza, los


podemos combinar matemáticamente en único flujo, q(t, x) = qa (t, x) + qd (t, x).

Finalmente, por (iii), las personas de la sala generarán cierta cantidad de CO2 por
unidad de tiempo, cantidad que dependerá del número de personas y de su actividad
física. Esta generación de CO2 puede depender también de la propia concentración
que ya exista en la sala (si hay una gran concentración, es de esperar que se reduzca
la actividad física y por tanto la respiración), por lo que supondremos que la tasa
de generación de CO2 puede representarse por la función f (t, x, u(t, x)), con [f ] =
[u][T ]−1 = [L]−3 [M ][T ]˘1 .
70 Modelos de reacción-difusión: Evolución y equilibrio

La variación temporal del CO2 contenido en el volumen de referencia, V , viene


dada por la cantidad que entra y que sale por la frontera del volumen más la que se
genera dentro del mismo, es decir,
Z Z Z
d
u(t, x)dx = − q(t, x) · n(x)dS(x) + f (t, x, u(t, x))dx, (2.2)
dt V ∂V V

donde n : ∂Ω → RN es la normal exterior unitaria a la frontera ∂V .

La razón por la cual, en la identidad (2.2), solo aparece la componente normal


del flujo y no el flujo en su totalidad es la siguiente. Asumamos que S = ∂V es una
superficie diferenciable y sea x0 ∈ S. Consideremos el plano tangente Tx0 S, el cual
tiene una base ortonormal formada por dos vectores w1 (x0 ), w2 (x0 ). La dirección
normal a V en x0 es, por definición, la dirección dada por w1 (x0 ) × w2 (x0 ), la cual
podemos normalizar y dar el sentido exterior a la superficie. Al vector resultante
le denotamos por n(x0 ). Como consecuencia, {w1 (x0 ), w2 (x0 ), n(x0 )} forman una
base de R3 , y respecto ella, podemos expresar el flujo como
q(t, x0 ) = q(t, x0 ) · w1 (x0 ) + q(t, x0 ) · w2 (x0 ) + q(t, x0 ) · n(x0 )
= qT (t, x0 ) + qN (t, x0 ),
donde qT (t, x0 ) ∈ Tx0 S y qN (t, x0 ) ⊥ Tx0 S. Por tanto, si una partícula (de CO2 )
tiene la posición x0 en el instante t, la única manera de que entre o salga de V es
que qN (t, x0 ) 6= 0 pues, de lo contrario, la partícula sigue una dirección del plano
tangente a S que la mantiene en S.

El siguiente resultado, demostrado por Gauss en 1826, establece una relación entre
la componente normal del flujo a través de la frontera y cierto operador diferencial,
la divergencia 1 , de dicho flujo en el interior.

Teorema 2.1.19 (de la divergencia) Sea Ω ⊂ RN un conjunto abierto y acotado


y supongamos que su frontera, ∂Ω, es una curva diferenciable con continuidad. Sea
F : Ω → RN un campo vectorial diferenciable con continuidad. Entonces
Z Z
F(x) · n(x)dS(x) = div(F(x))dx,
∂Ω Ω

donde n : ∂Ω → RN es la normal exterior unitaria a la frontera ∂Ω.

Aplicando el teorema de la divergencia en la identidad (2.2), obtenemos


Z  
∂t u(t, x) + div(q(t, x)) − f (t, x, u(t, x)) dx = 0. (2.3)
V
1
Si F : RN →PRN es diferenciable con continuidad en x, entonces div F : RN → R se define
N
como div F(x) = i=1 ∂F
∂xi (x). La divergencia es un operador diferencial lineal.
i
2.1. La ley general de conservación 71

Finalmente, consideremos el caso particular en el que V es una bola de radio r > 0


centrada en x ∈ R3 , es decir, V = Br (x), para cualquier x ∈ R3 de la sala. Entonces,
de (2.3) deducimos que
Z
1  
∂t u(t, y) + div(q(t, y)) − f (t, y, u(t, y)) dy = 0,
|Br (x)| Br (x)

de modo que si el integrando es una función continua, deducimos en el límite r → 0


que

∂t u(t, x) + div(q(t, x)) − f (t, x, u(t, x)) = 0, para t > 0, x ∈ R3 . (2.4)

Recordando ahora que q(t, x) = qa (t, x) + qd (t, x) con qa (t, x) = va (t, x)u(t, x) y
qd (t, x) = −k∇u(t, x) obtenemos

∂t u(t, x) + div va (t, x)u(t, x) − k∆u(t, x) = f (t, x, u(t, x)), (2.5)

para t > 0, x ∈ R3 .

Si q es un vector diferenciable arbitrario, llamamos a la ecuación (2.4) la ley


general de conservación. En general, no podemos resolver esta ecuación ya que con-
tamos con cuatro incógnitas (u y q) y una sola ecuación. Para que la ley general
de conservación sea útil, debemos establecer una relación entre q y u a través de
leyes constitutivas. En nuestro ejemplo, dichas leyes establecen que q = va u − k∇u,
donde va y k son conocidas. Por tanto, la ecuación (2.5) solo tiene una incógnita,
por lo que esperamos poder resolverla.

Observación 2.1.1 Con el fin de mantener una notación ligera, a menudo escribire-
mos las funciones sin explicitar sus argumentos pero explicitando dónde se verifican.
Así, la ecuación general de conservación (2.4) la escribiremos como

∂t u + div q = f (·, ·, u), en (0, ∞) × R3 ,

donde se sobreentiende que los puntos en la f corresponden a los argumentos co-


rrespondientes a (0, ∞) (el primero, el tiempo) y a R3 (el segundo, el espacio).
Naturalmente, si f solo depende de u omitiremos los puntos y escribiremos f (u).

Similarmente, la ecuación (2.5), conocida como la ecuación de evolución-reacción-


convección-difusión, la escribimos como

∂t u + div(va u) − k∆u = f (·, ·, u), en (0, ∞) × R3 .

En esta ecuación, cada término es referido con un nombre: ∂t u es el término de


evolución; div(va u) es el término de convección; −k∆u es el término de difusión;
72 Modelos de reacción-difusión: Evolución y equilibrio

f (·, ·, u) es el término de reacción. Cuando f es independiente de u lo llamamos


término fuente.

Finalmente, a menudo el vector va es contante o representa un flujo incompresible,


es decir, satisface div va = 0, de modo que (??) puede reescribirse como

∂t u + va · ∇u − k∆u = f (·, ·, u), en (0, ∞) × R3 .

Al término va · ∇u se le denomina término de transporte, y a la ecuación como


ecuación de evolución-reacción-transporte-difusión.

Observación 2.1.2 El teorema de la divergencia es la versión multi-dimensional de


la regla de Barrow. Si Ω ⊂ RN es un paralelepípedo, entonces el teorema se deduce
directamente de la regla ya que, por ejemplo para N = 2 y Ω = (a, b) × (c, d),
tenemos
Z bZ d Z bZ d

div(F(x1 , x2 ))dx2 dx1 = ∂x1 F1 (x1 , x2 ) + ∂x2 F2 (x1 , x2 ) dx2 dx1
a c a c
Z d Z b
 
= F1 (b, x2 ) − F1 (a, x2 ) dx2 + F2 (x1 , d) − F2 (x1 , c) dx1 .
c a

Por otra parte, la normal exterior unitaria de Ω viene dada por




 (−1, 0) si x1 = a, x2 ∈ (c, d),

(1, 0) si x1 = b, x2 ∈ (c, d),
n(x) =


 (0, −1) si x1 ∈ (a, b), x2 = c,
si x1 ∈ (a, b), x2 = d,

(0, 1)

de donde se deduce fácilmente la fórmula del teorema.


2.2. Modelos para una especie: Malthus y Verlhust 73

2. Modelos para una especie: Malthus y Verlhust

El objetivo principal de los modelos de dinámica de poblaciones es el de predecir


la evolución temporal del número de individuos de una o más especies.

Puesto que las causas de dicha evolución son diferentes para especies diferentes,
no es de esperar que podamos deducir un modelo general que las englobe a todas
ellas.

Por tanto, conviene acotar el ámbito de situaciones que queremos abordar, y


comenzar con la situación más simple posible: una única especie que habita en un
medio aislado sin restricciones de recursos, y en la que los individuos no interactúan
entre ellos.

Un ejemplo de esta situación es el que puede experimentarse en los momentos


iniciales en que se sitúa, en una placa de Petri, una cierta población inicial de
microorganismos asexuales, como bacterias, provista de un abundante substrato
alimenticio.

Como las herramientas que vamos a utilizar están basadas en el cálculo diferencial,
el contexto en el que definamos nuestras variables e incógnitas debe ser continuo.
Es decir, si u denota el número de individuos, que es un número natural, debemos
extender esta noción al conjunto de los números reales, donde podemos manejar la
noción de diferenciabilidad.

Así, la función continua u : [0, ∞) → R denotará algo que podemos interpretar


como la biomasa de la población a la que, en general, nos referiremos como densidad
de población. En el ejemplo de los microorganismos, la evolución de la densidad de
población entre los instantes t y t + τ se obtendrá pesando la población en t y en
t + τ , y calculando u(t + τ ) − u(t).

¿Cuáles son los factores que influyen en la variación global de la densidad de una
población? Genéricamente, si el hábitat está aislado y por tanto no hay migraciones a
través de su frontera, la variación vendrá determinada por el nacimiento y la muerte
de los individuos.

Para definir un modelo específico, por tanto, tendremos que asumir cierta forma
funcional para estos eventos naturales. Lo ideal es extraer esta información en cada
caso concreto, pero también pueden hacerse hipótesis generales que, aunque no pro-
porcionen una información cuantitativa relevante, sí nos den una idea cualitativa de
la evolución de la población.

Por ejemplo, para microorganismos que se reproducen por escisión, es razonable


suponer que tanto los nacimientos como las muertes serán proporcionales al número
de individuos.
74 Modelos de reacción-difusión: Evolución y equilibrio

Para plasmar esta idea introducimos dos conceptos:

la tasa de nacimientos per cápita, b, es decir el número de nacimientos por


individuo por unidad de tiempo, y

la tasa de muertes per cápita, µ, es decir el número de muertes por individuo


por unidad de tiempo.

Tendremos entonces que la variación de la densidad de población en un intervalo de


tiempo de longitud τ viene dado por

u(t + τ ) − u(t) = bτ u(t) − µτ u(t),

o, lo que es lo mismo,

u(t + τ ) − u(t)
= ru(t),
τ
donde r = b−µ es la tasa de crecimiento neta per cápita de la población. Asumiendo
que u es diferenciable y tomando τ → 0, deducimos

u0 (t) = ru(t),

cuya solución general viene dada por u(t) = cert .

La constante de integración, c, debe determinarse a partir de los datos del pro-


blema. La opción más habitual es suponer que conocemos la densidad de población
en el instante inicial t = 0, lo que se denomina condición inicial o dato inicial, y
que denotamos por u0 . Por motivos obvios, asumiremos que u0 > 0. Deducimos que

u(t) = u0 ert , para t ≥ 0.

Vemos, pues, que este modelo, introducido por Malthus en 1798, da lugar a tres
posibles situaciones a largo plazo (cuando t → ∞):

1. Si r < 0, la población tiende a la extinción, u(t) → 0.

2. Si r = 0, la población no varía, u(t) ≡ u0 .

3. Si r > 0, la población tiende a explotar, u(t) → ∞.

Observemos que los dos primeros puntos, que recogen el caso en que las muertes
son más frecuentes que los nacimientos, o igual de frecuentes, son observables en los
experimentos y resultan ser predicciones razonables.
2.2. Modelos para una especie: Malthus y Verlhust 75

Sin embargo, el tercer punto no puede ser observable. El modelo malthusiano es


una buena aproximación para intervalos de tiempo breves, como suele ocurrir con
los modelos lineales, pero tras un periodo transitorio el modelo deja de ser válido,
debido a que no recoge el hecho de que la tasa de crecimiento deja de ser constante,
y de que tiende a disminuir según aumenta la población. Esta disminución es debida
a que, en realidad, la hipótesis de recursos ilimitados no es correcta a largo plazo,
dando lugar a la competencia entre los miembros de la población por los recursos
escasos.

Es decir, la tasa de crecimiento neta, r, no es una constante, sino que depende


de modo decreciente de la densidad de población, u.

Como vemos, la simplificación del modelo malthusiano que da lugar a la posi-


bilidad de que la población explote viene dada por la hipótesis de que los recursos
son ilimitados. Claramente, este no es el caso, y dicha limitación debe reflejarse de
alguna manera en la ecuación diferencial que rige la evolución de la población.

La forma más simple de modelizar la nueva situación es sustituyendo la tasa de


crecimiento neto per cápita, r, que en el caso malthusiano es constante,
u0 (t)
= r,
u(t)
por una función lineal decreciente respecto la densidad de población, de modo que a
mayor población se tenga una menor disponibilidad de recursos per cápita, es decir,
u0 (t)
= α − βu(t),
u(t)
con α, β > 0. Esta identidad da lugar a la ecuación logística, introducida por Verlhust
en 1833, y que suele ser formulada de la siguiente manera
 u(t) 
u0 (t) = ru(t) 1 − , (2.6)
K
es decir, con α = r y β = r/K.

El parámetro K > 0, llamado la capacidad de carga del medio, tiene un signifi-


cado biológico. En efecto, cuando u(t)  K, el crecimiento de u es prácticamente
exponencial, como en el modelo malthusiano. A medida que u se aproxima a K el
crecimiento de la población se va atenuando hasta que (en t = ∞) se detiene. Por
tanto, podemos interpretar la constante K como el mayor número de individuos que
el habitat, limitado en recursos, puede sostener.

La ecuación (2.6) puede integrarse de forma exacta, obteniéndose


Ku0
u(t) = .
u0 + (K − u0 )e−rt
76 Modelos de reacción-difusión: Evolución y equilibrio

Observemos que el comportamiento de la solución cuando t → ∞ ha cambiado


respecto al del modelo de Malthus. Asumiendo que, inicialmente, el número de in-
dividuos es menor que el que puede sostener el hábitat (u0 < K) , tenemos:

1. Si r < 0, la población tiende a la extinción, u(t) → 0.

2. Si r = 0, la población no varía, u(t) ≡ u0 .

3. Si r > 0, la población tiende a la capacidad de carga, u(t) → K.

Observación 2.2.1 Significado biológico de la tasa de mortalidad, µ. Con-


sideremos una población inicial dada por u(0) = u0 y supongamos que la tasa de
nacimientos es nula, de modo que la ecuación que rige la evolución de la población
es

u0 (t) = −µu(t).

Resolviendo, obtenemos que u(t) = u0 e−µt , que podemos reescribir como

u(t)
= e−µt ,
u0
lo cual nos indica la proporción de vivos en [0, t) respecto la población inicial. Por
tanto, la proporción de muertos en [0, t), o probabilidad de morir en [0, t) es
( (
0 t < 0, 0 0 t < 0,
F (t) = con densidad f (t) = F (t) =
1 − e−µt t ≥ 0, µe−µt t ≥ 0.

Sea X la variable aleatoria tiempo de vida de un individuo, con distribución dada


por F . Entonces
Z
1
E[X] = tf (t)dt = ,
R µ

de modo que 1/µ puede interpretarse como la esperanza de vida de los individuos
de la población.

2.1. Equilibrios y estabilidad

En los modelos de Malthus y Velhust, los equilibrios y su estabilidad resultan


evidentes debido a que sabemos calcular sus soluciones explícitamente.
2.2. Modelos para una especie: Malthus y Verlhust 77

Sin embargo, resultará útil introducir aquí la metodología que utilizaremos en


modelos más complejos para tener una primera impresión de la misma. A lo que nos
referimos con modelos más complejos es, fundamentalmente, a modelos en los que
intervienen ecuaciones no lineales, como la del modelo de Verlhust.

Consideremos el caso de una ecuación general del tipo


u0 (t) = f (u(t)), para t > 0, y u(0) = u0 ≥ 0,
donde f es diferenciable con continuidad y f (0) = 0, de modo que u(t) ≥ 0 para
t > 0, véase la Observación 2.2.2. Sea u∗ un equilibrio de este problema, es decir,
una solución no negativa de la ecuación f (s) = 0. Definamos w(t) = u(t) − u∗ ,
que mide la distancia entre el equilibrio y la solución, y consideremos el problema
asociado a un dato inicial que representa una perturbación del equilibrio, por ejemplo
u0 = u∗ + ε ≥ 0. Entonces w satisface
w0 (t) = f (w(t) + u∗ ), para t > 0, y w(0) = ε. (2.7)
El análisis de estabilidad no lineal consiste en estudiar la estabilidad de u∗ para el
problema (2.7), es decir, en demostrar que w(t) → 0 cuando t → ∞ y, por tanto,
que u(t) → u∗ cuando t → ∞. Si esta propiedad se satisface, decimos que u∗ es un
equilibrio estable. Si no, que es un equilibrio inestable.

Consideremos ahora el desarrollo de Taylor de f en u∗ ,


f (s) = f (u∗ ) + f 0 (u∗ )(s − u∗ ) + o((s − u∗ )2 ),
de modo que, teniendo en cuenta que f (u∗ ) = 0 y tomando s = w(t) + u∗ obtenemos
de (2.7) que
w0 (t) = f 0 (u∗ )w(t) + o(w(t)2 ).
El análisis de estabilidad lineal consiste en estudiar la estabilidad de u∗ , es decir, si
w(t) → 0 cuando t → ∞ o no, para el problema linealizado
w0 (t) = f 0 (u∗ )w(t), para t > 0, y w(0) = ε,
en lugar de para el problema no lineal original (2.7). La justificación del rango de
validez de esta sustitución del problema no lineal por el linealizado no es trivial2

2.1.1. Malthus

El término de reacción de la ecuación de Malthus es f (s) = rs, con lo que el


problema es lineal. El caso r = 0 es, como vimos, trivial, puesto que la solución es
u(t) = u0 para t > 0 y no hay evolución en el sistema.
2
Véase, por ejemplo, N. A. Coddington and N. Levinson, Theory of Ordinary Differential Equa-
tions, Krieger (1984), Cap. 13, Teoremas 1 y 2.
78 Modelos de reacción-difusión: Evolución y equilibrio

Si r 6= 0 entonces el único equilibrio lo proporciona s = 0, es decir, el único


equilibrio del sistema es la constante u∗ = 0. El problema (2.7) toma la forma

w0 (t) = rw(t), para t > 0, y w(0) = ε,

cuya solución es w(t) = εert . Por tanto, si r < 0 la distancia w(t) = u(t)−u∗ tenderá
a cero con el tiempo (estabilidad) mientras que si r > 0 dicha distancia no tenderá
a cero (inestabilidad).

En conclusión, el modelo de Malthus posee un único equilibrio dado por u∗ =


0, el cual es estable si r < 0 y es inestable si r > 0. Por tanto, el parámetro r
es un parámetro de bifurcación, ya que se produce un cambio de estabilidad del
equilibrio cuando r pasa de ser negativo a positivo, o viceversa. El parámetro crítico
de bifurcación es rc = 0, que es el que separa la región de estabilidad de la de
inestabilidad.

2.1.2. Verlhust. Estabilidad no lineal

En el caso de la ecuación logística (2.6) con r 6= 0 existen dos equilibrios, dados


por u∗1 = 0 y u∗2 = K. Comenzamos analizando el primer equilibrio (equilibrio trivial)
u∗1 . Definiendo w1 (t) = u(t) − u∗1 y u0 = u∗1 + ε, con ε > 0, tenemos que
 w1 (t) 
w10 (t) = rw1 (t) 1 − , para t > 0, y w1 (0) = ε.
K
La situación es similar a la estudiada en el modelo de Malthus. Si r < 0 entonces
w1 (t) → 0 = u∗1 cuando t → ∞ (estabilidad) mientras que si r > 0 entonces
w1 (t) → K = u∗2 (instabilidad).

Para estudiar el segundo equilibrio u∗2 , definimos w2 (t) = u(t) − u∗2 y u0 = u∗2 + ε.
Como u∗2 = K > 0 la perturbación ε puede ser positiva o negativa (siempre que u0
siga siendo positiva). Tenemos que
 w2 (t) + K 
w20 (t) = r(w2 (t) + K) 1 − , para t > 0, y w2 (0) = ε.
K
que podemos reescribir como
r
w20 (t) = − w2 (t)(w2 (t) + K). (2.8)
K
Usando que si w0 (t) = f (w(t)) con f (0) = 0 entonces signo(w(t)) = signo(w0 ), véase
la Observación 2.2.2, deducimos que

Si r > 0:
2.2. Modelos para una especie: Malthus y Verlhust 79

• Si ε > 0 entonces w2 (t) ≥ 0, luego w20 (t) ≤ 0, con lo que w2 (t) ↓ 0


(estabilidad).
• Si ε < 0 entonces w2 (t) ≤ 0. Además, si |ε|  K, entonces también
tendremos que w2 (t) + K ≥ 0, al menos para t pequeño. Luego w20 (t) ≥ 0,
con lo que w2 (t) ↑ 0 (estabilidad).

Si r < 0:

• Si ε > 0 entonces w2 (t) ≥ 0, luego w20 (t) ≥ 0, con lo que w2 (t) 6→ 0


(inestabilidad).
• Si ε < 0 entonces w2 (t) ≤ 0. Además, si |ε|  K, entonces también
tendremos que w2 (t) + K ≥ 0, al menos para t pequeño. Luego w20 (t) ≤ 0,
con lo que w2 (t) 6→ 0 (inestabilidad).

En conclusión, r es un parámetro de bifurcación, siendo rc = 0 el parámetro de


bifurcación crítico. Si r > rc entonces u∗2 es estable y u∗1 es inestable. Al pasar r de
ser positivo a ser negativo, r < rc , se produce el intercambio de estabilidad entre los
equilibrios, teniéndose en este caso que u∗1 es estable y u∗2 es inestable.

2.1.3. Verlhust. Estabilidad lineal

El análisis de estabilidad no lineal realizado en la sección anterior ha sido posible


gracias a que hemos podido extraer información adecuada a partir de la función no
lineal − Kr s(s + K) que aparece en el término de la derecha de (2.8). Sin embargo, a
menudo este análisis de estabilidad no lineal no es posible y debemos restringirnos
al análisis de estabilidad lineal, que siempre es posible y, a menudo, informativo.

Apliquemos esta metodología al modelo de Verlhust. Tenemos que f (s) = rs(1 −


s/K), de modo que f 0 (s) = r(1 − 2s/K). Para u∗1 = 0, estudiamos el problema
linealizado

w10 (t) = rw1 (t), para t > 0, y w1 (0) = ε > 0.

Claramente, si r < 0 entonces u∗1 resulta ser estable mientras que si r > 0 es inestable.
Similarmente, para u∗2 = K obtenemos

w20 (t) = −rw2 (t), para t > 0, y w2 (0) = ε.

con lo que la situación es justo la contraria a la de u∗1 . Observemos que estos resul-
tados son los mismos que los obtenidos, en la sección anterior, a partir del análisis
de estabilidad no lineal.
80 Modelos de reacción-difusión: Evolución y equilibrio

Observación 2.2.2 Existencia, unicidad y signo de las soluciones de EDO.


En el caso de sistemas de EDO de la forma u0 (t) = f (t, u(t)), la existencia y unicidad
de solución están garantizadas bajo condiciones muy generales sobre f . Enunciare-
mos aquí una versión del teorema de Picard-Lindelöf, aunque existen resultados
más generales, como el teorema de Carathéodory. Además, en el caso autónomo, es
posible establecer criterios que permiten conocer el signo de las componentes de la
solución.

Teorema 2.2.20 Sea f : [0, T ] × RN → RN una función Lipschitz. Entonces, existe


un t∗ ∈ (0, T ] tal que el problema

u0 (t) = f (t, u(t)) para t ∈ (0, t∗ ),


u(0) = u0 ,

tiene una solución única, u : [0, t∗ ) → RN , que es diferenciable en (0, t∗ ) y que


depende con continuidad de los datos iniciales.

Además, si f ≡ f (u) y si fi (0) = 0 para algún i ∈ {1, . . . , N } entonces


signo(ui (t)) = signo(ui0 ) para todo t ∈ [0, t∗ ).

Este resultado es un resultado de existencia de solución local en tiempo, y es lo


más que puede esperarse para un término, f , lipschitziano (considérese el problema
u0 (t) = u(t)2 , con u0 > 0). Si, además, se satisface que

lı́m ku(t)k < ∞,


t→t∗

entonces se puede prolongar el tiempo de existencia de la solución.


2.3. Modelos de interacción entre especies 81

3. Modelos de interacción entre especies

3.1. Las ecuaciones de Lotka-Volterra

Consideremos dos especies que comparten el mismo hábitat. Si no interactúan


entre ellas, su dinámica vendrá dada por la ecuación logística (2.6), es decir

u01 (t) = u1 (t)(α1 − β11 u1 (t)), u02 (t) = u2 (t)(α2 − β22 u2 (t)),

donde αi ≥ 0 son las tasas de crecimiento y βii = αi /Ki ≥ 0, con Ki la capacidad


de carga del entorno para la especie i = 1, 2. A las constantes βii se les denomina
coeficientes de competencia intra-específica, dando la medida de la intensidad de
competencia por los recursos entre individuos de la misma especie.

Si las especies interactúan, deberemos añadir a las ecuaciones anteriores términos


que modelizen tal interacción. El modelo más simple es el dado por las ecuaciones
de Lotka-Volterra,

u01 (t) = u1 (t)(α1 − β11 u1 (t) − β12 u2 (t)), (2.9)


u02 (t) = u2 (t)(α2 − β21 u1 (t) − β22 u2 (t)). (2.10)

Las constantes β12 y β21 son los coeficientes inter-específicos. Dependiendo de su


signo, modelizan distintos tipos de interacción entre las poblaciones:

Modelo depredador-presa. Si β12 > 0 y β21 < 0, de la primera ecuación deduci-


mos que la tasa de crecimiento de u1 (presa) decrecerá cuando u2 (depredador)
aumente. Por otra parte, de la segunda ecuación deducimos que la tasa de cre-
cimiento de los depredadores aumentará cuando el número de presas crezca.

Modelo competitivo. Tomando β12 > 0 y β21 > 0, los términos inter-específicos
contribuyen a que la tasa de crecimiento de ambas poblaciones disminuya. Esto
representa la competencia inter-específica por los recursos.

Modelo mutualista o simbiótico. Tomando β12 < 0 y β21 < 0 los términos inter-
específicos contribuyen a que las tasas de crecimiento aumenten, representando
que ambas especies se ven beneficiadas por el crecimiento de la otra.

El sistema de ecuaciones no lineales (2.9)-(2.10) se complementa con condiciones


iniciales ui (0) = ui0 ≥ 0, para i = 1, 2. En general, no se conocen soluciones explícitas
del modelo de Lotka-Volterra.
82 Modelos de reacción-difusión: Evolución y equilibrio

3.1.1. Equilibrios y estabilidad

El caso general. Para realizar el análisis de estabilidad lineal, procederemos de


manera similar a la de la sección anterior. Consideremos el sistema de EDO general,
denotado por (NL), dado por
u01 (t) = f1 (u1 (t), u2 (t)),
u02 (t) = f2 (u1 (t), u2 (t)),
para t > 0, y con ui (0) = ui0 , con i = 1, 2. En forma matricial, lo escribimos como
u0 (t) = f (u(t)), para t > 0, u(0) = u0 ,
donde u = (u1 , u2 ), f = (f1 , f2 ).

Los equilibrios del sistema (NL) vienen dados por las soluciones del sistema de
ecuaciones algebraico
f1 (s1 , s2 ) = 0, f2 (s1 , s2 ) = 0.
Sea u∗ = (u∗1 , u∗2 ) uno de tales puntos de equilibrio, y midamos la distancia entre
u∗ y u(t) mediante la función w(t) = u(t) − u∗ . Además, consideremos el problema
para un dato inicial que es una perturbación del equilibrio, es decir, u0 = u∗ + ε.
Entonces, w(t) satisface
w0 (t) = f (w(t) + u∗ ), para t > 0, w(0) = ε.
Introduciendo el polinomio de Taylor de f centrado en u∗ , obtenemos
w0 (t) = Df (u∗ )w(t) + o(kw(t)k2 ), para t > 0, w(0) = ε, (2.11)
donde Df (u∗ ) es la matriz jacobiana de f evaluada en u∗ ,
∂1 f1 (u∗1 , u∗2 ) ∂2 f1 (u∗1 , u∗2 )
 

Df (u ) = .
∂1 f2 (u∗1 , u∗2 ) ∂2 f2 (u∗1 , u∗2 )
Despreciando los términos de orden superior en (2.11), deducimos el problema li-
nealizado (en torno a u∗ ) correspondiente a (NL)
w0 (t) = Df (u∗ )w(t), para t > 0, w(0) = ε.
La solución de este sistema de ecuaciones viene dada por
w(t) = exp tDf (u∗ ) w0 ,

(2.12)
donde la exponencial de una matriz, A, se define como

X 1 n
exp(A) = A .
n=0
n!
2.3. Modelos de interacción entre especies 83

Si A es semejante a una matriz diagonal, es decir, si existe P invertible tal que


A = P −1 DP , con D diagonal (determinada por los autovalores de A), entonces
1
exp(A) = I + P −1 DP + P −1 DP P −1 DP + · · · = P −1 exp(D)P,
2
siendo
 
eλ1 0
exp(D) = , donde λ1 , λ2 ∈ C son los autovalores de A.
0 eλ2

Tomando A = Df (u∗ ), deducimos de (2.12) que


 λt 
e 1 0
v(t) = v0 ,
0 e λ2 t
donde v = P w.

De este modo, hemos reducido el estudio de la estabilidad lineal de u∗ a la deter-


minación del signo de la parte real de los autovalores de la matriz jacobiana Df (u∗ ).
En efecto, si Re(λ1 ) < 0 y Re(λ2 ) < 0, entonces v(t) → 0 cuando t → ∞, de modo
que también w(t) → 0, dado que P es invertible.

El polinomio característico de una matriz, 2 × 2 tiene una forma especialmente


simple. Si Df (u∗ ) es la matriz, entonces su polinomio característico es

p(λ) = λ2 − tr(Df (u∗ ))λ + det(Df (u∗ )),

de modo que los autovalores de Df (u∗ ) son


p
tr(Df (u∗ )) − tr(Df (u∗ ))2 − 4 det(Df (u∗ ))
λ1 = ,
p 2
tr(Df (u∗ )) + tr(Df (u∗ ))2 − 4 det(Df (u∗ ))
λ2 = .
2
Estudiemos los signos de estas expresiones.

Si det(Df (u∗ )) < 0 entonces tr(Df (u∗ ))2 − 4 det(Df (u∗ )) > tr(Df (u∗ ))2 , con
lo que λ1 < 0 y λ2 > 0. Por tanto, u∗ no es linealmente estable.
Si det(Df (u∗ )) > 0 entonces tr(Df (u∗ ))2 − 4 det(Df (u∗ )) < tr(Df (u∗ ))2 , con
lo que
p 
Re tr(Df (u∗ ))2 − 4 det(Df (u∗ )) < | tr(Df (u∗ ))|,

y, por tanto, los signos de Re(λ1 ) y Re(λ2 ) son iguales que el de tr(Df (u∗ )). Por
tanto, si tr(Df (u∗ )) < 0 entonces u∗ es linealmente estable, y si tr(Df (u∗ )) > 0
entonces u∗ es linealmente inestable.
84 Modelos de reacción-difusión: Evolución y equilibrio

Los casos en que det(Df (u∗ )) = 0 o en que det(Df (u∗ )) > 0 y tr(Df (u∗ )) = 0
requieren un tratamiento especial que no realizaremos aquí.

En resumen, tenemos:

Condición suficiente de estabilidad lineal para un sistema de dos EDO

det(Df (u∗ )) > 0 y tr(Df (u∗ )) < 0 =⇒ u∗ es linealmente estable.

Observación 2.3.1 Como hemos visto, los criterios enunciados sobre el determi-
nante y la traza de Df (u∗ )) se deducen del análisis del polinomio característico del
problema de autovalores Df (u∗ ))v = λv en el caso particular en que f está definido
sobre R2 . En el caso general de RN (sistema de N ecuaciones diferenciales), ha de
estudiarse el signo de la parte real de los autovalores por medios ad hoc. Puesto
que el polinomio característico correspondiente es de grado N , esta tarea no es en
absoluto trivial.

Aplicación al caso de Lotka-Volterra. Los puntos de equilibrio del sistema


(2.9)-(2.10) son las soluciones no negativas del sistema algebraico
s1 (α1 − β11 s1 − β12 s2 ) = 0,
s2 (α2 − β21 s1 − β22 s2 ) = 0,
que pueden calcularse explícitamente:

Extinción de ambas especies: (u∗1 , u∗2 ) = (0, 0).


Extinción de una especie y supervivencia de la otra:
α2  α1 
(u∗1 , u∗2 ) = 0, o (u∗1 , u∗2 ) = ,0 ,
β22 β11
para lo cual debe ser β22 6= 0 o β11 6= 0, respectivamente.
Coexistencia de ambas especies:
 β α −β α β11 α2 − β21 α1 
22 1 12 2
(u∗1 , u∗2 ) = , ,
β11 β22 − β12 β21 β11 β22 − β12 β21
que será posible siempre que det(B) 6= 0, con B = (βij )i,j=1,2 .
2.3. Modelos de interacción entre especies 85

Observemos que, además de no anularse los denominadores de estas expresiones,


debemos exigir que las componentes de las mismas sean no negativas.

Particularizando el estudio de estabilidad lineal al sistema de ecuaciones de Lotka-


Volterra, tenemos que la matriz jacobiana del sistema viene dada por

α1 − 2β11 u∗1 − β12 u∗2 −β12 u∗1


 

Df (u ) = .
−β21 u∗2 α2 − β21 u∗1 − 2β22 u∗2

Por tanto, tenemos los siguientes casos atendiendo al tipo de equilibrio:

Extinción de ambas especies, u∗ = (0, 0):


 
∗ α1 0
Df (u ) = ,
0 α2

luego se trata de un equilibrio inestable.

Extinción de una especie y supervivencia de la otra, por ejemplo u∗ = (0, α2 /β22 ):

β12
 
α1 − α2 0
Df (u∗ ) =  β22
,
 
β21
−α2 −α2
β22

de modo que


 β12  ∗
 β12 
det(Df (u )) = −α2 α1 − α2 , tr(Df (u )) = α1 − α2 1 + α2 ,
β22 β22

y el tipo de equilibrio dependerá del valor de los parámetros.

Coexistencia de ambas especies. En este caso tenemos

−β11 u∗1 −β12 u∗1


 

Df (u ) = ,
−β21 u∗2 −β22 u∗2

luego

det(Df (u∗ )) = u∗1 u∗2 det(B), tr(Df (u∗ )) = −β11 u∗1 − β22 u∗2 < 0.

Por tanto, si det(B) > 0 el equilibrio es estable.


86 Modelos de reacción-difusión: Evolución y equilibrio

3.2. Modelo SIR de Epidemiología

En esta sección estudiaremos el modelo SIR, introducido por Kermack y McKen-


drick en 1927 para la modelización de la dinámica de transmisión e incidencia de
procesos infecciosos. Este modelo supuso el inicio del estudio de los modelos compar-
timentales en Epidemiología, algunos de los cuales plantearemos en los Ejercicios.
A pesar de su simplicidad o, quizás, debido a ella, es un modelo muy utilizado.

Partimos de una población total de N individuos, a los cuales clasificamos en tres


categorías de acuerdo con su estado en el tiempo t:

Susceptibles de ser infectados, S(t).


Infecciosos, I(t).
Recuperados de la infección, R(t), que han dejado de ser infecciosos3 .

Distinguiremos dos tipos de modelos atendiendo a la escala temporal del proceso


infeccioso. El modelo de epidemia puntual, como la gripe, en el que la escala de
tiempo es de días y para el que podemos suponer que no se producen ni nacimientos
ni muertes durante la resolución de la epidemia, y el modelo de epidemia endémica,
como la hepatitis, en el que la escala de tiempo es de años y por tanto los procesos
demográficos deben ser considerados.

Más que en aspectos cuantitativos, estamos interesados en deducir propiedades


cualitativas de las soluciones que reflejen aproximadamente las observaciones de
campo. Las dos propiedades centrales de cualquier modelo de epidemiología son:

1. Identificar una combinación de parámetros del modelo que permitan determi-


nar bajo qué condiciones se produce un brote epidémico.
2. En caso de que se produzca un brote epidémico, determinar si parte de la
población quedará intacta.

3.2.1. Epidemia puntual

La dinámica del proceso infeccioso viene determinada fundamentalmente por dos


fenómenos: el contagio y la recuperación. Asumiremos las siguientes hipótesis para
construir nuestro modelo:

1. Cualquier miembro de la población tiene un contacto eficiente4 con otros βN


3
De aquí, el nombre del modelo. Otros modelos de Epidemiología son nombrados también de
acuerdo a las iniciales de las clases o los compartimentos que consideran.
4
Contacto suficientemente cercano y prolongado como para poder transmitir la infección.
2.3. Modelos de interacción entre especies 87

individuos por unidad de tiempo.

2. Los infecciosos dejan de serlo con una tasa αI por unidad de tiempo.

3. Tras el período infeccioso, los infectados se recuperan y quedan inmunes a la


infección.

4. No se producen nacimientos ni muertes.

Veamos cuáles son las implicaciones de estas hipótesis.

La probabilidad de que un individuo tenga contacto con un infeccioso es I/N . De


modo que el primer punto implica que el número de contactos eficientes que producen
infección, por individuo, es (βN )(I/N ). Por tanto, la tasa de nuevas infecciones viene
dada por (βN )(I/N )S = βSI, ya que las nuevas infecciones solo se producen sobre
los susceptibles (punto 3).

El cuarto punto implica que la población total N = S(t)+I(t)+R(t) es constante.


Esto es debido a que estamos suponiendo que la resolución de la epidemia tiene una
escala temporal mucho más pequeña que la de los efectos demográficos de nacimiento
y muerte, y que la enfermedad infecciosa no produce la muerte.

La segunda hipótesis asume que la tasa de recuperación es proporcional al número


de infecciosos, lo cual no es evidente. Para entender esta hipótesis, supongamos que
u(t) denota el número de infectados que siguen siendo infecciosos t unidades de
tiempo después de haber sido infectados. Si una fracción α deja de ser infecciosa por
unidad de tiempo, como se establece en el punto 2, entonces

u0 (t) = −αu(t).

Teniendo en cuenta la Obervación 2.2.1, vemos que 1/α resulta ser la esperanza de
la duración del periodo infectivo, es decir el tiempo promedio que transcurre desde
que un susceptible se infecta y pasa a ser infeccioso5 hasta que deja de ser infeccioso.

Con estas hipótesis, la dinámica epidemiológica viene determinada por el siguiente


sistema de ecuaciones:

S 0 (t) = −βS(t)I(t) S(0) = S0 > 0,


I 0 (t) = βS(t)I(t) − αI(t) I(0) = I0 > 0,
R0 (t) = αI(t) R(0) = 0.
5
Aquí hemos supuesto que el susceptible infectado pasa a ser infeccioso inmediatamente. Nor-
malmente, esto no es así, habiendo un tiempo de incubación de la enfermedad durante el cual el
infectado aún no es infeccioso. Es el llamado periodo de latencia.
88 Modelos de reacción-difusión: Evolución y equilibrio

Puesto que S(t) + I(t) + R(t) = N es constante, siempre podemos determinar una
de las incógnitas a partir de las otras dos. Por fijar ideas, determinaremos R a partir
de S e I, de modo que basta con resolver el sistema

S 0 (t) = −βS(t)I(t) S(0) = S0 > 0, (2.13)


I 0 (t) = (βS(t) − α)I(t) I(0) = I0 > 0, (2.14)

y tomar R(t) = N − S(t) − I(t). Observemos que S0 + I0 = N .

La principal cuestión que queremos resolver con este modelo es: suponiendo que
en t = 0 se introduce un pequeño número de infecciosos en una población susceptible,
¿se producirá una epidemia?

Observemos que S 0 (t) ≤ 0 para todo t y que I 0 (t) > 0 solo si S(t) > α/β. Así,
I(t) crecerá mientras se tenga S(t) > α/β, pero como S(t) es decreciente, en algún
momento I(t) pasará a ser también decreciente, tendiendo al equilibrio I = 0 cuando
t → ∞.

El dato inicial de la población susceptible resulta ser fundamental en la dinámica


del problema:

Si S0 < α/β tanto S(t) como I(t) son decrecientes para todo t, y el número
de infecciosos decrece a cero (no hay epidemia).

Sin embargo, si S0 > α/β, habrá un periodo de crecimiento de la población


infecciosa hasta llegar a un máximo (cuando S(t) = α/β), y después decrecerá
a cero (hay epidemia).

La cantidad adimensional σ0 = βS0 /α es un umbral que permite saber si habrá


epidemia (σ0 > 1) o no la habrá (σ0 < 1). Este número está relacionado con el
número de reproducción básico, R0 = βN/α. Desde el punto de vista epidemiológi-
co, R0 proporciona el número de casos secundarios de infección que se producirán
debido a la interacción entre un único individuo infeccioso y una población formada
únicamente por susceptibles.

Para obtener esta interpretación observemos que, como la incidencia es βSI e


I = 1, el número de casos secundarios producidos por un individuo por unidad
de tiempo es βS. Si el resto de la población es susceptible entonces este número
es β(N − 1) ≈ βN , asumiendo N  1. Multiplicando por el tiempo promedio de
duración del periodo infeccioso, obtenemos el número de reproducción básico.

Equilibrios y estabilidad. Aunque el sistema (2.13)-(2.14) es un sistema au-


tónomo de dos EDO, el estudio de estabilidad a partir de la linealización no nos
proporciona niguna información sobre la estabilidad del sistema no lineal debido a
2.3. Modelos de interacción entre especies 89

que el determinante de la matriz jacobiana del sistema es nulo en los puntos de


equilibrio, que son de la forma (S, I) = (S ∗ , 0).

Sin embargo, podemos razonar del siguiente modo para analizar el sistema. Su-
mando las dos ecuaciones de (2.13)-(2.14) obtenemos
(S(t) + I(t))0 = −αI(t).
Como S(t) + I(t) está acotada inferiormente por cero y es decreciente, tiene un
límite finito cuando t → ∞. Al ser el límite finito, necesariamente se tiene que
(S(t) + I(t))0 → 0 para t → ∞. Por tanto, también se tiene I(t) → 0 cuando t → ∞.

Dividiendo la ecuación de (2.14) por la de (2.13) obtenemos


I 0 (t) α 0 α S 0 (t)
= −1 + =⇒ I (t) = − S 0 (t).
S 0 (t) βS(t) β S(t)
Integrando en (0, ∞) y teniendo en cuenta que I∞ = 0 deducimos que
α  S∞ 
−I0 = ln − S∞ + S0 .
β S0
Reordenando los términos, obtenemos la siguiente ecuación para determinar S∞ :
S   S∞ 
0
ln = R0 1 − . (2.15)
S∞ N
En el Ejercicio 3 se demuestra que esta ecuación tiene una solución única, S∞ . Por
tanto

Hemos determinado que de entre todos los equilibrios (S ∗ , 0), para todo S ∗ ≥ 0,
solo el equilibrio (S∞ , 0) es estable, y
Hemos obtenido la relación entre el tamaño de la epidemia, N − S∞ , y el
número de reproducción básico, R0 .

Observación 2.3.2 La tasa de nuevas infecciones, βSI, viene dada en términos del
parámetro β, siendo βN el número de contactos eficientes por unidad de tiempo. Es-
te término es similar a los términos cuadráticos de las ecuaciones de Lotka-Volterra
βij ui uj , de modo que los parámetros βij de dicho sistema pueden interpretarse como
el número de contactos eficientes por unidad de tiempo y por unidad de población
para que se produzca un aumento o disminucion de la población en cuestión, depen-
diendo del signo de los mismos. La causa de la disminución de la población debe
interpretarse de acuerdo con el modelo considerado. Por ejemplo, para el modelo de
depredador-presa, la causa es la muerte. Sin embargo, para el modelo competitivo,
la causa es la extracción de recursos y, por tanto, su escasez.
90 Modelos de reacción-difusión: Evolución y equilibrio

Observación 2.3.3 Terminología.

Prevalencia: número de infecciosos, I(t).

Incidencia: número de susceptibles que pasan a ser infecciosos por unidad de


tiempo, βS(t)I(t).

Tasa de transmisión: es el parámetro β.

Tasa de recuperación: es el parámetro α.

Fuerza de la infección: es la función λ(t) = βI(t), que permite definir la inci-


dencia como λ(t)S(t).

3.2.2. Epidemia endémica

El modelo más simple que podemos definir en el caso en que los efectos demográ-
ficos deban tomarse en cuenta es el siguiente:

S 0 (t) = µN − µS(t) − βS(t)I(t) S(0) = S0 > 0,


I 0 (t) = βS(t)I(t) − αI(t) − µI(t) I(0) = I0 > 0,
R0 (t) = αI(t) − µR(t) R(0) = 0,

para el cual la población total sigue siendo constante, S(t) + I(t) + R(t) = N .

La hipótesis que realizamos en este modelo es que los nacimientos tienen lugar
únicamente en la clase de los susceptibles, mientras que la muerte sucede en todas las
clases y con una tasa igual a la de nacimientos. Es decir, consideramos que el proceso
infeccioso no es un factor que aumente la tasa de mortalidad de los individuos que
son infectados.

Como en el modelo puntual, R(t) = N − S(t) − I(t) y es suficiente con resolver


el sistema

S 0 (t) = µN − µS(t) − βS(t)I(t) S(0) = S0 > 0,


I 0 (t) = (βS(t) − α − µ)I(t) I(0) = I0 > 0.

Equilibrios y estabilidad. En este modelo sí podemos extraer conclusiones del


2.3. Modelos de interacción entre especies 91

problema linealizado en torno a los puntos de equilibrio. Estos son

µ β
(S1∗ , I1∗ ) = (N, 0), (S2∗ , I2∗ ) = σ −1 , (N σ − 1) ,

donde σ = .
β α+µ

El primer punto de equilibrio recoge la situación en la que la infección endémica va


debilitándose en el tiempo hasta desaparecer (en el límite t → ∞). El segundo, bajo
la condición N σ > 1, recoge el caso en que la endemia permanece en el tiempo, es
decir, I(t) > 0 para todo t ≥ 0. Observemos que si N σ = 1 entonces (S2∗ , I2∗ ) =
(N, 0), con lo que estamos en el primer caso, y si N σ < 1 entonces S2∗ > N e I2∗ < 0,
que no tiene sentido desde el punto de vista de la modelización.

La matriz jacobiana del sistema viene dada por

−µ − βI ∗ −βS ∗
 
J= .
βI ∗ βS ∗ − (α + µ)

• Estudio del equilibrio (S1∗ , I1∗ ) = (N, 0). La matriz jacobianas evaluada en este
punto de equilibrio es
 
−µ −βN
J1 = ,
0 βN − (α + µ)

por lo que
(
det(J1 ) = −µ(βN − (α + µ)),
tr(J1 ) = βN − α − 2µ,

Usando la expresión de σ, podemos escribir



det(J1 ) = −µ β (N σ − 1),

σ
β
tr(J1 ) = (N σ − 1) − µ,

σ
de modo que vemos que el factor N σ − 1 es decisivo para el tipo de equilibrio del
sistema. En efecto, si N σ < 1 entonces
(
det(J1 ) > 0,
tr(J1 ) < 0,

con lo que (S1∗ , I1∗ ) es estable. Por otra parte, si N σ > 1 entonces det(J1 ) < 0,
de modo que este equilibrio no será estable. Finalmente, en el caso N σ = 1 el
determinante de la matriz jacobiana se anula, con lo que no podemos extraer ninguna
conclusión del sistema linealizado.
92 Modelos de reacción-difusión: Evolución y equilibrio

• Estudio del equilibrio (S2∗ , I2∗ ) = σ −1 , (N σ − 1)µ/β .




En este caso, la matriz jacobiana viene dada por


 
−N µσ −(α + µ)
J2 = ,
µ(N σ − 1) 0

por lo que si N σ > 1, entonces


(
det(J2 ) > 0,
tr(J2 ) < 0,

con lo que (S2∗ , I2∗ ) es estable. Finalmente, si N σ < 1 entonces det(J2 ) < 0, es decir,
(S2∗ , I2∗ ) no es estable.

Observación 2.3.4 Como mencionamos en la Introducción, el intercambio de es-


tabilidad entre distintos puntos de equilibrio que se produce cuando un parámetro
atraviesa cierto umbral se conoce como bifurcación. En nuestro caso, el parámetro
es N σ y el umbral es 1. Cuando N σ pasa de ser menor a mayor que uno, el equili-
brio (S1∗ , I1∗ ) pasa de ser estable a inestable, mientras que (S2∗ , I2∗ ) sufre la transición
opuesta.

Observemos finalmente que, como ocurría en el modelo de epidemia puntual, el


comportamiento de las soluciones del modelo de epidemia endémica queda determi-
nado por el valor del número de reproducción básico, que en este caso viene dado
por R0 = N σ = N β/(α + µ). La interpretación del mismo es similar a la del caso
puntual:

El tiempo 1/(α + µ) es un tiempo relacionado con el tiempo de vida prome-


dio del individuo y con el tiempo promedio durante el que un infectado es
infeccioso.

βN es el número de individuos con el que un individuo dado tiene contacto


eficiente, por unidad de tiempo.

Por tanto, R0 representa el número de individuos que tienen contacto eficiente con
un infectado durante su periodo infeccioso y durante su tiempo de vida.
2.3. Modelos de interacción entre especies 93

Ejercicios de la Sección 3
1. Clasificar los cuatro puntos de equilibrio del sistema de Lotka-Volterra aten-
diendo al tipo de interacción entre las especies: depredador-presa, competición
y mutualismo. Asumir que αi , βii son positivos, para i = 1, 2.
2. Demostrar que las soluciones (no negativas) de las ecuaciones de Lotka-Volterra
(2.9)-(2.10) de depredador-presa y de competencia están acotadas, es decir, que
existe C > 0 tal que ui (t) ≤ C para todo t > 0 y para i = 1, 2.
3. Demostrar que la ecuación (2.15), que podemos reescribir como f (x) = 0 con
f : (0, S0 ] → R definida por
S   x
0
f (x) = ln − R0 1 − ,
x N
tiene una solución única positiva en (0, S0 ).
4. Lema de Gronwall (versión diferencial). Supongamos que la función di-
ferenciable f : [0, T ] → R satisface
f 0 (t) ≤ a + bf (t) para todo t ∈ [0, T ],
donde a, b ∈ R. Entonces f (t) ≤ ebt f (0) + ab (ebt − 1) para todo t ∈ [0, T ].
Indicación: Definir la función g(t) = e−bt f (t) y probar que g 0 (t) ≤ ae−bt .
Integrando esta desigualdad, deducir el resultado.
5. Supongamos que una fracción γ (por unidad de tiempo) de infectados es some-
tida a tratamiento, y que el tratamiento reduce la infectividad en una fracción
δ, de modo que solo δT tratados permanecen infectivos. Además, supongamos
que la tasa de salida de la clase de individuos que están en tratamiento es η.
Tenemos entonces
S 0 (t) = −βS(t) I(t) + δT (t)

S(0) = S0 > 0,
I 0 (t) = βS(t) I(t) + δT (t) − (α + γ)I(t)

I(0) = I0 > 0,
0
T (t) = γI(t) − ηT (t) T (0) = 0,
R(t) = N − S(t) − I(t) − T (t).
Probar que la relación entre el tamaño de la epidemia y el número de repro-
ducción básico es
S   S∞  βN  γδ 
0
ln = R0 1 − , con R0 = 1+ .
S∞ N α+γ η
Indicación: Sumar las tres ecuaciones y deducir I∞ = T∞ = 0. Integrar Ren
(0,R ∞) la suma anterior y la tercera ecuación para obtener expresiones de I
y T . Dividir la primera ecuación por S, integrar y deducir el resultado usando
lo anterior.
94 Modelos de reacción-difusión: Evolución y equilibrio

6. En algunas enfermedades, como la gripe, los individuos no pasan directamente


del estado de susceptible al de infeccioso, sino que entran en una clase L en
la que la enfermedad está latente durante un tiempo medio 1/κ. Tras este
periodo, una fracción, p, de individuos pasan al estado infeccioso mientras que
el resto pasan a un estado asintomático (clase A), que posee una infectividad
reducida por un factor δ, y un tiempo de recuperación diferente, 1/η. El modelo
resultante es

S 0 (t) = −βS(t) I(t) + δA(t)



S(0) = S0 > 0,
0

L (t) = βS(t) I(t) + δA(t) − κL(t) L(0) = L0 > 0,
I 0 (t) = pκL(t) − αI(t) I(0) = 0,
0
A (t) = (1 − p)κL(t) − ηA(t) A(0) = 0,
R(t) = N − S(t) − L(t) − I(t) − A(t).

Probar que la relación entre el tamaño de la epidemia y el número de repro-


ducción básico es
S   S∞   p δ(1 − p) 
0
ln = R0 1 − , con R0 = βN + .
S∞ N α η

7. En ciertas enfermedades, como las de transmisión sexual, no es realista su-


poner que la tasa de contacto es proporcional al tamaño de la población. Es
razonable entonces asumir que β 0 (N ) ≤ 0, para expresar la idea de satura-
ción en el número de contactos posibles. Por otra parte, asumiremos que la
muerte puede ser un desenlace de la infección, de modo que una fracción, p,
de los αI miembros que abandonan la clase de los infectados se recuperan con
inmunidad, mientras que el resto mueren. El modelo resultante es

S 0 (t) = −β(N (t))S(t)I(t) S(0) = S0 > 0,


I 0 (t) = β(N (t))S(t)I(t) − αI(t) I(0) = I0 > 0,
R0 (t) = −pαI(t) R(0) = 0,
N 0 (t) = −(1 − p)αI(t) N (0) = S0 + I0 .

Probar:

a) La estimación del tamaño de la epidemia


 S∞  S 
0
 S∞ 
Rp 1 − ≥ ln ≥ R0 1 − ,
N0 S∞ N0

donde R0 = N0 β(N0 )/α y Rp = N0 β(pN0 )/α.


b) Que el tamaño final de la población es N∞ = pN0 + (1 − p)S∞ .
2.3. Modelos de interacción entre especies 95

8. En el siguiente modelo la población se divide en susceptibles (S), infecciosos


(I), aislados en cuarentena (Q), y recuperados (R), para los que se asume
que quedan inmunizados permanentemente. Sea N la población total y A =
S + I + R la población no aislada. Consideremos el sistema
I
S 0 = µN − µS − σS S(0) = S0 > 0,
A
I
I 0 = −(µ + γ)I + σS I(0) = I0 > 0,
A
0
Q = −(µ + ξ)Q + γI Q(0) = Q0 ,
R0 = −µR + ξQ R(0) = R0 ,

donde µ es la tasa de mortalidad, σ la tasa de infectividad, γ es la tasa a la


que los infectados abandonan la clase de infectivos, y ξ es la tasa a la que los
aislados dejan dicha clase.

a) Mostrar que el tamaño total de la población permanece constante.


b) Interpretar el significado de 1/µ, 1/γ y 1/ξ.
c) Reescalar el modelo mediante el siguiente cambio de variables

τ = σt, u = S/A, y = I/A, q = Q/A, r = R/A,

y reordenarlo del siguiente modo:

y 0 = y 1 − ν − θ + (θ − 1)y − r − (ν + ζ)q

y(0) = I0 /A0 > 0,
q 0 = (1 + q)(θy − (ν + ζ)q) q(0) = Q0 /A,
r0 = ζq − νr + r(θy − (ν + ζ)q) r(0) = R0 /A.

Expresar los nuevos parámetros en términos de los antiguos y comprobar


que las ecuaciones son adimensionales.
d ) Estudiar la estabilidad del punto de equilibrio (0, 0, 0) y deducir un nú-
mero de reproducción básico, R0 , que determine el cambio de estabilidad
del mismo.

9. El siguiente sistema contiene un término de crecimiento en el que la tasa de


natalidad sufre un declive cuando aumenta la población:

S 0 (t) = rS(t)e−aS(t) − βI(t)S(t) − µS(t) S(0) = S0 > 0,


I 0 (t) = βI(t)S(t) − (α + µ)I(t) I(0) = I0 > 0,

donde α es la tasa de mortalidad debida a la infección, µ es la tasa natural de


mortalidad, β es la tasa de transmisión de la infección y r y a son constantes
relacionadas con tal declive.

a) Calcular los (tres) equilibrios del sistema.


96 Modelos de reacción-difusión: Evolución y equilibrio

b) Estudiar la estabilidad de los siguientes equilibrios: (i) extinción de ambos


grupos (S e I) y (ii) coexistencia de ambas grupos.

10. Supongamos que una población está dividida en dos grupos con sub-poblaciones
de tamaño N1 y N2 , para las cuales el número de contactos eficientes intra e
interpoblacional es distinto, en general. Un modelo para esta situación es el
siguiente

S10 = −β11 I1 S1 − β12 I2 S1 S1 (0) = S10 ,


I10 = β11 I1 S1 + β12 I2 S1 − αI1 I1 (0) = I10 ,
R10 = αI1 R1 (0) = 0,
S20 = −β21 I1 S2 − β22 I2 S2 , S2 (0) = S20 ,
I20 = β21 I1 S2 + β22 I2 S2 − αI2 I2 (0) = I20 ,
R20 = αI2 R2 (0) = 0,

donde Si0 + Ii0 = Ni , con Ii0 > 0 para i = 1, 2 y βij y α son no negativos.

a) Deducir dos ecuaciones que determinen el tamaño de la epidemia de cada


sub-población en términos de los números de reproducción básica Rij =
Nj βij /α, para i, j = 1, 2.
b) Supongamos que β11 = β22 = 0, es decir, que los susceptibles de cada
sub-población solo son infectados por infecciosos de la otra población.
Demostrar que el sistema de ecuaciones no lineales obtenido en el apar-
tado anterior, con la hipótesis β11 = β22 = 0, tiene solución única.
2.4. Modelos con dependencia espacial 97

4. Modelos con dependencia espacial

Las poblaciones cuya dinámica estudiamos están emplazadas en un medio espa-


cial que no siempre es relevante. Por ejemplo, cuando la población se distribuye
uniformemente en el medio. Sin embargo, a menudo el medio es heterogéneo y la
distribución de la población tiene marcadas variaciones espaciales que el modelo de-
be representar. En la Sección 1 hemos deducido la ley general de conservación, en
la que figuran dos términos que recogen la variabilidad espacial:

Término de difusión. La difusión hace referencia a la tendencia que se observa


en la materia, energía, etc. a fluir de zonas de mayor concentración a zonas de
menor concentración. Pensemos, por ejemplo, en un disco metálico calentado
en su centro con una llama. Como consecuencia del aumento de energía, las
moléculas del centro iniciarán un movimiento aleatorio de pequeño recorrido
en el que transmitirán dicha energía a las moléculas adyacentes. Este compor-
tamiento se repetirá en cadena hasta alcanzar el borde del disco, difundiendo
así la energía a través del mismo.
Término de convección. La convección, advección o transporte, son fenómenos
que se modelizan de modo similar en términos matemáticos. Se trata de un
movimiento espacial inducido por alguna fuerza exterior. Por ejemplo, si estu-
diamos la evolución de la concentración de una sustancia disuelta en el agua de
un canal, deberemos tomar en cuenta el desplazamiento de la sustancia debido
a la corriente del agua.

Para deducir los modelos con dependencia espacial podríamos utilizar la ley ge-
neral de conservación deducida en la Sección 1 dotando de un contenido adecuado al
flujo q que aparece en la misma. Sin embargo, comenzaremos por deducir estos nue-
vos modelos mediante una metodología diferente, basada en el movimiento aleatorio
con tasas de transición espacial prescritas, y más adelante, en la Observación 2.4.3,
los relacionaremos con el modelo dado por la ley general de conservación.

4.1. Modelos con dependencia espacial para una especie

Supongamos que la población habita en una malla, {xi }i∈Z , contenida en R y de


paso uniforme h > 0. Es decir, con xi+1 − xi = h para todo i. También supondremos,
de momento, que no se producen nacimientos ni muertes; solo relocalización espacial.

Los individuos pueden permanecer en donde están, digamos en el nodo xi , o saltar


a los nodos adyacentes. El salto que se produce entre el instante t y el instante t + τ ,
con τ > 0, puede ser a la derecha o a la izquierda de la posición actual, xi , con cierta
tasa de transición dada por
98 Modelos de reacción-difusión: Evolución y equilibrio

Ti+ , si saltan al nodo de la derecha, es decir, de xi a xi+1 ,

Ti− , si saltan al nodo de la izquierda, es decir, de xi a xi−1 .

Observemos que no consideramos saltos de longitud mayor que h, y que las tasas de
transición deben satisfacer Ti− + Ti+ ≤ 1.

Sea u(t, xi ) la densidad de población en el instante t y en el nodo xi . La densidad


u(t + τ, xi ) puede calcularse teniendo en cuenta que los únicos nodos que pueden
afectarle son {xi−1 , xi , xi+1 }. En efecto, se tiene que u(t + τ, xi ) será la suma de:

Los individuos que llegan de xi−1 y xi+1 , esto es,

+ −
Ti−1 u(t, xi−1 ) + Ti+1 u(t, xi+1 ).

La diferencia entre los que están en xi en el instante t y los que migran a nodos
adyacentes en el instante t + τ , esto es,

u(t, xi ) − (Ti− + Ti+ )u(t, xi ).

De este modo, obtenemos


+
u(t, xi+1 ) + 1 − (Ti− + Ti+ ) u(t, xi ),

u(t + τ, xi ) = Ti−1 u(t, xi−1 ) + Ti+1

o, lo que es lo mismo,

u(t + τ, xi ) − u(t, xi ) T + u(t, xi−1 ) + Ti+1 u(t, xi+1 ) − (Ti− + Ti+ )u(t, xi )
= i−1 . (2.16)
τ τ

Por una parte, el término de la izquierda de (2.16) es claramente una discretización de


la derivada temporal de u. Puesto que nuestro objetivo final es deducir de (2.16) una
EDP, y dado que en la parte derecha u está evaluada en diferentes nodos espaciales,
manipularemos esta parte de modo que represente una discretización de derivadas
espaciales.

Por otra parte, la especificación de las tasas de transición juega un papel fun-
damental en el tipo de modelo al que dará lugar la ecuación (2.16). Por ejemplo,
en el caso trivial en el que Ti− = Ti+ = 0, la parte derecha es cero y la dinámica
es estacionaria. Por supuesto, otras especificaciones de las tasas de transición darán
lugar a modelos más interesantes. Comenzaremos con el caso no trivial más sencillo,
en el que las tasas son constantes.
2.4. Modelos con dependencia espacial 99

4.1.1. Ecuación de convección-difusión lineal

Supongamos que las tasas de transición son uniformes en espacio, es decir, Ti−
y Ti+ son constantes. Pongamos, para aligerar la notación, p = Ti− , q = Ti+ , con
p + q ≤ 1. El numerador de la parte de la derecha de (2.16) puede reescribirse como

qu(t, xi−1 ) + pu(t, xi+1 ) − (p + q)u(t, xi )


= u(t, xi−1 ) + u(t, xi+1 ) − 2u(t, xi )
+ (q − 1)(u(t, xi−1 ) − u(t, xi )) + (p − 1)(u(t, xi+1 ) − u(t, xi )),

con lo que podemos reescribir (2.16) como

u(t + τ, xi ) − u(t, xi ) h2 u(t, xi−1 ) + u(t, xi+1 ) − 2u(t, xi )


= (2.17)
τ τ h2
h(q − 1) u(t, xi ) − u(t, xi−1 )

τ h
h(p − 1) u(t, xi+1 ) − u(t, xi )
+ .
τ h
Ignorando los factores h2 /τ y h/τ , el primer término de la derecha corresponde a una
discretización de la derivada segunda de u(t, ·), mientras que los otros dos términos
son discretizaciones de su derivada primera.

Claramente, si u es diferenciable y tomamos el límite τ → 0 obtendremos


u(t + τ, xi ) − u(t, xi )
→ ∂t u(t, xi ).
τ
Sin embargo, la parte de la derecha de (2.17) no estará bien definida a menos que
tomemos h → 0 de tal manera que los factores h2 /τ , h(q − 1)/τ y h(p − 1)/τ sean
finitos en el límite. Observemos que, dejando τ fijo, es de esperar que si h  1
entonces
h(p − 1) u(t, xi+1 ) − u(t, xi ) h(q − 1) u(t, xi ) − u(t, xi−1 ) h(p − q)
− ≈ ∂x u(t, xi ),
τ h τ h τ
de modo que son los factores

h2 h(p − q)
y
τ τ
los que deben ser finitos en el límite.

Esta interdependencia que debemos asumir entre h y τ a la hora de converger a


cero es una hipótesis exógena sugerida por la experimentación.

Para que estos dos límites sean finitos cuando h, τ → 0 tenemos tres posibilidades:
100 Modelos de reacción-difusión: Evolución y equilibrio

1. h/τ → 0 y p − q → ∞,

2. h/τ , p − q tienden a límites finitos,

3. h/τ → ∞ y p − q → 0.

El primer caso queda descartado por la condición sobre las tasas de transición de
que p + q ≤ 1. El segundo caso implica que h2 /τ → 0, con lo que la difusión no
aparece en la ecuación límite, que queda como

∂t u(t, xi ) = (p − q)∂x u(t, xi ). (2.18)

Finalmente, el tercer caso es el que se denomina como límite difusivo y es el que


tiene sentido cuando se supone que el proceso discreto que modelizamos tiene un
componente aleatorio. En este caso tenemos que existen dos constantes d > 0 y
b ∈ R tales que, h2 /τ → d > 0 y h(p − q)/τ → b, y en el límite τ, h → 0 obtenemos
la ecuación

∂t u(t, xi ) = d∂xx u(t, xi ) + b∂x u(t, xi ). (2.19)

Observemos que signo(b) = signo(p − q), lo cual implica

b > 0 si Ti− > Ti+ , implicando que el término convectivo propicie un desplaza-
miento hacia la izquierda,

b < 0 si Ti− < Ti+ , implicando que el término convectivo propicie un desplaza-
miento hacia la derecha,

b = 0 si Ti− = Ti+ .

Observación 2.4.1 El proceso descrito es similar al de un camino aleatorio cuando


p + q = 1. El camino viene dado por una variable aleatoria, fn , que nos especifica
la posición del caminante en el instante nτ , el cual se desplaza a la izquierda con
probabilidad p y a la derecha con probabilidad q = 1−p. En este caso, las constantes
b y d coinciden con la esperanza, E(fn ), y la varianza, V (fn ), respectivamente. Es
por ello que, en el contexto aleatorio, el límite difusivo que da lugar a la ecuación
(2.19) es el límite correcto, dado que el que da lugar a la ecuación (2.18) implica
que V (fn ) = 0, hecho que resulta altamente improbable.
2.4. Modelos con dependencia espacial 101

4.1.2. Difusión no lineal

Supongamos que las tasas de transición en cada punto (t, xi ) vienen dadas por
Ti± = p(u(t, xi )), donde p : R → R es una no negativa, función diferenciable y no
decreciente.

Esto significa que las tasas de transición a derecha e izquierda son iguales, pero
dependen de la densidad de población que se tenga en cada nodo y en cada instante.
Como p es creciente, tendremos que una mayor densidad dará lugar a una mayor tasa
de transición. De este modo se modeliza la aversión a la superpoblación. También
se denomina presión poblacional o repulsión.

De (2.16) deducimos que


u(t + τ, xi ) − u(t, xi )
τ
h2 p(u(t, xi−1 ))u(t, xi−1 ) + p(u(t, xi+1 ))u(t, xi+1 ) − 2p(u(t, xi ))u(t, xi )
= ,
τ h2
de modo que, definiendo P (s) = sp(s), asumiendo el límite difusivo y tomando los
límites τ, h → 0 en la ecuación anterior deducimos la ecuación de difusión no lineal
∂t u(t, x) = ∂xx P (u(t, x)). (2.20)

Observación 2.4.2 Desarrollando la derivada espacial de (2.20), podemos reescri-


bir esta ecuación como

∂t u = ∂x P 0 (u)∂x u ,


e identificar el término P 0 (u) con el coeficiente de difusividad del medio.

Tomando como ejemplo de p el polinomio p(s) = csm−1 , deducimos la ecuación

∂t u = cm∂x um−1 ∂x u ,


la cual puede clasificarse del siguiente modo:

Difusividad constante: Se da para m = 1, valor para el que se recupera la


ecuación lineal (2.19) con b = 0 (Ecuación del calor).

Difusividad lenta. Se da para m > 1, y se dice de difusión lenta porque la


difusividad se detiene cuando u(t, x) = 0.

Difusividad rápida. Se da para 0 < m < 1. La difusividad tiende a infinito


cuando u(t, x) → 0. Sin embargo, observemos que en este caso p(s) no es
creciente.
102 Modelos de reacción-difusión: Evolución y equilibrio

El análisis de EDP no lineales es considerablemente más complejo que el de sus


versiones linealizadas. Baste decir que el estudio riguroso de la ecuación (2.20) con
P (s) = csm , llamada la ecuación de medios porosos, que es uno de los ejemplos más
sencillos de EDP no lineal, no comenzó a materializarse hasta los años cincuenta del
siglo XX.

Observación 2.4.3 La derivación de las EDP de esta sección puede extenderse al


caso multidimensional, es decir, cuando las poblaciones habitan en RN , en vez de en
R. En este caso, las ecuaciones toman la siguiente forma:

Ecuación del calor: ∂t u = d∆u, siendo qd = −d∇u el flujo asociado al proceso


de difusión (Ley de Fick).

Ecuación de difusión no lineal : ∂t u = ∆P (u), que a menudo se escribe en


forma de divergencia como

∂t u = div P 0 (u)∇u ,


siendo qd = −P 0 (u)∇u el flujo difusivo asociado.

Ecuación de convección-difusión lineal: ∂t u = d∆u + b · ∇u, donde b ∈ RN ,


siendo −b la dirección de transporte.
Esta última ecuación es un caso particular que se obtiene del caso general en
el que b depende de (t, x), dado por

∂t u = d∆u + div(bu).

En efecto, si div(b) = 0 (por ejemplo, porque b es constante) entonces


div(bu) = b · ∇u. En este caso, el flujo asociado se descompone en dos com-
ponentes q = qd + qa , siendo q = −d∇u el flujo difusivo y qa = bu el flujo
convectivo.

4.2. Modelos con dependencia espacial para dos especies

Veamos cómo realizar la extensión de los modelos anteriores al caso de dos espe-
cies.
2.4. Modelos con dependencia espacial 103

Denotemos por u1 (t, xi ), u2 (t, xi ) a las densidades de población de dos especies


± ±
en el instante t y en el nodo xi , y sean T1,i , T2,i sus respectivas tasas de transición.
Argumentando como en la sección anterior, obtenemos las identidades
+ − − +
u1 (t + τ, xi ) − u1 (t, xi ) h2 T1,i−1 u1 (t, xi−1 ) + T1,i+1 u1 (t, xi+1 ) − (T1,i + T1,i )u1 (t, xi )
= ,
τ τ h2
+ − − +
u2 (t + τ, xi ) − u2 (t, xi ) h2 T2,i−1 u2 (t, xi−1 ) + T2,i+1 u2 (t, xi+1 ) − (T2,i + T2,i )u2 (t, xi )
= .
τ τ h2
Nuevamente, la especificación de las tasas de transición nos proporcionarán los dis-
tintos modelos que vamos a estudiar. En todos los casos asumiremos el límite difusivo
en la deducción de las EDP.

4.2.1. Difusión lineal diagonal

Supongamos que las tasas de transición a derecha e izquierda son iguales y uni-
±
formes en espacio, Tj,i = p para todo i (nodos espaciales) y para j = 1, 2 (las
especies). La solución de este caso se sigue trivialmente del de convección-difusión
lineal analizado en la sección anterior, obteniéndose el sistema de EDP
∂t u1 (t, x) = d1 ∂xx u1 (t, x), ∂t u2 (t, x) = d2 ∂xx u2 (t, x). (2.21)
Este caso lo llamamos diagonal debido a que, escribiéndolo en términos del vector
u = (u1 , u2 ), toma la forma
  h d 0  ∂ u  i
u1 1 x 1
∂t = ∂x o bien ∂t u = ∂x (d∂x u),
u2 0 d2 ∂x u2
donde hemos suprimido la especificación del punto (t, x) en el que se evalúan las
funciones, y hemos introducido la notación
 
d1 0
d= , ∂x u = (∂x u1 , ∂x u2 )T .
0 d2
Además, es lineal porque la matriz de difusión, d, es independiente de u.

Un sistema como (2.21) se denomina desacoplado, dado que las incógnitas no


interactúan en las ecuaciones. Es decir, u2 no aparece en la primera ecuación y u1
no aparece en la segunda.

4.2.2. Difusión cruzada

Supongamos ahora que las tasas de transición dependen de las densidades de


±
población a través de ciertas funciones regulares pj : R → R, de modo que Tj,i =
pj (u1 (t, xi ), u2 (t, xi )), para j = 1, 2.
104 Modelos de reacción-difusión: Evolución y equilibrio

Asumiremos siempre que ∂1 p1 > 0 y que ∂2 p2 > 0, lo cual significa que las tasas
de transición de cada especie son una función creciente respecto la densidad de
población de esa misma especie, modelizando así la aversión a ocupar los lugares en
los que exista superpoblación de su propia especie.

Por otra parte, si ∂2 p1 > 0, entonces la primera especie también sentirá aversión
por la superpoblación de la segunda especie. Mientras que si ∂2 p1 < 0 se tendrá el
efecto contrario, un efecto de atracción de la primera especie hacia los lugares de
alta densidad de la segunda especie.

Puede verse (se deja como ejercicio) que estas tasas de transición dan lugar al
siguiente sistema de EDP acoplado:

∂t u1 = ∂x d11 (u1 , u2 )∂x u1 + d12 (u1 , u2 )∂x u2 , (2.22)

∂t u2 = ∂x d21 (u1 , u2 )∂x u1 + d22 (u1 , u2 )∂x u2 , (2.23)

donde

d11 (s1 , s2 ) = p1 (s1 , s2 ) + s1 ∂1 p1 (s1 , s2 ),


d12 (s1 , s2 ) = s1 ∂2 p1 (s1 , s2 ),
d21 (s1 , s2 ) = s2 ∂1 p2 (s1 , s2 ),
d22 (s1 , s2 ) = p2 (s1 , s2 ) + s2 ∂2 p2 (s1 , s2 ).

El sistema (2.22)-(2.23) puede escribirse en forma matricial como


  h d (u , u ) d (u , u ) ∂ u  i
u1 11 1 2 12 1 2 x 1
∂t = ∂x , (2.24)
u2 d21 (u1 , u2 ) d22 (u1 , u2 ) ∂x u2

o bien como ∂t u = ∂x (d(u)∂x u) , donde la matriz de difusión viene dada por d(u) =
dij (u1 , u2 ) , para i, j = 1, 2.

Los casos más sencillos de forma funcional de pj son los casos constante y lineal.
Si pj son funciones constantes, digamos pj (s1 , s2 ) = dj > 0, entonces recuperamos
el sistema con difusión lineal diagonal definido en (2.21).

Si pj son funciones lineales, pj (s1 , s2 ) = dj + aj1 s1 + aj2 s2 , con dj ≥ 0 y ajj > 0


(de modo que ∂j pj (u) > 0), para j = 1, 2, de (2.24) obtenemos
  h d + 2a u + a u  
u1 1 11 1 12 2 a12 u1 ∂x u1 i
∂t = ∂x (2.25)
u2 a21 u2 d2 + a21 u1 + 2a22 u2 ∂x u2

que, en general, es un sistema de EDP no lineales con difusión cruzada. Este sistema
será analizado en detalle en la Sección 5.
2.4. Modelos con dependencia espacial 105

Observación 2.4.4 Estos modelos que hemos presentado para dos especies habi-
tando en R son fácilmente extendibles tanto a la consideración de n especies (n ∈ N)
como a la de que habiten en RN (N ∈ N).

4.3. Consideraciones generales sobre los modelos en EDP

4.3.1. Formulación de problemas en EDP

Al igual que para la resolución de las EDO presentadas en las Secciones 2 y 3


necesitábamos la determinación de los datos iniciales, en el caso de los modelos
expresados en términos de EDP necesitamos información adicional para resolver el
problema. Son las llamadas condiciones auxiliares, que constan de los datos iniciales
y, además, de las condiciones de frontera.

Tomando el ejemplo de la ecuación del calor

∂t u(t, x) = d∂xx u(t, x), (2.26)

comencemos describiendo el conjunto en el que queremos definir la solución. Supon-


dremos que t ∈ [0, T ], con T elegido arbitrariamente, y que x ∈ [a, b], donde a < b.
Inicialmente, suponemos que conocemos la distribución de la población en [a, b],

u(0, x) = u0 (x) para x ∈ [a, b],

donde u0 es una función diferenciable. Este es el dato inicial.

Puesto que la EDP contiene una derivada de segundo orden, necesitamos dos
datos que nos fijen las constantes de integración. Estos datos suelen tomarse de la
frontera del dominio, puesto que a menudo es una parte fácilmente observable. Las
condiciones de frontera más usuales son

Condiciones de tipo Dirichlet, en las cuales se fija el valor de la solución en la


frontera del intervalo,

u(t, a) = ga (t), u(t, b) = gb (t) para t ∈ (0, T ).

Condiciones de tipo Neumann, en las cuales se fija el valor de la componente


normal de la derivada de la solución en la frontera del dominio espacial. Para
un intervalo [a, b], se expresa como

∂x u(t, a) = ga (t), ∂x u(t, b) = gb (t) para t ∈ (0, T ).


106 Modelos de reacción-difusión: Evolución y equilibrio

Condiciones de flujo, en las cuales se fija el valor de la componente normal del


flujo en la frontera del dominio espacial. En el ejemplo que estamos conside-
rando el flujo es −d∂x u(t, x), por lo que estas condiciones son similares a las
de Neumann.

En todos los casos, supondremos que ga y gb son funciones diferenciables. Además,


si ga ≡ gb ≡ 0, diremos que las condiciones son de tipo Dirichlet o Neumann homo-
géneas, o de flujo nulo.

Las condiciones de frontera que se utilizan normalmente en los modelos de di-


námica de poblaciones son las condiciones de flujo nulo, las cuales modelizan el
aislamiento de la población respecto el exterior del dominio espacial. En particular,
en ausencia de términos fuente, la masa total (población total) se conserva a lo largo
del tiempo. En efecto, integrando (2.26) en [a, b] obtenemos
Z b Z b
d
u(t, x)dx = d uxx (t, x)dx = d(ux (b) − ux (a)) = 0.
dt a a

La ecuación del calor ha sido deducida ignorando la presencia del término de


reacción (malthusiano, logístico, etc.) Añadiremos, pues, dicho término a nuestra
ecuación y lo denotaremos genéricamente por f (u(t, x)), donde f : R → R es una
función diferenciable, como por ejemplo, f (s) = rs en el caso malthusiano o f (s) =
rs(1 − s/K) en el logístico.

Con todo esto, ya podemos enunciar nuestro problema.

Enunciado de un problema de EDP

Hallar una función diferenciable u : [0, T ] × [a, b] → R tal que

∂t u(t, x) = d∂xx u(t, x) + f (u(t, x)) para (t, x) ∈ (0, T ) × (a, b),
∂x u(t, a) = ∂x u(t, b) = 0 para t ∈ (0, T ),
u(0, x) = u0 (x) para x ∈ [a, b].

Observamos, pues, que un problema formulado en términos de EDP de evolución


consta de los siguientes elementos:

1. Una EDP (o un sistema de EDP), que se satisface en el interior de un dominio


de tiempo-espacio, por ejemplo (0, T ) × (a, b).
2.4. Modelos con dependencia espacial 107

2. Unas condiciones de frontera, que se satisfacen en (0, T ) × {a, b}.

3. Una condición inicial, que se satisface en {0} × (a, b).

Tanto el dominio temporal como el espacial pueden ser no acotados, por ejemplo
T = ∞ y (a, b) = (−∞, ∞).

4.3.2. Existencia de soluciones y otras propiedades

Aparte de las soluciones explícitas que calculamos para los modelos malthusiano
y logístico, o las del modelo con estructura de edad, no hemos realizado este trabajo
para ninguno de los demás modelos.

La razón es que no hay un procedimiento general ni para calcular las soluciones


de EDO no lineales (siendo la ecuación logística una excepción) ni para calcular las
soluciones de problemas expresados en términos de EDP.

Ante la imposibilidad de calcular soluciones explícitas, el procedimiento habitual


de análisis suele contener los siguientes pasos:

1. Estudiar la existencia de soluciones, unicidad de las mismas y su dependen-


cia continua de los datos. Si estas propiedades se demuestran, se dice que el
problema está bien planteado.

2. El análisis cualitativo de las soluciones, es decir, la búsqueda de propiedades de


las soluciones que nos permitan hacernos una idea de cómo se comportan. Por
ejemplo, si son positivas, qué comportamiento tienen cuando t → ∞ (uniforme,
periódico), si se conserva la masa, etc.

3. La simulación numérica, que nos permita aproximar la solución para un con-


junto de parámetros fijados. Cuando sea posible, la simulación irá acompañada
de un análisis numérico previo que garantize que la discretización elegida es
consistente.

En este curso no abordaremos ninguno de estos temas de forma rigurosa. Baste


decir que, bajo condiciones adecuadas de regularidad de los datos auxiliares, puede
demostrarse que todos los problemas que hemos planteado, o que plantearemos, en
estas notas tienen solución, y que dichas soluciones, cuando representen densidades
de población, serán no negativas.
108 Modelos de reacción-difusión: Evolución y equilibrio

5. Inestabilidad de Turing: formación de patrones

Extractos del resumen de The Chemical basis of Morphogenesis, por Alan M.


Turing6 :

El propósito de este artículo es discutir un posible mecanismo mediante


el cual los genes de un cigoto7 pueden determinar la estructura anatómica
del organismo resultante.
Se ha sugerido que un sistema de sustancias químicas, llamadas morfóge-
nos8 , que reaccionan entre ellas y que se difunden a través de un tejido,
es adecuado para describir el principal fenómeno de la morfogénesis.
Tal sistema, aunque puede ser inicialmente casi homogéneo, con el tiem-
po puede desarrollar un patrón o estructura debido a la aparición de
inestabilidades en el equilibrio homogéneo, inestabilidades que son cau-
sadas por pequeñas perturbaciones aleatorias.

En esta sección estudiaremos el fenómeno de la formación de patrones en pro-


blemas de reacción-difusión mediante la metodología introducida por Turing. La
metodología puede esquematizarse de la siguiente manera:

Paso 1. Partimos de una EDO o un sistema de EDO al que, a partir de ahora, nos
referiremos como el sistema dinámico y que explicitamos en el problema

v0 (t) = f (v(t)) para t > 0, v(0) = v0 .

Supondremos que u∗ es un equilibrio uniforme del problema. Es decir, que es cons-


tante y satisface f (u∗ ) = 0. Supondremos, además, que los autovalores de la matriz
jacobiana Df (u∗ ) tienen todos parte real negativa, de modo que u∗ es un equilibrio
estable.

Paso 2. A continuación, consideremos el mismo sistema dinámico pero añadiendo


un término de difusión, el cual puede ser lineal o no lineal. De momento, lo denotamos
de forma general por ∂x (Au(t, x)) y consideramos el problema de evolución

∂t u(t, x) − ∂x (Au(t, x)) = f (u(t, x)) para (t, x) ∈ (0, ∞) × (a, b), (2.27)
Au(t, a) = Au(t, b) = 0 para t ∈ (0, ∞), (2.28)
u(0, x) = v0 para x ∈ [a, b]. (2.29)
6
Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, Vol.
237, No. 641. (Aug. 14, 1952), pp. 37-72.
7
Célula resultante de la unión de las células sexuales masculina y femenina, a partir de la cual
se desarrolla el embrión.
8
Sustancias que intervienen en el crecimiento o en la forma del embrión.
2.5. Inestabilidad de Turing: formación de patrones 109

El correspondiente problema de equilibrio o estacionario se obtiene al suponer que


existen soluciones del problema de evolución que son independientes del tiempo, con
lo que satisfacen

− ∂x (AU(x)) = f (U(x)) para x ∈ (a, b),


AU(a) = AU(b) = 0.

Este problema puede tener múltiples soluciones, constantes o no. Pero, en los casos
particulares de A que estudiaremos, los equilibrios u∗ del sistema dinámico serán
siempre soluciones de este problema estacionario.

Ejemplo 2.5.1 Consideremos el término de reacción logístico f (s) = s(α − βs),


con α, β > 0, y la difusión lineal Au = d∂x u, con d > 0, de modo que el sistema
dinámico

v 0 (t) = f (t), para t > 0, v(0) = v0

tiene como único equilibrio uniforme estable a u∗ = α/β. El problema de reacción-


difusión asociado es

∂t u(t, x) − d∂xx u(t, x) = f (u(t, x)) para (t, x) ∈ (0, ∞) × (a, b),
∂x u(t, a) = ∂x u(t, b) = 0 para t ∈ (0, ∞),
u(0, x) = v0 para x ∈ [a, b].

Y sus correspondientes equilibrios son las soluciones del problema

− d∂xx U (x) = f (U (x)) para x ∈ (a, b),


∂x U (a) = ∂x U (b) = 0.

Entre las posibles soluciones de este problema se encuentra el equilibrio estable del
sistema dinámico, u∗ = α/β, ya que satisface f (u∗ ) = 0 y, al ser constante, sus
derivadas son cero, con lo que satisface ∂xx u∗ = 0 y las condiciones de frontera.

Paso 3. De los pasos anteriores sabemos que el equilibrio estable para el sistema
dinámico, u∗ , es también un equilibrio del sistema con difusión. A continuación,
queremos determinar si dicho equilibrio es estable o no para el problema con difusión.

Concretamente, queremos responder a la siguiente pregunta: ¿Puede darse la si-


tuación en la cual, debido a la introducción del término de difusión en el problema
(2.27)-(2.29), el equilibrio u∗ sea inestable para dicho problema? Y, en caso afirma-
tivo, ¿Puede ser el nuevo equilibrio algo diferente de una constante, algo que tenga
una estructura espacial no trivial (patrones)?

Antes de intentar responder estas cuestiones debemos especificar lo que entende-


mos por estabilidad de un equilibrio del sistema con difusión.
110 Modelos de reacción-difusión: Evolución y equilibrio

Definición 7 Diremos que u∗ es un equilibrio estable del problema (2.27)-(2.29) si


la solución u del problema perturbado

∂t u(t, x) − ∂x (Au(t, x)) = f (u(t, x)) para (t, x) ∈ (0, ∞) × (a, b),
Au(t, a) = Au(t, b) = 0 para t ∈ (0, ∞),
u(0, x) = u∗ + ε(x) para x ∈ [a, b],

satisface lı́mt→∞ u(t, x) = u∗ . Aquí, asumimos que la función de perturbación del


dato inicial satisface kε(x)k < ε, con ε > 0 pequeño.

Es decir, u∗ es un equilibrio estable de (2.27)-(2.29) si, cuando resolvemos dicho


problema con un dato inicial que es una pequeña perturbación de u∗ entonces la
solución vuelve a converger a u∗ .

Ejemplo 2.5.2 Retomando el ejemplo anterior, para comprobar si u∗ = α/β es un


equilibrio estable del sistema con difusión, debemos determinar si la solución de

∂t u(t, x) − d∂xx u(t, x) = f (u(t, x)) para (t, x) ∈ (0, ∞) × (a, b),
∂x u(t, a) = ∂x u(t, b) = 0 para t ∈ (0, ∞),
u(0, x) = u∗ + ε(x) para x ∈ [a, b],

converge a u∗ cuando t → ∞.

En general, y al igual que sucede con sistemas de EDO no lineales, no resulta sencillo
demostrar este comportamiento. Por ello se recurre a una noción de equilibrio que
es más sencilla de manejar y que, en ciertas ocasiones, es equivalente a la anterior
(como también ocurre con los sistemas de EDO). Se trata de la estabilidad lineal.

Definición 8 Diremos que u∗ es un equilibrio linealmente estable del problema


(2.27)-(2.29) si la solución w del problema trasladado, linealizado y perturbado sa-
tisface lı́mt→∞ w(t, x) = 0.

El planteamiento del problema linealizado la dejamos para más adelante, pero ya


anunciamos que es un problema que sabemos resolver mediante, por ejemplo, el
método de variables separadas. Sin embargo, como en el ejemplo que estamos consi-
derando el término de difusión es lineal, el problema linealizado es fácil de plantear
y bien conocido.

Ejemplo 2.5.3 Retomando el ejemplo, el problema trasladado respecto u∗ = α/β


y perturbado en el dato inicial se obtiene introduciendo el cambio de incógnita ϕ =
2.5. Inestabilidad de Turing: formación de patrones 111

u − u∗ , que mide la distancia entre la solución y el equilibrio, y el dato inicial


u(0, x) = u∗ + ε(x). Tenemos entonces que ϕ satisface el problema
∂t ϕ(t, x) − d∂xx ϕ(t, x) = f (ϕ(t, x) + u∗ ) para (t, x) ∈ (0, ∞) × (a, b),
∂x ϕ(t, a) = ∂x ϕ(t, b) = 0 para t ∈ (0, ∞),
ϕ(0, x) = ε(x) para x ∈ [a, b].
A continuación, procedemos a linealizar la EDP. Los términos de evolución y difu-
sión son ya lineales, por lo que solo tenemos que operar con el de reacción. Utilizando
el Teorema de Taylor, tenemos que
f (s + u∗ ) = f (u∗ ) + f 0 (u∗ )s + O(s2 ).
Por tanto, usando que f (u∗ ) = 0 y despreciando los términos de orden superior
al lineal en el desarrollo de Taylor, planteamos el siguiente problema lineal, al que
llamaremos, para abreviar, problema linealizado (en lugar de problema trasladado,
perturbado y linealizado):
∂t w(t, x) − d∂xx w(t, x) = f 0 (u∗ )w(t, x) para (t, x) ∈ (0, ∞) × (a, b),
∂x w(t, a) = ∂x w(t, b) = 0 para t ∈ (0, ∞),
w(0, x) = ε(x) para x ∈ [a, b].

5.1. Modelos con un especie

Sea f : R → R una función diferenciable tal que para cierto u∗ ≥ 0 se tiene


f (u∗ ) = 0 y f 0 (u∗ ) < 0, de modo que u∗ es un equilibrio estable para el sistema
dinámico
v 0 (t) = f (v(t)), para t > 0, v(0) = v0 .
Consideremos a continuación el problema de reacción-difusión
∂t u(t, x) − ∂xx P (u(t, x)) = f (u(t, x)) para (t, x) ∈ (0, ∞) × (0, π),
∂x u(t, 0) = ∂x u(t, π) = 0 para t ∈ (0, ∞),
u(0, x) = u0 (x) para x ∈ [0, π],
donde P (s) = sp(s), siendo p(s) una función no negativa, diferenciable y no de-
creciente, véase la Sección 4.1.2. Observemos que si elegimos p(s) = d, con d > 0
constante, entonces el problema es el de difusión lineal.

Observación 2.5.1 Hemos reemplazado el intervalo genérico (a, b) por (0, π). Esto
puede hacerse siempre mediante la introducción del cambio de variable y = π(x −
a)/(b − a) sin afectar a los equilibrios del sistema dinámico (aunque introduciendo
ciertas constantes de corrección, véase el Ejercicio 1). Trabajar en este intervalo
espacial facilitará los cálculos y simplificará la notación.
112 Modelos de reacción-difusión: Evolución y equilibrio

El problema linealizado correspondiente se obtiene linealizando los términos de


reacción y difusión respecto al equilibrio v ∗ . Usando el Teorema de Taylor, obtenemos
f (s + u∗ ) = f (u∗ ) + f 0 (u∗ )s + O(s2 ),
P (s + u∗ ) = P (u∗ ) + P 0 (u∗ )s + O(s2 ).
Introduciendo el cambio de incógnita w = u − u∗ , el dato inicial u0 = u∗ − ε y
despreciando los términos no lineales de los desarrollos de Taylor, deducimos el
problema linealizado dado por
∂t w(t, x) − P 0 (u∗ )∂xx w(t, x) = f 0 (u∗ )w(t, x) para (t, x) ∈ (0, ∞) × (a, b),
∂x w(t, a) = ∂x w(t, b) = 0 para t ∈ (0, ∞),
w(0, x) = ε(x) para x ∈ [a, b].
Observemos que, por definición de P , tenemos P 0 (u∗ ) = p(u∗ ) + u∗ p0 (u∗ ) > 0. Esta
es una condición necesaria para la existencia de soluciones del problema linealizado
que deberá ser asumida siempre. De lo contrario, el término −P 0 (u∗ )∂x w(t, x) deja
de representar un flujo difusivo, es decir, un flujo de regiones de mayor concentración
a regiones de menor concentración.

El problema linealizado puede resolverse mediante el método de variables sepa-


radas.

El método de variables separadas

Consiste en buscar la solución como combinación lineal de funciones de la forma

wk,λ (t, x) = eλt (a1k sin(kx) + a2k cos(kx))

siguiendo los siguientes pasos:

Paso 1. Imponer las condiciones de frontera sobre cada función wk,λ . Esto nos
proporcionará un conjunto numerable de valores para k, es decir k ≡ kn , para
n ∈ N.

Paso 2. Imponer que cada wkn ,λ satisfaga la EDP. Esto nos proporcionará una
relación entre λ y kn . Ponemos entonces λ ≡ λn , y escribimos wn en lugar de wkn ,λn ,
y a1n , a2n en lugar de a1kn , a2kn

Paso 3. Tomar como solución candidata a la superposición de todas las funciones


obtenidas en el Paso 2:
X
w(t, x) = eλn t (a1n sin(kn x) + a2n cos(kn x)),
n∈N

y determinar a1n , a2n , si es posible, a partir del desarrollo de Fourier del dato inicial.
2.5. Inestabilidad de Turing: formación de patrones 113

Apliquemos esta metodología a nuestro problema linealizado.

Paso 1. Deben satisfacerse las condiciones de frontera

∂x wk,λ (t, 0) = ∂x wk,λ (t, π) = 0.

Para k = 0, wk,λ (t, x) es constante, luego satisface la condición de frontera. Para


k 6= 0, después de simplificar, obtenemos las condiciones

a1 cos(0) − a2 sin(0) = 0, a1 cos(kπ) − a2 sin(kπ) = 0.

con lo cual debe ser a1 = 0, a2 arbitrario y k ∈ N (aquí se ve la ventaja de trabajar


en el intervalo (0, π)). Por tanto, wk,λ es de la forma

wk,λ (t, x) = a2k eλt cos(kx).

Paso 2. Debe satisfacerse la EDP

∂t wk,λ (t, x) − P 0 (u∗ )∂xx wk,λ (t, x) = f 0 (u∗ )wk,λ (t, x),

es decir

a2k λeλt cos(kx) + P 0 (u∗ )k 2 a2k eλt cos(kx) = f 0 (u∗ )a2k eλt cos(kx).

Simplificando, obtenemos la relación entre λ y k dada por λk = −P 0 (u∗ )k 2 + f 0 (u∗ ),


donde hemos introducido la notación λk reemplazando a λ. Observemos que λk < 0.

Paso 3. Finalmente, si el dato inicial admite una desarrollo en serie de Fourier


en términos de cosenos (algo que siempre asumiremos), entonces las constantes a2k
vendrán determinadas por dicho desarrollo. En efecto, tendremos que
X
w(t, x) = eλk t a2k cos(kx),
k∈N

con a2k determinadas por


X
ε(x) = w(0, x) = a2k cos(kx),
k∈N

de modo que a2k son los coeficientes de Fourier de ε(x).

La conclusión es inmediata. Puesto que λk < 0 para todo k ∈ N, deducimos que el


término exponencial de w hace que w(t, x) → 0 cuando t → ∞ para todo x ∈ (0, π).
Por tanto, u∗ es linealmente estable tanto para el sistema dinámico como para el
problema de difusión lineal y no lineal.

Concluimos que la introducción de difusión en la modelización de problemas con


una especie no puede alterar nunca el carácter estable de un equilibrio del sistema
dinámico. En este caso no puede darse, por tanto, la formación de patrones.
114 Modelos de reacción-difusión: Evolución y equilibrio

5.2. Modelos con dos especies: discusión general

Sea f : R2 → R2 una función diferenciable tal que para cierto u∗ = (u∗1 , u∗2 ) ∈ R2 ,
con u∗1 , u∗2 ≥ 0 se tiene f (u∗ ) = 0,

tr(Df (u∗ )) < 0 y det(Df (u∗ )) > 0, (2.30)

de modo que u∗ es un equilibrio estable para el sistema dinámico

v0 (t) = γf (v(t)), para t > 0, v(0) = v0 , (2.31)

donde γ > 0 es una constante que introducimos por conveniencia, véase la Observa-
ción 2.5.2.

Sean cuales sean las formas de f y del término de difusión que consideremos, el
problema linealizado siempre lo podemos escribir de la forma

∂t w − d(u∗ )∂xx w = γDf (u∗ )w para (t, x) ∈ (0, T ) × (0, π), (2.32)

donde la matriz constante d(u∗ ) se denomina matriz de difusión del problema linea-
lizado, y w = (w1 , w2 ) satisface las condiciones de frontera e iniciales

∂x w1 (t, 0) = ∂x w2 (t, 0) = ∂x w1 (t, π) = ∂x w2 (t, π) = 0 para t ∈ (0, T ), (2.33)


w1 (0, x) = ε1 (x), w2 (0, x) = ε2 (x) para x ∈ (0, π). (2.34)

Al igual que en el modelo con una especie, en este punto nos encontramos con
que la matriz de difusión d(u∗ ) debe satisfacer ciertas condiciones que aseguren la
existencia de soluciones del problema linealizado. Estas condiciones son

d11 (u∗ ) > 0, d22 (u∗ ) > 0 y d11 (u∗ )d22 (u∗ ) > |d12 (u∗ )d21 (u∗ )|. (2.35)

En particular, tr(d(u∗ )) y det(d(u∗ )) deben ser positivos.

El problema (2.49)-(2.34) es, por construcción, un problema lineal con coeficientes


constantes que podemos resolver por el método de separación de variables. Como
en el caso de una especie, teniendo en cuenta las condiciones de frontera (2.50),
buscaremos soluciones particulares de la forma

w(t, x) = eλt cos(kx)wk , con k ∈ N, (2.36)

donde w es un vector constante.

Sustituyendo (2.36) en (2.49), obtenemos el siguiente problema matricial de au-


tovalores

Ak w = λw, donde Ak = γDf (u∗ ) − k 2 d(u∗ ). (2.37)


2.5. Inestabilidad de Turing: formación de patrones 115

Para cada número de onda, k ∈ N, este problema de autovalores tendrá, en general,


dos autovectores linealmente independientes wjk , j = 1, 2. La ecuación característica
asociada a (2.37) es

λ2 − tr(Ak )λ + det(Ak ) = 0,

de modo que los autovalores vienen dados por


1 p 
λ1k = tr(Ak ) + tr(Ak )2 − 4 det(Ak ) , (2.38)
2
1 p 
λ2k = tr(Ak ) − tr(Ak )2 − 4 det(Ak ) . (2.39)
2
Por tanto, la solución particular del problema de evolución asociada al número de
onda k es de la forma

c1k w1k eλ1k t + c2k w2k eλ2k t cos(kx),



(2.40)

donde los coeficientes cjk son constantes que se determinan a partir del desarrollo
de Fourier de los datos iniciales w0 .

Finalmente, la solución general del problema linealizado viene dada por la super-
posición de las soluciones particulares (2.40):
X
c1k w1k eλ1k t + c2k w2k eλ2k t cos(kx).

w(t, x) =
k∈N

Se deduce de esta expresión que los autovalores (λ1k , λ2k ) determinan el comporta-
miento de la solución del problema linealizado, w(t, x), cuando t → ∞. En efecto,

Si Re(λjk ) < 0 para j = 1, 2, y para todo k ∈ N entonces lı́mt→∞ w(t, x) = 0,


es decir, todos los modos de la solución, cos(kx), decaen en amplitud. Por
tanto, el equilibrio u∗ es linealmente estable para el problema con difusión.
Si Re(λjk ) > 0 para algún j = 1, 2 y algún k ∈ N, entonces la amplitud
del modo asociado crece exponencialmente. En este caso, el equilibrio u∗ es
linealmente inestable para el problema con difusión.

Bifurcación de Turing

El estudio de la bifurcación de Turing está íntimamente ligado al de la estabilidad


de los equilibrios.

Se produce cuando, partiendo de un conjunto de parámetros del problema para


los que Re(λjk ) < 0 para todo j y k, se pasa, debido a una pequeña perturbación
de la matriz de difusión, a tener que existen un j y un k tales que Re(λjk ) > 0.
116 Modelos de reacción-difusión: Evolución y equilibrio

Es decir, el equilibrio u∗ que, en general, depende de los parámetros del proble-


ma, pasa de ser linealmente estable para el sistema con difusión a ser linealmente
inestable para el mismo.

Por tanto, buscaremos las condiciones bajo las cuales una variación de los pará-
metros de la matriz de difusión implique un cambio de signo, de negativo a positivo,
en la parte real de algún autovalor λjk , para algún j = 1, 2 y algún k ∈ N.

Puesto que

tr(Ak ) = γ tr(Df (u∗ )) − k 2 tr(d(u∗ ))

y, por las hipótesis (2.30) y (2.35), tenemos que tr(Df (u∗ )) < 0 y tr(d(u∗ )) > 0,
deducimos que tr(Ak ) < 0. Por tanto, el único modo de tener Re(λjk ) > 0 es que
det(Ak ) se haga negativo, véase la expresión de los autovalores (2.38)-(2.39).

De este modo, el estudio de la bifurcación de Turing se reduce al estudio del signo


de det(Ak ) como función de los parámetros que intervienen en la definición de d(u∗ ).

Normalmente, este estudio se realiza sobre un único parámetro, el parámetro de


bifurcación, que denotaremos por b, y el análisis que realizaremos se centrará en
comprobar si existe cierto bc tal que

det(Ak ) > 0 si b < bc (u∗ linealmente estable),


det(Ak ) < 0 si b > bc (u∗ linealmente inestable).

A bc le llamaremos parámetro de bifurcación crítico.

Introduzcamos la notación h(k 2 ) = det(Ak ) donde, sea cual sea la matriz de


difusión linealizada, siempre podremos escribir esta función como

det(Ak ) = det(d(u∗ ))k 4 + γqk 2 + γ 2 det(Df (u∗ )), (2.41)

donde q tomará diferentes formas en función del problema que estemos analizando.

A partir de ahora analizaremos h(k 2 ) como una función de variable real, es decir,
con k ∈ R, en vez de k ∈ N. Al final del análisis consideraremos la restricción de
nuestros resultados a k natural.

Observemos que h, como función de k 2 , es una parábola convexa ya que det(d(u∗ )) >
2
0. Por tanto, debe tener un punto de mínimo, al que denotaremos por km . Enton-
ces, para que pueda haber inestabilidad deben satisfacerse, al menos, las siguientes
condiciones:
2
km ∈ R y h(km ) < 0. (2.42)
2.5. Inestabilidad de Turing: formación de patrones 117

2
Claramente, km depende de los parámetros del problema (los coeficientes de reacción,
de difusión, etc.), de modo que en particular, al variar el parámetro de bifurcación
2
b, variará el punto de mínimo km .

Suponiendo que km ∈ R y puesto que es más sencillo analizar igualdades que


desigualdades, primero nos preguntamos si es posible que, mediante la variación
2
del parámetro de bifurcación, se obtenga h(km ) = 0. De ser posible, usaremos la
2
notación kc para denotar a tal número. A kc le llamaremos número de onda crítico,
siendo el valor correspondiente de b (denotado por bc ) el parámetro de bifurcación
crítico. Es decir, bc queda determinado por tenerse que, para b = bc , el valor mínimo
de h(k 2 ) es cero.

Entonces, como h(k 2 ) es una parábola convexa, tendremos una situación parecida
a la siguiente: si b > bc entonces h(k 2 ) < 0 para k 2 ∈ (k12 , k22 ). Es decir, los números
de onda k ∈ (k1 , k2 ) corresponderán a modos cos(kx) inestables, ya que el autovalor
correspondiente, λkj será positivo y, por tanto, como w(t, x) está dado por

X
c1k w1k eλ1k t + c2k w2k eλ2k t cos(kx),

w(t, x) =
k∈N

alguno de sus sumandos tenderá a infinito cuando t → ∞.

Finalmente, recuperemos la restricción de que k sea natural. Para que w(t, x)


tenga uno o más modos inestable, el intervalo de números de onda inestables (k1 , k2 )
debe contener algún número natural. De lo contrario no veremos la inestabilidad.

Aquí es donde justificamos la consideración de la constante γ > 0 que introduji-


mos por conveniencia al principio de esta sección.

Observación 2.5.2 Justifiquemos la introducción del parámetro γ en la formula-


ción del problema (2.31). Usando la notación hγ (k 2 ) para incidir en la dependencia
de h respecto γ, de la definición (2.41) se sigue que si ki2 , para i = 1, 2 son las raíces
de h1 (k 2 ) entonces γki2 son las raíces de hγ (k 2 ). Por tanto, suponiendo que existe un
parámetro de bifurcación crítico, bc , se sigue que, tomando γ suficientemente grande,
√ √
siempre podremos obtener un intervalo de inestabilidad ( γk1 , γk2 ) conteniendo
números enteros.
118 Modelos de reacción-difusión: Evolución y equilibrio

5.3. Modelos con dos especies: difusión lineal diagonal y


reacción general

En la situación de la sección anterior, es decir, asumiendo (2.30) y planteando el


sistema dinámico (2.31), consideremos el problema con difusión dado por
∂t u1 − d1 ∂xx u1 = γf1 (u1 , u2 ) en (0, T ) × (0, π), (2.43)
∂t u2 − d2 ∂xx u2 = γf2 (u1 , u2 ) en (0, T ) × (0, π), (2.44)
∂x u1 (t, 0) = ∂x u2 (t, 0) = ∂x u1 (t, π) = ∂x u2 (t, π) = 0 para t ∈ (0, T ), (2.45)
u1 (0, x) = u10 (x), u2 (0, x) = u20 (x) para x ∈ (0, π), (2.46)

En lo que sigue, resultará práctico reescribir las ecuaciones (2.43)-(2.44) en forma


matricial como
∂t u − d∂xx u = γf (u), (2.47)
siendo d la matriz diagonal con elementos positivos d1 , d2 (independientes de u∗ ).

Claramente, el equilibrio u∗ del sistema dinámico satisface (2.43)-(2.45) ya que


es constante y tal que f (u∗ ) = 0.

En las secciones que siguen definiremos el problema linealizado correspondiente y


lo resolveremos con el fin de averiguar si existen condiciones sobre los datos (difusión
y reacción) que impliquen la inestabilidad lineal de u∗ para el sistema con difusión,
y si esta inestabilidad conduce a la formación de patrones.

5.3.1. El problema linealizado

La linealización de la ecuación (2.47) en torno a u∗ se realiza de modo análogo al


caso de una única ecuación. Definiendo w = u − u∗ , sustituyendo en (2.47) y usando
que u∗ es constante obtenemos que w satisface
∂t w − d∂xx w = γf (u∗ + w). (2.48)
Asumiendo que f es dos veces diferenciable con continuidad, su desarrollo de Taylor
en torno a u∗ proporciona la identidad
f (u∗ + w) = γDf (u∗ )w + O(kwk2 ),
donde hemos usado que f (u∗ ) = 0. El problema linealizado correspondiente a (2.48)
se obtiene entonces reteniendo únicamente los términos lineales del desarrollo de
Taylor, es decir, reemplazando (2.48) por
∂t w − d∂xx w = γDf (u∗ )w. (2.49)
2.5. Inestabilidad de Turing: formación de patrones 119

Este sistema lo completamos con las condiciones auxiliares (lineales) que se deducen
de (2.45)-(2.46), y de considerar el dato inicial como una perturbación del equilibrio
∂x w1 (t, 0) = ∂x w2 (t, 0) = ∂x w1 (t, π) = ∂x w2 (t, π) = 0 para t ∈ (0, T ), (2.50)
w1 (0, x) = ε1 (x), w2 (0, x) = ε2 (x) para x ∈ (0, π).

Puesto que d1 , d2 son positivos, la condición (2.35) para la existencia de soluciones


del problema linealizado se satisface trivialmente.

En este caso particular de matriz de difusión, tenemos que h(k 2 ) = det(Ak ) viene
dada por
h(k 2 ) = d1 d2 k 4 + γqk 2 + γ 2 det(Df (u∗ )),
con
q = −(d2 ∂1 f1 (u∗ ) + d1 ∂2 f2 (u∗ )).
El punto de mínimo de h es

2 d2 ∂1 f1 (u∗ ) + d1 ∂2 f2 (u∗ )
km =γ . (2.51)
2d1 d2
La primera condición de (2.42), que km sea real, implica que debe satisfacerse la
siguiente condición necesaria de inestabilidad:
d2 ∂1 f1 (u∗ ) + d1 ∂2 f2 (u∗ ) ≥ 0. (2.52)
La condición (2.30) de que u∗ sea estable para el sistema dinámico implica que
∂1 f1 (u∗ ) + ∂2 f2 (u∗ ) < 0. Por tanto, teniendo en cuenta (2.52), deducimos que
∂1 f1 (u∗ ) y ∂2 f2 (u∗ ) deben ser no nulos y con signos diferentes.

La condición suficiente de inestabilidad es que el valor mínimo de h sea nega-


tivo, de modo que pueda haber un autovalor con parte real positiva. Reemplazando
(2.51) en h(k 2 ) y simplificando, obtenemos que este valor está dado por
2
2 2
h
∗ d2 ∂1 f1 (u∗ ) + d1 ∂2 f2 (u∗ ) i
h(km ) = γ det(Df (u )) − . (2.53)
4d1 d2

5.3.2. Elección del parámetro de bifurcación y valores críticos

Asumiendo la condición necesaria de inestabilidad (2.52), examinemos cuándo se


2 2
alcanza el valor crítico h(km ) = 0. Operando en (2.53), podemos reescribir h(km )
como función de la ratio r = d2 /d1 de la siguiente manera:

2 γ2
h(km )=− p(r), (2.54)
4r
120 Modelos de reacción-difusión: Evolución y equilibrio

donde p(r) es el polinomio cuadrático dado por


2
p(r) = ∂1 f1 (u∗ ) r2 + 2 2∂2 f1 (u∗ )∂1 f2 (u∗ ) − ∂1 f1 (u∗ )∂2 f2 (u∗ ) r

(2.55)
2
+ ∂2 f2 (u∗ ) .
2
Claramente, h(km ) = 0 ⇐⇒ p(r) = 0 para algún r 6= 0.

Estudiemos las raíces de p(r). Escribiendo, por abreviar, p(r) = ar2 + br + c,


tenemos que
b
= 2∂2 f1 (u∗ )∂1 f2 (u∗ ) − ∂1 f1 (u∗ )∂2 f2 (u∗ )
2
= −2 det(Df (u∗ )) + ∂1 f1 (u∗ )∂2 f2 (u∗ ).
Como la condición (2.52) junto con (2.30) (u∗ estable para el sistema dinámico)
implican que ∂1 f1 (u∗ )∂2 f2 (u∗ ) < 0, deducimos que b2 > 4ac, con lo que p(r) tiene
dos raíces reales distintas. Factorizando p como p(r) = a(r − r1 )(r − r2 ) vemos que
ar1 r2 = c y a(r1 + r2 ) = −b > 0, luego ambas raíces son positivas y, además,
c ∂2 f2 (u∗ ) 2
r1 r2 = = ,
a ∂1 f1 (u∗ )
de modo que, al ser r1 6= r2 , debe tenerse9
∂2 f2 (u∗ )
r1 > > r2 .
∂1 f1 (u∗ )

Volviendo a las ratios de difusión, la condición necesaria (2.52) solo se satisface


si se da una de estas situaciones. O bien
d2 ∂2 f2 (u∗ )
Caso 1: ∂1 f1 (u∗ ) > 0, ∂2 f2 (u∗ ) < 0, y ≥− ,
d1 ∂1 f1 (u∗ )
o bien
d2 ∂2 f2 (u∗ )
Caso 2: ∂1 f1 (u∗ ) < 0, ∂2 f2 (u∗ ) > 0, y ≤− ,
d1 ∂1 f1 (u∗ )
En el primer caso, si d2 /d1 > r1 entonces tendremos p(d2 /d1 ) > 0, por ser p(r) una
2
parábola convexa, y en consecuencia, h(km ) < 0. Similarmente, en el segundo caso
2
tendremos h(km ) < 0 si d2 /d1 < r2 .

Por tanto, definimos como parámetro de bifurcación a la ratio de difusión d2 /d1 ,


y como parámetro de bifurcación crítico a la raíz de p(r)
(
r1 si ∂1 f1 (u∗ ) > 0, ∂2 f2 (u∗ ) < 0,
rc =
r2 si ∂1 f1 (u∗ ) < 0, ∂2 f2 (u∗ ) > 0.
9
Asumimos, sin pérdida de generalidad, que r1 > r2 .
2.5. Inestabilidad de Turing: formación de patrones 121

Los coeficientes de difusión críticos son aquellos dc1 , dc2 , que satisfacen dc2 /dc1 = rc ,
y el número de onda crítico correspondiente es kc = km (dc1 , dc2 ), con km dado por
(2.51).

Si d2 /d1 > rc = r1 (Caso 1) o d2 /d1 < rc = r2 (Caso 2) entonces h(k 2 ) tiene dos
raíces reales, que denotamos por k12 , k22 . Tenemos que h(k 2 ) < 0 para k 2 ∈ (k12 , k22 ),
de modo que (k1 , k2 ) es un intervalo candidato para contener números de onda, k,
que produzcan modos inestables.

Debido a que las condiciones de frontera imponen que los números de onda deben
ser números enteros, los modos inestables aparecerán solo si (k1 , k2 ) ∩ Z 6= ∅. Re-
cordando la Observación 2.5.2, sabemos que esto será cierto si γ es suficientemente
grande.

Resumimos nuestros hallazgos en el siguiente teorema.

Teorema 2.5.21 Consideremos el problema (2.43)-(2.46). Supongamos que u∗ ∈


R2 es un punto de equilibrio estable para el sistema dinámico asociado, es decir, que
f (u∗ ) = 0, tr(Df (u∗ )) < 0, det(Df (u∗ )) > 0. (2.56)
Sea p(r) el polinomio definido en (2.55) y r1 > r2 > 0 sus dos raíces. Supongamos
que se da uno de los siguientes casos
d2
∂1 f1 (u∗ ) > 0, ∂2 f2 (u∗ ) < 0, > r1 o (2.57)
d1
d2
∂1 f1 (u∗ ) < 0, ∂2 f2 (u∗ ) > 0, < r2 . (2.58)
d1
Entonces, si γ es suficientemente grande, el equilibrio uniforme u∗ del problema
(2.43)-(2.46) es linealmente inestable.

5.3.3. Ejemplos

Aplicación al sistema de Lotka-Volterra de competencia. Consideremos


las funciones de reacción del sistema de Lotka-Volterra de competencia, dadas por
fi (u) = αi ui − (βi1 u1 + βi2 u2 )ui , donde αi , βij ≥ 0, para i, j = 1, 2.

El equilibrio de coexistencia dado por


 β α −β α β11 α2 − β21 α1 
22 1 12 2
u∗ = , (2.59)
β11 β22 − β12 β21 β11 β22 − β12 β21
tiene sentido (componentes positivas) bajo las hipótesis
β22 α1 > β12 α2 , β11 α2 > β21 α1 , y det(B) > 0, donde B = (βij ). (2.60)
122 Modelos de reacción-difusión: Evolución y equilibrio

Este equilibrio es estable para el sistema dinámico, ya que (Ejercicio 2)

−β11 u∗1 −β12 u∗1


 

Df (u ) = , (2.61)
−β21 u∗2 −β22 u∗2

por lo que se satisfacen las condiciones de estabilidad (2.56). Sin embargo, no se


satisface la condición necesaria de inestabilidad (2.52). En consecuencia, u∗ es tam-
bién linealmente estable para el problema con difusión, para cualquier elección de
d1 y d2 .

Más concretamente, observemos que como ∂1 f1 (u∗ ) y ∂2 f2 (u∗ ) son negativos,


el punto de mínimo de h(k 2 ) definido en (2.51) da lugar a valores de km que son
imaginarios, lo cual implica que h(k 2 ) > 0 y, por tanto, los autovalores de Ak tienen
parte real negativa.

Un sistema con bifurcación de Turing: el modelo de Schnackenberg. El


sistema de reacción-difusión (2.43)-(2.46) con γ = 1 y términos de reacción

f1 (u) = 1 − u1 + u21 u2 , f2 (u) = 2 − u21 u2 ,

es una versión simplificada del modelo de Schnackenberg, que aparece en la mode-


lización de reacciones químicas autocatalíticas.

Se deduce fácilmente que u∗ = (3, 2/9) es un equilibrio de coexistencia. Tenemos


   1 
−1 + 2u1 u2 u21 ∗ 3
9
Df (u) = de modo que Df (u ) = .
−2u1 u2 −u21 − 43 −9

Deducimos entonces que u∗ es estable para el sistema dinámico de EDO. La condi-


ción necesaria de inestabilidad se satisface (Caso 1). El polinomio p(r) definido en
(2.55) tiene la forma

1
p(r) = r2 − 42r + 81
9
y posee dos raíces reales positivas, siendo la mayor de ellas rc ≈ 376. Por tanto, u∗
es linealmente inestable para el sistema de EDP si d2 > rc d1 , es decir, si la segunda
sustancia se difunde mucho más rápidamente que la primera.

5.4. Modelos con dos especies: difusión cruzada y Lotka-Volterra


de competencia

Dado el resultado de estabilidad encontrado en la sección anterior para el mode-


lo competitivo de Lotka-Volterra, cabe preguntarse si la estabilidad se mantendrá
2.5. Inestabilidad de Turing: formación de patrones 123

cuando se consideran otros operadores de difusión, como el dado en (2.25), que


reescribimos aquí:

∂t u1 − ∂xx u1 (d1 + a11 u1 + a12 u2 ) = γf1 (u1 , u2 ) en (0, T ) × (0, π), (2.62)

∂t u2 − ∂xx u2 (d1 + a21 u1 + a22 u2 ) = γf2 (u1 , u2 ) en (0, T ) × (0, π), (2.63)
∂x u1 (t, 0) = ∂x u2 (t, 0) = ∂x u1 (t, π) = ∂x u2 (t, π) = 0 para t ∈ (0, T ), (2.64)
u1 (x, 0) = u10 (x), u2 (x, 0) = u20 (x) para x ∈ (0, π), (2.65)
donde
fi (u1 , u2 ) = αi ui − (βi1 u1 + βi2 u2 )ui , con αi , βij ≥ 0, para i, j = 1, 2. (2.66)
Además, para que el problema esté bien planteado10 asumiremos que los coeficientes
de difusión satisfacen
d1 , d2 ≥ 0, a11 , a22 > 0, a12 , a21 ≥ 0. (2.67)
Finalmente, también supondremos que, en ausencia de difusión, el sistema dinámico
tiene como equilibrio estable al equilibrio de coexistencia dado por (2.59), para lo
cual es necesario que los coeficientes de Lotka-Volterra satisfagan la hipótesis (2.60).

5.4.1. El problema linealizado

La linealización del término de reacción del sistema (2.62)-(2.63) es igual a la


efectuada en la sección 5.3.1. Para linealizar el término de difusión, lo escribiremos
de una forma más general que podamos aplicar a otros problemas. Siempre podemos
escribir estos términos como

∂x A11 (u1 , u2 )∂x u1 + A12 (u1 , u2 )∂x u2 , (2.68)

∂x A21 (u1 , u2 )∂x u1 + A22 (u1 , u2 )∂x u2 . (2.69)
Tomando w = u − u∗ , donde u es una perturbación del estado de equilibrio u∗ , y
sustituyendo, obtenemos
∂x A11 (u∗1 + w1 , u∗2 + w2 )∂x w1 + A12 (u∗1 + w1 , u∗2 + w2 )∂x w2 ,


∂x A21 (u∗1 + w1 , u∗2 + w2 )∂x w1 + A22 (u∗1 + w1 , u∗2 + w2 )∂x w2 .




Para que estos términos sean lineales, los coeficientes Aij deben ser aproximados
por constantes, es decir, como11 Aij (u∗1 + w1 , u∗2 + w2 ) ≈ Aij (u∗1 , u∗2 ). Por tanto, la
linealización de (2.68)-(2.69) en torno a u∗ viene dada por
A11 (u∗1 , u∗2 ) A12 (u∗1 , u∗2 )
  
∂xx w1
.
A21 (u∗1 , u∗2 ) A22 (u∗1 , u∗2 ) ∂xx w2
10
Es decir, que existan soluciones.
11
Su desarrollo de Taylor de orden cero.
124 Modelos de reacción-difusión: Evolución y equilibrio

En el caso particular que estamos estudiando, la matriz de difusión del problema


linealizado es
d1 + 2a11 u∗1 + a12 u∗2 a12 u∗1
 

d(u ) = , (2.70)
a21 u∗2 d2 + a21 u∗1 + 2a22 u∗2

y el sistema linealizado viene dado por

∂t w − d(u∗ )∂xx w = γDf (u∗ )w,

donde Df (u∗ ) viene dada por (2.61).

En este caso, h(k 2 ) = det(Ak ) viene dado por

h(k 2 ) = det(d(u∗ ))k 4 + γqk 2 + γ 2 det(Df (u∗ )),

siendo

q =β11 u∗1 (2a22 u∗2 + d2 ) + β22 u∗2 (2a11 u∗1 + d1 ) + a12 u∗2 (β22 u∗2 − β21 u∗1 )
+ a21 u∗1 (β11 u∗1 − β12 u∗2 ).

El punto de mínimo de h es
2 γq
km =− . (2.71)
2 det(d(u∗ ))
La primera condición de (2.42), que km sea real, implica que q debe ser negativo.
Como los primeros dos términos de q son no negativos, el único mecanismo poten-
cialmente desestabilizador, es decir, que haga q < 0, proviene de la presencia de los
términos en los que interviene la difusión cruzada, a12 y a21 .

5.4.2. Elección del parámetro de bifurcación y valores críticos

En la sección anterior hemos visto que el único mecanismo potencialmente des-


estabilizador proviene de la presencia de los términos de difusión cruzada presentes
en q, es decir,

a12 u∗2 (β22 u∗2 − β21 u∗1 ) y a21 u∗1 (β11 u∗1 − β12 u∗2 ).

De modo que, de ser posible la bifurcación de Turing, esta debe ser causada por a12
o a21 (o ambas).

Las condiciones de positividad y estabilidad del punto de equilibrio u∗ dadas en


(2.60) implican que solo una de las siguientes desigualdades puede ser cierta

β22 u∗2 − β21 u∗1 < 0 o β11 u∗1 − β12 u∗2 < 0.
2.5. Inestabilidad de Turing: formación de patrones 125

En efecto, usando la definición de u∗ dada en (2.59), obtenemos


1
β22 u∗2 − β21 u∗1 = (α2 s − 2α1 β21 β22 ),
det(B)
1
β11 u∗1 − β12 u∗2 = (α1 s − 2α2 β11 β12 ).
det(B)

donde s = β11 β22 + β12 β21 . Suponiendo que ambas sean negativas, deducimos
α2 2β21 β22 α2 s
< y > ,
α1 s α1 2β11 β12

lo cual implica que s2 < 4β11 β12 β21 β22 que, dada la definición de s, no es posible.

Por tanto, cuando a12 tiene un efecto desestabilizador entonces a21 promueve la
estabilidad, y viceversa. En lo que sigue elegimos el caso β22 u∗2 − β21 u∗1 < 0 sin
pérdida de generalidad, y tomamos como parámetro de bifurcación a

b := a12 .

Para obtener el valor de bifurcación crítico, bc , si existe, y el correspondiente


2
número de onda crítico, kc , debemos determinar cuándo se satisface h(km ) = 0 en
función de b. Consideremos las cantidades positivas

m1 = u∗2 (β21 u∗1 − β22 u∗2 ), (2.72)


m2 = β11 u∗1 (2a22 u∗2 + d2 ) + β22 u∗2 (2a11 u∗1 + d1 ) + a21 u∗1 (β11 u∗1 − β12 u∗2 ), (2.73)

de modo que q = −m1 b + m2 . Usando (2.71), vemos que


 (−m1 b + m2 )2 
2
h(km ) = γ 2 det(Df (u∗ )) − . (2.74)
4 det(d(u∗ ))

Para comprobar si este valor mínimo puede anularse para algún b > 0, pongamos
b = m2 /m1 + ξ, con ξ > 0 a determinar (si existe). La exigencia de que ξ sea positivo
viene dada por la condición necesaria de que q sea negativo, ya que q = −m1 ξ. Como
la matriz d(u∗ ) depende de a12 ≡ b y b depende de ξ, escribiremos d = d(ξ).

Teniendo en cuenta estos cambios, reescribimos (2.74) como

2 det(Df (u∗ ))
h(km ) = −γ 2 φ(ξ), (2.75)
det(d(ξ))
donde
m21
φ(ξ) = ∗
ξ 2 − det(d(ξ)), (2.76)
4 det(Df (u ))
126 Modelos de reacción-difusión: Evolución y equilibrio

y det(d(ξ)) se obtiene de (2.70) con la sustitución a12 ≡ b = m2 /m1 + ξ, es decir,


m
2 ∗
det(d(ξ)) = u∗2 (d2 + 2a22 u∗2 )ξ + u (d2 + 2a22 u∗2 )
m1 2

∗ ∗ ∗
+ (d1 + 2a11 u1 )(d2 + a21 u1 + 2a22 u2 ) .
2
Claramente, h(km ) = 0 es equivalente a que φ(ξ) = 0. Escribiendo φ(ξ) en la forma
2
φ(ξ) = Aξ −Bξ−C, tenemos que A, B y C son positivos. Entonces φ(0) = −C < 0 y
lı́mξ→±∞ φ(ξ) = ∞ implican que φ tiene una raíz positiva y otra negativa. Denotando
por ξ + a la raíz positiva concluimos que el parámetro crítico de bifurcación es
m2
bc = + ξ+.
m1

2
Finalmente, queda por comprobar que existen valores de b que hacen que h(km )
sea negativo. Esto se deduce fácilmente de (2.75) ya que, como φ(ξ) es una parábola
convexa con una raíz negativa y otra positiva, si ξ > ξ + entonces φ(ξ) > 0 de donde
2
se sigue que h(km ) < 0.

Por tanto, para b > bc el equilibrio de coexistencia es linealmente inestable para el


problema con difusión. La conclusión es similar a la obtenida en el caso de difusión
lineal. Las raíces de h(k 2 ), que denotamos por k12 y k22 , determinan el intervalo (k1 , k2 )
en el que habrá números de onda inestables siempre que este intervalo contenga
algún entero no nulo. En particular, como las raíces de h(k 2 ) son proporcionales a
γ, observaremos inestabilidad si tomamos γ lo suficientemente grande.

Nuevamente, resumimos nuestros cálculos en el siguiente teorema.

Teorema 2.5.22 Consideremos el problema (2.62)-(2.65) con los coeficientes de


difusión satisfaciendo (2.67) y con las funciones de Lotka-Volterra dadas por (2.66).
Sea u∗ ∈ R2 el equilibrio de coexistencia (estable para el sistema dinámico) dado por
(2.59). Entonces, si
m2
a12 > bc := + ξ+,
m1
donde m1 y m2 viene dados por (2.72) y (2.73), y donde ξ + es la única raíz positiva
del polinomio cuadrático φ(ξ) dado por (2.76), y si γ es suficientemente grande, el
equilibrio uniforme u∗ del problema (2.62)-(2.65) es linealmente inestable para el
problema con difusión.

5.5. Conclusión

En resumen, el estudio de la bifurcación de Turing que hemos realizado puede


esquematizarse de la siguiente manera:
2.5. Inestabilidad de Turing: formación de patrones 127

1. Consideramos un equilibrio estable, u∗ , del sistema dinámico v0 (t) = f (v(t))


y un problema con difusión asociado al mismo.

2. Linealizamos los términos de reacción y difusión del problema de difusión en


torno a u∗ y definimos el correspondiente problema linealizado. Imponemos
las condiciones (2.35) de existencia de solución del problema linealizado.

3. Consideramos la función h(k 2 ) = det(Ak ) e imponemos la primera condición


de (2.42): km ∈ R.

4. Sin duda, la parte más delicada es la de la elección del parámetro de bifur-


cación y la determinación de su valor crítico. Esto se lleva a cabo mediante
la investigación de las condiciones sobre los coeficientes de difusión (del pro-
blema de difusión original) que intervienen en la matriz de difusión d(u∗ ) (del
2
problema linealizado) que permiten tener h(km ) = 0.

5. Finalmente, la conclusión será siempre del mismo tipo. Si existe un parámetro


de bifurcación crítico y si γ es suficientemente grande, existirán modos de
inestabilidad. Por tano, u∗ será linealmente inestable para el problema con
difusión, y observaremos el fenómeno de la formación de patrones.

Ejercicios de la Sección 5

1. Supongamos que el problema

∂t u(t, x) − d∂xx u(t, x) = f (u(t, x)) para(t, x) ∈ (0, T ) × (0, L),


∂x u(t, 0) = ∂x u(t, L) = 0 para t ∈ (0, L),
u(0, x) = u0 (x) para x ∈ (0, 1).

tiene una solución, u : [0, T ) × [0, L] → R.

a) Consideremos el cambio de variable t ≡ t(τ ), donde t es una función


creciente de τ . Definamos U (τ, x) = u(t(τ ), x). Deducir el problema que
satisface U (τ, x).
b) Consideremos el cambio de variable x ≡ x(y), donde x es una función
creciente de y. Definamos U (t, y) = u(t, x(y)). Deducir el problema que
satisface U (t, y).
c) Consideremos los cambios de variable t(τ ) = ατ y x(y) = βy, con α, β >
0. Definamos U (τ, y) = u(t(τ ), x(y)). Deducir el problema que satisface
U (τ, y).
128 Modelos de reacción-difusión: Evolución y equilibrio

d ) Sea γ > 0 elegido arbitrariamente. Hallar el cambio de variable lineal que


transforma la ecuación del problema en la siguiente
∂τ U (τ, y) − d∂yy U (τ, y) = γf (U (τ, y)),
y determinar el dominio en el que está definido este problema.
2. Consideremos el modelo competitivo de Lotka-Volterra u0 (t) = f (u(t)), con
fi (u) = αi ui − (βi1 u1 + βi2 u2 )ui ,
donde αi , βij ≥ 0, para i, j = 1, 2 y sea u∗ el equilibrio de coexistencia. Probar
que
−β11 u∗1 −β12 u∗1
 

Df (u ) = ,
−β21 u∗2 −β22 u∗2
y que, por lo tanto, u∗ es un punto de equilibrio estable para la EDO.
3. Quimiotaxis. La quimiotaxis es un fenómeno en el cual ciertos microorga-
nismos dirigen sus movimientos de acuerdo con la concentración de sustancias
químicas presentes en su medio ambiente, sustancias que ellos mismos ayudan
a generar. Un ejemplo de quimiotaxis es la respuesta de los leucocitos a las
heridas.
En el siguiente modelo u1 representa la densidad de población del microorga-
nismo y u2 la concentración de la sustancia química:

∂t u1 = ∂x d1 ∂x u1 − χu1 ∂x u2 + ru1 (1 − u1 ) en(0, T ) × (0, π),
∂t u2 = ∂xx u2 + u1 − u2 en(0, T ) × (0, π),
∂x u1 (t, 0) = ∂x u2 (t, π) = ∂x u1 (t, 0) = ∂x u2 (t, π) = 0 para t ∈ (0, T ),
u1 (0, x) = u10 (x), u2 (0, x) = u20 (x) para x ∈ (0, π).
a) Comprobar que el único equilibrio estable en ausencia de difusión es u∗ =
(1, 1).
b) Probar u∗ es linealmente inestable para el sistema con difusión si
√ que √
χ > ( d1 + r)2 .
c) Probar que los modos de inestabilidad son los números enteros contenidos
en el intervalo (a− , a+ ), con
χ − d1 − r 1 p
a2± = ± (d1 + r − χ)2 − 4rd1 .
2d1 2d1
4. Modelo de Schnackenberg. Consideremos el sistema de reacción-difusión,
definido en (0, T ) × (0, π), por
∂t u1 − d1 ∂xx u1 = γf1 (u1 , u2 ),
∂t u2 − d2 ∂xx u2 = γf2 (u1 , u2 ),
2.5. Inestabilidad de Turing: formación de patrones 129

con condiciones de frontera Neumann homogéneas y datos iniciales positivos,


y donde γ > 0 y las funciones de reacción viene dadas por

f1 (u1 , u2 ) = a − u1 + u21 u2 , f2 (u1 , u2 ) = 2a − u21 u2 , para a > 0.

a) Calcular el equilibrio estable u∗ para el sistema sin difusión.


b) Determinar las condiciones necesarias y suficientes sobre d1 y d2 para que
u∗ sea linealmente inestable para el sistema con difusión.
c) Tomemos los valores a = 31 , d1 = 1 y d2 = 3d, para cierto d > 0, y
supongamos que γ > 3n2 , para cierto n ∈ N. Consideremos el correspon-
diente polinomio h(k 2 ) = det(Ak ). Queremos obtener una cota inferior
de d en función de γ para la cual podamos observar inestabilidad en el
modo k = n. Hacer lo siguiente:
i) Demostrar que el intervalo formado por las raíces de h(k 2 ) contiene
a k 2 = n2 si
γ(n2 + γ)
d> 2 .
n (γ − 3n2 )

ii) Encontrar los valores más pequeños de γ y d para los que observare-
mos inestabilidad en el modo k = n.

5. Capital-Trabajo y emergencia de ciudades. En el siguiente modelo


K(t, x) representa la oferta de nuevos empleos (como resultado de la inver-
sión de capital, de ahí la K) y T (t, x) representa la fuerza de trabajo total
(empleados y demandantes de empleo), ambos definidos en un instante dado
t ∈ (0, τ ) y en un lugar geográfico dado x ∈ (0, π):

∂t K − ∂x ∂x K − aK∂x T = K(1 − K − 2T ),

∂t T − ∂x − bT ∂x K + ∂x T = T (−1 + 2K),

con condiciones de frontera Neumann homogéneas y datos iniciales positivos,


y donde a, b son constantes positivas tales que ab < 8.

a) Dar una interpretación de los distintos términos de las ecuaciones del tipo
la oferta crece porque..., el trabajo es atraído por...,etc.
b) Determinar el equilibrio u∗ de coexistencia del sistema dinámico y estu-
diar su estabilidad.
c) Obtener condiciones necesarias para que u∗ sea linealmente inestable para
el sistema con difusión.
d ) Tomando a como parámetro de bifurcación, obtener condiciones suficien-
tes para la inestabilidad lineal de u∗ . Indicación: puede ser útil introducir
un parámetro ξ tal que a = b + ξ.
130 Modelos de reacción-difusión: Evolución y equilibrio

e) Interpretar las restricciones obtenidas en términos de las variables del


modelo.

6. Consideremos el siguiente sistema definido en (0, T ) × (0, π):



∂t u − ∂xx u + auv = u(1 − u + v),
∂t v − ∂xx v = v(1 − bu − v),

con condiciones de frontera Neumann homogéneas y datos iniciales positivos,


y donde a ∈ R y b > 0 son constantes.

a) Determinar condiciones sobre los parámetros para que el equilibrio de


coexistencia u∗ del sistema sin difusión exista y sea estable.
b) Determinar condiciones sobre los parámetros para que el sistema lineali-
zado esté bien planteado.
c) Supongamos que a < 0. Estudiar si u∗ puede ser linealmente inestable
para el problema con difusión y, en caso afirmativo, determinar bajo qué
condiciones sobre a y b sucede.
d ) Supongamos que a > 0. Estudiar si u∗ puede ser linealmente inestable
para el problema con difusión y, en caso afirmativo, determinar bajo qué
condiciones sobre a y b sucede.

7. Activador-inhibidor. Consideremos el siguiente sistema en (0, T ) × (0, π):


 u2 
∂t u − d1 ∂xx u = γ a − bu + ,
v
∂t v − d2 ∂xx v = γ(u2 − v),

con condiciones de frontera Neumann homogéneas y datos iniciales positivos,


y donde a y b son constantes positivas (tasas de reacción).
En este modelo se representa una producción autocatalítica del activador, u, a
través del término u2 /v. El inhibidor, v, es activado por u mediante el término
u2 de la segunda ecuación, que inhibe la producción del activador dado que
cuando v crece, u2 /v decrece.

a) Determinar condiciones sobre los parámetros a y b para que el equilibrio


u∗ del sistema sin difusión sea estable.
b) Obtener condiciones suficientes sobre los parámetros para que u∗ sea
linealmente inestable para el sistema con difusión.
c) Para que haya inestabilidad lineal ¿qué sustancia debe difundirse más
rápidamente? ¿el activador o el inhibidor?
2.5. Inestabilidad de Turing: formación de patrones 131

8. Producción atenuada. Consideremos el siguiente sistema definido en (0, T )×


(0, π):
 4uv 
∂t u − ∂xx u2 = γ 5a − u − 2
,
1 + u
 uv 
∂t v − ∂xx v 2 = γb u − ,
1 + u2
con condiciones de frontera Neumann homogéneas y datos iniciales positivos,
y donde a y b > 0 son constantes positivas.

a) Determinar condiciones sobre los parámetros a y b para que el equilibrio


del sistema sin difusión sea estable.
b) Obtener las condiciones necesarias para la inestabilidad de u∗ como equi-
librio del sistema con difusión.
c) Tomemos b como parámetro de bifurcación. Obtener condiciones suficien-
tes para que u∗ sea linealmente inestable para el sistema con difusión.

9. Infinitos modos de inestabilidad. Consideremos el siguiente sistema defi-


nido en (0, T ) × (0, π):

∂t u1 − ∂x u1 (a11 ∂x u1 + a12 ∂x u2 ) = u1 (α1 − β11 u1 − β12 u2 ),

∂t u2 − ∂x u2 (a21 ∂x u1 + a22 ∂x u2 ) = u2 (α2 − β21 u1 − β22 u2 ),

con condiciones de frontera Neumann homogéneas y datos iniciales positivos,


y donde aij , αi y βij , con i, j = 1, 2, son constantes positivas tales que β11 β22 >
β12 β21 y a11 a22 > a12 a21 .

a) Enunciar las condiciones bajo las cuales el sistema sin difusión tiene un
equilibrio de coexistencia u∗ estable y con componentes positivas.
b) Obtener una condición necesaria para que u∗ pueda ser inestable para el
sistema con difusión.
c) Tomemos a11 = a22 = δ > 1 y a12 = a21 = β11 = β22 = 1. Determinar
condiciones suficientes para α1 /α2 en función de β12 y β21 de modo que
u∗1 y u∗2 sean positivos. Comprobar entonces que si β12 +β21 > 4δ entonces
se cumple la condición suficiente para que u∗ sea inestable.
2 2 2 2
d ) Sean β12 = 4δ y β21 = 1/8δ, y denotemos por k− y k+ , con k− < k+ ,a
2
las raíces del polinomio h(k ) = det(Ak ), que son funciones de δ. Probar
que
4
lı́m+ k12 (δ) = , lı́m k22 (δ) = ∞.
δ→1 17 δ→1+

¿Qué nos dice este resultado sobre el máximo número posible de modos
de inestabilidad de la solución del sistema linealizado?
132 Modelos de reacción-difusión: Evolución y equilibrio

10. Policías y cacos. Sea Ω = (0, R) ⊂ R una ciudad y sean C y P el número de


cacos y policías, respectivamente, por unidad de longitud ([C] = [P ] = L−1 ).
El siguiente sistema de EDP’s representa la interacción entre ellos:
 
∂τ C(τ, X) − ∂X A∂X C(τ, X) + GC(τ, X)∂X P (τ, X)
 C(τ, X) 
=γ D − EP (τ, X)C(τ, X) ,
P (τ, X) + C(τ, X)
 
∂τ P (τ, X) − ∂X H∂X P (τ, X) + BP (τ, X)∂X C(τ, X)

= γN M C(τ, X) − P (τ, X) ,

donde τ ∈ (0, ∞), X ∈ Ω y A, D, E, G, H, M, N, γ son constantes positivas y B


es una constante que puede tener cualquier signo. El significado de los términos
de las ecuaciones es el siguiente. En cuanto a los términos de reacción:

el surgimiento de nuevos cacos es función decreciente respecto la concen-


tración de policías,
los cacos son retirados por la policía a una tasa (γE),
el tiempo medio que un policía ejerce su actividad es 1/(γN ),
la incorporación de nuevos policías es proporcional a la concentración
de cacos; además, el número total de policías se incrementa cuando el
número de cacos por policía es mayor que 1/(γM ), y disminuye en caso
contrario.

Para los términos de difusión tenemos que tanto cacos como policías tienen:

una componente aleatoria de desplazamiento por la ciudad,


para los cacos, una componente determinista que les repele de las altas
concentraciones de policías, y para la policía, una componente determi-
nista que les atrae o repele, dependiendo del signo de B, de las altas
concentraciones de cacos.

a) Calcular las dimensiones de los parámetros en el sistema de unidades LT


(longitud y tiempo).
b) Introducir el cambio a variables adimensionales dado por:

τ X C P
t= , x= , c= , p= ,
τ0 ` m0 m0

donde ` = R/π, y adimensionalizar el sistema de EDPs. Entonces, definir


τ0 y m0 de forma que el coeficiente de la difusión lineal de p sea uno y el
2.5. Inestabilidad de Turing: formación de patrones 133

coeficiente del término de crecimiento de c sea γ. El sistema adimensional


resultante debe ser
 
∂t c(t, x) − ∂x a∂x c(t, x) + gc(t, x)∂x p(t, x)
 c(t, x) 
=γ − ep(t, x)c(t, x) ,
p(t, x) + c(t, x)
 
∂t p(t, x) − ∂x ∂x p(t, x) + bp(t, x)∂x c(t, x) = γn(mc(t, x) − p(t, x)).

Dar las expresiones de a, b, e, m, n.


c) Probar que el equilibrio de coexistencia (c∗ , p∗ ) es estable para el sistema
sin difusión.
d ) Obtener la condición suficiente para la existencia de soluciones del pro-
blema de EDP linealizado en torno a (c∗ , p∗ ). Obtener esta condición en
términos de b, esto es, como una expresión del tipo b < ϕ1 (a, e, g, m).
e) Determinar la condición necesaria para que (c∗ , p∗ ) sea linealmente ines-
table para el problema con difusión. Obtener una expresión del tipo
b > ϕ2 (a, e, g, m, n) y comprobar que existe b ∈ R tal que ϕ1 (a, e, g, m) >
b > ϕ2 (a, e, g, m, n) si m es suficientemente pequeño y e > gn.
f ) Asumiendo que m es suficientemente pequeño y que e > gn, obtener
las condiciones suficientes sobre b bajo las cuales (c∗ , p∗ ) es linealmente
inestable para el problema con difusión (si γ sea suficientemente grande).

11. Rumores y opiniones. Consideremos el siguiente sistema en (0, T ) × (0, π):



∂t u1 (t, x) − ∂x ∂x u1 (t, x) − g(u1 (t, x))∂x u2 (t, x) = γε(U10 − s),
 
∂t u2 (t, x) − ∂x δ∂x u1 (t, x) + β∂x u2 (t, x) = γ f (u1 (t, x)) − αu2 (t, x) ,
junto con condiciones de frontera Neumann homogéneas y datos iniciales po-
sitivos, donde α, β, γ son constantes positivas, δ ∈ R y 0 < U10 < 1. La
función f es no negativa, con f 0 (s) > 0 para todo s ∈ R, mientras que
g(s) = s(1 − s). Se sabe que estas condiciones implican que 0 ≤ u1 (t, x) ≤ 1
para todo (t, x) ∈ (0, T ) × (0, π).
En este modelo, t denota el tiempo y x parametriza cuantitativamente la
información sobre algún suceso. Las incógnitas son la densidad de población,
u1 , y la función de influencia, u2 ≥ 0, la cual contribuye a modificar el estado
de información de la población.
Para fijar ideas, podemos pensar que x es la nota que obtiene un político en
las encuestas de opinión, u1 es la población de ciudadanos que asignan una
nota al político (continuamente en el tiempo) y la función de influencia, u2 ,
contribuye a la modificación de la opinión, dirigiéndola hacia los puntos de
máximo de u2 .
134 Modelos de reacción-difusión: Evolución y equilibrio

a) Interpretar el significado de la función g en el modelo.


b) Probar que el sistema sin difusión posee un único equilibrio u∗ que es
estable.
c) Obtener condiciones suficientes para que el sistema con difusión lineali-
zado en torno a u∗ esté bien planteado.
d ) Obtener condiciones necesarias para que u∗ pueda ser linealmente ines-
table para el sistema con difusión.
e) Obtener condiciones suficientes en términos del parámetro de bifurcación
β para que u∗ sea linealmente inestable para el sistema con difusión.
2.6. Modelos con estructura de edad 135

6. Modelos con estructura de edad

La edad es uno de los factores que distinguen de modo más significativo a los
individuos de una población dada. Características vitales tales como las tasas de
natalidad y de mortalidad, presentes en todos los modelos de poblaciones, difieren
marcadamente entre individuos de edades distantes.

En esta sección presentamos dos modelos básicos que contemplan la estructura


de edad de las poblaciones. El primero es una extensión del modelo de Malthus, es
decir, un modelo lineal para una sola población. El segundo es una extensión del
modelo epidemiológico SIR.

6.1. Modelo de McKendric

Como en el modelo malthusiano o los otros modelos de la Sección 3, consideramos


una población homogéneamente distribuida en el espacio, con una reproducción
asexual y que habita un entorno aislado. Así, podemos suponer que las tasas de
natalidad y mortalidad son independientes del tiempo y del espacio, y que la única
característica que distingue a los individuos es su edad.

El modelo que trataremos es conocido como Modelo de McKendric. En él, conside-


ramos dos variables independientes: el tiempo, t, y la edad, a (age). La distribución
de la población viene dada por la densidad u(t, a) de individuos de edad a presentes
en el tiempo t. Asumiremos que a ∈ [0, a+ ], donde a+ es el tiempo máximo de vida,
con a+ ≤ ∞.

Para deducir una relación diferencial, podemos proceder como en la Sección 1.


Sea B∆a (a) = (a − ∆a, a + ∆a) un intervalo de edades. Puesto que B∆a (a) ⊂ R,
podemos escribir la ley de conservación general (2.2) como
d a+∆a
Z Z a+∆a
u(t, τ )dτ = q(t, a − ∆a) − q(t, a + ∆a) + g(t, τ )dτ. (2.77)
dt a−∆a a−∆a

En esta expresión,

q(t, a−∆a) es el número de individuos que entran en las edades (a−∆a, a+∆a),
−q(t, a + ∆a) es el número de los que salen de las edades (a − ∆a, a + ∆a),
R a+∆a
a−∆a
g(t, τ )dτ representa la variación demográfica de la población que se pro-
duce entre los individuos de edad contenida en (a − ∆a, a + ∆a).

El número de individuos de edad a − ∆a en el instante t viene dado por u(t, a − ∆a).


Por tanto, los que en ese instante están entrando en el rango de edades (a − ∆a, a +
136 Modelos de reacción-difusión: Evolución y equilibrio

∆a) son aquellos que tienen edad a − ∆a. De modo que q(t, a − ∆a) = u(t, a − ∆a).
Y deducimos que q(t, a) = u(t, a) para cualesquiera t y a.

Veamos ahora cómo modelizamos la variación demográfica (nacimientos y muer-


tes) de los individuos de edad comprendida en (a − ∆a, a + ∆a).

Asumiendo que la tasa de mortalidad solo depende de la edad de los individuos


y no del momento en el que nos encontramos, y que es proporcional a la densidad
de población, tomaremos g(t, a) = −µ(a)u(t, a), donde µ(a) es la tasa de mortalidad
per cápita.

En lo que respecta a los nacimientos, por definición, estos se producen a edad


a = 0, no en un intervalo de edades. De modo que no podemos utilizar g para
modelizarlos12 .

Teniendo en cuenta estas consideraciones, deducimos de (2.77) que


Z a+∆a
1  u(t, a + ∆a) − u(t, a − ∆a)
∂t u(t, τ ) + µ(τ )u(t, τ ) dτ + = 0,
2∆a a−∆a 2∆a

y tomando el límite ∆a → 0, obtenemos la ecuación de McKendrick

∂t u(t, a) + ∂a u(t, a) = −µ(a)u(t, a).

La ecuación de McKendrick es una ecuación en derivadas parciales definida para


t > 0 y a ∈ (0, a+ ). Para completar el modelo necesitamos adjuntar dos ecuaciones
adicionales que nos permitan determinar las constantes indeterminadas que surgen
en la integración de la EDP. Es precisamente aquí donde podremos modelizar la
variación demográfica producida por los nacimientos.

La edad a = 0 es la edad de nacimiento, con lo que el valor u(t, 0) nos indica


el número de nacidos en el instante t. Supondremos que el número de nacidos en
el instante t es proporcional a la densidad de población, u(t, a), con constante de
proporcionalidad dada por la tasa de nacimientos per cápita, β(a), asociada a los
individuos de edad a.

Es decir, β(a)u(t, a)∆a es, aproximadamente, el número de nacimientos que se


producen a partir de individuos de edad comprendida en el intevalo [a, a + ∆a] en
el instante t. Sumando los nacimientos debidos a todo el rango posible de edades
obtenemos, en el límite ∆a → 0, el número total de nacimientos en el instante t,
Z a+
B(t) = β(a)u(t, a)da, (2.78)
0
12
A menos que utilizemos la δ de Dirac, lo cual introduce dificultades innecesarias en el modelo
resultante.
2.6. Modelos con estructura de edad 137

que es, precisamente, u(t, 0).

Para t = 0 fijaremos, como es habitual, la condición inicial u(0, a) = u0 (a), siendo


u0 (a) ≥ 0 la distribución inicial de la población por edades.

Así, el modelo completo de McKendrick puede formularse como el siguiente pro-


blema matemático.

Modelo de McKendrick

Hallar u : [0, ∞) × [0, a+ ] → R tal que

∂t u(t, a) + ∂a u(t, a) = −µ(a)u(t, a) para (t, a) ∈ (0, ∞) × (0, a+ ) (2.79)


Z a+
u(t, 0) = β(a)u(t, a)da para t > 0, (2.80)
0
u(0, a) = u0 (a) para a ∈ (0, a+ ). (2.81)

Observemos que mientras que la condición inicial viene determinada de un modo


exógeno, es decir, es proporcionada como una dato obtenido fuera del modelo, la
condición de contorno depende de la propia solución, u(t, a). Puesto que esta depen-
dencia tiene lugar a través de una integración, este tipo de condición se denomina
condición no local.

Observación 2.6.1 Probabilidad de supervivencia desde el nacimiento.


Como sucedía con la ecuación de Malthus, veáse la Observación 2.2.1, la tasa
de mortalidad, µ(a) está relacionada con la probabilidad de supervivencia desde el
nacimiento, π(a).

Supongamos que comenzamos con una cohorte de recién nacidos de tamaño P y


representemos al número de individuos de dicha cohorte que alcanzan a vivir hasta
la edad a por la expresión π(a)P .

Así, se tiene que π(a)P − π(a + ∆a)P es el número de individuos que han muerto
en el intervalo [a, a + ∆a], es decir
π(a)P − π(a + ∆a)P = µ(a)π(a)P ∆a.
Suponiendo que π es diferenciable con continuidad obtenemos, en el límite ∆a → 0,
la ecuación diferencial π 0 (a) = −µ(a)π(a) cuya solución es
 Z a 
π(a) = exp − µ(s)ds ,
0
138 Modelos de reacción-difusión: Evolución y equilibrio

una vez asumido que la probabilidad de supervivencia hasta la edad cero es π(0) = 1.
Observemos que debido a la forma funcional de π, podemos expresar la probabilidad
de supervivencia hasta la edad a2 a partir de la probabilidad de haber sobrevivido
hasta la edad a1 ,
 Z a2 
π(a2 ) = π(a1 ) exp − µ(s)ds ,
a1

donde el término exponencial representa la probabilidad de que un individuo sobre-


viva desde la edad a1 hasta la edad a2 .

De esta forma funcional también deducimos que si la edad máxima de supervi-


vencia es finita, a+ < ∞, entonces debe ser π(a) → 0 cuando a → a+ , con lo que se
deduce µ(a) → ∞, es decir, la tasa de mortalidad debe tener una singularidad en
a = a+ .

A continuación veremos dos formas de abordar la resolución del problema de


McKendrick: mediante el método de las características y mediante el método de
variables separadas.

6.1.1. El método de las características

Consideremos por un momento el modelo de McKendrick sin nacimientos ni muer-


tes, es decir, con µ = β = 0. Puesto que los individuos que tienen edad a0 en el instan-
te t0 tendrán edad a0 +s en el instante t0 +s, tenemos que u(t0 +s, a0 +s) = u(t0 , a0 ).
Derivando respecto s obtenemos
d
0= u(t0 + s, a0 + s) = ∂t u(t0 + s, a0 + s) + ∂a u(t0 + s, a0 + s),
ds
es decir, la función u(t0 + s, a0 + s) satisface la ecuación (2.79) con mortalidad nula.
Por tanto, el valor de la solución en la recta r(s) = (t0 + s, a0 + s) es constante,
quedando así determinado por su valor en cualquiera de sus puntos. Veremos más
adelante que la elección natural de estos puntos será el correspondiente al dato
inicial o al dato de frontera. La recta r es llamada línea característica de la EDP de
transporte ∂t u(t, a) + ∂a u(t, a) = 0.

El problema con nacimientos y mortalidad puede abordarse de un modo similar.


Sea v(s) = u(r(s)), de modo que si u es solución del modelo de McKendrick entonces
d
v(s) = ∂t u(r(s)) + ∂a u(r(s))
ds
= −µ̄(s)v(s),
2.6. Modelos con estructura de edad 139

donde µ̄(s) = µ(a0 + s). La solución de esta EDO es


 Z s 
v(s) = v(0) exp − µ̄(σ)dσ ,
0

lo cual nos proporciona la solución general


 Z s 
u(t0 + s, a0 + s) = u(t0 , a0 ) exp − µ(a0 + σ)dσ . (2.82)
0

Veamos cómo utilizar los datos inicial y de frontera para determinar totalmente la
solución. Tenemos dos casos.

1. Caso 1: La región a0 > t0 comprende a los individuos que nacieron antes del
instante inicial t = 0, por lo que, en esta región, no habrá contribución de los
nacimientos, véase (2.78). El número de individuos vendrá determinado por
los que había en dicho instante inicial. Poniendo en (2.82) t0 = 0, a0 = a − t
y s = t obtenemos
 Z t   Z a 
u(t, a) = u(0, a − t) exp − µ(a − t + σ)dσ = u0 (a − t) exp − µ(σ)dσ
0 a−t
π(a)
= u0 (a − t) , para t < a.
π(a − t)

2. Caso 2: La región a0 < t0 comprende a los individuos que nacieron después de


t0 . No pueden venir determinados por el instante inicial (sería a0 < 0), pero
sí por la edad inicial, es decir, el nacimiento. Tomamos entonces t0 = t − a,
a0 = 0 y s = a en (2.82), con lo que
 Z a 
u(t, a) = u(t − a, 0) exp − µ(σ)dσ = B(t − a)π(a), para t > a.
0

Observemos que esta forma de expresar la solución no es una forma explícita


debido a que, como mencionamos en la sección anterior, B(t) depende de u(t, a).
Sin embargo, tiene la utilidad de reducir el problema de dos variables (t, a) a una
variable t. Para efectuar esta reducción sustituimos la expresión de u(t, a) correspon-
diente a los dos casos arriba analizados en la expresión de B(t) definida en (2.78),
descompuesta como
Z a+ Z t Z a+
B(t) = β(a)u(t, a)da = β(a)u(t, a)da + β(a)u(t, a)da,
0 0 t

obteniendo así la
140 Modelos de reacción-difusión: Evolución y equilibrio

Ecuación de Lotka o de renovación

Z t Z a+
π(a)
B(t) = β(a)π(a)B(t − a)da + β(a) u0 (a − t)da. (2.83)
0 t π(a − t)

Observemos que si t > a+ entonces la segunda integral es nula.

6.1.2. El método de variables separadas

El método de variables separadas, ya expuesto en la Sección 5.1, es a menudo útil


para construir las soluciones de problemas de EDP lineales, como las del modelo de
McKendric. Introducimos ahora su exposición más habitual: asumamos la siguiente
forma funcional de la solución u(t, a) = T (t)A(a), para, a continuación, introducirla
en las ecuaciones que conforman el problema. Comenzamos con la EDP, obteniendo

T 0 (t)A(a) + T (t)A0 (a) = −µ(a)T (t)A(a).

Dividiendo por T (t)A(a) y operando obtenemos

T 0 (t) A0 (a)
=− − µ(a) = λ,
T (t) A(a)

donde λ debe ser constante para que se verifique una igualdad entre una función
que depende solamente de t y otra que depende solamente de a. Así, obtenemos

T 0 (t) = λT (t) =⇒ T (t) = T (0)eλt ,


A0 (a) + λA(a) = −µA(a) =⇒ A(a) = A(0)e−λa π(a).

Para determinar la constante λ comenzamos imponiendo la condición de frontera


(2.81):
Z a+
T (t)A(0) = T (t) β(a)A(a)da
0
Z a+
= T (t)A(0) β(a)e−λa π(a)da,
0

la cual nos proporciona la


2.6. Modelos con estructura de edad 141

Ecuación característica del modelo de McKendrick

Z a+
β(a)e−λa π(a) = 1. (2.84)
0

Por tanto, para que pueda haber una solución de la forma de variables separa-
das, la ecuación característica debe tener solución . El siguiente teorema establece
condiciones suficientes para la existencia de una única solución λ ∈ R.

Teorema 2.6.23 Supongamos que β es una función acotada en [0, a+ ] y que existe
una constante β̂ > 0 tal que β(a) ≥ β̂ para a ∈ [a1 , a2 ], donde a1 , a2 ∈ (0, a+ ).
Entonces existe una única solución real de (2.84).

Demostración. Definamos la función derivable


Z a+
f (λ) = β(a)e−λa π(a)da,
0

de modo que
Z a+
0
f (λ) = − β(a)ae−λa π(a)da.
0

Como β(a) ≥ β̂ > 0 para a ∈ [a1 , a2 ] con a1 > 0 y a2 < a+ , se sigue que
β(a)ae−λa π(a) > 0 para a ∈ [a1 , a2 ] y, por tanto, f es una función estrictamente
decreciente. Deducimos que si f (λ) − 1 cambia de signo en R entonces existe una
única solución de (2.84).

Por una parte, como β(a)π(a) es una función acotada, se sigue del teorema de la
convergencia dominada que lı́mλ→∞ f (λ) = 0. Por otra parte, como
Z a2
f (λ) > β̂ mı́n π(a) e−λa da,
a∈(a1 ,a2 ) a1

deducimos que lı́mλ→−∞ f (λ) = ∞. 

Finalmente, quedan por determinar las constantes T (0) y A(0). Dada la forma
de la solución candidata
∗ ∗
u(t, a) = T (t)A(a) = T (0)A(0)eλ t e−λ a π(a),
142 Modelos de reacción-difusión: Evolución y equilibrio

basta con determinar su producto c0 = T (0)A(0). Para ello utilizamos la condición


inicial (2.81), que implica que la forma funcional de la misma debe ser

u0 (a) = c0 e−λ a π(a). (2.85)

En conclusión, tenemos que

si β satisface las condiciones del Teorema 2.6.23, y

si el dato inicial es de la forma (2.85),

entonces tenemos una única

Solución de variables separadas del modelo de McKendrick

∗ ∗
u(t, a) = c0 eλ t e−λ a π(a). (2.86)

6.1.3. Equilibrios y estabilidad

La noción de solución de equilibrio de un problema expresado en términos de


ecuaciones diferenciales, ya sean ordinarias o parciales, está relacionada con la exis-
tencia de una solución que tenga un comportamiento uniforme o independiente del
tiempo. Por ejemplo, para la EDO u0 (t) = f (u(t)) decimos que la constante u∗ ≥ 0
es un equilibrio si f (u∗ ) = 0, ya que en este caso se tiene que (u∗ )0 = f (u∗ ). Para una
EDP procedemos de un modo similar, buscando soluciones de la ecuación que sean
independientes del tiempo. De este modo, los equilibrios del modelo de McKendrick
serán funciones U (a) que satisfagan la EDP (2.79) y la condición de frontera (2.80),
es decir,
Z a+
+
∂a U (a) = −µ(a)U (a) para a ∈ (0, a ) y U (0) = β(a)U (a)da.
0

Integrando, obtenemos la ecuación


Z a+
U (a) = π(a)U (0) = π(a) β(a0 )U (a0 )da0 , (2.87)
0
2.6. Modelos con estructura de edad 143

que define a los equilibrios U (a) de forma implícita. Claramente, la función constante
U1∗ = 0 es siempre un equilibrio. Introduciendo en la integral de la derecha de (2.87)
la definición de la función de la izquierda, obtenemos
Z a+
U (a) = π(a) β(a0 )U (a0 )da0
0
Z a+ Z a+ 
= π(a) β(a0 )π(a0 ) β(a1 )U (a1 )da1 da0
0 0
Z a+ Z a+
= π(a) β(a0 )π(a0 )da0 β(a1 )U (a1 )da1
0 0
Z a+ Z a+ Z a+
= π(a) β(a0 )π(a0 )da0 β(a1 )π(a1 )da1 β(a2 )U (a2 )da2 ,
0 0 0

de modo que inferimos que


∞ Z
Y a+
U (a) = π(a) β(ai )π(ai )dai = π(a) lı́m Rn
0 n→∞
i=0

donde R es el

Número de reproducción neta

Z a+
R= β(a)π(a)da.
0

Observando que la perturbación del dato inicial del modelo de McKendrick no afecta
al valor de R, deducimos que

R < 1 =⇒ U1∗ (a) = 0 es el único equilibrio estable,


R = 1 =⇒ U2∗ (a) = π(a) es el único equilibrio estable, (2.88)
R > 1 =⇒ no existen equilibrios estables.

El número de reproducción neta del modelo de McKendrick juega un papel análo-


go al número de reproducción básico de los modelos epidemiológicos. Representa el
número medio de descendientes de un individuo de la población a lo largo de su vida,
144 Modelos de reacción-difusión: Evolución y equilibrio

y actúa como un parámetro de bifurcación para el que existe la siguiente relación:

R < 1 =⇒ lı́m u(t, a) = 0,


t→∞
R = 1 =⇒ lı́m u(t, a) = π(a),
t→∞
R > 1 =⇒ lı́m u(t, a) = ∞.
t→∞

6.2. El modelo SIR con estructura de edad

Basaremos los modelos epidemiológicos con estructura de edad en el modelo de


McKendrick. Siendo dicho modelo lineal, el crecimiento de la población tiene un
comportamiento exponencial. Hemos visto al final de la sección anterior que este
comportamiento está regulado por el valor del número de reproducción neta, R. En
esta sección asumiremos que R = 1 o, lo que es lo mismo, que la solución de la
ecuación característica (2.84) es λ∗ = 0, con lo que la población total permanece
constante, véase por ejemplo la solución de variables separadas (2.86).

Como la edad es una característica común a todos los individuos de una po-
blación, debemos de dotar de estructura de edad a todos los compartimentos que
consideremos en el modelo epidemiológico. Denotaremos por s(t, a), i(t, a) y r(t, a)
a la densidad de individuos susceptibles, infecciosos y recuperados, respectivamen-
te, en el instante t y con la edad a. La densidad total es, por tanto, u(t, a) =
s(t, a) + i(t, a) + r(t, a).

La evolución de cada población viene determinada por su cambio de edad (trans-


porte) y por los términos de crecimiento y decrecimiento, que tomamos del modelo
SIR, pero con coeficientes que, en general, dependen de la edad. Además, las condi-
ciones auxiliares deben incluir tanto datos iniciales similares a los del modelo SIR
como condiciones de frontera como las del modelo de McKendrick.

El problema se enuncia de la siguiente manera.

Modelo SIR con estructura de edad

Hallar s, i, r : [0, T ] × [0, a+ ] → R tales que para (t, a) ∈ (0, T ) × (0, a+ ) se tiene

∂t s(t, a) + ∂a s(t, a) = −λ(t, a)s(t, a) − µ(a)s(t, a), (2.89)


∂t i(t, a) + ∂a i(t, a) = λ(t, a)s(t, a) − (µ(a) + α(a))i(t, a), (2.90)
∂t r(t, a) + ∂a r(t, a) = α(a)i(t, a) − µ(a)r(t, a), (2.91)

junto con condiciones iniciales y de frontera que introduciremos más adelante.


2.6. Modelos con estructura de edad 145

En estas ecuaciones, µ(a) y α(a) son, como en el modelo SIR de ODE, la tasa de
mortalidad natural (no provocada por la infección y a menudo tomada como µ = 0)
y la tasa de recuperación, respectivamente.

La función λ(t, a) es la fuerza de la infección, que depende del número de indivi-


duos infecciosos. Si, como en el modelo SIR, tomamos λ(t, a) proporcional a i(t, a),
entonces los contagios solo se producirán entre individuos de la misma edad. Con el
fin de tener en cuenta la posibilidad del contagio inter-generacional, definimos
Z a+
λ(t, a) = ρ(a)i(t, a) + k(ā, a)i(t, ā)dā.
0

Hay dos casos particulares de fuerza de infección que son especialmente relevantes:

1. Contacto intra-cohorte: se da cuando las transmisiones se producen solo entre


individuos de la misma edad y corresponde al caso en que k ≡ 0. Por tanto,
λ(t, a) = ρ(a)i(t, a),
donde ρ(a) juega un papel similar al de β en el modelo SIR, es decir, el de
tasa de transmisión de la infección. Esta hipótesis es típica de los modelos
relacionados con enfermedades infantiles.
2. Contacto inter-cohorte: se da cuando las transmisiones se producen entre indi-
viduos de distintas edades, y corresponde al caso k 6≡ 0. Normalmente, también
se asume ρ ≡ 0 (contacto puramente inter-cohorte), dando lugar a la definición
Z a+
λ(t, a) = k(ā, a)i(t, ā)dā.
0

El núcleo de contacto, k(ā, a), que proporciona la tasa de transmisión entre los
infecciosos de edad ā y un susceptible de edad a, suele simplificarse para que tenga
la forma de variables separadas k(ā, a) = k1 (ā)k2 (a), donde k1 y k2 son funciones no
negativas.

Finalmente, las condiciones auxiliares se explicitan como sigue. Las condiciones


iniciales son similares a las de los modelos en EDO:
s(0, a) = s0 (a), i(0, a) = i0 (a), r(0, a) = 0 con a ∈ [0, a+ ],
donde las funciones s0 , i0 son no negativas.

Las condiciones de frontera más sencillas son aquellas en las que se asume que
todos los recién nacidos pertenecen a la clase de susceptibles. Entonces ponemos
Z a+
s(t, 0) = β(a)u(t, a)da, i(t, 0) = r(t, 0) = 0 con t ∈ [0, T ]. (2.92)
0
146 Modelos de reacción-difusión: Evolución y equilibrio

Un caso algo más complicado, pero de gran interés epidemiológico, es el caso en


que se produce transmisión vertical, es decir, en el que algunos de los recién nacidos
nacen infecciosos. Entonces, tomamos
Z a+ 
s(t, 0) = β(a) s(t, a) + r(t, a) + (1 − q)i(t, a) da, (2.93)
0
Z a+
i(t, 0) = q β(a)i(t, a)da, r(t, 0) = 0, (2.94)
0

donde t ∈ [0, T ] y q ∈ [0, 1] es el parámetro de transmisión vertical.

Observación 2.6.2 Sumando las ecuaciones (2.89)-(2.91) y considerando las con-


diciones de frontera (2.92) o (2.93)-(2.94), vemos que u = s + i + r satisface el
problema de McKendrick. Por tanto, conocida u, solo necesitamos determinar dos
de las tres incógnitas del modelo epidemiológico.

6.2.1. Equilibrios y estabilidad

Los equilibrios del problema introducido en la sección anterior son la soluciones


independientes del tiempo de las ecuaciones (2.89)-(2.91), es decir

∂a S(a) = −λ∗ (a)S(a) − µ(a)S(a), (2.95)


∂a I(a) = λ∗ (a)S(a) − (µ(a) + α(a))I(a), (2.96)
∂a R(a) = α(a)I(a) − µ(a)R(a),

con a ∈ (0, a+ ) y
Z a+

λ (a) = ρ(a)I(t) + k(ā, a)I(ā)dā.
0

Como en el problema de evolución, la función U = S +I +R satisface el problema de


equilibrio de McKendrick y, al ser, por hipótesis, R = 1, sabemos que U (a) = π(a)
es su único equilibrio estable, véase (2.88). Por tanto, basta con considerar el sistema
(2.95)-(2.96).

En esta sección asumiremos que la edad máxima es a+ = ∞ y que


Z ∞

λ (a) = k2 (a) k1 (ā)I(ā)dā =: λ̂k2 (a), (2.97)
0
2.6. Modelos con estructura de edad 147

donde el número λ̂ denota la integral y, por tanto, es dependiente de la solución


I, a ser determinada. Es decir, λ̂ es un incógnita del problema. Analizaremos las
condiciones de frontera sin transmisión vertical, es decir, con I(0) = 0 y
Z ∞ Z ∞
S(0) = β(a)U (a)da = β(a)π(a)da = 1,
0 0

debido a la hipótesis R = 1.

Cálculo de los equilibrios. Resolviendo la ecuación de los susceptibles, deducimos


que
 Z a 
S(a) = exp − (λ∗ (τ ) + µ(τ ))dτ . (2.98)
0

Para calcular I(a), multiplicamos la ecuación (2.96), que es una EDO lineal, por el
factor integrante
Z a 
ϕ(a) = exp (µ(τ ) + α(τ ))dτ ,
0

e integramos en (0, a). Integrando por partes, el miembro de la izquierda queda como
Z a τ =a
Z a
0
ϕ(τ )I (τ )dτ = ϕ(τ )I(τ ) − ϕ0 (τ )I(τ )dτ
0 τ =0
Z a 0
= ϕ(a)I(a) − (µ(τ ) + α(τ ))ϕ(τ )I(τ )dτ,
0

ya que I(0) = 0, de modo que obtenemos


Z a Z a  
ϕ(a)I(a) − (µ(τ ) + α(τ ))ϕ(τ )I(τ )dτ = ϕ(τ ) λ∗ (τ )S(τ ) − (µ(τ ) + α(τ ))I(τ ) dτ.
0 0

Simplificando y dividiendo por ϕ(a), deducimos


Z a
ϕ(τ )
I(a) = λ∗ (τ )S(τ ) dτ.
0 ϕ(a)
Sustituyendo la expresión de S obtenida en (2.98), obtenemos
Z a  Z τ  ϕ(τ )

I(a) = λ (τ ) exp − (λ∗ (s) + µ(s))ds dτ.
0 0 ϕ(a)
El producto de las exponenciales es la exponencial de la suma, que viene dada por
Z τ Z τ Z a

− (λ (s) + µ(s))ds + (µ(s) + α(s))ds − (µ(s) + α(s))ds
0 0 0
Z τ Z a Z a

=− λ (s)ds − α(s)ds − µ(s)ds,
0 τ 0
148 Modelos de reacción-difusión: Evolución y equilibrio

con lo que
Z a  Z τ  Z τ 
∗ ∗
I(a) = π(a) λ (τ ) exp − λ (s)ds − α(s)ds dτ. (2.99)
0 0 0

Esta forma no es aún explícita ya que λ∗ (a) = λ̂k2 (a), y el valor de λ̂ es desconocido.
Para determinarlo, reemplazamos esta expresión de I(a) en la definición de λ∗ (a)
dada en (2.97), obteniendo
Z ∞ Z a  Z τ  Z τ 
λ̂ = λ̂ k1 (a)π(a) k2 (τ ) exp − λ̂k2 (s)ds − α(s)ds dτ da. (2.100)
0 0 0 0

Observemos que es necesario (y suficiente) que se satisfaga esta ecuación para que
exista un equilibrio. Tenemos dos casos:

Equilibrio libre de enfermedad. Si λ̂ = 0, la ecuación (2.100) se satisface


trivialmente. En particular, λ̂ = 0 implica que I(a) ≡ 0. Por tanto, el equilibrio en
este caso es
S1∗ (a) = π(a), I1∗ (a) = 0, R1∗ (a) = 0, para a ∈ (0, ∞).

Equilibrio endémico. Si λ̂ > 0, entonces debe satisfacerse G(λ̂) = 1, donde


Z ∞ Z a  Z τ  Z τ 
G(λ̂) = k1 (a)π(a) k2 (τ ) exp − λ̂k2 (s)ds − α(s)ds dτ da.
0 0 0 0

Si k2 (a) es positiva en algún subintervalo entonces G(λ̂) es estrictamente decreciente,


como vimos en el Teorema 2.6.23, de modo que la ecuación G(λ̂) = 1 admite, a lo
sumo, una única solución. Además, también deducimos que
lı́m G(λ̂) = 0.
λ̂→∞

Por tanto, la existencia de una única solución positiva de G(λ̂) = 1 depende del valor
de G(0), y por ello, definimos tal valor como el

Número de reproducción básico

Z ∞ Z a  Z τ 
R0 = k1 (a)π(a) k2 (τ ) − α(s)ds dτ da.
0 0 0

Concluimos que si R0 > 1 entonces existe un único λ̂∗ > 0 que proporciona la
solución de equilibrio endémico (S2∗ (a), I2∗ (a), R2∗ (a)) a través de las fórmulas (2.98)
y (2.99), con λ∗ (a) = λ̂∗ k2 (a), y por la identidad R2∗ (a) = π(a) − S2∗ (a) − I2∗ (a).
2.6. Modelos con estructura de edad 149

Observación 2.6.3 Estabilidad de los equilibrios.

Debido a que los equilibrios del problema son funciones no constantes, el estudio
de la estabilidad lineal de los mismos se complica notablemente, y no lo detalla-
remos en estas notas. El resultado que se obtiene es, sin embargo, el esperado: un
intercambio de estabilidad cuando R0 atraviesa el uno. Se tiene

R0 < 1 =⇒ (S1∗ (a), I1∗ (a), R1∗ (a)) estable y (S2∗ (a), I2∗ (a), R2∗ (a)) inestable,
R0 > 1 =⇒ (S2∗ (a), I2∗ (a), R2∗ (a)) estable y (S1∗ (a), I1∗ (a), R1∗ (a)) inestable.

Ejercicios de la Sección 6
1. Consideremos el modelo de McKendrick con β y µ constantes, a+ = ∞ y con
u0 (a) arbitraria. Definamos
Z ∞
π(a)
ψ(t) = β(a) u0 (a − t)da.
t π(a − t)
R∞
a) Demostrar que ψ(t) = βe−µt 0 u0 (a)da.
b) Derivando la expresión (2.83), obtener una ecuación diferencial para B(t)
y resolverla.
c) Obtener la solución del problema de McKendrick asociada a B(t).
d ) Obtener la solución de variables separadas del problema y comprobar que
si u0 es de la forma u0 (a) = c0 e−βa entonces ambas soluciones coinciden.

2. Consideremos el modelo de McKendrick con µ constante, a+ = ∞, u0 (a) ar-


bitraria y β(a) = β̄e−µa , donde β̄ es una constante.

a) Calcular la función ψ(t) definida en el Ejercicio 1 .


b) Derivando la expresión (2.83), obtener una ecuación diferencial para B(t)
y resolverla.
c) Obtener la solución del problema de McKendrick asociada a B(t).
d ) Obtener la solución de variables separadas del problema y determinar
bajo qué condiciones coincide con la asociada a B(t).

3. Consideremos el modelo de McKendrick con a+ = ∞, β(a) = β̄e−αa y µ, α y


β̄ constantes. Calcular:
150 Modelos de reacción-difusión: Evolución y equilibrio

a) La tasa de crecimiento de la población, λ∗ , en términos de µ, α y β̄.


b) La tasa de reproducción neta, R, en términos de dichos parámetros.

4. Consideremos el modelo de McKendrick con a+ = ∞, β(a) = β̄ae−αa y µ, α y


β̄ constantes. Calcular:

a) La tasa de crecimiento de la población, λ∗ , en términos de µ, α y β̄.


b) La tasa de reproducción neta, R, en términos de dichos parámetros.

5. Consideremos el modelo de McKendrick con a+ = ∞, con la tasa de mortalidad


per cápita, µ, constante y con la tasa de nacimientos per cápita dada por
(
0 si 0 ≤ a < A,
β(a) = −αa
β̄e si a ≥ A,

donde µ, α, β̄ y A son constantes positivas.

a) Realizar gráficas de π(a) (probabilidad de supervivencia hasta la edad a)


y de β(a). Interpretar el significado biológico del parámetro A.
b) Supongamos que β̄ = 1/A, y que el número x0 ∈ R es el único punto fijo
de la función f (x) = e−x . Calcular la tasa de crecimiento de la población,
λ∗ , en términos de µ, α, A, y x0 .
c) Calcular la tasa de reproducción neta, R, en términos de µ, α, y β.
d ) ¿Qué relación de crecimiento o decrecimiento tienen λ∗ y R respecto de
A?¿Tiene sentido biológico?

6. Consideremos el modelo SIS con estructura de edad

∂t s(t, a) + ∂a s(t, a) = −λ(t, a)s(t, a) − µ(a)s(t, a) + γ(a)i(t, a),


∂t i(t, a) + ∂a i(t, a) = λ(t, a)s(t, a) − (µ(a) + γ(a))i(t, a),
R∞
con (t, a) ∈ (0, ∞) × (0, ∞), con λ(t, a) = k2 (a) 0 k1 (t)i(t, a)da, con las con-
diciones de frontera
Z a+

s(t, 0) = β(a) s(t, a) + i(t, a) da,
0
i(t, 0) = 0,

y con datos iniciales dados.

a) Calcular el equilibrio libre de enfermedad.


b) Determinar el número de reproducción básico de este modelo.
2.6. Modelos con estructura de edad 151

7. Consideremos el modelo SIR con estructura de edad

∂t s(t, a) + ∂a s(t, a) = −λ(t, a)s(t, a) − µ(a)s(t, a),


∂t i(t, a) + ∂a i(t, a) = λ(t, a)s(t, a) − (µ(a) + γ(a))i(t, a),
∂t r(t, a) + ∂a r(t, a) = γ(a)i(t, a) − µ(a)r(t, a),

donde (t, a) ∈ R(0, ∞) × (0, ∞) y la fuerza de la infección viene dada por



λ(t, a) = k2 (a) 0 k1 (t)i(t, a)da, para ciertas funciones no negativas k1 y k2 .
Al sistema anterior le adjuntamos las condiciones de frontera de transmisión
vertical
Z ∞

s(t, 0) = β(a) s(t, a) + r(t, a) + (1 − q)i(t, a) da,
0
Z ∞
i(t, 0) = q β(a)i(t, a)da,
0
r(t, 0) = 0,

para q ∈ (0, 1), y datos iniciales no negativos tales que s(0, a) + i(0, a) +
r(0, a) = c0 π(a), para cierta constante dada c0 > 0. Finalmente, asumamos las
condiciones habituales
Z ∞
β(a)π(a)da = 1 y lı́m λ(t, a) = λ̂k2 (a),
0 t→∞

donde λ̂ 6= 0 es una constante desconocida.

a) Determinar condiciones para que exista, al menos, un equilibrio endémico,


y definir el número de reproducción básico correspondiente.
b) Demostrar que, para q suficientemente pequeño, el equilibrio endémico es
único.
Bibliografía

Del Capítulo 1.

G. Plonka, D.Potts, G. Stridl, M. Tasche, Numerical Fourier analysis, Birkhäuser,


2018.

T. Hsu, Fourier series, Fourier transforms, and function spaces, American Mathe-
matical Society Textbooks, Vol. 59, 2020.

Y. Katznelson, An introduction to harmonic analysis, Cambridge University Press,


2004.

R. Strichartz, A guide to distribution theory and Fourier transforms, CRC Press,


1994.

Del Capítulo 2.

F. Brauer, C. Castillo-Chávez, Mathematical models in population biology and epi-


demiology, Springer, 2012.

M. Martcheva, An introduction to mathematical epidemiology, Springer, 2015.

M. Cross, H. Greenside, Pattern formation and dynamics in nonequilibrium systems,


Cambridge University Press, 2009.

152

También podría gustarte