Está en la página 1de 16

INTRODUCCIÓN AL CURSO DE ANÁLISIS FUNCIONAL

Hernán R. Henrı́quez

El texto que sigue pretende justificar y motivar por qué enseñar análisis funcional, y es
introductorio al curso de análisis funcional que impartimos en la Universidad de Santiago de
Chile. A continuación lo vamos a justificar mencionando varios problemas que conducen y
requieren técnicas de análisis funcional.

1 Ecuación diferencial lineal


Estudiemos la ecuación diferencial lineal en Rn con condición inicial. Este problema se
conoce como problema de Cauchy en la literatura.

1.- Caso escalar de primer orden


Una gran cantidad de problemas en ciencia, ingenierı́a y otras disciplinas se reducen a
resolver la ecuación diferencial de primer orden

x0 (t) = ax(t) + f (t), t ≥ t0 , (1.1)


x(t0 ) = x0 . (1.2)

Cuando f = 0, se dice que la ecuación es homogénea, y su solución, conocida desde los


trabajos de Euler aproximadamente en 1750, es

x(t) = ea(t−t0 ) x0 , t ≥ t0 .

Si f 6= 0, y suponemos que f es continua, entonces se usa una técnica conocida como


variación de constantes para obtener que la solución de (1.1)-(1.2) es
Z t
a(t−t0 )
x(t) = e x0 + ea(t−s) f (s)ds, (1.3)
t0

expresión que se conoce como fórmula de variación de constantes.

2.- Caso escalar de orden superior


Una importante cantidad de situaciones se representan usando un número finito de
parámetros, y se modelan por una ecuación diferencial ordinaria de orden n de la forma

y (n) (t) + an−1 y (n−1) (t) + · · · + a1 y 0 (t) + a0 y(t) = f (t), t ≥ t0 , (1.4)


2 Hernán R. Henrı́quez

con condición inicial


y (i) (t0 ) = yi , i = 0, 1, . . . , n − 1. (1.5)
Para estudiar el problema (1.4)-(1.5) se definen las variables xi con i = 1, . . . , n mediante
las relaciones
xi = y (i−1) , i = 1, . . . , n.
Se deduce de lo anterior y de (1.4) que

x01 = x2 ,
x02 = x3 ,
..
.
x0n−1 = xn ,
x0n = −a0 x1 − a1 x2 − · · · − an−1 xn + f.

Si definimos el vector x = col(x1 , . . . , xn ), entonces el sistema de ecuaciones anterior se


representa en la forma
   
0 1 0··· 0 0
 0
 0 1··· 0 


 0 

0  .. .
. .
. .. ..
x (t) =  .  x(t) + 
  
 . . .   . 

 0 0 ··· 1   0 
−a0 −a1 · · · −an−1 f (t)

lo que puede reescribirse en la forma

x0 (t) = Lx(t) + fe(t) (1.6)

siendo L la matriz  
0 1 0··· 0

 0 0 1··· 0 

L=
 .. .. .. .. 
 . . . . 

 0 0 ··· 1 
−a0 −a1 ··· −an−1

y fe(t) la función vectorial fe(t) = col(0, . . . , f (t)). El lector reconocerá en L a la matriz


acompañante del polinomio

p(λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 .

Además, (1.6) es una ecuación diferencial de primer orden del tipo (1.1), con la diferencia que
en este caso L es una matriz de n × n. Es decir, formulando la ecuación en forma vectorial
ya no es tan evidente cuál es el orden de la ecuación. Veremos en las secciones siguientes
que esta situación es bastante general, y que las técnicas de análisis funcional nos permiten
considerar como ecuaciones diferenciales de primer orden a ecuaciones diferenciales de ı́ndole
muy diversa.
Introducción al curso de Análisis Funcional 3

3.- Caso vectorial de primer orden


Podemos generalizar la idea anterior y plantearnos estudiar la ecuación diferencial vec-
torial de primer orden
x0 (t) = Ax(t) + f (t), t ≥ t0 , (1.7)
siendo A una matriz de n × n y f (t) ∈ Rn una función vectorial. La condición inicial será

x(t0 ) = x0 ∈ Rn . (1.8)

Será posible obtener la solución de este problema procediendo como hicimos para (1.1)-
(1.2)? Para usar una fórmula como (1.3) necesitamos definir un concepto de matriz expo-
nencial de manera similar a la definición de función exponencial ex . Por lo tanto, vamos a
necesitar un concepto de convergencia de series de matrices. Sea Mn×n el espacio de matrices
de n × n. Sea k · k una norma en Mn×n . Podemos efectuar las siguientes afirmaciones:
- El espacio (Mn×n , k · k) es completo.
- Si A ∈ Mn×n , entonces la serie

A
X 1 i
e = A
i=0
i!

es absolutamente convergente en Mn×n , y se verifican las siguientes propiedades.

(i) e0 = I.
(ii) eA es una función continua de A.
(iii) Para A ∈ Mn×n , la función z → ezA es una función analı́tica de z, con radio de
convergencia ∞.
(iii) Si A, B ∈ Mn×n son conmutativas, entonces eA+B = eA eB .

Ahora podemos retornar al problema (1.7)-(1.8) y mostrar que su solución puede expre-
sarse como Z t
(t−t0 )A
x(t) = e x0 + e(t−s)A f (s)ds, (1.9)
t0

que se conoce como fórmula de variación de constantes para el problema (1.7)-(1.8).

2 Control de sistemas
En la sección anterior, x ∈ Rn representa el “estado” del sistema, es decir, el conjunto
de parámetros que describen el sistema, y f (t) representa la acción que se ejerce sobre el
sistema. Para modelos lineales, podemos pensar que esta acción es del tipo Bu(t), donde B
es una matriz y u(t) ∈ Rm es el control disponible para actuar sobre el sistema. En estas
condiciones, el sistema se representa por la ecuación

x0 (t) = Ax(t) + Bu(t), t ≥ t0 , (2.1)


4 Hernán R. Henrı́quez

x(t0 ) = x0 ∈ Rm , (2.2)

en este caso A, B son matrices de n × n y n × m, respectivamente, y u : [t0 , t1 ] → Rm es una


función apropiada, que denominaremos control admisible.
Mencionamos algunos desarrollos matemáticos importantes para el sistema (2.1)-(2.2).

1.- Problema de control óptimo


La estrategia de control u(·) aplicada al sistema tiene un costo. En función de los objetivos
del sistema, se distinguen varios “tipos” de costo, y también hay diversas maneras de modelar
matemáticamente el costo. Mencionamos los más estudiados.
i) Costo cuadrático o problema del regulador
Se define una funcional de costo asociada a la trayectoria x(t) por
Z t1
J(x0 , u) = g(x(t1 )) + [hx(s), Qx(s)i + hu(s), Ru(s)i]ds
t0

en el intervalo [t0 , t1 ]. En la expresión anterior, Q, R denotan matrices definidas positivas.


Se observa que J actúa en el espacio de controles admisibles, que es un espacio de funciones.
El objetivo es determinar el control u(·) que minimiza J. Como J actúa sobre funciones,
este es un problema de cálculo variacional, que conduce a la ecuación diferencial de Riccati,
y si se consideran funciones de costo J más generales que las cuadráticas, el problema de
minimizar J conduce a la teorı́a de optimalidad de Pontryagin.
ii) Problema de tiempo mı́nimo
El objetivo en este caso es determinar el mı́nimo tiempo t1 para que el sistema, es decir
x alcance un objetivo o blanco determinado x(t1 ) = x1 .

2.- Controlabilidad de sistemas


El problema anterior nos lleva a definir “blancos” alcanzables, es decir, cuáles son los
estados x1 ∈ Rn para los cuales existe una función de control admisible u : [t0 , t1 ] → Rm
de modo que la solución x(·) del sistema verifica x(t1 ) = x1 . Si esta propiedad se satisface
para todo x1 ∈ Rn se dice que el sistema (2.1)-(2.2) es controlable. El año 1963 Kalman
(demostrado paralelamente por Popov) estableció el famoso resultado.

Teorema 2.1. Las siguientes condiciones son equivalentes:


a) El sistema (2.1)-(2.2) es controlable.
b) r[B, AB, . . . , An−1 B] = n.

Demostración Si denotamos por U el espacio de los controles admisibles, usando (1.9) la


afirmación se reduce a mostrar que el operador lineal Λ : U → Rn definido por
Z t1
Λ(u) = e(t1 −s)A Bu(s)ds
t0

es un epimorfismo.
Introducción al curso de Análisis Funcional 5

Como U es un espacio de dimensión infinita, la demostración anterior requiere que


dispongamos de una estructura topológica apropiada en U.

3.- Estabilidad y estabilización asintótica de sistemas


Volvamos a considerar el sistema (2.1)-(2.2). En ausencia de control, el sistema queda

x0 (t) = Ax(t), t ≥ t0 , (2.3)


x(t0 ) = x0 ∈ Rm , (2.4)

cuya solución es x(t) = e(t−t0 )A x0 . Un problema fundamental, tanto desde un punto de vista
teórico como aplicado es decidir si el sistema es asintóticamente estable, es decir, cuando

e(t−t0 )A x0 → 0, t → ∞,

para todo x0 ∈ Rn . Este problema se puede estudiar usando funciones de Lyapunov, lo


que conduce a la ecuación algebraica de Riccati, o mediante la teorı́a de formas canónicas
de matrices, lo que requiere conocer los valores propios de la matriz A. Si denotamos el
conjunto de los valores propios de la matriz A, llamado espectro de A, por σ(A) y C− =
{z ∈ C : Re(z) < 0}, podemos establecer el siguiente resultado.

Teorema 2.2. Las siguientes condiciones son equivalentes:

(a) El sistema (2.3) es (asintóticamente) estable.

(b) σ(A) ⊂ C− .

Cuando el sistema (2.3) no es (asintóticamente) estable surge el problema de decidir si


escogiendo el control u(·) apropiadamente el sistema (2.1) resultante es estable. En este caso
se dice que el sistema ha sido estabilizado. El problema se reduce a definir apropiadamente
el control u(·). La manera más usada para controlar sistemas es mediante los “controles
realimentados”. El control realimentado consiste en definir u(·) en función del estado x(·).
Como estamos estudiando sistemas lineales, y manteniendo la misma idea para el control
realimentado, nos lleva a definir

u(t) = F x(t) + v(t), t ≥ 0, (2.5)

donde F es una matriz de m × n y v(·) es otra función de control, la que puede tener otros
objetivos. Sustituyendo en (2.1) se obtiene el sistema

x0 (t) = (A + BF )x(t) + Bv(t).

El sistema (2.1) se llama estabilizable si existe una matriz F de modo que el sistema anterior
sea estable. La estabilidad de un sistema es fundamental para diseñar sistemas que reaccionen
apropiadamente frente a perturbaciones. Por este motivo, este es uno de los tópicos más
estudiado en teorı́a de control. El resultado fundamental es el siguiente teorema demostrado
por Wonham en 1968.
6 Hernán R. Henrı́quez

Teorema 2.3. Todo sistema controlable es estabilizable.

4.- Observabilidad y tópicos relacionados


El estado x del sistema (2.1) usualmente no es accesible para actuar sobre él. Por
ejemplo, no es posible definir u(·) usando (2.5) cuando x(t) no se conoce. Frecuentemente,
solo se conoce una “observación” del estado. En sistemas lineales, podemos suponer que la
observación tiene la forma
y(t) = Cx(t),
donde C es una matriz de p × n, con p < n, y usualmente p es mucho menor que n. El
problema más elemental en este contexto es decidir si conociendo la función y(·) en un
intervalo [t0 , t1 ] podemos descubrir el estado inicial x0 . Por lo menos, sin detenernos en estas
notas sobre algorı́tmos de cálculo, decidir si existe un único x0 correspondiente a y(·). En
este caso, se dice que el sistema (2.1) es observable en el intervalo [t0 , t1 ]. Para formular
matemáticamente este problema, considerando que y(·) debe expresarse en la forma
 Z t 
A(t−t0 ) (t−s)A
y(t) = C e x0 + e Bu(s)ds , t ∈ [t0 , t1 ],
t0

y suponiendo que el control u(·) es conocido, motiva definir la función G : Rn → C([t0 , t1 ]; Rp )


por
G(x)(t) = CeAt x, t ∈ [t0 , t1 ].
Es claro que G es una aplicación lineal, con valores en un espacio de dimensión infinita,
continua cuando en C([t0 , t1 ]; Rp ) consideramos la norma de la convergencia uniforme, y el
problema de observabilidad es equivalente a que ker(G) = {0}. Por lo tanto, hay que calcular
ker(G). El siguiente es el resultado fundamental.

Teorema 2.4. El sistema (2.1) es observable si, y solamente si, el sistema

z 0 (t) = At z(t) + C t w(t)

es controlable.

3 Sistemas con retardo


En los sistemas considerados en las secciones anterriores las acciones ocurren simultáneamente.
Por ejemplo, x0 (t) depende de x(t), en el mismo instante t. Esto no es ası́ en los sistemas
reales. En general, las acciones no tienen efecto inmediato en el sistema. Una familia de
ejemplos elementales son los sistemas económicos en los cuales, como sabemos, las decisiones
se demoran en producir un efecto.
Para fijar las ideas, consideremos como ejemplo la ecuación de Euler-Malthus sobre creci-
miento o mejor, evolución, de poblaciones. Representemos por x(t) el número de individuos
en el instante t; b la tasa de natalidad, es decir, el número de nacimientos por unidad de
Introducción al curso de Análisis Funcional 7

tiempo y por individuo, y por d la tasa de mortalidad. En el intervalo [t, t + ∆t] se verifica
la siguiente relación
x(t + ∆t) − x(t) = (b − d)x(t)∆t,
de lo cual se deduce
x0 (t) = (b − d)x(t),
cuya solución ya sabemos es x(t) = e(b−d)t x(0). Sin embargo, es evidente que los nacimientos
en el instante t dependen de la cantidad de individuos en el instante t − r, donde r > 0 es
el tiempo de gestación. Por lo tanto, una ecuación más representativa de la evolución de la
población será
x0 (t) = bx(t − r) − dx(t). (3.1)
Surgen inmediatamente varias preguntas relativas a la solución de esta ecuación. Cuál es la
condición inicial apropiada para resolver la ecuación?, Cómo podemos resolverla? Es fácil
comprobar que si conocemos la función x(·) en el intervalo [t0 − r, t0 ], entonces podemos
considerar a (3.1) como una ecuación diferencial lineal de primer orden en [t0 , t0 + r]. En
efecto, definiendo f (t) = bx(t − r), la ecuación (3.1) puede reescribirse

x0 (t) = −dx(t) + f (t), t0 ≤ t ≤ t0 + r,

cuya solución es
Z t
−d(t−t0 )
x(t) = e x(t0 ) + e−d(t−s) f (s)ds, t0 ≤ t ≤ t0 + r, (3.2)
t0

y repitiendo este argumento en intervalos del tipo [t0 + (n − 1)r, t0 + nr], n ∈ N, se puede
resolver para todo t ≥ t0 . Podemos formalizar este método, conocido como método de
pasos, procediendo de la siguiente manera. Sea ϕ : [−r, 0] → R la función definida por
ϕ(θ) = x(t0 + θ), que representa la condición inicial de la ecuación (3.1). Supongamos
que ϕ es continua. Se deduce de (3.2) que existe una única solución correspondiente a
ϕ. Si denotamos por x(t, ϕ) tal solución, podemos resumir esta construcción definiendo la
aplicación S(t) : C([−r, 0]) → C([−r, 0]), ϕ 7→ x(t + θ, ϕ). Estudiar propiedades de la
ecuación (3.1) se reduce ası́ a estudiar propiedades de la familia de aplicaciones S(t) para
t ≥ t0 , y las aplicaciones S(t) se encuentran definidas entre espacios de Banach.
En consecuencia, el estudio de ecuaciones diferenciales con retardo se puede formalizar
mediante el estudio de aplicaciones en espacios de dimensión infinita. Todos los tópicos
mencionados en las secciones anteriores también tienen sentido para sistemas con retardo.
En este caso, los análisis deben efectuarse en el contexto de espacios de dimensión infinita,
usando técnicas de análisis funcional.

4 Ecuación de ondas
Con el objerto de simplificar la presentación, consideremos la siguiente ecuación a derivadas
parciales (EDP) hiperbólica o ecuación de ondas
8 Hernán R. Henrı́quez

∂ 2 w(t, z)
= w(t, z) + f (t, z), t ≥ 0, z ∈ [0, π], (4.1)
∂t∂z
w(t, 0) = 0, t ≥ 0, (4.2)
∂w(0, z)
= w0 (z), 0 ≤ z ≤ π. (4.3)
∂z
Supongamos que w(t, ·) ∈ E, donde E es un espacio de funciones con dominio [0, π] en el
cual el operador integral es una aplicación lineal continua. Por ejemplo, E = L2 ([0, π]). Si
∂w(t, z)
definimos u(t, z) = , entonces
∂z
Z z
w(t, z) = u(t, ξ)dξ,
0

y la ecuación (4.1) se reduce a


Z z
∂u(t, z)
= u(t, ξ)dξ + f (t, z). (4.4)
∂t 0

Definamos las funciones x(t) = u(t, ·), f˜(t) = f (t, ·). Supongamos que x(t), f˜(t) ∈ E. Sea
A : E → E el operador
Z z
Av(z) = v(ξ)dξ, v ∈ E, z ∈ [0, π],
0

entonces A es un operador lineal continuo, y la ecuación (4.4), con las condiciones (4.2)-(4.3),
puede reescribirse

x0 (t) = Ax(t) + f˜(t), t ≥ 0, (4.5)


x(0) = w0 . (4.6)

El sistema (4.5)-(4.6) tiene la misma presentación que la ecuación (1.7). La diferencia es que
en este caso la variable x(t) pertenece a un espacio de dimensión infinita. De todas maneras,
procediendo formalmente, podemos postular que su solución se obtiene igual que la solución
de (1.7), es decir, su solución se expresa mediante la fórmula de variación de constantes, que
en este caso queda Z t
tA
x(t) = e w0 + e(t−s)A f˜(s)ds. (4.7)
0

Para justificar lo anterior, debemos definir adecuadamente el operador lineal etA y el concepto
de integral que se está usando en el espacio E. En relación al primer aspecto podemos
pretender definir

X 1 n n
etA = t A , t ≥ 0, (4.8)
n=0
n!
lo que requiere estudiar la convergencia de la serie. Sea L(E) el espacio de aplicaciones
lineal de E en E. Considerando la norma de operadores, podemos convertir a L(E) en un
Introducción al curso de Análisis Funcional 9

espacio completo, y usando que A ∈ L(E) es una aplicación lineal continua es bastante
simple mostrar que la serie en (4.8) es convergente. En relación al segundo aspecto, existe
una teorı́a de integración en espacios de dimensión infinita, similar a la teorı́a de integración
de Lebesgue, denominada integral de Bochner. Con este concepto puede mostrarse que x(·)
definida por (4.7) está bien definida y es una solución de (4.5)-(4.6).

5 Ecuación del calor


A partir de los trabajos de Fourier se acepta que la propagación del calor en una barra
metálica coloca en [0, π] se describe por la ecuación

∂w(t, z) ∂ 2 w(t, z)
= k + f (t, z), t ≥ 0, z ∈ [0, π], (5.1)
∂t ∂z 2
w(t, 0) = w(t, π) = 0, t ≥ 0, (5.2)
w(0, z) = w0 (z), 0 ≤ z ≤ π, (5.3)

donde k > 0 es un coeficiente de difusión del calor. Para resolver esta ecuación podemos
proceder de la siguiente manera. Consideremos x(t) = w(t, ·) como elemento de un cierto
espacio de funciones E([0, π]) y definimos el operador A : D(A) ⊂ E → E por

∂ 2 u(z)
(Au)(z) = k , u ∈ D(A) ⊆ E([0, π]).
∂z 2
Con esta definición la ecuación (5.1) se escribe como la ecuación (4.5). Procediendo como
antes, necesitamos que A sea un operador lineal continuo, lo cual depende de la topologı́a del
espacio E. Este camino conduce a la teorı́a de distribuciones o funciones generalizadas y de
los espacios localmente convexos, definidos en los años 40 por J. Dieudonné y L. Schwartz.
Una segunda aproximación es aceptar que A es un operador lineal no continuo y construir
una especie de exponencial etA en el espacio L(E). Este método iniciado por los años 20
conduce a la teorı́a de semigrupos fuertemente continuos. En lugar de exponenecial etA
escribiremos T (t) ∈ L(E) y diremos que (T (t))t≥0 es un semigrupo fuertemente continuo en
E si se satisfacen

(i) T (0) = I.

(ii) T (t + s) = T (t)T (s), para todo t, s ≥ 0.

(iii) Para cada x ∈ E, la función [0, ∞) → E, t 7→ T (t)x, es continua.

En este caso, la solución de (5.1)-(5.3) se expresa en la forma


Z t
x(t) = T (t)w0 + T (t − s)f˜(s)ds, t ≥ 0,
0
10 Hernán R. Henrı́quez

que continuamos llamando fórmula de variación de constantes para el problema (5.1)-(5.3).


El semigrupo es la solución de la ecuación homogénea, y podemos calcularlo usando sepa-
ración de variables. En efecto, escribamos

w(t, z) = P (t)Q(z)

sustituyendo en la ecuación (5.1) cuando f = 0, se obtiene

P 0 (t)Q(z) = kP (t)Q00 (z),

de lo cual se deduce
1 P 0 (t) Q00 (z)
= = λ,
k P (t) Q(z)
y separando las ecuaciones diferenciales

P 0 (t) − kλP (t) = 0,


Q00 (z) − λQ(z) = 0.

Resolviendo la segunda ecuación con la condición de borde

Q(0) = Q(π) = 0, (5.4)

obtenemos que λ < 0. Escribiendo λ = −µ2 con µ > 0, obtenemos

Q(z) = a cos µz + b sin µz,

para ciertas constantes a, b ∈ R. Volviendo a usar la condición (5.4), se obtiene que a = 0 y


µ = n ∈ N. Con este valor de µ resolvemos la ecuación para P , obteniendo finalmente
2
wn (t, z) = bn e−kn t sin nz, t ≥ 0, z ∈ [0, π],

para cada n ∈ N. Usando la linealidad de la ecuación podemos postular que la función



2
X
w(t, z) = bn e−kn t sin nz, t ≥ 0, z ∈ [0, π], (5.5)
n=1

es la solución de (5.1)-(5.3) para ciertos valores de los coeficientes bn . Surgen una serie de
problemas técnicos de gran interés, cómo ser:
- Es la serie en (5.5) convergente? Para qué valores de bn ? Si calculamos (5.5) en t = 0,
obtenemos ∞
X
bn sin nz = w0 (z), z ∈ [0, π], (5.6)
n=1

conocida como serie de Fourier desde que J. B. Fourier (1768-1830) la estableciera en su


memoria “sobre la propagación del calor”, escrito en 1807 y publicado en 1822, aunque
ahora sabemos que la fórmula ya habı́a sido presentada por L. Euler en 1777.
Introducción al curso de Análisis Funcional 11

- Fourier no consiguió responder las pregunta básica, para qué funciones w0 es la serie
anterior convergente? Qué tipo de convergencia? Qué propiedades debe satisfacer w0 para
alcanzar la convergencia? En realidad, en la época de Fourier no se habı́a desarrollado
todavı́a un concepto apropiado de convergencia, ni menos el concepto de completitud de
espacios.
- Si denotamos por un (z) = sin nz, n ∈ N, la serie (5.6) se parece a una combinación
lineal de las funciones un , lo que nos lleva a preguntarnos si el conjunto B = {un : n ∈ N} es
una “ base”, en algún sentido, en un espacio vectorial conveniente?
- Retornando a la fórmula de variación de constantes, un problema fundamental es el
siguiente. Aceptemos que B es una base del espacio E([0, π]). Toda función w0 ∈ E la
podemos desarrollar en la forma (5.6), y el operador A lo podrı́amos calcular con la serie

X
Aw0 (z) = k −bn n2 sin nz
n=1

la que evidentemente tiene problemas de convergencia. Por este motivo, sospechamos que
A no estará definido en E sino solamente en un susbespacio apropiado D(A) de E. Surge
el problema de decidir cuáles operadores A conducen a un semigrupo fuertemente continuo
(T (t))t≥0 en E. Este problema fue resuelto mediante el ahora famoso teorema de Hille-Yosida
en 1948 (actualmente existen contribuciones de varios otros autores estudiando situaciones
especı́ficas).
- Comparando con (5.5), el semigrupo T (t) debe satisfacer

2
X
T (t)w0 (z) = bn e−kn t sin nz, t ≥ 0, z ∈ [0, π],
n=1

y la convergencia de esta serie depende exclusivamente de los coeficientes bn . Esto motiva


representar E por un espacio de sucesiones S de manera que podamos considerar A : D(A) ⊂
S → S definido por
A(bn )n = (−kn2 bn )n .
Esta observación motiva la pregunta, cuáles son los espacios E que admiten una repre-
sentación de este tipo?

6 Ecuaciones diferenciales con retardo


Ahora que hemos introducido la idea de semigrupo, volvamos a estudiar las ecuaciones
diferenciales con retardo para mostrar que la reducción de una ecuación diferencial parcial
(EDP) a ecuación diferencial ordinaria no es exclusiva de las EDPs, sino que es una propiedad
bastante general. Consideremos la ecuación diferencial lineal con retardo

x0 (t) = A0 x(t) + A1 x(t − r), t ≥ 0, (6.1)


x(θ) = ϕ(θ), −r ≤ θ ≤ 0. (6.2)
12 Hernán R. Henrı́quez

En el sistema anterior, x(t) ∈ Rn , A0 , A1 son matrices de n × n, r > 0 es una constante


que denota el retardo en el sistema, y ϕ es la condición inicial. Se acostumbra introducir
la siguiente notación xt : [−r, 0] → Rn es la función definida por xt (θ) = x(t + θ) para
t ≥ 0. Debemos fijar un espacio E de modo que ϕ, xt ∈ E. Una solución es escoger
E = C([−r, 0]; Rn ) que sabemos es un espacio de Banach dotado con la norma de la con-
vergencia uniforme. Es importante mencionar que el espacio C([−r, 0]; Rn ) presenta algunos
inconvenientes que serán analizados durante el curso. Definamos el operador

L(ψ) = A0 ψ(0) + A1 ψ(−r).

Es fácil comprobar que L : C([−r, 0]; Rn ) → Rn es una aplicación lineal continua. Además,
L(xt ) = A0 x(t) + A1 x(t − r) de tal modo que el sistema (6.1)-(6.2) puede reescribirse en la
forma

x0 (t) = L(xt ), t ≥ 0, (6.3)


x0 = ϕ. (6.4)

Sea y(t) = xt ∈ C([−r, 0]; Rn ). Supongamos que y(·) es derivable. Entonces


xt+h − xt
y 0 (t) = lim ,
h→0 h
donde el lı́mite se calcula usando la norma en C([−r, 0]; Rn ). Se deduce que
x(t + h + θ) − x(t + θ)
y 0 (t)(θ) = lim , −r ≤ θ ≤ 0.
h→0 h
Para θ = 0,

y 0 (t)(0) = x0 (t) = A0 x(t) + A1 x(t − r) = A0 xt (0) + A1 xt (−r).

Esto conduce a definir el operador A por



A0 ψ(0) + A1 ψ(−r), θ = 0,
A(ψ) =
ψ0, θ < 0,

con dominio D(A) = C 1 ([−r, 0]; Rn ) ⊂ C([−r, 0]; Rn ). El sistema (6.1)-(6.2) se representa
como

y 0 (t) = Ay(t), t ≥ 0,
y(0) = ϕ,

que nuevamente es una ecuación diferencial de “primer” orden sin retardo. La diferencia es
que en lugar de una matriz A en este caso aparece un operador lineal A. Se demuestra que
A genera un semigrupo fuertemente continuo (T (t))t≥0 en el espacio C([−r, 0]; Rn ). Por lo
tanto, la solución de (6.1)-(6.2) es y(t) = T (t)ϕ para t ≥ 0.
El resultado anterior puede ser generalizado para incluir cualquier ecuación con retardo
del tipo (6.3)-(6.4), donde L : C([−r, 0]; Rn ) → Rn es una aplicación lineal continua.
Introducción al curso de Análisis Funcional 13

Mostraremos en el curso que estas aplicaciones son aquellas que pueden representarse en
la forma Z 0
L(ψ) = [dθ N (θ)]ψ(θ), ψ ∈ C([−r, 0]; Rn ),
−r

donde N (·) es una función matricial de variación acotada sobre [−r, 0], y la integral debe
interpretarse en sentido de Riemann-Stieltjes.

7 Ecuaciones no lineales
Todas las ecuaciones que hemos considerado hasta aquı́ son lineales. Surge la pregunta:
cómo se procede con una ecuación no lineal? Existen una enorme variedad de situaciones
diferentes de gran interés. Ilustremos la idea con una ecuación diferencial no lineal en un
espacio de dimensión finita. Posiblemente el caso más simple es

x0 (t) = Ax(t) + N (x(t)) + h(t), 0 ≤ t ≤ a,


x(0) = x0 ,

con x(t) ∈ Rn , A es una matriz de n × n, N : Rn → Rn es una función apropiada y


h : [0, a] → Rn es una función continua. Si podemos aplicar la fórmula de variación de
constantes (1.9), entonces la solución se expresa por
Z t Z t
At A(t−s)
x(t) = e x0 + e h(s)ds + eA(t−s) N (x(s))ds, 0 ≤ t ≤ a, (7.1)
0 0

la cual es una ecuación integral. Una manera de estudiar la existencia de solución de (7.1)
es definir el operador F : C([0, a], Rn ) → C([0, a], Rn ) por
Z t Z t
At A(t−s)
F (x)(t) = e x0 + e h(s)ds + eA(t−s) N (x(s))ds
0 0

de modo que x(·) es solución de (7.1) si, y solamente si, F x = x. En este caso se dice que x
es un punto fijo de F .
El problema de punto fijo consiste en conocido un operador encontrarle sus puntos fijos.
El problema de punto fijo es muy importante en análisis porque permite representar situa-
ciones tan diferentes
√ como resolver la ecuación integral (7.1) o efectuar cálculos elementales
como determinar b. En este último caso, definimos
 
1 b
f (x) = x+ , x > 0, (7.2)
2 x

y es claro que si f (x) = x, entonces x = b. El resultado más elemental para resolver un
problema de punto fijo es el teorema de punto fijo de Banach. Sea (X, d) un espacio métrico.
Una función f : X → X se llama contractiva si existe una constante k < 1 tal que

d(f (x1 ), f (x2 )) ≤ kd(x1 , x2 ), x1 , x2 ∈ X.


14 Hernán R. Henrı́quez

Teorema 7.1. Sea (X, d) un espacio métrico completo y f : X → X una función contractiva.
Entonces existe un único x0 ∈ X tal que f (x0 ) = x0 .

La condición de contractividad es bastante exigente y claramente no necesaria. Por


ejemplo, si f : [a, b] → [a, b] es continua, entonces por el teorema del valor intermedio
sabemos que f tiene un punto fijo. En particular, si b > 1 y f es la función√definida en (7.2),
entonces f : [1, b] → [1, b], luego f tiene un punto fijo, que sabemos es b, y f no es una
función contractiva en ese intervalo para b > 3. La existencia de puntos fijo de funciones que
no son contractivas es un tópico ampliamente estudiado. Un primer resultado fundamental
sin la condición de contractividad es el siguiente teorema de Brouwer obtenido para n = 3
en 1909.
Teorema 7.2. Sea B n la bola unitaria cerrada en Rn . Si f : B n → B n es continua, entonces
f tiene un punto fijo.

Este resultado fue inmediatamente generalizado para una función continua f : K → K,


donde K es un conjunto convexo compacto en Rn . Posteriormente, Schauder establece la
generalización a espacios de Banach.
Teorema 7.3. Sea X un espacio de Banach y K un conjunto convexo compacto en X. Si
f : K → K es continua, entonces f tiene un punto fijo.

Bajo el nombre de Schauder-Tychonov se conoce una extensión del resultado anterior a


espacios localmente convexos. En la actualidad existen numerosos resultados de punto fijo
usando diferentes propiedades del dominio y de la función involucrada.

8 Problema de Stürm-Liouville
Numerosas situaciones en fı́sica y matemática se reducen a resolver el problema con valores
de frontera

L(y) + λy = 0, a ≤ x ≤ b, (8.1)
α1 y(a) + β1 y 0 (a) = 0, (8.2)
α2 y(b) + β2 y 0 (b) = 0, (8.3)

donde L es el operador diferencial de segundo orden

L(y) = a0 (x)y 00 (x) + a1 (x)y 0 (x) + a2 (x)y(x),

actuando sobre funciones y(·) de clase C 2 en [a, b].


De manera similar a lo que se conoce de álgebra lineal, si el problema (8.1)-(8.3) tiene
una solución y 6= 0, el valor λ se llama valor propio y la correspondiente función y se llama
función propia. La idea intuitiva es estudiar el conjunto de valores propios y las respectivas
funciones propias de forma tal que cualquier solución y de la ecuación no homogénea pueda
expresarse como combinación lineal de las anteriores, tal como ocurre con los valores y
Introducción al curso de Análisis Funcional 15

vectores propios de una matriz. Procedamos intuitivamente a explicar como se procede.


Supongamos que deseamos resolver la ecuación diferencial (esta idea es general, podrı́a ser
otro tipo de ecuación) no homogénea

Ly = f (x), a ≤ x ≤ b, (8.4)

con condición (8.2)-(8.3). Sean λi 6= 0, con i = 1, . . . , n, los valores propios de (8.1) con
funciones propias yi respectivamente, las cuales son linealmente independientes, y que
n
X
f (x) = ai yi (x), a ≤ x ≤ b.
i=1

Buscamos una solución de (8.4) que se pueda representar en la forma


n
X
y(x) = bi yi (x), a ≤ x ≤ b.
i=1

Sustituyendo en (8.4) obtenemos


n
X n
X n
X
(Ly)(x) = bi Lyi (x) = − bi λi yi (x) = ai yi (x),
i=1 i=1 i=1

ai
lo que nos permite calcular bi = − .
λi
Por cierto en el cálculo anterior hemos efectuado implı́citamente muchas hipótesis. La
más importante se refiere a la cantidad de valores propios. Por qué un número finito de
valores propios. Esta es una propiedad de las matrices porque son operadores actuando en
espacios de dimensión finita. En este caso podrı́an haber infinitos valores propios. Supon-
gamos que exista un conjunto numerable λn , n ∈ N, de valores propios conPfunción propia
asociada yn . Para repetir la idea anterior tendrı́amos que suponer que f = ∞ n=1 an yn (x) lo
que nos lleva a preguntarnos que sentido tiene este desarrollo en serie. Se puede observar
que estamos generalizando la idea de Euler-Fourier (5.6).
Supongamos que L lo reescribimos de la siguiente forma

L(y) = [p(x)y 0 (x)]0 + q(x)y(x), (8.5)

para ciertas funciones p, q con p0 , q continuas en [a, b] y p(x) 6= 0. El problema (8.1)-(8.3)


puede generalizarse cambiando (8.1) por

L(y) + λw(x)y(x) = 0, (8.6)

donde w(·) es una función continua en [a, b] con w(x) > 0 y también se supone que α12 +β12 6= 0
y α22 + β22 6= 0. Este problema ha pasado a llamarse problema de Stürm-Liouville desde que
Stürm-Liouville publicaron varios artı́culos en 1836-1837 donde establecen los resultados
fundamentales, generalizando las ideas de Euler-Fourier. Los resultados son tan importantes
16 Hernán R. Henrı́quez

que muchos autores reconocen en estos artı́culos el inicio del análisis funcional. Mencionemos
brevemente los resultados fundamentales de la teorı́a de Stürm-Liouville.
Se define un producto interior en L2 ([a, b]) por
Z b
hf, gi = f (x)g(x)w(x)dx.
a

Para este producto interior el operador L resulta ser auto-adjunto, es decir,

hLf, gi = hf, Lgi.

Teorema 8.1. Existe un conjunto numerable de valores propios λn ≥ 0, los que pueden
ordenarse en forma creciente 0 ≤ λ1 < λ2 · · · λn · · · con λn → ∞ cuando n → ∞. Además,
a cada valor propio le corresponde una única función propia ϕn .

Teorema 8.2. El conjunto {ϕn : n ∈ N} forma una base ortonormal.


P∞
Teorema 8.3. Si f es una función seccionalmente suave en [a, b], entonces f = n=1 γn ϕn .
Además, para x ∈ (a, b), la serie

X 1
γn ϕn (x) = (f (x+ ) + f (x− )).
n=1
2

También podría gustarte