Está en la página 1de 140

eines 52

Teoría de estabilidad y control

Isaac A. García

Seminari de Sistemes Dinàmics


Departament de Matemàtica
Universitat de Lleida


ISBN: 978-84-8409-422-7

© Edicions de la Universitat de Lleida, 2005


© El autor

Maquetación:
Servei de Publicacions (UdL)

Diseño cubierta:
cat & cas

Impresión:
Cargraphics

La reproducción total o parcial de esta obra por cualquier procedimiento, incluidos la repro-
grafía y el tratamiento informático, y la distribución de ejemplares mediante alquiler o présta-
mo público, queda rigurosamente prohibida sin la autorización de los titulares del copyright, y
será sometida a las sanciones establecidas por la ley.

EINES es una col·lección del Institut de Ciències de l’Educació de la Universitat de


Lleida.
A mi mujer Susanna y a mi hija Nadia
Índice general

Prólogo IX

1. Introducción y Ejemplos 1
1.1. Breve historia de control automático . . . . . . . . . . . . . . . . 1
1.2. Algunos ejemplos fı́sicos . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1. Partı́cula en movimiento unidimensional . . . . . . . . . . 3
1.2.2. Termostato y transferencia de calor . . . . . . . . . . . . . 3

2. Control Clásico y Transformada de Laplace 5


2.1. El problema clásico de control . . . . . . . . . . . . . . . . . . . . 5
2.2. Transformada de Laplace y función de transferencia . . . . . . . 5

3. Solución de Sistemas Lineales 7


3.1. Solución espectral de sistemas lineales . . . . . . . . . . . . . . . 7
3.1.1. La matriz exponencial . . . . . . . . . . . . . . . . . . . . 8
3.1.2. El teorema de Cayley-Hamilton y la matriz exponencial . 11
3.2. Solución de sistemas controlados . . . . . . . . . . . . . . . . . . 12
3.2.1. Existencia y unicidad de la solución . . . . . . . . . . . . 13
3.3. Relación entre espacio de estados y el control clásico . . . . . . . 13
3.4. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 16

4. Sistemas de Control Lineal 23


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3. Equivalencia Algebraica . . . . . . . . . . . . . . . . . . . . . . . 31
4.4. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 32

5. Observabilidad 37
5.1. Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 40

6. Realimentación Lineal 43
6.1. Definición y preliminares . . . . . . . . . . . . . . . . . . . . . . . 43
6.1.1. Realimentación y función de transferencia . . . . . . . . . 46
6.2. Realimentación frente a control precalculado . . . . . . . . . . . . 46
6.2.1. Sensibilidad a las condiciones iniciales . . . . . . . . . . . 48

VII
VIII ÍNDICE GENERAL

6.2.2. Sensibilidad a perturbaciones externas . . . . . . . . . . . 48


6.3. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 49
7. Estabilidad 53
7.1. Introducción y definiciones . . . . . . . . . . . . . . . . . . . . . . 53
7.2. Estabilidad en sistemas lineales . . . . . . . . . . . . . . . . . . . 54
7.3. Teorı́a de Liapunov de la estabilidad . . . . . . . . . . . . . . . . 56
7.3.1. Aplicación a sistemas lineales . . . . . . . . . . . . . . . . 58
7.3.2. Estabilidad mediante linearización . . . . . . . . . . . . . 59
7.4. Estabilidad y control . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.4.1. Estabilidad entrada–salida . . . . . . . . . . . . . . . . . . 61
7.4.2. Estabilización por realimentación lineal . . . . . . . . . . 63
7.4.3. Linealización de sistemas de control no lineales . . . . . . 63
7.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 64
8. Cálculo de Variaciones 75
8.1. Un ejemplo: braquistocrona . . . . . . . . . . . . . . . . . . . . . 75
8.2. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.3. Ecuaciones de Euler–Lagrange . . . . . . . . . . . . . . . . . . . 77
8.3.1. Lema fundamental del cálculo de variaciones . . . . . . . 77
8.3.2. Ecuaciones de Euler–Lagrange . . . . . . . . . . . . . . . 78
8.3.3. Integrales primeras en casos simples . . . . . . . . . . . . 80
8.4. Extremos con restricciones . . . . . . . . . . . . . . . . . . . . . . 81
8.5. Apéndice: Multiplicadores de Lagrange . . . . . . . . . . . . . . . 82
8.5.1. Problemas isoperimétricos . . . . . . . . . . . . . . . . . . 82
8.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 85
9. Control Óptimo 95
9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2. Control óptimo: método hamiltoniano . . . . . . . . . . . . . . . 97
9.3. El regulador lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.4. Teorı́a de Pontryagin . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 103
10.Prácticas 115
10.1. Control de la temperatura de una cámara . . . . . . . . . . . . . 115
10.1.1. Realización de la práctica . . . . . . . . . . . . . . . . . . 116
10.2. Dinámica de satélites de comunicación . . . . . . . . . . . . . . . 117
10.2.1. Un modelo matemático para la dinámica de satélites . . . 117
10.2.2. Realización de la práctica . . . . . . . . . . . . . . . . . . 119
10.3. El péndulo doble invertido . . . . . . . . . . . . . . . . . . . . . . 119
10.3.1. Realización de la práctica . . . . . . . . . . . . . . . . . . 120
10.4. Estabilidad en el péndulo cónico . . . . . . . . . . . . . . . . . . 121
10.4.1. Realización de la práctica . . . . . . . . . . . . . . . . . . 122
10.5. Un modelo de grúa con servomecanismo y regulador . . . . . . . 123
10.5.1. Realización de la práctica . . . . . . . . . . . . . . . . . . 123
10.6. El regulador centrı́fugo de Watt . . . . . . . . . . . . . . . . . . . 125
10.6.1. Realización de la práctica . . . . . . . . . . . . . . . . . . 126
IX

Prólogo

El presente libro de teorı́a y problemas corresponde a los temas básicos de un


primer curso de introducción al la teorı́a de control y estabilidad en variables de
estado. El autor imparte dicha asignatura en la titulación de Ingenierı́a Técni-
ca Industrial aunque el libro es igualmente recomendable para estudiantes de
otras titulaciones técnicas.

El objetivo principal es que el alumno disponga de un material preliminar


para el curso, con los resultados principales y algunas demostraciones de estos.
Además es interesante que el alumno pueda seguir paso a paso la resolución
de numerosos problemas de los temas mencionados como ejemplificación de los
conceptos y resultados teóricos, complementando ası́ los realizados en clase. Se
ha procurado presentar las soluciones en la forma más práctica y directa.

Me gustarı́a que este libro facilitase el aprendizaje de la asignatura y, agrade-


cerı́a cualquier sugerencia o comentario que pueda mejorarlo dirigiéndose a la
siguiente dirección electrónica: garcia@matematica.udl.es.

Dr. Isaac A. Garcı́a, Septiembre de 2004


Capı́tulo 1

Introducción y Ejemplos

1.1. Breve historia de control automático


En este capı́tulo introductorio revisaremos, en primer lugar, una breve in-
troducción histórica de la teorı́a del control automático.
El llamado control por retroalimentación es un mecanismo básico a través
del cual sistemas de naturaleza muy diferente (mecánicos, eléctricos, biológi-
cos, etc...) mantienen su equilibrio. Por ejemplo, un cambio en la temperatura
corporal de 1 grado es, en general, una sen̄al de algún tipo de enfermedad.
De hecho, de la teorı́a de la evolución de las especies de Darwin se desprende
que la retroalimentación sobre largos periodos temporales es responsable de tal
evolución.
Se puede definir el control por retroalimentación como el uso de diferentes
sen̄ales, determinadas a partir de la comparación del estado actual del sistema y
del estado deseado, para controlar el sistema. Un ejemplo cotidiano de sistema
controlado por retroalimentación es el control de la velocidad de un coche me-
diante el uso de la diferencia entre la velocidad actual y la deseada para variar el
flujo de gasolina. El hecho de que la salida del sistema sea usada para regular la
entrada del sistema da lugar a lo que se llama sistema de control en lazo cerrado.

El control por retroalimentación es una disciplina de la ingenierı́a y, co-


mo tal, está estrechamente relacionada con diversos problemas aplicados que la
humanidad ha querido resolver a lo largo de su historia. Más concretamente,
existió una época muy importante para el desarrollo de la teorı́a de control que
se comprende entre la Revolución Industrial y la primera y segunda Guerra
Mundial. El control necesitó adquirir el lenguaje de las matemáticas para poder
expresarse correctamente. De este modo J.C. Maxwell introdujo el análisis ri-
guroso de la teorı́a de control en 1868. Existen diversos periodos remarcables:
época primitiva desde 1868–1900; época clásica desde 1900–1960; época moderna
desde 1960 hasta la actualidad.

1
2 Introducción y Ejemplos

La Revolución Industrial en Europa introdujo nuevas máquinas que no se


podı́an regular con la mano. De este modo se iniciaron los primeros dispositivos
de control automático. Algunos de ellos son los reguladores de temperatura, de
presión, de velocidad, etc...

En 1840, el astrónomo G.B. Airy desarrolló un sistema de retroalimentación


para colocar su telescopio mediante un control de la velocidad con el fin de
compensar la rotación terrestre. Airy descubrió que un disen̄o poco adecuado del
sistema de lazo cerrado de retroalimentación producı́a oscilaciones indeseables en
el sistema. De este modo introdujo el concepto de inestabilidad y la herramienta
de las ecuaciones diferenciales en su análisis.

J.C. Maxwell (1868) fue el primero en linearizar las ecuaciones diferenciales


del movimiento para hallar la ecuación caracterı́stica del sistema y analizar los
efectos de los parámetros del sistema en su estabilidad.

En 1877, E.J. Routh muestra una técnica numérica para determinar cuando
una ecuación caracterı́stica tiene raı́ces estables. Ese mismo an̄o, I.I. Vishnegrad-
sky analizó la estabilidad de los reguladores usando ecuaciones diferenciales.

En 1892, A.M. Liapunov introdujo un trabajo básico en teorı́a de control,


estudiando la estabilidad de sistemas no lineales usando una generalización del
concepto de energı́a.

Entre los an̄os 1892–1898, O. Heaviside inventó el cálculo operacional e in-


trodujo la llamada actualmente función de transferencia.

La teorı́a de control clásica usa básicamente técnicas de dominio frecuen-


cial en el plano complejo. Se basa en metodos de transformadas y es aplicable
principalmente a sistemas lineales autónomos. Los métodos de Nyquist y Bode
analizan la magnitud y la fase de la respuesta en frecuencia del sistema. Tiene
la gran ventaja de que la respuesta en frecuencia del sistema puede ser medida
experimentalmente y se puede pues calcular la función de transferencia. No se
necesita bajo este punto de vista una descripción interna exacta del sistema en
el dominio temporal, es decir, sólo es importante el comportamiento entrada–
salida del sistema.

Sin embargo esta teorı́a de control clásica es difı́cil de aplicar a sistemas con
varias entradas y múltiples salidas. La teorı́a de control moderna es fundamen-
talmente una teorı́a de disen̄o en el dominio temporal (a diferencial de la clásica
que es en el dominio frecuencial). Se requiere un modelo en el espacio de estados
del sistema que se desea controlar. Esta visión moderna es la que se dará en este
libro.
1.2 Algunos ejemplos fı́sicos 3

1.2. Algunos ejemplos fı́sicos


1.2.1. Partı́cula en movimiento unidimensional
Consideremos una partı́cula que se mueve en una recta y sea s(t) su distancia
al origen en función del tiempo. Supongamos que sobre la partı́cula actúa una
fuerza por unidad de masa u1 (t) que le produce una aceleración pero también
actúa una fuerza de rozamiento u2 (t) por unidad de masa. Si las únicas canti-
dades cinemáticas de interés son la posición de la partı́cula x1 (t) = s(t) y su
velocidad x2 (t) = ṡ(t), aplicando las leyes de la mecánica clásica, el estado de
la partı́cula (x1 (t), x2 (t)) verifica el sistema de ecuaciaciones diferenciales
ẋ1 = x2 , ẋ2 = u1 (t) − u2 (t) .
Por supuesto, este sistema se puede escribir en notación matricial de la forma
ẋ = Ax + Bu , (1.1)
siendo
       
x1 u1 0 1 0 0
x= , u= , A= , B= .
x2 u2 0 0 1 −1
Se puede preguntar cómo puede llegar la partı́cula a un cierto punto fijo en
el menor tiempo posible o bien con un consumo mı́nimo de una cierta variable.
Matemáticamente se trata de determinar las variables de control u1 (t) y u2 (t)
con un cierto objetivo.

1.2.2. Termostato y transferencia de calor


La temperatura interior Ti de un horno se quiere controlar variando la entra-
da de calor u en las paredes. Definamos las capacidades calorı́ficas de la pared
y del interior del horno como cp y ci respectivamente. Denotemos por Ai y Ae
las áreas interiores y exteriores de la pared del horno y por Ri y Re los coefi-
cientes de radiación de las superficies interior y exterior del horno. Ignorando
otros efectos, si las temperaturas de la pared y del exterior del horno son Tp y
Te , se tiene, tomando Ti > Tp > Te , para la pared

cp Ṫp = −Ae Re (Tp − Te ) − Ai Ri (Tp − Ti ) + u ,


y para el interior del horno
ci Ṫi = Ai Ri (Tp − Ti ) .
Suponiendo Te constante, si definimos las variables de estado x1 = Tp − Te y
x2 = Ti − Te se tiene
1 1 u
ẋ1 = Ṫp − Ṫe = Ṫp = − Ae Re x1 − Ai Ri (x1 − x2 ) + ,
cp cp cp
1
ẋ2 = Ṫi − Ṫe = Ṫi = Ai Ri (x1 − x2 ) .
ci
4 Introducción y Ejemplos

Estas ecuaciones se pueden escribir de la forma ẋ = Ax + bu, siendo x =


(x1 , x2 )T ,
   
−(Ae Re + Ai Ri )/cp (Ai Ri )/cp 1/cp
A= , b= .
(Ai Ri )/ci −(Ai Ri )/ci 0

El objetivo puede ser analizar un controlador que regule, mediante una válvu-
la por ejemplo, la cantidad de calor u(t) que se debe suministrar dependiendo
de la temperatura que marquen los termómetros.
Capı́tulo 2

Control Clásico y
Transformada de Laplace

2.1. El problema clásico de control


La teorı́a de control clásica estudia sistemas con una entrada escalar u(t) ∈ R
y una salida escalar z(t) ∈ R. Si se requiere que z(t) esté lo más cerca posible
(en un cierto sentido) de una cierta sen̄al de referencia r(t), el sistema de control
se llama servomecanismo. Un caso particular es cuando r es constante, entonces
el sistema de control se llama regulador.

El modelo de la teorı́a de control clásica es una ecuación diferencial lineal de


orden n a coeficientes constantes, es decir, z(t) verifica la ecuación

z (n) + k1 z (n−1) + · · · + kn−1 z  + kn z = β0 u(m) + β1 u(m−1) + · · · + βm u , (2.1)

donde los supraı́ndices indican derivadas respecto de la variable independiente


t y ki y βi son constantes.

2.2. Transformada de Laplace y función de trans-


ferencia
Definición 1. Sea z : R+ → R una función real y continua a trozos. Se define
la transformada de Laplace z̄(s) de z(t) de la forma
 ∞
z̄(s) = L{z(t)} = z(t) exp(−st) dt . (2.2)
0

Algunas de las propiedades de esta transformación son las siguientes:


n n
Linealidad: L{ i=1 ci zi (t)} = i=1 ci L{zi (t)} para todo ci ∈ R.

5
6 Control Clásico y Transformada de Laplace

Derivación:

L{z (j) (t)} = sj z̄ − sj−1 z(0) − sj−2 z (1) (0) − · · · − sz (j−2) (0) − z (j−1) (0) .
(2.3)
Tomando transformadas de Laplace en ambos miembros de la ecuación (2.1)
y teniendo en cuenta la propiedad (2.3) se tiene k(s)z̄(s) = β(s)ū(s), siendo los
polinomios

k(s) = sn + k1 sn−1 + · · · + kn−1 s + kn , (2.4)


β(s) = β0 sm + β1 sm−1 + · · · + βm−1 s + βm . (2.5)

Es habitual presentarlo de la forma

z̄(s) = g(s)ū(s) , (2.6)

siendo
β(s)
g(s) = , (2.7)
k(s)
una función racional conocida como función de transferencia.

Es preciso resaltar que este método sólo es aplicable a sistemas lineales


con coeficientes constantes. Nosotros seguiremos ideas diferentes para atacar
los problemas básicos del control.
Capı́tulo 3

Solución de Sistemas
Lineales

3.1. Solución espectral de sistemas lineales


Consideraremos sistemas lineales sin variables de control, es decir, sistemas
del tipo
ẋ = Ax , (3.1)
con A ∈ Mn (R) una matriz cuadrada de orden n y x ∈ Rn . Tomaremos un pro-
blema de valor inicial o de Cauchy, de este modo impondremos que x(0) = x0 .

Supondremos que todos los valores propios λi con i = 1, . . . , n, de la matriz A


son distintos1 . Sean wi , con i = 1, . . . , n los vectores propios de A asociados a los
valores propios λi , es decir, Awi = λi wi . Puesto que λi = λj con i = j, se sabe
que el conjunto de vectores propios {w1 , . . . , wn } son linealmente independientes
y en particular forman base de Rn . En consecuencia se puede expresar la solución
de (3.1) de la forma
n
x(t) = ci (t)wi ,
i=1

siendo ci (t) funciones escalares del tiempo. Derivando respecto de t la ecuación


anterior y sustituyendo en (3.1) se obtiene
n
 n
 n

ċi (t)wi = A ci (t)wi = λi ci (t)wi .
i=1 i=1 i=1

1 Esta no es una restricción fuerte en los sistemas que aparecen en las aplicaciones reales
puesto que una pequen̄a perturbación en los coeficientes aij de la matriz A es suficiente para
separar las raı́ces iguales del polinomio caracterı́stico de A. Recordemos que, habitualmente
dichos coeficientes provienen de medidas experimentales y son, por lo tanto, conocidos hasta
un cierto grado de precisión.

7
8 Solución de Sistemas Lineales

Puesto que el conjunto de vectores propios {w1 , . . . , wn } son linealmente inde-


pendientes, se obtiene
ċi = λi ci , i = 1, . . . , n ,
cuya solución es
ci (t) = exp(λi t) ci (0) , i = 1, . . . , n .
Se tiene, en definitiva, que
n

x(t) = ci (0) exp(λi t)wi . (3.2)
i=1

Sin embargo, interesa dar la solución x(t) en función de x(0). Para ello, defi-
namos la matriz
W = [w1 , . . . , wn ] ∈ Mn (R)
cuyas columnas son los vectores wi . Sea W −1 la matriz inversa de W , que
siempre existe puesto que rangW = n, y definamos sus filas como los vectores
fila vi con i = 1, . . . , n, es decir,
⎡ ⎤
v1
⎢ ⎥
W −1 = ⎣ ... ⎦ ∈ Mn (R) .
vn

Puesto que W −1 W = In , siendo In la matriz identidad de orden n, se verifica


vi wi = 1 y vi wj = 0 si i = j. Multiplicando la ecuación (3.2) por la izquierda
por el vector vj y tomando finalmente t = 0 se obtiene vj x(0) = cj (0). De este
modo, la solución de (3.1) viene dada por
n

x(t) = (vi x(0)) exp(λi t)wi . (3.3)
i=1

Esta expresión se conoce como la forma espectral de la solución de (3.1).

3.1.1. La matriz exponencial


Veamos en esta sección una forma alternativa para obtener la solución de
(3.1). Esta nueva forma evita el cálculo de los vectores propios wi de la matriz
A necesarios en la forma espectral (3.3) de la solución de (3.1).
La idea se basa en generalizar el caso escalar n = 1, con lo cual A es un
escalar en (3.1) y su solución viene dada por

x(t) = exp(At)x0 . (3.4)

Para conseguir dicha generalización, definamos la matriz exponencial


∞ k
 t t2 2
exp(At) = Ak = In + tA + A + ··· . (3.5)
k! 2!
k=0
3.1 Solución espectral de sistemas lineales 9

Esta serie infinita de matrices es convergente2 para cualquier A ∈ Mn (R) y


para todo t ∈ R debido al hecho de que exp(zt) converje para cualquier pareja
de escalares finitos z y t. Es claro que, a partir de su definición (3.5), se tiene
exp(O) = In siendo O la matriz nula de orden n. Además, derivando término a
término (3.5) respecto de t se verifica
 
d 2 1 2 3 1 2 2
exp(At) = A + tA + t A + · · · = A In + tA + t A + · · ·
dt 2! 2!
= A exp(At) ,

con lo cual
d
exp(At) = A exp(At) ,
dt
de modo que podemos concluir que (3.4) representa la solución de (3.1).

La solución del problema de Cauchy

ẋ = Ax , x(t0 ) = x0 , (3.6)

se encuentra, en la literatura de control, de la forma

x(t) = Φ(t, t0 )x0 , (3.7)

donde
Φ(t, t0 ) = exp[A(t − t0 )] , (3.8)
es una matriz cuadrada de orden n llamada matriz de transición de estados. Es
fácil demostrar que dicha matriz verifica las siguientes propiedades:
d
Φ(t, t0 ) = AΦ(t, t0 ) , (3.9)
dt
Φ(t, t) = In , (3.10)
Φ(t0 , t) = Φ−1 (t, t0 ), (3.11)
Φ(t, t0 ) = Φ(t, t1 )Φ(t1 , t0 ). (3.12)

Observar que, en particular, la propiedad (3.11) implica

(exp(At))−1 = exp(−At) . (3.13)

Resumimos a continuación algunas de las propiedades más importantes de


la matriz exponencial.
A y exp(A) conmutan, es decir, A exp(A) = exp(A)A.
2 Una sucesión de matrices {A } converge hacia A si lı́m
k  k→∞ Ak − A = 0 para cualquier
norma matricial.
 n
La serie matricial ∞k=0 Ak converge si la sucesión de sumas parciales {Sn }
con Sn = k=0 Ak converge cuando n → ∞. Si la función escalar f (z) se puede representar

por una serie de potencias

f (z) = ∞ k
k=0 ck x convergente para |z| < R entonces la función
matricial f (A) = ∞ c
k=0 k A k converge si todos los valores propios λ de la matriz cuadrada
i
A verifican |λi | < R.
10 Solución de Sistemas Lineales

exp(On ) = In , siendo On e In las matrices nulas e identidad de orden n.


Si A y B conmutan, es decir, AB = BA entonces exp(AB) = exp(A) exp(B).
(exp(A))−1 = exp(−A).
(exp(A))T = exp(AT ).
d exp(tA)/dt = A exp(tA).
Sea P una matriz no singular tal que B = P −1 AP . Entonces exp(B) =
P −1 exp(A)P .
Si D = diag{λ1 , . . . , λn } es una matriz diagonal con elementos λi en la
diagonal principal, entonces exp(D) = diag{exp(λ1 ), . . . , exp(λn )} es una
matriz diagonal con elementos exp(λi ) en la diagonal principal.
Las dos últimas propiedades permiten calcular de forma eficaz la exponencial
de una matriz A diagonalizable. En efecto, si A es diagonalizable existe una
matriz de cambio de base P no singular tal que D = P −1 AP , siendo D una
matriz diagonal con los valores propios de A en la diagonal principal.

Métodos para calcular la matriz exponencial


(i) Si todos los valores propios λi de A son distintos, la fórmula de Sylvester
viene dada por
n
exp(At) = Zk exp(λk t) , (3.14)
k=1

siendo
n
A − λj In
Zk = , (3.15)
j=1
λk − λj
j=k

matrices constantes que sólo dependen de A y de sus valores propios λj , pero no


de sus vectores propios wi . Notar la semejanza entre la fórmula de Sylvester y la
fórmula de interpolación polinomial de Lagrange utilizada en métodos numéri-
cos.

(ii) Otro método alternativo para calcular la matriz exponencial de A cuando


todos sus valores propios λi son diferentes es el siguiente.

exp(At) = r(A) , (3.16)

siendo r(λ) un polinomio de grado menor o igual que n − 1 cuyos coeficientes


son funciones del tiempo t obtenidos de la forma

r(λi ) = exp(λi t) , i = 1, . . . , n .

La demostración de este hecho es una consecuencia de la siguiente sección.


3.1 Solución espectral de sistemas lineales 11

(iii) El cálculo de la matriz exponencial es tedioso en muchas ocasiones, de


modo que los manipuladores algebraicos son de gran ayuda en dicho cálculo. Por
ejemplo, con el programa Mathematica, el comando MatrixExp[A] calcula la
matriz exponencial de la matriz A.

3.1.2. El teorema de Cayley-Hamilton y la matriz expo-


nencial
Sea A ∈ Mn (R). En este método no es necesario suponer ni que los valores
propios de A son distintos ni que A diagonaliza.
En primer lugar, denotamos por k(λ) el polinomio caracterı́stico de A, y sean
λi los valores propios de A con multiplicidad algebraica mi para i = 1, . . . , k,
siendo k ≤ n. Por el Teorema de Cayley-Hamilton se sabe que k(A) = 0.
Se efectúa la descomposición en fracciones simples

k
 pi (λ)
1
= ,
k(λ) i=1
(λ − λi )mi

siendo pi (λ) polinomios de grado menor o igual que mi − 1. Definiendo los


polinomios qi (λ) = k(λ)/(λ − λi )mi , con i = 1, . . . , k, la anterior ecuación se
reescribe de la forma
k
1= pi (λ)qi (λ) . (3.17)
i=1

Evaluando este polinomio en A se tiene la identidad

k

In = pi (A)qi (A) .
i=1

Por otra parte, observemos que

exp(At) = exp(λi tIn ) exp[(A − λi In )t] = exp(λi t)In exp[(A − λi In )t]


∞ j
t (A − λi In )j
= exp(λi t) ,
j=0
j!

de modo que, multiplicando por la izquierda ambos miembros por qi (A) se


obtiene la siguiente igualdad con suma finita
m
i −1 j
t qi (A)(A − λi In )j
qi (A) exp(At) = exp(λi t) , (3.18)
j=0
j!

donde se ha teniendo en cuenta el Teorema de Cayley-Hamilton de modo que


qi (A)(A − λi In )j = k(A)(A − λi In )j−mi = 0. Multiplicando finalmente la
12 Solución de Sistemas Lineales

ecuación (3.18) por la izquierda por pi (A), sumando para todo i desde 1 has-
ta k y teniendo en cuenta (3.17) se obtiene la siguiente expresión de la matriz
exponencial
⎡ ⎤
k
 m
i −1 j
⎣exp(λi t)pi (A)qi (A) t (A − λi In )j ⎦
exp(At) = . (3.19)
i=1 j=0
j!

Nota 2. Observar que los grados de los polinomios pi y qi son mi − 1 y n − mi


respectivamente, de modo que, en el caso particular de que todos los valores
propios de A sean distintos, es decir, mi = 1, entonces exp(At) = r(A) siendo
r un polinomio de grado menor o igual que n − 1 verificando además r(λi ) =
exp(λi t) para i = 1, . . . , n.

3.2. Solución de sistemas controlados


Consideremos el sistema controlado

ẋ = Ax + Bu , x(0) = x0 , (3.20)

con A ∈ Mn (R), B ∈ Mn×m (R) matrices constantes, x(t) ∈ Rn y u(t) ∈


Rm . Multiplicando por la izquierda ambos miembros de (3.20) por la matriz
exp(−At) se obtiene

exp(−At)ẋ − exp(−At)Ax = exp(−At)Bu .

Utilizando ahora que las matrices exp(−At) y A conmutan y teniendo en cuenta


la propiedad (3.9), es decir,

d
[exp(−At)] = −A exp(−At) ,
dt
se llega a que
d
[exp(−At)x] = exp(−At)Bu .
dt
Integrando dicha ecuación respecto de t y teniendo en cuenta (3.13) se tiene
 t 
x(t) = exp(At) x0 + exp(−Aτ )Bu(τ ) dτ . (3.21)
0

Si se utiliza la condición inicial x(t0 ) = x0 , integrando entre t0 y t se obtiene


 t 
x(t) = Φ(t, t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ . (3.22)
t0
3.3 Relación entre espacio de estados y el control clásico 13

3.2.1. Existencia y unicidad de la solución


Presentamos a continuación un resultado sobre la existencia y unicidad del
problema de Cauchy asociado a una sistema lineal controlado por un control
continuo a trozos de gran utilidad en aplicaciones a la ingenierı́a.
Definición 3. El control u(t) : [t0 , t1 ] → Rm es continuo a trozos en el intervalo
[t0 , t1 ] si existe una partición finita de dicho intervalo t0 = s0 < s1 < · · · < sh =
t1 , tal que la función u(t) es continua en cada subintervalo abierto (si−1 , si ) para
i = 0, 1, . . . , h. Además, para cada i, lı́mt→s+ u(t) existe y es finito si i = h y
i
lı́mt→s− u(t) existe y es finito si i = 0.
i

Definición 4. Una solución del problema de Cauchy ẋ = Ax + Bu(t) con


x(t0 ) = x0 y u(t) continua a trozos en el intervalo [t0 , t1 ] es una función x(t) :
[t0 , t1 ] → Rn continua y con derivada continua en [t0 , t1 ] excepto en los puntos
de discontinuidad de u(t) que además verifique ẋ = Ax + Bu(t) donde exista.
Teorema 5. El problema de Cauchy ẋ = Ax + Bu(t) con x(t0 ) = x0 y u(t) con-
tinua a trozos en el intervalo [t0 , t1 ] admite una única solución x(t) : [t0 , t1 ] →
Rn que viene dada por (3.22).

3.3. Relación entre espacio de estados y el con-


trol clásico
Consideremos la ecuación diferencial escalar lineal de orden n a coeficientes
constantes que aparece en teorı́a de control clásica

z (n) + k1 z (n−1) + · · · + kn z = u(t) , (3.23)

siendo u(t) ∈ R la variable de control. Realizando el cambio de variable

w1 = z , w2 = ż , . . . , wn = z (n−1) , (3.24)

y teniendo en cuenta que ẇi = wi+1 para i = 1, . . . , n − 1, la ecuación (3.23) se


puede escribir de la forma canónica controlable3

ẇ = Cw + du , (3.25)

donde w = (w1 , . . . , wn )T , d = (0, . . . , 0, 1)T and


⎛ ⎞
0 1 0 . . . 0
⎜ 0 0 1 . . . . ⎟
⎜ ⎟
C=⎜ ⎜ . . . . . . . ⎟ ∈ Mn (R) , (3.26)

⎝ . . . . . . . ⎠
−kn −kn−1 −kn−2 . . . −k1
3 En el capı́tulo siguiente (ver Teorema 14) se entenderá mejor el nombre “canónica con-

trolable”.
14 Solución de Sistemas Lineales

es la llamada matriz “companion”. Observar que el polinomio caracterı́stico k(λ)


de C es
k(λ) = det(λIn − C) = λn + k1 λn−1 + · · · + kn .
Notar que este polinomio caracterı́stico es justo el denominador de la función de
transferencia que se obtiene si se aplican transformadas de Laplace a la ecuación
(3.23).

Hemos visto que la ecuación escalar (3.23) se puede escribir en forma matri-
cial con las variables de estado. Es natural preguntarse si el inverso es siempre
posible, es decir, nos preguntamos si cualquier sistema lineal ẋ = Ax + bu(t)
con u escalar se puede escribir en la forma clásica (3.23) mediante un cambio
de variables lineal. La respuesta la contiene el siguiente resultado.

Teorema 6. El sistema lineal ẋ = Ax + bu con A ∈ Mn (R) matriz constante,


b ∈ Rn vector columna y u(t) ∈ R puede ser transformado mediante un cambio
lineal w = T x con T ∈ Mn (R) no singular en la forma canónica controlable
(3.25) si y sólo si
rang[b, Ab, A2 b, . . . , An−1 b] = n . (3.27)

Demostración. Demostremos la suficiencia, es decir, supongamos que se ve-


rifica (3.27) y veamos que existe la matriz T del enunciado.
Realizando el cambio de variables w = T x en el sistema ẋ = Ax + bu se
obtiene el sistema transformado

ẇ = T AT −1 w + T bu . (3.28)

Veamos que es posible construir la matriz T de modo que la ecuación (3.28) sea
(3.25). Impongamos la siguiente forma de dicha T
⎡ ⎤
ξ
⎢ ξA ⎥
⎢ ⎥
⎢ ξA2 ⎥
T =⎢ ⎥ ∈ Mn (R) , (3.29)
⎢ .. ⎥
⎣ . ⎦
ξAn−1

siendo ξ ∈ Rn un vector fila tal que T sea no singular. De momento supondremos


que tal ξ existe. Denotemos por si a la i-ésima columna de la matriz T −1 , es
decir, sea T −1 = [s1 , . . . , sn ]. Consideremos la matriz
⎛ ⎞
ξAs1 ξAs2 ··· ··· ξAsn
⎜ ξA2 s1 ξA2 s2 ··· ··· ξA2 sn ⎟
⎜ ⎟
T AT −1 = ⎜ .. .. .. .. .. ⎟ .
⎝ . . . . . ⎠
ξAn s1 ξAn s2 ··· ··· ξAn sn
3.3 Relación entre espacio de estados y el control clásico 15

Comparando los coeficientes de esta matriz con los coeficientes que se obtienen
de la identidad T T −1 = In , es decir,
⎛ ⎞
ξs1 ξs2 ··· ··· ξsn
⎜ ξAs1 ξAs2 ··· ··· ξAsn ⎟
⎜ ⎟
⎜ .. .. .. .. .. ⎟ = In ,
⎝ . . . . . ⎠
ξAn−1 s1 ξAn−1 s2 · · · · · · ξAn−1 sn

se deduce que la i-ésima fila de la matriz T AT −1 coincide con la i + 1-ésima fila


de la matriz identidad In para i = 1, . . . , n − 1. Por lo tanto, la matriz T AT −1
coincide con la matriz companion C dada en (3.26) con ki = −ξAn sn−i+1 .
Para que (3.28) coincida con (3.25) sólo nos falta imponer que T b = d.
Sustituyendo en esta igualdad la matriz (3.29) y teniendo en cuenta que d =
(0, . . . , 0, 1)T se obtiene
ξb = 0 , ξAb = 0, . . . , ξAn−2 b = 0 , ξAn−1 b = 1 , (3.30)
o, de forma equivalente,
ξ[b, Ab, . . . , An−1 b] = dT . (3.31)
Observar que esta ecuación tiene una única solución ξ debido a la condición de
rango máximo (3.27).
Únicamente falta por demostrar que la matriz T es, en efecto, no singular. Lo
probaremos mostrando que sus filas son linealmente independientes. Realizamos
por lo tanto la combinación lineal de las filas de T siguiente
α1 ξ + α2 ξA + · · · + αn ξAn−1 = 0 ,
con ciertos escalares αi . Multiplicando esta combinación lineal por la derecha
por b y usando (3.30) se tiene que αn = 0. De forma análoga, es decir, multipli-
cando por la derecha por Ab, luego A2 b y ası́ sucesivamente y usando (3.30) se
llega a que αn−1 = · · · = α1 = 0. En resumen, T es no singular.

Demostremos ahora la necesidad, es decir, supongamos que existe la matriz T


no singular tal que el sistema (3.28) coincida con el sistema (3.25). En particular
se tiene T b = d y T AT −1 = C.
Definamos r = rang[b, Ab, A2 b, . . . , An−1 b]. Queremos llegar a ver que r = n.
Puesto que T es no singular, es claro que r = rang[T b, T Ab, T A2 b, . . . , T An−1 b].
Reordenando se obtiene que r = rang[T b, (T AT −1 )T b, . . . , (T AT −1 )n−1 T b].
Pero es claro que entonces r = rang[d, Cd, . . . , C n−1 d]. Teniendo en cuenta que
C tiene la forma dada en (3.26) y que d = (0, . . . , 0, 1)T por definición, es fácil
comprobar que la matriz U = [d, Cd, . . . , C n−1 d] tiene forma triangular. Más
concretamente, si denotamos por uij a los elementos de la matriz U entonces

1 si i = j ,
uij =
0 si i > j .
En particular el rango r de U es máximo, o sea r = n.
16 Solución de Sistemas Lineales

Nota 7. Observar que la demostración del Teorema 6 es constructiva en el


sentido de que T se puede construir mediante (3.29) donde ξ es la solución de
(3.31).

3.4. Problemas resueltos


1. Hallar la solución general del sistema lineal
    
ẋ 0 1 x
=
ẏ −2 −3 y

utilizando diferentes métodos:


(i) Mediante la forma espectral de la solución.
(ii) Calculando la matriz exponencial mediante la fórmula de Sylvester.
(iii) Calculando la matriz exponencial como un polinomio matricial ade-
cuado.
Solución. (i) La forma espectral de la solución general del sistema lineal
ż = Az viene dado por
n

z(t) = (vi z(0)) exp(λi t)wi ,
i=1

siendo λi y wi los valores y vectores propios asociados a la matriz A.


Además, si W = col{w1 , . . . , wn }, entonces W −1 = fil{v1 , . . . , vn }.
En nuestro caso se tiene
 
0 1
A= ,
−2 −3

de modo que, el polinomio caracterı́stico k(λ) asociado a A es


 
 λ −1 
k(A) = det(λI2 − A) =  = λ2 − 3λ + 2 = (λ + 1)(λ + 2) .
2 λ−3 

Entonces, los valores propios (raı́ces del polinomio caracterı́stico) de A son

λ1 = −1 , λ2 = −2 .

Los vectores propios wi verifican Awi = λi wi o bien, de forma equivalente


(A − λi I2 )wi = 0. Entonces se tiene
w1 = (α1 , β1 ) verifica el sistema lineal homogéneo
    
1 1 α1 0
= ,
−2 −2 β1 0

cuya solución es α1 + β1 = 0, de modo que, w1 = (1, −1)T .


3.4 Problemas resueltos 17

Sea w2 = (α2 , β2 ). Entonces se verifica el sistema lineal homogéneo


    
2 1 α2 0
= ,
−2 −1 β2 0

cuya solución es 2α2 + β2 = 0, de modo que, w2 = (1, −2)T .


Se tiene pues que  
1 1
W = ,
−1 −2
por lo tanto su matriz inversa es
 
2 1
W −1 = ,
−1 −1
de lo que v1 = (2, 1) y v2 = (−1, −1). Finalmente, aplicando la fórmula
de la solución en forma espectral se obtiene
     
x(t) x(0) x(0)
= v1 exp(λ1 t)w1 + v2 exp(λ2 t)w2
y(t) y(0) y(0)
   
x(0) 1
= (2, 1) exp(−t) +
y(0) −1
   
x(0) 1
(−1, −1) exp(−2t)
y(0) −2
 
[2x(0) + y(0)] exp(−t) − [x(0) + y(0)] exp(−2t)
= .
−[2x(0) + y(0)] exp(−t) + 2[x(0) + y(0)] exp(−2t)

(ii) Como todos los valores propios λi de A son distintos, se puede utilizar
la fórmula de Sylvester (3.14) dada por
n

exp(At) = Zk exp(λk t) ,
k=1

siendo
n
A − λj In
Zk = ,
j=1
λk − λj
j=k

matrices constantes que sólo dependen de A y de sus valores propios λj .


En nuestro problema se tiene
exp(At) = Z1 exp(−t) + Z2 exp(−2t) ,
donde
 
A + 2I2 2 1
Z1 = = ,
−1 + 2 −2 −1
 
A + I2 −1 −1
Z2 = = .
−2 + 1 2 2
18 Solución de Sistemas Lineales

De este modo, la solución general del sistema lineal es


   
x(t) x(0)
= exp(At) ,
y(t) y(0)

siendo la matriz exponencial de A


   
2 1 −1 −1
exp(At) = exp(−t) + exp(−2t) .
−2 −1 2 2

(iii) Otro método alternativo para calcular la matriz exponencial de A


cuando todos sus valores propios λi son diferentes viene dado (3.16), es
decir, puesto que A ∈ M2 (R) se tiene

exp(At) = r(A)

con r(λ) un polinomio de grado menor o igual que 1 cuyos coeficientes son
funciones del tiempo t obtenidos de la forma

r(λi ) = exp(λi t) , i = 1, 2 .

Sea r(λ) = r0 (t) + r1 (t)λ. Entonces, la anterior condición se escribe como

r0 (t) − r1 (t) = exp(−t) , r0 (t) − 2r1 (t) = exp(−2t) ,

cuya solución es

r0 (t) = 2 exp(−t) − exp(−2t) , r1 (t) = exp(−t) − exp(−2t) .

En conclusión, la solución general del sistema lineal es


   
x(t) x(0)
= exp(At) ,
y(t) y(0)

siendo la matriz exponencial de A

exp(At) = r0 (t)I2 + r1 (t)A


 
1 0
= [2 exp(−t) − exp(−2t)] +
0 1
 
0 1
[exp(−t) − exp(−2t)] .
−2 −3

2. Demostrar que L{exp(At)} = (sIn − A)−1 , siendo A ∈ Mn (R) y L{.} la


transformada de Laplace.

Solución. Consideremos el problema de Cauchy ẋ = Ax, x(0) = x0 .


Tomando transformadas de Laplace L{ẋ} = L{Ax} y teniendo en cuenta
la condición inicial x(0) = x0 se obtiene

sx̄(s) − x0 = Ax̄(s) ,
3.4 Problemas resueltos 19

de donde, despejando tenemos


x̄(s) = (sIn − A)−1 x0 .
Antitransformando en esta ecuación se obtiene
x(t) = L−1 {(sIn − A)−1 x0 }
Comparando esta expresión con la solución x(t) = exp(At)x0 del problema
de Cauchy ẋ = Ax, x(0) = x0 se concluye que L{exp(At)} = (sIn − A)−1
tal y como se querı́a probar.
3. Hallar la solución del problema de Cauchy
           
ẋ1 0 1 x1 0 x1 (0) 0
= + , = .
ẋ2 −1 0 x2 t x2 (0) 0

Solución. El sistema del enunciado se puede escribir como ẋ = Ax + Bu,


siendo x = (x1 , x2 )T ∈ R2 ,
 
0 1
A= ,
−1 0
y donde el término Bu se puede tomar de varias formas. Por ejemplo
 
0
B= ∈ R2 , u(t) = t ∈ R .
1

Teniendo en cuenta (3.22), la solución del problema de Cauchy ẋ = Ax +


Bu con x(0) = x0 es
 t 
x(t) = Φ(t, 0) x0 + Φ(0, τ )Bu(τ ) dτ ,
0

siendo Φ(t, 0) = exp(At) la matriz de transición de estados. Es fácil com-


probar que dicha matriz es una matriz de rotación en el plano
 
cos t sin t
Φ(t, 0) = ,
− sin t cos t
siendo su inversa
 −1  
cos t sin t cos t − sin t
Φ(0, t) = = .
− sin t cos t sin t cos t
Se tiene pues que
     t   
cos t sin t 0 cos τ − sin τ 0
x(t) = + dτ ,
− sin t cos t 0 0 sin τ cos τ τ
de modo que, tras finalizar todos los cálculos involucrados se obtiene
 
t − sin t
x(t) = .
1 − cos t
20 Solución de Sistemas Lineales

4. Sea u(t) la fuerza total por unidad de masa que actúa sobre una partı́cula.
Demostrar que la posición en función del tiempo x(t) viene dada por
 t
x(t) = x(0) + ẋ(0)t + (t − τ )u(τ ) dτ .
0

Solución. La ecuación del movimiento es, según las leyes de la mecánica


clásica, ẍ = u(t). Pasando a las variables de estado o variables de fase
y = ẋ se tiene
ẋ = y , ẏ = u(t) .
Podemos escribir este sistema en forma matricial como
      
ẋ 0 1 x 0
= + u(t) ,
ẏ 0 0 y 1

es decir, definiendo z = (x, y)T , se tiene ż = Az + bu, siendo


   
0 1 0
A= , b= .
0 0 1

La solución z(t) viene expresada, según (3.21), por


 t 
z(t) = exp(At) z0 + exp(−Aτ )bu(τ ) dτ , (3.32)
0

siendo z(0) = z0 .
Realizamos ahora un paréntesis para calcular la matriz exp(−Aτ ). Un
simple cálculo por cualquiera de los métodos explicados en teorı́a muestra
que  
1 t
exp(At) = I2 + At = . (3.33)
0 1

En realidad, en este caso particular es fácil ver que A2 = O, es decir,


la matriz A es nilpotente. Por lo tanto, la expresión dada de exp(At) se
sigue de la propia definición de matriz exponencial (3.5) donde la serie es
truncada y se convierte en polinomial, es decir,
∞ k
 t t2 2
exp(At) = Ak = I2 + tA + A + · · · = I2 + tA .
k! 2!
k=0

Introduciendo (3.33) en (3.32) y teniendo en cuenta las expresiones de A


y b se tiene
       t   
x(t) 1 t x(0) 1 −τ 0
z(t) = = + u(τ ) dτ .
y(t) 0 1 y(0) 0 0 1 1
3.4 Problemas resueltos 21

Finalmente, extrayendo de esta ecuación la primera componente x(t) y


recordando que y = ẋ se obtiene el resultado deseado
 t
x(t) = x(0) + ẋ(0)t + (t − τ )u(τ ) dτ .
0

5. Averiguar si el sistema lineal


      
ẋ1 1 −3 x1 1
= + u(t) ,
ẋ2 4 2 x2 1

puede ser transformado en la forma canónica controlable mediante un cam-


bio lineal de coordenadas. Dar, si es posible, dicho cambio y la forma
canónica controlable asociada al sistema.

Solución. El sistema del enunciado se puede escribir en forma compacta


como ẋ = Ax + bu con las definiciones usuales, es decir,
   
1 −3 1
A= , b= .
4 2 1

Puesto que A ∈ M2 (R), recordemos que, la forma canónica controlable


(3.25) dada por ẇ = Cw + du con w ∈ R2 , d = (0, 1)T y C ∈ M2 (R) la
matriz “companion”, no es más que la expresión de un sistema lineal que
provenga mediante el cambio usual de una ecuación diferencial escalar de
segundo orden a coeficientes constantes (3.23), es decir, z̈ + k1 ż + k2 z =
u(t).

Sabemos, por el Teorema 6, que existirá un cambio de variables lineal


w = T x con T ∈ M2 (R) no singular que transformará el sistema dado en
el enunciado a la forma canónica controlable si y sólo si rang[b, Ab] = 2.
En nuestro problema se tiene
 
1 −2
[b, Ab] = ,
1 6

de modo que se verifica rang[b, Ab] = 2.


Una vez se sabe que existe la transformación lineal w = T x, sólo falta
hallar la matriz T ∈ M2 (R). Para ello recordemos la Nota 7, es decir, T
se puede construir mediante (3.29) donde ξ es la solución de (3.31). En
otras palabras, 
ξ
T = ∈ M2 (R) ,
ξA
donde ξ verifica
ξ[b, Ab] = dT .
22 Solución de Sistemas Lineales

En nuestro problema, despejando ξ de la anterior ecuación se tiene


 −1  
1 −2 1 6 2 1
ξ = dT [b, Ab]−1 = (0, 1) = (0, 1) = (−1, 1) .
1 6 8 −1 1 8

Finalmente, se tiene
  
ξ 1 −1 1
T = = .
ξA 8 3 5

Sabemos que, ver (3.28), realizando el cambio de variables w = T x en el


sistema ẋ = Ax + bu se obtiene el sistema transformado

ẇ = T AT −1 w + T bu ,

con C = T AT −1 y T b = d = (0, 1)T . Desarrollando se tiene


      
ẇ1 0 1 w1 0
= + u(t) ,
ẇ2 −14 3 w2 1

que, obviamente, corresponde a una ecuación escalar de segundo orden del


control clásico. Más concretamente, definiendo z = w1 = 1/8(−x1 + x2 )
se concluye que
z̈ − 3ż + 14z = u(t) .
Capı́tulo 4

Sistemas de Control Lineal

4.1. Introducción
En este capı́tulo abordaremos algunos de los problemas propios del control.
Consideremos el sistema lineal controlado
ẋ = Ax + Bu , (4.1)
con A ∈ Mn (R) y B ∈ Mn×m (R) matrices constantes, x(t) ∈ R y u(t) ∈ Rm . n

4.2. Controlabilidad
Definición 8. El sistema (4.1) se dice que es completamente controlable si,
para cualquier t0 , cualquier estado inicial x(t0 ) = x0 y cualquier estado final xf ,
existe un tiempo finito t1 con t1 > t0 y un control u(t) definido para t0 ≤ t ≤ t1
tal que x(t1 ) = xf .
El término “completamente”significa que la anterior definición se satisface
“para todo”x0 y xf .
Nota 9. Es habitual suponer que el control u(t) es cotinuo a trozos, es decir,
continuo excepto en un número finito de tiempos del intervalo [t0 , t1 ].
Nota 10. En la Definición 8 se puede tomar el estado final xf = 0 sin pérdida
de generalidad. Además, puesto que A y B son matrices constantes (no dependen
del tiempo) también se puede elegir el origen de tiempos de modo que t0 = 0.
La Nota 10 es debida a que, la solución x(t) de (4.1) viene dada por (3.22),
es decir,  t 
x(t) = Φ(t, t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ .
t0
De este modo se tiene
 t1 
xf = Φ(t1 , t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ ,
t0

23
24 Sistemas de Control Lineal

que, reagrupando términos, se puede escribir como


 t1 
0 = Φ(t1 , t0 ) {x0 − Φ(t0 , t1 )xf } + Φ(t0 , τ )Bu(τ ) dτ ,
t0

puesto que la matriz Φ(t1 , t0 ) es no singular, siendo su inversa Φ(t0 , t1 ). Por lo


tanto se observa que, si el control u(t) transfiere el estado inicial x0 en el estado
final xf , entonces tambien transfiere el estado x0 − Φ(t0 , t1 )xf al origen en el
mismo tiempo t1 − t0 .

El siguiente resultado muestra un criterio algebraico que caracteriza a los


sistemas lineales (4.1) completamente controlables.
Teorema 11. El sistema ẋ = Ax + Bu dado en (4.1) es completamente con-
trolable si y sólo si la matriz de controlabilidad

U = [B, AB, A2 B, . . . , An−1 B] ∈ Mn×nm (R) (4.2)

tiene rango máximo, es decir, rangU = n.


Demostración. Probemos en primer lugar la necesidad. Suponemos pues que
el sistema (4.1) es completamente controlable (asumiendo t0 = 0 y xf = 0
debido a la Nota 10) y queremos ver entonces que rangU = n. Utilizaremos una
demostración por reducción al absurdo, es decir, supondremos que rangU < n
y llegaremos a una contradicción.
Si rangU < n entonces existe una combinación lineal de filas de U que da el
vector fila nulo. Dicho de otro modo, existe un vector fila q ∈ Rn con q = 0 tal
que
qB = 0 , qAB = 0 , . . . , qAn−1 B = 0 . (4.3)
Utilizando la solución (3.21) del sistema (4.1) con las condiciones x(0) = x0 se
tiene  t 
x(t) = exp(At) x0 + exp(−Aτ )Bu(τ ) dτ ,
0

de modo que, tomando t = t1 con x(t1 ) = 0 se obtiene


 t1
−x0 = exp(−Aτ )Bu(τ ) dτ .
0

Teniendo en cuenta que exp(−At) = r(A) con r un polinomio de grado menor


o igual que n − 1, la anterior ecuación queda de la forma
 t1
−x0 = (r0 (τ )In + r1 (τ )A + · · · + rn−1 (τ )An−1 )Bu(τ ) dτ ,
0

siendo ri (t) ∈ R los coeficientes del polinomio r. Multiplicando esta ecuación


por la izquierda por el vector fila q y utilizando (4.3) se llega a que qx0 = 0.
Como el sistema (4.1) es completamente controlable, el desarrollo efectuado an-
teriormente sirve para cualquier x0 . Entonces la condición qx0 = 0 implica q = 0
4.2 Controlabilidad 25

en contradicción con la hipótesis inicial rangU < n.

Probemos en segundo lugar la suficiencia. Para ello supondremos que rangU =


n y hemos de demostrar que el sistema (4.1) es completamente controlable, es
decir, que existe una función de control u(t) definida en el intervalo de tiempo
0 ≤ t ≤ t1 tal que x(t1 ) = 0.
Consideremos la siguiente matriz cuadrada
 t1
M= exp(−Aτ )BB T exp(−AT τ ) dτ ∈ Mn (R) . (4.4)
0

Es obvio que M es una matriz constante. Además M es simétrica puesto que


 t1 T
T T T
M = exp(−Aτ )BB exp(−A τ ) dτ
0
 t1  T
= exp(−Aτ )BB T exp(−AT τ ) dτ
0
 t1
= [exp(−AT τ )]T BB T [exp(−Aτ )]T dτ
0
 t1
= exp(−Aτ )BB T exp(−AT τ ) dτ = M .
0

Vamos a probar que M es no singular demostrando que es, en realidad, una


matriz definida positiva. Sea α ∈ Rn un vector columna arbitrario y definamos el
vector fila β(τ ) = αT exp(−Aτ )B. Asociamos a M la siguiente forma cuadrática
 t1  t1
T T
α Mα = β(τ )β (τ ) dτ = β(τ )2 dτ ≥ 0 , (4.5)
0 0

de modo que M es semidefinida positiva. Vamos a ver a continuación que M


es no singular por reducción al absurdo. Se sabe que M es singular si y sólo si
existe un vector columna, α̃ = 0 tal que α̃T M α̃ = 0. Esto implica, teniendo en
cuenta (4.5), que β̃(τ ) = α̃T exp(−Aτ )B ≡ 0 para todo 0 ≤ τ ≤ t1 . Utilizando
la definición de matriz exponencial, la anterior condición se escribe como
 
T τ2 2
α̃ In − τ A + A + · · · B ≡ 0 , 0 ≤ τ ≤ t1 .
2!
Ello es equivalente a imponer que
α̃T B = 0 , α̃T AB = 0 , α̃T A2 B = 0, . . . ,
de manera que α̃T U = 0 siendo U la matriz de controlabilidad (4.2). Pero, como
por hipótesis U tiene rango máximo, es decir rango n, es imposible que existe
un vector α̃ = 0 verificando α̃T U = 0.
Hemos llegado pues a una contradicción y por lo tanto M es no singular.
Entonces es posible tomar el siguiente control
u(τ ) = −B T exp(−AT τ )M −1 x0 , 0 ≤ τ ≤ t1 . (4.6)
26 Sistemas de Control Lineal

Sustituyendo este control en la solución (3.21) dada por


 t 
x(t) = exp(At) x0 + exp(−Aτ )Bu(τ ) dτ ,
0

del sistema (4.1) se tiene


 t1 
x(t1 ) = exp(At1 ) x0 − exp(−Aτ )BB T exp(−AT τ )M −1 x0 dτ
0
 
= exp(At1 ) x0 − M M −1 x0 = 0 ,

donde en el segundo paso se ha utilizado (4.4).


Nota 12. Debido al Teorema 11, es habitual hablar de la controlabilidad del par
[A, B] en lugar del sistema ẋ = Ax + Bu.
Corolario 13. Si rangB = r entonces la condición (4.2) del Teorema 11 se
reduce a la siguiente restricción

rang[B, AB, A2 B, . . . , An−r B] = n .

Demostración. Definimos las siguientes matrices

Uk = [B, AB, A2 B, . . . , Ak B] , k = 0, 1, 2, . . .

Observar que, si rangU = rangU+1 , entonces todas las columnas de la ma-


triz A+1 B son linealmente dependientes con respecto a las columnas de U .
Además, en este caso, se verificará también que todoas las columnas de A+2 B,
A+3 B, . . ., son también linealmente dependientes con respecto a las columnas
de U . Se tiene pues que rangU = rangU+1 = rangU+2 = · · · .
De este modo se ve que el rango de Uk aumenta al menos en 1 cuando ¿k
aumenta en 1 hasta que el máximo rango de Uk se alcanza para k = . Como
rangU0 = rangB = r y además rangUk ≤ n se tiene que r +  ≤ n y por lo tanto
 ≤ n − r.

El siguiente resultado relaciona el sistema de control clásico (3.25) con el


concepto de controlabilidad.
Teorema 14. El sistema lineal ẋ = Ax + bu con A ∈ Mn (R) matriz constante,
b ∈ Rn vector columna y u(t) ∈ R puede ser transformado mediante un cambio
lineal en la forma canónica controlable (3.25) si y sólo si es completamente
controlable.
Demostración. Como b ∈ Rn es un vector columna, es decir, estamos en
el caso m = 1, la matriz B reduce al vector b. Entonces, la condición (4.2)
del Teorema 11 es exactamente igual a la condición (3.27) del Teorema 6. El
teorema se demustra pues teniendo en cuenta el Teorema 11 y el Teorema 6.
4.2 Controlabilidad 27

Nota 15. Debido al Teorema 14, el sistema clásico (3.25) se suele decir que
está en la forma canónica controlable.
Observemos que el Teorema 11 es puramente existencial, es decir, a partir
de él se sabe que existe un vector control u(t) de modo que el sistema es com-
pletamente controlable. Sin embargo no determina cual es dicho control. Para
responder a esta pregunta se dispone del siguiente resultado.
Teorema 16. El sistema ẋ = Ax + Bu es completamente controlable si y sólo
si la matriz de controlabilidad simétrica
 t1
U (t0 , t1 ) = Φ(t0 , τ )BB T ΦT (t0 , τ ) dτ ∈ Mn (R) (4.7)
t0

es no singular, siendo Φ la matriz de transición de estados definida en (3.8).


Además, en este caso el control u(t) definido para t0 ≤ t ≤ t1 que transfiere el
estado x(t0 ) = x0 al estado x(t1 ) = xf viene dado por

u(t) = −B T ΦT (t0 , t)U −1 (t0 , t1 )[x0 − Φ(t0 , t1 )xf ] . (4.8)

Demostración. Demostremos en primer lugar la suficiencia. Asumimos pues


que U es no singular, de modo que el control dado por (4.8) existe. Sólo falta por
ver que, aplicando dicho control, se obtiene x(t1 ) = xf . Para ello, recordemos
que la solución (3.22) del sistema ẋ = Ax+Bu con la condición inicial x(t0 ) = x0
viene dada por
 t 
x(t) = Φ(t, t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ . (4.9)
t0

Se tiene pues, sustituyendo el control u(t) dado en (4.8), que


 t
 T T −1

x(t1 ) = Φ(t1 , t0 ) x0 + Φ(t0 , τ )B −B Φ (t0 , τ )U (t0 , t1 )[x0 − Φ(t0 , t1 )xf ] dτ
t0
 t1
= Φ(t1 , t0 ) x0 − Φ(t0 , τ )BB T Φ(t0 , τ ) dτ U −1 (t0 , t1 )(x0 − Φ(t0 , t1 )xf )
t0
= xf ,

como se querı́a ver. Hemos tenido en cuenta que Φ(t1 , t0 )Φ(t0 , t1 ) = In y que
además, la expresión encerrada entre llaves {.} es justo la definición de U (t0 , t1 ).

Demostremos ahora la necesidad. Hemos de probar que, si el sistema ẋ =


Ax + Bu es completamente controlable, entonces U (t0 , t1 ) es no singular.
Como U (t0 , t1 ) es una matriz simétrica, tomando un vector columna arbi-
trario α ∈ Rn podemos construir la forma cuadrática
 t1  t1
αT U (t0 , t1 )α = β T (τ, t0 )β(τ, t0 ) dτ = β(τ, t0 )2 dτ ≥ 0 , (4.10)
t0 t0
28 Sistemas de Control Lineal

donde se ha definido el vector columna β(τ, t0 ) = B T ΦT (t0 , τ )α ∈ Rn . Se tiene


pues que U (t0 , t1 ) es una matriz semidefinida positiva.
Veamos por reducción al absurdo que, en realidad, U (t0 , t1 ) es una matriz
definida positiva y por lo tanto no singular. Supongamos pues que entonces que
existe un vector α̂ = 0 tal que α̂T U (t0 , t1 )α̂ = 0. Teniendo en cuenta (4.10) con
α = α̂ se tiene que
 t1
β̂(τ, t0 )2 dτ = 0
t0

donde β̂(τ, t0 ) = B T ΦT (t0 , τ )α̂ ∈ Rn . Por lo tanto, por las propiedades de la


norma, concluimos que β̂(τ, t0 ) ≡ 0 para t0 ≤ τ ≤ t1 .
Sin embargo, puesto que por hipótesis el sistema ẋ = Ax + Bu es completa-
mente controlable, se sabe que existe un vector control û(t) ∈ Rn de modo que
x(t1 ) = 0 cuando x(t0 ) = α̂. Entonces, utilizando (4.9) con la condición inicial
x(t0 ) = α̂ y la final x(t1 ) = 0 se tiene
 t1
α̂ = − Φ(t0 , τ )B û(τ ) dτ .
t0

De este modo
 t1  t1
2 T T T T
α̂ = α̂ α̂ = − û (τ )B Φ(t0 , τ ) α̂ dτ = − ûT (τ )β̂(τ, t0 ) dτ = 0 ,
t0 t0

contradiciendo la hipótesis α̂ = 0.

Es importante observar que pueden haber, en general, otros controles u(t)


diferentes del control (4.8) que transfieran el estado x(t0 ) = x0 al estado x(t1 ) =
xf . Sin embargo veremos a continuación que el control (4.8) tiene una propiedad
especial que le confiere optimabilidad respecto del resto de posibles controles.

Teorema 17. Consideremos el sistema ẋ = Ax+Bu. Sea û(t) un vector control


que lleva el estado inicial x(t0 ) = x0 al estado final x(t1 ) = xf verificando
û(t) ≡ u(t) para t0 ≤ t ≤ t1 , donde u(τ ) es el control (4.8). Entonces
 t1  t1
2
û(τ ) dτ > u(τ )2 dτ .
t0 t0

Demostración. Puesto que ambos controles u(t) y û(t) transfieren el estado


inicial x(t0 ) = x0 al estado final x(t1 ) = xf , deben verificar, según (3.22),
 t1 
xf = Φ(t1 , t0 ) x0 + Φ(t0 , τ )B û(τ ) dτ ,
t0
 t1 
xf = Φ(t1 , t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ .
t0
4.2 Controlabilidad 29

Restando estas expresiones se obtiene


 t1
0= Φ(t0 , τ )B[û(τ ) − u(τ )] dτ .
t0

Multiplicando esta ecuación por la izquierda por

[x0 − Φ(t0 , t1 )xf ]T [U −1 (t0 , t1 )]T ,

se llega a
 t1  
0= [x0 − Φ(t0 , t1 )xf ]T [U −1 (t0 , t1 )]T Φ(t0 , τ )B [û(τ ) − u(τ )] dτ .
t0

Teniendo en cuenta que u(τ ) es el control (4.8), es claro que la expresión dentro
de las llaves {.} es justo −uT (τ ) de modo que
 t1
0= uT (τ )[û(τ ) − u(τ )] dτ . (4.11)
t0

Por otra parte, utilizando las propiedades del producto escalar y de la norma
se tiene que (u − û)T (u − û) = u2 + û2 − 2uT û. Entonces,
 t1  t1
u(τ ) − û(τ )2 dτ = [(u(τ ) − û(τ ))T (u(τ ) − û(τ ))T ] dτ
t0 t0
t1
= [u(τ )2 + û(τ )2 − 2uT (τ )û(τ )] dτ
t0
t1
= [û(τ )2 − u(τ )2 ] dτ ,
t0

donde, en el último paso, se ha utilizado (4.11). De aquı́, finalmente obtenemos


 t1  t1  t1
2 2 2
û(τ ) dτ = [u(τ ) + u(τ ) − û(τ ) ] dτ > u(τ )2 dτ
t0 t0 t0

como se querı́a probar. Observar que en la última desigualdad se ha utilizado


que u(t) ≡ û(t) en el intervalo t0 ≤ t ≤ t1 .
Nota 18. Dado un control u(t), en muchas aplicaciones fı́sicas se interpreta la
t
integral t01 u(τ )2 dτ como la energı́a o bien el consumo necesario para llevar
el sistema desde el estado inicial x(t0 ) = x0 al estado final x(t1 ) = xf . De este
modo, el Teorema 17 se interpreta de manera que, de todos los posibles controles
û(t) admisibles, el que minimiza la energı́a o el consumo es justo el control u(t)
dado por (4.8).
Si el sistema lineal ẋ = Ax + Bu no es completamente controlable, no es
una buena terminologı́a llamarle incontrolable. Ello es bebido a que cuando no
se verifica la Definición 8 de sistema completamente controlable sólo significa
30 Sistemas de Control Lineal

que hay ciertos estados finales xf que no pueden ser alcanzados con ningún
control. Para caracterizar si un estado final xf es alcanzable con algún control,
independientemente de si el sistema es completamente controlable o no y además
conocer qué control u(t) es admisible se tiene el siguiente resultado.
Teorema 19. Si, para un cierto estado final xf , existe un vector columna cons-
tante ξ ∈ Rn tal que
U (t0 , t1 )ξ = x0 − Φ(t0 , t1 )xf , (4.12)
entonces el control
u(t) = −B T Φ(t0 , t)ξ , (4.13)
transfiere el sistema ẋ = Ax + Bu desde el estado inicial x(t0 ) = x0 al estado
final x(t1 ) = xf .
Demostración. La solución del sistema ẋ = Ax + Bu con la condición inicial
x(t0 ) = x0 viene dada por (3.22), es decir,
 t 
x(t) = Φ(t, t0 ) x0 + Φ(t0 , τ )Bu(τ ) dτ .
t0

Sustitutendo en esta expresión el control u(t) dado en (4.13) y evaluando para


t = t1 se obtiene
 t1 
x(t1 ) = Φ(t1 , t0 ) x0 − Φ(t0 , τ )BB T Φ(t0 , τ )ξ dτ .
t0

Teniendo en cuenta, según (4.7), la expresión de la matriz de controlabilidad


U (t0 , t1 ), la anterior ecuación se reescribe como
x(t1 ) = Φ(t1 , t0 ) [x0 − U (t0 , t1 )ξ] .
Imponiendo ahora la condición (4.12) se obtiene
x(t1 ) = Φ(t1 , t0 )Φ(t0 , t1 )xf = xf ,
como se querı́a probar.
Nota 20. Si el sistema ẋ = Ax+Bu es completamente controlable, entonces, por
el Teorema 4.8, la matriz de controlabilidad U (t0 , t1 ) es invertible y la expresión
dada en (4.13) para el control u(t) reduce a la expresión (4.8).
Nota 21. Se puede demostrar, ver por ejemplo la página 77 de [2], que el
recı́proco del Teorema 19 es cierto. De este modo, sólo los estados finales xf
para los cuales (4.12) se verifique pueden ser alcanzados con algún control.
Existe otra forma análoga al Teorema 19 demostrada en la página 167 de
[11] que es la siguiente.
Teorema 22. Un cierto estado inicial x(t0 ) = x0 se puede transferir al estado
final xf si ambos vectores x0 y xf pertenecen al subespacio vectorial engendrado
por los vectores columnas de la matriz de controlabilidad U dada en (4.2).
4.3 Equivalencia Algebraica 31

4.3. Equivalencia Algebraica


Definición 23. Sea P ∈ Mn (R) una matriz no singular. El sistema lineal
x̂˙ = Âx̂ + B̂u obtenido a partir del sistema lineal ẋ = Ax + Bu mediante el
cambio de variables x̂(t) = P x(t) se llama sistema algebraicamente equivalente.

Proposición 24. Si los sistemas ẋ = Ax + Bu y x̂˙ = Âx̂ + B̂u son algebraica-


mente equivalentes mediante el cambio de variables x̂ = P x entonces

 = P AP −1 , B̂ = P B . (4.14)

Demostración. Derivando respecto de t la identidad x̂(t) = P (t)x(t) se ob-


tiene
˙
x̂(t) = Ṗ x + P ẋ = P ẋ = P (Ax + Bu) = P Ax + P Bu = P AP −1 x̂ + P Bu .

Identificando los anteriores términos con los de x̂˙ = Âx̂ + B̂u se obtiene el
resultado.

Proposición 25. Sean Φ(t, t0 ) y Φ̂(t, t0 ) las matrices de transición de estados


de los sistemas algebraicamente equivalente ẋ = Ax + Bu y x̂˙ = Âx̂ + B̂u
respectivamente mediante el cambio de variables x̂(t) = P x(t). Entonces

Φ̂(t, t0 ) = P Φ(t, t0 )P −1 . (4.15)

Demostración. Recordemos que Φ(t, t0 ) es la única matriz no singular que


satisface
Φ̇(t, t0 ) = AΦ(t, t0 ) , Φ(t0 , t0 ) = In .
Para demostrar que Φ̂(t, t0 ) es la matriz de transición de estados del sistema
x̂˙ = Âx̂ + B̂u se ha de probar que
˙
Φ̂(t, t0 ) = ÂΦ̂(t, t0 ) , Φ̂(t0 , t0 ) = In .

Efectivamente,
˙
Φ̂(t, t0 ) = P Φ̇(t, t0 )P −1 = P AΦ(t, t0 )P −1 = (P AP −1 )(P Φ(t, t0 )P −1 ) = ÂΦ̂(t, t0 ) ,

donde en el primer paso se ha utilizado (4.15) y en el último (4.14). Además

Φ̂(t0 , t0 ) = P Φ(t0 , t0 )P −1 = P P −1 = In ,

con lo cual queda demostrada la proposición.


Teorema 26. En un sistema lineal, la propiedadad de ser completamente con-
trolable se preserva por equivalencia algebraica.
32 Sistemas de Control Lineal

Demostración. Consideremos dos sistema lineales algebraicamente equiva-


lente ẋ = Ax + Bu y x̂˙ = Âx̂ + B̂u. Hemos de demostrar que si ẋ = Ax + Bu es
completamente controlable entonces x̂˙ = Âx̂ + B̂u también es completamente
controlable.
La matriz de controlabilidad Û (t0 , t1 ) para el sistema x̂˙ = Âx̂ + B̂u viene
dada, según (4.7), por
 t1
Û (t0 , t1 ) = Φ̂(t0 , τ )B̂ B̂ T Φ̂T (t0 , τ ) dτ .
t0

Teniendo en cuenta (4.14) y (4.15), B̂ = P B y Φ̂(t, t0 ) = P Φ(t, t0 )P −1 , de modo


que
 t1
Û (t0 , t1 ) = (P Φ(τ, t0 )P −1 )(P B)(B T P T )((P −1 )T ΦT (τ, t0 )P T ) dτ
t0
 t1
= P Φ(τ, t0 )BB T ΦT (τ, t0 )P T dτ
t0
 t1 
T T
= P Φ(τ, t0 )BB Φ (τ, t0 ) dτ PT .
t0

Se verifica pues la siguiente ecuación


Û (t0 , t1 ) = P U (t0 , t1 )P T . (4.16)
En particular, la matriz de controlabilidad Û (t0 , t1 ) es no singular puesto que,
por hipótesis, P y U (t0 , t1 ) son no singulares. Utilizando el Teorema 4.8 se
concluye con el resultado deseado.

4.4. Problemas resueltos


1. Averiguar si el sistema ẋ = Ax + bu, siendo x ∈ R4 , u ∈ R,
⎛ ⎞ ⎛ ⎞
0 1 0 1 0
⎜ 0 0 −1 0 ⎟ ⎜ ⎟
A=⎜ ⎟ , b=⎜ 1 ⎟ ,
⎝ 0 0 0 1 ⎠ ⎝ 0 ⎠
0 0 5 0 −2
es completamente controlable.
Solución. Puesto que A ∈ Mn (R), la matriz de controlabilidad U del
sistema lineal del enunciado es
⎛ ⎞
0 −1 0 −8
⎜ 1 0 2 0 ⎟
U = [b, Ab, A2 b, A3 b] = ⎜
⎝ 0 −2
⎟ .
0 −10 ⎠
−2 0 −10 0
Es fácil ver que rang U = 4, de modo que, aplicando el Teorema 11, se
concluye que el sistema es completamente controlable.
4.4 Problemas resueltos 33

2. Consideremos un péndulo invertido cuya ecuación del movimiento es

ü cos θ + θ̈ = g sin θ ,

siendo  la longitud del péndulo, g la intensidad de campo gravitatorio,


θ el ángulo que forma el péndulo respecto de la vertical y u la posición
horizontal de la base del péndulo que es la variable de control.
(i) Demostrar que, si θ es inicialmente pequen̄o entonces el sistema es
completamente controlable. Indicación: Utilizar la variable x de
posición horizontal del péndulo y demostrar que, para pequen̄as os-
cilaciones, se tiene ẍ ≈ w2 (x − u), siendo w2 := g/.
(ii) Calcular la expresión explı́cita de u(t) si se pretende llevar el péndulo
de pequen̄as oscilaciones desde el estado inicial (x(0), ẋ(0)) = (1, 1)
hasta el estado final (x(1), ẋ(1)) = (0, 0) en una unidad de tiempo.
Solución. (i) Para θ pequen̄a se tiene cos θ ≈ 1, sin θ ≈ θ y además
sin θ = (x − u)/, siendo x la posición horizontal del péndulo.
Se tiene pues que la ecuación del movimiento es aproximadamente

ü + θ̈ = g sin θ . (4.17)

Por otra parte

x =  sin θ + u ,
ẋ = θ̇ cos θ + u̇ ≈ θ̇ + u̇ ,
ẍ ≈ θ̈ + ü .

Sustituyendo en la ecuación (4.17) obtenemos el sistema linearizado

ẍ = w2 (x − u) ,

siendo w2 := g/. Esta ecuación se puede reescribir en la forma ẏ =


Ay + bu, siendo y = (x, ẋ)T ,
   
0 1 0
A= , b = .
w2 0 −w2
La matriz de controlabilidad U de este sistema lineal es
 
0 −w2
U = [b, Ab] = ,
−w2 0
de modo que rang U = 2 y, aplicando el Teorema 11, se concluye que el
sistema es completamente controlable.

(ii) Consideramos de nuevo el sistema ẏ = Ay + bu, siendo y = (x, ẋ)T ,


   
0 1 0
A= , b = .
w2 0 −w2
34 Sistemas de Control Lineal

Aplicaremos el Teorema 16 para calcular el control u(t). En primer lugar


calculamos la matriz de controlabilidad
 1
U (0, 1) = Φ(0, τ )bbT ΦT (0, τ ) dτ ,
0

siendo la matriz de transición de estados Φ(0, τ ) = exp(−Aτ ). Es fácil


mostrar que
 
cosh(τ w) − sinh(τ w)/w
Φ(0, τ ) =
−w sinh(τ w) cosh(τ w)

De este modo se obtiene


 1 
w2 sinh2 (τ w) −w3 sinh(2τ w)/2
U (0, 1) = dτ
0 −w3 sinh(2τ w)/2 w4 cosh2 (τ w)
 
−w(w − sinh(w) cosh(w))/2 −w2 sinh2 (w)/2
= .
−w2 sinh2 (w)/2 w3 (w + sinh(w) cosh(w))/2

Como el sistema es totalmente controlable, está claro que la matriz U (0, 1)


es no singular. De cualquier forma, se tiene que
1 4
det U (0, 1) = w [−1 − 2w2 + cosh(2w)] ,
8
que es no nulo para todo w > 0.
Según el Teorema 16, el control que llevará el sistema ẏ = Ay + bu con
y = (x, ẋ), desde el estado inicial y(0) = y0 = (1, 1)T hasta el estado final
y(1) = yf = (0, 0)T viene dado por

u(t) = −bT ΦT (0, t)U −1 (0, 1)[y0 − Φ(0, 1)yf ] .

Realizando los cálculos pertinentes se obtiene


2{−w cosh[(−2 + t)w] + 3w cosh[tw] + sinh[(−2 + t)w] + (−1 + 2w2 ) sinh[tw]}
u(t) = .
w + 2w3 − w cosh(2w)

3. Consideremos un satélite de masa unidad en una órbita plana. Tomando


coordenadas polares (r, θ), las ecuaciones del movimiento son

c 2ṙθ̇ 1
r̈ = rθ̇2 − + ur , θ̈ = − + uθ ,
r2 r r
siendo c un parámetro de la órbita y ur y uθ las componentes radial y
angular de la fuerza u ejercida por el motor del satélite que son tomadas
como variables de control. Notar que si se para el motor, es decir, ur =
uθ = 0, entonces es posible una órbita circular uniforme (ypor lo tanto
con ṙ = θ̈ = 0) de radio R y velocidad angular θ̇ = w = c/R3 . Si la
4.4 Problemas resueltos 35

fuerza u del motor es pequen̄a se pueden tomar las siguientes coordenadas


de perturbación: x1 = r − R, x2 = ṙ, x3 = θ − wt y x4 = θ̇ − w. Entonces
se tiene ẋ ≈ Ax + Bu, siendo x = (x1 , x2 , x3 , x4 )T , u = (ur , uθ )T ,
⎛ ⎞ ⎛ ⎞
0 1 0 0 0 0
⎜ 3w2 0 0 2wR ⎟ ⎜ 0 ⎟
A=⎜ ⎟ , B=⎜ 1 ⎟ .
⎝ 0 0 0 1 ⎠ ⎝ 0 0 ⎠
0 −2w/R 0 0 0 1/R

Demostrar que el sistema es completamente controlable.


Solución. Utilizaremos el Teorema 4.2 para resolver la cuestión planteada.
En nuestro caso, la matriz de controlabilidad es
U = [B, AB, A2 B, A3 B]
⎛ ⎞
0 0 1 0 0 2w −w2 0
⎜ 1 0 0 2w −w2 0 0 −2w3 ⎟
= ⎜ ⎟.
⎝ 0 0 0 1/R −2w/R 0 0 −4w2 /R ⎠
0 1/R −2w/R 0 0 −4w2 /R 2w3 /R 0

Es fácil comprobar que rang U = 4, de modo que, aplicando el Teorema


4.2 se concluye que el sistema es completamente controlable.
Capı́tulo 5

Observabilidad

Consideremos el sistema lineal controlado

ẋ = Ax + Bu , (5.1)

con A ∈ Mn (R) y B ∈ Mn×m (R) matrices constantes, x(t) ∈ Rn y u(t) ∈ Rm .


Además, supondremos que la salida y(t) ∈ Rr del sistema es

y = Cx , (5.2)

con C ∈ Mr×n (R).

5.1. Observabilidad
La idea de observabilidad para un sistema controlable consiste en determinar,
si es posible, el estado x(t) de un sistema conociendo únicamente la salida y(t).
De forma más precisa se tiene la siguiente definición.

Definición 27. El sistema (5.1) y (5.2) se dice que es completamente observ-


able si, para cualquier t0 y cualquier estado inicial x(t0 ) = x0 , existe un tiempo
finito t1 con t1 > t0 tal que el conocimiento del control u(t) y la salida y(t) para
t0 ≤ t ≤ t1 es suficiente para determinar x0 de forma única.

Nota 28. En la Definición 27 se puede tomar el control u(t) ≡ 0 para t0 ≤ t ≤ t1


sin pérdida de generalidad.

Teorema 29. El sistema (5.1) y (5.2) definido por ẋ = Ax + Bu, y = Cx es


completamente observable si y sólo si la matriz simétrica
 t1
V (t0 , t1 ) = ΦT (τ, t0 )C T CΦ(τ, t0 ) dτ , (5.3)
t0

llamada matriz de observabilidad, es no singular.

37
38 Observabilidad

Demostración. Demostremos en primer lugar la suficiencia, es decir, supon-


dremos que V (t0 , t1 ) es no singular y hemos de demostrar que el sistema es
completamente observable. Por la Nota 28 tomaremos el control u(t) ≡ 0 para
t0 ≤ t ≤ t1 . Entonces, la solución del sistema ẋ = Ax sujeta a la condición
inicial x(t0 ) = x0 viene dada por x(t) = Φ(t, t0 )x0 . De este modo, la salida es
y(t) = CΦ(t, t0 )x0 . Multiplicando esta ecuación por la izquierda por ΦT (t, t0 )C T
e integrando respecto de t se tiene
 t1
ΦT (τ, t0 )C T y(t) dτ = V (t0 , t1 )x0 .
t0

Puesto que, por hipótesis, V (t0 , t1 ) es no singular, se tiene de la anterior ecuación


 t1
x0 = V −1 (t0 , t1 ) ΦT (τ, t0 )C T y(τ ) dτ , (5.4)
t0

de modo que el sistema es completamente observable.

Demostremos ahora la necesidad. Suponemos que el sistema es completa-


mente observable y probaremos que V (t0 , t1 ) es no singular. Sea α ∈ Rn un
vector columna arbitrario. Entonces, la forma cuadrática
 t1
T
α V (t0 , t1 )α = αT ΦT (τ, t0 )C T CΦ(τ, t0 )α dτ
t0
 t1
= (CΦ(τ, t0 )α)T (CΦ(τ, t0 )α) dτ
t0
 t1
= CΦ(τ, t0 )α2 dτ ≥ 0 ,
t0

de modo que la matriz de observabilidad V (t0 , t1 ) es semidefinida positiva.


Veamos que en realidad V (t0 , t1 ) es definida positiva por reducción al absurdo.
Supongamos entonces que existe un vector columna α̂ = 0 tal que α̂T V (t0 , t1 )α̂ =
0. Entonces se tiene que CΦ(t, t0 )α̂ ≡ 0 para t0 ≤ t ≤ t1 . Entonces, la salida
y(t) con control nulo u(t) ≡ 0 para t0 ≤ t ≤ t1 cuando x0 = α̂ viene dada por

y(t) = CΦ(t, t0 )x0 = CΦ(t, t0 )α̂ ≡ 0 ,

para t0 ≤ t ≤ t1 . Esto implica que x0 no puede determinarse de forma única


a partir del conocimiento de y(t) ya que si x0 = 0 = α̂ entonces también se
tiene y(t) = 0 para t0 ≤ t ≤ t1 . Se ha llegado pues a una contradicción con
la hipótesis de que el sistema es completamente observable y, en consecuencia,
V (t0 , t1 ) es definida positiva. En particular V (t0 , t1 ) es no singular.
Nota 30. Observemos que, cuando el sistema ẋ = Ax + Bu es completamente
observable, la ecuación (5.4) da una expresión explı́cita para el estado inicial x0
independiente de la matriz B. Entonces, es habitual hablar de la observabilidad
del par [A, C] en lugar del sistema ẋ = Ax + Bu, y = Cx.
5.1 Observabilidad 39

Nota 31. Como se observa de la demostración del Teorema 29, cuando u(t) ≡ 0,
el estado inicial x0 dado por (5.4) es independiente del tiempo final t1 . Sólo se
requiere t1 > t0 .
El siguiente resultado es muy útil ya que permite deducir a partir de resul-
tados de controlabilidad el correspondiente de observabilidad y viceversa.
Teorema 32 (Dualidad). El sistema ẋ = Ax + Bu, y = Cx es completamente
controlable si y sólo si el sistema dual

ẋ = −AT x + C T u , y = B T x (5.5)

es completamente observable.
Demostración. Es fácil demostrar que, si Φ(t, t0 ) es la matriz de transición de
estados para el sistema ẋ = Ax, entonces ΦT (t, t0 ) es la matriz de transición de
estados para el sistema ẋ = −AT x. De este modo, comparando las expresiones
(4.7) y (5.3) de las matrices de controlabilidad U (t0 , t1 ) y de observabilidad
V (t0 , t1 ), es decir,
 t1
U (t0 , t1 ) = Φ(t0 , τ )BB T ΦT (t0 , τ ) dτ
t0

y  t1
V (t0 , t1 ) = ΦT (τ, t0 )C T CΦ(τ, t0 ) dτ ,
t0

se observa que la matriz de controlabilidad del par [A, B] es idéntica a la matriz


de observabilidad del par [−AT , B T ].
Además, la matriz de observabilidad del par [A, C] es idéntica a la matriz
de controlabilidad del par [−AT , C T ], con lo cual el teorema queda probado.

Una aplicación inmediata del Teorema 32 de dualidad es el siguiente.


Teorema 33. El sistema ẋ = Ax + Bu, y = Cx es completamente observable
si y sólo si la matriz de observabilidad
⎡ ⎤
C
⎢ CA ⎥
⎢ ⎥
⎢ CA2 ⎥
V =⎢ ⎥ ∈ Mnr×n (R) (5.6)
⎢ .. ⎥
⎣ . ⎦
CAn−1

tiene rango máximo, es decir, rangV = n.


Demostración. Por el Teorema 32 de dualidad, el sistema ẋ = Ax + Bu, y =
Cx es completamente observable si y sólo si el sistema dual ẋ = −AT x + C T u,
y = B T x es completamente controlable. Utilizando ahora el Teorema 11 aplicado
al sistema dual se tiene el resultado deseado.
40 Observabilidad

5.2. Problemas resueltos


1. Consideremos un circuito RLC donde la resistencia R y el condensador de
capacidad C se han colocado en paralelo y la bobina de autoinducción L en
serie. Si el circuito se conecta a una pila de potencial V , es fácil demostrar
que la diferencia de potencial VC en los extremos del condensador y la
intensidad IL que circula por la bobina verifican el sistema
   2 1
    1 
V̇C − RC C VC RC
= + V .
I˙L − L1 0 IL 1
L

Supongamos que la salida del sistema es −VC y el control V .


(i) Averiguar para qué valores de R, L y C el circuito es completamente
controlable y completamente observable.
(ii) ¿Es posible, cuando el sistema no es completamente observable, obten-
er V (t) de modo que, si el circuito tiene inicialmente (VC (0), IL (0)) =
(1, 5) pase a (VC (10), IL (10)) = (2, 3)?
Solución. (i) El sistema se puede escribir de la forma ẋ = Ax + bV ,
y = Cx, donde x = (VC , IL )T y siendo
 2 1
  1 
− RC
A= C , b= RC , C = (−1, 0) .
− L1 0 1
L

Puesto que A ∈ M2 (R), la matriz de controlabilidad U del sistema lineal


del enunciado es
 1 1

RC LC − R22C 2
U = [b, Ab] = 1 1 .
L − RLC

Como
1 1
det U = 2 2
− 2 ,
R LC L C

se tiene que si R= L/C entonces det U = 0 y rang U = 1. Por el
contrario, si R = L/C entonces det U = 0 y rang U = 2, de modo que,
aplicando el Teorema 11, se concluye que el sistema es completamente
controlable.

La matriz de observabilidad V es
  
C −1 0
V = = 2 ,
CA RC − C1

de modo que siempre tiene rango máximo, es decir, rang V = 2. En con-


clusión, aplicando el Teorema 33, el sistema es siempre completamente
observable.
5.2 Problemas resueltos 41

(ii) Para resolver esta cuestión aplicaremos el Teorema 19. Nos situamos

en el caso no completamente controlable, es decir, tomamos R = L/C.
Es fácil calcular la matriz de transición de estados Φ(0, t) = exp(−At),
siendo esta
 ⎛ √ ⎞
L+ L/Ct t
L/Ct ⎝ L −
√C ⎠ .
Φ(0, t) = exp
L t L− L/Ct
L L

Entonces, la matriz de controlabilidad


 10
U (0, 10) = Φ(0, τ )bbT ΦT (0, τ ) dτ
0
 √ 
20 L/C
−1 + exp L
  
L/C 1
= .
2L 1 1/ L/C

Por supuesto det U (0, 10) = 0 puesto que el sistema no es completamente


controlable. Sea x0 = (1, 5)T y xf = (2, 3). Calculemos ahora el vector
⎛  √  √  ⎞
10 L/C 30 20 L/C
⎜ 1 + exp L −2 + C − L ⎟
x0 − Φ(0, 10)xf = ⎜⎝
 √  √ ⎟ .

10 L/C −20−3L+30 L/C
5L + exp L L

Es fácil ver que el sistema lineal algebraico

U (0, 10)ξ = x0 − Φ(0, 10)xf ,

es incompatible, es decir, no existe ningún vector ξ ∈ R2 que sea su solu-


ción. En definitiva, aplicando el Teorema 19 se concluye que no es posible
llevar el circuito desde el estado inicial x0 = (VC (0), IL (0)) = (1, 5) al
estado final xf = (VC (10), IL (10)) = (2, 3) en 10 unidades de tiempo.

2. Consideremos el sistema lineal ẋ = Ax, siendo x = (x1 , x2 )T ∈ R2 y


 
−1 −1
A= ,
2 −4

donde la salida viene dada por y(t) = x1 (t) + 2x2 (t). ¿Es posible ha-
llar el estado inicial del sistema x(0) sabiendo que la salida es y(t) =
−20 exp(−3t) + 21 exp(−2t)? En caso de respuesta positiva, hallar x(0).
Solución. Se tiene el sistema ẋ = Ax con salida y = Cx, siendo C = (1, 2).
La matriz de observabilidad V asociada al sistema es
  
C 1 2
V = = ,
CA 3 −9
42 Observabilidad

que tiene rango máximo, es decir, rang V = 2. Entonces, aplicando el Teo-


rema 33, el sistema es siempre completamente observable. Ello significa que
siempre es posible hallar el estado inicial del sistema x(0) conociendo la
salida y(t).

Como el sistema es completamente observable y además el control es


u(t) ≡ 0, se sabe, ver (5.4), que el estado inicial x(0) = x0 viene dado
por  t1
x0 = V −1 (0, t1 ) ΦT (τ, t0 )C T y(t) dτ ,
0

donde el tiempo final t1 no juega ningún papel esencial (ver la Nota 31)
de modo que, se toma t1 = 1 sin pérdida de generalidad. Aquı́, la matriz
de observabilidad V (0, 1) viene dada, según (5.3), por
 1
V (0, 1) = ΦT (τ, 0)C T CΦ(τ, 0) dτ ,
0

siendo Φ(τ, 0) = exp(Aτ ) la matriz de transición de estados. Es fácil cal-


cular la matriz exponencial obteniéndose
 
−1 + 2 exp(τ ) 1 − exp(τ )
Φ(τ, 0) = exp(−3τ ) .
2[−1 + exp(τ )] 2 − exp(τ )

La matriz de observabilidad V (0, 1) es


 1  T  
−1 + 2 exp(τ ) 1 − exp(τ ) 1
V (0, 1) = exp(−6τ )
0 2[−1 + exp(τ )] 2 − exp(τ ) 2
 
−1 + 2 exp(τ ) 1 − exp(τ )
(1, 2) dτ
2[−1 + exp(τ )] 2 − exp(τ )
 "
1 7 + −25+18(4−3e)e
e6 2 + 25+27(e−2)e
e6 !
= .
6 2 + 25+27(e−2)e
e6
1
2 5+
−50+9(8−3e)e
e6

Finalmente, teniendo en cuenta que la salida es y(t) = −20 exp(−3t) +


21 exp(−2t), se tiene
 1  
3
x0 = V −1 (0, 1) ΦT (τ, 0)C T y(t) dτ = .
0 −1
Capı́tulo 6

Realimentación Lineal

6.1. Definición y preliminares


Definición 34. Al sistema ẋ = Ax + Bu se le aplica una realimentación lineal
si cada variable de control es una combinación lineal de las variables de estado,
es decir,
u(t) = Kx(t) , (6.1)
siendo K ∈ Mm×n (R) una matriz constante llamada matriz de ganancia. El
sistema resultante
ẋ = (A + BK)x , (6.2)
se llama sistema de lazo cerrado.

En este capı́tulo se utilizará la siguiente notación.

Definición 35. Λn = {ρ1 , . . . , ρn } ⊂ C denotará un conjunto arbitrario de n


números complejos tales que cualquiera de ellos que no sea real aparece empare-
jado con su complejo conjugado.

El siguiente resultado, cuya demostración general data del an̄o 1967 [13],
proporciona una nueva vı́a de investigación en control mediante el uso de reali-
mentación lineal en términos de variables de estado.

Teorema 36. Si el sistema ẋ = Ax + Bu es completamente controlable en-


tonces existe una matriz real K tal que los valores propios de la matriz A + BK
pertenecen al conjunto Λn de la Definición 35.

Nota 37. Sabemos que, la solución del sistema lineal de lazo cerrado ẋ = (A +
BK)x depende de los valores propios de la matriz A+BK. Por lo tanto, si el par
[A, B] es completamente controlable, del Teorema 36 se desprende que, usando
realimentación lineal, es posible ejercer una gran influencia sobre la evolución
temporal de las soluciones del sistema lineal de lazo cerrado.

43
44 Realimentación Lineal

Demostración del Teorema 36 con una única variable de control (m = 1). Como
el sistema ẋ = Ax + bu con A ∈ Mn (R) matriz constante, b ∈ Rn vector colum-
na y u(t) ∈ R es completamente controlable, por el Teorema 14, existe cambio
lineal de variables w = T x con T ∈ Mn (R) no singular que lo transforma en la
forma canónica controlable (3.25), es decir, ẇ = Cw + du con C = T AT −1 y
d = T b. En concreto d = (0, . . . , 0, 1)T y
⎛ ⎞
0 1 0 . . . 0
⎜ 0 0 1 . . . . ⎟
⎜ ⎟
⎜ . ⎟
C=⎜ . . . . . . ⎟ ∈ Mn (R) .
⎝ . . . . . . . ⎠
−kn −kn−1 −kn−2 . . . −k1
Aquı́, ki son los coeficientes del polinomio caracterı́stico de A, es decir,
det(λIn − A) = λn + k1 λn−1 + · · · + kn .
Por otra parte, la realimentación lineal en el caso m = 1 que nos ocupa se
escribe de la forma u = κw, con el vector fila κ = (κn , κn−1 , . . . , κ1 ) ∈ Rn . De
este modo, el sistema en lazo cerrado que se obtiene es ẇ = (C + dκ)w, siendo
la matriz
⎛ ⎞
0 1 0 . . . 0
⎜ 0 0 1 . . . . ⎟
⎜ ⎟
C + dκ = ⎜ . ⎜ . . . . . . ⎟ ⎟+
⎝ . . . . . . . ⎠
−kn −kn−1 −kn−2 . . . −k1
⎛ ⎞
0
⎜ 0 ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟ (κn , κn−1 , . . . , κ1 )
⎜ ⎟
⎝ 0 ⎠
1
⎛ ⎞
0 1 0 . . . 0
⎜ 0 0 1 . . . . ⎟
⎜ ⎟
= ⎜ ⎜ . . . . . . . ⎟ ⎟+
⎝ . . . . . . . ⎠
−kn −kn−1 −kn−2 . . . −k1
⎛ ⎞
0 0 0 . . . 0
⎜ 0 0 0 . . . 0 ⎟
⎜ ⎟
⎜ . . . . . . . ⎟
⎜ ⎟
⎝ . . . . . . . ⎠
κn κn−1 κn−2 . . . κ1
⎛ ⎞
0 1 0 . . . 0
⎜ 0 0 1 . . . . ⎟
⎜ ⎟

= ⎜ . . . . . . . ⎟ ⎟ ,
⎝ . . . . . . . ⎠
−γn −γn−1 −γn−2 . . . −γ1
6.1 Definición y preliminares 45

siendo
κi = ki − γi , i = 1, . . . , n . (6.3)
Notemos que la matriz C + dκ tiene la misma forma que la matriz C excepto la
última fila.
Puesto que los sistemas de lazo cerrado inicial ẋ = (A + bK)x y final ẇ =
(C + dκ)w son algebraicamente equivalentes mediante la transformación lineal
w = T x, se tiene que C + dκ = T (A + bK)T −1 , de donde κ = KT −1 y por lo
tanto la matriz de ganancia K que se busca es
K = κT , (6.4)
donde los elementos de κ están definidos por (6.3) y los elementos γi se calculan
imponiendo que los valores propios de la matriz A + bK (que son los mismos
que los de la matriz C + dκ) sean justo el conjunto Λn , es decir,
n

λn + γ1 λn−1 + · · · + γn = (λ − ρi ) ,
i=1

con lo cual queda demostrado.


Nota 38. Observar que la demostración efectuada del Teorema 36 con una
única variable de control (m = 1) es constructiva en el sentido de que existe
un algoritmo para calcular la matriz de ganancia K de la realimentación lineal
que nos permita tener un conjunto prefijado de autovalores para la matriz del
sistema en lazo cerrado.
A partir del Teorema 36 y utilizando el Teorema 32 de dualidad, es fácil
deducir el siguiente resultado de observabilidad.
Corolario 39. Si el sistema ẋ = Ax+Bu, y = Cx es completamente observable,
entonces existe una matriz real L tal que los valores propios de la matriz A+LC
pertenecen a un conjunto prefijado Λn ⊂ C.
Los métodos para controlar sistemas prefijando los autovalores de la matriz
del sistema de lazo cerrado se llaman habitualmente técnicas de control modal,
donde el nombre “modo”proviene de los términos exp(λi t)wi de la expresión
espectral (3.3) de la solución de sistemas lineales, siendo λi y wi valores y
vectores propios. Esta idea de control modal da lugar a una nueva definición.
Definición 40. El sistema ẋ = Ax + Bu es modalmente completamente con-
trolable si existe una matriz de ganancia K tal que los valores propios de la
matriz de lazo cerrado A + BK pertenecen a un conjunto arbitrario Λn ⊂ C
como el dado en la Definición 35.
El Teorema 36 asegura que si el sistema ẋ = Ax + Bu es completamente
controlable entonces también es modalmente completamente controlable. Se
puede de hecho demostrar también el recı́proco de manera que se tiene una
total equivalencia de las dos definiciones de controlabilidad establecidas tal y
como el siguiente teorema enuncia, ver por ejemplo [1].
Teorema 41. El sistema ẋ = Ax + Bu es modalmente completamente contro-
lable si y sólo si es completamente controlable.
46 Realimentación Lineal

6.1.1. Realimentación y función de transferencia


Es interesante relacionar el concepto de realimentación lineal y el de función
de transferencia g(s) para el caso de una única entrada (m = 1) y única salida
(r = 1). Recordemos que, según la teorı́a del control clásica, la función de
transferencia viene dada por la función racional (2.7), es decir,

β(s) β0 sm + β1 sm−1 + · · · + βm−1 s + βm


g(s) = = .
k(s) sn + k1 sn−1 + · · · + kn−1 s + kn

Teorema 42. Si se tiene una única entrada (m = 1) y única salida (r = 1), la


realimentación lineal permite elegir de forma arbitraria en el plano complejo los
polos de la función de transferencia g(s) del sistema de lazo cerrado pero deja
sus ceros invariantes.

Demostración. Es fácil demostrar que

g(s) = β̂(sIn − C)−1 d , (6.5)

siendo d = (0, 0, . . . , 0, 1)T y β̂ = (βm , . . . , β1 , β0 , 0, . . . , 0). De este modo, g(s)


es la función de transferencia del sistema

ẋ = Cx + du , y = β̂x .

Como vimos en la demostración del Teorema 36 con una única variable de


control (m = 1), la realimentación lineal sólo afecta a la última columna de la
matriz C, la cual contiene los coeficientes ki del denominador de la función de
transferencia g(s).

Nota 43. El Teorema 42 no es cierto si m > 1, puesto que en este caso los
ceros de la función de transferencia son afectados también por la realimentación
lineal.

6.2. Realimentación frente a control precalcula-


do
En esta sección veremos, bajo la óptica del clásico ejemplo del péndulo in-
vertido, las ventajas de tener una ley de control por realimentación u = Kx
frente a un control precalculado como una función del tiempo u(t).

Consideremos un péndulo de masa m, formando un ángulo θ(t) con la vertical


para tiempo t. Sea u(t) un momento externo que actúa sobre el péndulo y
podemos modificar a voluntad, dicho de otro modo, u es nuestra variable de
control. Bajo la hipótesis de rozamiento despreciable y gravedad g constante, la
ecuación del movimiento del péndulo viene dada, según las leyes de la mecánica
clásica de Newton, por la siguiente ecuación diferencial no lineal de segundo
6.2 Realimentación frente a control precalculado 47

orden mθ̈ + mg sin θ = u(t). Tomemos las unidades de espacio y de tiempo de


forma que m = g = 1, con lo cual el sistema a estudiar es

θ̈ + sin θ = u(t) . (6.6)

Si u(t) ≡ 0, el punto de equilibrio (θ, θ̇) = (π, 0) es un punto inestable


puesto que una pequen̄a desviación de dicho punto provocarı́a que el péndulo
no volviera al punto.

El problema de control que se pretende abordar consiste en actuar so-


bre el péndulo mediante el momento u(t) de modo que, para valores iniciales
(θ(0), θ̇(0)) cercanos al punto (π, 0), la evolución del péndulo sea hacia (π, 0).
En otras palabras se pretende hallar u(t) de modo que el punto de equilibrio
(π, 0) sea estable.

Realizemos el cambio de variable ϕ = θ −π. Con este cambio, el punto crı́tico


que se ha de analizar es justo el origen (ϕ, ϕ̇) = (0, 0). Además, sin θ = − sin ϕ,
de modo que la ecuación a estudiar es

ϕ̈ − sin ϕ = u(t) . (6.7)

Supongamos, en primera aproximación, que se realizan pequen̄as oscila-


ciones, es decir, que ϕ(t) es un ángulo pequen̄o en valor absoluto. Realizando la
aproximación habitual sin ϕ ≈ ϕ, podemos sustituir la ecuación no lineal (6.7)
por la siguiente ecuación lineal

ϕ̈ − ϕ = u(t) . (6.8)

Se pretende disen̄ar una estrategia de control u(t) de modo que, para val-
ores iniciales (ϕ(0), ϕ̇(0)) no nulos pero pequen̄os, el sistema evolucione hacia
(ϕ, ϕ̇) = (0, 0).

Supongamos que se pretende controlar el sistema linealizado (6.8) sabiendo


que parte de las condiciones iniciales

(ϕ(0), ϕ̇(0)) = (1, −2) . (6.9)

Es fácil comprobar que el control

u(t) = 3 exp(−2t) , (6.10)

es adecuado para nuestros propósitos puesto que la solución de (6.8) es, en


este caso, ϕ(t) = exp(−2t) de modo que está claro que (ϕ(t), ϕ̇(t)) → (0, 0)
cuando t → ∞.

Es fácil mostrar que un control por realimentación del tipo

u(t) = −αϕ(t) − β ϕ̇(t) , (6.11)


48 Realimentación Lineal

con α > 1 y β > 0 también cumple nuestro propósito, es decir, las solu-
ciones de (6.8) con condiciones iniciales (ϕ(0), ϕ̇(0)) suficientemente cer-
canas a (0, 0) verifican (ϕ(t), ϕ̇(t)) → (0, 0) cuando t → ∞.
La demostración de este hecho proviene del análisis del sistema en lazo
cerrado ϕ̈+β ϕ̇+(α−1)ϕ = 0,con ecuación caracterı́stica λ2 +βλ+α−1 = 0
cuyas raı́ces son λ± = [−β ± β 2 − 4(α − 1)]/2. Es obvio que la parte real
(λ± ) < 0 de modo que (ϕ(t), ϕ̇(t)) → (0, 0) cuando t → ∞.

6.2.1. Sensibilidad a las condiciones iniciales


Veamos qué ocurre si, como es habitual en la experimentación, existen incer-
tidumbres en las medidas de las condiciones iniciales. Supongamos, por ejemplo,
que las nuevas condiciones iniciales son

(ϕ(0), ϕ̇(0)) = (1, −2 + ) , (6.12)

con = 0 y pequen̄o en valor absoluto. En este caso, la solución de (6.8) con el


control (6.10) es

ϕ(t) = exp(−2t) + [exp(t) − exp(−t)] ,
2
que verifica

∞ si >0,
lı́m ϕ(t) =
t→∞ −∞ si <0,
de modo que ahora el control u(t) no cumple nuestro propósito.

6.2.2. Sensibilidad a perturbaciones externas


Supongamos ahora que, durante un cierto instante de tiempo, el control u(t)
que efectúa por ejemplo un motor, se perturba por cualquier motivo mediante
un valor > 0 pequen̄o como puede ser una subida de tensión en la red eléctrica.
Matemáticamente podemos realizar la siguiente modelización de una situación
similar
ϕ̈ − ϕ = u(t) + δ(t), (6.13)
siendo 
si t ∈ [1, 2] ,
δ(t) = (6.14)
0 si t ∈
 [1, 2] .

Vamos a probar que, si se toma el control (6.10) entonces, la solución de


(6.13) diverge con lo cual no se verifican nuestros propósitos.
En efecto, la solución de (6.13) con condiciones iniciales (6.9), es de-
cir, (ϕ(0), ϕ̇(0)) = (1, −2), es ϕ(t) = exp(−2t) para t ∈ [0, 1]. Pos-
teriormente, se resuelve (6.13) con la condición inicial (ϕ(1), ϕ̇(1)) =
6.3 Problemas resueltos 49

(exp(−2), −2 exp(−2)) durante el intervalo de tiempo t ∈ [1, 2]. Se ob-


tiene entonces

1 1
ϕ(t) = exp(−2t) + −1 + exp(1 − t) + exp(t − 1) .
2 2

Finalmente, se resuelve (6.13) con la condición inicial


  
−4 1 e −4 1
(ϕ(2), ϕ̇(2)) = e + −1 + + , −2e + e−
2e 2 2 e

durante el intervalo de tiempo t ≥ 2. Se obtiene entonces


1  
ϕ(t) = e−2t + (e − 1) et−2 − e1−t para t ≥ 2 ,
2
con lo que lı́mt→∞ ϕ(t) = ∞.

De una forma similar se puede demostrar que, si se toma por control u(t)
la realimentación (6.11), es decir, u(t) = −αϕ(t) − β ϕ̇(t) con α > 1 y
β > 0, entonces la solución de (6.13) no sólo no diverege sino que todavı́a
mantiene la propiedad asintótica deseada (ϕ(t), ϕ̇(t)) → (0, 0) cuando t →
∞.

6.3. Problemas resueltos


1. ¿Es invariante la observabilidad de un sistema respecto de la realimentación
lineal de estados? Responder después del estudio del sistema
   
1 2 0
ẋ = x+ u(t) ,
3 1 1

con salida y = (1, 2)x y realimentación u(t) = (3, 1)x.


Solución. El sistema
   
1 2 0
ẋ = x+ u(t) ,
3 1 1

es completamente observable puesto que la matriz de observabilidad V es


 
1 2
V = ,
7 4

y tiene rango máximo.


Tras la realimentación, el sistema en lazo cerrado es
 
1 2
ẋ = x , y = (1, 2)x ,
0 0
50 Realimentación Lineal

siendo su matriz de observabilidad


 
1 2
VK = .
1 2

Es claro que el rango de VK no es máximo de modo que el sistema de lazo


cerrado no es controlable.
La respuesta a la pregunta ¿Es invariante la observabilidad de un sistema
respecto de la realimentación lineal de estados? es NO.

2. Consideremos el sistema lineal


       
ẋ1 −1 −1 x1 1
= + u(t) .
ẋ2 2 −4 x2 3

Averiguar si es posible realizar una realimentación lineal de modo que el


sistema en lazo cerrado tenga asociados los valores propios ρ1 = −4 y
ρ2 = −5. En caso de que sea posible, hallarla.
Solución. Nos basaremos en la demostración constructiva del Teorema
36 con una única variable de control (que es nuestro caso).
Sea x = (x1 , x2 )T ∈ R2 . El sistema a estudiar es ẋ = Ax + bu con
   
−1 −1 1
A= ∈ M2 (R) , b = ∈ R2 .
2 −4 3

Si el sistema es completamente controlable, se sabe por el Teorema 36 que


existe una realimentación lineal de modo que el sistema en lazo cerrado
tenga asociados los valores propios que deseemos de un conjunto Λ2 y por
lo tanto, en particular, los valores propios ρ1 = −4 y ρ2 = −5. Es fácil ver
que el sistema del enunciado es completamente controlable.
Entonces, por el Teorema 14, existe un cambio lineal de variables w =
T x con T ∈ M2 (R) no singular que lo transforma en la forma canónica
controlable (3.25), es decir, ẇ = Cw + du con d = (0, 1)T ∈ R2 y
 
0 1
C= ∈ M2 (R) .
−k2 −k1

Aquı́, ki son los coeficientes del polinomio caracterı́stico de A, es decir,

det(λI2 − A) = λ2 + k1 λ + k2 = λ2 + 5λ + 6 ,

de modo que
k1 = 5 , k2 = 6 .

La matriz de ganancia es K = κT , siendo el vector fila κ = (κ2 , κ1 ) ∈ R2


donde
κi = ki − γi , i = 1, 2 , (6.15)
6.3 Problemas resueltos 51

y γi se calcula imponiendo que


2

λ2 + γ1 λ + γ2 = (λ − ρi ) ,
i=1

siendo ρi los valores propios que se desean en lazo cerrado. En concreto se


tiene
λ2 + γ1 λ + γ2 = (λ + 4)(λ + 5) ,
de donde obtenemos
γ1 = 9 , γ2 = 20 .
Volviendo a (6.15) se tiene

κ1 = 5 − 9 = −4 , κ2 = 6 − 20 = −14 ,

de modo que κ = (−14, −4).


Sólo falta por calcular la matriz T . Para conseguirlo, recordemos la Nota
7, es decir, T se puede construir mediante (3.29) donde ξ es la solución de
(3.31). En otras palabras,

ξ
T = ∈ M2 (R) ,
ξA

donde ξ verifica
ξ[b, Ab] = dT .
En nuestro problema, despejando ξ de la anterior ecuación se tiene
 −1
T −1 1 −4
ξ = d [b, Ab] = (0, 1)
3 −10
 
−5 2 1
= (0, 1) = (−3, 1) .
−3/2 1/2 2

Finalmente, se tiene
  
ξ 1 −3 1
T = = .
ξA 2 5 −1

Resumiendo, la realimentación lineal será del tipo u = Kx, siendo la


matriz de ganancia
 
1 −3 1
K = κT = (−14, −4) = (11, −5) ,
2 5 −1

es decir, el control por realimentación lineal utilizado será


 
x1
u = Kx = (11, −5) = 11x1 − 5x2 .
x2
52 Realimentación Lineal

Para comprobar que todo es correcto se puede ver que los valores propios
de la matriz  
10 −6
A + bK =
35 −19
asociada al sistema en lazo cerrado son ρ1 = −4 y ρ2 = −5.
Capı́tulo 7

Estabilidad

7.1. Introducción y definiciones


A diferencia de los capı́tulos anteriores, los conceptos de este capı́tulo pueden
ser aplicados a sistemas más generales que los sistemas lineales.
Consideraremos pues un sistema (en general no lineal) de ecuaciones difer-
enciales de primer orden
ẋ = f (x, t) , (7.1)
siendo x(t) = (x1 (t), . . . , xn (t)) ∈ Rn el vector de estados y
f (x, t) = (f1 (x, t), . . . , fn (x, t)) ∈ Rn
satisfaciendo las condiciones del teorema de existencia y unicidad del problema
de Cauchy asociado para una condición inicial x(t0 ) = x0 dada. En particular,
si fi y ∂fi /∂xj son funciones continuas en un entorno del punto (t0 , x0 ) ∈ Rn+1
se verifican dichas condiciones. El sistema (7.1) se llama autónomo si f no
depende explı́citamente del tiempo, es decir, son sistemas del tipo ẋ = f (x). En
caso contrario se llaman no autónomos. Si la función f es lineal y autónoma,
entonces se recuperan los sistemas lineales ẋ = Ax estudiados anteriormente.
Definición 44. El estado x∗ ∈ Rn se llama punto crı́tico o punto singular o
estado estacionario del sistema (7.1) si verifica f (x∗ , t) ≡ 0 para todo t.
Siempre supondremos que los puntos crı́ticos son aislados, lo que significa
que no hay otros puntos crı́ticos de (7.1) en un entorno de x∗ .
Nota 45. Supongamos que x∗ es un punto crı́tico del sistema (7.1). Entonces,
si x(t0 ) = x∗ , utilizando la ecuación (7.1) se deduce que x(t) = x∗ para todo
t ≥ t0 . El hecho de que las soluciones de (7.1) que comiencen en x∗ permanezcan
en x∗ da el nombre de estado estacionario a x∗ .
Nota 46. Sin pérdida de generalidad siempre se puede suponer que el punto
crı́tico x∗ es el origen, es decir x∗ = 0 ∈ Rn . En caso de que que no lo sea, se
realiza el cambio de variables (traslación) z = x − x∗ que lleva el punto x∗ al
origen.

53
54 Estabilidad

Intuitivamente, la estabilidad de un punto crı́tico x∗ de (7.1) medirá si las


soluciones x(t) de (7.1) que comiencen “cerca”de x∗ permanecerán o no “cer-
ca”para t > t0 . No existe una única definición de estabilidad. Nosotros utilizare-
mos la siguiente definición dada por Liapunov.

Definición 47. Sea x∗ = 0 ∈ Rn punto crı́tico del sistema (7.1). Entonces:

(i) 0 es estable si para todo > 0 existe un δ > 0 tal que x(t0 ) < δ implica
x(t) < para todo t ≥ t0 .

(ii) 0 es asintóticamente estable si es estable y además lı́mt→∞ x(t) = 0.

(i) 0 es inestable si no es estable, es decir, existe un > 0 tal que para todo
δ > 0 existe un x(t0 ) verificando x(t0 ) < δ y x(t1 ) ≥ para algún
t1 > t0 . Si además esto sucede para todo x(t0 ) con x(t0 ) < δ entonces 0
se llama completamente inestable.

Si se conoce la expresión explı́cita de la solución general x(t) del sistema


(7.1) para cualquier condición inicial x(t0 ) = x0 entonces también se conoce la
estabilidad de sus puntos crı́ticos. Por ejemplo, el sistema lineal ẋ = Ax, siendo
 
2 −3
A= ,
2 −1

con la condición inicial x(0) = (x1 (0), x2 (0)) tiene por solución general (uti-
lizando los métodos anteriormente estudiados)
  √ "  √ "
t 15 3 15
x1 (t) = x1 (0) exp cos t + √ sin t −
2 2 15 2
  √ "
6 t 15
√ x2 (0) exp sin t ,
15 2 2

con una expresión similar para x2 (t). Obviamente, debido al término exponen-
cial, lı́mt→∞ x1 (t) = ∞ para cualquier valor inicial x(0) de modo que el origen
del sistema lineal es inestable.

Sin embargo, excepto para sistemas lineales y algún otro tipo simple, no se
conocerá a priori la solución general x(t) del sistema de modo que este método
no es de gran aplicación.

7.2. Estabilidad en sistemas lineales


Consideremos otra vez el sistema lineal

ẋ = Ax , (7.2)
7.2 Estabilidad en sistemas lineales 55

con x ∈ Rn y A ∈ Mn (R). Suponiendo que A sea no singular, es claro que


el único punto crı́tico del sistema (7.2) es el origen, de modo que tiene senti-
do hablar de la estabilidad del sistema lineal (7.2) aunque nos refiramos a la
estabilidad del origen de (7.2).
Definición 48. Sean λk ∈ C, con k = 1, . . . , n, los valores propios de la matriz
A ∈ Mn (R). Denotemos por (λk ) a la parte real de λk . Entonces A se llama
matriz de estabilidad o bien de Hurwitz si (λk ) < 0 para todo k = 1, . . . , n.
Teorema 49. Sean λk , con k = 1, . . . , n, los valores propios de la matriz A. El
sistema (7.2) es:
(i) asintóticamente estable si y sólo si A es una matriz de estabilidad.
(ii) inestable si existe algún k tal que (λk ) > 0.
(iii) completamente inestable si (λk ) > 0 para todo k = 1, . . . , n.

Demostración de (i). Sólo probaremos la condición suficiente de (i) en el caso


de que todos los valores propios de A sean diferentes. La solución del sistema
(7.2) con la condición inicial x(0) = x0 viene dada por
x(t) = exp(At)x0 .
Utilizando las propiedades de las normas matriciales se tiene
x(t) ≤  exp(At) x0  . (7.3)
Realizaremos la demostración sólo para el caso en que todos los valores
propios λk de A son distintos. Entonces se puede aplicar la fórmula de Sylvester
(3.14), es decir,
 n
exp(At) = Zk exp(λk t) ,
k=1
siendo Zk matrices constantes que sólo dependen de A y de sus valores propios.
Tomando normas se tiene
 n
 exp(At) ≤ Zk  | exp(λk t)| .
k=1

Como λk = (λk ) + i (λk ), siendo i = −1, se tiene que
exp(λk t) = exp( (λk )t) exp(i (λk )t) ,
de modo que el módulo | exp(λk t)| = exp( (λk )t). Se tiene pues que
n

 exp(At) ≤ Zk  exp( (λk )t) . (7.4)
k=1

Supongamos que (λk ) < 0 para todo k. Entonces, de (7.4) se deduce que
 exp(At) → 0 cuando t → ∞. Finalmente, teniendo en cuenta (7.3), se con-
cluye que x(t) → 0 cuando t → ∞ y por lo tanto el sistema (7.2) es asintótica-
mente estable.
56 Estabilidad

Nota 50. Observar que tras el Teorema 49, los casos difı́ciles en el estudio de
la estabilidad del sistema (7.2) son aquellos en los que algún valor propio λj de
A sea o bien nulo o bien imaginario puro, es decir, (λj ) = 0.
Es fácil demostrar el siguiente resultado de gran utilidad en aplicaciones.
Proposición 51. Sea el polinomio k(λ) = λ3 + aλ2 + bλ + c ∈ R3 [λ]. Todas
las raı́ces de k(λ) tienen parte real negativa si y sólo si a > 0, b > 0, c > 0 y
ab > c.

7.3. Teorı́a de Liapunov de la estabilidad


En esta sección estudiaremos la estabilidad de los puntos crı́ticos de un
sistema (7.1) no necesariamente lineal pero si autónomo. Sin pérdida de gener-
alidad se estudiará en muchas ocasiones la estabilidad del origen, ver la Nota
46. Por lo tanto, el ojetivo es estudiar la estabilidad del punto crı́tico x∗ en el
sistema
ẋ = f (x) , f (x∗ ) = 0 . (7.5)
La teorı́a de Liapunov de la estabilidad para este tipo de sistemas consiste en
generalizar el concepto de energı́a V que aparece en los sistemas conservativos
en mecánica, donde es bien sabido que un punto crı́tico es estable si la energı́a
tiene un mı́nimo en dicho punto.
Definición 52. Dada una función V : Rn → R de clase C 1 , se define la
derivada orbital V̇ de V respecto del sistema (7.5) como la siguiente derivada
direccional
n
dV ∂V
V̇ = = ẋi = ∇V.f .
dt i=1
∂xi

Nota 53. Nótese que, dada una solución x(t) del sistema (7.5), se tiene

dV (x(t))
V̇ (x(t)) = .
dt
Definición 54. La función V : D ⊂ Rn → R con x∗ = 0 ∈ D es una función
de Liapunov para el sistema (7.5) si verifica lo siguiente:
(i) V ∈ C 1 (D).
(ii) V es definida positiva, es decir, V (0) = 0 y V (x) > 0 para todo x ∈ D con
x = 0.
(iii) V̇ es semidefinida negativa, es decir, V̇ (0) = 0 y V̇ (x) ≤ 0 para todo
x ∈ D.

El siguiente resultado es básico en esta teorı́a y posee un fuerte caracter


geométrico.
7.3 Teorı́a de Liapunov de la estabilidad 57

Teorema 55 (Liapunov). (i) El punto crı́tico x∗ = 0 del sistema (7.5) es es-


table si existe una función de Liapunov definida en un entorno D ⊂ Rn
con 0 ∈ D.
(ii) El punto crı́tico x∗ = 0 del sistema (7.5) es asintóticamenete estable si
existe una función de Liapunov definida en un entorno D ⊂ Rn con 0 ∈ D
tal que V̇ es definida negativa, es decir, V̇ (0) = 0 y V̇ (x) < 0 para todo
x ∈ D con x = 0.
Demostración. Daremos una prueba sólo para el caso bidimensional, es decir
x = (x1 , x2 ) ∈ R2 .
En primer lugar exploremos algunos aspectos geométricos de las funciones
definidas positivas. Está claro que, si V : R2 → R es definida positiva en un
entorno D ⊂ R2 del origen, entonces V tiene un mı́nimo aislado en el origen.
Esto implica que las curvas de nivel

V −1 (c) = {x ∈ R2 | V (x) = c}

en el plano de fases x1 − x2 son curvas cerradas rodeando al origen para c ∈ R


positivo y pequen̄o.
En el siguiente paso, queremos determinar cómo cruzan las soluciones x(t)
del sistema ẋ = f (x) a las anteriores curvas de nivel de V . Para verlo, calculamos
la derivada orbital de V según el sistema ẋ = f (x), es decir,
∂V ∂V
V̇ (x(t)) = (x(t))ẋ1 + (x(t))ẋ2 .
∂x1 ∂x2
Por supuesto, esta expresión coincide con la del producto escalar del vector
gradiente ∇V (x) y del vector f (x) de modo que

V̇ (x) = f (x).∇V (x) = f (x) ∇V (x) cos θ ,

siendo θ el ángulo formado por los vectores ∇V (x) y f (x). Recordemos que el
vector ∇V (x) es perpendicular a la curva de nivel de V que pasa por x y con
el sentido de máxima variación de V . De este modo, si V̇ (x) < 0, entonces el
ángulo θ es obtuso con lo cual la órbita del sistema que pasa por x corta a la
curva de nivel desde la parte del plano no acotada (exterior de la curva de nivel)
hacia la parte acotada por la curva de nivel (interior de la curva de nivel). De
forma similar, si V̇ (x) > 0, la órbita del sistema que pasa por x corta a la curva
de nivel de V que pasa por x desde su interior hacia su exterior; si V̇ (x) = 0 la
órbita del sistema que pasa por x toca a la curva de nivel tangencialmente en
x.

Con todos estos preliminares vamos finalmente a demostrar el teorema.


(i) Sea > 0 suficientemente pequen̄o de manera que el entorno del origen
consistente en los puntos x con x ≤ esté contenido en D. Sea

m = mı́n {V (x)} > 0 .


x=
58 Estabilidad

Recordemos que m existe puesto que el subconjunto de R2 de puntos x con


x = es cerrado y acotado y por lo tanto compacto. Ahora tomemos un δ tal
que 0 < δ ≤ tal que V (x) < m para todo x con x ≤ δ. Dicho δ existe ya que
V es una función continua con V (0, 0) = 0.
Sea x(t) la solución del sistema que pasa por el punto x0 ∈ R2 para tiempo
t = 0. Si se toma x0  ≤ δ entonces x(t) ≤ para todo t ≥ 0 ya que
V̇ (x(t)) ≤ 0 implica V (x(t) ≤ V (x0 ) para todo t ≥ 0. Hemos probado pues la
estabilidad del origen.
(ii) Se demuestra de manera similar.

Por supuesto, una de las principales dificultades que uno se encuentra cuando
quiere utilizar la teorı́a de estabilidad de Liapunov consiste en buscar la fun-
ción de Liapunov. Una situación simple consiste en buscar formas cuadráticas
definidas positivas como funciones de Liapunov.

Lema 56. Una forma cuadrática V (x1 , x2 ) = ax21 + 2bx1 x2 + cx22 con a, b, c ∈ R
es definida positiva si y sólo si a > 0 y ac − b2 > 0.

Demostración. Probaremos sólo la necesidad (la suficiencia sigue razonamien-


tos análogos). Supongamos pues que V es definida positiva. Entonces, como
V (x1 , 0) > 0 para todo x1 = 0, se debe tener a > 0. Tomemos ahora un x̂2 = 0
fijo de modo que V (x1 , x̂2 ) > 0 para todo x1 . Ası́, el polinomio p(x1 ) = V (x1 , x̂2 )
no puede tener raı́ces reales. En consecuencia, su discriminante 4(b2 − ac) debe
ser negativo.

7.3.1. Aplicación a sistemas lineales


Consideremos de nuevo el sistema lineal

ẋ = Ax , (7.6)

con x ∈ Rn y A ∈ Mn (R). En esta sección mostraremos cómo se puede aplicar


a los sistemas lineales la teorı́a de Liapunov. Para ello ensayaremos la siguiente
“posible”función de Liapunov definida mediante una forma cuadrática

V = xT P x , (7.7)

siendo P ∈ Mn (R) simétrica. La derivada orbital V̇ de V respecto del sistema


lineal (7.6) viene dada por

V̇ = ẋT P x + xT P ẋ = xT AT P x + xT P Ax = xT (AT P + P A)x ,

de modo que, si definimos la matriz Q mediante la llamada ecuación matricial


de Liapunov
AT P + P A = −Q , (7.8)
se tiene que
V̇ = −xT Qx . (7.9)
7.3 Teorı́a de Liapunov de la estabilidad 59

Es fácil ver que Q es una matriz simétrica puesto que P lo es. Esto es debido a
que

QT = −(AT P + P A)T = −(P T A + AT P T ) = −(P A + AT P ) = Q .

Por lo tanto la expresión de V̇ dada en (7.9) es una forma cuadrática.


Es habitual fijar V̇ , es decir, fijar Q y calcular V o equivalentemente calcular
una solución P de la ecuación matricial de Liapunov (7.8).

Los siguientes teoremas son una herramienta teórica con grandes aplicaciones
en la teorı́a de control óptimo como veremos en capı́tulos posteriores.

Teorema 57 (Liapunov). La ecuación matricial de Liapunov (7.8) verifica lo


siguiente:

(i) La ecuación (7.8) tiene una única solución P simétrica para cada Q simétri-
ca fijada si y sólo si para cada par de valores propios λi y λj de A se verifica
λi + λj = 0.

(ii) Si A es una matriz de estabilidad, para cada Q definida positiva existe una
única solución de (7.8) que es definida positiva y viene dada de forma
explı́cita por  ∞
P = exp(AT t)Q exp(At) dt . (7.10)
0

Nota 58. La fórmula (7.10) tiene interés teórico puesto que en muchas oca-
siones es más simple resolver la ecuación matricial de Liapunov (7.8) direc-
tamenete que calcular mediante (7.10).

Teorema 59. La matriz A es una matriz de estabilidad si y sólo si para


cualquier matriz Q ∈ Mn (R) simétrica y definida positiva, la matriz P ∈
Mn (R) solución de la ecuación matricial de Liapunov (7.8) es también definida
positiva.

Demostración. Consta de dos partes:

Si P y Q son ambas definidas positivas, entonces la V dada en (7.7) es


una función de Liapunov y además V̇ es definida negativa de modo que,
por el Teorema 55, el origen del sistema (7.6) es asintóticamente estable.

Si Q es definida positiva y P es definida negativa o indefinida entonces en


ambos casos la V definida en (7.7) puede tomar valores negativos en un
entorno del origen. Entonces, el origen del sistema (7.6) es inestable.

7.3.2. Estabilidad mediante linearización


La teorı́a de estabilidad desarrollada para sistemas lineales puede ser aplica-
da en algunos casos a sistemas no lineales mediante el concepto de linearización.
60 Estabilidad

Consideremos de nuevo la ecuación no lineal (7.5) con el punto crı́tico x∗ ∈ Rn ,


es decir,
ẋ = f (x) , f (x∗ ) = 0 . (7.11)
Supongamos que f es suficientemente regular de modo que podemos realizar
el desarrollo de Taylor de f (x) en un entorno de x∗ , es decir, f (x) = Df (x∗ )(x−
x∗ )+g(x), siendo la función g(x) la que contiene a los términos de orden superior
a los lineales en el desarrollo efectuado y
⎛ ∂f ∂f1

∗ ∗
∂x1 (x ) · · ·
1
∂xn (x )
⎜ ∂f2 ∗ ∂f ⎟
⎜ ∂x1 (x ) · · · ∂xn2 (x∗ ) ⎟

Df (x ) = ⎜⎜ ⎟ ∈ Mn (R) ,
.. .. .. ⎟
⎝ . . . ⎠
∂fn ∗ ∂fn ∗
∂x1 (x ) ··· ∂xn (x )

la matriz jacobiana de f calculada en el punto x∗ .

Definición 60. El sistema lineal

ẋ = Df (x∗ )x , (7.12)

se llama la linearización del sistema no lineal ẋ = f (x) en el punto singular x∗ .

Teorema 61 (Estabilidad por linearización). Si el sistema lineal ẋ = Df (x∗ )x


es asintóticamente estable o inestable, entonces el punto crı́tico x∗ del sistema
no lineal ẋ = f (x) con f (x∗ ) = 0 tiene la misma propiedad de estabilidad.

Demostración. Demostraremos sólo la primera parte del teorema relacionada


con la estabilidad asintótica. Supondremos además que x∗ = 0.
Consideremos la función V = xT P x donde la matriz P satisface la ecuación
matricial de Liapunov

Df T (0)P + P Df (0) = −Q ,

con Q una matriz arbitraria real simétrica y definida positiva.

Supongamos que el sistema linearizado ẋ = Df (0)x es asintóticamente es-


table. Entonces P es definida positiva por el Teorema 59. Además, la derivada
orbital de V respecto del sistema ẋ = f (x) = Df (0)x + g(x) es

V̇ = ẋT P x + xT P ẋ = [Df (0)x + g]T P x + xT P [Df (0)x + g]


= [xT Df T (0) + g T ]P x + xT P [Df (0)x + g]
= xT [Df T (0)P + P Df (0)]x + g T P x + xT P g
= −xT Qx + g T P x + xT P g .

Por otra parte


xT P g = (P g)T x = g T P T x = g T P x ,
7.4 Estabilidad y control 61

donde en el primer paso se ha utilizado la propiedad conmutativa del producto


escalar y en el último el hecho de que P es simétrica. De este modo se tiene que

V̇ = −xT Qx + 2g T P x .

Puesto que g comienza en términos de al menos grado 2, es claro que el segundo


término 2g T P x de V̇ comienza con términos de al menos grado 3. Entonces,
para x suficientemente cercano al origen domina el primer término −xT Qx en la
expresión de V̇ . Esto implica que, puesto que Q es una matriz definida positiva,
para todo x suficientemente cercano al origen se tiene V̇ < 0. Aplicando ahora
el Teorema 55, se concluye que el origen del sistema no lineal ẋ = f (x) es
asintóticamente estable.
Nota 62. Observar que el Teorema 61 no aporta ninguna información sobre
la estabilidad del punto crı́tico x∗ del sistema ẋ = f (x) cuando el sistema lin-
earizado ẋ = Df (x∗ )x es estable pero no es asintóticamente estable.

7.4. Estabilidad y control


Veamos alguna de las relaciones existentes entre los conceptos de estabilidad
y los de control. Consideremos de nuevo el sistema lineal controlado

ẋ = Ax + Bu , (7.13)

con A ∈ Mn (R) y B ∈ Mn×m (R) matrices constantes, x(t) ∈ Rn y u(t) ∈ Rm .


Además, supondremos que la salida y(t) del sistema es

y = Cx , (7.14)

con C ∈ Mr×n (R).

7.4.1. Estabilidad entrada–salida


Cuando un sistema es controlado mediante una entrada, es decir un vector
de control u(t), es de gran utilidad práctica definir un nuevo tipo de estabilidad.
Definición 63. El sistema ẋ = Ax + Bu, y = Cx, se dice que es entrada
acotada–salida acotada estable (o bien b.i.b.o) si cualquiere control de entrada
u(t) acotado produce una salida y(t) acotada. En otras palabras, independien-
temente del estado inicial x(t0 ), si u(t) < c1 para todo t ≥ t0 con c1 una
constante entonces existe otra constante c2 tal que y(t) < c2 para todo t ≥ t0 .

Nota 64. Es habitual en la literatura encontrar a los sistems con entrada


acotada–salida acotada estables mediante el nombre b.i.b.o provenientes de la
abreviatura del inglés bounded input–bounded output.
Teorema 65. Si el sistema lineal ẋ = Ax es asintóticamente estable, entonces
el sistema ẋ = Ax + Bu, y = Cx es b.i.b.o. estable.
62 Estabilidad

Demostración. En primer lugar, recordemos que la solución del sistema ẋ =


Ax + Bu con condición inicial x(0) = x0 viene dada según (3.21) por la fórmula
de variación de constantes
 t 
x(t) = exp(At) x0 + exp(−Aτ )Bu(τ ) dτ .
0

Tomando normas en la ecuación y = Cx y utilizando sus propiedades se obtiene


y(t) ≤ C x(t)
  t 
≤ C  exp(At)x0  +  exp[A(t − τ )] Bu(τ ) dτ (7.15)
.
0

Por otra parte, si A es una matriz de estabilidad, entonces existen constantes


reales positivas K y α de modo que
 exp(At) ≤ K exp(−αt) ≤ K , ∀ t ≥ 0 . (7.16)
Esta propiedad, para el caso particular en que todos los valores propios λk de
A son distintos, se deduce de tomar normas en la fórmula de Sylvester (3.14),
es decir,
# n #
# #  n
# #
 exp(At) = # Zk exp(λk t)# ≤ Zk   exp(λk t)
# #
k=1 k=1
n n
≤ K̂  exp(λk t) = K̂ exp[ (λk )t]
k=1 k=1
n
≤ K̂ exp[−αt] = nK̂ exp[−αt]
k=1

donde K̂ := máx1≤k≤n {Zk } y α := mı́n1≤k≤n { (λk )}. Tomando K = nK̂ se


deduce (7.16).

Teniendo en cuenta que la entrada de control está acotada, es decir u(t) <
c1 , de las ecuaciones (7.15) y (7.16) se deduce la siguiente cota
  t 
y(t) ≤ C Kx0  + c1 B  exp[A(t − τ )] dτ
0
  t 
≤ C Kx0  + c1 BK exp[−α(t − τ )] dτ
0
 
1
= KC x0  + c1 B [1 − exp(−αt)]
α
 
1
≤ KC x0  + c1 B para todo t ≥ 0 .
α
En definitiva, y(t) está acotada y por lo tanto el sistema es b.i.b.o estable.
7.4 Estabilidad y control 63

El recı́proco del Teorema 65 no es cierto en general. Sin embargo se dispone


del siguiente resultado demostrado en la página 53 de [12].

Teorema 66. Si el sistema lineal ẋ = Ax + Bu, y = Cx es completamente


controlable, completamente observable y b.i.b.o. estable, entonces el sistema ẋ =
Ax es asintóticamente estable.

7.4.2. Estabilización por realimentación lineal


Supongamos que el sistema de lazo abierto ẋ = Ax es inestable. Dicho de
otro modo, existe al menos un valor propio de la matriz A con parte real posi-
tiva (ver Teorema 49). En estos casos, un problema de gran aplicación consiste
en averiguar si se puede aplicar algún control u(t) de forma que el sistema
ẋ = Ax + Bu se estabilice.

Sabemos que, si el sistema ẋ = Ax + Bu es completamente controlable,


entonces existe una realimentación lineal u = Kx de modo que el sistema de
lazo cerrado ẋ = (A + BK)x es asintóticamente estable, ver Teorema 36. De
hecho existen infinitas matrices de ganancia K diferentes que consiguen este
objetivo.
Sin embargo, cuando el sistema ẋ = Ax + Bu no es completamente contro-
lable, entonces podemos definir una propiedad más débil que esta. En concreto,
se dice que el sistema ẋ = Ax + Bu es estabilizable si existe una matriz real K
tal que el sistema de lazo cerrado ẋ = (A + BK)x es asintóticamente estable.

7.4.3. Linealización de sistemas de control no lineales


Consideremos un sistema de control no lineal

ẋ = f (x, u) , (7.17)

siendo x(t) ∈ Rn las variables de estado y u(t) ∈ Rm las variables de control.


Aquı́ no estamos suponiendo que la función vectorial f sea lineal. De hecho,
cuando se modeliza matemáticamente un sistema fı́sico de control, habitual-
mente estos son no lineales. Sin embargo, existen algunos sistemas que son o
bien débilmente no lineales o bien sus caracterı́sticas no lineales se dan bajo
ciertas restricciones de operación. El hecho de que podamos aproximar este tipo
de sistemas no lineales mediante sistemas lineales nos brinda poder atacar el
sistema con toda la artillerı́a de métodos analı́ticos y exactos propios de este
tipo de sistemas.

Suponiendo f ∈ C 1 , describiremos a continuación un proceso de linearización


del sistema (7.17) en un entorno de una solución x∗ (t) correspondiente al control
u∗ (t). Usualmente, x∗ es un punto singular del sistema (7.17) correspondiente
a un cierto control constante u∗ , es decir, f (x∗ , u∗ ) = 0 aunque no es necesario
que esto ocurra.
64 Estabilidad

Realizando una expansión de Taylor de la función

f (x, u) = (f1 (x, u), . . . , fn (x, u))

en un entorno del punto (x∗ , u∗ ) = (x∗1 , . . . , x∗n , u∗1 , . . . , u∗m ) y truncando a primer
orden se tiene
 n  m
∂fi ∗ ∗ ∂fi ∗ ∗
ẋi ≈ fi (x∗ , u∗ )+ (x , u )(xj −x∗j )+ (x , u )(uj −u∗j ) , i = 1, . . . , n .
j=1
∂xj j=1
∂u j

Puesto que se pretende estudiar el sistema en un entorno de (x∗ , u∗ ), definimos


las variables
∆xi = xi − x∗i , ∆ui = ui − u∗i . (7.18)
Como ∆ẋi = ẋi − ẋ∗i = ẋi − fi (x∗ , u∗ ), se tiene

n m
∂fi ∗ ∗ ∂fi ∗ ∗
∆ẋi = (x , u )∆xj + (x , u )∆uj , i = 1, . . . , n .
j=1
∂xj j=1
∂uj

Por supuesto, este sistema lineal se puede escribir en la forma matricial

∆ẋ = Â∆x + B̂∆u , (7.19)

siendo ∆x = (∆x1 , . . . , ∆xn )t ∈ Rn , ∆u = (∆u1 , . . . , ∆um )t ∈ Rm ,


⎛ ∂f ∂f1

∗ ∗ ∗ ∗
∂x1 (x , u ) · · ·
1
∂xn (x , u )
⎜ ∂f2 ∗ ∗ ∂f ⎟
⎜ ∂x1 (x , u ) · · · ∂xn2 (x∗ , u∗ ) ⎟
 = ⎜⎜ .. .. .. ⎟ ∈ Mn (R) ,

⎝ . . . ⎠
∂fn ∗ ∗ ∂fn ∗ ∗
∂x (x , u ) · · · ∂xn (x , u )
⎛ ∂f 1 ∂f1

∗ ∗ ∗ ∗
∂u1
1
(x , u ) · · · ∂um (x , u )
⎜ ∂f2 ∗ ∗ ∂f2 ⎟
⎜ ∂u1 (x , u ) · · · ∂um (x∗ , u∗ ) ⎟
B̂ = ⎜⎜ ⎟ ∈ Mn×m (R) .
.. .. .. ⎟
⎝ . . . ⎠
∂fn ∗ ∗ ∂fn ∗ ∗
∂u1 (x , u ) ··· ∂um (x , u )

7.5. Problemas resueltos


1. Consideremos un péndulo de longitud  inmerso en un fluido que le pro-
porciona un rozamiento proporcional a la velocidad. Es fácil ver que la
ecuación del movimiento del péndulo viene dada por

θ̈ + 2cθ̇ + Ω2 sin θ = 0 ,

donde c > 0 es un coeficiente de rozamiento y Ω2 = /g con g la gravedad


supuesta constante. Estudiar la estabilidad de sus puntos singulares.
7.5 Problemas resueltos 65

Solución. Usando el cambio de variables habitual θ̇ = w se tiene el sistema

θ̇ = w , ẇ = −Ω2 sin θ − 2cw . (7.20)

Los puntos singulares del sistema en el plano de fases son (θ, w) = (nπ, 0),
con n ∈ Z.

Estudiemos a continuación la estabilidad del origen del sistema (7.20) por


linearización. La matriz Jacobiana de (7.20) es
 
0 1
Df (θ, w) = ,
−Ω2 cos θ −2c

de modo que, calculada en el origen es


 
0 1
Df (0, 0) = .
−Ω2 −2c

Los valores propios asociados a Df (0, 0) son λ± = −c ± c2 − Ω2 . Debido
a que c > 0 y Ω > 0 se tiene que (λ± ) < 0 (independientemente de si
c ≥ Ω o no). Por lo tanto, utilizando una combinación del Teorema 49 y
del Teorema 61 se concluye que el origen (θ, w) = (0, 0) es asintóticamente
estable para el sistema (7.20).
Es fácil demostrar que si n es par, las ecuaciones que se obtienen del estudio
de la estabilidad por linearización de los puntos singulares (θ, w) = (nπ, 0)
son las mismas que para el origen. De este modo, el análisis realizado para
el origen se aplica de igual forma aquı́. En definitiva se tiene que los puntos
singulares (θ, w) = (nπ, 0) son asintóticamente estables para el sistema
(7.20).
Por el contrario, si calculamos la matriz Jacobiana de (7.20) en los puntos
singulares (θ, w) = (nπ, 0) con n impar se obtiene
 
0 1
Df (nπ, 0) = .
Ω2 −2c

√ valores propios asociados a Df (nπ, 0) con n impar son λ± = −c ±


Los
c2 + Ω2 . Se tiene ahora que (λ+ ) > 0 y (λ− ) < 0. Aplicando de
nuevo el Teorema 49 y el Teorema 61 se concluye que los puntos singulares
(θ, w) = (nπ, 0) con n impar son inestable para el sistema (7.20).
2. Consideremos el sistema no lineal siguiente obtenido mediante una per-
turbación de un oscilador armónico

ẋ = y + αx(x2 + y 2 ) , ẏ = −x + αy(x2 + y 2 ) ,

con α ∈ R\{0} un parámetro.


(i) ¿Es posible estudiar la estabilidad del origen del sistema por linearización?
66 Estabilidad

(ii) Sea (x(t), y(t)) una solución del sistema. Utilizar la función (x(t), y(t)2
para estudiar la estabilidad del origen del sistema.

Solución. (i) La matriz Jacobiana asociada al sistema y calculada en el


origen es
 
0 1
Df (0, 0) = .
−1 0
Los valores propios asociados a Df (0, 0) son λ± = ±i y por lo tanto ima-
ginarios puros. Puesto que (λ± ) = 0, no se puede aplicar el Teorema 61
y por lo tanto la linearización no es suficiente para analizar la estabilidad
del origen del sistema.

(ii) Sea V (t) = (x(t), y(t)2 = x2 (t) + y 2 (t). Calculamos la derivada


orbital de V y obtenemos

V̇ = 2xẋ+2y ẏ = 2x[y+αx(x2 +y 2 )]+2y[−x+αy(x2 +y 2 )] = 2α(x2 +y 2 )2 .

Está claro que, excepto en el origen, el signo de V̇ coincide con el de α.


De este modo, teniendo en cuenta el significado geométrico de la función
V , concluimos que

Si α < 0 entonces (x(t), y(t)) → (0, 0) cuando t → ∞ de manera


monótona. En particular, el origen del sistema es asintóticamente
estable. Notar que, aplicando el apartado (ii) del Teorema 55, se
puede deducir el resultado teniendo en cuenta que V es una función
de Liapunov y V̇ es definida negativa.
Si α > 0 entonces todas las soluciones (x(t), y(t)) del sistema, excepto
el origen, escapan hacia el infinito cuando t → ∞. En particular, el
origen del sistema es inestable.

3. Consideremos un péndulo de longitud  y masa m. Se sabe que, despre-


ciando los efectos del rozamiento y tomando la gravedad g constante, la
ecuación del movimiento viene dada por
g
θ̈ + sin θ = 0 ,

siendo θ el ángulo que forma el péndulo con la vertical.

(i) ¿Es posible estudiar la estabilidad del origen (θ, θ̇) = (0, 0) del sistema
por linearización?
(ii) ¿Es posible utilizar la función V (θ, θ̇) = θ2 + θ̇2 como función de
Liapunov en un entorno del origen?
(iii) ¿Es posible utilizar la función energı́a E(θ, θ̇) = 12 m2 θ̇2 + mg(1 −
cos θ) como función de Liapunov en un entorno del origen?
7.5 Problemas resueltos 67

Solución.
(i) Usando el cambio de variables habitual θ̇ = w se tiene el sistema
g
θ̇ = w , ẇ = − sin θ .

Los puntos singulares del sistema en el plano de fases son (θ, w) = (nπ, 0),
con n ∈ Z.

La matriz Jacobiana del sistema es


 
0 1
Df (θ, w) = ,
− g cos θ 0

de modo que, calculada en el origen es


 
0 1
Df (0, 0) = .
− g 0

Los valores propios λ± asociados a Df (0, 0) son imaginarios puros, de mo-


do que (λ± ) = 0 y no se puede concluir nada sobre la estabilidad del
origen por el método de linearización.

(ii) Sea V (θ, w) = θ2 + w2 . La derivada orbital de V a lo largo de las


órbitas del sistema es
g !
V̇ = 2w θ − sin θ .

Observemos que V̇ (θ, w) no tiene signo definido en ningún entorno del
origen. Una forma de verlo es la siguiente. El desarrollo de Taylor de sin θ
entorno del origen es sin θ = θ + O(θ3 ), de modo que
$ g% !
V̇ (θ, w) = 2w θ 1 − + O(θ3 ) .

68 Estabilidad

De esta expresión se obtiene que el signo de V̇ viene dado por



sign [1 − g/] si w > 0, 0 < θ << 1 ,
sign [V̇ ] =
sign [−(1 − g/)] si w < 0, 0 < θ << 1 ,
Se concluye que no es posible tomar V como función de Liapunov en un
entorno del (θ, w) = (0, 0).

(iii) Observar que la función E(θ, θ̇) = 12 m2 θ̇2 +mg(1−cos θ) es definida
positiva en un entorno suficientemente pequen̄o del origen puesto que , m
y g son constantes positivas. Además, la derivada orbital Ė ≡ 0. Entonces,
E es una función de Liapunov para el sistema y, aplicando la parte (i) del
Teorema 55, el origen es estable.
4. Considerar un oscilador amortiguado, es decir, un sistema del tipo
mẍ + cẋ + kx = 0 ,
con c > 0 y k > 0 las constantes de rozamiento y elástica respectiva-
mente. Demostrar, utilizando la energı́a mecánica total como función de
Liapunov, que el punto crı́tico (x, ẋ) = (0, 0) es estable.

Solución. En primer lugar escribimos el sistema en el plano de fases


k c
ẋ = y , ẏ = − x− y .
m m
La energı́a mecánica E del sistema es la suma de la energı́a potencial
elástica y de la energı́a cinética, es decir,
1 1
E(x, y) = my 2 + kx2 .
2 2
Puesto que m y k son constantes positivas, es obvio que E(x, y) > 0 para
todo (x, y) = 0 y que E(0, 0) = 0 de modo que la función E es definida
positiva. Además, su derivada orbital es
∂E ∂E
Ė = ẋ + ẏ
∂x ∂y
 
k c
= kxy + my − x − y = −cy 2 ≤ 0 ,
m m
7.5 Problemas resueltos 69

por lo tanto Ė es semidefinida positiva. En definitiva E(x, y) es una función


de Liapunov para el sistema en un entorno del punto singular (x, y) =
(0, 0). Aplicando el apartado (i) del Teorema 55 se concluye que el punto
singular (x, y) = (0, 0) es estable1 .
5. Estudiar la estabilidad de los puntos singulares del sistema

ẋ = −2xy , ẏ = x2 − y 3 ,

utilizando una función de Liapunov del tipo V (x, y) = ax2m + by 2n con


constantes adecuadas a, b, m, n.
Solución. Está claro que la única solución del sistema de ecuaciones

0 = −2xy , 0 = x2 − y 3 ,

es (x, y) = (0, 0). Por lo tanto el origen es el único punto singular del
sistema.
La derivada orbital de V es
∂V ∂V
V̇ = ẋ + ẏ = 2max2m−1 (−2xy) + 2nby 2n−1 (x2 − y 3 )
∂x ∂y
= [−4max2m y + 2nbx2 y 2n−1 ] − 2nby 2n+2 .

Elejimos los valores de los parámetros de manera que la expresión encerra-


da entre corchetes se anule. Por ejemplo, mediante simple inspección, una
elección es m = n = a = 1, b = 2. Se tiene entonces V (x, y) = x2 + 2y 2
que es definida positiva y V̇ (x, y) = −4y 4 que es semidefinida negativa.
Concluimos que V es una función de Liapunov para el sistema y, apli-
cando el apartado (i) del Teorema 55 se concluye que el punto singular
(x, y) = (0, 0) es estable.
6. Considerar el sistema lineal ẋ = Ax con x ∈ R2 y
 
−1 2
A= .
0 −3

(i) Demostrar que el sistema es asintóticamente estable.


(ii) Hallar una función de Liapunov cuadrática par el origen del sistema.
Solución. (i) Aplicando la parte (i) del Teorema 49 se concluye que el
sistema es asintóticamente estable puesto que los valores propios de la
matriz A son λ1 = −1 y λ2 = −3 y por lo tanto todos tienen parte real
negativa.

(ii) Consideremos la siguiente posible función de Liapunov cuadrática


V (x) = xT P x, siendo P ∈ M2 (R) una matriz simétrica. Sabemos que,
1 De hecho es fácil demostrar que el origen es asintóticamente estable aunque la función de

Liapunov E no nos permite detectarlo.


70 Estabilidad

si la derivada orbital de V respecto del sistema ẋ = Ax es V̇ = −xT Qx


entonces se verifica (7.8) que es la llamada ecuación matricial de Liapunov
AT P + P A = −Q .

Observar que la matriz A es una matriz de estabilidad, ver el apartado


anterior donde se comprueba que todos sus valores propios tienen parte
real negativa. Entonces, por el apartado (ii) del Teorema 57, se sabe que,
para cada Q definida positiva existe una única solución de la ecuación
matricial de Liapunov que es definida positiva. Sea pues
 
a 0
Q= ,
0 b
con a, b ∈ R+ \{0}. Obviamente Q es una matriz simétrica y definida pos-
itiva. Sea P = (pij ) ∈ M2 (R) simétrica. Entonces, la ecuación matricial
de Liapunov queda de la forma
       
−1 0 p11 p12 p11 p12 −1 2 a 0
+ =− .
2 −3 p12 p22 p12 p22 0 −3 0 b
De aquı́ se tiene el sistema lineal para las incógnitas pij siguiente
2p11 = a , p11 − 2p12 = 0 , 2p12 − 3p22 = −b ,
cuya solución es p11 = a/2, p12 = a/4 y p22 = (a + b)/6. En definitiva
obtenemos  
1 a a/2
P = .
2 a/2 (a + b)/3
Nótese que P no sólo es simétrica, también es definida positiva como puede
comprobarse aplicando, por ejemplo, el criterio de Sylvester y comproban-
do que todos los determinantes menores principales de P son positivos.

Por supuesto existe otra forma de calcular P basada en la expresión (7.10),


es decir  ∞
P = exp(AT t)Q exp(At) dt .
0
Un simple cálculo muestra que
 ∞ 
ae−2t ae−t [e−t − e−3t ]
P = dt
0 ae−t [e−t − e−3t ] be−6t + [e−t − e−3t ]2
 
1 a a/2
= .
2 a/2 (a + b)/3

En definitiva, obtenemos la siguiente familia biparamétrica de funciones


de Liapunov cuadráticas para el sistema
  
1 a a/2 x1
V (x) = xT P x = (x1 , x2 )
2 a/2 (a + b)/3 x2
1
= [3a(x21 + x1 x2 ) + (a + b)x22 ] ,
6
7.5 Problemas resueltos 71

siendo a, b constantes reales positivas.

7. Considerar el sistema ẋ = Ax, con x ∈ R3 y


⎛ ⎞
−1 −1 0
A = ⎝ −1 −1 2a ⎠ .
b 0 −b

(i) Averiguar para qué valores de los parámetros reales a y b el sistema


ẋ = Ax es asintóticamente estable.
(ii) Supongamos que a = 1 y b = 2. ¿Es b.i.b.o estable el sistema con-
trolado ẋ = Ax + Bu, y = Cx para cualquier matriz constante B, C
adecuadas y vector control u(t)?
(iii) Supongamos que a = 1, b = −3. Averiguar si el sistema ẋ = Ax+Bu,
y = Cx es b.i.b.o estable donde
⎛ ⎞
1 0
B = ⎝ 2 1 ⎠ , C = (1, 5, 2) .
7 3

Solución. (i) El polinomio caracterı́stico asociado a la matriz A es

k(λ) = det(A − λI3 ) = λ3 + (2 + b)λ + 2bλ + 2ab .

Teniendo en cuenta la Proposición 51, todas las raı́ces del polinomio k(λ)
tienen parte real negativa si y sólo si

b + 2 > 0 , b > 0 , a > 0 , b(2 + b) > ab ,

o, equivalentemente

b + 2 > 0 , b(b + 2 − a) > 0 , ab > 0 .

(ii) Según el apartado anterior, para los valores de los parámetros a = 1


y b = 2 se verifica que todos los valores propios de la matriz A tienen
parte real negativa, es decir el sistema ẋ = Ax es asintóticamente estable.
Entonces, por el Teorema 65, se concluye que el sistema ẋ = Ax + Bu,
y = Cx es b.i.b.o estable.

(iii) Con la nueva elección de parámetros a1, b = −3 el sistema ẋ = Ax no


es asintóticamente estable, ver apartado (i). En consecuencia no se puede
aplicar el Teorema 65 para estudiar si el sistema ẋ = Ax + Bu, y = Cx es
b.i.b.o estable.
Estudiemos la controlabilidad y la observabilidad del sistema ẋ = Ax+Bu,
y = Cx.
72 Estabilidad

La matriz de controlabilidad es
⎛ ⎞
1 0 −3 −1 7 3
U = [B, AB, A2 B] = ⎝ 2 1 11 5 18 9 ⎠ ∈ M3×6 (R)
7 3 28 14 63 30

y es fácil comprobar que su rango es 3 por ejemplo calculando el determi-


nante de orden tres formado por sus primeras tres columnas
 
 1 0 −3 
 
 2 1 11  = −2 = 0 .
 
 7 3 28 

Puesto que rang U = 3 es maximal se tiene, aplicando el Teorema 4.2, que


el sistema es completamente controlable.

La matriz de observabilidad V es
⎡ ⎤ ⎛ ⎞
C 1 5 2
V = ⎣ CA ⎦ = ⎝ −2 −6 16 ⎠ .
CA2 −30 18 36

Como det V = −1536 = 0 se tiene que V tiene rango máximo, es de-


cir, rang V = 3. En conclusión, aplicando el Teorema 33, el sistema es
completamente observable.
Finalmente, puesto que el sistema ẋ = Ax + Bu, y = Cx es completa-
mente controlable y observable pero ẋ = Ax no es asintóticamete estable,
aplicando el Teorema 66, se concluye que el sistema ẋ = Ax + Bu, y = Cx
no es b.i.b.o estable.

8. Consideremos un péndulo de longitud  sometido a una gravedad g con-


stante. Supongamos que se pretende controlar el péndulo aplicándole una
fuerza por unidad de masa u de modo que la ecuación del movimiento
es θ̈ = −g sin θ + u. Suponiendo un péndulo de pequen̄as oscilaciones de
modo que sin θ ≈ θ y que se utiliza una realimentación del tipo u = −kθ,
averiguar si es posible estabilizar θ a zero.
Solución. Puesto que sin θ ≈ θ se tiene que las ecuaciones del movimiento
son aproximadamente θ̈ = −gθ + u. En el plano de las fases θ − w, siendo
w = θ̇ la velocidad angular, las ecuaciones del movimiento se escriben de
la forma ẋ = Ax + bu, siendo x = (θ, w)T y
   
0 1 0
A= , b= .
−g 0 1

Puesto que la realimentación es del tipo u = −kθ, se puede escribir de la


forma u = Kx, siendo K = (−k, 0).
7.5 Problemas resueltos 73

El sistema en lazo cerrado es ẋ = (A + bK)x, siendo la matriz del sistema


     
0 1 0 0 1
A + bK = + (−k, 0) = ,
−g 0 1 −g − k 0

que tiene valores propios λ± = ± −g − k. Para estabilizar θ a zero,
se tiene que elegir k de manera que el sistema lineal en lazo cerrado sea
asintóticamente estable. Dicho de otro modo, se deberı́a tomar cualquier
k tal que (λ± ) < 0. Por supuesto esto es imposible ya que si −g −
k > 0 entonces (λ+ ) > 0; si −g − k ≤ 0 entonces (λ± ) = 0. Hemos
demostrado pues que con una realimentación del tipo u = −kθ no es
posible estabilizar θ a zero en un péndulo de pequen̄as oscilaciones.
9. Consideremos un péndulo invertido montado en un carrito que se puede
desplazar sobre unos railes horizontalmente. El carro tiene masa M y
está sujeto a una pared por un muelle de constante elástica k2 . El péndulo
se ha montado sobre el carrito mediante un muelle de constante elástica
k1 . La longitud del péndulo es 2 y su masa total m se supone distribuida
de forma homogénea a lo largo de su varilla. Sea u la fuerza de control
horizontal que se puede ejercer sobre el carro. Denotemos por z(t) la coor-
denada del centro de gravedad del carro respecto de su posición de equilibrio
y sea θ(t) el ángulo formado por el péndulo y la vertical que es la variable
que puede ser medida. Aplicando las leyes de la mecánica clásica es fácil
ver que las ecuaciones del movimiento del sistema son:

(M + m)z̈ + k2 z + m cos θθ̈ = mθ̇2 sin θ + u ,


4
m cos θz̈ + m2 θ̈ = mg sin θ − k1 θ .
3
Supondremos por simplicidad que M = m =  = 1.
(i) Reescribir las ecuaciones del movimiento en la forma ẋ = f (x, u),
siendo las variables de estado x = (z, ż, θ, θ̇)T .
(ii) Si no actúa ninguna fuerza exterior sobre el carro y éste está en reposo
en su posición natural con el péndulo también en reposo y en posición
vertical está el sistema en equilibrio?
(iii) Linealizar el sistema entorno del anterior punto crı́tico.
Solución. (i) Es fácil ver que, las ecuaciones del movimiento se reescriben
de la forma ẋ = f (x, u), siendo las variables de estado

x = (x1 , x2 , x3 , x4 ) = (z, ż, θ, θ̇)T ∈ R4 ,


y la función f (x, u) = (f1 (x, u), f2 (x, u), f3 (x, u), f4 (x, u))T definida por
⎛ ⎞
x2
⎜ Λ[4k2 x1 − 3k1 x3 cos x3 − 4x24 sin x3 + 3g cos x3 sin x3 − 4u] ⎟
f (x, u) = ⎜ ⎟ ,
⎝ x4 ⎠
Λ[−3k2 x1 cos x3 + 6k1 x3 − 6g sin x3 + 3x24 cos x3 sin x3 + 3u cos x3 ]
74 Estabilidad

siendo Λ = 1/[3 cos3 x3 − 8].

(ii) Bajo las condiciones del enunciado el sistema se encuentra en el punto


x∗ = (0, 0, 0, 0) con u∗ = 0. Notemos que f (x∗ , u∗ ) = (0, 0, 0, 0)T , de modo
que el sistema se encuentra en un estado de equilibrio, es decir un punto
crı́tico.

(iii) El sistema linealizado entorno del punto (x∗ , u∗ ) = (0, 0) ∈ R4 × R


viene dado por
ẋ = Âx + b̂u ,
siendo
⎛ ∂f1 ∂f1

∗ ∗
∂x1 (x , u ) · · · ∂x (x∗ , u∗ )
⎜ ∂f2 ∗ ∗
4
∂f2 ⎟
⎜ ∂x1 (x , u ) · · · ∂x4 (x∗ , u∗ ) ⎟
 = ⎜
⎜ .. .. .. ⎟ ∈ M4 (R) ,

⎝ . . . ⎠
∂f4 ∗ ∗ ∂f4 ∗
∂x1 (x , u ) · · · ∂x4 (x , u∗ )
⎛ ∂f1 ∗ ∗

∂u (x , u )
⎜ ∂f2 ∗ ∗ ⎟
⎜ ∂u (x , u ) ⎟
b̂ = ⎜ .. ⎟ ∈ R4 .
⎝ . ⎠
∂f4 ∗ ∗
∂u (x , u )

En concreto se obtiene
⎛ ⎞
0 1 0 0

⎜ −4k2 /5 0 3(k1 − g)/5 0 ⎟⎟ ∈ M4 (R) ,
 = ⎝ 0 0 0 1 ⎠
3k2 /5 0 6(g − k1 )/5 0
⎛ ⎞
0
⎜ 4/5 ⎟
b̂ = ⎜ ⎟ ∈ R4 .
⎝ 0 ⎠
−3/5
Capı́tulo 8

Cálculo de Variaciones

8.1. Un ejemplo: braquistocrona


El nacimiento del cálculo de variaciones se atribuye al problema de la braquis-
tocrona1 o curva de descenso más rápida, propuesto y resuelto por el eminente
matemático suizo Johann Bernoulli en 1696, aunque también dieron soluciones
otros contemporáneos suyos como Jacob Bernoulli, Leibniz y Newton. Dicho
problema consistı́a en determinar cuál, de entre todas las posibles trayectorias,
era la que llevaba a una partı́cula sin rozamiento en el menor tiempo posible,
desde un punto A hasta otro punto B en el mismo plano vertical, sujeta sólo a
la acción de la gravedad. Para resolver este problema, se deben de considerar
todas las infinitas curvas que pasan por A y B, de modo que, a cada una de ellas
se le asigna un tiempo (el invertido por el punto material en descender desde A
hasta B) y nos hemos de quedar con la curva con menor tiempo asociado.
Veamos cómo formularlo matemáticamente. Consideremos el plano vertical
de coordenadas cartesianas x e y que contiene a los puntos A y B. Obviamente,
la curva solución debe estar contenida en dicho plano. Tomemos el punto A como
el origen de coordenadas, el eje x de abscisas con sentido positivo hacia donde
apunta la gravedad y, sea B = (x1 , y1 ) con x1 > 0 e y1 ≥ 0. Consideremos
una curva en dicho plano arbitraria y descrita por la gráfica y = y(x) con
0 ≤ x ≤ x1 . Supondremos que la curva es suave, es decir, es de clase C 1 en
su dominio. Además impondremos que los puntos inicial y final de dicha curva
sean A y B respectivamente, es decir, y(0) = 0 e y(x1 ) = y1 .
La masa m, en su descenso, conserva su energı́a mecánica puesto que no
hay rozamiento. Supondremos que parte con velocidad inicial nula del punto A.
Entonces, la energı́a mecánica en A vale EA = mghA , siendo EA > 0 y hA la
altura a la que se encuentra el punto A. Conservando la energı́a mecánica en
cualquier otro punto de la trayectoria de la partı́cula se tiene
1
mv 2 + mgh = mghA ,
2
1 El nombre braquistocrona proviene del griego: braquistos mı́nimo y chronos tiempo.

75
76 Cálculo de Variaciones

de modo que v 2 = 2g(hA − h). Con el sistema de referencia tomado está claro
que x = hA − h, de modo que, la ecuación diferencial que rige el movimiento de
la masa m es
ds 
v := = 2gx ,
dt
siendo v el módulo de la velocidad que tiene la partı́cula cuando se encuentra en
un punto con coordenada
 (x, y(x)) y ds el elemento de longitud de la trayectoria.
Sabemos que, ds = 1 + y  (x)2 dx, de modo que se obtiene

1 + y  (x)2 dx
dt = √ .
2gx

Integrado esta expresión se obtiene el tiempo total T que tarda la masa m en


recorrer la curva y = y(x) desde el punto A hasta el punto B. En concreto se
tiene que
 x1 &
1 1 + y  (x)2
T = J(y) = √ dx .
2g 0 x
Hallar la braquistocrona consiste en obtener, de entre todas las funciones y(x)
definidas para 0 ≤ x ≤ x1 , con y(0) = 0 e y(x1 ) = y1 , aquella que corresponda
al menor valor del funcional J(y).
Cabe destacar aquı́ que, la solución de este problema viene dado por la
famosa curva llamada cicloide, cuya ecuación paramétrica es

1 1
x(t) = (1 − cos t) , y(t) = 2 (t − sin t) ,
k2 k
siendo k una constante adecuada, ver el Problema 1 de este capı́tulo.

-x
y
1 2 3 4 5 6

-0.5

-1

-1.5

-2

Figura 8.1: Gráfica de la cicloide invertida con k = 1 para t ∈ [0, 2π].


8.2 Introducción 77

8.2. Introducción
Sea E un espacio de funciones x(t) ∈ Rn de clase C 1 [ta , tb ]. Consideremos el
funcional J : E → R, definido de la forma
 tb
J(x) = F (x(t), ẋ(t); t) dt , (8.1)
ta

con F ∈ C 2 respecto de sus argumentos.


El problema fundamental del cálculo de variaciones consiste en hallar una
función vectorial x(t) ∈ E que sea un extremal (máximo o mı́nimo) del funcional
J(x) definido en (8.1). Por ejemplo, la función x∗ (t) minimiza al funcional J si se
verifica J(x∗ ) ≤ J(x) para todo x ∈ E. Por supuesto, el principal problema con
el que nos encontramos y que lo diferencia radicalmente de las técnicas utilizadas
en los problemas clásicos de hallar máximos y mı́nimos de funciones de varias
variables es el hecho de que la dimensión del espacio vectorial E es infinita. Una
forma intuitiva de ver esto consisteen suponer que se puede representar x(t)

mediante la serie de Taylor x(t) = i=0 ai ti , de modo que el funcional J(x) se
puede interpretar como una función de infinitas variables J(a0 , a1 , . . . , aj , . . .).

8.3. Ecuaciones de Euler–Lagrange


En esta sección hallaremos las llamadas ecuaciones de Euler–Lagrange que
son condiciones necesarias que ha de verificar una función x∗ (t) de clase C 2
para que dé un extremo del funcional J. La existencia, unicidad y condiciones
suficientes de extremo se escapan a los objetivos de estas notas. Ver por ejemplo
[4]. Además, en muchas ocasiones se sabe diferenciar entre máximo y mı́nimo
por simples argumentos fı́sicos.

8.3.1. Lema fundamental del cálculo de variaciones


En primer lugar damos un lema, conocido como el Lema Fundamental del
Cálculo de Variaciones, que necesitaremos para obtener posteriormente las ecua-
ciones de Euler–Lagrange.

Lema 67. Sean ta < tb constantes reales fijas y f (t) ∈ C[ta , tb ] una función
dada. Si
 tb
η(t)f (t) dt = 0 , (8.2)
ta

para toda η ∈ C 1 [ta , tb ] verificando η(ta ) = η(tb ) = 0, entonces

f (t) = 0 para todo t ∈ [ta , tb ] . (8.3)


78 Cálculo de Variaciones

Demostración. La demostración se basa en mostrar la existencia de al menos


una función η para la cual (8.2) no se satisface cuando (8.3) no se cumple.
Supongamos pues que (8.3) no se verifica, es decir, existe un t∗ ∈ (ta , tb ) para
el cual f (t∗ ) = 0. Podemos suponer sin pérdida de generalidad que f (t∗ ) > 0.
Como f es una función continua, debe existir un entorno de t∗ , digamos el
intervalo [t∗1 , t∗2 ] en el cual f (t) > 0 para toda t ∈ [t∗1 , t∗2 ]. Pero entonces (8.2)
no se puede verificar para todo η(t) admisible. Por ejemplo, consideremos la
función admisible

⎨ 0 si t ∈ [ta , t∗1 ] ,
η(t) = (t − t1 ) (t − t2 ) si t ∈ [t∗1 , t∗2 ] ,
∗ 2 ∗ 2

0 si t ∈ [t∗2 , tb ] .

Obviamente η ∈ C 1 [ta , tb ] verificando η(ta ) = η(tb ) = 0. Sin embargo, la integral


(8.2) es
 tb  t∗2
η(t)f (t) dt = (t − t∗1 )2 (t − t∗2 )2 f (t) > 0 ,
ta t∗
1

puesto que f (t) > 0 para toda t ∈ [t∗1 , t∗2 ].

8.3.2. Ecuaciones de Euler–Lagrange


Sea x∗ (t) ∈ E una función que extremiza a J(x). Consideremos la siguiente
familia uniparamétrica de funciones

x(t) = x∗ (t) + ξ(t) ,

con ∈ R un parámetro y ξ ∈ C 1 [ta , tb ]. De este modo x(t) ∈ E.


La variación de J sobre los miembros de esta familia viene dada por
 tb
dJ d
= F (x∗ (t) + ξ(t), ẋ∗ (t) + ξ(t);
˙ t) dt .
d ta d

Obviamente, una condición necesaria para que x∗ (t) sea un extremo del fun-
cional J es que
 
dJ
=0.
d =0
Como
dx(t) dẋ(t) ˙ ,
= ξ(t) , = ξ(t)
d d
se tiene que, aplicando la regla de la cadena,

dF
= ∇x F (x∗ (t) + ξ(t), ẋ∗ (t) + ξ(t);
˙ t)  ξ(t)
d
+∇ẋ F (x∗ (t) + ξ(t), ẋ∗ (t) + ξ(t);
˙ ˙ ,
t)  ξ(t)
8.3 Ecuaciones de Euler–Lagrange 79

donde el punto  indica la operación producto escalar ordinario en Rn . Susti-


tuyendo esta expresión en el integrando de la expresión dJ/d y realizando la
integración por partes
 tb !tb  tb
˙ dt = ∇ẋ F  ξ(t) − d(∇ẋ F )
∇ẋ F  ξ(t)  ξ(t) dt ,
ta ta ta dt

se obtiene que
  !tb  tb  
dJ d(∇ẋ F )
= ∇ẋ F  ξ(t) + ∇x F −  ξ(t) dt = 0 , (8.4)
d =0 ta ta dt

donde los gradientes están evaluados sobre la curva x∗ (t). Se tiene a partir de
ahora dos casos diferenciados:

(i) Los puntos inicial y final son fijos: Supongamos que el conjunto E donde
buscamos soluciones sea el espacio de funciones x(t) de clase C 1 [ta , tb ] que
además toman valores fijos en los extremos, es decir, x(ta ) = xa , x(tb ) = xb
con xa , xb ∈ Rn fijos.
Por supuesto en este caso se debe tener ξ(ta ) = ξ(tb ) = 0 de modo que
(8.4) adopta la forma
 tb  
d(∇ẋ F )
∇x F −  ξ(t) dt = 0 ,
ta dt

para toda ξ(t) ∈ C 1 [ta , tb ] verificando ξ(ta ) = ξ(tb ) = 0. Entonces, por


el Lema Fundamental del Cálculo de Variaciones, x∗ (t) debe verificar la
llamada ecuación de Euler–Lagrange

d(∇ẋ F )
− ∇x F = 0 ,
dt
o, de forma escalar equivalente
 
d ∂F ∂F
− = 0 , j = 1, . . . , n. (8.5)
dt ∂ ẋj ∂xj

(ii) Sólo el punto inicial es fijo: Supongamos que el conjunto E donde


buscamos soluciones sea el espacio de funciones x(t) de clase C 1 [ta , tb ]
tal que x(ta ) = xa con xa ∈ Rn fijo. Se puede demostrar que, en este
caso, se deben de satisfacer también las ecuaciones de Euler–Lagrange
(8.5) pero se han de an̄adir unas condiciones de transversalidad dadas por
∇ẋ F (x(tb ), ẋ(tb ); tb ) = 0, es decir,
 
∂F
= 0 , j = 1, . . . , n. (8.6)
∂ ẋj t=tb
80 Cálculo de Variaciones

Para demostrar este hecho, notar que ahora sólo se tiene ξ(ta ) = 0, de
modo que (8.4) adopta la forma
 tb  
 d(∇ẋ F )

∇ẋ F t=t  ξ(tb ) + ∇x F −  ξ(t) dt = 0 . (8.7)
b
ta dt
Esta ecuación debe ser válida para ξ verificando ξ(ta ) = 0. En particular
debe ser cierta también para aquellas ξ que además verifiquen ξ(tb ) = 0.
Para estas segundas ξ, aplicando el Lema Fundamental del Cálculo de
Variaciones, la ecuación (8.7) reduce a las ecuaciones de Euler–Lagrange
(8.5). De este modo, a partir de ahora, (8.7) reduce sólo a su primer
término, es decir 
∇ẋ F t=t  ξ(tb ) = 0 .
b

Finalmente, las condiciones de transversalidad (8.6) provienen del hecho


de que la anterior
 ecuación debe verificarse para todo ξ(tb ) ∈ Rn , de modo

que, ∇ẋ F t=t = 0.
b

8.3.3. Integrales primeras en casos simples


Las ecuaciones de Euler–Lagrange (8.5) son un conjunto de n ecuaciones
diferenciales de segundo orden para las funciones xi (t), con i = 1, . . . , n. Por lo
tanto, en general no son resolubles de manera exacta y se requieren métodos
numéricos. Sin embargo, existen casos especiales que ocurren a menudo en las
aplicaciones y son sencillos de tratar.

(a) Si F es independiente de xj para cierta j, entonces de (8.5) se tiene


∂F
=c, (8.8)
∂ ẋj
con c constante.

(b) Si F no depende explı́citamente de t entonces se verifica

ẋ(t)  ∇ẋ F − F (x, ẋ) = c , (8.9)

con c constante. Para demostrarlo, multipliquemos por ẋ(t) las ecuaciones de


Euler–Lagrange (8.5) en forma vectorial
d(∇ẋ F )
ẋ(t)  − ẋ(t)  ∇x F = 0 ,
dt
que, reagrupando da
d(ẋ(t)  ∇ẋ F )
− ẍ(t)  ∇ẋ F − ẋ(t)  ∇x F = 0 .
dt
Como
dF ∂F
= ẍ(t)  ∇ẋ F + ẋ(t)  ∇x F + ,
dt ∂t
8.4 Extremos con restricciones 81

se tiene la siguiente forma alternativa de las ecuaciones de Euler–Lagrange

d ∂F
[ẋ(t)  ∇ẋ F − F ] + =0.
dt ∂t
Por supuesto de aquı́ se deduce que, si F no depende explı́citamente de t, en-
tonces se verifica (8.9).

8.4. Extremos con restricciones


Supongamos que se desea hallar un extremo del funcional
 tb
J(x) = F (x(t), ẋ(t); t) dt . (8.10)
ta

pero ahora, la función x(t) está sujeta a restricciones2 .

Restricciones integrales: x(t) ha de verificar


 tb
K(x) = G(x(t), ẋ(t); t) dt = k , (8.11)
ta

siendo k una cierta constante. Este problema se resuelve mediante el método


de los multiplicadores de Lagrange. En otras palabras, los extremos de (8.10)
sujetos a (8.11) se buscan como los extremos de
 tb
J(x) + λK(x) = F (x(t), ẋ(t); t) + λG(x(t), ẋ(t); t) dt ,
ta

para cierto multiplicador constante λ ∈ R. Dicho de otro modo, se tienen las


ecuaciones de Euler–Lagrange

d
[∇ẋ (F + λG)] − ∇x (F + λG) = 0 . (8.12)
dt
Restricciones no integrales: x(t) ha de verificar

G(x(t), ẋ(t); t) = 0 . (8.13)

Este problema se resuelve mediante el método de los multiplicadores de Lagrange


λ(t) ahora no constantes. En otras palabras, los extremos de (8.10) sujetos a
(8.13) se buscan como los extremos de
 tb
Jλ (x) = F (x(t), ẋ(t); t) + λ(t)G(x(t), ẋ(t); t) dt .
ta

2 La justificación de los métodos empleados en esta sección se puede ver en el Apéndice al

final de este capı́tulo.


82 Cálculo de Variaciones

Dicho de otro modo, se vuelven a tener las ecuaciones de Euler–Lagrange (8.12)


pero ahora se ha de tener en cuenta que λ = λ(t), es decir,

d
[∇ẋ (F + λ(t)G)] − ∇x (F + λ(t)G) = 0 . (8.14)
dt
Este tipo de problemas de optimización con restricciones no integrales es fun-
damental en el capı́tulo siguiente.

8.5. Apéndice: Multiplicadores de Lagrange


Es bien conocido el siguiente resultado de análisis.

Teorema 68 (Lagrange). Sean f, g : Rn → R funciones de clase C 1 tales


que f (x) tiene un extremo en el punto x0 sobre la hipersuperficie de ecuación
g(x) = c con c ∈ R. Entonces, si ∇g(x0 ) = 0, existe un λ ∈ R (llamado
multiplicador de Lagrange) tal que ∇f (x0 ) = λ∇g(x0 ).

Demostración. Parametrizamos la hipersuperficie de Rn de ecuación g(x) = c


de la forma r(t) = (x1 (t), . . . , xn (t)) con xi (t) ∈ C 1 para i = 1, . . . , n. Restringi-
mos ahora la función f a los puntos de la anterior hipersuperficie, es decir,
definimos la función h(t) = f (r(t)). Por ser x0 ∈ Rn un extremo de f sabemos
que existe un t0 ∈ R que es extremo de h(t), siendo h(t0 ) = f (r(t0 )). Esto
implica que ḣ(t0 ) = 0, de modo que, aplicando la regla de la cadena se tiene

ḣ(t0 ) = ∇f (x0 )  ṙ(t0 ) = 0 .

Esto implica que los vectores ∇f (x0 ) y ṙ(t0 ) son ortogonales. Como además,
por las propiedades del vector gradiente, los vectores ∇g(x0 ) y ṙ(t0 ) también
son ortogonales, se deduce que los vectores ∇f (x0 ) y ∇g(x0 ) son paralelos, es
decir, existe un λ ∈ R tal que ∇f (x0 ) = λ∇g(x0 ).

Nota 69. El Teorema 68 implica que los extremos de f (x) sujetos a la re-
stricción g(x) = c son los extremos de la función F (x, λ) = f (x) + λg(x) sin
restricciones.

Nota 70. El Teorema 68 se puede generalizar de modo que los extremos de f (x)
sujetos a las restricciones gi (x) = ci con ci consantes reales mpara i = 1, . . . , m
son los extremos de la función F (x, λ1 , . . . , λm ) = f (x) + i=1 λi gi (x) sin res-
tricciones.

8.5.1. Problemas isoperimétricos


Consideremos el problema de hallar un extremo del funcional
 tb
J(x) = F (x(t), ẋ(t); t) dt . (8.15)
ta
8.5 Apéndice: Multiplicadores de Lagrange 83

pero ahora, la función x(t) ∈ C 1 [ta , tb ] además de tener los extremos fijos, es
decir, x(ta ) = xa y x(tb ) = xb con xa y xb fijos, está sujeta a la restricción
 tb
K(x) = G(x(t), ẋ(t); t) dt = k , (8.16)
ta

siendo k una cierta constante. Supondremos que F y G son de clase C 2 .

Sea x∗ (t) ∈ C 1 [ta , tb ] una función con x∗ (ta ) = xa y x∗ (tb ) = xb que ex-
tremiza a J con la restricción K(x∗ ) = k. Consideremos la siguiente familia
biparamétrica de funciones
x(t) = x∗ (t) + 1 ξ1 (t) + 2 ξ2 (t) ,
con i ∈ R parámetros y ξi ∈ C 1 [ta , tb ]. Como los puntos inicial y final son fijos,
se debe tener ξi (ta ) = ξi (tb ) = 0 para i = 1, 2.
Para resolver el problema, utilizamos el método de los multiplicadores de
Lagrange, es decir, definimos la función
 tb
F( 1 , 2 ; λ) = J(x) + λK(x) = F (x(t), ẋ(t); t) + λG(x(t), ẋ(t); t) dt ,
ta

donde x(t) es la familia biparamétrica introducida. Una condición necesaria para


que x∗ (t) extremice a J(x) con la restricción K(x) = k es
 
∂F  ∂F 
= 0 , i = 1, 2, =0.
∂ i 1 =2 =0 ∂λ 1 =2 =0
Desarrollando la primera anterior condición se tiene
 tb
∂F ∂F ∂G
= +λ dt .
∂ i ta ∂ i ∂ i
Como
∂x(t) ∂ ẋ(t)
= ξi (t) , = ξ˙i (t) ,
∂ i ∂ i
se tiene que, aplicando la regla de la cadena,
∂F
= ∇x F  ξi (t) + ∇ẋ F  ξ˙i (t) ,
∂ i
∂F
= ∇x F  ξi (t) + ∇ẋ F  ξ˙i (t) .
∂ i
Sustituyendo estas expresiones en el integrando de ∂F/∂ i y realizando la inte-
gración por partes
 tb !tb  tb d(∇ F )

∇ẋ F  ξ˙i (t) dt = ∇ẋ F  ξi (t) −  ξi (t) dt ,
ta ta ta dt
 tb !tb  tb d(∇ G)

∇ẋ G  ξ˙i (t) dt = ∇ẋ G  ξi (t) −  ξi (t) dt ,
ta ta ta dt
84 Cálculo de Variaciones

se tiene que
!tb  tb  
∂F d(∇ẋ F )
= ∇ẋ F  ξi (t) + ∇x F −  ξi (t) dt +
∂ i ta ta dt
 !tb  tb   *
d(∇ẋ G)
λ ∇ẋ G  ξi (t) + ∇x G −  ξi (t) dt .
ta ta dt

Como ξi (ta ) = ξi (tb ) = 0, se llega a


  tb  
∂F  d(∇ẋ (F + λG)
= ∇x (F + λG) −  ξi (t) dt = 0 ,
∂ i 1 =2 =0 ta dt

para toda ξi (t) admisible y donde los gradientes están evaluados sobre la curva
x∗ (t). Entonces, por el Lema Fundamental del Cálculo de Variaciones, se debe
verificar la ecuación
d(∇ẋ (F + λG))
− ∇x (F + λG) = 0 ,
dt
como se querı́a demostrar.

Recordemos el siguiente resultado.

Teorema 71 (Green). Sea D ⊂ R2 un dominio simplemente conexo (es decir,


sin huecos) y sean P, Q ∈ C 1 (D). Sea γ ⊂ D una curva cerrada simple y
orientada en sentido antihorario que encierra un recinto R ⊂ D. Entonces
+    
∂Q ∂P
P (x, y)dx + Q(x, y)dy = − dxdy .
γ R ∂x ∂y

Sea A el área del recinto R. Entonces


       
1 1 ∂Q ∂P
A = dxdy = 2dxdy = − dxdy
R 2 R 2 R ∂x ∂y
+
1
= xdy − ydx ,
2 γ

donde en el último paso se ha utilizado el Teorema de Green.

Nota 72. El nombre “Problemas isoperimétricos”proviene del siguiente proble-


ma: hallar la curva cerrada plana de perı́metro p fijado que encierre un área
máxima. Observar que, si suponemos que la curva es C 1 , es decir, sus puntos
admiten una parametrización del tipo (x(t), y(t)) ∈ R2 para t ∈ [t0 , t1 ] con x, y ∈
C 1 [t0 , t1 ], entonces el problema planteado consiste en hallar la parametrización
que maximiza el funcional área

1 t1
A(x, y) = (xẏ − ẋy) dt ,
2 t0
8.6 Problemas resueltos 85

sujeto a la restricción
 t1 
P (x, y) = ẋ2 + ẏ 2 dt = p .
t0

Se puede demostrar con las técnicas utilizadas en este capı́tulo que la solución
es una circunferencia de perı́metro p.

8.6. Problemas resueltos


1. Considerar una colección de n partı́culas de masa m moviéndose en el
espacio. La localización de las partı́culas para tiempo t viene dada por
el vector x(t) = (x1 (t), . . . , x3n (t)) ∈ R3n . Supongamos que las fuerzas
que actúan sobre las partı́culas F (x; t) = (F1 (x; t), . . . , F3n (x; t)) ∈ R3n
provienen de un potencial V (x; t), es decir, F = −∇x V . Demostrar que,
cuando el sistema evoluciona desde un estado inicial x(t0 ) = x0 hasta un
estado final x(tf ) = xf fijos, el camino que realiza x(t) es un extremal del
funcional  tf
J(x) = L(x(t), ẋ(t); t) dt ,
t0
conocido como acción donde la función L llamada lagrangiana es la resta
de energı́a cinética menos potencial, es decir,
1
L(x(t), ẋ(t); t) = mẋ2 − V (x; t) .
2
Indicación: Demostrar que minimizar J equivale a la segunda ley de
Newton.

Solución. Sea x(t) una función de clase C 2 verificando x(t0 ) = x0 y


x(tf ) = xf y que haga J extremal. Entonces, x(t) debe verificar las ecua-
ciones de Euler–Lagrange (8.5), es decir,
 
d ∂L ∂L
− = 0 , j = 1, . . . , 3n.
dt ∂ ẋj ∂xj
Teniendo en cuenta que
3n
1  2
L(x(t), ẋ(t); t) = m ẋ − V (x; t) ,
2 i=1 i

se tiene
∂L ∂L ∂V
= mẋj , =− .
∂ ẋj ∂xj ∂xj
Entonces, las ecuaciones de Euler–Lagrange adoptan la forma
∂V
mẍj = − ,
∂xj
86 Cálculo de Variaciones

que no son más que las ecuaciones de Newton de la mecánica clásica


teniendo en cuenta que Fj = −∂V /∂xj .
2. Teniendo en cuenta el ejemplo introductorio de este capı́tulo, hallar la
curva de descenso más rápida (braquistocrona) que pasa por los puntos de
coordenadas (0, 0), (x1 , y1 ).

Solución. Se ha visto en la introducción de este capı́tulo que se trata de


hallar la función y(x) definida para 0 ≤ x ≤ x1 , con y(0) = 0 e y(x1 ) = y1
que minimice el funcional
 x1 &
1 + y  (x)2
J(y) = dx .
0 x
El funcional J es de la forma
 x1
J(y) = F (y(x), y  (x); x) dx ,
0

siendo &
 1 + y  (x)2
F (y(x), y (x); x) = .
x
Notar que F es independiente de y(x) de modo que se verificará (8.9), es
decir, la ecuación de Euler-Lagrange reduce a
∂F
=c,
∂y 
siendo c ∈ R una constante. En nuestro caso se tiene
y  (x)
 =c,
x(1 + y  (x)2 )
para todo x ∈ (0, x1 ). Despejando se llega a
c2 x
y  (x)2 = .
1 − c2 x
Una forma simple de resolver esta ecuación diferencial consiste en usar la
parametrización
1
x(t) = (1 − cos t) , η(t) := y(x(t)) .
2c2
Entonces, η(t) debe satisfacer

c2 x 1 − cos t sin2 t (1 − cos t)2


η̇ 2 (t) = [y  (x)ẋ]2 = ẋ 2
= = ,
1 − c2 x 1 + cos t 4c4 4c4
de donde
1 − cos t
η̇(t) = ± .
2c4
8.6 Problemas resueltos 87

La condición de contorno η(0) = y(x(0)) = 0 y el hecho de que y ≥ 0


implica
t − sin t
η(t) = .
2c2
Nota: Para que la cicloide (x(t), η(t)) sea la braquistocrona se ha de
verificar también que exista un t0 tal que
1 t0 − sin t0
x0 = x(t0 ) = (1 − cos t0 ) , y0 = η(t0 ) = .
2c2 2c2
3. Determinar la curva plana y(x) de clase C 1 con sus puntos frontera fijos
(x0 , y(x0 )) y (x1 , y(x1 )) que, al girar alrededor del eje de abscisas forme
una superficie de área mı́nima.

Solución. Sea (x, y(x)) la gráfica de la curva solución.

Se sabe que el área de la superficie de revolución que genera dicha curva


viene dada por el funcional
 x1 
J(y) = 2π y 1 + y 2 dx .
x0

La ecuación de Euler–Lagrange para este funcional es


 
d ∂F ∂F
− =0,
dx ∂y  ∂y
88 Cálculo de Variaciones


siendo F (y, y  ; x) = y 1 + y 2 . Como F no depende de x explı́citamente,
entonces se verifica (8.9), es decir,

∂F
F − y =c,
∂y 

con c constante. En nuestro caso se tiene


 yy 2
y 1 + y 2 −  =c.
1 + y 2

Simplificando se llega a
y
 =c. (8.17)
1 + y 2
La forma más sencilla de integrar esta ecuación consiste en realizar el cam-
bio y  = sinh ξ, de modo que, teniendo en cuenta la relación fundamental
de la trigonometrı́a hiperbólica cosh2 ξ − sinh2 ξ = 1, (8.17) se reescribe
como y = c cosh ξ. Se tiene pues

dy c sinh ξ dξ
dx = = = c dξ ,
y sinh ξ

que integrando da lugar a

x(ξ) = cξ + c1 ,

con c1 constante. Hemos llegado a que la ecuación paramétrica de la curva


solución es
x(ξ) = cξ + c1 , y(ξ) = c cosh ξ .
Por supuesto, el parámetro ξ se puede eliminar de las ecuaciones anteriores
y se llega a la ecuación explı́cita de la curva
x − c1
y(x) = c cosh ,
c
que es una familia biparamétrica de curvas conocidas como catenarias.

Nota: Por supuesto, las constantes c y c1 se calculan imponiendo que la


curva pase por los puntos prefijados (x0 , y(x0 )) y (x1 , y(x1 )). Se puede ver
que, según la disposición en el plano de dichos puntos, existe una, dos o
ninguna solución.

4. Considerar todas las curvas planas que pasan por los puntos (0, 0) y (2, 0)
y que tengan longitud π. Hallar la ecuación de la curva que encierra ma-
yor área con el eje de abscisas.

Solución. Sea (x, y(x)) la gráfica de la curva buscada.


8.6 Problemas resueltos 89

y
1

0.8

0.6

0.4

0.2

x
0.5 1 1.5 2

El área encerrada viene dada por el funcional


 2
A(y) = F (y, y  ; x) dx ,
0

de donde F (y, y  ; x) = y. La longitud de la curva es


 2
L(y) = G(y, y  ; x) dx ,
0

de donde G(y, y  ; x) = 1 + y 2 . El problema consiste en hallar la fun-
ción y(x) que minimiza A sujeto a la restricción L(y) = π. Utilizando las
ecuaciones de Euler–Lagrange (8.12) se tiene

d ∂ ∂

(F + λG) − (F + λG) = 0 ,
dx ∂y ∂y
es decir,  
d λy 
 −1=0 .
dx 1 + y  (x)2
Integrando respecto de x se tiene
λy 
 =c+x , (8.18)
1 + y 2
con c constante. Para simplificar, tomemos
y  (x) = cot ξ , (8.19)
donde ξ ∈ [ξ0 , ξ1 ] cuando x ∈ [0, 2]. Sustituyendo en (8.18) se obtiene
λ cot ξ
 = c + x =⇒ λ cos ξ = c + x ,
1 + cot2 ξ
90 Cálculo de Variaciones

de donde, teniendo en cuenta la condición x(ξ0 ) = 0, se llega a

x(ξ) = λ[cos ξ − cos ξ0 ] .

Ahora, de (8.19) y aplicando la regla de la cadena se llega a

dy dy dx
= = cot ξ(−λ sin ξ) = −λ cos ξ ,
dξ dx dξ
que integrando da lugar a

y(ξ) = λ[sin ξ0 − sin ξ] , (8.20)

donde se ha tenido en cuenta la condición y(ξ0 ) = 0.


La restricción L(y) = π implica
 2   2  ξ1
1 1 dx
π = 1+ (y  )2 dx = dx = dξ
0 0 sin ξ ξ0 sin ξ dξ
 ξ1
cos ξ
= λ dξ = −λ[ξ1 − ξ0 ] .
ξ0 sin ξ

Imponiendo las condiciones x(ξ1 ) = 2 e y(ξ1 ) = 0 en las expresiones de


x(ξ) e y(ξ) obtenidas anteriormente se tiene

2 = −λ[cos ξ0 − cos ξ1 ] , sin ξ0 = sin ξ1 .

En definitiva se tiene el sistema de 3 ecuaciones con 3 incógnitas siguiente

π = −λ[ξ1 − ξ0 ] ,
2 = −λ[cos ξ0 − cos ξ1 ] ,
sin ξ0 = sin ξ1 ,

Estas ecuaciones se satisfacen para ξ0 = 0, ξ1 = π y λ = −1. La curva


solución es
x(ξ) = 1 − cos ξ , y(ξ) = sin ξ , ξ ∈ [0, π] ,
que no es más que la semicircunferencia superior centrada en (1, 0) y de ra-
dio la unidad puesto que los puntos (x, y) de la curva verifican la ecuación
(x − 1)2 + y 2 = 1.

Observemos que la anterior curva resulta en un máximo del área A y no


en un mı́nimo por consideraciones fı́sicas.
5. Hallar el control u(t) ∈ R de modo que se minimice el funcional
 tf
J(u, x) = [u2 (t) + βx2 (t)] dt , (8.21)
t0
8.6 Problemas resueltos 91

con la restricción
ẋ = αx(t) + u(t) , (8.22)
siendo x(t) ∈ R verificando x(t0 ) = x0 con x0 dado pero x(tf ) no está re-
stringido a ningún valor. Aquı́, α, β ∈ R son parámetros constantes.

Solución. Utilizaremos el método de los multiplicadores de Lagrange.


Utilizamos pues el funcional aumentado
 tf
Jλ (u, x) = F (u, x, u̇, ẋ; t) + λ(t)G(u, x, u̇, ẋ; t) dt ,
t0

siendo F (u, x, u̇, ẋ; t) = u2 (t) + βx2 (t) y G(u, x, u̇, ẋ; t) = ẋ − αx(t) − u(t).
Las ecuaciones de Euler–Lagrange (8.14) son

d ∂ ∂
(F + λ(t)G) − (F + λ(t)G) = 0 ,
dt ∂ ẋ ∂x

d ∂ ∂
(F + λ(t)G) − (F + λ(t)G) = 0 ,
dt ∂ u̇ ∂u
que, en nuestro caso dan lugar a

λ̇ − 2βx + λα = 0, (8.23)
2u − λ = 0. (8.24)

Por otra parte, la condición de transversalidad (8.6) es


 
∂(F + λ(t)G)
=0,
∂ ẋ t=tf

es decir, λ(tf ) = 0. Por supuesto, debido a (8.24), también se tiene u(tf ) =


0.
Eliminando λ del sistema (8.23) y (8.24) se tiene u̇ = βx − αu que, junto
con (8.22) da lugar al sistema diferencial lineal
     
ẋ α 1 x
= ,
u̇ β −α u

con las condiciones iniciales x(t0 ) = x0 , u(t0 ), que es fácilmente resoluble.


Realizando el proceso pertinente se obtiene
βx0 − αu(t0 )
u(t) = u(t0 ) cosh(wt) + sinh(wt) ,
w
siendo w2 := α2 + β 2 . Usando la condición de transversalidad u(tf ) = 0
eliminamos u(t0 ) y finalmente se tiene
βx0 sinh[w(tf − t)]
u(t) = .
α sinh(wtf ) − w cosh(wtf )
92 Cálculo de Variaciones

Nota: Existe otra forma de resolver el problema y consiste en sustituir


el valor de u en (8.21) del despeje de (8.21). De este modo el problema
se convierte en un problema de extremos del funcional J sin restricciones
donde el punto inicial es fijo pero el final no. Se aplican pues las ecuaciones
de Euler–Lagrange (8.5) con las condiciones de transversalidad (8.6).
6. Hallar el control u(t) ∈ R y la trayectoria x(t) ∈ R que minimice el
funcional  ∞
J(u, x) = [x2 (t) + 4u2 (t)] dt , (8.25)
0
sujeto a las restricciones
ẍ = −ẋ(t) + u(t) , (8.26)
con x(0) = 0, ẋ(0) = 1 y lı́mt→∞ (x(t), ẋ(t)) = (0, 0).

Solución. Nos encontramos ante un problema de extremos de un funcional


con una restricción (8.26) que es una ecuación diferencial de segundo or-
den. Por lo tanto, antes de utilizar el método de los multiplicadores de La-
grange, convertiremos la restricción (8.26) en dos restricciones (ecuaciones
diferenciales) de primer orden. Como es habitual en este procedimiento,
definimos x1 (t) = x(t) y x2 (t) = ẋ(t), de modo que (8.26) se reescribe de
la forma
ẋ1 = x2 (t) , ẋ2 = −x2 (t) + u(t) .
Utilizamos ahora el funcional aumentado
 ∞
Jλ (u, x1 , x2 ) = F + λ1 (t)G1 + λ2 (t)G2 dt ,
0

siendo F (u, x1 , x2 , u̇, ẋ1 , ẋ2 ; t) = x21 (t) + 4u2 (t), G1 (u, x1 , x2 , u̇, ẋ1 , ẋ2 ; t) =
ẋ1 − x2 (t) y G2 (u, x1 , x2 , u̇, ẋ1 , ẋ2 ; t) = ẋ2 + x2 (t) − u(t).
Las ecuaciones de Euler–Lagrange (8.14) son, para j = 1, 2,

d ∂ ∂
(F + λ1 (t)G1 + λ2 (t)G2 ) − (F + λ1 (t)G1 + λ2 (t)G2 ) = 0,
dt ∂ ẋj ∂xj

d ∂ ∂
(F + λ1 (t)G1 + λ2 (t)G2 ) − (F + λ1 (t)G1 + λ2 (t)G2 ) = 0,
dt ∂ u̇ ∂u
que, en nuestro caso dan lugar a
λ̇1 (t) − 2x1 (t) = 0 , (8.27)
λ̇2 (t) + λ1 (t) − λ2 (t) = 0 , (8.28)
8u(t) − λ2 (t) = 0 . (8.29)
Eliminando de este sistema los multiplicadores de Lagrange λ1 (t) y λ2 (t)
y recordando que x1 (t) = x(t) se llega a
4ü = 4u̇ − x .
8.6 Problemas resueltos 93

Esta ecuación junto con (8.26) resulta un sistema lineal resoluble. Reali-
zando el procedimiento habitual de resolución se obtiene
√ √ √ √
x(t) = A exp(−t/ 2) + Bt exp(−t/ 2) + C exp(t/ 2) + Dt exp(t/ 2) .

Teniendo en cuenta las condiciones x(0) = 0, ẋ(0) = 1 y lı́mt→∞ (x(t), ẋ(t)) =


(0, 0) se llega a A = C = D = 0, B = 1. En definitiva se obtiene
 
√ √ 1 √
x(t) = t exp(−t/ 2) , u(t) = (1 − 2) 1 + t exp(−t/ 2) .
2
Capı́tulo 9

Control Óptimo

9.1. Introducción
En este capı́tulo se describirá cómo controlar un sistema de forma que se
comporte de la “mejor forma posible”. Por supuesto, la estrategia del control
utilizado dependerá de cómo se entienda “mejor”.

El sistema será modelizado mediante una ecuación diferencial de primer


orden, en general no lineal, de la forma

ẋ = f (x, u, t) , x(t0 ) = x0 , (9.1)

siendo x ∈ Rn las variables de estado y u ∈ Rm las de control. Supondremos


siempre suficiente regularidad a la función f de modo que se verifique la exis-
tencia y la unicidad de la solución x(t) de (9.1).

Definición 73. Un ı́ndice de actuación J será un funcional que a cada pareja


(x(t), u(t)) compatible con (9.1) le asigne un escalar real que proporciona una
medida a partir de la cual es posible juzgar si el sistema (9.1) se ha comportado
de la “mejor forma posible”.

Veamos algunos ejemplos.

Problemas de tiempo mı́nimo: Se ha de elegir el control u(t) de modo que el


sistema evolucione desde el estado inicial x(t0 ) = x0 hasta un estado final
x(t1 ) = xf en el menor tiempo posible, es decir, minimizando el ı́ndice de
actuación J = t1 − t0 que escribiremos de la forma
 t1
J= dt . (9.2)
t0

Problemas de control terminal: Se ha de elegir el control u(t) de modo que


el estado final x(t1 ) = xf esté lo más cerca posible de un cierto estado de

95
96 Control Óptimo

referencia deseado r(t1 ). En este caso, un planteamiento adecuado puede


ser minimizar el ı́ndice de actuación dado por la forma cuadrática
J = ∆T (t1 )M ∆(t1 ) , (9.3)
siendo ∆(t) = x(t) − r(t) y M ∈ Mn (R) simétrica y definida positiva.
Observar que un caso particular de especial relevancia aparece cuando se
toma M = In . En este caso se tiene J = x(t1 ) − r(t1 )2 .
Problemas de esfuerzo mı́nimo: Elegir el control u(t) de modo que el estado
final x(t1 ) = xf se alcance con el menor “esfuerzo”posible. Existen diversos
ı́ndices de actuación dependiendo de como se defina el “esfuerzo”. Por
ejemplo se pueden minimizar los ı́ndices de actuación siguientes:
 t1 m
"
J(u) = βi |ui (t)| dt , (9.4)
t0 i=1

o bien  t1
J(u) = uT (t)M u(t) dt , (9.5)
t0
siendo M ∈ Mn (R) simétrica y definida positiva.
Servomecanismos y reguladores: Si el control u(t) se elige de modo que el
objetivo es que el sistema siga lo más cerca posible a un cierto estado de
referencia r(t) durante un cierto intervalo de tiempo t0 ≤ t ≤ t1 entonces
se habla de un servomecanismo. Un posible ı́ndice de actuación puede ser
 t1
J(x) = ∆T (t)M ∆(t) dt , (9.6)
t0

siendo ∆(t) = x(t)−r(t) y M ∈ Mn (R) simétrica y definida positiva. Para


el caso particular de que r(t) sea constante, los servomecanismos reciben
el nombre especial de reguladores.
Si el control u(t) no está acotado, el problema de minimizar (9.6) puede
dar lugar a soluciones con alguna componente ui de u infinita, lo cual no
es aceptable en problemas reales. Por este motivo y con el objetivo de
minimizar también el esfuerzo total realizado en el control efectuado, se
puede tomar el ı́ndice de actuación siguiente
 t1
J(u, x) = [∆T (t)M ∆(t) + uT (t)P u(t)] dt , (9.7)
t0

siendo ∆(t) = x(t)−r(t) y M, P ∈ Mn (R) simétricas y definidas positivas.


Los ı́ndices de actuación (9.5), (9.6) y (9.7) se conocen como ı́ndices de ac-
tuación cuadráticos. De forma más general, escribiremos un ı́ndices de actuación
de la forma  t1
J(u, x) = φ(x(t1 ), t1 ) + F (x(t), u(t), t) dt , (9.8)
t0
siendo las funciones escalares φ y F de clase C 1 .
9.2 Control óptimo: método hamiltoniano 97

9.2. Control óptimo: método hamiltoniano


Consideraremos el problema de minimizar el funcional ı́ndice de actuación
J(u) definido por (9.8) sujeto a la ecuación diferencial (9.1), es decir,
ẋ = f (x, u, t) , x(t0 ) = x0 , (9.9)
con u(t)∈ Rm y x(t) ∈ Rn . No supondremos en esta sección que el control u(t)
está sujeto a ninguna otra restricción.
Definición 74. El control u∗ (t) es un extremal y J(u) tiene un mı́nimo relativo
en u∗ si existe un > 0 tal que J(u) − J(u∗ ) ≥ 0 para todo u verificando
u − u∗  < .
Una aplicación del cálculo de variaciones a la teorı́a de control óptimo es la
siguiente.
Teorema 75. Condiciones necesarias para que u∗ (t) ∈ Rm sea un extremal del
funcional  t1
J(u, x) = F (x(t), u(t), t) dt ,
t0
sujeto a la ecuación diferencial
ẋ = f (x, u, t) , x(t0 ) = x0 ,
siendo x = (x1 , . . . , xn )T y u = (u1 , . . . , um ) ∈ C 1 ([t0 , t1 ]), son las siguientes:
λ̇ = −∇x H , (9.10)
siendo la función Hamiltoniana H asociada al funcional J,
H(x, u, λ, t) = λ(t)  f (x, u, t) − F (x, u, t) , (9.11)
donde λ(t) = (λ1 (t), . . . , λn (t))T son multiplicadores de Lagrange y H verifica
(∇u H)u=u∗ = 0 , (9.12)
para todo t0 ≤ t ≤ t1 .
Demostración. Consideramos el funcional
 t1
J(u, x) = F (x(t), u(t), t) dt ,
t0

con las n restricciones


ẋ = f (x, u, t) .
Introducimos n multiplicadores de Lagrange λi (t), con i = 1, . . . , n. Las variables
xi y λi se llaman conjugadas. Definimos el vector λ(t) = (λ1 (t), . . . , λn (t))T y el
funcional aumentado
 t1
Jλ (u, x) = F(x(t), u(t), λ(t), ẋ(t); t) dt ,
t0
98 Control Óptimo

siendo F(x(t), u(t), λ(t), ẋ(t); t) = F (x(t), u(t), t)+λ(t)  [ẋ−f (x, u, t)], donde el
punto  indica el producto escalar ordinario en Rn . Hemos de hallar un extremo
del funcional Jλ (u, x), pero antes de hallar las ecuaciones de Euler–Lagrange,
definiremos el Hamiltoniano
H(x, u, λ, t) = λ(t)  f (x, u, t) − F (x, u, t) ,
de modo que el funcional Jλ (u, x) se puede reescribir de la forma
 t1
Jλ (u, x) = λ(t)  ẋ − H(x, u, λ, t) dt .
t0

Las ecuaciones de Euler–Lagrange (8.5) para este funcional son


d(∇ẋ F)
− ∇x F = 0,
dt
d(∇u̇ F)
− ∇u F = 0.
dt
Como ∇ẋ [λ  ẋ] = λ, las anteriores ecuaciones reducen a
λ̇ = −∇x H ,
∇u H = 0,
y son conocidas como las ecuaciones de Hamilton–Pontryagin.
Nota 76. Es interesante resaltar que la ecuación de estado ẋ = f (x, u, t) se
puede reescribir de la forma ẋ = ∇λ H. Se tiene en definitiva el sistema hamil-
toniano
ẋ = ∇λ H , λ̇ = −∇x H ,
de donde proviene el hecho de que λ sea la variable conjugada de x.
Nota 77. Si el problema de extremizar el funcional J(u, x) del Teorema 75 no
restringe el valor del punto final x(t1 ), entonces al Teorema 75 hay que an̄adirle
la condición de transversalidad (∇ẋ F)t=t1 = 0, es decir
λ(t1 ) = 0 . (9.13)
Si el funcional a extremizar J(u, x) viene dado por (9.8), entonces la anterior
condición se modifica de la forma
λ(t1 ) = (∇x φ)t=t1 (9.14)

Nota 78. La ecuación de estado ẋ = f (x, u, t) junto con la ecuación adjunta


(9.10) escrita en forma compacta como λ̇ = −∇x H(x, u, λ, t), definen un sis-
tema de 2n ecuaciones diferenciales (no lineales en general) con condiciones de
contorno x(t0 ) y λ(t1 ) que no admite habitualmente solución expresable medi-
ante funciones elementales. En estos casos, los métodos numéricos son de gran
utilidad.
9.3 El regulador lineal 99

Nota 79. En muchos libros de texto, el Teorema 75 se utiliza con el hamilto-


niano (totalmente equivalente)

H(x, u, λ, t) = F (x, u, t) + λ(t)  f (x, u, t) .

9.3. El regulador lineal


En la Nota 78 queda claro que, en general, es imposible expresar el control
óptimo u∗ (t) mediante funciones elementales. Sin embargo, esto si es posible
cuando el sistema es lineal. Sea x(t) ∈ Rn , u(t) ∈ Rm , A ∈ Mn (R) y B ∈
Mm×n (R) y consideremos el sistema lineal

ẋ = Ax + Bu , (9.15)

con un ı́ndice de actuación dado por el funcional cuadrático



1 1 t1 T
J(u, x) = xT (t1 )M x(t1 ) + [x Qx + uT Ru] dt , (9.16)
2 2 t0

siendo M, Q ∈ Mn (R), R ∈ Mm (R) matrices reales constantes simétricas y


definidas positivas. Los factores 1/2 han sido introducidos por conveniencia en
la notación futura.
Proposición 80. El ı́ndice de actuación cuadrático (9.16) sujeto al sistema
lineal (9.15) se minimiza mediante un control óptimo por realimentación u∗ (t) =
−R−1 B T P (t)x∗ (t), donde P (t) es una matriz simétrica que satisface la ecuación
diferencial matricial de Riccati

Ṗ = P BR−1 B T P − AT P − P A − Q ,

con la condición inicial P (t1 ) = M .


Demostración. El Hamiltoniano asociado al problema de optimización plantea-
do es, según la Nota 79,
1 T 1
H= x Qx + uT Ru + λT (Ax + Bu) .
2 2
La condición (9.12) de optimabilidad (∂H/∂ui )u=u∗ = 0, con i = 1, . . . , m se
escribe como (∇u H)u=u∗ = 0 en forma vectorial mediante el operador gradiente.
En nuestro caso, teniendo en cuenta la forma del Hamiltoniano H y el hecho de
que R es simétrica, se obtiene

Ru∗ + B T λ = 0 ,

de modo que, puesto que R es invertible por ser definida positiva, el control
óptimo viene dado por
u∗ (t) = −R−1 B T λ(t) . (9.17)
100 Control Óptimo

Las ecuaciones adjuntas que han de verificar los multiplicadores de Lagrange


λ(t) son λ̇ = −∇x H según (9.10), de modo que,

λ̇ = −Qx∗ − AT λ . (9.18)

Sustituyendo (9.17) en (9.15) se tiene

ẋ∗ = Ax∗ − BR−1 B T λ .

Combinando esta expresión con (9.18) producimos el siguiente sistema de 2n


ecuaciones lineales
 ∗     ∗ 
ẋ A −BR−1 B T x
= . (9.19)
λ̇ −Q −AT λ

Se tiene además la condición de contorno λ(t1 ) = (∇x φ)t=t1 , ver la Nota 77.
Como en nuestro caso φ = 12 xT M x, dicha condición de contorno da lugar a

λ(t1 ) = M x∗ (t1 ) . (9.20)

Utilizamos ahora la fórmula (3.7) que nos da la solución del sistema (9.19) con
la condición inicial colocada en tiempo t1 , es decir,
 ∗   ∗ 
x (t) x (t1 )
= Φ(t, t1 ) .
λ(t) λ(t1 )

siendo Φ(t, t1 ) = (φij ) ∈ M2n (R) la matriz de transición de estados del sistema
(9.19). Aquı́ se utiliza la notación por bloques φij (t) ∈ Mn (R) con i, j = 1, 2.
Se tiene pues que

x∗ (t) = φ11 x∗ (t1 ) + φ12 λ(t1 ) = (φ11 + φ12 M )x∗ (t1 ) .

Por otra parte

λ(t) = φ21 x∗ (t1 ) + φ22 λ(t1 ) = (φ21 + φ22 M )x∗ (t1 )


= (φ21 + φ22 M )(φ11 + φ12 M )−1 x∗ (t) := P (t)x∗ (t) , (9.21)

donde se ha definido la matriz P (t) = (φ21 +φ22 M )(φ11 +φ12 M )−1 . Nótese que,
se puede demostrar que la matriz φ11 + φ12 M es invertible para todo t ≥ t0 .
En definitiva se ha demostrado que el control óptimo u∗ (t) viene dado por una
realimentación lineal del tipo

u∗ (t) = −R−1 B T P (t)x∗ (t) , (9.22)

donde la matriz P (t) verifica una ecuación que a continuación deducimos. Derivan-
do (9.21) respecto del tiempo t se tiene

Ṗ x∗ + P ẋ∗ − λ̇∗ = 0 .
9.4 Teorı́a de Pontryagin 101

Sustituyendo aquı́ las expresiones de ẋ∗ y de λ̇∗ obtenidas de (9.19) y (9.21)


respectivamente se tiene

(Ṗ + P A − P BR−1 B T P + Q + AT P )x∗ (t) = 0 .

Como esta ecuación ha de ser cierta para todo t0 ≤ t ≤ t1 se tiene que P (t)
debe verificar la llamada ecuación diferencial matricial de Riccati

Ṗ = P BR−1 B T P − AT P − P A − Q , (9.23)

con la condición inicial


P (t1 ) = M , (9.24)
que se obtienen de (9.20) y (9.21).
Nota 81. Como M es simétrica, de (9.24) se deduce que P (t) es simétrica
para todo t. De este modo, la ecuación diferencial matricial de Riccati (9.23)
representa n(n + 1)/2 ecuaciones diferenciales cuadráticas de primer orden que
se han de resolver, en general, utilizando métodos numéricos.
Es importante en algunas aplicaciones el caso especial en el cual t1 tiende
hacia infinito y M = 0. Se demuestra que en este caso lı́mite la matriz P es
independiente del tiempo como muestra el siguiente resultado, ver por ejemplo
[6] para una demostración.
Proposición 82. Sea Q̂ la matriz de igual rango que Q tal que Q = Q̂T Q̂. Si
el sistema lineal (9.15) es completamente controlable y el par [A, Q̂] es comple-
tamente observable, entonces el ı́ndice de actuación cuadrático
 ∞
J(x, u) = [xT Qx + uT Ru] dt ,
0

sujeto al sistema lineal (9.15) se minimiza mediante un control óptimo por real-
imentación u∗ (t) = −R−1 B T P x∗ (t), donde P es la única matriz real simétrica
y definida positiva que satisface la ecuación matricial algebraica de Riccati

P BR−1 B T P − AT P − P A − Q = 0 .

9.4. Teorı́a de Pontryagin


Una gran variedad de procesos fı́sicos pueden ser controlados de múltiples
formas, pero sólo una forma es la mejor bajo un cierto criterio. Se trata pues
de averiguar cual es el control óptimo del proceso en cuestión. Quizás interese
realizar el objetivo del proceso en el menor tiempo posible o bien con el mı́nimo
consumo de energı́a, etc...
Supondremos que el sistema está gobernado por

ẋ = f (x, u) , x(t0 ) = x0 (9.25)


102 Control Óptimo

con x = (x1 , . . . , xn )T las variables de estado o de fase, f = (f1 , . . . , fn )T ∈


Rn y u = (u1 , . . . , um )T las variables de control. Además suponemos que f
suficientemente regular de modo que, dado un control u(t) definido para t0 ≤
t ≤ t1 , la solución x(t) de (9.25) existe y es única en el intervalo t0 ≤ t ≤ t1 . En
particular, supondremos que fi y ∂fi /∂xj son funciones continuas.
Consideremos el funcional
 t1
J(u, x) = F (x, u) dt , (9.26)
t0

de modo que, para cada control dado u(t) definido para t0 ≤ t ≤ t1 , se tiene
J(u, x) bien definido y tomando un valor real fijado.
Fijados el estado inicial x0 y final xf del sistema, supongamos que existen
varios controles u(t) que transfieren el sistema desde el estado inicial x(t0 ) = x0
hasta el estado final x(t1 ) = xf en tiempo t1 − t0 . Nos preguntamos si, de
entre esos controles, existe uno u∗ tal que se minimize el funcional (9.26). Dicho
control u∗ (t) es llamado control óptimo y la solución x∗ (t) de (9.25) asociado al
control u∗ una trayectoria óptima.
Notemos que, en el problema planteado, los valores de t0 y de t1 no están
en general fijados. Lo único que se pide es que para tiempo t0 el sistema se
encuentre en el estado x0 y para tiempo t1 en el estado xf .
Es importante notar que, en los problemas aplicados, muy a menudo se tiene
que las variables de control ui no pueden tomar valores arbitrarios si no que están
acotadas y además pueden ser discontinuas. Entonces, sólo tiene sentido tomar
controles u pertenecientes a un cierto dominio U ⊂ Rm .
Ası́, diremos que el control u(t) es admisible si u(t) ∈ U para todo t0 ≤ t ≤ t1
y además es continuo a trozos en dicho intervalo. Dicho de otro modo, pueden
existir tiempos si con t0 < s1 < s2 < · · · < sn < t1 que corresponden a
discontinuidades de primera especie de u(t).
Un caso muy habitual de conjunto de controles admisibles U es el hipercubo
de Rm siguiente

U = {u = (u1 , . . . , um ) : |ui | ≤ umax


i , i = 1, . . . , m} ⊂ Rm . (9.27)

Observemos que, al an̄adir la condición (9.27) al problema de optimización


planteado se tiene un carácter radicalmente diferente del que se tenı́a con la
condición (9.12), es decir, (∇u H)u=u∗ = 0 puesto que ahora el hamiltoniano H
puede ser no derivable respecto de u en todos los puntos ya que u(t) puede tener
puntos donde no exista la derivada.

El siguiente resultado fundamental, ver su demostración en [8] por ejemplo,


aporta condiciones necesarias que debe verificar un control óptimo u∗ donde se
tiene en cuenta la condición (9.27) sobre la acotación de los controles admisibles .
Para conseguirlo, definimos la función de Hamilton H asociada al sistema (9.25)
y al funcional (9.26) de la forma

H(λ, x, u) = λT f (x, u) − F (x, u) , (9.28)


9.5 Problemas resueltos 103

siendo λ(t) = (λ1 (t), . . . , λn (t))T ∈ Rn un vector de multiplicadores de Lagrange


verificando
∂H
λ̇i = − , i = 1, . . . , n . (9.29)
∂xi
Teorema 83 (Principio del máximo de Pontryagin). Sea u∗ (t) definido pa-
ra t0 < t < t1 un control admisible tal que la trayectoria x∗ (t) del sistema
(9.25) asociada verifica x∗ (t0 ) = x0 y x∗ (t1 ) = xf . Si u∗ (t) es óptimo para
el funcional (9.26), entonces existe un vector de multiplicadores de Lagrange
λ(t) = (λ1 (t), . . . , λn (t))T ∈ Rn continuo y no nulo, verificando (9.29). Además,
para cualquier t0 ≤ t ≤ t1 , el hamiltoniano H(λ(t), x(t), u) alcanza su máximo
en u = u∗ (t) mirado como una función de los controles admisibles u ∈ U, es
decir,
H(λ(t), x∗ (t), u∗ (t)) = sup {H(λ(t), x(t), u)} . (9.30)
u∈U

Nota 84. Si se trata de un problema de control en tiempo óptimo, es decir,


F (x, u) ≡ 1 en el funcional (9.26), entonces es habitual tomar la función de
Hamilton
H(λ, x, u) = λT f (x, u) , (9.31)
en la utilización del Teorema 83.

9.5. Problemas resueltos


1. Minimizar el ı́ndice de actuación
 T
J(u, x) = (x(t)2 + u2 (t)) dt ,
0

sabiendo que ẋ = −ax + u(t) con x(0) = x0 . Tomar a y T constantes


positivas.

Solución. Utilizaremos el Teorema 75 para la resolución del problema.


La función Hamiltoniana H asociada al funcional J(u, x) y al sistema
ẋ = −ax + u(t) viene dado, según (9.11), por

H(x, u, t) = λ(−ax + u) − (x2 + u2 ) ,

donde el multiplicador de Lagrange λ(t) verifica, teniendo en cuenta (9.10),


la ecuación λ̇ = −∂H/∂x, es decir,

λ̇ = 2x∗ + aλ , (9.32)

donde se ha denotado por x∗ (t) a la trayectoria óptima. Además, si u∗ es


el control óptimo, la condición (9.12), es decir, (∂H/∂u)u=u∗ = 0 impone
en nuestro caso la restricción

−2u∗ + λ = 0 . (9.33)
104 Control Óptimo

Introduciendo esta condición en el sistema ẋ∗ = −ax∗ + u∗ se obtiene


1
ẋ∗ = −ax∗ + λ . (9.34)
2
Teniendo en cuenta que el punto final x(T ) no está fijado se tiene la
condición de transversalidad (9.14), es decir,

λ(T ) = 0 .

Observar que, el sistema formado por las ecuaciones (9.32) y (9.34) es


un sistema lineal y puede, por lo tanto, ser resuelto con los métodos ya
estudiados anteriormente. En concreto, es fácil demostrar que, la solución
general del sistema (9.32) y (9.34) es
 1 
x∗ (t) = C1 cosh( 1 + a2 t) − √ (2aC1 + C2 ) sinh( 1 + a2 t) ,
2 1 + a2
 1 
λ(t) = C2 cosh( 1 + a2 t) + √ (−2C1 + aC2 ) sinh( 1 + a2 t) ,
1 + a2
siendo C1 y C2 constantes arbitrarias que se determinan con las condi-
ciones de contorno x∗ (0) = x0 y λ(T ) = 0. En concreto se obtiene
2x0
C1 = x0 , C2 = √ √ .
a+ 1+ a2 coth( 1 + a2 T )
En definitiva, el control óptimo u∗ es, según (9.33), u∗ (t) = −λ(t)/2, es
decir,

∗ x0 sinh[ 1 + a2 (t − T )]
u (t) = √ √ √ .
1 + a2 cosh[ 1 + a2 T ] + a sinh[ 1 + a2 T ]

2. Una partı́cula realiza un movimiento rectilı́neo sujeta a la acción de una


fuerza por unidad de masa u(t). Supongamos que el esfuerzo realizado
cuando la partı́cula evoluciona desde tiempo cero hasta tiempo τ viene
medido por  τ
J(u) = u2 (t) dt .
0
Averiguar la expresión de u(t) de modo que la partı́cula sea transferida
desde el reposo en el origen de coordenadas (x = 0) hacia el reposo en
x = 1 en 1 unidad de tiempo y minimizando el esfuerzo realizado. Dar
también la posición óptima en función del tiempo.

Solución. Utilizaremos el Teorema 75 para la resolución del problema.


Sea x(t) la posición de la partı́cula en función del tiempo. Según las leyes
de la mecánica clásica se tiene ẍ = u(t), o de forma equivalente,

ẋ = y , ẏ = u(t) , (9.35)
9.5 Problemas resueltos 105

donde se ha definido y(t) como la velocidad de la partı́cula.


La función Hamiltoniana H asociada al sistema (9.35) y al funcional J(u)
dado por  1
J(u) = u2 (t) dt ,
0
es, según (9.11),
H(x, u, t) = λ1 y + λ2 u − u2 ,
donde los multiplicador de Lagrange λi (t) verifican, teniendo en cuenta
(9.10), el sistema λ̇1 = −∂H/∂x, λ̇2 = −∂H/∂y, es decir,
λ̇1 = 0 , λ̇2 = −λ1 . (9.36)
La solución del sistema (9.36) es
λ1 (t) = −c1 , λ2 (t) = c1 t + c2 ,
siendo ci constantes reales.
Si u∗ es el control óptimo, la condición (9.12), es decir, (∂H/∂u)u=u∗ = 0
da lugar a
−2u∗ + λ2 = 0 . (9.37)
De este modo, el control óptimo es
λ2 (t) c1 t + c2
u∗ (t) = = .
2 2
Introduciendo este control en la segunda ecuación (9.35) e integrando se
tiene 
1 $ c1 2 %
y ∗ (t) = u∗ (t) dt = t + c2 t + c3 .
2 2
con c3 constante. Puesto que la partı́cula se encuentra para tiempo 0 y 1
en reposo se tienen las condiciones y ∗ (0) = y ∗ (1) = 0, de donde obtenemos
c3 = 0 y c1 = −2c2 . En definitiva
c2 , -
y ∗ (t) = t − t2 .
2
Integrando ahora la primera ecuación de (9.35) se tiene
  
∗ ∗ c2 t2 t3
x (t) = y (t) dt = − + c4 ,
2 2 3
con c4 constante. Puesto que la partı́cula se en cuentra para tiempo 0 y
1 en posiciones 0 y 1 respectivamente, es decir, x∗ (0) = 0 y x∗ (1) = 1
obtenemos c4 = 0 y c2 = 12. Entonces, la trayectoria óptima es
  
∗ ∗ 2 1 t
(x (t), y (t)) = 6t − , 6t[1 − t] ,
2 3
y el control óptimo
u∗ (t) = 6(1 − 2t) .
106 Control Óptimo

3. Hallar un control u(t) por realimentación lineal que haga mı́nimo el fun-
cional  ∞ 
2 1 2
y + u dt ,
0 10
sujeto a ẋ = −x + u(t), ẏ = x.
Solución. Utilizaremos la Proposición 82 para solucionar el problema
planteado. El sistema lineal viene definido por
   
ẋ x
=A + bu ,
ẏ y
siendo    
−1 0 1
A= , B= .
1 0 0
El funcional a minimizar se puede escribir de la forma
 ∞   
x T
(x, y)Q + u Ru dt ,
0 y
con las matrices simétricas
 
0 0 1
Q= , R= .
0 1 10
Utilizando la Proposición 82, el control óptimo por realimentación lineal
es  
x
u∗ (t) = −R−1 B T P ,
y
siendo la matriz simétrica
 
p11 p12
P = ,
p12 p22
solución de la ecuación matricial algebraica de Riccati
P BR−1 B T P − AT P − P A − Q = 0 .
Es fácil comprobar que dicha ecuación es
   
2[p11 + 5p211 − p12 ] p12 + 10p11 p12 − p22 0 0
= ,
p12 + 10p11 p12 − p22 −1 + 10p212 0 0
dando lugar a la solución

1
 √ ! ⎞
−1 + 1 + 2 10 √1
⎜ 10 & 10
. ⎟
P =⎝ ⎠ .
√1 1
+ 2
10 10 5

En definitiva, el control óptimo por realimentación lineal es


. 
√ √
u∗ (t) = 1 − 1 + 2 10 x − 10y .
9.5 Problemas resueltos 107

4. Considerar un sistema regido por la ecuación ẍ = u(t), con |u(t)| ≤ 1.


Calcular la expresión de u(t) que minimiza el tiempo T que tarda el sistema
en llegar al estado (x(T ), ẋ(T )) = (0, 0) y su interpretación geométrica
dependiendo de las condiciones iniciales x(0) y ẋ(0).
Solución. Pasamos la ecuación de segundo orden ẍ = u(t) a un sistema
de primer orden con el cambio habitual, es decir,

ẋ = y , ẏ = u(t) . (9.38)

Como se tiene un problema de tiempo óptimo, para aplicar el Principio


del máximo de Pontryagin tomaremos el Hamiltoniano (9.31) dado por

H = λ 1 y + λ2 u , (9.39)

donde λi verifican las ecuaciones (9.29), es decir, λ̇1 = −∂H/∂x, λ̇2 =


−∂H/∂y. En nuestro caso se tiene

λ̇1 = 0 , λ̇2 = −λ1 , (9.40)

de modo que, integrando estas ecuaciones respecto del tiempo se obtiene

λ1 (t) = c1 , λ2 (t) = c2 − c1 t ,

siendo ci constantes reales.


Teniendo en cuenta que |u(t)| ≤ 1, el control óptimo u∗ (t) que verifica la
condición (9.30) de maximizar el Hamiltoniano (9.39) viene dado por la
función continua a trozos

−1 si λ2 < 0 ,
u∗ (t) = sign λ2 (t) = (9.41)
1 si λ2 > 0 .

Este tipo de controles u∗ (t) se conocen en la literatura como bang–bang


por motivos obvios. Como u∗ (t) = sign(c2 − c1 t) es el signo de una fun-
ción lineal del tiempo, está claro que como mucho el control óptimo u∗
tendrá una discontinuidad en el intervalo 0 ≤ t ≤ T .

Estudiemos las trayectorias en el plano x − y de las fases o de estados para


el sistema (9.38) dependiendo del control utilizado.
Si u(t) = 1, el sistema (9.38) es ẋ = y, ẏ = 1. Eliminando el tiempo
se tiene dx/dy = y que es una ecuación de variables separables. Se
tiene en definitiva que las trayectorias del sistema vienen dadas por
las parábolas
x = y 2 /2 + α , (9.42)
con α una constante arbitraria. Además, como ẏ = 1 > 0 está claro
que y(t) es una función creciente y por lo tanto se sabe cómo se
recorre la parábola (9.42), ver Figura 9.1.
108 Control Óptimo

Figura 9.1: Trayectorias parabólicas con control u(t) = 1.

Si u(t) = −1, el sistema (9.38) es ẋ = y, ẏ = −1 o, equivalentemente


dx/dy = −y. Integrando esta ecuación se halla que las trayectorias
del sistema vienen dadas por las parábolas

x = −y 2 /2 + β , (9.43)

con β una constante arbitraria. Además, como ẏ = −1 < 0 se tiene


que y(t) es una función decreciente y, en consecuencia queda claro el
sentido en que se recorre la parábola (9.43), ver Figura 9.2.

Figura 9.2: Trayectorias parabólicas con control u(t) = −1.


9.5 Problemas resueltos 109

Se tienen pues las siguientes posibilidades en la secuencia de control a


aplicar dependiendo de las condiciones iniciales (x(0), y(0)) = (x0 , y0 ) ∈
R2 del sistema.

Si el control óptimo u∗ (t) tiene la secuencia temporal



∗ 1 si 0 ≤ t ≤ t1 < T ,
u (t) =
−1 si t1 < t ≤ T ,

la trayectoria óptima (x∗ (t), y ∗ (t)) ∈ R2 con 0 ≤ t ≤ T que sigue


el sistema (9.38) viene dada por una porción de la parábola (9.42)
que pase por el punto inicial (x0 , y0 ) seguido de otra porción de la
parábola (9.43) que pase por el origen de coordenadas, ver Figura
9.3.

Figura 9.3: Trayectorias parabólicas con control bang–bang inicial u(t) = 1


y posterior u(t) = −1. La trayectoria óptima con condición inicial (x0 , y0 )
está doblemente marcada.

Si el control óptimo u∗ (t) tiene la secuencia temporal



−1 si 0 ≤ t ≤ t1 < T ,
u∗ (t) =
1 si t1 < t ≤ T ,

la trayectoria óptima (x∗ (t), y ∗ (t)) ∈ R2 con 0 ≤ t ≤ T que sigue


el sistema (9.38) viene dada por una porción de la parábola (9.43)
que pase por el punto inicial (x0 , y0 ) seguido de otra porción de la
parábola (9.42) que pase por el origen de coordenadas, ver Figura
9.4.
110 Control Óptimo

Figura 9.4: Trayectorias parabólicas con control bang–bang inicial u(t) = −1


y posterior u(t) = 1. La trayectoria óptima con condición inicial (x0 , y0 )
está doblemente marcada.

Si el control óptimo no tiene discontinuidades y es u∗ (t) = 1 sig-


nifica que se ha dado la casualidad de que el punto inicial (x0 , y0 )
está incluido en la semi–parábola (9.42) que pasa por el origen de
coordenadas cuando el tiempo evoluciona, ver Figura 9.5.

Figura 9.5: Trayectoria parabólica con control u(t) = 1.

Si el control óptimo es de la forma u∗ (t) = −1 significa que el punto


inicial (x0 , y0 ) está contenido en la semi–parábola (9.43) que pasa por
el origen de coordenadas cuando avanza el tiempo, ver Figura 9.6.

Figura 9.6: Trayectoria parabólica con control u(t) = −1.

5. Consideremos un oscilador armónico de frecuencia natural w0 = 1 sobre


el que actúa una fuerza u(t) con |u(t)| ≤ 1. Calcular la fuerza u(t) que
hay que aplicar de modo que el oscilador sea transferido al estado final de
9.5 Problemas resueltos 111

posición y velocidad nula en el mı́nimo tiempo posible. Interpretar geomé-


tricamente el resultado en función de la posición y velocidad inicial del
oscilador.
Solución. Sea x(t) la posición en función del tiempo del oscilador. Se sabe
que el sistema está regido por la ecuación de segundo orden ẍ+w02 x = u(t).
Tomando w0 = 1 y pasando con el cambio habitual al plano de las fases
se tiene
ẋ = y , ẏ = −x + u(t) . (9.44)
Como se tiene un problema de tiempo óptimo, el Principio del máximo de
Pontryagin será aplicado con el Hamiltoniano (9.31) dado por

H = λ1 y + λ2 (−x + u) , (9.45)

donde λi verifican las ecuaciones λ̇1 = −∂H/∂x, λ̇2 = −∂H/∂y. En nues-


tro caso se tiene
λ̇1 = λ2 , λ̇2 = −λ1 , (9.46)
de modo que las variables auxiliares λi verifican la ecuación de un oscilador
armónico. Se tiene pues que

λ2 (t) = A sin(t − φ) ,

siendo A > 0 y φ constantes reales (la amplitud y la fase respectivamente).


Teniendo en cuenta que |u(t)| ≤ 1, el control óptimo u∗ (t) que maximiza
el Hamiltoniano (9.45) viene dado por la función continua a trozos

u∗ (t) = sign [λ2 (t)] = sign [sin(t − φ)] ,

o de forma equivalente

∗ −1 si (2k + 1)π ≤ t − φ ≤ (2k + 2)π , k ∈ N ∪ {0} ,
u (t) =
1 si 2kπ ≤ t − φ ≤ (2k + 1)π , k ∈ N ∪ {0} .
(9.47)
Se tiene pues un control u∗ (t) de tipo bang–bang donde las discontinuidades
tienen lugar cada intervalo de tiempo π.

Estudiemos las trayectorias en el plano x − y de las fases o de estados para


el sistema (9.44) dependiendo del control u(t) = u∗ (t) utilizado.

Si u(t) = 1, el sistema (9.44) es ẋ = y, ẏ = −x + 1. Eliminando


el tiempo se tiene dx/dy = y/(−x + 1) que es una ecuación de vari-
ables separables. Se tiene en definitiva que las trayectorias del sistema
vienen dadas por
(x − 1)2 + y 2 = R2 , (9.48)
con R una constante arbitraria. Dicho de otro modo, las trayecto-
rias óptimas son circunferencias de radio R centradas en el punto
112 Control Óptimo

0.5

X
0.5 1 1.5 2

-0.5

-1

Figura 9.7: Trayectorias circulares (x − 1)2 + y 2 = R2 con control u(t) = 1.

(x, y) = (1, 0). Además, es fácil ver que las circunferencias (9.48) son
recorridas (según avanza el tiempo) en el sentido de las agujas del
reloj con un periodo de 2π. En particular, una semicircunferencia se
recorre en el tiempo π, ver Figura 9.7.
De forma totalmente análoga al caso anterior, si u(t) = −1, el sistema
(9.44) es ẋ = y, ẏ = −x + −1, es decir, dx/dy = y/(−x − 1) de modo
que las trayectorias del sistema vienen dadas por

(x + 1)2 + y 2 = R2 , (9.49)

con R una constante arbitraria. Ası́, las trayectorias óptimas son


circunferencias de radio R centradas en el punto (x, y) = (−1, 0).
Además, al igual que en el caso anterior, las circunferencias (9.49)
son recorridas en el sentido de las agujas del reloj, donde una semi-
circunferencia es recorrida en tiempo π, ver Figura 9.8.
Y

0.5

X
-2 -1.5 -1 -0.5

-0.5

-1

Figura 9.8: Trayectorias circulares (x + 1)2 + y 2 = R2 con control u(t) = −1.


9.5 Problemas resueltos 113

Veamos cómo son las trayectorias óptimas de este problema dependien-


do de las condiciones iniciales (x(0), y(0)) = (x0 , y0 ) ∈ R2 del sistema.
Tomaremos el tiempo t1 de modo que el sistema se encuentre en el estado
final, en nuestro caso (x(t1 ), y(t1 )) = (0, 0).

Supongamos que el último tramo del control óptimo u∗ corresponde


al valor u∗ = 1. Geométricamente, durante este último intervalo de
tiempo, el sistema evoluciona hacia el origen por la circunferencia
(9.48) de radio R = 1 partiendo de un punto que denotaremos por A
y está localizado en el IV cuadrante. Por supuesto, como es el tramo
final y por lo tanto u∗ ya no vuelve a cambiar, el sistema llega sobre
esa circunferencia al origen habiendo recorrido un arco inferior a la
semicircunferencia.
El sistema habrá llegado al punto A desplazándose, durante un inter-
valo de tiempo π y bajo la acción del control u∗ = −1, por la semi-
circunferencia (9.49) de extremo final A. Llamemos B al extremo
inicial de dicha semicircunferencia que, obviamente, estará en el II
cuadrante. Notar que, el punto B es el simétrico de A respecto del
punto (−1, 0).
De forma análoga, la porción de trayectoria óptima anterior a la BA,
llamémosla CB, consiste en la semicircunferencia (9.48) que pasa
por el punto B y el sistema evoluciona en ella durante un tiempo π.
Por supuesto, el punto C estará situado en el IV cuadrante y es el
simétrico de B respecto del punto (1, 0).
Esta construcción geométrica continua hasta que la trayectoria ópti-
ma pase por el punto inicial (x0 , y0 ), ver Figura 9.9.

X
-3 -2 -1 1 2

-1

-2

-3

-4

Figura 9.9: Una trayectoria óptima con el control final u = 1, compuesta de tres
arcos de circunferencias
114 Control Óptimo

Supongamos ahora que el último tramo del control óptimo u∗ cor-


responde al valor u∗ = −1. Geométricamente, durante este último
intervalo de tiempo, el sistema evoluciona hacia el origen por la cir-
cunferencia (9.49) de radio R = 1 partiendo de un punto que deno-
taremos por A y está localizado en el II cuadrante. Por supuesto,
como es el tramo final y por lo tanto u∗ ya no vuelve a cambiar, el
sistema llega sobre esa circunferencia al origen habiendo recorrido un
arco inferior a la semicircunferencia.
El sistema habrá llegado al punto A desplazándose, durante un in-
tervalo de tiempo π y bajo la acción del control u∗ = 1, por la semi-
circunferencia (9.48) de extremo final A . Llamemos B  al extremo
inicial de dicha semicircunferencia que, obviamente, estará en el IV
cuadrante. Notar que, el punto B  es el simétrico de A respecto del
punto (1, 0).
De forma análoga, la porción de trayectoria óptima anterior a la B  A ,
llamémosla C  B  , consiste en la semicircunferencia (9.49) que pasa
por el punto B  y el sistema evoluciona en ella durante un tiempo π.
Por supuesto, el punto C  estará situado en el II cuadrante y es el
simétrico de B  respecto del punto (−1, 0).
Esta construcción geométrica continua hasta que la trayectoria ópti-
ma pase por el punto inicial (x0 , y0 ), ver Figura 9.10.

X
-1 1 2 3

-1

-2

Figura 9.10: Una trayectoria óptima con el control final u = −1, compuesta de
tres arcos de circunferencias
Capı́tulo 10

Prácticas

Este capı́tulo está compuesto de varias prácticas propuestas donde se aplica


la teorı́a introducida a lo largo del libro a problemas de diferente naturaleza.

10.1. Control de la temperatura de una cámara


Consideremos el problema de controlar la temperatura Tc en una cámara. El
objetivo consiste en analizar un controlador que regule, mediante una válvula,
la cantidad de calor que se debe introducir en la cámara conociendo la tem-
peratura de esta mediante un termómetro de mercurio (Hg) introducido en la
cámara y contenido en un tubo de cristal de vidrio. Por supuesto, la temperatu-
ra de la cámara está influenciada por la temperatura ambiente Ta del entorno.
Supongamos además que la variable que puede ser medida es la altura h de la
columna de Hg.

Definamos los siguientes flujos de calor:

qa es el flujo de calor de la cámara al ambiente.

qcr es el flujo de calor de la cámara al crital del termómetro.

qHg es el flujo de calor del cristal hacia el mercurio.

Definamos también las siguientes temperaturas:

Tc es la temperatura de la cámara.

Ta es la temperatura ambiente.

Tcr es la temperatura del cristal del termómetro.

THg es la temperatura del mercurio del termómetro.

Consideremos las siguientes magnitudes geométricas:

115
116 Prácticas

Acr es el área interna del cristal del termómetro.

Vcr es el volumen del cristal del termómetro.

VHg es el volumen del mercurio.

Supongamos que la válvula puede ser regulada mediante un control u(t) de


modo que, la cantidad de calor q(t) que se introduce en la cámara viene dada
por
q(t) = a0 u(t) .
Supongamos válidas las siguientes ecuaciones de transferencia de calor

qa = a1 (Ta − Tc ) , qcr = a2 (Tc − Tcr ) , qHg = a3 (Tcr − THg ) ,


dTc dTcr dTHg
= b1 (qa + q) , = b2 (qcr − qHg ) , = b3 qHg ,
dt dt dt
y las siguientes relaciones de proporcionalidad debidas a las dilataciones por las
temperaturas
2 3 3
Acr = c1 Tcr , Vcr = c2 Tcr , VHg = c3 THg .
La altura h de la columna de mercurio viene dada por

VHg − Vcr
h= .
Acr

Se supone que los parámetros ai , bj y cj con i = 0, 1, 2, 3 y j = 1, 2, 3


son constantes positivas que dependen de la geometrı́a y las propiedades de los
materiales. Además, en un buen termómetro se verificará c2 > c3 .

10.1.1. Realización de la práctica


1. Hallar las ecuaciones del sistema tomando como variables de estado Tc −Ta ,
Tcr − Ta y THg − Ta , siendo la variable de control u y Ta un parámetro
constante.

2. Demostrar que si no se ejerce ningún control sobre el sistema (es decir


u = 0), entonces el único punto de equilibrio x∗ del sistema corresponde
al equilibrio termodinámico Tc = Tcr = THg = Ta y además es asintótica-
mente estable en concordancia con el principio cero de la termodinámica.

3. ¿Es el sistema completamente controlable para todo valor de ai , bi ?

4. Hallar el control u(t) de modo que el sistema evolucione desde el estado


inicial (Tc (0), Tcr (0), THg (0)) = (10, 25, 15) hasta un estado final dado por
(Tc (10), Tcr (10), THg (10)) = (20, 25, 25) minimizando la cantidad de calor
 10
introducida en la cámara, es decir, minimizando 0 u2 (t) dt.
Datos: Ta = 20, a0 = 1, a1 = 2, a2 = 3, a3 = 4, b1 = 1, b2 = 2, b3 = 3.
10.2 Dinámica de satélites de comunicación 117

10.2. Dinámica de satélites de comunicación


El principal objetivo en la dinámica de un satélite de comunicación consiste
en que dicho satélite permanezca en una posición que sea fija respecto de un
cierto punto estratégico de la Tierra. Este tipo de satélites se conocedn como
geoestacionarios. Se utilizan, por ejemplo, en comunicación telefónica, de tele-
visión, navegación de barcos y aviones, predicción del tiempo, etc...

En un principio, una órbita geoestacionaria puede ser obtenida mediante la


fuerza que ejercen los motores instalados en el satélite. Sin embargo, de este
modo, el consumo energético de estos motores serı́a continuo y no deseable.
Surgen de este modo las siguientes preguntas:

¿Existe una orbita geoestacionaria para el satélite aunque los motores


estén parados? Supondremos en este caso, para simplificar, que la única
fuerza externa que actúa sobre el satélite es la gravitatoria que ejerce la
Tierra.

¿Es esta órbita estable?

Si no es estable dicha órbita, ¿qué controles mantienen el satélite en dicha


órbita?

Figura 10.1: La dinámica de un satélite terrestre.

10.2.1. Un modelo matemático para la dinámica de satélites


Supondremos que sobre el satélite actúan las siguientes fuerzas:

La fuerza inercial Fin debida al sistema de referencia no inercial.

La fuerza gravitacional Fg debida a la atracción de la Tierra.

La fuerza Fm ejercida por los motores. Esta será la variable de control.
118 Prácticas

La fuerzas perturbativas Fp ejercidas por la Luna, el Sol, el viento so-


lar, etc... Estas fuerzas son perturbativas y el objetivo de los controles
será precisamente compensar sus efectos.
La posición del satélite es descrita mediante las coordenadas esféricas (r, φ, θ),
siendo r la distancia entre el centro de la Tierra y el centro de masas del satélite.
De este modo, si tomamos un sistema de coordenadas cartesianas (x, y, z) con
origen en el centro de la Tierra y siendo el plano x − y el plano ecuatorial se
tiene
x = r cos φ cos θ , y = r cos φ sin θ , z = r sin φ .
Estudiaremos la dinámica del satélite proyectada sobre el plano ecuatorial
x − y. En dicho plano, denotamos por er y eθ a los vectores unitarios en las
direcciones radial y tangencial. De este modo r = rer . Se sabe que der /dt =
dθ/dteθ y deθ /dt = −dθ/dter . De este modo
dr dr dθ
= er + r eθ ,
dt dt
 dt
 2 "  2 
d2r 2
d r dθ d θ dr dθ
= − r 
e r + r + 2 eθ .
dt2 dt2 dt dt2 dt dt

Aplicando las leyes de la dinámica clásica de Newton, la fuerza inercial Fin viene
dada por
  2 "  2 
d2r d2 r dθ d θ dr dθ
m 2 =m −r er + m r 2 + 2 eθ ,
dt dt2 dt dt dt dt

siendo m la masa del satélite. Por otra parte, la fuerza gravitacional Fg es
m
Fg = −k 2 er ,
r
siendo k = 4 × 104 m3 /s2 el producto de la masa de la Tierra y la constante de
gravitación universal. Además, definimos
Fp = pr er + pθ eθ , Fm = ur er + uθ eθ ,
siendo ur y uθ las variables de control. En el sistema de referencia no inercial
solidario al satélite la fuerza total que actúa sobre el satélite es nula de manera
que
  2 "  2 
d2 r dθ d θ dr dθ m
m − r 
e r + m r + 2 eθ + k 2 er = Fm + Fp .
dt2 dt dt2 dt dt r

Igualando las componentes tangencial y radial en la anterior igualdad se obtiene


 2
d2 r dθ k ur pr
2
= r − 2+ + , (10.1)
dt dt r m m
d2 θ 2 dr dθ uθ pθ
2
= − + + . (10.2)
dt r dt dt rm rm
10.3 El péndulo doble invertido 119

10.2.2. Realización de la práctica


1. Supongamos que los motores están parados y que se desprecia la fuerza
perturbativa Fp . Demostrar que existe una trayectoria circular geoesta-
cionaria para el satélite. Hallar el radio R de dicha trayectoria.
2. Introducir el cambio de variable θ(t) → ξ(t) = θ(t) − Ωt, siendo Ω la
velocidad angular de la Tierra. Reescribir las ecuaciones del movimiento
(10.1) y (10.2) del satélite con las variables (r, ξ). Verificar que (r∗ , ξ ∗ ) =
(R, 0) es un punto de equilibrio del sistema cuando los motores están
parados y que se desprecia la fuerza perturbativa Fp .
3. Hallar el sistema de control lineal asociado al satélite en un entorno del
anterior punto equilibrio si se desprecia la fuerza perturbativa Fp .
4. ¿Es el anterior sistema linearizado completamente controlable?
5. Supongamos que uθ ≡ 0, es decir, el motor sólo puede actuar sobre el
satélite en la dirección radial. ¿Es posible hallar, en el sistema lineariza-
do del apartado 3, un control por realimentación lineal de modo que el
conjunto de valores propios en lazo cerrado sea el que deseemos?

10.3. El péndulo doble invertido


Consideremos un péndulo doble invertido montado sobre el centro de masas
de un carrito que puede desplazarse sobre una recta horizontal. Definimos las
siguientes magnitudes.
m es la masa del carrito.
m1 y m2 son las masas de los dos péndulos.
1 y 2 son las longitudes de los dos péndulos.
Definimos las variables siguientes.
u es la fuerza externa horizontal que actúa sobre el carrito.
q es la posición del centro de masas del carrito.
θ1 y θ2 son los ángulos de los dos péndulos respecto de la vertical.
Es fácil demostrar que la energı́a cinética K y la energı́a potencial U del
sistema viene dada por
$ %2 $ %2 
1 1
K = mẋ2 + m1 q̇ + 1 θ̇1 cos θ1 + 1 θ̇1 sin θ1
2 2
$ %2
1
+ m2 q̇ + 1 θ̇1 cos θ1 + 2 θ̇2 cos(θ1 + θ2 )
2
$ %2 
+ 1 θ̇1 sin θ1 + 2 θ̇2 sin(θ1 + θ2 ) ,

U = m1 g1 cos θ1 + m2 g[1 cos θ1 + 2 cos(θ1 + θ2 )] .


120 Prácticas

Figura 10.2: El péndulo doble invertido.

Utilizando el Lagrangiano del sistema L = K−U , las ecuaciones del movimien-


to se obtienen mediante las ecuaciones de Euler-Lagrange
d ∂L ∂L d ∂L ∂L d ∂L ∂L
− =u, − =0, − =0.
dt ∂ q̇ ∂q ˙
dt ∂ θ1 ∂θ1 ˙
dt ∂ θ2 ∂θ2
Desarrollando estas ecuaciones se obtienen las siguientes ecuaciones del movi-
mento del doble péndulo invertido
u = −(1 m1 + 1 m2 )(θ̇1 )2 sin θ1 − 2 m2 θ̇1 θ̇2 sin(θ1 + θ2 )
−2 m2 (θ̇2 )2 sin(θ1 + θ2 ) + (m + m1 + m2 )q̈ (10.3)
+(1 m1 + 1 m2 )θ̈1 cos θ1 + 2 m2 θ̈2 cos(θ1 + θ2 ) ,
0 = −g1 (m1 + m2 ) sin θ1 − g2 m2 sin(θ1 + θ2 ) + 2 m2 q̇ θ̇2 sin(θ1 + θ2 )
−1 2 m2 (θ̇2 )2 sin θ2 + (1 m1 + 1 m2 )q̈ cos θ1 + 21 (m1 + m2 )θ̈1 (10.4)
+1 2 m2 θ̈2 cos θ2 ,
0 = −g2 m2 sin(θ1 + θ2 ) − 2 m2 q̇ θ̇1 sin(θ1 + θ2 ) + 2 m2 q̈ cos(θ1 + θ2 )
+1 2 m2 θ̈1 cos θ2 + 22 m2 θ̈2 . (10.5)

10.3.1. Realización de la práctica


1. Utilizar las variables de estado
x = (x1 , x2 , x3 , x4 , x5 , x6 )T = (q, θ1 , θ2 , q̇, θ̇1 , θ̇2 )T ∈ R6
y reescribir las ecuaciones del movimiento como un sistema de primer
orden de la forma ẋ = f (x; u).
2. Demostrar que x∗ = (q ∗ , θ1∗ , θ2∗ , q̇ ∗ , θ̇1∗ , θ̇2∗ ) = (0, 0, 0, 0, 0, 0) es un punto
crı́tico del sistema para u = u∗ = 0. Darle un significado fı́sico.
3. Obtener el sistema de control lineal asociado al péndulo doble invertido
en un entorno del punto crı́tico (x∗ ; u∗ ).
10.4 Estabilidad en el péndulo cónico 121

4. Averiguar para qué valores de los parámetros m, m1 , m2 , 1 y 2 es el


anterior sistema linearizado completamente controlable.

5. Se pretende estabilizar el sistema linearizado usando realimentación lineal.


Hallar dicha realimentación de modo que los valores propios de la matriz
del sistema en lazo cerrado sean ρi = −i, con i = 1, 2, 3, 4, 5, 6. Notar
que todos los valores propios tienen parte real negativa y por lo tanto se
estabiliza el sistema hacia x∗ .

10.4. Estabilidad en el péndulo cónico


Consideremos un péndulo de masa m y longitud  sometido a un campo
gravitatorio de intensidad constante g y suspendido de un punto fijo O. La
posición de la masa m queda determinada a través de los ángulos θ y φ.

θ es el ángulo que forma el péndulo respecto de la vertical que pasa por el


punto O.

φ es un ángulo formado por dos rectas contenidas en el plano horizontal


donde se encuentra la masa m. Una recta de referencia con dirección fija
y la recta que pasa por m y es perpendicular al eje vertical que pasa por
O.

Figura 10.3: (a) El péndulo cónico con su masa realizando una trayectoria cir-
cular uniforme. (b) Otra trayectoria cercana a la anterior.

Es fácil demostrar que la energı́a cinética K y la energı́a potencial U del


sistema viene dada por

1 2 2 ˙ 2 sin2 θ] ,
K = m [θ̇ + phi
2
U = mg[1 − cos θ] .
122 Prácticas

Utilizando el Lagrangiano del sistema L = K −U , las ecuaciones del movimiento


se obtienen mediante las ecuaciones de Euler-Lagrange
d ∂L ∂L
− = 0 , q = θ, φ .
dt ∂ q̇ ∂q
Desarrollando estas ecuaciones se obtienen las siguientes ecuaciones del movi-
mento del péndulo cónico
g
θ̈ = − sin θ + φ̇2 sin θ cos θ , (10.6)

φ̈ = −2θ̇φ̇ cot θ . (10.7)

10.4.1. Realización de la práctica


1. Utilizar las variables de estado
x = (x1 , x2 , x3 )T = (θ, θ̇, φ̇)T ∈ R3
y reescribir las ecuaciones del movimiento como un sistema de primer
orden de la forma ẋ = f (x).
2. Supongamos que la masa m describe un trayectoria circular en un plano
horizontal a velocidad angular w constante cuando el péndulo tiene un
ángulo θ = α constante. Averiguar qué relación deben verificarse entre w
y α para que dicho movimiento sea posible.
3. Demostrar que x∗ = (θ, θ̇, φ̇) = (α, 0, w) es un punto crı́tico del péndulo
cónico si se verifica la condición obtenida en el apartado anterior.
4. Realizar una traslación de coordenadas de modo que el punto crı́tico x∗
se traslade al punto crı́tico y ∗ = 0 ∈ R3 en las nuevas coordenadas. ¿Es
posible estudiar la estabilidad del origen por linearización bajo la condición
del apartado 2?
5. Calculando derivadas orbitales, demostrar que el péndulo cónico tiene las
siguientes constantes del movimiento
2g
H1 (y1 , y2 , y3 ) = [y22 + (y3 + w)2 sin2 (y1 + α)] − cos(y1 + α) ,

H2 (y1 , y2 , y3 ) = (y3 + w) sin2 (y1 + α) .
Nota: Dichas constantes del movimiento provienen fı́sicamente de la con-
servación de la energı́a y del momento angular.
6. Hallar un valor de la constante λ ∈ R de modo que la función
V (y1 , y2 , y3 ) = H1 (y1 , y2 , y3 ) − H1 (0, 0, 0) + λ[H2 (y1 , y2 , y3 ) − H2 (0, 0, 0)] ,
sea una función de Liapunov en un entorno del origen cuando se verifica
la relación del apartado 2. ¿Qué se puede concluir sobre la estabilidad del
movimiento del péndulo cónico del apartado 2?
10.5 Un modelo de grúa con servomecanismo y regulador 123

10.5. Un modelo de grúa con servomecanismo y


regulador
Un modelo simple de grúa consiste en tomar una masa m1 realizando un
movimiento rectilı́neo que representa el punto de suspensión de un péndulo sim-
ple de longitud  y masa m2 . Se requiere que el punto de suspensión donde
está m1 se traslade desde su posición inicial hasta su posición final de modo que
las oscilaciones del péndulo sean mı́nimas.

Tomemos las siguientes coordenadas del sistema grúa con dos grados de
libertad:
x(t) ∈ R posición en función del tiempo de la masa m1 a lo largo de un
eje horizontal.
θ(t) será el ángulo respecto de la vertical en función del tiempo que forma
el péndulo.
Utilizando el Lagrangiano del sistema grúa L = K − U , siendo K y U la
energı́a cinética y potencial del sistema respectivamente, es fácil mostrar que
1 1
L(x, ẋ, θ, θ̇) = (m1 + m2 )ẋ2 + m2 2 θ̇2 cos2 θ + m2 ẋθ̇ cos θ + m2 g cos θ .
2 2
Mediante las ecuaciones de Euler-Lagrange
d ∂L ∂L d ∂L ∂L
− = u(t) , − =0,
dt ∂ ẋ ∂x dt ∂ θ̇ ∂θ
siendo u(t) la fuerza horizontal aplicada a la masa m1 , se obtienen las siguientes
ecuaciones del movimento de la grúa

u = (m1 + m2 )ẍ + m2 (θ̈ cos θ − θ̇2 sin θ) , (10.8)


0 = θ̈ + ẍ cos θ + g sin θ . (10.9)

Si suponemos que el péndulo realiza pequen̄as oscilaciones, es decir, sin θ ≈ θ


y cos θ ≈ 1, y además su velocidad angular es pequen̄a con lo cual θ̇ ≈ 0, entonces
las ecuaciones del movimiento se linearizan de la forma
m2
u = m2 θ̈ + ẍ , (10.10)
µ
0 = θ̈ + ẍ + gθ , (10.11)

siendo µ := m2 /(m1 + m2 ).

10.5.1. Realización de la práctica


1. Escribir las ecuaciones (10.10) y (10.11) de la grúa en la forma de sistema
de control lineal ẏ = Ay + bu tomando como variables de estado y =
(θ, θ̇, x, ẋ)T ∈ R4 .
124 Prácticas

2. Se desea que el puente de la grúa donde está m1 se desplace desde el


origen de coordenadas en el eje x hasta una distancia D en un tiempo
t1 . Además, en el inicio y el fin del movimiento se supone velocidad nula.
Suponiendo una ley polinomial para el movimiento de referencia z(t) de
m1 , hallar un polinomio de grado mı́nimo adecuado.

3. El sistema de grúa se compone de un servomecanismo (se desea que m1


se mueva según x(t) siguiendo lo más cerca posible a z(t)) y un regulador
(se quiere que el péndulo tenga mı́nima oscilación de modo que se quiere
mantener θ y θ̇ tan próximo a cero como se pueda). De este modo, se
puede tomar la sen̄al de referencia r(t) para el sistema lineal del apartado
1 como r(t) = (0, 0, z(t), ż(t))T ∈ R4 y el siguiente ı́ndice de actuación
para minimizar

1 1 t1 T
J(u, x) = ∆T (t1 )M ∆(t1 ) + [∆ (t)Q∆(t) + αu2 (t)] dt ,
2 2 0

siendo ∆(t) = y(t) − r(t) ∈ R4 , α ∈ R un parámetro, M, Q ∈ M4 (R)


simétricas y definidas positivas. Calcular el control óptimo u∗ (t) por real-
imentación lineal y la trayectoria óptima y ∗ (t). Utilizar para las integra-
ciones numéricas de ecuaciones diferenciales o bien el método RK4 con
longitud de paso h = 0,1 o directamente el comando N DSolve[] del pro-
grama Mathematica.
Datos: t1 = 20, D = 6,  = 10, m1 = m2 = 1. Tomar, para simplificar
cálculos, las matrices identidad M = Q = I4 y α = 1.

4. A la vista de los resultados del apartado anterior, dar las gráficas del
control óptimo u∗ (t), la de las superposiciones de la posición x(t) y la
velocidad ẋ(t) de m1 con la sen̄al de referencia z(t) y ż(t) y finalmemte la
del ángulo θ(t).

5. Según las gráficas del apartado anterior, decir si son verdaderas o falsas
las siguientes afirmaciones:

Esencialmente, se empuja a m1 en la dirección positiva del eje x


durante la mitad del recorrido y se frena despues.
Durante la fase en que m1 es acelerada, m2 queda detrás y en la
segunda fase en que m2 se frena entonces m2 adelanta a m1 .

6. Sea P (t) = (pij ) ∈ M4 (R) la matriz que satisface la ecuación diferencial


matricial de Riccati asociada al problema
. de optimización. Dada la norma
de P (t) definida como P (t) = 2
i,j pij (t), mostrar gráficamente que
se mantiene prácticamente constante durante una larga parte del recorri-
do óptimo de la gúa. Esto justifica que, en muchas ocasiones se sustituya
la ecuación diferencial matricial de Riccati por la ecuación matricial al-
gebraica de Riccati aunque el proceso sea controlado durante un tiempo
finito.
10.6 El regulador centrı́fugo de Watt 125

10.6. El regulador centrı́fugo de Watt


El regulador centrı́fugo, ideado por Watt a finales del siglo XVIII para ser
utilizado en las máquinas de vapor, fue uno de los primeros mecanismos
utilizados para el control automático.

Figura 10.4: El regulador centrı́fugo de Watt.

El regulador centrı́fugo consiste en una barra vertical S que gira sobre


su propio eje. En su extremos superior hay dos varillas articuladas L1 y
L2 de la misma longitud y con una masa m de carga en cada uno de
sus extremos libres. L1 y L2 se encuentran en el mismo plano vertical
que S y sólo pueden separarse de su posición de equilibrio de forma si-
multánea y formando el mismo ángulo ϕ respecto de la vertical S. En este
deslazamiento las varillas ponen en movimiento, mediante articulaciones,
un manguito M colocado sobre la barra S.
Consideremos una de las masas m. Según la geometrı́a descrita anteri-
ormente, dicha masa se desplazará sobre una esfera de radio la longitud
de una varilla. Tomaremos dicha longitud como la unidad de longitud de
modo que, tomando el origen de coordenadas en el punto de unión entre
la barra S y las varillas L1 y L2 , siendo el eje z en la dirección de la barra
S y con sentido positivo hacia abajo, la posición en función del tiempo
(x(t), y(t), z(t)) de la carga m viene dada, en coordenadas esféricas, por
(1, θ(t), ϕ(t)), siendo

x = sin ϕ cos θ , y = sin ϕ sin θ , z = cos ϕ .

Las fuerzas que actúan sobre m son básicamente las siguientes:

El peso FP = mg siendo g la gravedad supuesta constante.


Una fuerza de tensión FT que mantiene m sujeta a la varilla.
126 Prácticas

Una fuerza de rozamiento Fr debida a los engranajes de la varilla que


se opone a la variación de ángulo ϕ de modo que su módulo se puede
tomar Fr = k ϕ̇ siendo k una constante positiva.
Una fuerza, llamemosla FB , responsable del giro del regulador sobre
su eje.
Aplicando la segunda ley de Newton, es fácil ver que se verifica la siguiente
ecuación
mϕ̈ = mθ̇ 2 sin ϕ cos ϕ − mg sin ϕ − k ϕ̇ .

Por otra parte, la máquina de vapor es, simplificando, un volante con un


momento de inercia J que se mueve debido a la fuerza del vapor y es capaz
de realizar un trabajo, por ejemplo mover un peso. Si denotamos por P1
el momento que realizan las fuerzas del vapor sobre el volante y por P
el momento de dicho peso, utilizando las leyes de la mecánica clásica y
en particular las del sólido rı́gido se tiene que J ẇ = P1 − P , siendo w la
velocidad angular del volante.

El volante de la máquina está conectado a la barra vertical S del reg-


ulador mendiante engranajes de modo que existe una relación constante
θ̇ = nw entre las velocidades angulares θ̇ y w de la barra y el volante
respectivamente.
Además, el mangito M del regulador está conectado a la válvula que
administra el vapor de modo que P1 = F1 +c cos ϕ, siendo F1 y c constantes
positivas.
El momento P1 depende de la obertura que tenga la válvula que regula
la entrada de vapor. El regulador centrı́fugo funciona de la manera sigu-
iente: si la velocidad angular w del volante es muy alta, la barra S gira
muy rápido y, debido a la fuerza centrı́fuga, las varillas L1 y L2 se abren
un ángulo ϕ superior lo cual hace que la obertura de la válvula disminuya
y la cantidad de vapor que entra en la máquina decrezca. Si, por el con-
trario, la velocidad angular del volante w disminuye el efecto contrario es
proporcionado.

Según lo descrito anteriormente, parece natural esperar que la velocidad


angular w del volante tienda a estabilizarse, y de hecho ası́ ocurrió hasta
mediados del siglo XIX. No fue hasta que el ingeniero ruso Vichnegradski
(1876) solventó el problema de dicha inestabilidad en un trabajo teórico
que reproducimos a continuación.

10.6.1. Realización de la práctica


a) Tomar las variables de estado (ϕ, Ω, w) con Ω = ϕ̇ y reescribir las
ecuaciones del movimiento del regulador como un sistema de primer
orden.
10.6 El regulador centrı́fugo de Watt 127

b) Si se desea que el regulador cumpla su misión debe funcionar lo más


cercano posible de un punto crı́tico del sistema con ϕ = ϕ∗ constante.
Averiguar si existe dicho punto.
c) Con el paso del tiempo y gracias a las mejoras técnicas, se fueron mod-
ificando diversas magnitudes del regulador. Por un lado, el aumento
de la potencia de las máquinas requerı́a válvulas más pesadas con lo
que m aumentó. La constante de rozamiento k disminuyó debido a
que las piezas estaban cada vez más pulidas. También se redujo el
taman̄o de los volantes y, en consecuencia, J disminuyó. Sin embargo,
paradójicamente, los reguladores funcionaron peor con dichas modi-
ficaciones. Averiguar la causa mediante un análisis de la estabilidad
del punto crı́tico del apartado anterior.
Bibliografı́a

[1] S. Barnet & R.G. Cameron. Introduction to mathematical control the-


ory. Claredon Press. Oxford, 1985.
[2] R.W. Brockett. Finite dimensional linear systems. Wiley, New York,
Dover, 1970.

[3] E.J. Davison & S.H. Wang. I.E.E.E. Trans. Autom. Control, 20, 516.
[4] L. Elsgoltz. Ecuaciones diferenciales y cálculo variacional. Ed. Mir,
Moscou, 1992.
[5] B.C. Kuo. Sistemas de control automático. Prentice Hall, 1996.

[6] H. Kwakernaak & R. Sivan. Linear optimal control theory. Wiley–


Interscience, New York, 1972.

[7] L.S. Pontriaguin. Ecuaciones diferenciales ordinarias. Aguilar, Madrid,


1973.
[8] L.S. Pontriaguin, V. Boltianski, R. Gamkrelidze & E.
Michtchenko. The mathematical theory of optimal processes. Nueva
York: Wiley, 1962.
[9] J.W. Ponlderman & J.C. Willens. Introduction to mathematical sys-
tems theory. Texts in Applied Mathematics 26, Springer.

[10] B. Porter & R. Crossley. Modal control. Taylor and Francis, London,
1972.

[11] H.H. Rosenbrock. State–space and multivariable theory. Nelson, Lon-


don, 1970.

[12] J.L. Willems. Stability theory of dynamical systems. Nelson. London,


1970.

[13] H.H. Wonham. Linear multivariable control: a geometric approach, 2nd


edn. Springer-Verlag. Berlin, 1979.

129

También podría gustarte