Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción Al Control Óptimo
Introducción Al Control Óptimo
1.1
Introducci
on
El control optimo es una rama del control moderno que se relaciona con el dise
no de controladores
para sistemas dinamicos tal que se minimice una funcion de medicion que se denomina ndice de
desempe
no o costo del sistema.
En terminos mas formales, su objetivo principal de la teora de control optimo es determinar las
se
nales de control que causan a un proceso el satisfacer las restricciones fsicas que se tengan y
asimismo minimizar o maximizar segun sea el caso cierto criterio de desempe
no deseado.
La solucion de algunos problemas de control no es posible obtenerla usando metodos de control
clasicos. Esto puede ser ya sea debido a su complejidad, o que se requieran satisfacer ciertos
parametros relacionados con su desempe
no. Un ejemplo tpico de esto es el dise
no de un sistema
de control de altitud para una nave espacial que minimice el gasto de combustible.
El problema de control optimo se puede representar matematicamente en las siguientes partes:
1. La descripcion del proceso a controlar (modelo del sistema).
2. La descripcion de las restricciones fsicas.
3. La descripcion del objetivo buscado.
4. La descripcion de algun criterio para describir el desempe
no optimo (ndice de desempe
no).
Ejemplos basicos de control optimo.
Enunciado de control optimo.
1.1.1
Como se ha mencionado, hay tres partes principales que se deben considerar en un problema
de control optimo. El modelo matematico del sistema dinamico, las restricciones a las que esta
sujeto el sistema, y el ndice de desempe
no que se desea evaluar. A continuacion se estudia un
problema particular analizando estas tres partes principales.
Modelo Matematico
Descripcion matematica sencilla o simplificada de un sistema fsico, que en forma adecuada
describe la respuesta del sistema real a una o varias entradas. La siguiente es una representacion
de un modelo de un sistema dinamico como ecuaciones diferenciales en terminos de variables de
estado:
x(t)
= f (x(t), u(t), t); x Rn , u Rm
(1.1)
x 1 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)
x 2 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)
..
.
x n (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)
(1.2)
(1.3)
(1.4)
(1.5)
u1 (t)
x1 (t)
u2 (t)
x2 (t)
x(t) = .. , u(t) = ..
.
.
um (t)
xn (t)
(1.6)
A continuacion se presenta un ejemplo tpico de control optimo, el cual ilustra lo que representa
una restriccion y de forma similar el ndice de desempe
no.
Ejemplo 1.1.1. Un automovil esta inicialmente en reposo. Despues del tiempo inicial, este se
pone en movimiento en linea recta hasta detenerse a una distancia e.
Para identificar y definir los elementos del sistema de control optimo, el problema se puede
plantear de la siguiente manera:
Definir las variables del problema.
Se sabe que y(t) es la distancia o desplazamiento recorrido del auto desde 0 en el tiempo t.
De los conocimientos basicos de fsica, es posible conocer que la derivada de la variable anterior
y(t)
= dy(t)/dt es la velocidad del auto en el tiempo actual t.
Asmismo, la aceleracin del auto se representa por la derivada de la velocidad, lo cual tambien
es la segunda derivada del desplazamiento dy(t)/dt
= y(t) = d2 y(t)/dt2 .
Simplificando el modelo podemos representar el automovil como una masa que puede acelerar o
deacelerar utilizando el freno, lo cual se puede expresar por la siguiente ecuacion diferencial:
= (t) + (t)
d(t)
(1.7)
x2 (t) = d(t)
(1.8)
(1.9)
u1 (t) = (t)
u2 (t) = (t)
(1.10)
(1.11)
0 0
0 1
u(t); x(t) R2 , u(t) R2
x(t) +
x(t)
=
1 1
0 0
sabiendo de antemano que el intervalo de tiempo es t [t0 , tf ]
2
(1.12)
(1.13)
(1.14)
Definici
on 1.1.1. La historia de valores de control de entrada durante el intervalo [t0 , tf ] se
expresa como u y es llamado la historia de control.
Definici
on 1.1.2. La historia de valores de estado en el intervalo [t0 , tf ] es llamado una trayectoria de estado y se expresa como x.
Restricciones fsicas
De acuerdo al enunciado de nuestro ejemplo, sabemos que inicialmente el auto se encuentra en
0 y su posicion final sera el punto e, por lo tanto
x1 (t0 ) = 0
x1 (tf ) = e
(1.15)
(1.16)
(1.17)
(1.18)
(1.19)
(1.20)
(1.21)
(1.22)
(1.23)
Asimismo, se debe considerar que el automovil comienza con una cantidad G de combustible
y no hay forma de abastecerlo de mas combustible en el trayecto. El gasto de combustible de
acuerdo a las es
Ztf
[k1 u1 (t) + k2 x2 (t)]dt G
(1.24)
t0
Definici
on 1.1.3. Una historia de control que satisface las restricciones de control en el intervalo
de tiempo [t0 , tf ] se llama control admisible.
El conjunto de controles admisibles es U y la expresion u U define que la historia de control u
es admisible.
Definici
on 1.1.4. Una trayectoria de estado que satisface las restricciones de variable de estado
durante el intervalo de tiempo [t0 , tf ] se llama trayectoria admisible
El conjunto de trayectorias de estado admisibles se expresa como X y x X representa que la
trayectoria dada por x es admisible
Algunos otros ejemplos de control optimo:
1. Cilindro de aluminio
asumiendo que se tiene un volumen v = 100, se busca encontrar para que radio r y altura
h se tiene la menor cantidad de material utilizado para construirlo.
2. Sistema de Ecuaciones Lineales
En un sistema de ecuaciones:
Ax = y,
m < n
y Rmn
(1.25)
(1.26)
(1.27)
(1.28)
(1.29)
Se quiere llevar el estado del sistema y del estado inicial y0 al estado final yf tan rapido como
sea posible.
Si utilizamos un control dado por el impulso
u = (yf y0 )(t t0 )
(1.30)
1.2
(1.31)
(1.32)
Es la solucion a las ecuaciones diferenciales del modelo las cuales describen el modelo del
sistema dinaico, en [t0 , tf ]
Un control admisible esta dado por una ley de control que satisface las restricciones en el
intervalo [t0 , tf ].
Una trayectoria admisible es la trayectoria de estado que satisface las restricciones de variable de estado durante el intervalo de tiempo [t0 , tf ].
Conjunto objetivo
J =
Ztf
dt
(1.33)
t0
1
=
2
Ztf
uT Rudt
(1.34)
Ztf
||u||2R dt
(1.35)
t0
1
=
2
t0
||x|| =
xT x
(1.36)
donde 1.34 representa la forma cuadratica que tambien representa la norma Euclidiana
con ganancia R y 1.35 representa el cuadrado de una norma de base dos. La matriz R
debe ser definida positivamente para que le de un peso a cada coordenada del control.
En general el ndice de desempe
no se escribe como:
J = h(r(tf ), x(tf ), tf ) +
Ztf
(1.37)
t0
(1.38)
Si existe un tiempo finito t1 t0 y un control u(t), t [t0 , tf ], el cual lleve el estado inicial x0 hacia
el origen en un instante de tiempo t1 se dice que el estado inicial x0 es controlable en el tiempo
t1 . Si todos los valores de x0 son controlables para cualquier t0 , el sistema es completamente
controlable.
Al considerar problemas en que el objetivo es llevar el sistema de un estado inicial arbitrario
al origen mientras se minimiza un ndice de desempe
no, la controlabilidad del sistema es una
condicion necesaria para la existencia de una solucion.
Un sistema lineal invariante en el tiempo es controlable si y solo si la matriz n mn
.
.
.
.
C = [B .. AB .. A2 B .. ..An1 B]
(1.39)
(1.40)
1.3
Optimizaci
on num
erica