Está en la página 1de 7

Control Optimo

1.1

Introducci
on

El control optimo es una rama del control moderno que se relaciona con el dise
no de controladores
para sistemas dinamicos tal que se minimice una funcion de medicion que se denomina ndice de
desempe
no o costo del sistema.
En terminos mas formales, su objetivo principal de la teora de control optimo es determinar las
se
nales de control que causan a un proceso el satisfacer las restricciones fsicas que se tengan y
asimismo minimizar o maximizar segun sea el caso cierto criterio de desempe
no deseado.
La solucion de algunos problemas de control no es posible obtenerla usando metodos de control
clasicos. Esto puede ser ya sea debido a su complejidad, o que se requieran satisfacer ciertos
parametros relacionados con su desempe
no. Un ejemplo tpico de esto es el dise
no de un sistema
de control de altitud para una nave espacial que minimice el gasto de combustible.
El problema de control optimo se puede representar matematicamente en las siguientes partes:
1. La descripcion del proceso a controlar (modelo del sistema).
2. La descripcion de las restricciones fsicas.
3. La descripcion del objetivo buscado.
4. La descripcion de algun criterio para describir el desempe
no optimo (ndice de desempe
no).
Ejemplos basicos de control optimo.
Enunciado de control optimo.

1.1.1

Problema tpico de control


optimo

Como se ha mencionado, hay tres partes principales que se deben considerar en un problema
de control optimo. El modelo matematico del sistema dinamico, las restricciones a las que esta
sujeto el sistema, y el ndice de desempe
no que se desea evaluar. A continuacion se estudia un
problema particular analizando estas tres partes principales.
Modelo Matematico
Descripcion matematica sencilla o simplificada de un sistema fsico, que en forma adecuada
describe la respuesta del sistema real a una o varias entradas. La siguiente es una representacion
de un modelo de un sistema dinamico como ecuaciones diferenciales en terminos de variables de
estado:

x(t)
= f (x(t), u(t), t); x Rn , u Rm
(1.1)
x 1 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)
x 2 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)
..
.
x n (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t)

(1.2)
(1.3)
(1.4)
(1.5)

donde el vector de estados del sistema se define como:

u1 (t)
x1 (t)
u2 (t)
x2 (t)

x(t) = .. , u(t) = ..
.
.
um (t)
xn (t)

(1.6)

A continuacion se presenta un ejemplo tpico de control optimo, el cual ilustra lo que representa
una restriccion y de forma similar el ndice de desempe
no.
Ejemplo 1.1.1. Un automovil esta inicialmente en reposo. Despues del tiempo inicial, este se
pone en movimiento en linea recta hasta detenerse a una distancia e.
Para identificar y definir los elementos del sistema de control optimo, el problema se puede
plantear de la siguiente manera:
Definir las variables del problema.
Se sabe que y(t) es la distancia o desplazamiento recorrido del auto desde 0 en el tiempo t.
De los conocimientos basicos de fsica, es posible conocer que la derivada de la variable anterior
y(t)
= dy(t)/dt es la velocidad del auto en el tiempo actual t.
Asmismo, la aceleracin del auto se representa por la derivada de la velocidad, lo cual tambien
es la segunda derivada del desplazamiento dy(t)/dt

= y(t) = d2 y(t)/dt2 .
Simplificando el modelo podemos representar el automovil como una masa que puede acelerar o
deacelerar utilizando el freno, lo cual se puede expresar por la siguiente ecuacion diferencial:
= (t) + (t)
d(t)

(1.7)

donde es la aceleracion y a la desaceleracion debido al frenado.


Seleccionando variables de estado como posicion y velocidad tenemos:
x1 (t) = d(t)

x2 (t) = d(t)

(1.8)
(1.9)

u1 (t) = (t)
u2 (t) = (t)

(1.10)
(1.11)

y el control esta dado como

de donde u1 y u2 representa la aceleracion y desaceleracion, respectivamente.


Las ecuaciones de estado
x 1 (t) = x2 (t)
x 2 (t) = u1 (t) + u2 (t)
expresadas en forma matricial se representan como

0 0
0 1
u(t); x(t) R2 , u(t) R2
x(t) +
x(t)

=
1 1
0 0
sabiendo de antemano que el intervalo de tiempo es t [t0 , tf ]
2

(1.12)
(1.13)

(1.14)

Definici
on 1.1.1. La historia de valores de control de entrada durante el intervalo [t0 , tf ] se
expresa como u y es llamado la historia de control.
Definici
on 1.1.2. La historia de valores de estado en el intervalo [t0 , tf ] es llamado una trayectoria de estado y se expresa como x.
Restricciones fsicas
De acuerdo al enunciado de nuestro ejemplo, sabemos que inicialmente el auto se encuentra en
0 y su posicion final sera el punto e, por lo tanto
x1 (t0 ) = 0
x1 (tf ) = e

(1.15)
(1.16)

Ademas, como inicialmente se encuentra en reposo y asimismo se detiene en su estado final,


tenemos que
x2 (t0 ) = 0
x2 (tf ) = 0
De forma matricial, estas condiciones de frontera se expresan como


e
0
, x(tf ) =
x(t0 ) =
0
0

(1.17)
(1.18)

(1.19)

Asumiendo que el automovil no puede ir en reversa, tenemos ademas la restricci


on adicional:
0 x1 (t) e
0 x2 (t)

(1.20)
(1.21)

en otras palabras, esto significa que no puede haber velocidades negativas.


Restricciones de aceleracion impuesta en las entradas de control
aceleracion depende de la capacidad del motor del automovil.
aceleracion depende de los parametros del sistema de frenado
Si consideramos que la aceleracion maxima y la desaceleracion maxima son M1 y M2 respectivamente, los controles deben satisfacer las siguientes condiciones:
0 u1 (t) M1
M2 u2 (t) 0

(1.22)
(1.23)

Asimismo, se debe considerar que el automovil comienza con una cantidad G de combustible
y no hay forma de abastecerlo de mas combustible en el trayecto. El gasto de combustible de
acuerdo a las es
Ztf
[k1 u1 (t) + k2 x2 (t)]dt G
(1.24)
t0

lo cual asume que la razon de gasto de combustible es proporcional a la aceleracion y velocidad


y sus constantes de proporcionalidad k1 y k2 .
3

Definici
on 1.1.3. Una historia de control que satisface las restricciones de control en el intervalo
de tiempo [t0 , tf ] se llama control admisible.
El conjunto de controles admisibles es U y la expresion u U define que la historia de control u
es admisible.
Definici
on 1.1.4. Una trayectoria de estado que satisface las restricciones de variable de estado
durante el intervalo de tiempo [t0 , tf ] se llama trayectoria admisible
El conjunto de trayectorias de estado admisibles se expresa como X y x X representa que la
trayectoria dada por x es admisible
Algunos otros ejemplos de control optimo:
1. Cilindro de aluminio
asumiendo que se tiene un volumen v = 100, se busca encontrar para que radio r y altura
h se tiene la menor cantidad de material utilizado para construirlo.
2. Sistema de Ecuaciones Lineales
En un sistema de ecuaciones:
Ax = y,
m < n

y Rmn

(1.25)
(1.26)

tenemos menos ecuaciones que variables desconocidas por lo cual resulta en un n


umero
infinito de soluciones.
De todas las soluciones existentes para x, cual debemos escojer? De todas las posibles
soluciones para x, la solucion correcta esta dada como la que tiene la menor norma.
3. En un sistema con incertidumbre o ruido, se puede presentar una restriccion en algunos de
los estados y/o entradas del sistema.
Por ejemplo, puede ser un conocimiento limitado de la variable de entrada tal como la
corriente o voltaje en un circuito electrico, o tambien en la salida como lo es en el caso
de un problema en que se quiera que la velocidad no sobrepase un lmite superior. Otro
punto de vista de ver esto es considerarlo desde un enfoque cuantitativo. Encontrar u para
minimizar el tiempo en que se va de a a b. Tambien, minimizar la energa (este puede ser
un problema de minimizacion de combustible en el cual se trate de aprovechar al maximo
el combustible disponible.
4. Robotica
Robot redundante: esto quiere decir que el extremo del robot puede llegar de una posicion
inicial a una final mediante un n
umero infinito de posiciones. Aprovechar al maximo la
redundancia del sistema.
Las tres cosas en com
un que tenemos en estos ejemplos son:
las restricciones que hay en el sistema.
4

el ndice de calidad o costo que se requeiere satisfacer para llegar a la solucion.


la parametrizacion del modelo (un modelo con parametros o entradas que se puedan tomar
distinto valor)
Ejemplo:
Integrador.
y = u

(1.27)

Las condiciones iniciales y finales del sistema son:


y(t0 ) = y0
y(tf ) = yf

(1.28)
(1.29)

Se quiere llevar el estado del sistema y del estado inicial y0 al estado final yf tan rapido como
sea posible.
Si utilizamos un control dado por el impulso
u = (yf y0 )(t t0 )

(1.30)

la integral de esta entrada u cambiara el estado a la salida en forma instantanea.

1.2

Definiciones importantes en control


optimo

Considerando el modelo del sistema dado por:


x = a(t, x, u)
x(t0 ) = x0

(1.31)
(1.32)

Los siguientes son terminos que se usaran en el estudio de control optimo:


Trayectoria de Estado

Es la solucion a las ecuaciones diferenciales del modelo las cuales describen el modelo del
sistema dinaico, en [t0 , tf ]

Control Admisible y Trayectoria Admisible

Un control admisible esta dado por una ley de control que satisface las restricciones en el
intervalo [t0 , tf ].

Una trayectoria admisible es la trayectoria de estado que satisface las restricciones de variable de estado durante el intervalo de tiempo [t0 , tf ].
Conjunto objetivo

Region en el espacio X T donde se encuentra la trayectoria del sistema. Un caso mas


concreto de este termino es la region hacia donde se dirige la trayectoria, por ejemplo en
cierto caso se necesitara que un sistema no tenga que llegar exactamente al origen, pero s
a una vecindad del origen.
5

La dimension de la trayectoria se da por la dimension del sistema. Por ejemplo, en un


problema de movimiento, como lo es uno descrito por la Ley de Newton usando dos estados,
posicion y velocidad.
2 figuras
Indice de Desempe
no J
Tiempo mnimo:

J =

Ztf

dt

(1.33)

t0

en donde tf es la variable a minimizar del sistema.


Energa mnima

1
=
2

Ztf

uT Rudt

(1.34)

Ztf

||u||2R dt

(1.35)

t0

1
=
2

t0

||x|| =

xT x

(1.36)

donde 1.34 representa la forma cuadratica que tambien representa la norma Euclidiana
con ganancia R y 1.35 representa el cuadrado de una norma de base dos. La matriz R
debe ser definida positivamente para que le de un peso a cada coordenada del control.
En general el ndice de desempe
no se escribe como:

J = h(r(tf ), x(tf ), tf ) +

Ztf

g(r(t), x(t), u(t), t)dt

(1.37)

t0

donde h y g son funciones escalares.


Dos condiciones sumamente importantes para poder ya sea controlar nuestro sistema, y/o estimar
algunso de sus estados en base a ciertas mediciones que tengamos disponibles son la controlabilidad y observabilidad de nuestro modelo del sistema dinamico.
Definici
on 1.2.1. Controlabilidad
Sea el sistema
x(t)

= a(x(t), u(t), t); x(t) Rn , u(t) Rm


para t t0 , el cual tiene un estado inicial x(t0 ) = x0 .
6

(1.38)

Si existe un tiempo finito t1 t0 y un control u(t), t [t0 , tf ], el cual lleve el estado inicial x0 hacia
el origen en un instante de tiempo t1 se dice que el estado inicial x0 es controlable en el tiempo
t1 . Si todos los valores de x0 son controlables para cualquier t0 , el sistema es completamente
controlable.
Al considerar problemas en que el objetivo es llevar el sistema de un estado inicial arbitrario
al origen mientras se minimiza un ndice de desempe
no, la controlabilidad del sistema es una
condicion necesaria para la existencia de una solucion.
Un sistema lineal invariante en el tiempo es controlable si y solo si la matriz n mn
.
.
.
.
C = [B .. AB .. A2 B .. ..An1 B]

(1.39)

tiene rango pleno (C) = n.


Definici
on 1.2.2. Observabilidad. Si es posible determinar el estado x(t0 ) = x0 a partir de
observar la salida y(t) durante el intervalo de tiempo finito [t0 , t1 ], el estado x0 se dice que es
observable en el tiempo t0 . Si todos los estados x0 son observables para todo t0 , el sistema es
llamado completamente observable.
Analogo a la observabilidad, el sistema lineal e invariante en el tiempo 1.38 es observable si y
solo si la matriz n qn
.
.
.
.
O = [C T .. AT C T .. (AT )2 C T .. .. (AT )n1 C T ]

(1.40)

tiene rango pleno (O) = n


Estatuto general de control
optimo
Dados el modelo, las restricciones y el ndice, encontrar el control optimo u, y las trayectorias de
estado mediante las cuales el ndice de desempe
no J tome un valor mnimo. Antes de resolver
un problema de control optimo, uno debe cuestionarse las siguientes preguntas:
1. Es posible pensar que exista un control optimo para el sistema?
2. Es u
nico?
3. Puede encontrarse? (matematicamente hay solucion?)
4. El valor optimo J es mnimo global o local?
5. Es mediante un control de lazo abierto o lazo cerrado?

1.3

Optimizaci
on num
erica

La optimizacion tiene varias formas de hacerse.


7

También podría gustarte