Está en la página 1de 11

CONTROL OPTIMO

ING. JUAN CARRASQUERO


C.I.: 22.468.175
ESQUEMA

1. CONTROL OPTIMO INTRODUCCION


2. DEFINICION DE CONTROL OPTIMO
3. PROBLEMA DE CONTROL OPTIMO
4. CONTROL OPTIMO CUADRATICO
5. PROBLEMA DEL LQR
6.PRINCIPIO DE OPTIMILIDAD DE BELLMAN
CONTROL OPTIMO INTRODUCCIÓN
• El control optimo nace como una necesidad de evolución.
• Optimiza el proceso de Prueba y Error de los controladores clásicos
• Permite obtener sistemas mas eficientes
• Es una de las estrategias de control moderno mas utilizadas
CONTROL OPTIMO INTRODUCCIÓN
El control óptimo es una técnica matemática usada para resolver problemas
de optimización en sistemas que evolucionan en el tiempo y que son susceptibles de
ser influenciados por fuerzas externas. Pueden ser sistemas que evolucionan en el
tiempo el cuerpo humano y el sistema económico. Una vez que el problema ha sido
resuelto el control óptimo nos da una senda de comportamiento para las variables de
control, es decir, nos indica qué acciones se deben seguir para poder llevar a la
totalidad del sistema de un estado inicial a uno final de forma óptima.
La declaración matemática del problema de control óptimo consiste de,
1. Una descripción del sistema a ser controlado.
2. Una descripción de las limitaciones y posibles alternativas del sistema
3. Una descripción de la tarea a ser desarrollada
4. Una declaración del criterio para juzgar el desempeño óptimo
DEFINICIÓN DE CONTROL OPTIMO
Cuando se habla de la solución optima de un problema, intuitivamente se piensa en que
esta es ‘la mejor solución’, es decir ‘insuperable’. De hecho, este es el significado que
puede encontrarse en el Diccionario de la Real Academia Española:
Optimo: forma procedente del superlativo latino optimus, que significa ‘bueno en grado
sumo’, que no puede ser mejor.
Sin embargo, como muchos otros adjetivos, la palabra optimo tiene un alto grado de
subjetividad. Efectivamente, un pésimo control desde el punto de vista del
comportamiento dinámico podría ser optimo desde el punto de vista económico y
viceversa. Luego, para calificar la bondad de un control (en particular para poder
decir que es optimo) es necesario asociarlo a un ‘índice’ de performance. En términos
de control diremos que un control es optimo si minimiza un funcional de costo en el
que claramente se manifiesta un compromiso entre distintas especificaciones y
restricciones. A este funcional lo llamaremos índice de performance y normalmente lo
indicaremos con J.
PROBLEMA DEL CONTROL OPTIMO
Un sistema de control que en el caso continuo viene dado por un sistema de ecuaciones
diferenciales:

que cumple las condiciones de existencia y unicidad de las soluciones. Y en el caso


discreto por un sistema de ecuaciones en diferencias:

En los dos casos x(t) es el vector de R n que para cada instante de tiempo t nos da el
estado del sistema, u(t) es, para cada t, el vector de controles o entradas que toma
valores en algún conjunto U ⊆ R m denominado conjunto de los valores admisibles
de los controles, t0 es el tiempo inicial en cuyo instante el sistema se encuentra en el
estado inicial. En el caso discreto es habitual poner t = 0 como instante inicial.
Obsérvese que en este caso (el discreto) se puede pensar en la variable tiempo t como
un índice; es por eso que la dependencia de f en t la indicamos como un subíndice ft .
CONTROL OPTIMO CUADRATICO
Un criterio de desempeño muy importante que combina los ejemplos previos es el criterio
de desempeño cuadrático. Este criterio se puede expresar en forma general como

Las matrices de pesado S;Q y R permiten un trato pesado entre los criterios previos. En
particular, por ejemplo,

Las matrices S y Q son simétricas y no definidas negativas, mientras R es simétrica y


definida positiva.
PROBLEMA DEL LQR
En base a los comentarios previos, puede decirse que en esta nueva concepción del
control (control optimo) el establecimiento del problema requiere de:
1. la descripción del sistema a ser controlado,
2. la descripción de las restricciones y de los objetivos de control,
3. la definición de un criterio que permita juzgar el grado de optimización.
En particular la resolución del problema del regulador optimo LQR consiste en: dado un
modelo del sistema a controlar en variables de estado y un índice de performance de la
forma

Se debe encontrar el control u(t) = u ∗ (t) que minimiza el citado funcional J(= J ∗ ).
PROBLEMA DE LQR
Considere el sistema de espacio de estados

el criterio de desempeño J = R ∞0 [xT (t)Qx(t) + uT (t)Rx(t)]dt; donde Q es no definida


negativa y R es definida positiva. Entonces el control óptimo que minimiza (J) está
dado por la ley lineal de realimentación de estado

donde P es la única solución definida positiva de la matriz Ecuación Algebraica de Riccati


(EAR),
PROBLEMA DE LQR
Así, para diseñar una ley de realimentación de estado óptima u = −Kx minimizando el
costo

tenemos que, 1. Encontrar la solución simétrica y definida positiva de la (EAR)

Fijar K = R−1BT P .
En MATLAB K y P se pueden calcular usando, [

K,P] = lqr(A,B,Q,R);
PRINCIPIOS DE OPTIMALIDAD DE BELLMAN
Considere un control gen érico u. Su aplicación sobre el sistema a controlar dará lugar a
una evolución de los estados que define una trayectoria. Diremos que esta trayectoria
es optima si el valor del control u(t) minimiza J. que daría lugar a la solución trivial u
= 0. Obviamente esto depende de cada problema.
Según Bellman (Principio de optimalidad): ‘si una trayectoria entre dos estados x(t0) y
x(tf ) es optima, entonces cualquier tramo de esta trayectoria, definido desde un punto
x(ti) (perteneciente a dicha trayectoria) y el punto x(tf ), es en si una trayectoria
´optima’. Este principio esta íntimamente ligado a los conceptos de programación
dinámica que permiten simplificar problemas de optimización de distintas
especialidades (economía, ciencias físicas, ingeniería, ...).
Por razones de simplicidad, primero se resuelve el problema del regulador optimo para el
caso discreto y con horizonte de optimización finito (N finito). Posteriormente, se
considera el caso continuo (con horizonte de optimización finito e infinito), y el caso
discreto con horizonte de optimización infinito es citado.

También podría gustarte