Está en la página 1de 16

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA,


CIENCIA Y TECNOLOGIA
U.P.T.O.S. “CLODOSBALDO RUSSIAN”
P.N.F. INSTRUMENTACION Y CONTROL

CONTROL ÓPTIMO

Profesor.
Ing. Sanchez Autores:
T.S.U. Nailet Gutiérrez.
C.I:14.660.459

Cumaná, Junio 2019.


INTRODUCCIÓN

La tecnología a nivel mundial suelen ser cada vez más competitivas para
mantener y aumentar su participación en el mercado. En este contexto su
innovación tecnológica se transforma en un factor estratégico diferenciador que les
permitirá reducir costos, aumentar la productividad o mejorar la calidad del
producto, adecuándose mejor a las necesidades del cliente.

En el ámbito del control automático, existe un enorme espacio para mejorar el


diseño de procesos, productos y servicios, a través de la utilización de técnicas
que son aplicadas en el diseño de los sistemas de control. Podemos observar que
en la industria cada vez son más las aplicaciones basadas en técnicas no
tradicionales, las cuales se denominan técnicas de control avanzadas. En este
contexto las técnicas de control avanzadas que han logrado mayor aceptación son
las siguientes: Control Supervisor, Control Distribuido, Control Robusto, Control
Multivariable, Control Adaptativo, Control Optimo y Sistemas Expertos. Estos
métodos permiten abordar sistemas de mayor complejidad, que pueden tener
múltiples entradas y salidas; variables estocásticas; estructura incierta -no
completamente conocida-, no lineal o variante en el tiempo. Desde el punto de
vista de las aplicaciones, se incorporan como sistemas de control los
computadores y en general los sistemas digitales.

Algunos de los beneficios que es posible obtener a través de estas técnicas son:

 Optimizar los procesos: a través de la optimización es posible, por ejemplo,


reducir costos, disminuir el consumo de energía o alcanzar tiempos mínimos
para estabilizar las variables, según como se hayan priorizado previamente los
objetivos a alcanzar.

 Considerar restricciones operacionales: al optimizar, también es posible


definir rangos admisibles para las variables de interés, como por ejemplo los
definidos por la potencia máxima, los niveles de saturación de actuadores, los
umbrales de seguridad para las variables, etc.

 Mejorar la calidad y reducir los costos: los procesos no lineales pueden


exhibir oscilaciones difíciles de explicar mediante métodos de análisis
convencionales. Estas oscilaciones pueden reducirse drásticamente, con los
métodos de control apropiado. Por consiguiente, la calidad del producto se
uniformiza y puede ser especificada con mayor precisión. Menores
oscilaciones también pueden significar importantes ahorros de materia prima o
disminución en costos de manutención.

Para este trabajo trataremos de explicar y emplear una de estas técnicas en un


sistema de control cualquiera, como lo es la técnica de Control Optimo. Primero la
definiremos, su historia y como se comporta en el proceso; así como su
implementación y ejemplo en el sistema de control.

CONTROL ÓPTIMO

El control óptimo, es una técnica matemática usada para resolver problemas de


optimización en sistemas que evolucionan en el tiempo y que son susceptibles de
ser influenciados por fuerzas externas. Pueden ser sistemas que evolucionan en el
tiempo el cuerpo humano y el sistema económico. Una vez que el problema ha
sido resuelto el control óptimo nos da una senda de comportamiento para las
variables de control, es decir, nos indica qué acciones se deben seguir para poder
llevar a la totalidad del sistema de un estado inicial a uno final de forma óptima.

El control óptimo trata de determinar el “mejor” sistema de control empleando una


técnica óptima de diseño. Esta técnica asume la formulación de una función
matemática denominada la función de costo, también conocida como función de
rendimiento, índice de rendimiento o índice de funcionamiento, entre otras
denominaciones. El procedimiento de diseño del sistema de control optimo trata
de encontrar un extremo (un mínimo o un máximo, dado el caso) de una función
de costo con el propósito de determinar los parámetros óptimos de una ley de
control; de allí el término “optimo”. En la mayoría de los casos, sin embargo, la
búsqueda de la función de costo involucra procedimientos de error y corrección;
esto significa que no siempre podemos estar seguros acerca de la forma exacta
que debería poseer la función de costo.

Este control se basa en la definición de una función o funcional que –por lo


general- incluye el error de control y la acción de control y/o sus desviaciones, con
ponderaciones que permiten “pesar” en forma relativa cada una de ellas, y se
establece un criterio de optimización sobre dicho funcional que se ajuste a los
objetivos del control. Inclusive, pueden incluirse también las restricciones del
misma (rangos de operación de variables, de las acciones de control y del
sistema), produciendo una acción de control óptima según el criterio establecido,
sujeta a las restricciones presentes en el proceso. Este último aspecto es su
principal fortaleza frente a controladores convencionales como el PID.

El mejor representante de este tipo de control, por la gran aceptación que ha


tenido en el campo del control de procesos Control Predictivo por Modelo (“Model
Predictive Control” o “MPC”). El sistema utiliza un modelo matemático del proceso
para predecir el comportamiento del sistema en el futuro frente a posibles
acciones de control a aplicar. Se define un “horizonte de predicción” (tiempo sobre
el cual se evalúan las posibles respuestas del sistema) y un “horizonte de control”
(tiempo sobre el que las acciones de control pueden variar y después del cual se
mantienen constantes). Se determina la acción de control óptima a aplicar al
sistema para lograr la respuesta deseada del sistema dentro del horizonte de
predicción previsto, tanto para la acción de control en el instante presente como en
los futuros instantes de muestreo. A pesar de definirse varias acciones de control
(actual y futuras) solamente se aplica la actual, ya que en el próximo intervalo de
control se vuelve a repetir el mismo cálculo. El sistema más difundido es el que
usa un modelo lineal para el sistema (LMPC), tanto por la facilidad de implantación
como por la posibilidad de ajustar el modelo en distintos instantes del proceso
usando cualquiera de los métodos de identificación de sistemas conocidos.
HISTORIA

El desarrollo de la teoría del control óptimo se inició en la década de los cincuenta


gracias al esfuerzo de los científicos rusos y norteamericanos por explorar el
sistema solar. El problema que resolver era el de llevar un vehículo espacial de
algún punto en la tierra a algún otro en el espacio en tiempo mínimo y
consumiendo la menor cantidad de combustible posible. Es decir, de lo que se
trataba era de encontrar trayectorias óptimas en espacios tridimensionales. Como
se puede ver, la solución de dicho problema no podía encontrarse aplicando las
técnicas de optimización tradicionales que sólo nos dan valores de la variable
independiente para los que una función dada alcanza un punto máximo o mínimo,
ya sea local o global.

Históricamente, el primer problema de Control Optimo fue planteado por Johann


Bernoulli, en el año de 1697, aunque se conoce que Galileo Galilei en el año 1638
en su obra Dos nuevas ciencias propuso el mismo problema y sugirió una
solución. No obstante, se puede regresar más atrás en el tiempo para encontrar
que los griegos tenían interés en problemas de este tipo, aunque solamente
formularon preguntas ambiguas. El problema de Bernoulli se planteó así:
Invitación a todos los matemáticos para resolver un nuevo problema: Si en un
plano vertical dos puntos A y B están dados, se requiere especificar la trayectoria
de la curva AMB del punto móvil M, empezando su movimiento desde A, y bajo la
influencia de su propio peso, llegue al punto B en el menor tiempo posible (...)

El problema en cuestión actualmente se conoce como el Problema de la


Braquistócrona, y fue uno de los primeros problemas del cálculo variacional. En
efecto, aunque la recta genera la distancia más corta entre dos puntos en un
plano vertical, no genera la trayectoria que puede recorrerse en el menor tiempo.
En este punto es prudente introducir la palabra Optimización. En este problema
puntual, la variable que se deseaba minimizar era el tiempo t. Se encontró que la
solución paramétrica de la trayectoria óptima para el problema sin fricción en un
plano vertical xy se aprecia en. Apellidos como Leibniz, L’Hopital, Hudde, Newton,
figuran entre los que intentaron, y resolvieron con éxito el problema planteado por
Bernoulli.

El control óptimo moderno alcanzó su esplendor con el desarrollo de las técnicas


investigadas por los investigadores de la Unión Soviética, en la mitad del siglo XX.
La Teoría de Control clásica empezó a estudiarse de forma exhaustiva en los
Estados Unidos, a principios del siglo anterior. Problemas como la regulación
automática de temperatura, equilibrio de barcos, fueron las primeras aplicaciones
en las que los teóricos del control empezaron a trabajar, con resultados
prometedores por parte de Bode y Nyquist.

Llegando la Segunda Guerra Mundial, el problema más importante era automatizar


los sistemas de control de tiro. En virtud de agrupar todos los esfuerzos durante la
guerra, los teóricos y los técnicos estadounidenses lograron realizar avances
importantes en este ámbito.

En el año de 1956, el grupo de matemáticos encabezado por Lev Semyonovich


Pontryagin, y sus estudiantes: V. Boltyanski, R. Gamkrelizde y E. Mishchenko, del
Instituto Stelkov de Matemática en Moscú, presentó al mundo el principio del
máximo. El contexto en el que la investigación surgió está en la guerra fría. El
control óptimo moderno se desarrolló para optimizar los problemas relacionados
con la carrera espacial y armamentística. Por ejemplo, se puede imaginar un
satélite con combustible limitado, que se envía desde la Tierra a un punto del
espacio, con combustible limitado, y el consiguiente problema de qué trayectoria
debería tomar para llegar en el menor tiempo, usando la menor cantidad de
combustible posible.

CONTROL ÓPTIMO DEL PROCESOS

¿Qué significa óptimo? Óptimo significa hacer un trabajo en la mejor forma posible.
No obstante, antes de iniciar a buscar una solución óptima,

 Se debe definir el trabajo.


 Se debe establecer una escala matemática para cuantificar lo que
significamos como mejor.

 Se deben descartar las otras alternativas posibles.

A menos que los cualificadores sean claros y consistentes, declarar que un


sistema es óptimo no tiene sentido real.
Un sistema simple, impreciso, pero no costoso, fácil de implementar y con un
desempeño adecuado podría considerarse óptimo.
De otro lado, un sistema muy preciso y elegante podría considerarse no óptimo
por ser demasiado costoso o muy complejo o porque su implementación tarda
mucho tiempo.
La declaración matemática del problema de control óptimo consiste de,
1. Una descripción del sistema a ser controlado.
2. Una descripción de las limitaciones y posibles alternativas del sistema
3. Una descripción de la tarea a ser desarrollada
4. Una declaración del criterio para juzgar el desempeño óptimo

La teoría de control tiene como objetivo determinar decisiones o acciones de


control dirigidas a optimizar el comportamiento de un sistema que evoluciona en el
tiempo. Dependiendo del fenómeno a estudiar, la dinámica del sistema se puede
modelar por medio de:

 Ecuaciones diferenciales, si el sistema se estudia en tiempo continuo.


 Ecuaciones en diferencia, si el sistema se estudia en tiempo discreto.

Además, estas ecuaciones pueden ser estocásticas o deterministas, dependiendo


si el sistema incorpora componentes aleatorios o no.

En la formulación del problema de control óptimo hay dos ingredientes:


1.- Un sistema de control que en el caso continuo viene dado por un sistema de
ecuaciones diferenciales:
x(t) = f(t,x(t),u(t)), t ∈ [t 0 ,t f ] ⊂ R
x(t 0 ) = x 0

(7.1)

que cumple las condiciones de existencia y unicidad de las soluciones. Y en el


caso discreto por un sistema de ecuaciones en diferencias:

x(t+1) = f t (x(t),u(t)), t = 0,1,...,N −1

x(0) = x 0

(7.2)

En los dos casos x(t) es el vector de R n que para cada instante de tiempo t nos
da el estado del sistema, u(t) es, para cada t, el vector de controles o entradas que
toma valores en algún conjunto U ⊆ R m denominado conjunto de los valores
admisibles de los controles, t 0 es el tiempo inicial en cuyo instante el sistema se
encuentra en el estado inicial x 0 . En el caso discreto es habitual poner t = 0 como
instante inicial.

Obsérvese que en este caso (el discreto) se puede pensar en la variable tiempo t
como un índice; es por eso que la dependencia de f en t la indicamos como un
subíndice f t .

Lo mismo haremos con las demás funciones que vayan apareciendo.


Supondremos, además, que se dan las condiciones de existencia y unicidad de
soluciones para cada sistema considerado.

2.- Un coste funcional que asocia un valor (coste) a cada función de control
admisible. El coste funcional se suele denotar con J y tiene la siguiente forma en el
caso continuo:

y en el caso discreto:
En ambos casos L, L t (t = 0,1,...,N −1) y K son funciones dadas (coste operativo y
coste final, respectivamente), t f (N en el caso discreto) es el tiempo final o
terminal que puede ser libre o fijo y x f = x(t f ) (x(N) = x f en el caso discreto) es el
estado final o terminal que tambi´ en puede ser libre o fijo. Al decir que t f y/o x f
pueden ser libres o fijos se quiere indicar que t f y x f pueden haber sido fijados de
antemano o se consideran como variables del problema. Nosotros supondremos
que el tiempo final ha sido fijado de antemano aunque, como decimos, problemas
más generales pueden ser considerados.

Debe observarse que u(⋅) es una función de modo que J es una función con
valores reales pero definida en un espacio de funciones. Es por ello, que decimos
que J es un funcional (ver Apéndice A). El espacio de funciones donde puede
elegirse u(⋅) puede ser bastante restrictivo. Lo denotaremos por U suele ser un
subconjunto del espacio de funciones continuas a trozos, U = PC([t 0 ,t f ],U),
siendo U el conjunto de los valores admisibles de los controles, o, más
generalmente, funciones localmente integrables. Lo llamaremos genéricamente
conjunto de funciones admisibles. También los valores de los estados pueden
estar sometidos a restricciones que, en cada caso y si fuera necesario, se
enunciarán de forma explícita.

Con todas estas consideraciones en mente, podemos definir lo que se entiende


por un problema de control óptimo: Encontrar un control u ∈ U que minimiza el
funcional J sobre todos los controles admisibles. Un poco más explícitamente, en
el caso continuo se trataría de encontrar, si existe, una función u ∗ (⋅) ∈ U tal que
la solución x ∗ (t) del problema de condiciones iníciales (7.1) con u(t) = u ∗ (t), t ∈ [t
0 ,t f ], cumpla:
En lo sucesivo, y por simplicidad notacional, denotaremos a las funciones de U por
u en vez de u(⋅); y haremos lo mismo con las soluciones x del correspondiente
problema de condiciones iníciales.

Para ambos tipos de problemas hay dos técnicas clásicas de resolución del
problema de control óptimo: la programación dinámica desarrollada por Richard
Bellman y la del principio del máximo de Pontriagin desarrollada por el matemático
ruso L. S. Pontriagin.
REGULADOR LINEAL CUADRÁTICO (LQR)

El Regulador Lineal Cuadrático como su nombre lo indica, actúa eficientemente en


sistemas carentes de no-linealidades.

Es quizá el primer regulador óptimo propuesto. Si se tiene un sistema lineal dado


por:

En este regulador, A es la dinámica de los estados del sistema representada en


forma matricial, B es la relación de la entrada con los estados del sistema, u es la
variable de control y Q es el error del estado, mientras que R es el esfuerzo del
controlador. El término siguiente representa una penalización del controlador,
puesto que en la práctica no es posible tener un control totalmente cercano a la
idealidad, su uso es variable dependiendo del autor.

Las matrices Q y R son escogidas de forma heurística, en la mayoría de los casos.


Generalmente Q es una matriz identidad y R es una matriz diagonal.

El parámetro ρ se usa para balancear la relación entrada/- salida. EL regulador


LQR tiene la característica de poseer una ganancia estática, robustez, y a causa
del asignamiento de polos, un control sencillo y barato.
La ganancia de realimentación puede ser calculada:

Se deben cumplir condiciones de estado, de con estado, condiciones


estacionarias, y condiciones de borde. Afortunadamente, existen paquetes
informáticos que permiten calcular la matriz de realimentación de forma sencilla,
requiriendo la matriz A, B, Q, R. En el caso de las dos últimas, se ha descrito ya el
proceso que suele seguirse para escogerlas. Cuando se incluye una acción
integral para llegar a la referencia deseada, el LQR se modifica en un LQI (Control
Integral Cuadrático) El vector de realimentación de estados viene dado por:

En este control, también es preciso mencionar que se dispone de una dinámica


dada por:
Como se aprecia, es la típica representación de un sistema dinámico en variables
de estado. La ganancia óptima se determina al resolver la ecuación algebraica de
Riccati:

De forma similar con el control mediante LQR, se dispone actualmente de software


que puede realizar este proceso de forma amigable y aparta la posibilidad de
emplear complejos sistemas de resolución manual.

C ASO DE E STUDIO

El péndulo invertido

Para el estudio de los diferentes controladores, se ha escogido una planta en


común para su estudio. El péndulo invertido se visualizó como una opción idónea
a causa de su alta no linealidad y su tendencia a la inestabilidad. Por este motivo,
el estudio de controladores que trabajen con plantas problemáticas es preferible al
estudio de plantas con características lineales, en las que los controladores más
sencillos pueden cumplir su función con excelente rendimiento.
El péndulo invertido se puede definir como una masa m conectada mediante una
barra que puede rotar respecto al eje vertical con longitud L, a una masa más
grande M a la cual se aplica una fuerza F con la finalidad de cambiar el estado
dinámico del sistema. Si no se ejerce fuerza alguna y el péndulo se deja libre a
partir de un θ = 0, lo natural es que el péndulo caiga a alguno de los dos lados

(θ =π/2) o (θ = − π/2 ). El objetivo del controlador es mover el móvil M de manera


que se impida la caída del péndulo y se mantenga en una referencia deseada por
el usuario. El caso más simple se da cuando θ = 0, es decir cuando se busca que
la posición angular del péndulo sea totalmente vertical.
APLICACIONES

Ejemplo del Péndulo Invertido


CONCLUSIÓN

Los controladores óptimos se basan en la formulación de funciones de costo,


cuyos parámetros definirán la aplicación o no de ciertas restricciones que harán
que un esfuerzo de control sea mayor o menor de acuerdo a los requerimientos
del usuario. A diferencia del control clásico que no considera generalmente estos
problemas, y se enfoca más en cumplir parámetros transitorios o de tiempo
estable a como de lugar, en vez de cumplirlos de forma inteligente.

Si bien el control clásico es el más aceptado por su facilidad de implementación,


hay procesos en los cuales el control óptimo o el control moderno proveen nuevas
e interesantes perspectivas de desarrollo, especialmente en procesos
inherentemente problemáticos como procesos naturalmente inestables y con altos
tiempos de retardo, o con perturbaciones que no pueden filtrarse. En este trabajo
se ha analizado un proceso inestable.

Una desventaja de los controladores óptimos, en el uso de modelos en espacios


de estado, es que para el diseño de controladores, idealmente se requieren todos
los estados. Por ejemplo, si se desea controlar el péndulo invertido estudiado, se
requiere medir la posición, la velocidad, la posición angular y la velocidad angular.
Muchas veces esto no es posible, por lo que se hace obligado el uso de modelos
que empleen estimadores de estado, los cuales son modelos matemáticos, que
intentan describir de forma aproximada el mundo físico.

Modelos con estimadores de estado no han sido considerados en este estudio. De


acuerdo a los resultados presentados, es interesante visualizar de que aunque el
controlador PID clásico provee un aparente excelente rendimiento, esto lo
consigue con detrimento de cuidar el EFC (Elemento Final de Control). Mientras
tanto, los controladores LQR y MPC tienen un rendimiento similar, podría decirse
inclusive inferior que el PID, pero tienen una ventaja, y es que su respuestas
angular y del elemento final de control son adecuadas y tolerables. Es muy
conocido que es muy deseable tener estrategias de control que no sean agresivas.

También podría gustarte