Está en la página 1de 6

Universidad Autónoma De Nuevo León

Facultad de Ingeniería Mecánica y Eléctrica

CONTROL OPTIMO

“Investigación sobre el control optimo”

Nombre del alumno: Marco Antonio Contreras Ramos

Nombre del maestro(a): Dra. MIRNA MARICELA MARTINEZ FLORES

Matricula: 1681367

Hora Clase: N1

Salón: 7102

Grupo: 002

Semestre: 9° Carrera: IEA

30 de Agosto del 2022 CD. Universitaria, San Nicolás de


los Garza, NL
Introducción
Con el fin de optimizar los procesos en todas las áreas del conocimiento, las
matemáticas aplicadas han desarrollado diferentes métodos que pueden resolver
problemas en muchas disciplinas e involucran varios modelos matemáticos y
variables. Algunos de estos problemas de optimización son tan complejos que no
pueden resolverse con matemáticas exactas, por lo que se han desarrollado
técnicas alternativas basadas en procesos biológicos y físicos.
Uno de los problemas a los que se enfrenta es el control de los sistemas dinámicos.
Controlar un sistema requiere manipular sus entradas de tal manera que su
comportamiento se base en las demandas que le impone el entorno y los cambios
internos que experimenta el sistema, y en cada momento el controlador trata de
minimizar la diferencia entre el comportamiento deseado del sistema. diferencias y
los comportamientos que presentan. En este sentido, un problema de control puede
ser analizado como un problema de optimización de un criterio de desempeño o
función objetivo que describe el comportamiento global del sistema.

Control Optimo
El control óptimo es aplicable a sistemas estables y con cierta reserva a sistemas
no estables. Es una herramienta complementaria para resolver los problemas de
optimización dinámica, integrando la teoría de cálculo de variación y el principio de
optimalidad asociado a la ecuación de Bellman. La teoría de control optimo fue
desarrollada en los años 50’s por un equipo de matemáticos rusos dirigidos por
Pontryagin.
El control óptimo es una técnica matemática usada para resolver problemas de
optimización en sistemas que evolucionan en el tiempo y que son susceptibles de
ser influenciados por fuerzas externas, estableciendo una trayectoria óptima, es
decir, la trayectoria que maximiza o minimiza el objetivo planteado, teniendo en
cuenta la relación entre la señal de estado y la señal de control.
Los controles óptimos son implementados a distintos procesos como lo son:
invernaderos, conversores eléctricos, motores. Pueden ser sistemas que
evolucionan en el tiempo el cuerpo humano y el sistema económico.
El problema de control óptimo se puede representar matemáticamente en las
siguientes partes:
La descripción del proceso a controlar (modelo del sistema).
La descripción de las restricciones físicas.
La descripción del objetivo buscado.
La descripción de algún criterio para describir el desempeño óptimo (índice de
desempeño).
Un control óptimo puede ser clasificado en estático y dinámico. El primero aborda
el problema de controlar un sistema bajo condiciones en estado estable (las
variables no cambian en el tiempo). En este caso, la planta o sistema esta descrito
por ecuaciones algebraicas.
Las herramientas utilizadas son el cálculo, multiplicadores de Lagrange y
programación lineal y no lineal. Y el segundo aborda el problema de controlar un
sistema bajo condiciones dinámicas (las variables del sistema cambian en el
tiempo). En este problema la planta está descrita por ecuaciones diferenciales o en
diferencias. Las técnicas utilizadas son programación dinámica, calculo variacional
y el principio de Pontriagyn.

Modelado Matemático
Un modelado matemático es la descripción en el lenguaje matemático, de un objeto
existente en un universo no matemático. También se puede definir como una
expresión matemática que describe las relaciones existentes entre las magnitudes
y características del sistema, pueden ser ecuaciones que vinculan variables
matemáticas representativas de las señales y valores de magnitudes físicas en el
sistema obtenidas a partir de relaciones entre las correspondientes magnitudes
físicas.
Características del Modelado
Una serie de elementos que se utilizan son: las variables de estado y control, el
sistema dinámico, el tiempo y la función objetivo. El objeto de dicha teoría: optimizar
(maximizar o minimizar) la función objetivo.
En base a estos componentes, podemos llegar a plantear el problema básico de la
teoría del control en los siguientes términos:
Un sistema dinámico (lineal o no lineal) formulado en tiempo continuo para el que
las funciones de control pueden ser especificadas, el problema será seleccionar
una función de control que optimice el funcional objetivo determinando
simultáneamente la trayectoria de la variable de estado óptimo correspondiente a
esa función de control considerada óptima.
Una vez especificado el objetivo y las condiciones, pasamos a resolver el problema
formulado. El procedimiento a seguir se centra en determinar la incógnita, una
función vectorial U. (t) que, una vez especificada, determina en el sistema de
ecuaciones de transición una trayectoria de estado única. Esta trayectoria y el
vector de control hallado determinan un valor del funcional objetivo. Luego el
problema es hallar esa función U(t) que maximice el funcional.
Como todo problema de optimización con restricciones, su resolución pasa por
determinar un conjunto de condiciones necesarias que la solución óptima debe
satisfacer. En este sentido, nuestro primer paso será obtener ese conjunto de
condiciones necesarias que un problema formulado debe satisfacer.
El primer paso para obtener un control óptimo es realizar el modelado matemático
del sistema:
• Las ecuaciones diferenciales son ideales para obtener soluciones digitales y
analógicas.
• El estado provee el estudio de cómo están relacionados en el sistema,
lineales o no lineales.
• Las variables de estado nos dan invaluable información teórica para la
investigación.
• El concepto de estado cumplen las leyes físicas.

Los sistemas dinámicos pueden representarse por medio de un conjunto de


ecuaciones diferenciales de primer orden llamadas ecuaciones de estado.

𝑥̇(𝑡) = 𝑓[𝑥̇(𝑡), 𝑢(𝑡),𝑡] (1)

Donde; x(t) es un vector de estado de nx1, u(t) es un vector de control mx1 y f(⋅) un
vector de funciones no lineales variantes en el tiempo. La salida y(t) es un vector
de tamaño p y g(⋅) un vector de funciones de salida.

𝑦(𝑡) = 𝑔[𝑥̇(𝑡),𝑢(𝑡), 𝑡]
ESPECIFICAR FUNCIÓN CRITERIO J

Esta función mide el comportamiento global del sistema y su planteamiento


depende de los requerimientos o especificaciones del sistema de control. Se puede
afirmar que un vector de control u(t) es óptimo si mejora el índice de desempeño a
la vez que cumple con todas las restricciones impuestas al modelo [4]. De acuerdo
al criterio de desempeño los problemas pueden dividirse en problemas de tiempo
mínimo, consistentes en transferir un sistema desde un estado inicial arbitrario x(t0)
hasta un punto final especificado x(tf) en el menor tiempo (5).
Problemas de control terminal, que minimizan la desviación del estado final de un
sistema con respecto a un valor especificado, ver (6). Problemas de mínimo
esfuerzo de control o mínimo consumo de energía del controlador, consistentes en
transferir el estado del sistema x(t) desde un estado inicial a otro final minimizando
(7) u (8), que son indicadores de esfuerzo de la señal de control en cada instante
de tiempo. Por otro lado, la idea de mantener el estado del sistema x(t) tan cerca
como sea posible al estado deseado r(t) durante todo el horizonte de control es
llamado tracking y el índice de desempeño que penaliza el error entre x(t) y r(t)
sería (9) donde Q es una matriz de penalización. Si es indispensable que x(tf) esté
lo más cerca posible de r(tf), y que el controlador minimice su energía consumida,
entonces se plantea (10).

𝑡𝑓

𝐽 = 𝑡𝑓 − 𝑡0 = ∫ 𝑑𝑡 (5)
𝑡0

𝑛
2 (6)
𝐽 = ∑[𝑥̇𝑖(𝑡)𝑓 − 𝑟(𝑡𝑓)]
𝑖=1

𝑡𝑓 𝑚

𝐽=∫ (∑ 𝛽𝑖|𝑢𝑖(𝑡)|) 𝑑𝑡 (7)


𝑡0 𝑖=1

𝑡𝑓

𝐽 = ∫ 𝑢2(𝑡) 𝑑𝑡 (8)
𝑡0

𝑡𝑓

𝐽 = ∫ 𝑒(𝑡)𝑇𝑄(𝑡)𝑒(𝑡) 𝑑𝑡 (9)
𝑡0

𝑡𝑓

𝐽 = 𝑒(𝑡𝑓)𝑇𝑆𝑒(𝑡𝑓) + ∫ {𝑒(𝑡)𝑇𝑄(𝑡)𝑒(𝑡) + 𝑢𝑇(𝑡)𝑅(𝑡)𝑢(𝑡)} 𝑑𝑡 (10)


𝑡0
Conclusión
A medida que avanza esta investigación, nos muestra en detalle los pasos para
formular un control óptimo, comprender las características, desarrollar el problema
y poder obtener los resultados deseados del sistema: seleccionado. Los estados
de un sistema discreto describen los caminos de transiciones discretas de un
estado a otro bajo la influencia de entradas que también se aplican en tiempo
discreto. Cuando los criterios de optimización dependen del sistema, cada
transición de estado tiene un costo o penalización asociado. En la industria existen
diferentes tipos de problemas y el objetivo siempre es optimizar nuestros procesos
de diferentes maneras, como tiempo, recursos, etc. Aparte de que la
implementación no siempre es posible, ya que si se comparan los ahorros que se
pueden lograr con el costo de implementación, puede haber problemas de costos
y se puede considerar inviable.

También podría gustarte