Está en la página 1de 6

Universidad Autónoma De Nuevo León

Facultad de Ingeniería Mecánica y Eléctrica

CONTROL OPTIMO

“Investigación sobre el control optimo”

Nombre del alumno: Marco Antonio Contreras Ramos

Nombre del maestro(a): Dra. MIRNA MARICELA MARTINEZ FLORES

Matricula: 1681367

Hora Clase: N1

Salón: 7102

Grupo: 002

Semestre: 9° Carrera: IEA

30 de Agosto del 2022 CD. Universitaria, San Nicolás de


los Garza, NL
Introducción
Con el fin de optimizar los procesos en todas las áreas del conocimiento, las
matemáticas aplicadas han desarrollado diferentes métodos que pueden resolver
problemas en muchas disciplinas e involucran varios modelos matemáticos y
variables. Algunos de estos problemas de optimización son tan complejos que no
pueden resolverse con matemáticas exactas, por lo que se han desarrollado
técnicas alternativas basadas en procesos biológicos y físicos.
Uno de los problemas a los que se enfrenta es el control de los sistemas
dinámicos. Controlar un sistema requiere manipular sus entradas de tal manera
que su comportamiento se base en las demandas que le impone el entorno y los
cambios internos que experimenta el sistema, y en cada momento el controlador
trata de minimizar la diferencia entre el comportamiento deseado del sistema.
diferencias y los comportamientos que presentan. En este sentido, un problema
de control puede ser analizado como un problema de optimización de un criterio
de desempeño o función objetivo que describe el comportamiento global del
sistema.

Control Optimo
El control óptimo es aplicable a sistemas estables y con cierta reserva a sistemas
no estables. Es una herramienta complementaria para resolver los problemas de
optimización dinámica, integrando la teoría de cálculo de variación y el principio
de optimalidad asociado a la ecuación de Bellman. La teoría de control optimo fue
desarrollada en los años 50’s por un equipo de matemáticos rusos dirigidos por
Pontryagin.
El control óptimo es una técnica matemática usada para resolver problemas de
optimización en sistemas que evolucionan en el tiempo y que son susceptibles de
ser influenciados por fuerzas externas, estableciendo una trayectoria óptima, es
decir, la trayectoria que maximiza o minimiza el objetivo planteado, teniendo en
cuenta la relación entre la señal de estado y la señal de control.
Los controles óptimos son implementados a distintos procesos como lo son:
invernaderos, conversores eléctricos, motores. Pueden ser sistemas que
evolucionan en el tiempo el cuerpo humano y el sistema económico.
El problema de control óptimo se puede representar matemáticamente en las
siguientes partes:
La descripción del proceso a controlar (modelo del sistema).
La descripción de las restricciones físicas.
La descripción del objetivo buscado.
La descripción de algún criterio para describir el desempeño óptimo (índice de
desempeño).
Un control óptimo puede ser clasificado en estático y dinámico. El primero aborda
el problema de controlar un sistema bajo condiciones en estado estable (las
variables no cambian en el tiempo). En este caso, la planta o sistema esta
descrito por ecuaciones algebraicas.
Las herramientas utilizadas son el cálculo, multiplicadores de Lagrange y
programación lineal y no lineal. Y el segundo aborda el problema de controlar un
sistema bajo condiciones dinámicas (las variables del sistema cambian en el
tiempo). En este problema la planta está descrita por ecuaciones diferenciales o
en diferencias. Las técnicas utilizadas son programación dinámica, calculo
variacional y el principio de Pontriagyn.

Modelado Matemático
Un modelado matemático es la descripción en el lenguaje matemático, de un
objeto existente en un universo no matemático. También se puede definir como
una expresión matemática que describe las relaciones existentes entre las
magnitudes y características del sistema, pueden ser ecuaciones que vinculan
variables matemáticas representativas de las señales y valores de magnitudes
físicas en el sistema obtenidas a partir de relaciones entre las correspondientes
magnitudes físicas.
Características del Modelado
Una serie de elementos que se utilizan son: las variables de estado y control, el
sistema dinámico, el tiempo y la función objetivo. El objeto de dicha teoría:
optimizar (maximizar o minimizar) la función objetivo.
En base a estos componentes, podemos llegar a plantear el problema básico de
la teoría del control en los siguientes términos:
Un sistema dinámico (lineal o no lineal) formulado en tiempo continuo para el que
las funciones de control pueden ser especificadas, el problema será seleccionar
una función de control que optimice el funcional objetivo determinando
simultáneamente la trayectoria de la variable de estado óptimo correspondiente a
esa función de control considerada óptima.
Una vez especificado el objetivo y las condiciones, pasamos a resolver el
problema formulado. El procedimiento a seguir se centra en determinar la
incógnita, una función vectorial U. (t) que, una vez especificada, determina en el
sistema de ecuaciones de transición una trayectoria de estado única. Esta
trayectoria y el vector de control hallado determinan un valor del funcional
objetivo. Luego el problema es hallar esa función U(t) que maximice el funcional.
Como todo problema de optimización con restricciones, su resolución pasa por
determinar un conjunto de condiciones necesarias que la solución óptima debe
satisfacer. En este sentido, nuestro primer paso será obtener ese conjunto de
condiciones necesarias que un problema formulado debe satisfacer.
El primer paso para obtener un control óptimo es realizar el modelado matemático
del sistema:
 Las ecuaciones diferenciales son ideales para obtener soluciones digitales
y analógicas.
 El estado provee el estudio de cómo están relacionados en el sistema,
lineales o no lineales.
 Las variables de estado nos dan invaluable información teórica para la
investigación.
 El concepto de estado cumplen las leyes físicas.

Los sistemas dinámicos pueden representarse por medio de un conjunto de


ecuaciones diferenciales de primer orden llamadas ecuaciones de estado.

𝑥̇(𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡),𝑡]

Donde; x(t) es un vector de estado de nx1, u(t) es un vector de control mx1 y f(⋅)
un vector de funciones no lineales variantes en el tiempo. La salida y(t) es un
vector de tamaño p y g(⋅) un vector de funciones de salida.

𝑦(𝑡) = 𝑔[𝑥(𝑡),𝑢(𝑡), 𝑡]
ESPECIFICAR FUNCIÓN CRITERIO J

Esta función mide el comportamiento global del sistema y su planteamiento


depende de los requerimientos o especificaciones del sistema de control. Se
puede afirmar que un vector de control u(t) es óptimo si mejora el índice de
desempeño a la vez que cumple con todas las restricciones impuestas al modelo
[4]. De acuerdo al criterio de desempeño los problemas pueden dividirse en
problemas de tiempo mínimo, consistentes en transferir un sistema desde un
estado inicial arbitrario x(t0) hasta un punto final especificado x(tf) en el menor
tiempo (5).
Problemas de control terminal, que minimizan la desviación del estado final de un
sistema con respecto a un valor especificado, ver (6). Problemas de mínimo
esfuerzo de control o mínimo consumo de energía del controlador, consistentes
en transferir el estado del sistema x(t) desde un estado inicial a otro final
minimizando (7) u (8), que son indicadores de esfuerzo de la señal de control en
cada instante de tiempo. Por otro lado, la idea de mantener el estado del sistema
x(t) tan cerca como sea posible al estado deseado r(t) durante todo el horizonte
de control es llamado tracking y el índice de desempeño que penaliza el error
entre x(t) y r(t) sería (9) donde Q es una matriz de penalización. Si es
indispensable que x(tf) esté lo más cerca posible de r(tf), y que el controlador
minimice su energía consumida, entonces se plantea (10).

𝑡𝑓

𝐽 = 𝑡𝑓 − 𝑡0 = ∫ 𝑑𝑡
𝑡0

𝑛
2
𝐽 = ∑[𝑥𝑖(𝑡)𝑓 − 𝑟(𝑡𝑓)]
𝑖=1

𝑡𝑓 𝑚

𝐽=∫ (∑ 𝛽𝑖|𝑢𝑖(𝑡)|) 𝑑𝑡
𝑡0 𝑖=1

𝑡𝑓

𝐽 = ∫ 𝑢2(𝑡) 𝑑𝑡
𝑡0

𝑡𝑓

𝐽 = ∫ 𝑒(𝑡)𝑇𝑄(𝑡)𝑒(𝑡) 𝑑𝑡
𝑡0

𝑡𝑓

𝐽 = 𝑒(𝑡𝑓)𝑇𝑆𝑒(𝑡𝑓) + ∫ {𝑒(𝑡)𝑇𝑄(𝑡)𝑒(𝑡) + 𝑢𝑇(𝑡)𝑅(𝑡)𝑢(𝑡)} 𝑑𝑡


𝑡0
Conclusión
A medida que avanza esta investigación, nos muestra en detalle los pasos para
formular un control óptimo, comprender las características, desarrollar el
problema y poder obtener los resultados deseados del sistema: seleccionado. Los
estados de un sistema discreto describen los caminos de transiciones discretas
de un estado a otro bajo la influencia de entradas que también se aplican en
tiempo discreto. Cuando los criterios de optimización dependen del sistema, cada
transición de estado tiene un costo o penalización asociado. En la industria
existen diferentes tipos de problemas y el objetivo siempre es optimizar nuestros
procesos de diferentes maneras, como tiempo, recursos, etc. Aparte de que la
implementación no siempre es posible, ya que si se comparan los ahorros que se
pueden lograr con el costo de implementación, puede haber problemas de costos
y se puede considerar inviable.

También podría gustarte