Está en la página 1de 9

Informe Número 1

Introducción al control adaptativo


Juan Pablo Arángo Restrepo
Juan David Núñez López
Marı́a Fernanda Villa Tamayo
Control Adaptable
Profesor: Héctor Antonio Botero Castro
14 de mayo de 2019

Resumen
En este informe se presenta una introducción al control adaptable, su contexto y las aplicaciones
en las que se requiere esta estrategia de control. Adicionalmente, se da su definición desde diferentes
puntos de vista y la descripción de las técnicas de control adaptable más utilizadas. Por último, se
expone la importancia del diseño del control adaptable partiendo del análisis de la estabilidad del
sistema y modelos del error.

Abstract
This report presents an introduction to adaptive control, its context and the applications in
which this control strategy is required. Additionally, its definition from different points of view is
provided and the description of the most used adaptive control techniques is given. Finally, the
importance of adaptive control design from the analysis of the system stability and error models
is exposed.

1. Introducción
Desde sus inicios el hombre ha sentido la necesidad de controlar los fenómenos que lo rodean
y la historia da evidencia de ello. Algunos de los acontecimientos más relevantes se pueden enun-
ciar desde el siglo I antes de Cristo, en la antigua Grecia, donde se llevó a cabo el dispensador
de vino de Herón de Alejandrı́a, considerado como uno de los primeros sistemas realimentados
de la historia. Cerca de los años 1200 se destaca la realización de un sistema de control de un
molino de harina para el suministro de grano en función de la fuerza del viento. En el siglo XVII
se presentan distintos sistemas de regulación de temperatura aplicados al horno y a la incubadora

1
Informe Número 1

de Drebbel. En 1745, E. Lee inventa un sistema para controlar la orientación y el grado de in-
clinación de las aspas de un molino. Sin embargo, estos ejemplos tienen algo en común, carecen
de las herramientas matemáticas necesarias para sustentar el surgimiento de la teorı́a de control [1].

Gracias a los trabajos de estabilidad realizados por Routh en 1877, Hurwitz en 1885 y Lyapu-
nov en 1889, y a los estudios de sistemas en el dominio de la frecuencia de Nyquist en 1932, Black
en 1934 y Bode en 1940, la teorı́a de control fue tomando forma. Posteriormente, Ziegler y Nichols
en 1942 presentan fórmulas empı́ricas para sintonizar un regulador PID y a consecuencia de la
segunda guerra mundial se impulsa aún más la teorı́a de control por desarrollos como el analizador
diferencial en 1942 y los trabajos realizados para los misiles V1 y V2 en 1945. En 1948 y 1950, Evans
presenta el método del lugar de las raı́ces, y los avances computacionales permiten los primeros
pasos del control por computador donde se destacan los trabajos de Shanon en 1948. Se resaltan
además, los aportes del grupo del profesor Ragazzini en la universidad de Columbia en la década
de los 50, entre ellos, Salzer en 1954 con la transformada Z y Jury en 1958 con su criterio de esta-
bilidad, aportes que conforman las bases a lo que hoy se conoce como la teorı́a de control clásica [1].

En 1955 se comienza a tejer la teorı́a de control moderna que se basa en representar los sistemas
en variables de estado. En 1960, Kalman introduce sus criterios de observabilidad y controlabilidad
y la resolución de los problemas de control óptimo cuadrático y lineal cuadrático Gaussiano [1].
La no validez de los modelos lineales y la necesidad por descripciones más precisas de los proce-
sos en cuanto a incertidumbres en los insumos, los valores de los parámetros y la estructura del
sistema, enfocaron la atención de los investigadores en crear controladores precisos, dando lugar a
áreas nuevas en el control automático como la adaptable [2]. Inicialmente fueron presentados los
sistemas adaptables con modelo de referencia propuestos por los investigadores del MIT, Whita-
ker, Narmon y Kezer en 1958. El concepto de regulador autoajustable fue propuesto inicialmente
por Kalman, usando el método de mı́nimos cuadrados recursivos como estimador en linea. Otro
sistema fue el desarrollado por Peterka en 1970 y por Aström y Witenmark en 1973, el cual se
trataba de un sistema basado en minimización de la varianza de la salida considerado en un en-
torno estocástico [1]. El principal inconveniente de este tipo de estrategias de control en aquella
época, era que la estabilidad no llegaba a asegurarse de manera general, hasta que los aportes rea-
lizados por Parks en 1976, establecieron una garantı́a de estabilidad global del sistema adaptable
y posteriormente esto se reforzó gracias a los trabajos de Landau en 1979, quien utiliza la teorı́a
de la hiperestabilidad de Popov para el diseño de un sistema adaptable con modelo de referencia [1].

A lo largo de este documento se abordará una introducción a los sistemas de control adaptable,
basándose en las ideas presentadas en [2] y [3]. Inicialmente se presentan algunos conceptos básicos y
definiciones relacionados con teorı́a de sistemas y sistemas adaptables, posteriormente se mencionan
algunas estrategias de control adaptable como el control por modelo de referencia y el self-tuning,
y se destaca la importancia del análisis de la estabilidad para el diseño de estos controladores. Por
último, se exponen las conclusiones.

2
Informe Número 1

2. Sistemas adaptables
En múltiples aplicaciones existen fuentes de variaciones dadas por diferentes perturbaciones
o cambios en las mismas propiedades del sistema, variaciones de las cuales, en gran cantidad de
casos, no se tiene suficiente información (sea su valor exacto o su distribución de probabilidad) por
lo que, con el objetivo de aplicar control, se deben buscar estrategias en las que sea suficiente la
información a priori disponible del proceso para estimar y adaptar la parte desconocida del mismo.

Con el fin de dar un acercamiento a los sistemas adaptables se parte de las siguientes definiciones
esenciales para su comprensión:

Sistema: Conjunto de objetos unidos por algún tipo de interacción o dependencia, que recibe
entradas en ciertos instantes de tiempo y emite salidas.

Entradas: Influencias generadas fuera del sistema que actúan sobre él y no se ven afectadas
por lo que sucede dentro del mismo. Se denotan por u(t) ∈ U , con U el conjunto de entradas
posibles.

Salidas: Variables de interés que son afectadas por la acción de las entradas. Se denotan
como y(t) ∈ Y , donde Y es el conjunto de salidas posibles.

Estado: Conjunto más pequeño de variables tal que su conocimiento en un instante determi-
nado t0 en conjunto con el conocimiento de los valores de las entradas en los instantes t ≥ t0 ,
permite determinar el la evolución del sistema para cualquier instante de tiempo t ≥ t0 . Se
denota al estado como x(t) donde cada xi (i = 1, ..., n) es una variable de estado.

Parámetro: Valor constante en un experimento pero que puede variar entre experimentos.
Se denota p los parámetros del proceso que son desconocidos y θ los parámetros de control.

Tras identificar cada una de las variables que componen un sistema, este se puede representar de
la forma:
ẋ(t) = f (x(t), u(t), p, θ, t), y(t) = h(x(t), p, θ, t), (1)
o siendo el caso en que las dinámicas del estado son lineales la representación del sistema es:

ẋ(t) = A(p, θ, t)x(t) + B(p, θ, t)u(t), y(t) = H(p, θ, t)x(t), (2)

el cual puede ser invariante en el tiempo al considerar las matrices A, B y H dependientes única-
mente de los parámetros.

Nótese que en ambas representaciones del sistema, tanto las funciones f (·), h(·) en (1) y las
matrices A, B y H en (2) dependen de los parámetros de la planta p y de control θ. Esta de-
pendencia hace referencia a la posible variación del sistema según cambios en dichos parámetros

3
Informe Número 1

por variaciones en el entorno, en las propiedades mismas del sistema, o por la acción de control
dada a la planta que depende de la manipulación de θ según cierto criterio para obtener un com-
portamiento deseado. La estructura de estos sistemas puede verse en la Figura 1, conformado por
tres bloques principales: planta, controlador y ajuste de parámetros. Puede verse, que el bloque
de ajuste de los parámetros tiene como entradas la salida y(t) y entrada u(t) de la planta y la
referencia r(t) que se quiere alcanzar, señales base para el conocimiento del comportamiento de la
planta en relación al comportamiento deseado; y la salida son los parámetros de control ajustados
para reducir el error que pueda encontrarse entre y(t) y r(t).

Luego, la situación de interés consiste en ajustar continuamente los parámetros de control, en


función de alguna de las variables observadas del sistema. Para el caso en que se quiera que variar
un parámetro θi según las salidas y(t), este se puede expresar como la solución de:

θ˙i = hm+1 (y1 , y2 , ..., ym , t) = fn+1 (x1 , x2 , ...xn , t), (3)

lo cual conlleva a que se puede considerar θi como una variable de estado en el espacio de dimensión
n + 1. Note que si el sistema original es de la forma lineal (2), al considerar las dinámicas de los
parámetros todo el sistema pasa a ser no lineal.

Figura 1: Diagrama de bloques de un sistema adaptable

2.1. Definición de un sistema adaptable


Los sistemas adaptables han provocado discusiones según diferentes puntos de vista que no se
han logrado condensar en una sola definición. Algunas de las definiciones más relevantes en este
tópico son:

4
Informe Número 1

Definición 1: Un sistema adaptable es aquel con la capacidad de monitorear su propio


desempeño en relación a una condición óptima y la capacidad de modificar sus propios
parámetros por medio de una acción de control en lazo cerrado para alcanzar este óptimo.

Definición 2: Un sistema adaptable es un sistema de control de realimentación lo suficien-


temente inteligente como para ajustar sus propias caracterı́sticas en un entorno cambiante y
operar de una manera óptima según un criterio dado.

Definición 3: Según Bellman y Kalaba un proceso de control adaptable es aquel en el que no


se tiene información completa de la planta (sistema determinı́stico) ni de las distribuciones
de probabilidad de incertidumbres que pueden afectarla (sistema estocástico) por lo que el
controlador debe mejorar su desempeño a través de las salidas del proceso y poca información
a priori de la planta que esté disponible.

Definición 4: De acuerdo con Truxal, un sistema adaptable es aquel que se diseña desde un
puto de vista adaptable.

Por consiguiente, a diferencia del control clásico, el control adaptativo es se centra en controlar
un sistema parcialmente conocido que en el tiempo puede cambiar sus caracterı́sticas debido di-
versos factores, y que por medio de la información disponible es capaz de ajustar sus parámetros
para mejorar su desempeño según un criterio definido por el diseñador.

3. Control directo e indirecto


Previo a la descripción de algunas de las estrategias de control adaptable más utilizadas, se
detallan el problema de control a tener en cuenta para los sistemas adaptables. Recalcando las
posibles variaciones del sistema, es deseable obtener cierto conocimiento de la planta y su entorno
y usar esta información en el control del sistema. Puede notarse entonces dos problemas a resolver
en simultáneo: la identificación de las caracterı́sticas y el estado de la planta P y la determinación
del controlador C que incluya dicha información. A estas dos etapas en conjunto se le denomina
control dual.

Existen dos acercamientos a la solución del control dual:

Control directo: Consiste en la identificación directa de los parámetros del controlador tal
que con estos se cumpla un ı́ndice de desempeño especı́fico, sin la necesidad de hacer una
identificación de los parámetros de la planta. Su esquema de control se enseña en la Figura
2(a), donde se observa que tanto el controlador C como la planta P pueden variar, y hay
una comparación entre la salida de la planta yp (t) y una referencia que puede o no tener
cierta dinámica de acuerdo a un modelo M (este modelo se explica mas adelante). Luego,
los parámetros del controlador se ajustan de acuerdo al error ec = yp (t) − ym (t).

5
Informe Número 1

(a) (b)

Figura 2: Diagrama de bloques (a) control adaptable directo (b) control adaptable indirecto.

Control indirecto: Método de solución que consiste en estimar los parámetros de la planta
de forma on-line y los parámetros del controlador se ajustan en base a esta estimación. Su
esquema se ilustra en la Figura 2(b). Al igual que en el caso directo, la planta y el controlador
pueden variar, sin embargo el bloque esencial en este esquema está dado por la identificación
o estimación de la planta P̂ , cuyo valor se provee al control y en función de este se ajustan
los parámetros.

4. Estrategias de control adaptable


A continuación se describen brevemente algunas de las estrategias de control adaptable más
utilizadas. Estas son el método de perturbación de parámetros, el método de sensibilidad, el método
de control por modelo de referencia y el regulador self-tuning. En todos los casos, el objetivo es
determinar un controlador tal que genere una acción de control o entrada a la planta u(t), para
mantener la salida de la planta yp (t) en un valor deseado. Este controlador se basa en el ajuste de
sus parámetros θ hasta alcanzar un valor θ∗ constante, tal que el sistema lineal:

ẋ = A(p, θ∗ , t)x + B(p, θ∗ , t)u,


(4)
y = H(p, θ∗ , t),
se comporte de forma deseada. Luego, se busca ajustar los parámetros de control por medio de las
señales medidas del sistema para lograr:

limt→∞ θ(t) = θ∗ (5)

6
Informe Número 1

4.1. Método de perturbación de parámetros


Método que se acomoda a la estructura del control directo. Se basa en la variación de las en-
tradas o parámetros que afectan el desempeño del sistema según un ı́ndice de desempeño impuesto
por el diseñador, y evaluar si este mejora o no. Cuando el desempeño mejora se continua alterando
los controles en la misma dirección, mientras que cuando no lo hace, los controles se deben alterar
en dirección opuesta. La implementación del método depende de la estabilidad del sistema global.

4.2. Método de sensibilidad


Método basado en la estructura de control indirecto. La idea de este método es conocer el
efecto de cada parámetro sobre el comportamiento del sistema. Para ello, se calcula la derivada
parcial del estado o de la variable de interés con respecto a cada parámetro, obteniendo con las
llamadas funciones de sensibilidad. Luego, según el cálculo de estas funciones, el parámetro se
ajusta para obtener el comportamiento óptimo bajo el criterio del diseñador. Sin embargo, note
que para este procedimiento se asume un modelo de sensibilidad que es una replica del sistema, el
cual no está disponible en un sistema adaptable. Es por esta razón, que debe realizarse un proceso
de identificación del sistema, tal que la salida del modelo identificado se aproxime a la salida del
proceso y este modelo identificado pasa a utilizarse como el modelo para el control.

4.3. Método de control adapatable con modelo de referencia


Método con estructura de control directo o indirecto. En esta estrategia se busca determinar
una acción de control u(t) tal que la salida de la planta yp (t) siga a la salida ym de un modelo
de referencia M que especifica la respuesta deseada. Este modelo se establece según la informa-
ción a priori de la planta y la estructura del controlador se selecciona tal que matemáticamente
pueda realizarse una equivalencia entre el sistema controlador-planta y el modelo de referencia.
Considérese el sistema lineal que describe a la planta:
ẋp = Ap xp + Bp up ,
(6)
y p = A p xp ,
donde en el caso de control indirecto, los parámetros de 6 se sintonizan tal que el comportamiento
del modelo se aproxime al comportamiento observado del proceso. El modelo de referencia puede
diseñarse de dos formas:

Modelo de referencia autónomo: Descrito por:

ẏm = Am ym . (7)

Basándose en diferentes ı́ndices de desempeño que depende del error yp −ym de forma explı́cita
o ẏp − Am ym de forma implı́cita, se puede plantear la acción de control como u(t) = Km ym +
Kp xp o u(t) = Kp xp respectivamente.

7
Informe Número 1

Modelo de referencia con entrada: Descrito por:


ẋm = Am xm + Bm r,
(8)
ym = Cm xm ,
donde r corresponde a la señal que se le aplica de entrada al modelo de referencia. Con el
objetivo de que el comportamiento de la salida de (6) se aproxime a a la salida del modelo
de referencia a medida que avanza el tiempo, se propone la acción de control:
u(t) = Kp xp (t) + Km xm (t) + Kr r(t). (9)
Luego el problema a solucionar en este método puede dividirse en una parte algebraica confor-
mada por i) la determinación del modelo de referencia M tal que exista una entrada u a la planta
que asegure que
limt→∞ |yp (t) − ym (t)| = 0, (10)
y ii) la determinación del controlador C(θ) que genere u tal que exista un valor constante θ = θ∗
para el cual el sistema Controlador-Planta sea igual al modelo de referencia. Y en una parte
analı́tica en la que se determina una ley adaptable para ajustar θ para satisfacer 10.

4.4. Regulador self-tuning


Método de control usualmente indirecto pero que en algunos casos se utiliza con el esquema de
control directo. Consiste en un estimador de parámetros de la planta, un controlador lineal y un
bloque que determina los parámetros del controlador a partir de los parámetros estimados.

5. Sistemas adaptables estables


Históricamente, el diseño de sistema de control adaptables se centraba en encontrar una es-
tructura y ley de ajuste de los parámetros para garantizar la optimalidad del sistema y tras esto
se analizaba la estabilidad, la cual para sistemas no lineales no es una tarea sencilla. Sin embargo,
este enfoque ha cambiado a diseñar los sistemas de control adaptable de manera que fuera estable
para todos los valores de un parámetro γ ∈ Sγ , y de este conjunto de valores se selecciona aquel
γopt según un análisis de optimización. Ası́, es de resaltar que en el diseño del control de este tipo
de sistemas prima encontrar una ley adaptable para asegurar la estabilidad del mismo y luego con
esta garantı́a encontrar la respuesta óptima.

El análisis de la estabilidad de estos sistemas se realiza partiendo de los modelos del error tanto
para el estado como para los parámetros:
e(t) = x(t) − x∗ (t),
(11)
ψ(t) = θ(t) − θ∗ ,
donde x∗ (t) es la trayectoria de estado deseada. Y se busca determinar una ley adaptativa de la
forma θ̇ = f (e(t), t) tal que limt→∞ e(t) = 0.

8
Informe Número 1

6. Conclusión
En este informe se ha dado una introducción a los sistemas de control adaptables al exponer e
interpretar las ideas presentadas en el libro guı́a Stable adaptive systems. Por medio de esto se logran
comprender las bases de estos sistemas, su diferencia con otros tipo de sistemas (deterministicos y
estocásticos), sus aplicaciones y ventajas. Además se da una breve explicación de técnicas de control
adaptable que son muy utilizadas y la importancia del análisis de la estabilidad al momento de
diseñar, todo esto a modo de abrebocas para los próximos tópicos del curso Control adaptable.

Referencias
[1] R. P. Moreno, Evolución Histórica de la Ingenierı́a de Control.
http://automata.cps.unizar.es/regulacionautomatica/historia.PDF, 1999.

[2] A. M. Narendra, Kumpati S.and Annaswamy, Stable adaptive systems, 1st ed. New York:
Dover publications, INC, 2005.

[3] K. J. Astrom and B. Wittenmark, Adaptative control, 2nd ed. New York: Dover publications,
INC, 2008.

También podría gustarte