Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen
En este informe se presenta una introducción al control adaptable, su contexto y las aplicaciones
en las que se requiere esta estrategia de control. Adicionalmente, se da su definición desde diferentes
puntos de vista y la descripción de las técnicas de control adaptable más utilizadas. Por último, se
expone la importancia del diseño del control adaptable partiendo del análisis de la estabilidad del
sistema y modelos del error.
Abstract
This report presents an introduction to adaptive control, its context and the applications in
which this control strategy is required. Additionally, its definition from different points of view is
provided and the description of the most used adaptive control techniques is given. Finally, the
importance of adaptive control design from the analysis of the system stability and error models
is exposed.
1. Introducción
Desde sus inicios el hombre ha sentido la necesidad de controlar los fenómenos que lo rodean
y la historia da evidencia de ello. Algunos de los acontecimientos más relevantes se pueden enun-
ciar desde el siglo I antes de Cristo, en la antigua Grecia, donde se llevó a cabo el dispensador
de vino de Herón de Alejandrı́a, considerado como uno de los primeros sistemas realimentados
de la historia. Cerca de los años 1200 se destaca la realización de un sistema de control de un
molino de harina para el suministro de grano en función de la fuerza del viento. En el siglo XVII
se presentan distintos sistemas de regulación de temperatura aplicados al horno y a la incubadora
1
Informe Número 1
de Drebbel. En 1745, E. Lee inventa un sistema para controlar la orientación y el grado de in-
clinación de las aspas de un molino. Sin embargo, estos ejemplos tienen algo en común, carecen
de las herramientas matemáticas necesarias para sustentar el surgimiento de la teorı́a de control [1].
Gracias a los trabajos de estabilidad realizados por Routh en 1877, Hurwitz en 1885 y Lyapu-
nov en 1889, y a los estudios de sistemas en el dominio de la frecuencia de Nyquist en 1932, Black
en 1934 y Bode en 1940, la teorı́a de control fue tomando forma. Posteriormente, Ziegler y Nichols
en 1942 presentan fórmulas empı́ricas para sintonizar un regulador PID y a consecuencia de la
segunda guerra mundial se impulsa aún más la teorı́a de control por desarrollos como el analizador
diferencial en 1942 y los trabajos realizados para los misiles V1 y V2 en 1945. En 1948 y 1950, Evans
presenta el método del lugar de las raı́ces, y los avances computacionales permiten los primeros
pasos del control por computador donde se destacan los trabajos de Shanon en 1948. Se resaltan
además, los aportes del grupo del profesor Ragazzini en la universidad de Columbia en la década
de los 50, entre ellos, Salzer en 1954 con la transformada Z y Jury en 1958 con su criterio de esta-
bilidad, aportes que conforman las bases a lo que hoy se conoce como la teorı́a de control clásica [1].
En 1955 se comienza a tejer la teorı́a de control moderna que se basa en representar los sistemas
en variables de estado. En 1960, Kalman introduce sus criterios de observabilidad y controlabilidad
y la resolución de los problemas de control óptimo cuadrático y lineal cuadrático Gaussiano [1].
La no validez de los modelos lineales y la necesidad por descripciones más precisas de los proce-
sos en cuanto a incertidumbres en los insumos, los valores de los parámetros y la estructura del
sistema, enfocaron la atención de los investigadores en crear controladores precisos, dando lugar a
áreas nuevas en el control automático como la adaptable [2]. Inicialmente fueron presentados los
sistemas adaptables con modelo de referencia propuestos por los investigadores del MIT, Whita-
ker, Narmon y Kezer en 1958. El concepto de regulador autoajustable fue propuesto inicialmente
por Kalman, usando el método de mı́nimos cuadrados recursivos como estimador en linea. Otro
sistema fue el desarrollado por Peterka en 1970 y por Aström y Witenmark en 1973, el cual se
trataba de un sistema basado en minimización de la varianza de la salida considerado en un en-
torno estocástico [1]. El principal inconveniente de este tipo de estrategias de control en aquella
época, era que la estabilidad no llegaba a asegurarse de manera general, hasta que los aportes rea-
lizados por Parks en 1976, establecieron una garantı́a de estabilidad global del sistema adaptable
y posteriormente esto se reforzó gracias a los trabajos de Landau en 1979, quien utiliza la teorı́a
de la hiperestabilidad de Popov para el diseño de un sistema adaptable con modelo de referencia [1].
A lo largo de este documento se abordará una introducción a los sistemas de control adaptable,
basándose en las ideas presentadas en [2] y [3]. Inicialmente se presentan algunos conceptos básicos y
definiciones relacionados con teorı́a de sistemas y sistemas adaptables, posteriormente se mencionan
algunas estrategias de control adaptable como el control por modelo de referencia y el self-tuning,
y se destaca la importancia del análisis de la estabilidad para el diseño de estos controladores. Por
último, se exponen las conclusiones.
2
Informe Número 1
2. Sistemas adaptables
En múltiples aplicaciones existen fuentes de variaciones dadas por diferentes perturbaciones
o cambios en las mismas propiedades del sistema, variaciones de las cuales, en gran cantidad de
casos, no se tiene suficiente información (sea su valor exacto o su distribución de probabilidad) por
lo que, con el objetivo de aplicar control, se deben buscar estrategias en las que sea suficiente la
información a priori disponible del proceso para estimar y adaptar la parte desconocida del mismo.
Con el fin de dar un acercamiento a los sistemas adaptables se parte de las siguientes definiciones
esenciales para su comprensión:
Sistema: Conjunto de objetos unidos por algún tipo de interacción o dependencia, que recibe
entradas en ciertos instantes de tiempo y emite salidas.
Entradas: Influencias generadas fuera del sistema que actúan sobre él y no se ven afectadas
por lo que sucede dentro del mismo. Se denotan por u(t) ∈ U , con U el conjunto de entradas
posibles.
Salidas: Variables de interés que son afectadas por la acción de las entradas. Se denotan
como y(t) ∈ Y , donde Y es el conjunto de salidas posibles.
Estado: Conjunto más pequeño de variables tal que su conocimiento en un instante determi-
nado t0 en conjunto con el conocimiento de los valores de las entradas en los instantes t ≥ t0 ,
permite determinar el la evolución del sistema para cualquier instante de tiempo t ≥ t0 . Se
denota al estado como x(t) donde cada xi (i = 1, ..., n) es una variable de estado.
Parámetro: Valor constante en un experimento pero que puede variar entre experimentos.
Se denota p los parámetros del proceso que son desconocidos y θ los parámetros de control.
Tras identificar cada una de las variables que componen un sistema, este se puede representar de
la forma:
ẋ(t) = f (x(t), u(t), p, θ, t), y(t) = h(x(t), p, θ, t), (1)
o siendo el caso en que las dinámicas del estado son lineales la representación del sistema es:
el cual puede ser invariante en el tiempo al considerar las matrices A, B y H dependientes única-
mente de los parámetros.
Nótese que en ambas representaciones del sistema, tanto las funciones f (·), h(·) en (1) y las
matrices A, B y H en (2) dependen de los parámetros de la planta p y de control θ. Esta de-
pendencia hace referencia a la posible variación del sistema según cambios en dichos parámetros
3
Informe Número 1
por variaciones en el entorno, en las propiedades mismas del sistema, o por la acción de control
dada a la planta que depende de la manipulación de θ según cierto criterio para obtener un com-
portamiento deseado. La estructura de estos sistemas puede verse en la Figura 1, conformado por
tres bloques principales: planta, controlador y ajuste de parámetros. Puede verse, que el bloque
de ajuste de los parámetros tiene como entradas la salida y(t) y entrada u(t) de la planta y la
referencia r(t) que se quiere alcanzar, señales base para el conocimiento del comportamiento de la
planta en relación al comportamiento deseado; y la salida son los parámetros de control ajustados
para reducir el error que pueda encontrarse entre y(t) y r(t).
lo cual conlleva a que se puede considerar θi como una variable de estado en el espacio de dimensión
n + 1. Note que si el sistema original es de la forma lineal (2), al considerar las dinámicas de los
parámetros todo el sistema pasa a ser no lineal.
4
Informe Número 1
Definición 4: De acuerdo con Truxal, un sistema adaptable es aquel que se diseña desde un
puto de vista adaptable.
Por consiguiente, a diferencia del control clásico, el control adaptativo es se centra en controlar
un sistema parcialmente conocido que en el tiempo puede cambiar sus caracterı́sticas debido di-
versos factores, y que por medio de la información disponible es capaz de ajustar sus parámetros
para mejorar su desempeño según un criterio definido por el diseñador.
Control directo: Consiste en la identificación directa de los parámetros del controlador tal
que con estos se cumpla un ı́ndice de desempeño especı́fico, sin la necesidad de hacer una
identificación de los parámetros de la planta. Su esquema de control se enseña en la Figura
2(a), donde se observa que tanto el controlador C como la planta P pueden variar, y hay
una comparación entre la salida de la planta yp (t) y una referencia que puede o no tener
cierta dinámica de acuerdo a un modelo M (este modelo se explica mas adelante). Luego,
los parámetros del controlador se ajustan de acuerdo al error ec = yp (t) − ym (t).
5
Informe Número 1
(a) (b)
Figura 2: Diagrama de bloques (a) control adaptable directo (b) control adaptable indirecto.
Control indirecto: Método de solución que consiste en estimar los parámetros de la planta
de forma on-line y los parámetros del controlador se ajustan en base a esta estimación. Su
esquema se ilustra en la Figura 2(b). Al igual que en el caso directo, la planta y el controlador
pueden variar, sin embargo el bloque esencial en este esquema está dado por la identificación
o estimación de la planta P̂ , cuyo valor se provee al control y en función de este se ajustan
los parámetros.
6
Informe Número 1
ẏm = Am ym . (7)
Basándose en diferentes ı́ndices de desempeño que depende del error yp −ym de forma explı́cita
o ẏp − Am ym de forma implı́cita, se puede plantear la acción de control como u(t) = Km ym +
Kp xp o u(t) = Kp xp respectivamente.
7
Informe Número 1
El análisis de la estabilidad de estos sistemas se realiza partiendo de los modelos del error tanto
para el estado como para los parámetros:
e(t) = x(t) − x∗ (t),
(11)
ψ(t) = θ(t) − θ∗ ,
donde x∗ (t) es la trayectoria de estado deseada. Y se busca determinar una ley adaptativa de la
forma θ̇ = f (e(t), t) tal que limt→∞ e(t) = 0.
8
Informe Número 1
6. Conclusión
En este informe se ha dado una introducción a los sistemas de control adaptables al exponer e
interpretar las ideas presentadas en el libro guı́a Stable adaptive systems. Por medio de esto se logran
comprender las bases de estos sistemas, su diferencia con otros tipo de sistemas (deterministicos y
estocásticos), sus aplicaciones y ventajas. Además se da una breve explicación de técnicas de control
adaptable que son muy utilizadas y la importancia del análisis de la estabilidad al momento de
diseñar, todo esto a modo de abrebocas para los próximos tópicos del curso Control adaptable.
Referencias
[1] R. P. Moreno, Evolución Histórica de la Ingenierı́a de Control.
http://automata.cps.unizar.es/regulacionautomatica/historia.PDF, 1999.
[2] A. M. Narendra, Kumpati S.and Annaswamy, Stable adaptive systems, 1st ed. New York:
Dover publications, INC, 2005.
[3] K. J. Astrom and B. Wittenmark, Adaptative control, 2nd ed. New York: Dover publications,
INC, 2008.