Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Bases PDF
Bases PDF
Índice i
1 Fundamentos 1
2 Controladores predictivos 11
3 Algoritmos 25
i
ii Índice general
Bibliografı́a 69
Tema 1
Fundamentos
Aunque en el pasado podı́a considerarse que el único objetivo del control consistı́a en
mantener una operación estable del proceso, actualmente la industrias se enfrentan a
un mercado cambiante y difı́cil de predecir, lo que les obliga a operar sus procesos
productivos en consonancia con la evolución del mercado para poder mantenerse
competitivas y rentables.
1
2 Tendencias actuales en control de procesos
Los resultados de un estudio realizado por Takatsu et al. para la Society of Instru-
mentation and Control Engineering [19] son indicativos de las necesidades futuras de
la industria en el ámbito del control. En este informe se analizan los principales proble-
mas de control que se encuentran en la industria de procesos, el estado de aplicación
de las tecnologı́as avanzadas, el grado de satisfacción de los usuarios con cada una de
ellas y las expectativas que cada una genera.
La evolución en los últimos años de los principales problemas de control para los
usuarios se muestra en la tabla 1.1.
Obsérvese que los tres primeros problemas siguen siendo los mismos en los tres
años que se ha realizado la encuesta y parece que a lo largo del tiempo se resuelven
problemas básicos como estabilidad y respuesta y se atacan problemas más difı́ciles
como dinámica no lineal. Como se verá más adelante, el Control Predictivo es una
metodologı́a capaz de ofrecer soluciones a todos estos problemas.
Con el fin de evaluar el grado de satisfacción del usuario con las distintas técnicas,
se muestra en la tabla 1.5 el porcentaje de usuarios que están satisfechos con cada una
de las técnicas que han empleado. Como conclusión interesante destaca el hecho de
que prácticamente todos los usuarios de Control Predictivo están satisfechos.
MPC
Retardo
Borroso
PID
Expectativas
Adaptativo
Neuronal
Hoo
Desacoplo
LQ Auto
ajuste
F. Kalman
Deslizante
Posibilidades técnicas
Este estado actual y futuras tendencias en el campo del control de procesos indus-
triales indican que el Control Predictivo Basado en Modelo se puede considerar una
tecnologı́a suficientemente introducida en la industria y que además sigue despertando
muchas expectativas. Estos hechos, unidos a la existencia de campos abiertos tanto en
investigación como en temas relacionados con la implementación justifica un estudio
más detallado de esta tecnologı́a.
El Control Predictivo se desarrolló en base a dos lı́neas básicas. Por un lado, a finales
de los años setenta surgieron diversos algoritmos que usaban explı́citamente un mo-
delo dinámico del proceso para predecir el efecto de las acciones de control futuras
en la salida, las cuales eran determinadas minimizando el error predicho sujeto a res-
tricciones de operación. La optimización se repetı́a en cada instante de muestreo con
información actualizada del proceso. Estas formulaciones eran de naturaleza heurı́stica
6 Situación actual
Independientemente fue surgiendo otra lı́nea de trabajo en torno a las ideas del con-
trol adaptativo, desarrollando estrategias esencialmente para procesos monovariables
formuladas con modelos entrada/salida. En este contexto se extendieron las ideas del
Controlador de Mı́nima Varianza y se desarrolló el Control Predictivo Generalizado
(Generalized Predictive Control GPC) que es uno de los métodos más populares en la
actualidad.
Otra de las razones que han contribuido a que el MPC se haya convertido en un éxito
comercial es el hecho de que existen unos 15 suministradores que instalan el producto
llave en mano, con periodos de amortización de entre 3 y 12 meses, permitiendo
que medianas empresas puedan tener acceso a esta tecnologı́a. Aparte de esto, los
nuevos Sistemas de Control Distribuido empiezan a ofertar productos MPC genéricos
que ofrecen al usuario la posibilidad de realizar futuras modificaciones sin depender
de un producto cerrado.
Uso explı́cito de un modelo para predecir la salida del proceso en futuros instantes
de tiempo (horizonte).
Cálculo de las señales de control minimizando una cierta función objetivo.
Estrategia deslizante, de forma que en cada instante el horizonte se va despla-
zando hacia el futuro, lo que implica aplicar la primera señal de control en cada
instante y desechar el resto, repitiendo el cálculo en cada instante de muestreo.
Los distintos algoritmos de MPC difieren entre sı́ casi exclusivamente en el modelo
usado para representar el proceso y los ruidos y en la función de coste a minimizar.
Aunque las diferencias puedan parecer pequeñas a priori, pueden provocar distintos
comportamientos en bucle cerrado, siendo crı́ticas para el éxito de un determinado
algoritmo en una determinada aplicación.
El MPC presenta una serie de ventajas sobre otros métodos, entre las que destacan:
Puede ser usado para controlar una gran variedad de procesos, desde aquéllos con
dinámica relativamente simple hasta otros más complejos incluyendo sistemas
con grandes retardos, de fase no mı́nima o inestables.
1. En cada instante t y haciendo uso del modelo del proceso se predicen las futuras
salidas para un determinado horizonte N , llamado horizonte de predicción. Estas
Fundamentos 9
u(t+k|t)
u(t)
^y(t+k|t)
y(t)
N
Para llevar a cabo esta estrategia, se usa una estructura como la mostrada en la
figura 1.3. Se hace uso de un modelo para predecir las salidas futuras del proceso,
1
la notación indica el valor de la variable en el instante t + k calculado en el instante t.
10 Estrategia de los controladores
Controles
futuros
Optimizador
Errores futuros
basándose en las futuras señales de control propuestas. Estas señales son calculadas
por el optimizador teniendo en cuenta la función de coste (donde aparece el futuro error
de seguimiento) ası́ como las restricciones. Por tanto el modelo juega un papel decisivo
en el controlador. El modelo elegido debe ser capaz de capturar la dinámica del proceso
para poder predecir las salidas futuras al mismo tiempo que debe ser sencillo de usar
y de comprender.
Controladores predictivos
Todos los controladores predictivos poseen elementos comunes y para cada uno de
estos elementos se pueden elegir diversas opciones, dando lugar a distintos algoritmos.
Estos elementos son:
Modelo de predicción
Función objetivo
La piedra angular del MPC es el modelo; un diseño completo debe incluir los me-
canismos necesarios para la obtención del mejor modelo posible, el cual debe ser lo
suficientemente rico para capturar al maximo la dinámica del proceso y debe ser ca-
paz de permitir el cálculo de las predicciones a la vez que sea intuitivo y permita un
análisis teórico. El uso del modelo del proceso viene determinado por la necesidad del
cálculo de la salida predicha en instantes futuros ŷ (t + k j t). Las diferentes estrategias
de MPC pueden usar distintos modelos para representar la relación de las salidas con
las entradas medibles, algunas de las cuales serán variables manipuladas y otras se
pueden considerar como perturbaciones medibles, que pueden ser compensadas por
acción feedforward. Además se tendrá en cuenta un modelo de las perturbaciones, para
intentar describir el comportamiento que no aparece reflejado en el modelo del pro-
ceso, englobándose aquı́ el efecto de las entradas no medibles, el ruido y los errores de
modelado.
11
12 Elementos básicos
Para el estudio se puede separar el modelo en dos partes: el modelo del proceso
propiamente dicho y el modelo de las perturbaciones. Cualquier método usará ambas
partes para la predicción.
Casi todas las formas posibles de modelar un proceso aparecen en alguna formu-
lación de MPC siendo las más usadas las siguientes:
h2
N
i
g
g
hi
h1
g2
hN
y(t) y(t)
g1
t t+1 t+2 ... t+N t t+1 t+2 ... t+N
a) b)
A( z ; 1 ) = 1 + a1 z ;1 + a2 z ;2 + + ana z ;na
B (z ;1 ) = b1 z;1 + b2 z;2 + + bnb z;nb
Por tanto la predicción vendrá dada por
B (z ;1 )
ŷ(t + k j t) = A(z;1 ) u(t + k j k)
Esta representación es válida también para procesos inestables y posee la ventaja
de necesitar pocos parámetros, aunque es fundamental un conocimiento a priori
del proceso sobre todo en cuanto al orden de los polinomios A y B .
X
k
ŷ(t + k j t) = C x̂(t + k j t) = C Ak x(t) + Ai;1Bu(t + k ; i j t)]
i=1
14 Elementos básicos
Posee la ventaja de que sirve también para sistemas multivariables a la vez que
permite analizar la estructura interna del proceso (aunque a veces los estados
obtenidos al discretizar no tienen ningún significado fı́sico). Los cálculos pueden
ser complicados, con la necesidad adicional de incluir un observador si los estados
no son accesibles.
(z ;1 )e(t)
n(t) = C D (z ;1 )
n(t) = 1 ;e(tz);1
cuya mejor predicción será n̂(t + k j t) = n(t).
uf (t ; j ) = u(t ; j ) para j = 1 2
uf (t + j ) = u(t ; 1) para j = 0 1 2
Controladores predictivos 15
La señal uc (t) vale cero en el pasado y corresponde a las señales de control en los
instantes futuros:
u y
Process
t t
u uc y yc
f f
t t t t
Los diversos algoritmos de MPC proponen distintas funciones de coste para la obtención
de la ley de control. En general se persigue que la salida futura en el horizonte
considerado siga a una determinada señal de referencia al mismo tiempo que se puede
penalizar el esfuerzo de control requerido para hacerlo. La expresión general de tal
función objetivo será:
X
N 2 X
Nu
J (N1 N2 Nu) = (j )ŷ(t + j j t) ; w(t + j )]2 + (j )4u(t + j ; 1)]2 (2:3)
j =N1 j =1
r(t+k)
w1(t+k)
w2 (t+k)
y(t)
4u(t + j ; 1) = 0 j > Nu
lo cual es equivalente a dar pesos infinitos a las cambios en el control a partir de cierto
instante. El caso lı́mite serı́a considerar Nu igual a 1 con lo que todas las acciones
futuras serı́an iguales a u(t)1 .
Este método usa la respuesta ante escalón (2.2) para modelar el proceso, considerando
sólo los N primeros términos, asumiendo por tanto que el proceso es estable. En
1
Recuérdese que debido al horizonte deslizante, la señal de control se recalcula en el siguiente
muestreo.
Controladores predictivos 19
X
k X
N
ŷ(t + k j t) = gi 4 u(t + k ; i) + gi 4 u(t + k ; i) + n̂(t + k j t)
i=1 i=k+1
donde el primer término contiene las acciones de control futuras (que serán calculadas),
el segundo los valores pasados de las acciones de control (conocidas) y el último
representa las perturbaciones. La función de coste puede considerar sólo errores futuros
o incluir también el esfuerzo de control, en cuyo caso toma la forma genérica (2.3).
Una de las caracterı́sticas de este método que lo ha hecho muy popular en la industria
es la inclusión de restricciones, que se traduce en inecuaciones de la forma genérica:
X
N
Cyij ŷ(t + k j t) + Cuij u(t + k ; i) + cj 0 j = 1 : : : Nc
i=1
En este caso la optimización debe ser numérica y se lleva a cabo en cada periodo de
muestreo, enviándose la señal u(t) y recalculando todo en el nuevo periodo de muestreo,
como en todos los métodos MPC. Los principales inconvenientes de este método son el
tamaño del modelo empleado y la imposibilidad de tratar procesos inestables.
Este método se conoce también como Model Predictive Heuristic Control y el producto
comercial se llama IDCOM (Identification-Command). Es muy similar al DMC con la
diferencia principal de usar un modelo de respuesta impulsional (2.1). Introduce el
concepto de trayectoria de referencia como un sistema de primer orden que evoluciona
desde la salida actual al setpoint según una determinada constante de tiempo. La
varianza del error entre esta trayectoria y la salida es lo que marca la minimización de
la función objetivo. Las perturbaciones se pueden tratar como en el método anterior o
se pueden estimar según la siguiente expresión:
Puntos de coincidencia
Este controlador fue desarrollado por Richalet [18] para procesos rápidos. Emplea un
modelo en el espacio de estados, por lo que permite el manejo de procesos inestables, y
también la extensión al caso no lineal. Este esquema de control tiene dos caracterı́sticas
que lo distinguen del resto de controladores de la familia: el uso de puntos de coincidencia
y de funciones base.
X
nB
u(t + k) = i(t)Bi(k)
i=1
Normalmente estas funciones son de tipo polinómico: escalones (B1 (k ) = 1), rampas
(B2 (k ) = k) o parábolas (B3 (k ) = k2 ), ya que la mayorı́a de referencias se pueden
especificar como combinación de estas funciones. Con esta estrategia, un perfil de
entrada complejo se puede especificar usando un pequeño número de parámetros
desconocidos i que son las incógnitas del problema de minimización.
4u(t + k ; 1) = 0 1<k N ;d
con el grado de E igual a N ; 1. Una ventaja de este método es que se puede encontrar
fácilmente una solución explı́cita, dada por
Este método propuesto por Clarke et al. [5] emplea un modelo CARIMA (Controlled
Auto-Regressive Integrated Moving Average) para la predicción de la salida:
donde la perturbación viene dada por un ruido blanco coloreado por el polinomio
C (z;1 ). Como en la práctica es difı́cil encontrar el verdadero valor de este polinomio, se
puede emplear como parámetro de diseño para rechazo de perturbaciones o mejora de
la robustez. La predicción óptima se lleva a cabo resolviendo una ecuación diofántica,
lo cual puede hacerse eficazmente de forma recursiva.
Este algoritmo, al igual que otros que usan el modelo de función de transferen-
cia, se puede implementar fácilmente en forma adaptativa usando un algoritmo de
identificación en lı́nea como los mı́nimos cuadrados recursivos.
Las bases teóricas del algoritmo GPC has sido ampliamente estudiadas y se puede
demostrar (ver [4]) que, para distintos conjuntos de parámetros, el algoritmo es estable
y que otros controladores como por ejemplo el dead beat son casos incluidos en éste.
Controladores predictivos 23
Se puede considerar que productos como el MAC-IDCOM o el DMC están ampliamente in-
troducidos en la industria, proporcionando un buen control de sistemas multivariables
sin restricciones y constituyen la primera generación de controladores predictivos.
Sin embargo, la gestión de restricciones es algo que todavı́a no estaba bien resuelto
en estos productos hasta que apareció una versión de DMC denominada QDMC, ligera
variación del algoritmo básico en el que se consideran restricciones duras y blandas de
forma sistemática. Este algoritmo se suele considerar como la segunda generación.
Conforme la tecnologı́a MPC iba despertando mayor interés y aceptación, los proble-
mas que se abordaban eran cada vez más complejos, apareciendo nuevas problemáticas
como el tratamiento de la no-factibilidad, la consideración de modelos apropiados para
procesos inestables o la representación de la perturbación para la realimentación de otra
forma más adecuada que un valor constante. También se consideraba importante la
respuesta ante fallos, de forma que el controlador fuera capaz de reconfigurarse si se
perdiera alguna señal, o la dificultad de incluir diversos requerimientos de control en
una única función objetivo.
Los productos que existen hoy dı́a en el mercado comparten las ideas básicas de
DMC o MAC desarrollados hace más de veinte años y el mayor énfasis en los últimos
años se ha centrado en la consideración de otros tipos de modelos, incluyendo modelos
no lineales, y en una mejor integración del controlador con los equipos de control
existentes.
Algoritmos
En este tema se tratan en profundidad los dos algoritmos considerados más represen-
tativos de las metodologı́as existentes en Control Predictivo. Representan a las dos
familias de controladores predictivos, una de origen claramente industrial y la otra más
académica.
El método DMC se desarrolló a finales de los setenta by Cutler and Ramaker [6] de Shell
Oil Co. y ha sido aceptado ampliamente en el mundo industrial, principalmente por
las industrias petroquı́micas. Actualmente DMC es algo más que un algoritmo y parte
de su éxito se debe al hecho de que el producto comercial resuelve otros temas como
identificación u optimización global de la planta. En esta sección sólo se analiza el
algoritmo standard sin abordar detalles técnicos propios del producto de mercado que
no son de dominio público.
Pero a pesar de este éxito en la práctica, este método adolece quizás de la ausencia
de un análisis teórico maś completo que estudie la influencia de los parámetros de
diseño (horizontes, secuencias de ponderación) sobre la estabilidad del bucle cerrado
ası́ como de resultados de robustez.
3.1.1 Predicción
25
26 Dynamic Matrix Control
Xk X1
ŷ(t + k j t) = gi 4 u(t + k ; i) + gi 4 u(t + k ; i) + ym(t) ;
i=1 i=k+1
X1 X
k
; gi 4 u(t ; i) = gi 4 u(t + k ; i) + f (t + k)
i=1 i=1
donde f (t + k ) es la respuesta libre del proceso, es decir, la parte de la respuesta que no
depende de las acciones de control futuras, y viene dada por:
1
X
f (t + k) = ym(t) + gk+i ; gi) 4 u(t ; i)
( (3:1)
i=1
X
N
f (t + k) = ym(t) + gk+i ; gi) 4 u(t ; i)
(
i=1
ŷ(t + 1 j t) = g1 4 u(t) + f (t + 1)
Algoritmos 27
G
Obsérvese que está formada por m (horizonte de control) columnas de la respuesta
ante escalón apropiadamente desplazadas hacia abajo. y^
es un vector de dimensión
u
p que contiene las predicciones de la salida, representa el vector de incrementos de
f
control y es el vector de respuestas libres. Esta es la expresión que relaciona las
respuestas futuras con los incrementos en las señales de control, por lo que usará para
calcular las acciones necesarias para conseguir el comportamiento deseado del sistema.
y^d = Dd + fd
y^
donde d es la contribución de las perturbaciones medibles a la salida, es una matriz D
similar a G
que contiene los coeficientes de la respuesta del sistema a un escalón en
d
la perturbación, es el vector de incrementos en la perturbación y d es la parte de laf
respuesta que no depende de la perturbación.
f = fu + D d + fd + fn
Por tanto la predicción se puede expresar en la forma general
y^ = Gu + f
El objetivo del controlador DMC es llevar el proceso los más cerca posible al setpoint
en el sentido de mı́nimos cuadrados con la posibilidad de incluir una penalización en los
movimientos de la señal de control. Por ello se seleccionan las variables manipuladas
de forma que minimicen un objetivo cuadrático que puede incluir sólo los errores
futuros p X
J= ŷ t j j t) ; w(t + j )]2
( +
j =1
o también el esfuerzo de control, presentando la forma genérica
X
p X
m
J= ŷ t j j t) ; w(t + j )]
( +
2
+ 4u(t + j ; 1)]2
j =1 j =1
u = (GT G + I ); GT (w ; f )
1
(3:3)
Recuérdese que, como en todas las estrategias predictivas, sólo se envı́a al proceso
u
el primer elemento del vector (4u(t)). No es aconsejable implementar la secuencia
completa sobre los siguientes m intervalos, ya que al ser imposible estimar de forma
exacta las perturbaciones, no es posible anticiparse a las perturbaciones inevitables que
provocan que la salida real difiera de las predicciones que se emplean para calcular la
Algoritmos 29
w +
u y
K Proceso
-
f
Calculo
Resp. libre
X
N
Cyij ŷ(t + k j t) + Cuij u(t + k ; i) + cj 0 j = 1 : : : Nc
i=1
30 Dynamic Matrix Control
P. operacion
Zona segura 1 optimo
Punto operacion 1
Restriccion
zona Punto operacion 2
segura 2
Restriccion
que deben tenerse en cuenta para la minimización. Como se ha visto, las salidas se
pueden expresar en función del vector de incrementos de control a través de la matriz
dinámica, por que las restricciones tanto en la entrada como en la salida se pueden
recoger en una desigualdad matricial de la forma Ru
, como se verá con más c
detalle en el tema dedicado a restricciones. Ahora la minimización es un problema de
Programación Cuadrática QP, cuya solución es numérica.
Todo lo relacionado con las restricciones será abordado con mayor grado de detalle
en el tema dedicado a ello.
El esquema previo se puede extender fácilmente al caso de sistemas con varias entradas
y varias salidas. Las ecuaciones básicas se mantienen igual a excepción de que las
matrices y vectores cambian de dimensión para poder incluir todas las entradas y
salidas.
u = [4u (t) : : : 4u (t + m
1 1 1 ; 1) : : : 4unu(t) : : : 4unu(t + mnu ; 1)]T
teniendo en cuenta que la respuesta libre de la salida i depende tanto de valores pasados
de yi como de valores pasados de todas las señales de control.
Algoritmos 31
2 G G G1nu 3
66 G1121 G1222 G2nu 77
G = 66 .. 77
4 . ..
.
... ..
. 5
Gny1 Gny2 Gnynu
Cada submatriz Gij contiene los coeficientes de la respuesta ante escalón i-ésima
correspondiente a la entrada j-ésima. El proceso de minimización es análogo sólo que
la ponderación tanto de los errores como de los esfuerzos de control se realiza con
matrices de peso.
El Control Predictivo Generalizado GPC fue propuesto por Clarke et al. en 1987 y se ha
convertido en uno de los métodos más populares en el ámbito del Control Predictivo
tanto en el mundo industrial como en el académico. Se ha empleado con éxito en
numerosas aplicaciones industriales, mostrando buenas prestaciones a la vez que un
cierto grado de robustez respecto a sobreparametrización o retardos mal conocidos.
Puede resolver muchos problemas de control diferentes para un amplio campo de
procesos con un número razonable de variables de diseño, que son especificadas por
el operario dependiendo del conocimiento previo del proceso y de los objetivos de
control.
La idea básica del GPC es calcular una secuencia de futuras acciones de control
de tal forma que minimice una función de coste multipaso. El ı́ndice a minimizar es
una función cuadrática que mide por un lado la distancia entre la salida predicha del
sistema y una cierta trayectoria de referencia hasta el horizonte de predicción, y por
otro el esfuerzo de control necesario para obtener dicha salida.
El Control Predictivo Generalizado tiene muchas ideas en común con otros contro-
ladores predictivos previamente mencionados ya que está basado en las mismas ideas
pero posee a su vez algunas diferencias. Como se verá más adelante, es capaz de
proporcionar una solución explı́cita (en ausencia de restricciones), puede trabajar con
procesos inestables o de fase no mı́nima e incorpora el concepto de horizonte de control
ası́ como la consideración en la función de coste de ponderación de los incrementos en
las acciones de control. Las diversas posibilidades disponibles para el GPC conducen a
una gran variedad de objetivos de control comparado con otras realizaciones, algunas
de las cuales pueden ser consideradas como subconjuntos o casos lı́mites del GPC.
32 Control Predictivo Generalizado
La mayorı́a de los procesos de una sola entrada y una sola salida (single-input single-
output, SISO), al ser considerados en torno a un determinado punto de trabajo y tras ser
linealizados, pueden ser descritos de la siguiente forma:
X
N 2 X
Nu
J (N1 N2 Nu) = (j )ŷ(t + j j t) ; w(t + j )]
2
+ (j )4u(t + j ; 1)]2 (3:5)
j =N1 j =1
El objetivo es pues el cálculo de la futura secuencia de control u(t), u(t + 1),... de tal
manera que la salida futura del proceso y (t + j ) permanezca próxima a w (t + j ). Esto
se logra minimizando J (N1 N2 Nu).
Algoritmos 33
Predicción óptima
Está claro que solamente es necesario dar un paso más en la división para obtener
los polinomios Ej +1 y Fj +1 . Al ser Ej +1 el nuevo cociente de la división, será igual al
cociente que habı́a hasta el momento (Ej ) más un nuevo término, que será el fj0 pues
el divisor (Ã) es mónico. Por tanto:
G = 66 .. .. .. 77
4 . ..
. . . 5
g g ::: g
2 N ;1 N ;2 z(G0 (z;1 ) ; g ) 3
d+1
66 z2 (Gd+2 (z;1 ) ; g0 ; g1z;1 )
0
77
G0(z; )
1
= 66
4 ..
.
77
5
; ;
z (G (z ) ; g0 ; g1z ; ; gN ;1z
N ;(N ; 1)
2 F (dz+;N1 ) 3
1 1
)
66 Fdd++12 (z;1 ) 77
F( z ; )
1
= 66
4 ..
.
77
5
Fd+N (z ) ; 1
Al depender los últimos términos de la ecuación (3.9) sólo del pasado, pueden
agruparse en f, dando lugar a:
= + y Gu f (3:10)
Obsérvese que es la misma expresión que se obtuvo para el DMC, aunque en este
caso la respuesta libre es distinta.
donde:
h iT
w = w(t + d + 1) w(t + d + 2) w(t + d + N ) (3.12)
J = 12 uT Hu + bu + f0 (3:13)
donde:
H = GG I
2( T + )
b = f w G
2( ; )T
f0 = f w f w)
T
( ; ) ( ;
u = ;H; bT1
(3:14)
Debido al uso de la estrategia deslizante, sólo se aplica realmente el primer elemento del
vector u, repitiendo de nuevo el mismo procedimiento al siguiente instante de muestreo.
La solución propuesta involucra la inversión (o al menos la triangularización) de una
matriz de dimensión N N , lo cual conlleva una gran carga de cálculo. El concepto ya
usado en otros métodos de horizonte de control se emplea con la finalidad de reducir
la cantidad de cálculo, asumiendo que las señales de control permanecerán en un valor
constante a partir del intervalo Nu < N . Por tanto la dimensión de la matriz que hay
que invertir queda reducida a Nu Nu, quedando la carga de cálculo reducida (en el
caso lı́mite de Nu = 1, se reduce al caso escalar) aunque restringiendo la optimalidad.
2 3
0:133 0:286 0:147
;1 T 6
(G G + I) G = 4 ;0:154 ;0:165 0:286 5
T 7
;0:029 ;0:154 0:1334
Como sólo se necesita el valor de 4u(t) para los cálculos, sólo se emplea realmente la
primera fila de la matriz, con lo que resulta la siguiente expresión para la ley de control:
Al igual que en el DMC todo lo visto para el caso de sistemas con una sola entrada y
una sola salida se puede extender al caso multivariable, aunque los cálculos son más
complejos.
A(z; )1
Inn + A1 z;1 + A2z;2 + + Ana z;na
=
B(z; )
1
= B0 + B1 z
;1 + B2z;2 + + Bnb z;nb
C(z; )
1
= Inn + C1 z
;1 + C2z;2 + + Cnc z;nc
Las variablesy (t), u(t) y e(t) son de dimensión n 1, m 1 y n 1 respectivamente.
La predicción conlleva la resolución de una ecuación diofantina matricial, que también
puede calcularse de forma recursiva.
X
N 2 X
N 3
En la práctica todos los procesos están sujetos a restricciones. Los actuadores tienen
un campo limitado de acción impuesto por lı́mites fı́sicos (por ejemplo una válvula no
puede abrir más de un 100 % o un calentador no puede aportar más de su potencia
máxima. También existen lı́mites de seguridad (por ejemplo presiones o temperaturas
máximas), requerimientos tecnológicos (por ejemplo mantener temperaturas en un
rango dado), limitaciones de calidad del producto (no salirse de cierta zona) o normativa
medioambiental.
41
42 Restricciones en Control Predictivo
P
Pmax
P1
P2
t Q1 Q2 Q
Para formular el algoritmo MPC con restricciones hay que expresar éstas en función
de la variable sobre la que se puede actuar, es decir, en función de u. Las restricciones
en la entrada están ya expresadas en función de u y para las restricciones en la salida
se hace uso de las ecuaciones de predicción que expresan el valor futuro de las salidas
Restricciones en Control Predictivo 43
u(t+1) u(t+1)
u max u max
uc u uc u
a) b)
U u(t) U 8t
u u(t) ; u(t ; 1) u 8t
y y(t) y 8t
siendo
2 I 3 2 l u 3
66 ;INNNN
77 66 7
66 T 77 66 l U ;;lul (ut ; 1) 777
R = 66 ;T 77 c = 66 7
66 77 66 ;l U + lu(t ; 1) 777
4 G 5 4 ly;f 5
;G ;l y + f
Restricciones duras como aquéllas que no se pueden violar bajo ningún concepto.
En este grupo se incluyen las restricciones relacionadas con la operación segura
del proceso.
Restricciones blandas, que son aquéllas que pueden ser violadas en un momento
dado por no ser cruciales, pero la violación se penaliza en la función objetivo
como un término más. Es una forma de relajar la restricción.
u)
minimizar J (
Ru c
sujeto a
Resulta evidente que la carga de cálculo será considerable, ya que hay que encontrar
la solución resolviendo el algoritmo iterativo en cada periodo de muestreo. Normal-
mente el esfuerzo está justificado por el beneficio económico obtenido al trabajar más
cerca del punto de operación óptimo.
Restricciones en Control Predictivo 45
En cualquier caso es un tema muy abierto, sobre todo si se quieren considerar las
incertidumbres en el modelo y los temas asociados con la factiblidad.
operación normal pueden producir problemas bajo ciertas circunstancias. Puede que
una perturbación o cambio de referencia grande fuerce a una variable fuera de su lı́mite
y sea imposible introducirla de nuevo en su zona permitida con señales de control de
energı́a limitada. En estos casos las restricciones se hacen temporalmente incompati-
bles.
Las soluciones no factibles aparecen con mayor frecuencia en casos en que el óptimo
se encuentre cerca de las restricciones y el sistema esté sujeto a perturbaciones, llevando
a la salida a "regiones prohibidas".
Limites de operación: son fijados por los operarios para mantener las condiciones
nominales de funcionamiento. Se pueden sobrepasar bajo ciertas circunstancias
Limites reales: son los que usa el algoritmo de control en cada instante. Son los
que proporciona el gestor de restricciones, quien debe calcularlos de forma que
nunca superen los limites fı́sicos.
Es decir, el gestor de restricciones calculará los lı́mites reales (los que se envı́an al
algoritmo QP) en base a los lı́mites de operación pero sin salirse nunca de los lı́mites
fı́sicos, según se observa en la figura 4.3.
2. Eliminación de restricciones.
3. Relajación de restricciones.
4. Otras técnicas.
Restricciones en Control Predictivo 47
Límites físicos
Restricciones reales
Límites de operación
Eliminación de restricciones
Eliminación jerárquica En este caso sólo se eliminan las restricciones que provocan
problemas de incompatibilidad. En este método se asigna en la etapa de diseño una
prioridad a cada restricción, que da un grado de importancia relativa de dicha res-
tricción frente a las otras. Esta prioridad se usará para clasificar las restricciones de una
forma jerárquica (se asigna un número que indica su posición en la jerarquı́a). De este
modo, cada vez que haya problemas de factibilidad o existencia de solución el gestor
de restricciones va eliminando por orden las restricciones menos prioritarias hasta que
se restablece la factibilidad de la solución, que se chequea cada periodo de muestreo
para reinsertar restricciones que hubieran sido temporalmente eliminadas.
Relajación de restricciones
Otras técnicas
Existen técnicas que se basan en la manipulación del horizonte mı́nimo de las restriccio-
nes. Algunos controladores industriales como el QDMC usan el concepto de constraint
Restricciones en Control Predictivo 49
Este tema está dedicado a dos áreas de especial interés: la consideración de funciones
objetivos multicriterio y un campo que está empezando a tener gran relevancia en la
práctica como es el Control Predictivo No lineal.
Las estrategias que se han considerado hasta ahora están basadas en la minimización
de una función de coste de un único objetivo para la obtención de la mejor secuencia
de acciones de control. Sin embargo, en muchas situaciones el comportamiento del
proceso no se puede medir con una sola función objetivo sino que, la mayorı́a de las
veces, existen diversos (y a menudo contrapuestos) objetivos de control. Las razones
de la existencia de diversos objetivos de control pueden ser:
Los procesos deben operar de forma diferente en distintos momentos. Por ejem-
plo, durante la fase de arranque puede interesar una estrategia de tiempo mı́nimo
y en el régimen nominal el objetivo puede ser reducir en lo posible la varianza de
las variables controladas.
51
52 Multiobjetivo. Jerarquı́a de objetivos
En muchas ocasiones todos los objetivos de control se pueden agrupar en una sola
función de coste. Algunos de los objetivos pueden ser mantener las variables lo más
cerca posible de los setpoints o dentro de unas determinadas regiones de operación.
Cada uno de estos objetivos equivale a minimizar una cierta función Ji (sujeta a una serie
de restricciones). Entonces la secuencia de control se puede obtener de la minimización
de: mX
J= i Ji
i=1
sujeta a todo el conjunto de restricciones. La importancia relativa de cada objetivo se
puede ponderar mediante la adecuada elección de los i , aunque en la práctica es difı́cil
encontrar estos pesos. Además, muchas veces los objetivos de control son cualitativos,
haciendo la tarea aún más difı́cil.
Tendencias actuales y nuevas perspectivas 53
Tyler y Morari [20] proponen una forma de introducir múltiples objetivos jerarqui-
zados. Considérese un proceso con m objetivos Oi jerarquizados (el Oi+1 tiene mayor
prioridad que el Oi) que se pueden expresar como:
Riu ai
La idea consiste en introducir variables enteras Li que toman valor 1 cuando se satisface
el correspondiente objetivo de control y cero en caso contrario. Los objetivos se expresan
entonces como:
No hay nada en los conceptos básicos de MPC contra el uso de modelos no lineales,
por tanto la extensión de tales conceptos a procesos no lineales es en principio sencilla.
Sin embargo, como se verá seguidamente esto no es un asunto trivial y aún hay muchos
temas abiertos como:
En general los procesos industriales son no lineales, pero aún ası́ la mayorı́a de
las aplicaciones de control predictivo están basadas en el uso de modelos lineales,
del tipo de los vistos hasta ahora. Existen varias razones para ello: por un lado
resulta relativamente fácil identificar modelos lineales a partir de datos del proceso,
y por otro los modelos lineales dan buen resultado cuando el proceso opera en las
cercanı́as del punto de trabajo nominal. En el sector petroquı́mico, donde tiene lugar
la mayorı́a de las aplicaciones de MPC, el objetivo es mantener el proceso en torno al
estado estacionario (problema del regulador) más que realizar frecuentes cambios de un
punto de operación a otro (problema del servo) y por tanto un modelo lineal preciso es
suficiente. Además el uso de un modelo lineal junto con una función objetivo cuadrática
da lugar a un problema convexo de programación cuadrática (QP) cuya solución está
suficientemente estudiada en la actualidad, existiendo diversos productos comerciales
fiables. La existencia de algoritmos que garanticen una solución que converja en un
corto tiempo (menor que el periodo de muestreo) resulta crucial en procesos en los que
interviene un gran número de variables.
Sin embargo, existen situaciones en las que los efectos no lineales justifican el uso
de la tecnologı́a NMPC. Estas situaciones entran dentro de las dos categorı́as siguientes:
En estas situaciones una ley de control lineal puede no ser efectiva siendo necesario
el empleo de un controlador no lineal para mejorar el comportamiento o simplemente
para una operación estable del proceso. Es por tanto en este caso donde se puede
justificar el empleo de técnicas de NMPC. Aunque en la actualidad el número de
aplicaciones es aún reducido, el potencial es considerable, como se desprende del
informe de Qin y Badgwell [17], donde se observa que MPC no ha penetrado aún en
campos donde las no linealidades son fuertes y el mercado exige frecuentes cambios
del punto de operación; es aquı́ donde se espera el auge del NMPC.
56 Control predictivo no lineal
Resulta evidente que la principal ventaja del NMPC frente al MPC radica en la posibilidad
de abordar dinámicas no lineales. A medida que aparecen nuevas herramientas que
hacen posible la obtención y representación de modelos no lineales, bien a partir de
primeros principios (leyes de conservación) o bien a partir de datos experimentales
(modelos de Volterra o redes neuronales) el interés por su utilización en NMPC se va
acrecentando.
Se puede definir un algoritmo genérico NMPC que englobe a todas las técnicas que
comparten las mismas ideas. El proceso (en general multivariable) se puede describir
por un modelo en el espacio de estados de la forma:
Igual que en caso lineal, la solución del problema es una secuencia de acciones de
control de las cuales sólo la primera de ellas es enviada a la planta, desechando el resto
y volviendo a la resolver el problema en el siguiente periodo de muestreo.
La resolución del NMPC plantea nuevos problemas que no existı́an en el caso lineal
relacionados por un lado con la metodologı́a de cálculo de la señal de control y por
otro con el comportamiento dinámico del bucle cerrado, básicamente su estabilidad.
58 Control predictivo no lineal
Resolución
Estabilidad de la solución
1. Horizonte infinito
Existe una solución propuesta por Meadows et al. ([13]) que consiste en ampliar
los horizontes de control y de predicción hasta el infinito, P M ! 1. En este caso la
función objetivo también sirve como función de Lyapunov, dando lugar a la estabilidad
nominal. En el artı́culo citado se demuestra que si existe solución inicial factible
entonces existe solución en cada periodo de muestreo posterior.
2. Restricción terminal
Otra solución al problema, propuesta por Keerthi y Gilbert ([8]) consiste en añadir
una restricción terminal al estado en el algoritmo NMPC de la forma:
x(k + P ) = xs
Con la imposición de esta restricción, la función objetivo se convierte en una función
de Lyapunov para el sistema en bucle cerrado, conduciendo a la estabilidad nominal.
Con la introducción de esta restricción el estado al final del horizonte finito es cero y
por tanto también lo será la señal de control, con lo que el sistema (sin perturbaciones)
se queda para siempre en el origen. De esta forma es como si el horizonte de predicción
fuera infinito.
3. Control dual
x t P ) ; xs ) 2 W
( ( +
Si el estado actual se encuentra fuera de esta región se usa el algoritmo NMPC con la
restricción anterior. Una vez que el estado se encuentra en W , el control conmuta a una
estrategia lineal determinada previamente (estrategia del tipo dual-mode controller).
Este método conlleva por tanto la gestión de la conmutación entre los dos controla-
dores y la determinación de la región W y de la matriz de ganancia de la realimentación
del vector de estados (una forma de hacerlo se puede encontrar en el artı́culo citado).
4. Horizonte casi-infinito
controlador estabilizante, pero sólo para el cálculo del coste terminal. La señal de
control se determina resolviendo el problema de optimización en lı́nea (con horizonte
finito) sin conmutar al controlador lineal incluso dentro de la región terminal.
Robustez
5.2.4 Modelos
Estos resultados teóricos proporcionan una base para poner en marcha un NMPC, aun-
que en la práctica existen muchos temas abiertos, principalmente en lo referente a la
definición e identificación del modelo y al desarrollo de métodos de resolución fiables.
Se puede usar un modelo formado por la combinación de una ecuación de estado lineal
con una relación no lineal de salida:
Modelos de entrada/salida
ys = hs(us)
Tendencias actuales y nuevas perspectivas 63
La identificación del modelo lineal se lleva a cabo mediante ensayos ante escalón
mientras que a partir de datos históricos se obtiene la representación de la relación no
lineal por medio de una red de neuronas. Como el modelo dinámico tiene una ganancia
fija que en general será distinta de la del modelo no lineal, la ganancia del submodelo
lineal se escala hasta ser igual a la ganancia local no lineal para la entrada actual:
dys j
Ks = du u(t)
s
Esto se consigue reescalando los coeficientes bi .
Para usar este modelo, un programa de optimización no lineal calcula los mejores
valores de entrada y salida ufs , ysf a partir del modelo estático. Durante el cálculo
dinámico del controlador, la ganancia estática no lineal se aproxima por una interpo-
lación lineal de las ganancias inicial y final:
X
n
y(t) = aiy(t ; i) + biu(t ; i) + giu2(t ; i) (5 :5)
i=1
Se puede observar que los valores en estado estacionario se calculan a partir del
modelo estático no lineal, mientras que los movimientos dinámicos de control están
basados en el modelo cuadrático de la ecuación (5.5). Sin embargo, los coeficientes del
modelo cuadrático (la ganancia local) cambian de un periodo de muestro a otro, ya son
reescalados para ajustarse a la ganancia local del modelo no lineal. Esta estrategia se
puede interpretar como una sucesiva linealización de los estados inicial y final seguida
por una interpolación lineal de las ganancias linealizadas, en una formulación similar
al gain-scheduling, pero con un modelo global diferente debido el reescalado de la
ganancia.
64 Control predictivo no lineal
Se han propuesto diversas soluciones para intentar resolver los problemas que se
han visto, como por ejemplo en [1], donde la predicción de la salida del proceso
se hace mediante la adición de la respuesta libre (la respuesta futura que se obtiene
si la entrada se mantiene en un valor constante durante los horizontes de control y
predicción) obtenida de un modelo no lineal de la planta, y la respuesta forzada (la
debida a los movimiento de control futuros), calculada con un modelo incremental de
la planta. Las predicciones obtenidas de esta manera son sólo una aproximación ya
que el principio de superposición, que permite la descomposición mencionada, sólo
es válido para sistemas lineales. Sin embargo, la aproximación que se obtiene de esta
forma se comporta mejor que cuando se usa un modelo linealizado del proceso para
obtener ambas respuestas.
Existe una forma de resolver este problema, propuesta en [9] para el EPSAC. La idea
básica es considerar la secuencia de señales de control como la suma de una secuencia
de control base (ub (t + j )) y una secuencia de incrementos de la variable manipulada
(ui (t + j )). Es decir:
Las condiciones iniciales para la secuencia de control base se pueden hacer inicial-
mente iguales a la última señal de control que se ha aplicado al proceso. Obsérvese que
esto corresponde al cálculo de la respuesta libre en el MPC. Se puede probar con una
secuencia inicial mejor haciendo la secuencia base igual a la óptima que se obtuvo en
el último periodo de muestreo (con el desplazamiento temporal correspondiente).
Las condiciones de convergencia del algoritmo son muy difı́ciles de obtener ya que
dependen de la severidad de la caracterı́stica no lineal del proceso, de las entradas y
salidas pasadas, de las referencias futuras y de las perturbaciones.
Es decir, incluso en los casos en que el modelo pueda ser linealizado mediante
transformaciones adecuadas, el problema se transforma de minimizar una función no
lineal (no cuadrática) con restricciones lineales en minimizar una función cuadrática
con restricciones no lineales.
La mayorı́a de los productos (ver tabla 5.1) sólo permiten matrices de peso cons-
tantes en todo el horizonte y sólo el NOVA-NLC trabaja con norma 1. Por su parte, el
Process Perfecter minimiza sólo la salida pero con una matriz de peso que se incrementa
gradualmente con el horizonte, dando por tanto más importancia a los errores más
lejanos y en consecuencia dando lugar a una acción de control más suave.
Tabla 5.1: EE: espacio de estados no lineal. PP: primeros principios. E/S: en-
trada/salida. PNE: polinomio no lineal estático. RN: red neuronal. N1: norma 1.
S: saturación. BS: blandas (mı́nimo y máximo) en la salida. DS: duras en las salidas.
DE: duras en las entradas. FB: funciones base. UM: único movimiento. MM: múltiples
movimientos. NLS: mı́nimos cuadrados no lineales. GRG: Generalized Reduced Gra-
dient. MINLP: Mixed Integer Nonlinear Programming. GD: Gradient descent.
una restricción dura en forma de embudo, de manera que se da más libertad a la salida
al comienzo del horizonte que al final.
Una idea introducida en el PFC y adoptada por Aspen Target es el uso de puntos de
coincidencia, en los cuales deben coincidir la salida y la trayectoria de referencia. Esta
idea puede ser útil cuando las salidas responden con distinta velocidad y se pueden
definir distintos puntos de coincidencia para cada una de ellas.
lı́mites si éstos se violan; lógicamente no se asegura una solución óptima, pero se gana
en velocidad, permitiendo que este controlador se use en aplicaciones con perı́odos de
muestreo pequeños, como el caso de seguimiento de missiles.
Modelado: los modelos no lineales son más complejos que los lineales, pero
además el proceso de identificación es mucho más difı́cil. Se necesita una gran
baterı́a de ensayos para capturar las no-linealidades del proceso, resultando en
un perı́odo de pruebas considerable. Por tanto, la forma de disponer de una
representación correcta de la dinámica del proceso es un problema que no está
completamente resuelto.
Otros temas: temas que son aplicables al Control Predictivo en general, funcio-
nes objetivos multicriterio, sintonización de parámetros, mal condicionamiento o
tolerancia a fallos.
[1] E.F. Camacho, M. Berenguel y F.R. Rubio. Advanced Control of Solar Power Plants.
Springer-Verlag, London, 1997.
[2] E.F. Camacho y C. Bordons. Model Predictive Control. Springer-Verlag, 1999.
[3] H. Chen y F. Allgower. A quasi-infinite horizon nonlinear predictive control
scheme with guaranteed stability. Automatica, 34(10):1205–1218, 1998.
[4] D.W. Clarke y C. Mohtadi. Properties of Generalized Predictive Control. Automa-
tica, 25(6):859–875, 1989.
[5] D.W. Clarke, C. Mohtadi y P.S. Tuffs. Generalized Predictive Control. Part I. The
Basic Algorithm. Automatica, 23(2):137–148, 1987.
[6] C.R. Cutler y B.C. Ramaker. Dynamic Matrix Control- A Computer Control Algo-
rithm. En Automatic Control Conference, San Francisco, 1980.
[7] C.E. Garcı́a, D.M. Prett y M. Morari. Model Predictive Control: Theory and
Practice-a Survey. Automatica, 25(3):335–348, 1989.
[8] S.S. Keerthi y E.G. Gilbert. Optimal infinite-horizon feedback laws for a general
class of constrained discrete-time systems: Stability and moving-horizon appro-
ximations. J. Optim. Theory Appl., 57(2):265–293, 1988.
[9] R. De Keyser. A Gentle Introduction to Model Based Predictive Control. En
PADI2 International Conference on Control Engineering and Signal Processing, Piura,
Peru, 1998.
[10] R.M.C. De Keyser, Ph.G.A. Van de Velde y F.G.A. Dumortier. A Comparative Study
of Self-adaptive Long-range Predictive Control Methods. Automatica, 24(2):149–
163, 1988.
[11] K. Krämer y H. Ubehauen. Predictive Adaptive Control. Comparison of Main
Algorithms. En Proceedings 1st European Control Conference, Grenoble, páginas 327–
332, julio 1991.
[12] A.G. Kutnetsov y D.W. Clarke. Advances in Model-Based Predictive Control, capı́tulo
Application of constrained GPC for improving performance of controlled plants.
Oxford University Press, 1994.
69
70 Bibliografı́a
[13] E.S. Meadows, M.A. Henson, J.W. Eaton y J. Rawlings. Receding horizon control
and discontinuous state feedback stabilization. Int. Journal Control, páginas 1217–
1229, 1995.
[15] N.M.C. Oliveira y L.T. Biegler. An extension of newton-type algorithms for non-
linear process control. Automatica, 31:281–286, 1995.
[16] S.J. Qin y T.A. Badgwell. An Overview of Industrial Model Predictive Control
Technology. In Chemical Process Control: Assessment and New Directions for
Research. En AIChE Symposium Series 316, 93. Jeffrey C. Kantor, Carlos E. Garcia and
Brice Carnahan Eds. 232-256, 1997.
[17] S.J. Qin y Thomas A. Badgwell. An overview of nonlinear model predictive control
applications. En IFAC Workshop on Nonlinear Model Predictive Control. Assessment
and Future Directions. Ascona (Switzerland), 1998.
[19] H. Takatsu, T. Itoh y M. Araki. Future needs for the control theory in industries.
report and topics of the control technology survey in japanese indsutry. Journal of
Process Control, 8:369–374, 1998.
[20] M.L. Tyler y M. Morari. Propositional Logic in Control and Monitoring Problems.
Technical Report AUT96-15, Institut fur Automatik, ETH- Swiss Federal Institute of
Technology, Zurich, Switzerland, 1996.
[21] B.E. Ydstie. Extended Horizon Adaptive Control. En Proc. 9th IFAC World Congress,
Budapest, Hungary, 1984.