Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Control Predictivo de Procesos
Control Predictivo de Procesos
Daniel Lim
on Marruedo
Sevilla, Septiembre de 2002
TESIS DOCTORAL
TESIS DOCTORAL
Indice general
Notaci
on
1. Introducci
on
13
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
14
15
19
20
24
ii
INDICE GENERAL
26
28
2.6.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
28
30
2.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
35
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
37
37
39
44
45
47
48
50
52
57
58
60
INDICE GENERAL
iii
61
62
65
67
70
72
76
77
85
3.10. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
89
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
91
93
93
96
97
99
INDICE GENERAL
iv
5. An
alisis de robustez del MPC nominal
127
INDICE GENERAL
159
INDICE GENERAL
vi
185
. . . . . . . . . . . . . . . . . . . . 199
209
INDICE GENERAL
vii
237
243
INDICE GENERAL
viii
. . . . . . . . . . . . . . 265
277
C. An
alisis de la continuidad del coste
optimo
281
. . . . . . . . . . . . . . 283
INDICE GENERAL
ix
C.4. Continuidad Lipschitz local del coste optimo JN (xk ) ante incertidumbres
parametricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
Bibliografa
295
INDICE GENERAL
Notaci
on
En el presente documento se utilizara la siguiente notacion:
JN (x)
JNs (x)
Coste suboptimo del problema de optimizacion del MPC con horizonte N , en el estado x.
JN c ,Np (x)
J
(x)
J (x)
MPC
uF (k)
x (k + j|k)
Estado del sistema predicho para el instante k+j a partir del estado
xk , utilizando el modelo de prediccion.
u (k + j|k)
xh (i + j|j)
Estado del sistema predicho para el instante i + j a partir del instante j, considerando el sistema controlado por la ley de control
u = h(x).
(x, u)
f
()
f n ()
INDICE GENERAL
AB
AB
A\B
Q()
Ki (X, )
Ci (X)
Si (X, )
IR+
Acr
onimos
Conjunto de n
umeros reales no negativos.
MPC
LQR
CLF
ISS
Captulo 1
Introducci
on
1.1.
Introducci
on al control predictivo
Esta tesis se centra en la estabilidad y robustez de una tecnica denominada genericamente control predictivo basado en modelo o MPC 1 . Esta estrategia tambien se
conoce como control por horizonte deslizante, por ser esta la forma en la que se aplican
las actuaciones.
El MPC se enmarca dentro de los controladores optimos, es decir, aquellos en los
que las actuaciones responden a la optimizacion de un criterio. El criterio a optimizar,
o funcion de coste, esta relacionado con el comportamiento futuro del sistema, que se
predice gracias a un modelo dinamico del mismo, denominado modelo de prediccion
(de ah el termino predictivo basado en modelo). El intervalo de tiempo futuro que se
considera en la optimizacion se denomina horizonte de predicci
on.
Dado que el comportamiento futuro del sistema depende de las actuaciones que
se aplican a lo largo del horizonte de prediccion, son estas las variables de decision
respecto a las que se optimiza el criterio. La aplicacion de estas actuaciones sobre
el sistema conducen a un control en bucle abierto. La posible discrepancia entre el
comportamiento predicho y el comportamiento real del sistema crean la necesidad
de imponer cierta robustez al sistema incorporando realimentacion del mismo. Esta
realimentacion se consigue gracias a la tecnica del horizonte deslizante que consiste en
aplicar las actuaciones obtenidas durante un periodo de tiempo, tras el cual se muestrea
el estado del sistema y se resuelve un nuevo problema de optimizacion. De esta manera,
1
Acronimo derivado del termino ingles Model Predictive Control. Dado que estas siglas son con las
que se denomina frecuentemente esta tecnica de control en la literatura, se utilizaran para designarla
a lo largo de este documento.
1.1.1.
Formulaci
on del control predictivo
El control predictivo esta formado por los siguientes elementos (Camacho & Bordons
1999):
Modelo de predicci
on : es el modelo matematico que describe el comportamiento
esperado del sistema. Este modelo puede ser lineal o no lineal, en tiempo continuo
o en tiempo discreto, en variables de estado o en entrada salida.
El hecho de que el problema de optimizacion implicado se resuelva mediante el
computador, as como la tecnica de horizonte deslizante con la que se aplica la
solucion, hace que sea mas natural considerar modelos discretos que continuos.
Por ello, en lo que sigue se consideran modelos en tiempo discreto 2 . Asimismo,
dado que los modelos en el espacio de estados son mas generales que los modelos
entrada-salida, en lo que sigue se adopta dicha formulacion. Se considera ademas
que el origen es el punto de equilibrio en el que se quiere regular el sistema, lo
cual no resta generalidad pues se puede conseguir con un cambio de variables
adecuado. As el modelo de prediccion considerado tiene la forma
xk+1 = f (xk , uk )
2
Esto no supone una merma en la variedad de modelos sobre los que se puede aplicar, pues, dado que
el controlador requiere de algoritmos de optimizacion a implementar sobre un computador, utilizando
alg
un procedimiento de integraci
on de ecuaciones diferenciales se puede obtener implcitamente una
descripcion en tiempo discreto a partir del modelo en tiempo continuo.
Captulo 1. Introduccion
N
1
X
i=0
k
k
Es habitual imponer una restriccion sobre el estado terminal del sistema llama
da restriccion terminal. Esta
viene dada por un conjunto X denominado
conjunto o region terminal. As, esta restriccion tiene la forma
x(k + N |k)
Teniendo en cuenta todos estos elementos, el problema de optimizacion asociado al
controlador predictivo que se debe resolver en cada instante es:
mn JN (xk , uF (k))
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
x(k + N |k)
Este problema de optimizacion tiene como variables de decision las actuaciones a
lo largo del horizonte de prediccion y depende de forma parametrica del estado del
sistema. Una vez obtenida la solucion, seg
un la estrategia del horizonte deslizante, se
aplica la actuacion obtenida para el instante siguiente u (k|k)4 y se vuelve a resolver
en el siguiente periodo de muestreo. As la ley de control del MPC viene dada por
uk = KMPC (xk ) = u (k|k)
1.1.2.
Tambien se pueden considerar restricciones que relacionen estados y entradas, si bien, en la formulacion tpica del MPC no se suelen a
nadir.
4
A lo largo de esta tesis, el superndice indica que el valor es el optimo del problema de minimizacion asociado.
Captulo 1. Introduccion
Para evitar esta necesidad, se han utilizado aproximaciones neuronales del controlador realizadas
fuera de lnea (Gomez Ortega 1994, Parisini & Zoppoli 1995) , o bien se ha recurrido al calculo
explcito del controlador cuando este es posible, como en (Ramrez 2002, Bemporad, Morari, Dua &
Pistikopoulos 2000).
1.2.
Motivaci
on de la investigaci
on
El campo del control predictivo se puede dividir en dos areas: el control predictivo
de sistemas lineales y de sistemas no lineales. La facilidad y sencillez de tratamiento
de los sistemas lineales y la existencia de herramientas eficientes de analisis hicieron
que este area tomase un protagonismo inicial. Sin embargo, la incorporacion de las
restricciones en el controlador hacen que el sistema en bucle cerrado sea no lineal, por
lo que estas herramientas de analisis dejaron de ser u
tiles.
As, el area de control predictivo no lineal ha ido tomando una importancia creciente en los u
ltimos a
nos, y como consecuencia, un n
umero creciente de resultados
y publicaciones han aparecido en la literatura. Todo este desarrollo ha provocado un
conocimiento cada vez mas profundo de la estabilidad y robustez de esta tecnica de control, resolviendose problemas existentes y apareciendo nuevos retos. Entre los problemas
que se consideran maduros se encuentra la estabilidad de los controladores. Gracias a
recientes trabajos como (Mayne et al. 2000), se conocen procedimientos de ajuste del
controlador para garantizar la estabilidad del mismo, pero quedan aspectos interesantes
que tratar como el estudio del dominio de atraccion de los controladores, su desempe
no,
tecnicas que permitan mejorar la implementacion de los mismos, formulacion para el
seguimiento de trayectorias, etc.
Otro importante campo abierto de investigacion es el analisis y sobre todo el dise
no
de controladores predictivos robustos. La madurez alcanzada en la estabilidad ha suscitado una revision de la robustez a la luz de esta. Esto ha permitido detectar deficiencias
de los controladores propuestos, apareciendo nuevas formas de plantear el problema del
control robusto. Quiza la mas relevante sea la formulacion en bucle cerrado. Esto ha
motivado la aparicion de nuevos controladores y por lo tanto de nuevos problemas que
resolver.
En este contexto se enmarca la investigacion fruto de la cual ha surgido esta tesis,
cuyos objetivos se detallan a continuacion.
1.3.
Captulo 1. Introduccion
As, a la luz de estas, se han analizado los distintos aspectos del control predictivo: el dise
no de controladores estabilizantes, el analisis de su robustez y el dise
no de
controladores robustos. Fruto de este analisis han surgido las ideas que se presentan y
desarrollan en esta tesis.
El desarrollo de la tesis, y en consecuencia el presente documento, sigue la estructuracion que se indica a continuacion (vease la figura 1.1), donde se mencionan las
aportaciones originales de la misma:
En el captulo 2 se hace un recorrido por las distintas formulaciones existentes de
los controladores predictivos en relacion a la estabilidad. El objetivo del captulo
es poner de manifiesto el origen de la perdida de estabilidad de los controladores
predictivos, y el camino seguido hasta recuperarla. Tambien se hace un recorrido
por los resultados existentes en la literatura sobre el analisis de robustez de los
controladores predictivos y sus formulaciones robustas.
El captulo 3 se centra en el analisis y el dise
no de controladores MPC estabilizantes. Para ello se parte del estudio de la formulacion general del MPC
propuesta en (Mayne et al. 2000). A partir de esta, se presentan dos nuevos
controladores basados en el aumento del horizonte de prediccion y en la consideracion de un coste terminal cuasi-infinito. A continuacion se pone de manifiesto
que ambos controladores mejoran el comportamiento del sistema. As mismo, se
analizan tecnicas encaminadas a una mejora en la implementacion de los controladores predictivos: la suboptimalidad y la eliminacion de la restriccion terminal,
obteniendose nuevos resultados.
Continuando con el analisis de los controladores predictivos, en el captulo 4 se
estudia el dominio de atraccion de estos y se proponen tecnicas para su aumento.
Estas tecnicas tienen un denominador com
un: aumentar el dominio de atraccion
sin aumento considerable del coste computacional. Se proponen procedimientos
de ajuste del controlador encaminados a este fin y se presentan dos controladores
nuevos basados en una restriccion terminal contractiva. En el primero, la restriccion esta basada en invariantes positivos y en el segundo, dicha restriccion se
basa en una secuencia de conjuntos invariantes de control. Este u
ltimo ha sido
Alamo
& Camacho 2002c). A raz de estos, se incorpora un concepto novedoso
en el contexto del control predictivo: la estabilidad entrada a estado. Esta teora
permite el analisis de la robustez del MPC de una manera sencilla y permite
generalizar resultados anteriores.
10
Alamo
& Camacho 2002b).
En el captulo 7 se propone un procedimiento para estimar la acotacion de las
discrepancias entre la planta y el modelo de una forma local. Dicha acotacion
depende del estado del sistema y de la actuacion aplicada sobre el mismo. Esto
da lugar a las denominas regiones de evolucion incierta, que permiten calcular en
lnea acotaciones de las discrepancias. Estas regiones, incorporadas en la formulacion del problema, dan lugar a un nuevo controlador MPC robusto. Este con
trolador se ha publicado en (Limon Marruedo, Bravo, Alamo
& Camacho 2002).
En el captulo siguiente se abordan las denominadas formulaciones del MPC en
bucle cerrado. Se parte de un analisis de la estabilidad y factibilidad de los controladores min-max en bucle cerrado y se extienden estos resultados a la garanta
de estabilidad en caso de incertidumbres acotadas. Se pone de manifiesto un procedimiento para garantizar la estabilidad y factibilidad a partir de una restriccion
estabilizante impuesta sobre un controlador formulado en bucle abierto. Esto da
lugar a un nuevo controlador robusto basado en una restriccion estabilizante
contractiva, que se obtiene a partir de una secuencia de invariantes de control
robustos.
Por u
ltimo se presentan conclusiones de esta tesis y futuras lneas de investigacion.
Con el fin de articular el documento, los controladores propuestos se han aplicado
sobre un mismo banco de ensayo: un reactor continuamente agitado (CSTR) muy
utilizado en la literatura.
Esta tesis se complementa mediante los apendices: en el primero se presenta un
compendio de resultados sobre la teora de estabilidad y teora de los conjuntos invariantes utilizadas a lo largo de la tesis. El fin de este apendice es hacer un balance
de los conocimientos necesarios para el analisis de la estabilidad y robustez de los
controladores predictivos.
En el segundo apendice se presenta el modelo del reactor utilizado en los ejemplos,
y en el tercer apendice se trata del analisis de la continuidad del coste optimo basado
en la sensibilidad del problema de optimizacion.
Con el fin de facilitar la lectura del documento se presentan a continuacion un
diagrama con la estructura del mismo
Captulo 1. Introduccion
11
Captulo 6
MPC ISS
con factibilidad
robusta
Captulo 2
Captulo 3
Estabilidad
y robustez del
MPC
Nuevas
formulaciones
del MPC
Captulo 5
Captulo 7
Apndice A
Captulo 4
Anlisis de
robustez del
MPC nominal
MPC robusto
basado en
regiones de
evolucin incierta
Teora de
Lyapunov y teora
de conjuntos
invariantes
Aumento del
dominio de
atraccin
Captulo 8
MPC robusto
basado en
invariantes
robustos
Fundamentos
Anlisis y diseo
de controladores
MPC nominales
Anlisis
de
robustez
Anlisis y diseo
de controladores
MPC robustos
12
Captulo 2
Estabilidad y robustez del control
predictivo basado en modelo
2.1.
Introducci
on
En este captulo se hace un recorrido por la evolucion del control predictivo desde
la perspectiva de la estabilidad y de la robustez. Comienza poniendo de manifiesto el
origen de la perdida de la garanta de estabilidad en las formulaciones originales del
controlador. Este hecho apareca como un problema importante y una merma de los
beneficios de esta tecnica de control. La incorporacion de la teora de Lyapunov y la
teora de conjuntos invariantes arroja una nueva luz sobre el problema. Esto provoca
la aparicion de trabajos que profundizan en el conocimiento y solucion del mismo, los
cuales se recogen en una seccion del captulo.
La evolucion de este estudio termina en la presentacion de la denominada formulacion general del control predictivo. Esta formulacion viene a recoger la esencia de
los controladores con estabilidad garantizada y tal y como se muestra, resuelve los
problemas que originalmente provocaron la perdida de la garanta de estabilidad.
A continuacion se hace un balance de los principales resultados en la robustez de
controladores predictivos, centrandose en el caso de sistemas no lineales, por ser esta
el area objeto del estudio realizado.
Antes de adentrarse en el captulo, merece la pena destacar que el recorrido por la
estabilidad y robustez de los controladores MPC que se va a exponer, se hace a la luz
de la teora de estabilidad de Lyapunov y de la teora de los conjuntos invariantes. Por
ello, a lo largo del captulo se hacen numerosas referencias al apendice A, en el cual se
13
14
2.2.
15
2.3.
i=0
1
Morari en (Morari 1994) hace la siguiente afirmacion en relacion a la estabilidad de los controladores predictivos the recent work has removed this technical and to some extent psycologycal barrier
(people did not even try) and started wide spread efforts to tackle extensions of these basic problems
with the new tools.
16
K (x)
J (xk )
s.a
u(k + j|k) U
j 0
x(k + j|k) X
j 0
siendo x(k + j|k) la prediccion del estado del sistema en el instante k + j a partir del
estado en xk . Los conjuntos U y X definen las restricciones, de forma que X es un
conjunto acotado, U compacto y ambos contienen el origen en su interior.
Este problema de control, bajo ciertas condiciones de observabilidad relacionadas
con la funcion de coste de etapa 2 , estabiliza asintoticamente todo estado en cual exista
una solucion con un coste asociado acotado. De hecho, todo punto asintoticamente
estabilizable, se puede estabilizar por esta estrategia de control.
El problema del control optimo se puede resolver utilizando dos tecnicas: la primera
se deriva del principio de optimalidad de Bellman (Bellman 1957, Bryson & Ho 1969),
seg
un el cual
J
(x) = mn{L(x, u) + J
(f (x, u))| f (x, u) X }
uU
J
(x).
La solucion de este problema se puede obtener a partir de las ecuaciones de HamiltonJacobi-Bellman, cuya resolucion es muy compleja, si no imposible, salvo en casos especiales como el problema de regulacion de un sistema lineal sin restricciones con una
funcion de coste de etapa cuadratica, que da lugar al regulador lineal cuadratico o LQR
(Bryson & Ho 1969).
Otro procedimiento para resolver este problema es la aplicacion del calculo variacional, que conduce a las ecuaciones de Euler-Lagrange. La gran diferencia entre ambas
resoluciones es que en las ecuaciones de H-J-B la solucion es la ley de control, conduciendo a soluciones globales y en bucle cerrado, mientras la formulacion de E-L conduce a
soluciones locales y en bucle abierto, si bien la resolucion de estas ecuaciones es mas
2
17
sencilla que la de H-J-B. Un analisis mas exhaustivo, pero con un caracter didactico,
sobre control optimo puede encontrarse en (Nevistic 1997).
La dificultad en la resolucion de este problema llevo a adoptar soluciones practicas
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
x(k + N |k)
donde el coste a optimizar
JN (xk , uF (k)) =
N
1
X
i=0
siendo V (x) una funcion que penaliza el coste estado final de la prediccion (estado terminal), denominada funcion de coste terminal. Al conjunto al que se
restringe dicho estado se denomina region terminal.
La principal ventaja de la adopcion del horizonte finito reside en que el problema
de optimizacion tiene la forma de un problema de programacion matematica,
el cual admite solucion numerica gracias a los algoritmos existentes (Luenberger
1989). Notese que el coste computacional de la resolucion de este problema puede
ser muy elevado si el modelo es no lineal.
Estrategia de horizonte deslizante : seg
un esta tecnica, en cada periodo de muestreo se resuelve el problema de optimizacion y se aplica tan solo la actuacion
obtenida para el siguiente periodo de muestreo. En el siguiente periodo de muestreo
se toma un nuevo estado del sistema y se repite la operacion. Esto dota de realimentacion a la formulacion basada en el problema de optimizacion en bucle
abierto, lo cual le confiere cierto grado de robustez.
18
19
Por tanto, a pesar de que en cada instante se aplica una actuacion optima, en el
sentido que optimiza un coste y satisface unas restricciones, esta actuacion no garantiza
ni la factibilidad ni la convergencia del sistema en bucle cerrado.
Esta perdida de la estabilidad supuso un grave problema de los controladores predictivos, haciendo necesario un ajuste del controlador particular para cada sistema con
el fin de garantizar la estabilidad, con el temor a
nadido sobre como poda influir la
variacion de un parametro sobre esta. Por ello los controladores predictivos contaban
entre sus desventajas la dificultad del ajuste.
La comunidad investigadora tomo el reto del analisis de estabilidad de los controladores predictivos, que dio como fruto una serie de formulaciones que garantizan la
estabilidad.
2.3.1.
Un ejemplo ilustrativo
A=
1,0 1,0
B=
0,0 1,0
0,5
1,0
Q=
0,01
0,0
0,0
0,01
R=1
y no se a
nade coste terminal. En el ejemplo se va a considerar una region terminal
= {x IR2 : kxk 1}
20
x2
K1
K2
K3
K4
0
x1
Figura 2.1: Evolucion de un sistema controlado por un MPC sin garanta de estabilidad
que no es un invariante positivo del sistema. Notese que conjunto en que este controlador es factible es K4 (X, ).
En la figura 2.1 se muestran los conjuntos controlables desde 1 paso hasta 4 pasos.
Dado que la region terminal no es un invariante positivo del sistema, estas regiones
no tienen por que estar anidadas y, de hecho, no lo estan. Esto hace que puedan
existir estados iniciales factibles para los cuales el controlador no estabiliza el sistema,
perdiendose en alg
un instante la factibilidad (vease el recuadro aumentado). Notese
que esto ocurre a pesar de que el problema es inicialmente factible, es decir, que existe
una secuencia admisible que conduce el sistema hacia . Sin embargo, estas actuaciones
no son las que proporciona el controlador MPC.
Esto no quiere decir, como tambien se muestra en la figura, que el controlador no
estabilice al sistema en ciertos estados iniciales. El problema es que no se sabe a priori
cuales son.
2.4.
21
dio lugar a una serie de formulaciones con estabilidad garantizada, cuyo denominador
com
un es la utilizacion de la teora de Lyapunov, y en particular, el coste optimo como
funcion de Lyapunov. Estas formulaciones se pueden agrupar de la siguiente forma:
22
Esta estrategia fue propuesta en (Michalska & Mayne 1993) para sistemas no
lineales en tiempo continuo y sujeto a restricciones. En este trabajo, se elige como region terminal un invariante positivo del sistema no lineal controlado por un
controlador local. Ademas, para garantizar la factibilidad se introduce como variable de decision el horizonte de prediccion. El controlador as formulado garantiza
que conduce al sistema a la region terminal, donde el sistema pasa a regularse
por el controlador local que lo estabiliza al origen. De ah que este controlador
se denomine controlador MPC dual. Las bondades de esta formulacion son tan
notables, que marco las futuras lneas de investigacion en estabilidad.
En (Chisci, Lombardi & Mosca 1996) se extiende el control predictivo dual al
caso de sistemas lineales con restricciones.
En esta misma lnea, se enmarcan los denominados controladores predictivos
con estabilidad forzada, en los que esta se garantiza por la satisfaccion de una
restriccion estabilizante. En (De Oliveira Kothare & Morari 2000) se presenta
el denominado control predictivo contractivo. Esta estrategia esta basada en el
trabajo anterior (Yang & Polak 1993) e incorpora como restriccion terminal una
restriccion que fuerza al estado terminal x(k + N |k) a tener una norma inferior
a la del estado actual xk
kx(k + N |k)kP < kxk kP
La secuencia obtenida se aplica en bucle abierto desde el instante k hasta hasta
el k + N , en el que se vuelve a resolver el problema. Esta formulacion tiene dos
problemas: el funcionamiento en bucle abierto durante el horizonte de prediccion,
que se resuelve con un procedimiento de realimentacion extra, y el hecho de que
la factibilidad esta garantizada tan solo en una vecindad del origen, que puede
ser peque
na y no se conoce a priori.
En (Primbs, Nevistic & Doyle 2000), se garantiza la estabilidad forzando que una
funcion de control de Lyapunov conocida a priori, sea estrictamente decreciente
V (x(k + 1|k)) < V (xk )
Esta restriccion se impone en la actuacion para el instante actual uk , y garantiza
estabilidad para todo horizonte de prediccion N 1.
MPC con coste y restricci
on terminal : esta es la estructura en la que se enmarcan las mas recientes formulaciones del MPC. Es importante decir que en algunas
de las formulaciones propuestas en las que se garantiza estabilidad con la adicion
u
nicamente de una funcion de coste terminal, implcitamente se impone que la
prediccion alcance una vecindad del origen. En consecuencia se deben considerar
tambien como formulaciones con restriccion terminal.
El primer trabajo en el que se garantiza estabilidad incorporando ambos ingredientes es en (Sznaier & Damborg 1987) en el cual, para sistemas lineales sujetos
a restricciones politopicas, se considera como controlador local el LQR y como
23
24
2.5. Formulacion general del MPC: necesidad de la region terminal y el coste terminal
cuasi-infinito, pues el coste optimo del MPC es una cota superior del coste optimo
(con horizonte infinito).
2.5.
Formulaci
on general del MPC: necesidad de la
regi
on terminal y el coste terminal
En el artculo (Mayne 2001), inspirado por (Jadbabaie et al. 2001), se extiende esta condicion a
funciones de Lyapunov de control (CLF), que son mas generales que las funciones de Lyapunov. Vease
la seccion A.2.5.
25
La incorporacion del coste terminal garantiza que el termino entre llaves es negativo, y por lo tanto la secuencia factible tiene un coste menor que el optimo
anterior, por lo que la solucion optima tambien lo tendra. En consecuencia
JN (xk+1 ) JN (xk ) L(xk , KMPC (xk ))
y por lo tanto el coste optimo es una funcion de Lyapunov que decrece a lo
largo de la evolucion del sistema, lo que garantiza la estabilidad asintotica. Esta
demostracion se hace con mas detalle en el captulo siguiente, dedicado al analisis
de estabilidad del MPC.
Es importante resaltar que, aun en el caso en el que el controlador garantice la
estabilidad en bucle cerrado del sistema, la trayectoria seguida por el mismo no es
26
2.5. Formulacion general del MPC: necesidad de la region terminal y el coste terminal
optima, en el sentido de que puede existir otra cuyo coste total a lo largo de la misma
sea inferior. Esto se deriva del horizonte finito considerado en la formulacion del problema. As, la trayectoria del sistema difiere de la trayectoria resultante de la secuencia
optima calculada en un instante (consecuencia derivada del principio de optimalidad
de Bellman).
Un resultado muy interesante relacionado con la estabilidad de los controladores
MPC es el denominado MPC suboptimo que se presenta en (Scokaert, Mayne &
Rawlings. 1999). En este trabajo se demuestra que es la factibilidad de la solucion
la que garantiza la estabilidad, siempre que esta garantice un decrecimiento de la funcion de coste, no siendo necesaria la optimalidad de la solucion obtenida al problema de
optimizacion. Esta consideracion es trascendental para la implementacion de controladores MPC en sistemas no lineales. En efecto, el problema de optimizacion implicado
en el MPC es en general no convexo, y por lo tanto el problema puede presentar mnimos locales. La obtencion del mnimo global es sumamente costosa comparada con la
obtencion de un mnimo local, y tanto mas comparada con la obtencion de una solucion
que simplemente presente un menor coste que la anterior.
2.5.1.
Un ejemplo ilustrativo
P =
0,0511 0,1001
0,1001 0,4668
representa el coste infinito de la evolucion del sistema en bucle cerrado para todos los
estados de . En consecuencia satisface las condiciones de estabilidad.
En la figura 2.2 se muestran los conjuntos estabilizables desde 1 paso hasta 4 pasos.
En este caso, al contrario que el mostrado anteriormente, los conjuntos estan anidados,
por lo que S3 (X, ) S4 (X, ) lo que garantiza la factibilidad. Ademas el coste
terminal a
nadido garantiza la convergencia asintotica del sistema al origen, como se
muestra en la figura.
En la figura 2.3 se muestran las curvas de nivel de la funcion de coste optimo, junto
con las trayectorias del sistema. Se puede comprobar que el coste es una funcion de
27
Lyapunov del sistema observando como la evolucion del sistema es tal que el coste
asociado decrece con el tiempo.
S4
S2
S1
2
6
0
x1
Figura 2.2: Evolucion de un sistema controlado por un MPC con garanta de estabilidad
2
6
0
x1
Figura 2.3: Evolucion del coste optimo en las trayectorias del sistema
28
2.6.
2.6.1.
Introducci
on
2.6.2.
An
alisis de robustez de los controladores MPC
29
y robusta del MPC. En (Genceli & Nikolau 1993) se dan condiciones suficientes de
estabilidad robusta del DMC y se analiza el comportamiento del sistema en presencia de
incertidumbres. En (Primbs et al. 2000) se presenta un procedimiento para comprobar
la robustez de controladores predictivos de sistemas lineales con restricciones en las
entradas, basado en la solucion de una serie de desigualdades matriciales lineales (LMI).
La robustez de los controladores predictivos de sistemas no lineales se ha analizado
siguiendo dos lneas: una en la que se explota la optimalidad del controlador, y otra
basada en la teora de Lyapunov.
En la lnea basada en la optimalidad del controlador, en (Glad 1987) se presenta un
compendio de resultados de estabilidad robusta de controladores optimos para sistemas
no lineales en tiempo continuo, afines en la actuacion y sin restricciones. En este trabajo
se considera u
nicamente incertidumbres en las actuaciones de dos tipos: incertidumbres
en la ganancia, de forma que la actuacion real ur = (u) es una funcion (estatica) de
la actuacion que se aplica, e incertidumbres aditivas, de forma que ur = u + (x). El
principal resultado de este trabajo es la demostracion de que el controlador optimo
estabiliza al sistema con incertidumbres de ganancia contenidas en el sector (1/2, ),
es decir tal que
1 2
u < u(u) <
2
Este resultado se demuestra para el caso de una entrada y se extiende al caso de
m
ultiples entradas, garantizandose la robustez en otro sector.
Este trabajo se extendio en (Geromel & Da Cruz 1987) al caso de sistemas discretos afines en la actuacion, sin restricciones y con incertidumbres en las actuaciones,
considerando tambien horizonte infinito. En este trabajo se analiza la estabilidad del
sistema ante incertidumbres en la ganancia del controlador, obteniendose bajo ciertas
condiciones, un margen de estabilidad, que en el caso de una u
nica entrada, se reduce
al sector (0,5, ), como en los sistemas continuos. En este trabajo tambien se analiza
el caso de incertidumbres aditivas en la ganancia.
En (De Nicolao, Magni & Scattolini 1996) se extiende el trabajo de (Geromel &
Da Cruz 1987) al analisis de robustez de sistemas discretos sin restricciones controlados con un MPC con restriccion terminal. Si bien el trabajo original esta formulado
para el caso de restriccion terminal nula, esta se puede extender al caso general pues
esta basado en el principio de optimalidad (De Nicolao et al. 1998). Siguiendo un desarrollo practicamente paralelo al desarrollado en (Geromel & Da Cruz 1987), se obtienen
resultados semejantes.
Otra forma de demostrar la robustez del MPC general basada en la optimalidad
es la presentada en (Magni & Sepulchre 1997). En este trabajo se demuestra la optimalidad inversa del MPC: el controlador obtenido de un MPC con horizonte finito
30
2.6.3.
31
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1, wF
x(k + N |k)
wF
(N 1
X
i=0
32
33
teorica (Mayne et al. 2000). Sin embargo, estas consideraciones han permitido enfocar
mejor el problema de la robustez, dando un giro en la investigacion en este campo.
Esta formulacion se sigue tambien en (Magni, Nijmeijer & van der Shaft 2001),
donde se propone un controlador H con horizonte deslizante para un sistema no
lineal, afn en la actuacion y sin restricciones.
Dentro del control predictivo en bucle cerrado se pueden considerar otras formulaciones como por ejemplo el trabajo presentado en (Kothare, Balakrishnan &
Morari 1996). En este se propone un controlador que estabiliza una planta incierta
tal que se puede expresar en cada instante como una combinacion convexa de una serie
de plantas lineales y que presenta restricciones en los estados y en las actuaciones. En
esta formulacion se considera como variable de optimizacion un controlador lineal que
estabiliza todas las plantas y se puede plantear como un LMI que se resuelve en cada
instante.
Tambien se pueden considerar dentro de los controladores en bucle cerrado los trabajos (Bemporad 1998) y (Chisci, Rossiter & Zappa 2001) en los cuales se parametriza
la ley de control como uk = Kxk + vk , siendo Kx una ley de control que estabiliza la
planta nominal. El controlador predictivo se formula en terminos de vk . Las restricciones en los estados y en las actuaciones son politopicas, y por lo tanto, tras el cambio de
variables siguen siendo politopicas. Esta tecnica mejora el condicionamiento numerico
del problema de optimizacion y en cierta forma, el controlador a
nadido reduce el efecto
de las incertidumbres, pues a
nade cierta realimentacion en las predicciones en bucle
abierto.
Ademas, en (Chisci & Zappa 1999) se a
nade una restriccion adicional con el fin
de garantizar la satisfaccion robusta de las incertidumbres. Esta idea se generaliza al
caso no lineal en (Kerrigan 2000), donde se analiza utilizando la teora de conjuntos
invariantes la satisfaccion robusta de las restricciones.
Todas estos controladores reducen el conservadurismo de la formulacion en bucle
abierto, pero siguen siendo mas conservadoras que la formulacion en bucle cerrado. A
su favor tienen que son controladores mas facilmente implementables.
2.7.
Conclusiones
34
2.7. Conclusiones
Captulo 3
Nuevas formulaciones del MPC con
estabilidad garantizada
3.1.
Introducci
on
El control predictivo basado en modelo es una de las pocas tecnicas de control que
permite la incorporacion de restricciones en su formulacion. Ademas esta estrategia de
control es valida para un amplio abanico de sistemas, tanto lineales como no lineales
y ha tenido una importante repercusion en la industria.
Un aspecto primordial en el dise
no de un controlador es la garanta de estabilidad
del sistema en bucle cerrado. El estudio de la estabilidad en el MPC es un aspecto que
ha ido evolucionando hasta llegar al estado actual, en el que se considera una materia
madura. Esto se debe en gran parte al establecimiento de unas condiciones generales
(validas para la mayora de sistemas) bajo las cuales se garantiza la estabilidad del
controlador MPC (Mayne et al. 2000). Estas condiciones parten de una formulacion
del controlador que incluye el coste terminal as como la restriccion terminal y que se
denomina a lo largo de este documento, formulacion general del MPC.
Este captulo comienza estableciendo las condiciones de estabilidad del MPC general, pues sirven de base para las posteriores secciones. A continuacion se presentan
nuevas formulaciones del MPC con estabilidad garantizada: en la primera de ella se
propone un controlador MPC con un horizonte de prediccion mayor que el horizonte
de control. Esta es una aportacion original de esta tesis y supone una generalizacion
de la formulacion propuesta en (Magni, De Nicolao, Magnani & Scattolini 2001).
Otro nuevo controlador propuesto en este captulo considera un coste terminal basa35
36
3.1. Introduccion
Estabilidad
MPC subptimo
Anlisis de
optimalidad
Controlador MPC
con coste
terminal
cuasi-infinito
Fundamentos
Nuevos
controladores MPC
Eliminacin
de la restriccin
terminal
Anlisis
de los nuevos
controladores
Aspectos de
implementacin
3.2.
37
Descripci
on del sistema
(3.1)
(3.2)
(3.3)
3.3.
Formulaci
on general del MPC
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
x(k + N |k)
1
De esta forma se refiere en este documento a la formulacion del MPC propuesta en (Mayne
et al. 2000).
38
N
1
X
i=0
3.3.1.
39
Horizonte de predicci
on (N ) : es el horizonte temporal en el que se considera la
evolucion futura de la planta para el calculo de la actuacion.
Coste de etapa (L(x, u)) : es la funcion que penaliza el estado y la actuacion sobre
el sistema en el funcional a optimizar. Esta funcion es continua y definida positiva
tal que L(0, 0) = 0 y ademas L(x, u) (k(x, u)k), siendo () una funcion K .
Generalmente se impone que L(x, u) lk(x, u)k para ciertas constantes l > 0
y > 0.
Esta condicion se puede relajar tomando L(x, u) lk(g(x), u)k satisfaciendo
g(x) ciertas condiciones de observabilidad (Keerthi & Gilbert 1988).
Las funciones de coste pueden estar basadas en norma infinito, en norma 1, si
bien lo mas habitual es considerar norma 2 ponderada, lo que da lugar al coste
cuadratico
L(x, u) = xT Qx + uT Ru
siendo Q una matriz semidefinida positiva y R una matriz definida positiva.
Coste terminal (V (x)) : es la funcion que penaliza el estado terminal, es decir, el
estado predicho al final del horizonte de prediccion.
Regi
on terminal () : es un conjunto cerrado, vecindad del origen, que el estado
terminal debe alcanzar. Para garantizar esto, se impone como restriccion en el
problema de optimizacion denominada restriccion terminal.
Estos son los parametros del controlador MPC sobre los cuales se imponen condiciones para garantizar la estabilidad del sistema. En esta seccion se presentan condiciones suficientes incorporando los resultados presentados por Mayne en (Mayne 2001).
Para una mayor sencillez en la exposicion de los resultados, se incorpora la siguiente
notacion: sea (x) una funcion IRn 7 IR, en lo que sigue se denota
(x, u) = (f (x, u)) (x)
que representa el incremento que experimenta la funcion al evolucionar el sistema que
se encuentra en un estado x al aplicar una actuacion u. Analogamente se denota
[ + L](x, u) = (x, u) + L(x, u)
40
Hip
otesis 3.1 (Regi
on y coste terminal) El sistema es tal que existe una vecindad
del origen X que es un conjunto invariante de control del sistema 2 y ademas tiene
asociada una funcion de Lyapunov de control (CLF) 3 V (x) tal que
mn {V (f (x, u)) V (x) + L(x, u), sujeto a f (x, u) } 0
uU
(3.4)
Esta hipotesis suele formularse en terminos de funcion de Lyapunov. Pero el concepto de CLF es mas general y engloba a las funciones de Lyapunov, dado que estas se
pueden considerar funciones de Lyapunov de control particularizadas para una cierta
ley de control. Esta generalidad se plasmara en una mayor diversidad de funciones y
sobre todo en mayores regiones invariantes. Notese tambien que toda region del tipo
= {x IRn : V (x) }
contenida en la region factible del problema (3.4) es un invariante de control del sistema.
Sea u = hV (x) la ley de control formada por las actuaciones optimas de (3.4) en
cada estado, entonces, esta condicion se puede reescribir de una forma mas compacta
como
[V + L](x, hV (x)) 0
para todo x .
A partir de las condiciones anteriormente expuestas se puede establecer el siguiente
resultado:
Teorema 3.2 (Estabilidad asint
otica) (Mayne et al. 2000)
Sea un sistema xk+1 = f (xk , uk ), tal que f (0, 0) = 0 y esta sujeto a las restricciones
x k X y uk U .
Sea un problema de optimizacion MPC con una funcion de coste terminal y una regi
on
terminal tales que satisfacen la hipotesis 3.1.
Entonces el sistema controlado por la ley de control uk = KMPC (xk ) es asintoticamente
estable con un dominio de atracci
on XN que es el conjunto de estados para los que el
problema de optimizacion es factible.
Demostraci
on:
Factibilidad:
La estabilidad se basa en probar que el conjunto factible XN es un invariante positivo
2
3
41
del sistema en bucle cerrado. El conjunto XN es el conjunto de estados para los cuales
existe una secuencia de N actuaciones admisibles tales que el sistema evoluciona dentro
de X hasta alcanzar el conjunto terminal . Este conjunto es el conjunto estabilizable
en N pasos 4 , SN (X, ). Por tanto el dominio de atraccion es XN = SN (X, ).
Sea xk SN (X, ), entonces el estado siguiente puede alcanzar en N 1 pasos,
por lo que xk+1 = x(k +1|k) SN 1 (X, ) SN (X, ). Por tanto, verifica la condicion
de invariancia y el conjunto SN (X, ) es un invariante positivo del sistema en bucle
cerrado.
Convergencia:
Se demuestra comprobando que el coste optimo es una funcion de Lyapunov del sistema
en bucle cerrado.
Sea uF (k) la solucion optima del sistema en xk , con un coste optimo JN (xk ) y una
secuencia predicha optima x (k+j|k) para j = 1, , N . Es facil comprobar que JN (xk )
es una funcion definida positiva por serlo L(, ), ya que
JN (xk ) L(xk , u (k|k)) lk(xk , u (k|k))k lkxk k
Considerese la secuencia uF (k + 1) dada por:
u (k + j|k)
u(k + j|k + 1) =
h (
V x(k + N |k + 1))
j = 1, , N 1
j=N
42
43
Demostraci
on:
Del teorema 3.2 se tiene que el coste optimo JN (x) es una funcion de Lyapunov del
sistema. Ademas verifica que
J (x) lkxk
J (x, KMPC (x)) lkxk
Entonces, si existe una constante r tal que JN (xk ) rkxk k , seg
un la teora de Lyapunov el sistema sea exponencialmente estable (ver apendice A). Para ello se va a
demostrar primero que
kx(k + 1|k)k ax kxk k + au ku (k|k)k (ax + au bu )kxk k = 1 kxk k
kx(k + 2|k)k ax kx(k + 1|k)k + au ku (k + 1|k)k
(ax 1 + au bu )kxk k = 2 kxk k
..
.
kx(k + j|k)k ax kx(k + j + 1|k)k + au ku (k + j 1|k)k
(ax j1 + au bu )kxk k = j kxk k
Entonces se tiene que
JN (xk )
N
1
X
i=0
N
1
X
kxk k
{cx i kxk k + cu bu kxk k } + dx N
i=0
cx
N
1
X
i=0
i + N cu bu + dx N
kxk k = rkxk k
44
Las condiciones anteriores son suaves en general, salvo la impuesta sobre la secuencia
de actuaciones, que esta relacionada con su continuidad Lipschitz. Esta condicion se
satisface bajo ciertas condiciones de regularidad del problema de optimizacion. En el
apendice C se hace un analisis de esta propiedad.
3.3.2.
Ejemplo de aplicaci
on al reactor
Para ilustrar el controlador MPC general se aplica este controlador sobre el reactor
continuamente agitado que se muestra en el apendice B. Se va a considerar una funcion
de coste cuadratica
L(x, u) = xT Qx + uT Ru
siendo las matrices de ponderacion
Q=
10 0
0
R=1
1,6154 3,6644
para este controlador se calcula la funcion de Lyapunov V (x) = xT P x, que satisface la condicion (3.4) en la region invariante
= {x IRn : V (x) }
siendo
P =
265,8811
49,3961
49,3961
125,9963
= 9,3353
45
0.2
x2
0.2
0.4
0.6
0.8
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
3.4.
46
0.05
x1
0
0.05
0.1
0
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
muestras
30
35
40
45
50
x2
0.3
0.2
0.1
0
0.1
0
0.5
1
0
log10 J5
0.5
0.5
1.5
10
15
20
25
muestras
30
35
40
45
50
Figura 3.4: Evolucion del logaritmo decimal del coste optimo del reactor.
de control se refiere al n
umero de variables de decision consideradas en el problema de
optimizacion. Esta medida permite considerar en el controlador el comportamiento del
sistema en un horizonte mayor sin aumentar el n
umero de variables de decision, si bien
es necesario fijar las actuaciones a considerar en la porcion de horizonte de prediccion
que es mayor que el horizonte de control.
Esta medida fue traslada a sistemas no lineales en (Chen & Allgower 1997, Zheng
2000), limitandose al caso de sistemas estables. En (Magni, De Nicolao, Magnani &
Scattolini 2001) se generalizo para una formulacion particular del MPC, en la que se
considera como funcion de coste terminal el coste de la evolucion del sistema controlado
47
por la ley de control local u = h(x) en un horizonte finito suficientemente largo. Esta
aproximacion es una version implementable de la formulacion propuesta por los autores
en (De Nicolao et al. 1998) en la cual consideran como coste terminal el coste infinito
del sistema controlado por un controlador local.
En esta seccion se extiende la formulacion general del MPC a la formulacion con
mayor horizonte de prediccion y se establecen condiciones de estabilidad del controlador. Esta formulacion, no solo conserva las propiedades del controlador propuesto
en (Magni, De Nicolao, Magnani & Scattolini 2001), sino que ademas posee algunas
nuevas. Todas estas propiedades se analizan en secciones posteriores. Esta formulacion
y su analisis posterior son una de las contribuciones originales de esta tesis.
3.4.1.
Formulaci
on del controlador
En lo que sigue se denota Lh (x) = L(x, h(x)) al coste de etapa asociado al estado
de la planta x aplicando la ley de control local u = h(x).
El funcional considerado en el MPC con un horizonte de prediccion Np y un horizonte de control Nc viene dado por
JNc ,Np (xk , uF (k)) =
NX
c 1
i=0
Np 1
i=Nc
48
Notese que en este caso las variables de optimizacion son las Nc acciones de control a
lo largo del horizonte de control. A partir de entonces se considera que el sistema se
controla con la ley de control local uk = h(xk ). Por tanto, el problema de optimizacion
se formula de la siguiente manera:
mn JNc ,Np (xk , uF (k))
uF (k)
s.a
u(k + j|k) U
j = 0, , Nc 1
h(x(k + j|k)) U j = Nc , , Np 1
x(k + j|k) X
j = 0, , Np 1
x(k + Np |k)
En este caso las predicciones se realizan de forma que
x(k + j + 1|k) = f (x(k + j|k), u(k + j|k)) j = 0, Nc 1
x(k + j + 1|k) = f (x(k + j|k), h(x(k + j|k))) j = Nc , Np 1
siendo x(k|k) = xk .
En cada instante se resuelve este problema de optimizacion y se aplica sobre el
sistema seg
un la estrategia de horizonte deslizante. Por tanto, la ley de control viene
dada por
KMPC (xk ) = u (k|k)
3.4.2.
49
Demostraci
on:
La demostracion es similar a la del teorema 3.2, por lo que habra razonamientos que
se infieran de esta.
Factibilidad:
Al igual que en el MPC general, se puede obtener una solucion factible u
F (k + 1) a
u (k + j|k)
u(k + j|k + 1) =
h(x(k + Nc |k + 1))
j = 1, , Nc 1
j = Nc
50
= L(xk , u (k|k))
+[V + L](x (k + Np |k), h(x (k + Np |k)))
L(xk , u (k|k))
Por tanto, del principio de optimalidad se tiene que
JN c ,Np (xk+1 ) JN c ,Np (xk ) JNc ,Np (xk+1 ) JN c ,Np (xk ) L(xk , u (k|k))
De aqu se deduce que el coste optimo es una funcion de Lyapunov estrictamente
decreciente y, por tanto, el sistema es asintoticamente estable.
Como se comento anteriormente, esta formulacion es una generalizacion de la propuesta en (Magni, De Nicolao, Magnani & Scattolini 2001). En dicho trabajo se utiliza
como coste terminal, una version truncada del coste infinito del sistema controlado
por la ley de control local. El n
umero de terminos considerados en el coste terminal
se calcula para garantizar que el sistema en bucle cerrado sea asintoticamente estable.
Estas condiciones dan como resultados altos valores del horizonte y ademas, dicho
horizonte depende del estado terminal del sistema, y del estado inicial de la planta.
Esto es un gran inconveniente, pues la sintonizacion del controlador depende de la
evolucion del sistema. Estas desventajas se mitigan en la formulacion propuesta, en la
que se demuestra estabilidad para un coste terminal fijo.
Si bien la formulacion propuesta en (Magni, De Nicolao, Magnani & Scattolini 2001)
presenta ciertas propiedades entre las que destacan un mayor dominio de atraccion y
un mejor desempe
no debido al mayor grado de optimalidad. Esta u
ltima tan solo se
verifica en el caso de coste terminal con horizonte infinito (que es irrealizable desde un
punto de vista practico, salvo en el caso de sistemas lineales). En secciones posteriores
y en el captulo siguiente, se demuestra que la formulacion que se propone en esta tesis
conserva las propiedades del controlador anterior y ademas presenta un mayor grado
de optimalidad sin tener que recurrir a soluciones meramente teoricas.
3.4.3.
Ejemplo de aplicaci
on al reactor
51
0.4
0.2
x2
0.2
0.4
0.6
0.8
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
0.05
0.1
0.15
0.2
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
muestras
30
35
40
45
50
x2
0.4
0.2
0
0.5
0
0.5
1
52
0.5
log10 J*
0.5
1.5
2.5
10
15
20
25
muestras
30
35
40
45
50
Notese que manteniendo una complejidad de calculo similar a la formulacion general, se extienden los estados futuros a considerar en el controlador de 3 a 15. Esto
confiere un mejor comportamiento al sistema y un mayor dominio de atraccion como
se demostrara posteriormente.
3.5.
En el artculo (De Nicolao et al. 1998) se presenta una formulacion del MPC con
i=
X
i=0
53
coste infinito V (x) de forma analtica, salvo en el caso de sistemas lineales. Este coste
se podra calcular en lnea de forma numerica, pero el horizonte infinito hace que sea
imposible a menos que se aproxime por el coste en un horizonte finito suficientemente
largo. En este caso, podra no estar garantizada la estabilidad del controlador.
Esta limitacion se resolvio en un trabajo posterior (Magni, De Nicolao, Magnani
& Scattolini 2001) limitando el coste a un horizonte finito. Esta solucion garantiza
estabilidad para un horizonte suficientemente largo como para que sea una aproximacion suficientemente precisa. Este horizonte se fija a partir de una condicion que
depende del estado terminal predicho en cada instante y del estado en que se encuentra
el sistema. Por lo tanto depende de la evolucion del sistema, lo que la hace muy difcil de
comprobar a priori. Esta condicion, que en el artculo se presenta como una condicion
tecnica, es clave para la demostracion de la estabilidad del controlador, no estando
garantizada si esta no se cumple.
En esta seccion se presenta un coste terminal con horizonte finito de la forma5
VM (x) =
j=M
X1
(3.5)
j=0
siendo V () una funcion de Lyapunov del sistema que satisface la hipotesis 3.5. Este
coste terminal se denomina coste terminal con horizonte cuasi-infinito, o simplemente
coste terminal cuasi-infinito.
Este coste terminal garantiza la estabilidad del MPC para cualquier horizonte
M 1 y ademas puede aproximar arbitrariamente bien el coste infinito. Esta formulacion conserva, como se vera, la optimalidad de la formulacion de (Magni, De Nicolao,
Magnani & Scattolini 2001) sin los problemas que esta presenta. Este controlador y
sus resultados asociados constituye una de las aportaciones originales de esta tesis.
El nuevo controlador que se presenta en esta seccion se basa en el siguiente resultado:
j=M
X1
(3.6)
j=0
En lo que sigue y por sencillez en la presentacion de los resultados se denota Lh (x) = L(x, h(x)).
54
h
Entonces la funcion VM (x) y la regi
on SM
(X, )
Demostraci
on:
h
De la teora de conjuntos invariantes se deduce que el conjunto SM
(X, ) X h es un
h
invariante positivo del sistema por serlo . Entonces, para todo x SM
(X, ) se tiene
que
Nota 3.8 Bajo las condiciones del lema 3.7, es facil demostrar que para cualquier
conjunto invariante positivo del sistema controlado por la ley de control local u = h(x),
h
SM
(X, ), la funcion de Lyapunov VM (x) y el conjunto tambien satisfacen la
hipotesis 3.5. En particular tambien se satisface con el conjunto .
Teorema 3.9 Sea V (x) la funcion de Lyapunov de la hipotesis 3.5 y sea VM (x) la
funcion de Lyapunov definida a partir de V (x) como en el lema 3.7. Entonces se tiene
que:
(i) V (x) VM (x), para todo M 1, para todo x .
(ii) VM (x)
P
j=0
h
(X, ).
Lh (xh (i + j|i)) = V (x) siendo x(i|i) = x, para todo x SM
h
(X, ).
(iii) VM (x) VM +1 (x) para todo x SM
6
h
La region SM
(X, ) es el conjunto de estados del sistema controlado por la ley de control u = h(x)
tales que la evolucion del sistema es admisible y ademas alcanzan en M pasos. Vease la seccion A.3.
55
h
(iv) VM (x) V (x) VM (f (x, h(x))) V (f (x, h(x))) para todo x SM
(X, ).
Demostraci
on:
(i) De la hipotesis 3.5 se tiene que para todo x se verifica
V (xh (i + j|i)) V (xh (i + j + 1|i)) Lh (xh (i + j|i))
siendo x(i|i) = x. De aqu se deduce que
V (x) V (xh (i + M |i)) =
j=M
X1
j=0
j=M
X1
Lh (xh (i + j|i))
j=0
Por tanto V (x) VM (x), lo que demuestra la primera afirmacion del teorema.
h
h
(ii) De la invariancia positiva de SM
(X, ), se tiene que para todo x SM
(X, )
h
implica que xh (i + j|i) SM
(X, ) para todo i 0. Entonces, aplicando el lema
3.7 se tiene que
j=
X
Lh (xh (i + j|i))
j=0
= V (x)
dado que el sistema controlado con la ley de control u = h(x) es asintoticamente
estable en , el termino de la izquierda se reduce a VM (x), lo que demuestra la
propiedad.
(iii) Para demostrar la tercera consecuencia basta con considerar que
VM +1 (x) VM (x) = Lh (xh (i + M |i)) + V (xh (i + M + 1|i)) V (xh (i + M |i))
= V (xh (i + M |i), h(xh (i + M |i))) + Lh (xh (i + M |i))
dado que xh (i + M |i) , de la hipotesis 3.5 se demuestra la propiedad.
(iv) La cuarta propiedad surge inmediatamente considerando que
VM (x) VM (f (x, h(x))) Lh (x) = V (x) V (f (x, h(x)))
56
log () log ()
log (1/)
57
j=M
X1
(3.7)
j=0
3.5.1.
Ejemplo de aplicaci
on al reactor
58
Otra propiedad interesante es que V (x) VM (x) para todo x y para todo
M 1. Para ilustrar esto, en la figura 3.8 (b) se muestra la evolucion del coste VM (xk )
con M = 10, junto con el de V (xk ) a lo largo de la evolucion del sistema regulado con el
controlador local. En esta figura se observa como la evolucion de ambas funciones son
estrictamente decrecientes, por ser ambas funciones de Lyapunov del sistema y ademas
V (xk ) VM (xk ) y su diferencia se reduce a medida que se acerca el sistema al punto
de equilibrio.
1
0.95
log V (x )
10 10 k
log10 V(xk)
0.9
1
log10 VM(x)
0.85
2
0.8
3
0.75
4
0.7
0.65
0.6
10
15
20
25
M
(a)
30
35
40
45
50
10
20
30
40
50
muestras
60
70
80
90
100
(b)
3.6.
El MPC es una formulacion implementable de los controladores optimos con horizonte infinito. Estos controladores tratan de optimizar el coste del comportamiento del
sistema a lo largo de toda su evolucion. Esto confiere propiedades muy interesantes a
estos controladores como optimalidad, robustez y ademas la posibilidad de conducir
hacia el origen al sistema partiendo de cualquier estado asintoticamente estabilizable.
La trayectoria del sistema as controlado es aquella que minimiza el coste de su evolucion, no existiendo otra con menor coste. Por ello, es la trayectoria que optimiza el
desempe
no impuesto sobre el sistema mediante el coste de etapa.
El horizonte finito y fijo con el que se resuelve el MPC hace que la trayectoria
que sigue el sistema pueda diferir de la obtenida por el controlador con horizonte
59
0.4
0.2
x2
0.2
0.4
0.6
0.8
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
0
0.05
0.1
0
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
muestras
30
35
40
45
50
x2
0.4
0.2
0
0
0.5
1
60
analisis se realiza para la formulacion con Np Nc por ser esta mas general, pues los
resultados son extrapolables al caso de Nc = Np .
JNc , (x) al coste optimo del MPC con horizonte de control Nc y horizonte de prediccion
MPC
infinito. Por u
ltimo, J
(x) representa el coste asociado a la evolucion del sistema
controlado por el MPC, partiendo del estado x.
3.6.1.
En (Chen & Allgower 1998b) se presenta una formulacion denominada MPC con
Demostraci
on:
Sea u = h(x) la ley de control local asociada a V (x). Entonces del teorema 3.9 se tiene
que para todo x
V (x) V (x)
por otro lado, de la optimalidad del control con horizonte infinito se deduce que
V (x) J
(x), y por lo tanto
V (x) J
(x)
lo que demuestra el lema.
De esta propiedad se puede inferir el siguiente resultado:
Propiedad 3.12 Del lema anterior se deduce que para todo xk XNc ,Np
JN c ,Np (xk ) J
(xk )
61
Por tanto la hipotesis 3.5 garantiza que el coste a optimizar es una cota superior del
coste infinito, de forma que la convergencia del coste del MPC garantiza en cierta forma
la convergencia del coste infinito.
3.6.2.
Demostraci
on:
Sea uF (k) la solucion optima del MPC en el estado xk con horizontes Nc y Np , con un
coste asociado JN c ,Np (xk ). Entonces la secuencia uF (k) dada por
u (k + j|k)
j = 0, , Nc 1
u(k + j|k) =
h(x (k + N |k)) j = N
c
c
En consecuencia, cuanto mayor es el horizonte de control, menor sera el coste optimo. Por tanto al aumentar el horizonte de control se gana en optimalidad de la solucion
pero a costa de aumentar el coste computacional en la resolucion del problema. Analogo
resultado se obtiene a continuacion al aumentar el horizonte de prediccion.
62
Teorema 3.14 Sea un sistema y un controlador MPC tal que satisfacen las hipotesis
del teorema 3.6, entonces se tiene que
JN c ,Np (xk ) JN c ,Np +1 (xk )
Demostraci
on:
Sea uF (k) la solucion optima del MPC con coste JNc ,N p (xk , uF ), entonces, dado que la
ley de control local u = h(x) es estabilizante, uF (k) = uF (k) es una solucion factible
del problema de optimizacion con horizonte Np +1. Por lo tanto x(k +j|k) = x (k +j|k)
para todo j = 1, , Np . Ademas se tiene que
x(k + Np + 1|k) = f (x (k + Np |k), h(x (k + Np |k)))
Entonces se tiene que
JNc ,N p+1 (xk ) JN c ,Np (xk ) = Lh (x (k + Np |k)) + V (
x(k + Np + 1|k))
V (x (k + Np |k)) 0
dado que x (k + Np |k) . Del principio de optimalidad se deduce que
JN c ,Np +1 (xk ) JNc ,Np +1 (xk ) JN c ,Np (xk )
Notese que el controlador propuesto verifica que un aumento del horizonte de prediccion reduce el coste optimo y por lo tanto se aproxima mas a la optimalidad, mejorando
el comportamiento del sistema en bucle cerrado. Esta mejora se consigue sin un incremento apreciable del coste computacional.
3.6.3.
A continuacion se analizan propiedades de los nuevos controladores MPC propuestos en relacion a su aproximacion al controlador con horizonte infinito, es decir, a
la optimalidad de la solucion. As, cuanto mayor sea la optimalidad de la solucion
obtenida, mejor sera el comportamiento del sistema en bucle cerrado. Este analisis es
una de las contribuciones de esta tesis.
Corolario 3.15 Sea V (x) y tales que satisfacen la hipotesis 3.5. Sea uF (k) una
secuencia factible del MPC en el estado xk con horizonte de predicci
on Np y de control
63
Nc . Sea JNMc ,Np (xk , uF (k)) el coste de dicha secuencia considerando como coste terminal
VM () y sea JNc ,Np (xk , uF (k)) el coste considerando como coste terminal V (). Entonces
JNc ,Np (xk , uF (k)) JNMc ,Np (xk , uF (k))
Es decir, que considerar como coste terminal VM () en el MPC reduce el coste
optimo y por tanto se acerca mas a la evolucion optima. Este corolario se deduce de la
propiedad
V (x) VM (x)
para todo M 1 y para todo x , demostrada en el teorema 3.9.
Corolario 3.16 Bajo las hipotesis del teorema 3.6, para cualquier secuencia factible
uF (k), la funcion de coste con horizonte de predicci
on Np es una cota superior del coste
con horizonte de predicci
on infinito
JNc ,Np (xk , uF (k)) JNc , (xk , uF (k))
Esto es consecuencia inmediata del corolario anterior, de la propiedad VM (x) V (x)
demostrada en el teorema 3.9.
Corolario 3.17 De las propiedades anteriores se deduce que, para toda secuencia
factible uF (k)
JNc ,Np (xk , uF (k)) JNMc ,Np (xk , uF (k)) JNc , (xk , uF (k))
y ademas la diferencia JNMc ,Np (xk , uF ) JNc , (xk , uF ) se puede reducir arbitrariamente
tomando un valor de M suficientemente grande.
Esto se deduce de que
JNMc ,Np (xk , uF ) JNc , (xk , uF ) = VM (x(k + Np |k)) V (x(k + Np |k))
y de que esta diferencia se puede hacer tan peque
na como se desee tomando un valor
de M suficientemente grande.
A continuacion se va a analizar la relacion del coste optimo del MPC obtenido en xk
con el coste en que incurre la evolucion del sistema controlado por el MPC a partir de
ese estado, lo cual forma parte del trabajo original realizado en la tesis. As, se denota
MPC
(xk ) al coste infinito asociado al sistema controlado por el MPC, es decir,
J
J (xk ) =
MPC
j=
X
j=0
64
Teorema 3.18 Sea un sistema tal que satisface la hipotesis 3.5. Sea un controlador
MPC tal que la regi
on terminal es y el coste terminal V (x), la funcion de Lyapunov
asociada. Entonces se verifica que
MPC
(xk )
JN c ,Np (xk ) J
Demostraci
on:
Por las hipotesis se tiene que el sistema controlado por el MPC es asintoticamente
estable y ademas el coste optimo satisface
JN c ,Np (xk+j ) JN c ,Np (xk+j+1 ) L(xk+j , KMPC (xk+j ))
por tanto
j=
X n
j=0
j=
X
MPC
L(xk+j , KMPC (xk+j )) = J
(xk )
j=0
Nota 3.19 De todo lo expuesto hasta ahora se puede obtener el siguiente balance:
MPC
65
Este es quiza el resultado mas importante de todo este analisis: las nuevas formulaciones propuestas consistentes en el aumento del horizonte de prediccion, as como
la consideracion como coste terminal VM () producen una reduccion del coste optimo
del MPC y por lo tanto un comportamiento del sistema mas optimo y un mejor comportamiento del sistema en bucle cerrado. Ademas el coste computacional en el que se
incurre por la incorporacion de estas medidas no es grande y, dado que la estabilidad
esta garantizada para todo Np Nc y M 0, estos elementos se pueden a
nadir en
funcion del tiempo de calculo disponible sin peligrar la estabilidad.
3.6.4.
Ejemplo de aplicaci
on al reactor
Para ilustrar las propiedades de optimalidad del MPC se va a analizar como influyen
los distintos parametros sobre el sistema partiendo del estado inicial CA = 0,2 mol/l y
T = 340 K que equivale a x1 = 0,3 y x2 = 0,5.
En la figura 3.11 se muestra la variacion del coste optimo del MPC en un estado
determinado al variar el horizonte de control (considerando Np = Nc ). Como se puede
observar, el coste optimo disminuye al aumentar el horizonte de control tal y como se
demostro.
45
40
J*N
35
30
25
20
10
11
12
13
14
15
16
17
18
19
20
Nc
En la figura 3.12 se puede observar la variacion del coste optimo del MPC con un
horizonte de control fijo Nc = 5, para una serie de valores del horizonte de prediccion.
Tal y como se demostro, el coste optimo disminuye monotonamente al aumentar Np .
En el analisis realizado anteriormente se ha demostrado que al aumentar el horizonte
de control, o el de prediccion o bien tomando como coste terminal el cuasi-infinito, el
66
45
40
J*5,N
35
30
25
20
10
15
20
25
30
35
40
45
50
Np
0.2
0.1
Nc=4
Nc=4, Np=10
Nc=4, Np=10, M=10
Nc=
0.1
0.2
0.3
0.4
0.5
0.4
0.3
0.2
0.1
x1
0.1
0.2
Ademas se han calculado los costes optimos en el estado inicial, obteniendose los
siguientes resultados
J4 (x0 )
33.5711
(x0 )
J4,10
29.4109
10
J4,10
(x0 )
25.7196
MPC
J
(x0 )
23.6733
J
(x0 )
23.5891
67
MPC
siendo J
(x0 ) el coste de la evolucion del MPC con Nc = 4, Np = 10 y M = 10.
En esta tabla se puede comprobar como un aumento del horizonte de prediccion y/o
del n
umero de terminos del coste terminal cuasi-infinito, hacen que el coste optimo
disminuya, aproximandose el controlador al optimo. Tambien el aumento del horizonte
de control aproxima el controlador, pero al contrario que las medidas anteriores, esta
supone una mayor carga computacional.
3.7.
C
alculo de la regi
on terminal
68
f (x, u)
A=
x (0,0)
f (x, u)
y B=
u (0,0)
ATK P AK P = Q
3. Sea V (x) = xT P x. Calcular la constante > 0 tal que para todo
x = {x IRn : V (x) }
se satisfaga
X K = {x X : u = Kx U }
V (f (x, Kx)) V (x) xT Q x
4. Si se desea calcular el invariante positivo en el cual el sistema es asintoticamente
estable pero en el que no se verifica la hipotesis 3.5, tomese una constante
[0, min (Q )] arbitrariamente peque
na. Calcular la constante > 0 tal que para
n
todo x = {x IR : V (x) } se satisface
X K
V (f (x, Kx)) V (x) xT x
s.a
V (f (x, Kx)) V (x) > xT Q x
69
k(x)kP
0<kxkP r
kxkP
max
70
b2i
= mn T 1
i
ai P ai
3.7.1.
Ejemplo de aplicaci
on al reactor
Para ilustrar el calculo de la region terminal, se va aplicar el procedimiento presentado al ejemplo del reactor. En este caso se obtiene el controlador local linealizando el
sistema en torno al origen obteniendose
A=
0,9385 0,0443
0,1624
1,1365
B=
0,0013
0,0668
y calculando el controlador lineal mediante la tecnica del LQR con los mismos factores
de ponderacion que los utilizados en la seccion 3.3.2, se obtiene
K=
1,6154 3,6644
71
Para esta ley de control se calcula la matriz P que resuelve la ecuacion de Lyapunov
ATK P AK P = Q
siendo
0,9406 0,0396
AK = A + BK =
0,0545
0,8918
Q = Q + K T QK =
12,6095
5,9195
5,9195
14,4279
y el parametro > 1.
Para calcular el conjunto invariante hay que calcular el maximo tal que se verifique la condicion
f (x, Kx)T P f (x, Kx) xT P x xT Q x
En el caso de = 2, se obtiene la solucion utilizada en los ejemplos realizados a lo
largo de este captulo: 2 = 9,3353 y
P2 =
265,8811
49,3961
49,3961
125,9963
72
0.5
x2
0.5
1.5
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
x1
Figura 3.14: Invariantes positivos del sistema para = 1,1, 1,25 y 1,5.
5
4.5
3.5
2.5
1.5
0.5
0
1.1
1.15
1.2
1.25
1.3
1.35
1.4
1.45
1.5
1.55
1.6
3.8.
An
alisis de estabilidad del MPC sub
optimo
73
Por tanto, para que un controlador MPC sea implementable debe ser capaz de
conservar la estabilidad asintotica en bucle cerrado del sistema en el caso de soluciones
suboptimas del problema de optimizacion.
Como se puede observar en los teoremas de estabilidad del MPC, esta surge de la
posibilidad de calcular una solucion factible uF (k) a partir de la solucion factible (la
optima, por ejemplo) obtenida en el instante anterior uF (k 1) que ademas incurre en
un menor coste. Por tanto, la convergencia esta garantizada tomando como solucion
en cada instante la factible uF (k), si no se calcula una mejor. Esto es teoricamente
posible, dada la ausencia de errores entre la prediccion y el comportamiento real de la
planta, y puede conducir a un control en bucle abierto de la planta. En consecuencia, la
optimalidad de la solucion se puede relajar dando lugar al denominado MPC suboptimo.
Como se mostrara en el captulo 5, esta propiedad toma un mayor sentido cuando el
sistema presenta incertidumbres, pues estas pueden hacer que la solucion factible tenga
un coste superior al anterior.
A continuacion se demuestra la estabilidad del MPC suboptimo. Esta formulacion
fue propuesta inicialmente en (Scokaert et al. 1999) para unas formulaciones del MPC
y extendida a la formulacion general en (Mayne et al. 2000). La demostracion presentada aqu se basa en la teora de conjuntos invariantes y en la convergencia del coste
suboptimo.
Para esta demostracion se ha considerado la formulacion general del MPC, si bien es extensible a las otras formulaciones presentadas. A lo largo de esta seccion, el
superndice s denota sub
optimo, en oposicion al asterisco que denota optimo.
74
Demostraci
on:
Factibilidad:
Analogamente a la demostracion del teorema 3.6, conocida una solucion factible en
k, usF (k), se puede obtener una secuencia de actuaciones uF (k + 1) dada por
us (k + j|k)
u(k + j|k + 1) =
h(x(k + Nc |k + 1))
j = 1, , N 1
j=N
Convergencia:
el sistema. Esta
garantiza que en una vecindad del origen, la secuencia suboptima de
75
actuaciones decrezca en norma con el estado, es decir que existe una funcion K , (),
tal que
kusF (k)k (kxk k)
Esta condicion no es muy restrictiva, pero dado que no se puede demostrar, hay que
imponerla como restriccion.
Esta restriccion se puede evitar imponiendo unas condiciones mas suaves que las
anteriores. En efecto, para garantizar la estabilidad del origen es suficiente encontrar
una funcion K que acote superiormente el coste suboptimo en una vecindad del mismo.
Esto se puede garantizar si para todo xk , se satisface que JNs (xk ) V (xk ). Esta
condicion es muy suave, y se debe satisfacer en la mayora de los casos, siempre que el
grado de suboptimalidad no sea alto.
Si para xk esta condicion no se satisface, esta se puede imponer simplemente
tomando como secuencia suboptima, la derivada de aplicar la ley de control local, pues
en este caso, JNs (xk ) = VN (xk ) V (xk ).
As, para todo x0 tal que kx0 k = 1 (l ), siendo () la funcion K tal que
V (x) (kxk) y tal que esta bola esta contenida en , se tiene que
en s. Esta
puede estar motivada por diversas razones: un algoritmo de optimizacion
deficiente, insuficiente tiempo de calculo o bien discrepancias entre los estados predichos
y reales. Bajo estas circunstancias, la condicion de convergencia impuesta garantiza
la estabilidad asintotica del sistema en bucle cerrado. El parametro [0, 1] es un
factor de convergencia mnimo del sistema en bucle cerrado, que permite establecer un
compromiso entre suboptimalidad y comportamiento.
76
3.8.1.
Ejemplo de aplicaci
on al reactor
Para ilustrar el efecto de la suboptimalidad de la solucion del problema de optimizacion, se ha aplicado esta estrategia al reactor con los mismos parametros de
ejemplos anteriores, con un horizonte de prediccion igual al de control Nc = 5 y partiendo de un estado inicial x1 = 0,3 y x2 = 0,5. Para poder mostrar el efecto de
la suboptimalidad, la resolucion del problema de optimizacion no se ha iniciado con la
solucion inicial factible y se ha reducido el n
umero de iteraciones hasta lograr la condicion de convergencia con un valor del parametro = 0,1. La trayectoria resultante se
puede observar en la figura 3.16 junto con la obtenida por el controlador optimo.
En la figura 3.17 se puede ver la evolucion de los estados y la actuacion a lo largo
del tiempo.
0.1
trayectoria ptima
trayectoria subptima
0
0.1
0.2
0.3
0.4
0.5
0.6
0.4
0.3
0.2
0.1
0.1
x1
Como se puede observar, la trayectoria obtenida difiere en gran medida del comportamiento optimo, presentado un peor comportamiento en cuanto a desempe
no se
refiere. Observese ademas la evolucion de la actuacion sobre el sistema: aparecen cambios bruscos en la entrada, perdiendose la suavidad que presenta en el caso optimo.
Este efecto no es deseable pues puede someter a los actuadores a cambios bruscos.
En la figura 3.18 se muestra la evolucion del coste suboptimo en escala logartmica.
Como se puede observar, esta evolucion es monotonamente decreciente, lo que garantiza
la convergencia del sistema.
77
0.1
0
x1
0.1
0.2
0.3
0.4
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
muestras
30
35
40
45
50
x2
0.2
0.4
0.6
2.5
1.5
0.5
0.5
1.5
log10 J*
0.5
0.5
1.5
10
15
20
25
muestras
30
35
40
45
50
3.9.
Eliminaci
on de la restricci
on terminal
78
estos se demuestra que existe una vecindad del origen que contiene a la region terminal
en la cual el MPC sin restriccion terminal estabiliza asintoticamente el sistema. Ademas
se comprueba que, bajo ciertas condiciones, existe un horizonte de control tal que
el controlador predictivo sin restriccion terminal es capaz de estabilizar todo estado
asintoticamente estabilizable.
En esta seccion los resultados anteriores se trasladan a la formulacion general del
MPC con restricciones, estableciendose condiciones bajo las cuales se puede eliminar
del problema de optimizacion la restriccion terminal sin que el controlador pierda su
caracterstica estabilizante. Tambien se demuestra que todo estado asintoticamente
estabilizable se puede estabilizar con un MPC con un horizonte suficientemente largo.
De las demostraciones anteriores, se extrae un resultado muy interesante y que
dota de una originalidad mayor al analisis de esta seccion: la caracterizacion de una
region en la que el controlador MPC sin restriccion terminal estabiliza el sistema. Este
resultado permite ademas analizar como sintonizar el MPC para que la region en la
que se puede eliminar la restriccion terminal sea mayor. Estos resultados se muestran
en el captulo siguiente, dedicado al analisis del dominio de atraccion del MPC. Por
u
ltimo, tambien se demuestra la estabilidad del controlador sin restriccion terminal en
el caso suboptimo. Estos resultados son contribuciones originales de esta tesis.
La eliminacion de esta restriccion es especialmente interesante en sistemas sin restricciones en el estado del sistema, pues hace que el problema de optimizacion tan solo
presente restricciones sobre las variables de decision, reduciendose considerablemente
la complejidad en la resolucion de dicho problema. As, dado que el tiempo de calculo
se reduce, se podra aplicar a sistemas mas rapidos.
Esta seccion comienza generalizando los resultados obtenidos en (Jadbabaie et al.
2001) de sistemas en tiempo continuo sin restricciones, a sistemas en tiempo discreto
con restricciones en las actuaciones y en el estado.
Teorema 3.21
Sea un sistema xk+1 = f (xk , uk ), tal que f (0, 0) = 0 y que esta sujeto a las restricciones
x k X y uk U .
Sea un problema de optimizacion MPC con una funcion de coste terminal V (x) y una
regi
on terminal dada por
= {x IRn : V (x) }
tales que satisfacen la hipotesis 3.1.
Entonces el MPC general sin restricci
on terminal estabiliza asintoticamente el sistema
para todo estado inicial tal que x0 , siendo
= {x IRn : JN (x) }
79
Demostraci
on:
Estabilidad:
Dado que el coste de etapa es definido positivo, se tiene que
V (x (k + N |k)) JN (xk )
y por tanto, para todo xk , resulta que V (x (k + N |k)) JN (xk ) , lo que
implica que x (k + N |k) , y se satisface la restriccion terminal.
A continuacion se va a comprobar que xk+1 tambien esta contenido en .
Sea uF (k) la solucion optima del sistema en xk , con un coste optimo JN (xk ) y sea
la secuencia uF (k + 1) dada por
u (k + j|k)
u(k + j|k + 1) =
hV (
x(k + N |k + 1))
j = 1, , N 1
j=N
siendo hV () la actuacion optima de (3.4) para el coste terminal. Dado que xk+1 = x (k+
1|k), para esta secuencia el estado predicho satisface que x(k + j|k + 1) = x (k + j|k)
para j = 1, , N . En consecuencia x(k + N |k + 1) = x (k + N |k) y por lo tanto
esta definida hV () para ese estado.
Es inmediato comprobar que la ausencia de incertidumbres, la factibilidad de uF (k)
y la hipotesis 3.1 garantizan la factibilidad de uF (k + 1) aplicada en xk+1 . Entonces se
tiene que el coste de la secuencia optima verifica que
JN (xk+1 ) JN (xk ) = L(xk , u (k|k)) + [V + L](x (k + N |k), hV (x (k + N |k)))
L(xk , u (k|k))
dado que x(k + N |k + 1) = x (k + N |k) y que hV () satisface (3.4). Por tanto, del
principio de optimalidad se tiene que
JN (xk+1 ) JN (xk ) JN (xk+1 ) JN (xk ) L(xk , u (k|k)) lkxk k
Por tanto JN (xk+1 ) < JN (xk ) lo que implica que xk+1 . En consecuencia
este conjunto es un invariante positivo del sistema.
Convergencia:
Es consecuencia inmediata de lo anterior que JN (x) es una funcion de Lyapunov y que
el sistema es asintoticamente estable.
Lema 3.22 Sea V (x) y tales que satisfacen la hipotesis 3.1. Entonces JN (x) V (x)
para todo x .
80
Demostraci
on:
De la hipotesis 3.1 se tiene que para x , el sistema controlado por u = hV (x)
satisface
V (x(k + j|k)) V (x(k + j + 1|k)) L(x, hV (x))
entonces
N
1
X
j=0
N
1
X
L(x, hV (x))
j=0
N
1
X
j=0
De este lema se deduce que para todo x , resulta que JN (x) V (x) y por
lo tanto x . En consecuencia
Con los resultados anteriores se ha demostrado que existe una vecindad del origen
tal que para todo estado inicial contenido en ella, el MPC sin la restriccion terminal
estabiliza el sistema. En (Jadbabaie et al. 2001) se demuestra que para todo estado
asintoticamente estabilizable existe un horizonte N tal que el MPC sin restricciones y
sin restriccion terminal estabiliza el sistema. En (Parisini & Zoppoli 1995) se demuestra
que para un MPC con restricciones, sin restriccion terminal y con un coste terminal
V (x) = axT P x existe un valor de la constante a, la matriz P y del horizonte N , tales
que el MPC estabiliza cualquier estado asintoticamente estabilizable.
A continuacion se extienden ambos resultados a la formulacion general del MPC,
demostrando que todo estado asintoticamente estabilizable es estabilizable por el MPC
sin restriccion terminal, para un horizonte N suficientemente largo. Para ello primero
es necesario establecer el siguiente resultado.
Lema 3.23 Sea V (x) y = {x IRn : V (x) } tales que satisfacen la hipotesis
on terminal en xk SN (X, ).
3.1. Sea uF (k) la secuencia optima del MPC sin restricci
Entonces si x (k +N |k)
/ , ning
un otro estado x (k +j|k)
/ , para j = 0, , N 1.
Demostraci
on:
Se procede por reduccion al absurdo. Supongamos que x (k + N |k)
/ , pero existe
81
un i tal que x (k + i|k) . Por optimalidad se tiene que la solucion optima del MPC
con horizonte N i en x (k + i|k) es la secuencia [u (k + i|k), , u (k + N 1|k)].
Entonces, en virtud del lema 3.22:
V (x (k + i|k)) JN i (x (k + i|k)) V (x (k + N |k)) >
luego x (k + i|k)
/ lo que es una contradiccion, demostrandose el lema.
A la luz de este lema se puede demostrar este otro:
Lema 3.24 Para todo x asintoticamente estabilizable existe un horizonte N finito tal
que la solucion optima del MPC con horizonte N y sin restricci
on terminal satisface
la restricci
on terminal.
Demostraci
on:
Dado el caracter definido positivo del coste de etapa L(x, u), y teniendo en cuenta
que el invariante es una vecindad del origen, existe una constante d > 0 tal que
L(x, u) d para todo x
/ .
Por otro lado, para todo estado asintoticamente estabilizable, el coste con horizonte
finito esta acotado.
Para demostrar el lema se va a proceder por reduccion al absurdo. Supongamos que
para un estado xk estabilizable no existe un N tal que la solucion del MPC verifica que
x (k + N |k) pertenece a . Entonces, del lema anterior se tiene que x (k + j|k)
/ ,
para j = 0, , N 1. Por tanto,
JN (xk ) N d + N 1
82
Sea un problema de optimizacion MPC con una funcion de coste terminal V (x) y una
regi
on terminal dada por
= {x IRn : V (x) }
tales que satisfacen la hipotesis 3.1.
Entonces, para todo x0 asint
oticamente estabilizable existe un horizonte finito N tal que
el controlador MPC con horizonte N y sin restricci
on terminal estabiliza asintoticamente el sistema.
Demostraci
on:
Sea un N tal que satisface esta condicion
JN (x0 ) N d +
entonces del lema anterior se deduce que la solucion optima en x0 satisface la restriccion
terminal. Ademas para todo estado tal que x = {x IRm : JN (x) J (x0 )}
tambien se verifica, y por tanto la solucion optima alcanza la region terminal. Tambien
se verificara para todo horizonte mayor que N .
Considerando este valor de N , se puede comprobar que es un invariante positivo
del sistema. Para ello se demuestra que si xk entonces xk+1 .
El procedimiento es similar a las demostraciones de estabilidad anteriores. Sea uF (k)
la solucion optima del sistema en xk , con un coste optimo JN (xk ) y sea la secuencia
uF (k + 1) dada por
u (k + j|k)
u(k + j|k + 1) =
hV (
x(k + N |k + 1))
j = 1, , N 1
j=N
siendo hV () la actuacion optima de (3.4) para el estado terminal. Es inmediato comprobar que la ausencia de incertidumbres, la factibilidad de uF (k) y la hipotesis 3.1
garantizan la factibilidad de uF (k + 1) aplicada en xk+1 = x (k + 1|k).
Entonces se tiene que el coste de la secuencia factible verifica que
JN (xk+1 ) JN (xk ) = L(xk , u (k|k)) + [V + L](x (k + N |k), hV (x (k + N |k)))
L(xk , u (k|k))
dado que x(k + N |k + 1) = x (k + N |k) y que hV () satisface (3.4). Por tanto, del
principio de optimalidad se tiene que
JN (xk+1 ) JN (xk ) JN (xk+1 ) JN (xk ) L(xk , u (k|k)) lkxk k
83
Demostraci
on:
Como ya se ha demostrado anteriormente, si xk es tal que la solucion optima no conduce
al sistema hasta la region terminal, entonces ning
un estado de la trayectoria optima
entra en la region terminal. As, por el principio de optimalidad de Bellman se tiene
que
JN (xk ) L (xk ) = JN 1 (x (k + 1|k)) (N 1)d +
84
u (k + j|k)
u(k + j|k + 1) =
hV (
x(k + N |k + 1))
j = 1, , N 1
j=N
85
Demostraci
on:
Sea xk tal que JNs (xk ) N d + . Entonces por optimalidad se tiene que
JN (xk ) JNs (xk ) N d +
lo que implica que xk . Como se demostro anteriormente el controlador optimo
uk = KMPC
(xk ) hace que
por lo tanto existe una actuacion factible tal que satisface la condicion de convergencia
JNs (xk+1 ) < JNs (xk ) kxk k . En consecuencia, el problema tiene solucion factible en
todo instante xk si x0 .
De aqu se deduce que el sistema evoluciona de forma que xk , por lo que es un
invariante positivo del sistema. Ademas la monotona del coste suboptimo garantiza
la convergencia asintotica al origen (teniendo en cuenta las consideraciones sobre la
estabilidad hechas en la seccion 3.8).
3.9.1.
Ejemplo de aplicaci
on al reactor
Q=
10
10
R=1
y como funcion de coste terminal y region terminal las utilizadas hasta ahora. El
horizonte de control es Nc = 10 y el horizonte de prediccion se considera igual al de
control. Con estos parametros se calcula la constante d que toma el valor 7
d = min (P 1/2 QP 1/2 ) = 0,3316
7
86
3.10. Conclusiones
= {x IRn : J10
(x) 10d + = 12,6508}
Para el reactor se han probado distintos estados iniciales contenidos en dicha region.
En la tabla siguiente se muestran los valores de las operaciones en punto flotante (flops)
requeridas para la resolucion del problema sin y con restriccion terminal. Estos valores
corresponden a la resolucion del problema utilizando la funcion fmincon de la biblioteca
de optimizacion de MATLAB.
x0
J10
(x0 ) flops sin R.T.
(0,2, 0,3)
12.267
(0,25, 0,2)
ratio( %)
957794
1743184
54.94
11.898
796123
1505492
52.88
(0,27, 0,1)
12.210
698281
1324588
52.71
(0,24, 0,1)
11.755
781474
1483264
52.68
(0,1, 0,34)
12.391
790154
1499478
52.69
(0,0, 0,375)
11.881
885181
1670070
53.00
(0,2, 0,275)
11.961
896235
1696148
52.83
(0,25, 0,1)
10.741
827263
1544369
53.56
El ratio calculado (razon entre flops sin restriccion terminal y con ella) pone de
manifiesto que el ahorro computacional es importante y ademas se logra sin perdida
de optimalidad, pues la solucion en cada caso es la misma.
En la figura 3.19 se muestra la evolucion del sistema partiendo de un estado inicial
(0,2, 0,3). En la figura 3.20 se muestra la evolucion del coste optimo, que como se ha
demostrado, es monotonamente decreciente, lo que garantiza la convergencia.
3.10.
Conclusiones
87
0.1
x1
0
0.1
0.2
0
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
x2
0.4
0.2
0
0.5
0
0.5
1
muestras
Figura 3.19: Evolucion del sistema en bucle cerrado con MPC sin restriccion terminal.
1.5
0.5
log10 J*
0.5
1.5
2.5
10
15
20
25
30
35
40
45
50
muestras
Figura 3.20: Evolucion del coste optimo del MPC sin restriccion terminal.
88
3.10. Conclusiones
Captulo 4
Aumento del dominio de atracci
on
del MPC
4.1.
Introducci
on
90
4.1. Introduccion
Alamo
& Camacho 2002a). Tanto el analisis del aumento de atraccion, como las nuevas
formulaciones introducidas en este captulo son aportaciones originales de esta tesis.
La organizacion de las medidas llevadas a cabo en este captulo se ilustran en el
siguiente diagrama:
Aumento del
dominio de
atraccin del MPC
Incremento de
los horizontes
Horizonte
de control
Horizonte
de prediccin
Modificacin
del coste terminal
cuasi-infinito
ponderado
Restriccin
terminal
contractiva
invariantes
positivos
invariantes
de control
El captulo termina presentando procedimientos para aumentar el dominio de atraccion del MPC sin restriccion terminal que se caracterizo en el captulo anterior. Esto
tambien forma parte de las contribuciones originales de esta tesis.
Antes de proceder al cuerpo del captulo merece la pena destacar que el analisis
del dominio de atraccion se basa principalmente en la teora de conjuntos invariantes,
cuyos principales resultados se pueden consultar en la seccion A.3.
4.2.
91
El dominio de atracci
on del MPC
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
x(k + N |k)
92
Vease la seccion A.3 para consultar la definicion del conjunto estabilizable as como sus
propiedades.
2
El maximo conjunto estabilizable, es decir, el conjunto de estados que pueden ser llevados al origen
siguiendo una evolucion admisible por un controlador admisible, es S (X, {0})
93
4.3.
4.3.1.
Teorema 4.1 (Mayne 2001) Sea un controlador MPC general con una regi
on terminal
y un coste terminal V (x), tal que satisface las condiciones suficientes de estabilidad
on del controlador satisface las siguientes
(teorema 3.2). Entonces el dominio de atracci
propiedades:
94
Demostraci
on:
La demostracion se basa en las propiedades del conjunto estabilizable (propiedad A.27).
95
96
que depende de la dinamica que presente el sistema a controlar. Por tanto, el tiempo
de calculo del MPC esta limitado y, en consecuencia, tambien lo esta el horizonte de
control que se puede considerar. As, este procedimiento de aumento del dominio de
atraccion es costoso, y limitado.
Por este motivo, los restantes procedimientos expuestos en este captulo para aumentar el dominio de atraccion se centran en el aumento de la region terminal, que
permite aumentar el dominio de atraccion sin afectar a la dimension del problema de
optimizacion.
4.3.1.1.
Ejemplo de aplicaci
on al reactor
x2
0.4
X3
0.8
X4
1.2
0.4
0.2
0.2
Figura 4.2: Dominio de atraccion del MPC para N = 3 (X3 ) y para N = 4 (X4 ).
Como se puede observar en la misma, X3 X4 aumentandose el dominio de atraccion al aumentar N . Ademas cabe resaltar que X3 , es decir, que el controlador
MPC consigue un dominio de atraccion mayor que el conseguido con la ley de control
local.
4.3.2.
97
98
Demostraci
on:
demostrandose el teorema.
Una teorema similar a este se puede encontrar en (Magni, De Nicolao, Magnani &
Scattolini 2001), en el que se demuestra parte del resultado aqu establecido sin utilizar
la teora de conjuntos invariantes.
Una consecuencia inmediata del teorema 4.2 es que
XNc = XNc ,Nc XNc ,Np
99
para todo Np Nc . Es decir, que tal y como se comprobo anteriormente, la consideracion de un horizonte de prediccion mayor que el de control aumenta el dominio de
atraccion del controlador. Es importante resaltar que, dado que el n
umero de variables
de decision no se vara, el aumento de dominio de atraccion se consigue con un escaso
incremento del coste computacional. Este esfuerzo se incrementa por la incorporacion
de nuevas restricciones sobre el problema, pero es un incremento leve.
4.3.2.1.
Ejemplo de aplicaci
on al reactor
0.5
x2
0.5
X3
X3,4
1
X3,10
1.5
0.4
0.3
0.2
0.1
0.1
0.2
0.3
0.4
x1
100
x2
0.4
X3
0.8
X3,4
X4
1.2
0.4
0.2
0.2
x1
Figura 4.4: Relacion entre X3 (lnea con puntos), X3,4 (lnea gruesa) y X4 (lnea con cruces).
4.4.
En esta seccion se van a presentar un par de procedimientos de aumento del dominio de atraccion mediante la modificacion del coste terminal. Esto puede resultar
contradictorio con el desarrollo llevado a cabo en la seccion 4.2, en el que se afirmo que
el dominio de atraccion no depende del funcional a optimizar.
Sin embargo, para que el controlador MPC estabilice asintoticamente el sistema,
la funcion de coste terminal y la region terminal deben satisfacer la hipotesis 3.5. Por
lo tanto, una modificacion adecuada de la funcion de coste terminal, puede llevar a
encontrar una mayor region terminal en la que se satisfacen las condiciones suficientes
de estabilidad, y de esta forma aumentar el dominio de atraccion.
Por lo tanto, las modificaciones que se presentan a continuacion estan encaminadas
al aumento de la region terminal y por consiguiente, del dominio de atraccion.
4.4.1.
Incorporaci
on del coste terminal cuasi-infinito
101
j=M
X1
(4.1)
j=0
siendo xh (i + j|i) la prediccion del sistema controlado por la ley de control local
u = h(x) considerando x(i|i) = x.
Esta funcion es tambien una funcion de Lyapunov para el sistema controlado por
la ley de control u = h(x) y tal que satisface la condicion terminal en el conjunto
h
(X, ). El conjunto invariante a utilizar como region terminal se puede aumenSM
h
tar aproximandose a SM
(X, ), aumentando, por tanto, el dominio de atraccion del
controlador MPC con VM (x) como coste terminal.
Como se comento anteriormente, para incorporar este conjunto como region terminal, basta con considerar un horizonte de prediccion Np = Nc + M . Sin embargo hay
ocasiones en las que la consideracion de un horizonte de prediccion Np > Nc puede no
ser deseable. Esto se puede deber al hecho de que esto supone aumento de restricciones
en los estados y por lo tanto un incremento del coste computacional en lnea. Este
problema es mas acusado cuando el problema no presenta restricciones en los estados.
En estas ocasiones, puede resultar interesante el aumento del dominio de atraccion
considerando el coste terminal cuasi-infinito.
Para determinar una region terminal asociada, basta con encontrar una constante
M > 0 tal que el conjunto
M = {x IRn : VM (x) M }
h
este contenido en SM
(X, ). Esto se puede realizar mediante el siguiente procedimiento:
se calcula el conjunto factible X h (que se supone convexo) y se resuelve el siguiente
problema de minimizacion
= mn
x
s.a
VM (x)
x
/ Xh
102
Propiedad 4.3 Sea la ley de control u = h(x) tal que estabiliza asintoticamente el
sistema, sea V (x) una funcion de Lyapunov asociada y sea X h un invariante
positivo asociado de la forma
= {x IRn : V (x) }
tal que V (x) y satisfacen la hipotesis 3.5. Sea VM (x) la funcion de Lyapunov definida
on
por (4.1). Sea la regi
M = {x IRn : VM (x) M d + }
siendo d una constante positiva tal que Lh (x) d para todo x
/ .
Entonces para todo x M la ley de control u = h(x) lleva al sistema a en M
pasos (o menos).
Demostraci
on:
Supongamos que VM (x) es menor que M d + y la prediccion en el instante M es tal
que xh (i + M |i)
/ . Del principio de invariancia se tiene que x(i + j|i)
/ para todo
j = 0, , M 1, pues si en alg
un instante el sistema entrase en , permanecera en
el. Entonces se tiene que
VM (x) =
j=M
X1
j=0
y por tanto
V (xh (i + M |i))
j=M
X1
{d Lh (xh (i + j|i))} +
j=0
4.4.2.
Aumento de la regi
on terminal ponderando el coste terminal
103
(4.2)
Esta region debe estar contenida en X h para garantizar que tanto las actuaciones
como la evolucion del sistema son admisibles.
El tama
no de la region suele estar limitado por la condicion de convergencia (4.2),
de forma que, cuanto mayor sea la tasa de decrecimiento impuesta a la funcion de
Lyapunov, menor sera la region terminal .
Si el coste terminal V (x) se multiplica por una constante 1, entonces el coste
ponderado
V (x) = V (x)
es tambien una funcion de Lyapunov asociada al controlador local u = h(x), pues V (x)
es definida positiva por serlo V (x) y ser > 0 y ademas, si V (f (x, h(x))) < V (x),
entonces V (f (x, h(x))) < V (x).
La condicion de convergencia para el coste terminal V (x) es
V (f (x, h(x))) V (x) = V (f (x, h(x))) V (x) L(x, h(x))
que se traduce en
1
V (f (x, h(x))) V (x) L(x, h(x))
4.4.2.1.
Ejemplo de aplicaci
on al reactor
104
P =
132,9406 24,6980
24,6980
62,9982
0.4
0.2
0.2
x2
0.4
Xa3
0.6
Xb
3
0.8
1
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.5: Dominio de atraccion del MPC con N = 3 con a como region terminal (X3a ) y
con b (X3b ).
4.5.
105
4.5.1.
En este apartado se presenta una formulacion del MPC que aumenta el dominio
de atraccion del controlador incorporando una region terminal, en la que no tiene por
que cumplirse la condicion terminal y que se contrae en cada instante. Esta estrategia
garantiza la estabilidad y la factibilidad del MPC en cada instante y no a
nade coste
computacional en la resolucion del problema asociado. Este controlador es una de las
aportaciones originales de esta tesis.
Se va a considerar en este caso que existe un controlador local u = h(x) que estabiliza exponencialmente el sistema, con una funcion de Lyapunov asociada V (x) y un
conjunto invariante
= {x IRn : V (x) } X h
tales que satisfacen las condiciones suficientes de estabilidad del MPC dadas por la
hipotesis 3.5. Entonces existe una region
= {x IRn : V (x) } X h
siendo (y por tanto ) tal que para todo x , se satisface que
V (f (x, h(x))) < V (x)
siendo [0, 1). Por lo tanto es un invariante positivo en el que el sistema en bucle
cerrado es exponencialmente estable y en el que no tiene por que cumplirse la condicion
de convergencia de la hipotesis 3.5. Cabe resaltar que el procedimiento de calculo del
invariante propuesto en la seccion 3.7 garantiza todas estas condiciones.
Bajo estas condiciones se puede formular un controlador MPC tal que se considera
como coste terminal V (x) y como restriccion terminal
V (x(k + N |k)) k
106
Demostraci
on:
Factibilidad:
Se va a proceder por induccion.
107
u (j|0)
j = 1, , N 1
u(j|1) =
h(
x(N |1)) j = N
Dado que x1 = x (1|0), se tiene que x(j|1) = x (j|0) para todo j = 1, N . Entonces
el estado predicho satisface V (
x(N |1)) . Al aplicar a partir de este instante el
controlador local, se tiene que el estado terminal verifica V (
x(N + 1|1)) , por lo
que en x1 el problema de optimizacion es factible.
Considerese que el problema es factible en el instante k, entonces de manera analoga
se puede obtener una secuencia factible uF (k + 1), a partir de la solucion optima en k
uF (k) dada por
u (k + j|k)
u(k + j|k + 1) =
h(
x(k + N |k + 1))
j = 1, , N 1
j=N
Dado que xk+1 = x(k + 1|k), se tiene que x(k + j|k + 1) = x (k + j|k) para todo
j = 1, N . Por lo tanto se tiene que
V (
x(k + N |k + 1)) k
Al aplicar la ley de control local en el estado x(k + N |k + 1), se tiene que
V (
x(k + N + 1|k + 1)) V (
x(k + N |k + 1)) k+1
y por lo tanto el problema de optimizacion es factible.
Por induccion se deriva que el problema es factible a lo largo de la trayectoria del
sistema para todo x0 SN (X, ).
Convergencia:
Esta propiedad se deriva del hecho de que existe una region ( ) en la
cual se satisface la condicion terminal 4.2. Dado que en todo instante k, existe una
solucion tal que
V (x (k + N |k)) k
108
existe un instante k tal que k . Por tanto a partir de ese instante, el MPC
satisface la condicion terminal, y por el teorema de estabilidad del MPC (teorema 3.2),
el controlador estabiliza asintoticamente el sistema.
Este controlador establece un procedimiento para extender la region terminal al
maximo conjunto invariante contenido en X h . Por tanto el dominio de atraccion
del controlador aumenta, respecto a la formulacion general. Ademas es de resaltar el
hecho de que el controlador estabiliza asintoticamente el sistema sin necesidad de que
se satisfaga la condicion terminal en dicho invariante.
4.5.1.1.
Ejemplo de aplicaci
on al reactor
109
con region terminal contractiva (lnea con puntos) y del sistema controlado con el
MPC general con una funcion de coste terminal adecuada V (x) = 2xT P x (lnea con
cuadros). La trayectoria con lnea con cruces es la evolucion del sistema con Nc =
10, Np = 10 y un coste terminal cuasi infinito V30 (x). Como se ha demostrado, esta
trayectoria tiene un grado de optimalidad mayor que las otras dos, y por lo tanto
supone un comportamiento mas proximo al optimo.
0.4
0.2
0.2
x2
0.4
Xa3
0.6
X3
0.8
1
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.6: Retrato de fases y dominio de atraccion del MPC con N = 3 y con region
terminal contractiva.
4.5.2.
110
b
0
Xb3
0.1
x2
0.2
0.3
0.4
0.5
0.6
0.25
0.2
0.15
0.1
0.05
0.05
x1
Figura 4.7: Evolucion del sistema controlado por el MPC con N = 3, con region terminal
contractiva (puntos), con la region terminal fija b (cuadrados) y con un MPC con Np =
Nc = 10 y V30 (x) (cruces).
4.5.2.1.
Obtenci
on de una secuencia de invariantes de control
es decir, el conjunto de estados para los cuales existe una actuacion admisible tal que
el estado siguiente esta contenido en .
Teniendo en cuenta lo anterior, se puede establecer la siguiente propiedad
Propiedad 4.5 Sea X un invariante de control del sistema y sea Q() su con-
111
(4.3)
112
1. 0 = 1 Nr X.
2. Para todo x i existe una actuacion admisible u U tal que f (x, u) i1 .
3. i Si (X, ).
4. Si el calculo de la regi
on a un paso es exacta (Qap () = Q()), entonces i =
Si (X, ).
Es interesante resaltar que esta secuencia de invariantes de control puede estar finitamente determinada, es decir, que exista un i tal que para todo i i , resulta que
i = i+1 = . En consecuencia, la secuencia de invariantes de control dejara de
crecer. Esto puede ser a consecuencia de la determinacion finita de Si (X, ), es decir, de la propia naturaleza del sistema y de las restricciones, o bien por el caracter
aproximado del calculo de Qap ().
Para el caso de sistemas lineales sujetos a restricciones politopicas, existen procedimientos numericamente eficientes para realizar el calculo del conjunto Q() con
exactitud (Blanchini 1999, Kerrigan 2000). En el caso de sistemas no lineales, no existen procedimientos para el calculo de estos conjuntos, y es un tema abierto en la
comunidad investigadora. En el apendice A de esta tesis, se propone un metodo para
su calculo aproximado basado en la obtencion de una envoltura convexa y en la resolucion de problemas de optimizacion. La complejidad del procedimiento obtenido para
el calculo de estos conjuntos no es crtico en la implementacion del controlador pues el
calculo se realiza fuera de lnea, formando parte de la etapa de dise
no del controlador.
4.5.2.2.
113
mn JN (xk , uF (k))
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
si k Nr
N
1
X
i=0
Demostraci
on:
114
Demostraci
on:
Factibilidad:
Se procede por induccion.
Sea el estado inicial tal que x0 SN (X, Nr ), entonces por definicion de conjunto estabilizable, existe una secuencia de actuaciones admisibles tal que el sistema es conducido
hasta el conjunto Nr en N pasos siguiendo una evolucion admisible. Por tanto el problema de optimizacion es factible en ese instante. Dado que no existe discrepancias
entre el modelo de prediccion y el comportamiento del sistema,
x1 = f (x0 , u (0|0)) SN 1 (X, Nr )
Del lema 4.7 se deduce que x1 SN (X, Nr 1 ) y por lo tanto, el controlador es factible
en k = 1.
Considerese que el problema es factible en k < Nr , es decir, que xk SN (X, Nr k ).
Entonces la solucion optima garantiza que
xk+1 = f (xk , u (k|k)) SN 1 (X, Nr k )
115
Del lema 4.7 se deduce que xk+1 SN (X, Nr k1 ) y por lo tanto, el controlador
es factible en k + 1.
Por induccion se infiere que el problema es factible para todo k Nr .
Notese ademas que xNr SN (X, ). Por tanto para k > Nr la factibilidad esta garantizada por la estabilidad del MPC general.
Convergencia:
Como se ha visto anteriormente, la evolucion del sistema es tal que es factible a lo
largo de la evolucion del sistema y ademas, para k > Nr , el controlador coincide con la
formulacion general del MPC y es factible. Por lo tanto el sistema a partir de entonces
evoluciona asintoticamente hacia el punto de equilibrio.
Corolario 4.9 Dado que la estabilidad y la convergencia estan basadas en la factibilidad del problema, la formulacion suboptima de este controlador, tambien garantiza la
convergencia, bajo las hipotesis del teorema anterior, manteniendo el mismo dominio
de atracci
on.
El objetivo final de este controlador es aumentar el dominio de atraccion. Esta
propiedad se establece en el siguiente corolario.
Corolario 4.10 Sea la secuencia de invariantes de control tal que Nr y sea el
horizonte de control menor que el ndice de determinacion del conjunto estabilizable
S (X, ). Entonces el dominio de atracci
on del MPC propuesto es mayor que el del
controlador MPC general. Es decir
SN (X, ) SN (X, Nr )
Demostraci
on:
Dado que Nr y que el horizonte de control es menor que el ndice de determinacion
N < i , es inmediato que
SN (X, ) SN (X, Nr ) SN +Nr (X, )
Por lo tanto, en el caso en que el conjunto S (X, ) no este finitamente determinado, o
bien el horizonte de control N sea inferior al ndice de determinacion i , el controlador
propuesto aumenta el dominio de atraccion.
116
Notese que para un horizonte de control tal que N i se tiene que SN (X, ) =
SN +Nr (X, ) = Si (X, ) = S (X, ). Por lo tanto, del resultado anterior se deduce
que SN (X, ) = SN (X, Nr ), por lo que el dominio de atraccion no aumenta al incorporar la secuencia.
Es interesante resaltar que, en el caso en que se pudiese calcular con exactitud el
conjunto Q(), entonces la secuencia de invariantes de control es i = Si (X, ). Por lo
que el dominio de atraccion del controlador es SN +Nr (X, ). Por tanto, tiene el mismo
dominio de atraccion que un MPC general con horizonte de control N + Nr , pero
utilizando tan solo un horizonte de control N . Esto es particularmente interesante para
sistemas lineales sujetos a restricciones politopicas, para los cuales se puede calcular
estos conjuntos con exactitud.
El precio a pagar por el aumento del dominio de atraccion es una perdida de optimalidad del controlador en los primeros Nr periodos de muestreo. Esto se debe a que
el coste terminal no se puede considerar como una aproximacion del coste optimo fuera
del conjunto .
4.5.2.3.
Ejemplo de aplicaci
on al reactor
10 0
Q=
0 1
y R = 1. Como region terminal y coste terminal se ha utilizado la correspondiente
a un controlador local lineal y un factor de ponderacion = 2 (vease el ejemplo del
apartado 4.3.1.1).
Para la aplicacion del controlador propuesto es necesario calcular una secuencia
de invariantes de control del sistema. Para ello se ha seguido el algoritmo propuesto
y como conjuntos invariantes de control se han tomado politopos por la sencillez de
tratamiento matematico y la flexibilidad que permiten. La u
nica restriccion que supone
esta consideracion es que los conjuntos obtenidos son aproximaciones convexas de los
conjuntos reales, que no tienen por que serlo. El procedimiento para calcular la aproximacion al conjunto a un paso a partir de politopos, Qap () se basa en el calculo de un
politopo interior al conjunto Q().
Para iniciar el algoritmo se ha calculado un politopo que es un invariante positivo del
sistema, por ser interior al invariante {V (x) } y contener al conjunto {V (x) }.
El conjunto obtenido se denota 0 . A partir de este conjunto se ha calculado una
117
0.2
0.2
0.4
0.6
3
0.8
1
0.3
0.2
0.1
0.1
0.2
0.3
x1
118
x2
1
2
0.5
X3
Xc3
1.5
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.9: Dominio de atraccion del MPC con restriccion terminal contractiva (X3c ), frente
al del MPC general (X3 ).
0.5
0
1
x2
0.5
Xc3
1.5
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.10: Trayectorias del sistema controlado con el MPC con restriccion terminal contractiva.
119
0.1
0.05
0.05
0.1
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
10
15
20
25
30
35
40
45
50
x2
0.5
1
1.5
3.5
2.5
1.5
0.5
0.5
muestras
Figura 4.11: Evolucion del sistema controlado con el MPC con restriccion terminal contractiva.
4.6.
120
4.6. Aumento del dominio de atraccion del MPC sin restriccion terminal
,y ,por lo tanto, para los cuales el JN (x) esta definido. Notese que en el caso en el que no
haya restricciones en el estado, X = IRn se tiene que CN ( IRn ) = IRn , por lo que el coste
optimo estara definido en todo IRn . Por otro lado, dado que la solucion optima alcanza
la region terminal en N pasos para todo x , entonces x SN (X, ) CN (X). En
consecuencia SN (X, ).
Esta region es un invariante positivo del sistema en bucle cerrado, y por lo tanto
es un dominio de atraccion del controlador. No obstante, esta region no es el maximo
dominio de atraccion del controlador, pues la condicion bajo la que se ha determinado
dicha region es conservadora.
El objetivo de esta seccion es analizar como se puede ajustar un controlador predictivo para obtener una region mayor, y por lo tanto, un mayor dominio de atraccion
del controlador. Esta region esta caracterizada por cuatro elementos: el coste optimo (y
en consecuencia todos aquellos parametros que influyan sobre su valor, como el coste
de etapa L(x, u), etc.), el horizonte de control N , la constante d y la constante . En
lo que sigue se proponen ciertas medidas para conseguir una mayor region .
1. Aumentar la constante :
Esta medida se puede obtener, por ejemplo, aumentando la region terminal (calculando el controlador local con este fin o bien con un coste de etapa con menor
valor) o bien ponderando el coste terminal.
En el caso en el que se aumente la region terminal se aumenta tanto como d,
pues, dado que la funcion de coste de etapa es definida positiva, al aumentar el
tama
no de puede aumentar el mnimo coste de etapa de los estados que no
pertenecen a dicha region. Por ejemplo en el caso del coste de etapa cuadratico
y de la region terminal calculada a partir de un controlador lineal siguiendo el
procedimiento propuesto en la seccion 3.7, el parametro d viene dado por
d = min (P 1/2 QP 1/2 )
Para demostrar esta afirmacion, se comprueba que para todo x
/ , es decir, tal
T
que x P x , se verifica que
xT Qx > xT Qx min (P 1/2 QP 1/2 )(xT P x )
121
122
4.6. Aumento del dominio de atraccion del MPC sin restriccion terminal
En este caso, la ponderacion del coste terminal introducida por los autores tiene
un triple efecto, satisfacer la hipotesis 3.5, aumentar la region terminal y aumentar el dominio de atraccion del controlador sin restriccion terminal hasta
lograr estabilizar cualquier estado contenido en SN (X, ). Por u
ltimo, como se
demostro anteriormente, existe un horizonte N finito tal que el MPC general
estabiliza un estado asintoticamente estabilizable.
A la luz de esto se podra extender el resultado de (Parisini & Zoppoli 1995)
al caso de la formulacion general del MPC, de forma que existe una pareja de
valores (, N ) para los cuales el MPC sin restriccion terminal estabiliza cualquier
estado asintoticamente estabilizable.
3. Aumentar el horizonte de control N :
Esta medida aumenta la region por dos motivos principales:
a) porque aumenta el sumando (N 1)d.
b) porque disminuye el coste optimo JN (x).
Por lo tanto habra un mayor conjunto de estados que satisfacen la condicion. Es
por tanto beneficiosa, pero notese, que a costa de aumentar el coste computacional
del controlador.
4. Aumentar el horizonte de predicci
on Np :
Como se comento anteriormente, un aumento del horizonte de prediccion Np =
N + M con M 1, se puede considerar como un MPC general con un horizonte
de control N y con una funcion de coste terminal VM (x) y una region terminal
h
M = {x IRn : VM (x) } SM
(X, ). En este caso la region vendra dada
por JN (x) L (x) + (N 1)d + .
La region terminal esta contenida en M , por tanto, este aumento de la region
terminal, produce un aumento de la constante d. Ademas es muy posible que la
constante sea mayor que . De hecho, en el caso en el que no haya restricciones,
esta constante puede tomarse = M d + , siendo d la constante d calculada
para .
En este caso la region puede aumentar por tres motivos:
a) porque .
b) porque aumenta d.
c) porque el coste optimo se reduce al aumentar el horizonte de prediccion.
4.6.1.
Ejemplo de aplicaci
on al reactor
123
Q=
10
10
1. Aumento Nc :
Se calcula el dominio de atraccion con un horizonte de control y de prediccion
Np = Nc = 4. En este caso la region viene dada por
b = {x C4 (X) : J4 (x) L(x, u ) + 10,33}
siendo 3d + = 10,33. En la figura 4.12 se muestra este dominio de atraccion b
comparado con el correspondiente a Nc = 3, que es a . Como se puede observar,
el dominio de atraccion aumenta, sin bien el aumento es peque
no.
2. Ponderando la funci
on de coste terminal:
Se ha calculado el dominio de atraccion considerando como coste terminal 10
veces el coste terminal original. Esta region viene dada por:
b = {x C3 (X) : J3 (x) L(x, u ) + 94,016}
siendo 2d + 10 = 94,016.
Esta medida, como se puede observar en la figura 4.13, produce un aumento
considerable del dominio de atraccion, alcanzando casi la totalidad del dominio
de atraccion maximo X3 .
124
4.6. Aumento del dominio de atraccion del MPC sin restriccion terminal
0.4
0.2
a
0
0.2
x2
0.4
0.6
0.8
1
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.12: Aumento del dominio de atraccion del MPC sin restriccion terminal al aumentar
Nc .
0.4
0.2
x2
0.2
0.4
0.6
X3
0.8
1
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.13: Aumento del dominio de atraccion del MPC sin restriccion terminal al aumentar
la ponderacion del coste terminal.
125
por lo que el dominio de atraccion del nuevo controlador viene dado por:
b = {x C3 (X) : J3,30
(x) L(x, u ) + 9,9984}
b
0.2
x2
0.2
0.4
0.6
X3
0.8
1
0.4
0.3
0.2
0.1
0.1
0.2
0.3
x1
Figura 4.14: Aumento del dominio de atraccion del MPC sin restriccion terminal al aumentar
el horizonte de prediccion.
4.7.
Conclusiones
126
4.7. Conclusiones
Captulo 5
An
alisis de robustez del MPC
nominal
5.1.
Introducci
on
128
5.1. Introduccion
(ii) El sistema real puede evolucionar a estados en los que el control MPC no es
factible, es decir, en los que es imposible satisfacer todas las restricciones del
sistema y por tanto el problema de optimizacion no tendra solucion posible. Es
decir, que las incertidumbres pueden hacer que el sistema, en su evolucion, abandone el dominio de atraccion del controlador, fuera del cual este no esta definido.
(iii) La evolucion del sistema podra hacerse inestable, a pesar del correcto dise
no del
controlador con el modelo sin incertidumbres.
129
En la misma lnea se encuentra (Santos & Biegler 1999), en el cual, desde un punto
de vista de la sensibilidad del problema de optimizacion, se prueba que el controlador
MPC con restriccion terminal nula y sin restricciones en los estados soporta cierto
grado de robustez.
En este captulo se aborda el analisis de la estabilidad robusta del controlador MPC
general. En una primera parte se incorpora la teora de Lyapunov y la teora de conjuntos invariantes1 al analisis de robustez de sistemas con incertidumbres simplemente
acotadas, es decir, que no tienen por que decaer. Esto generaliza los resultados de
(Scokaert et al. 1997) e incorpora nuevos aspectos:
(i) Se consideran incertidumbres aditivas acotadas (que no decaen).
(ii) Se simplifican los resultados y se suavizan las condiciones a imponer sobre el
sistema.
(iii) Se cuantifica el grado de incertidumbres que soporta el sistema.
(iv) Se analiza la satisfaccion robusta de las restricciones.
5.2.
Sea un sistema descrito por un modelo en tiempo discreto, no lineal con incertidumbres aditivas, de la forma
xk+1 = f (xk , uk ) + wk
(5.1)
1
130
Incertidumbres
aditivas
Estabilidad
robusta
Incertidumbres
paramtricas
Robustez
del MPC
coste ptimo
Lipschitz
coste ptimo
suave
Teora de
Lyapunov
Estabilidad
entrada estado
MPC
subptimo
Factibilidad
robusta
(5.2)
(5.3)
(5.4)
donde X IRn y U IRm son conjuntos compactos, tales que el origen esta contenido
en ellos.
El modelo
xk+1 = f (xk , uk )
(5.5)
describe el comportamiento del sistema en caso de no haber incertidumbres. Este modelo se denomina modelo nominal del sistema y es el que se utiliza como modelo de
prediccion en el controlador MPC.
En la literatura relativa a MPC es frecuente el modelado de las incertidumbres como
incertidumbres aditivas (Mayne 2000, Michalska & Mayne 1993, De Nicolao et al. 1998),
pues son sencillas de identificar, mas faciles de tratar que otras posibles representaciones
de las incertidumbres y ademas permiten modelar un amplio espectro de discrepancias
en el modelo. Para ello basta comprobar que las incertidumbres aditivas representan
131
5.3.
132
Definici
on 5.1 Un sistema es asintoticamente acotado al final si el sistema evoluciona
a un conjunto acotado, es decir, si existen unas constantes positivas b y c tales que
para todo (0, c), existe un k tal que para todo estado inicial kx0 k se tiene que
kxk k b k > k .
Definici
on 5.2 Sea una funcion g(z) : IRp IRq , se dice que es localmente Lipschitz
en un conjunto Z IRp si para todo z1 , z2 Z, existe una constante 0 < L < tal
que se verifica
kg(z1 ) g(z2 )k Lkz1 z2 k
La constante L se denomina constante de Lipschitz.
133
Es importante resaltar el hecho de que si una funcion es Lipschitz en una determinada norma, entonces, en virtud de la equivalencia entre normas, es tambien Lipschitz
en cualquier otra norma. Sin embargo, el valor que toma la constante de Lipschitz
s depende de la norma elegida.
La continuidad Lipschitz garantiza que la discrepancia de una funcion entre dos
puntos esta acotada y depende, ademas, de la distancia entre ellos. Esta propiedad es
mas fuerte que la continuidad pero mas debil que la derivabilidad.
Propiedad 5.3 (Khalil 1996) Sea la funcion g(z) : IRp IRq continua en una regi
on
Z IRp y tal que existe g
y
es
continua
en
Z,
entonces
dicha
funci
o
n
es
localmente
z
Lipschitz en Z.
Esta condicion es suficiente, pero no necesaria, pues no toda funcion Lipschitz tiene
que ser derivable.
Basandose en estas propiedades se presenta en esta tesis el siguiente teorema de
estabilidad.
134
Demostraci
on:
Estabilidad:
La demostracion se hace utilizando conceptos de la teora de conjuntos invariantes 2
Q()
= Q( W )
siendo W el conjunto de incertidumbres y siendo W la diferencia de Pontryagin
de ambos conjuntos. En lo que sigue se denotan los siguientes conjuntos
p = {x IRn : V (x) p}
Bp = {x IRn : kxk p}
De la teora de Lyapunov3 se tiene el sistema xk+1 = F (xk ) es exponencialmente
estable en el origen y ademas existe una constante [0, 1) tal que V (F (x)) V (x).
Sea Lv la constante de Lipschitz de la funcion de Lyapunov V (x) en el conjunto acotado
r . Entonces se tiene que
V (x + w) V (x) + Lv kwk
Considerese una constante
1
r
Lv
rLv
.
135
rLv
:
r Lv
r
1
)=r
(1 Lv
Lv
Por lo tanto el conjunto acotado r es un invariante positivo robusto para unas incertidumbres wk B y esta acotado, lo que demuestra la estabilidad.
Convergencia:
Se va a demostrar que para una incertidumbre wk B con
sistema evoluciona al conjunto invariante robusto
r = {x IRn : V (x)
1
r,
Lv
el estado del
Lv
= r }
1
en el cual permanece. Para ello basta demostrar que la evolucion del sistema verifica
que
V (x1 ) V (F (x0 )) + Lv kwo k r + Lv = r1 r
V (x2 ) V (F (x1 )) + Lv kw1 k r1 + Lv = 2 r + Lv (1 + ) = r2 r
..
.
j1
X
1 j
Lv = rj r
V (xj ) j r +
Lv j1i kwi k j r +
1
i=0
Dado que < 1 entonces rj
Lv
= r r cuando j .
k1
X
1 k
kxk k r +
Lv kj1 kwj k
a
j=0
(5.6)
136
137
1
r)
Lv
138
kxk k
#1/
rk Lv (k k )
+
kw0 k
a
a( )
!k
r
k
a
!
1/
!k
Lv
+
kw0 k
a| |
kxk k
!#1/
r
Lv
+
kw0 k
a a| |
k
k/
siendo > 0.
5.4.
Aplicaci
on al an
alisis de robustez del MPC
139
Esta
garantiza que el efecto de las incertidumbres sobre el coste optimo este limitado, es
decir, que una incertidumbre acotada supone una variacion en el coste optimo acotada.
Las condiciones bajo las cuales el MPC garantiza la continuidad Lipschitz del coste
optimo estan asociadas a las condiciones de regularidad del problema de optimizacion
y a la optimalidad de la solucion obtenida. Esta propiedad tan solo esta garantizada
para sistemas lineales sujetos a restricciones lineales (Muske 1995). En el apendice C de
este documento se presenta un analisis de las condiciones bajo las cuales el controlador
MPC para sistemas no lineales satisface la continuidad Lipschitz del coste optimo.
Bajo estas mismas condiciones se establece tambien la continuidad Lipschitz de la
secuencia optima, lo que garantiza en virtud del corolario 3.4 que el controlador MPC
estabiliza exponencialmente el sistema.
5.4.1.
En el caso de que el sistema este sujeto a restricciones tanto en las actuaciones como
en el estado, el controlador MPC debe garantizar la satisfaccion de dichas restricciones a
pesar de las incertidumbres. Las restricciones sobre las actuaciones se satisfacen gracias
a la factibilidad de la solucion del problema de optimizacion. Son las restricciones
impuestas sobre los estados las que realmente el controlador puede no ser capaz de
satisfacer. Estas restricciones son de dos tipos: restriccion por lmites sobre los estados y
la restriccion terminal para garantizar la estabilidad. La violacion de las primeras hacen
que el sistema evolucione fuera de los lmites fsicos impuestos y el incumplimiento de la
segunda puede hacer que el sistema pierda la estabilidad y la convergencia. Sin duda,
ambas son igualmente importantes y su satisfaccion a pesar de las incertidumbres
constituyen un gran reto y una gran complejidad en la robustez del MPC. De hecho,
140
gran parte de los resultados existentes en robustez del MPC omiten las restricciones del
problema (Geromel & Da Cruz 1987, De Nicolao et al. 1996, Magni & Sepulchre 1997).
El analisis llevado a cabo anteriormente garantiza la factibilidad robusta en un
conjunto
r = {x IRn : JN (x) r} XN
contenido en XN . Este conjunto satisface las restricciones gracias a que es un invariante
positivo robusto y por lo tanto garantiza que si el sistema parte de un estado en el
contenido, la evolucion permanece en su interior. Este conjunto puede interpretarse
como que existe un coste optimo umbral r tal que si en el instante inicial JN (x0 ) r
(x0 r ), entonces se satisfacen las restricciones. Si por el contrario el estado inicial
es tal que JN (x0 ) > r (x0 XN \ r ), el sistema podra evolucionar de forma que en
un determinado instante no satisfaga las restricciones.
Conocido el dominio de atraccion del MPC XN , y suponiendo que es un conjunto
conexo y compacto, es posible calcular el coste umbral que garantiza la estabilidad
y satisfaccion robusta de las restricciones ante incertidumbres. En el caso en que XN
sea convexo, el coste optimo umbral r se puede determinar de la solucion del siguiente
problema
r = mn JN (x)
xX
/ N
A=
1,2775 1,3499
1,0
0,0
B=
1,0
0,0
sujeto a las restricciones kxk 5 y |u| < 1. El sistema real presenta unas incertidumbres kwk k 0,35. Considerando el coste de etapa cuadratico L(x, u) = kxk2 + kuk2 ,
y calculando el controlador local con un LQR, la region terminal obtenida es .
El MPC con un horizonte N = 5 estabiliza robustamente el sistema para las incertidumbres dadas y la region r viene dada por un coste optimo umbral de r = 25,24. En
la figura 5.2 se muestra como la evolucion del sistema para estados iniciales contenidos
en r , permanece contenida en este.
En la figura 5.3 se muestra que existen estados iniciales pertenecientes a X5 \ r
tales que la evolucion del sistema permanece en X5 , satisfaciendo las restricciones, y
141
4
3
0
x
sin embargo existen otros estados desde los cuales la evolucion del sistema pierde la
estabilidad, abandonando el dominio de atraccion.
4
X5
4
3
0
x1
5.4.1.1.
Un analisis mas exhaustivo sobre la condiciones bajo las cuales el MPC satisface
las restricciones en presencia de incertidumbres se ha llevado a cabo en (Kerrigan
2000, Kerrigan & Maciejowski 2001). Este trabajo se basa en la teora de conjuntos
invariantes y establece condiciones bajo las cuales el controlador MPC garantiza que
su dominio de atraccion es un invariante robusto. La invariancia robusta es condicion
necesaria y suficiente para garantizar que el sistema no abandona dicho conjunto en
142
143
Ademas, Kerrigan propone formas de determinacion del conjunto XR que generalmente se toma un conjunto invariante robusto de control del sistema.
Como se ha comentado, estos resultados garantizan la factibilidad robusta del MPC,
no su convergencia. El analisis de estabilidad realizado previamente permite establecer
resultados que aseguren la convergencia del sistema. As, aplicando el corolario 5.7, se
determina que si el dominio de atraccion es robusto para incertidumbres contenidas en
B y el MPC converge para incertidumbres contenidas en B , siendo , entonces,
el controlador MPC satisface las restricciones y converge a un conjunto r XN .
En el caso de perturbaciones que decaen con el tiempo, no es necesario establecer condiciones adicionales de convergencia, pues la naturaleza desvaneciente de las
incertidumbres hacen que el sistema vaya convergiendo al punto de equilibrio.
5.5.
144
de coste optimo que experimenta el sistema por la incertidumbre sea compensado por
el decrecimiento en el coste que fuerza la estabilidad exponencial.
De todo esto se deduce que la prueba de estabilidad anterior es generalizable a
sistemas asintoticamente estabilizables e incluso a sistemas con otro tipo de modelo
de incertidumbres (no aditivas o parametricas, por ejemplo) con tal de que su efecto
sobre el coste optimo este acotado. Esta generalizacion se puede hacer incorporando el
concepto de estabilidad entrada a estado o ISS 5 .
5.5.1.
La estabilidad entrada a estado fue formulada por primera vez en (Sontag 1989a)
para sistemas en tiempo continuo, pero recientes resultados (Jiang, Sontag & Wang
1999, Jiang & Wang 2001) han trasladado estos conceptos a sistemas en tiempo discreto.
A continuacion se presentan las definiciones y resultados necesarios para el desarrollo
de esta seccion. En la seccion A.4 se presentan estos resultados de una manera mas
extensa y detallada.
Definici
on 5.12 (Estabilidad entrada a estado) (Jiang & Wang 2001) Un sistema xk+1 = F (xk , wk ) es estable entrada a estado si existe una funcion KL , (, ), y
una funcion K , (), tal que la evolucion del sistema satisface que
kxk k (kx0 k, k) + ()
para todo x0 B , siendo kwk k para todo k.
La se
nal de entrada a la que se refiere en esta definicion es wk , que en el contexto
de la robustez viene a ser la incertidumbre. As, esta definicion dice que en ausencia
de incertidumbres el sistema es asintoticamente estable. Sin embargo, cuando aparecen incertidumbres acotadas, el efecto que estas tienen sobre la evolucion del sistema
esta acotada, es decir, que las incertidumbres no hacen divergir al sistema.
Notese que esta definicion incluye a la anteriormente utilizada de estabilidad asintotica acotada al final, pues, de la definicion de estabilidad entrada a estado se deduce
que para todo kx0 k , el estado esta acotado kxk k bk de forma que bk ()
cuando k , dado que (kx0 k, k) 0.
Asociada a este concepto de estabilidad existe la definicion de una funcion de Lyapunov entrada a estado:
5
145
Definici
on 5.13 (Funci
on de Lyapunov entrada a estado) (Jiang & Wang 2001)
Una funcion continua V : IRn 7 IR+ se denomina funcion de Lyapunov entrada a estado si satisface que
Existen unas funciones K , 1 () y 2 (), tales que
1 (kxk) V (x) 2 (kxk)
x B
146
Los resultados obtenidos son mas generales, pero con un desarrollo semejante, a los
presentados en el analisis de estabilidad robusta de la seccion 5.3. En ese caso se tiene
que (r) = r siendo una constante [0, 1), y () es Lv . Por tanto de (5.7) se
tiene que
1
r
Lv
que es la misma cota obtenida en la seccion 5.2.
La aplicacion de estos resultados a sistemas con restricciones se hace siguiendo la
lnea presentada en la seccion 5.3: la invariancia robusta de r garantiza la satisfaccion de las restricciones siempre que r este contenido en el dominio de atraccion del
controlador. Si dicho dominio es un invariante robusto, entonces el resultado obtenido
garantiza que evoluciona a un conjunto en el que permanecera acotado y cuyo tama
no
depende de la cota de la incertidumbre.
5.5.2.
Aplicaci
on al MPC
147
Demostraci
on:
Para demostrar el teorema basta comprobar que el coste optimo es una funcion de
Lyapunov entrada a estado. Sea el estado xk+1 = f (xk , KM P C (xk ), wk ), entonces
JN (xk+1 ) JN (xk ) = [JN (f (xk , KM P C (xk ), wk )) JN (f (xk , KM P C (xk ), 0))]
+ [JN (f (xk , KM P C (xk ), 0)) JN (xk )]
(kwk k) L (xk , KMPC (xk ))
lkxk k + ()
Ademas la region r XN es un invariante robusto del sistema, y por lo tanto satisface
las restricciones a lo largo de la evolucion del sistema.
Para un conjunto r dado, el grado de incertidumbre que soporta el controlador
depende de las funciones lkxk y (). Por tanto, el grado de conservadurismo asociado
a esta cota dependera del grado de aproximacion que tenga la funcion a la discrepancia
real ().
Es importante resaltar que la condicion
|JN (f (x, KMPC (x), w)) JN (f (x, KMPC (x), 0))| (kwk)
es una condicion sobre la suavidad de la funcion de coste respecto a los parametros. Por
ejemplo, si la funcion de coste es Lipschitz (o bien C 1 ) con las incertidumbres, entonces
existe una constante LJ tal que
|JN (f (x, KMPC (x), w)) JN (f (x, KMPC (x), 0))| LJ kwk
148
5.6.
(5.8)
149
5.6.1.
Dado que el controlador MPC suboptimo toma sentido en presencia de incertidumbres, se va a trasladar el analisis de estabilidad entrada a estado del MPC optimo al
caso suboptimo.
El MPC suboptimo presenta las restricciones propias del MPC, es decir, la restriccion sobre los estados, sobre las actuaciones y sobre el estado terminal, y ademas
impone la restriccion de convergencia dada por la ecuacion (5.8), por la cual garantiza
una convergencia mnima del sistema en bucle cerrado. Las restricciones sobre las entradas y estados en presencia de incertidumbres presentan el problema de factibilidad
robusta tratado anteriormente y que esta relacionado con la invariancia robusta. La
satisfaccion de la restriccion de convergencia depende tambien de las incertidumbres y
no esta garantizada a pesar del cumplimiento de las anteriores.
Del analisis de estabilidad entrada a estado desarrollado anteriormente, se establece
que bajo condiciones de suavidad del coste optimo, el incremento que experimenta este
por el efecto de la incertidumbre esta acotado y depende del grado de incertidumbre
que presenta el sistema
|JN (xk+1 ) JN (x(k + 1|k))| ()
siendo () una funcion K y la cota de las incertidumbres. Entonces, el coste optimo
es una funcion de Lyapunov ISS y verifica que
JN (xk+1 ) JN (xk ) L(xk , u (k|k)) + ()
6
150
Para que el coste optimo satisfaga la condicion de convergencia basta con que se
verifique que
L(xk , uk ) + () L(xk , uk )
de donde se tiene que
() (1 )L(xk , uk )
Por lo tanto, , la tasa de convergencia del controlador, condiciona el grado de incertidumbres que admite el sistema y viceversa. Cuanto mayor sea la tasa de convergencia
, menor sera el grado de incertidumbres para el cual se satisface la restriccion de
convergencia, o lo que es lo mismo, el grado de incertidumbres para el cual el controlador esta definido (es factible). Por el contrario, mas rapida sera la convergencia del
sistema en bucle cerrado.
En resumen, la restriccion de convergencia del MPC suboptimo tiene como fin asegurar una tasa de convergencia del controlador, limitando as el grado de incertidumbres
que admite. Notese ademas que si las incertidumbres no decaen con el tiempo, tan solo
se podra satisfacer la restriccion de convergencia fuera de una vecindad del origen.
Es importante resaltar que estos resultados son validos si la funcion de coste es
suave ante las incertidumbres. En el caso del MPC optimo esto se puede garantizar
bajo ciertas condiciones de regularidad del problema de optimizacion. Sin embargo esta
suavidad esta sujeta a la optimalidad de la solucion, perdiendose en caso de suboptimalidad7 .
Esto se puede solucionar gracias a que, como se demuestra en el teorema siguiente,
la suavidad del coste optimo, garantiza la factibilidad del problema suboptimo, y por
lo tanto la estabilidad del controlador.
A continuacion se va a demostrar la estabilidad del controlador MPC suboptimo
propuesto en el artculo (Scokaert et al. 1999), que viene dado por
Si existe una solucion factible con restriccion de convergencia, entonces se aplica
la solucion.
Si no, aplicar la mejor solucion obtenida.
Este procedimiento garantiza convergencia siempre que el problema de optimizacion
sea factible. Pero los autores no analizan bajo que condiciones es factible el problema y
en consecuencia bajo que condiciones este procedimiento estabiliza el sistema incierto.
En el siguiente teorema, fruto de esta tesis, se establecen condiciones que garantizan
la estabilidad.
7
Vease el ejemplo de la seccion 3.8, en el que se pone de manifiesto la falta de suavidad en el caso
suboptimo.
151
Demostraci
on:
La clave de la demostracion radica en comprobar la existencia de una solucion factible
a la restriccion de convergencia (que sera la secuencia optima).
Supongase que el sistema en el instante k 1 se encuentra en el estado xk1 tal
que la actuacion proporcionada por el controlador suboptimo es us (k 1|k 1). Como
consecuencia el sistema evoluciona a xk (estado que difiere del estado predicho xk 6=
xs (k|k 1) = f (xk1 , us (k 1|k 1), 0)).
A partir de la secuencia de actuaciones usF (k 1) se obtiene la secuencia para el
instante k, usF (k) dada por
us (k + j 1|k 1)
us (k + j 1|k) =
h(
x(k + N 1|k))
j = 1, , N 1
siendo u = h(x) la ley de control local a la region terminal. Esta secuencia garantiza la
satisfaccion de las restricciones sobre los estados y sobre las actuaciones en el estado
x(k|k 1) = f (xk1 , usk1 , 0)
152
153
5.7.
154
LN 1
LJ Lc x
+ Lv LN
Lw
x
Lx 1
Este resultado es una consecuencia inmediata del analisis de sensibilidad del MPC
desarrollado en el apendice C.
Por lo tanto, seg
un se establecio anteriormente, el coste optimo es una funcion de
Lyapunov ISS, lo que garantiza estabilidad robusta del sistema para cierta cota de la
incertidumbre.
Dado que el controlador sin restriccion terminal estabiliza el sistema en una region
= {x IRn : JN (x) L(x, KMPC (x)) + (N 1)d + }
siendo d el mnimo coste de estapa que puede tener todo estado que no pertenece a
la region terminal = {x IRn : V (x) }. En el siguiente corolario se analiza la
invariancia robusta de esta conjunto.
Corolario 5.18 Bajo las hipotesis del lema anterior, el conjunto es un invariante
robusto para toda incertidumbre tal que
kwk =
d
LJ
155
Demostraci
on:
En efecto, supongase que xk y xk+1 no pertenecen a , entonces
JN (xk+1 ) JN (xk ) L(xk , KMPC (xk )) + LJ (N 1)d + + LJ
sustituyendo el valor de se tiene que
JN (xk+1 ) N d + L(xk+1 , KMPC (xk+1 )) + (N 1)d +
por lo que xk+1 .
Ademas dado que para todo x
/ , se tiene que L(x, KMPC (x)) d, entonces
JN (xk+1 ) JN (xk ) (L(xk , KMPC (xk )) d)
por tanto para todo xk
/ , JN (xk+1 ) decrece haciendo converger el sistema en . El
sistema permanece en este conjunto, salvo que la incertidumbre en un momento dado
lo saque de este conjunto, de forma que el controlador vuelve a conducir el sistema
hasta esta region. Notese que si x0 , entonces en ning
un caso se abandonara dicha
region.
5.8.
Ejemplo de aplicaci
on al reactor
156
0.4
0.2
0.2
x2
0.4
0.6
X3
0.8
1
0.3
0.2
0.1
0.1
0.2
x1
Estas
han sido calculadas para ilustrar la robustez inherente del controlador y tras un
exhaustivo analisis del sistema. Sin embargo, a pesar del conservadurismo de los procedimientos presentados, son metodos generales para obtener un grado de incertidumbres
para las cuales el sistema es robusto.
157
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
x2
x2
0.1
0.1
0.2
0.2
0.3
0.4
0.2
0.3
0.15
0.1
0.05
0.05
x1
(a)
0.1
0.15
0.2
0.4
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
(b)
Figura 5.5: Evolucion del sistema incierto con incertidumbres mnimas (a) y maximas (b)
5.9.
Conclusiones
Alamo
& Camacho 2002c).
Este analisis se puede generalizar a controladores con estabilidad asintotica e incertidumbres parametricas en el sistema gracias a la incorporacion del concepto y
resultados de la estabilidad entrada a estado (ISS) del sistema. As, se puede establecer
el siguiente resultado: la suavidad de la funcion de coste optimo garantiza que el MPC
admite cierto grado de incertidumbre. Este analisis, al igual que el anterior, representa
una de las aportaciones originales de esta tesis.
158
5.9. Conclusiones
Captulo 6
MPC ISS con satisfacci
on robusta
de las restricciones
6.1.
Introducci
on
En el anterior captulo se analizo la robustez que inherentemente presenta el controlador predictivo. Esta robustez se comprueba de dos formas: mediante la optimalidad
de la solucion y mediante la capacidad del controlador MPC de estabilizar asintoticamente el sistema. En todos los estudios realizados se parte de la hipotesis que el coste
optimo es una funcion suave (en los basados en optimalidad se exige que sea C 2 (De
Nicolao et al. 1996, Magni & Sepulchre 1997)) y esta condicion tan solo esta garantizada bajo ciertas condiciones de regularidad del problema de optimizacion (vease el
apendice C).
En este captulo se presenta un procedimiento sencillo para incorporar el conocimiento de las incertidumbres en el dise
no del controlador. Esta basado en la acotacion de la
discrepancia entre la evolucion del sistema nominal y el real cuando el sistema presenta
incertidumbres. Esta acotacion se incorpora en las restricciones en los estados y en el
dise
no de la region terminal y a partir de estos, se formula un controlador MPC basado
en predicciones nominales, semejante a las formulaciones no robustas.
El controlador presentado es factible en todo instante (partiendo de estados iniciales factibles) y por lo tanto satisface las restricciones en cada instante a pesar de
la incertidumbres. Ademas, el controlador es estable entrada a estado lo que garantiza
la convergencia del sistema. Este trabajo ha cristalizado en una publicacion (Limon
Marruedo, Alamo
& Camacho 2002b).
159
160
6.2.
Descripci
on del sistema
(6.1)
siendo xk IRn el vector de estados del sistema y uk IRm las actuaciones sobre el
mismo. El vector wk IRp representa las incertidumbres presentes en el modelo, de las
cuales se conoce exclusivamente que estan acotadas de forma que
wk B = {w IRp : kwk }
Por otro lado las entradas y los estados estan sujetos a las restricciones
uk U
xk X
El modelo en ausencia de incertidumbres viene dado por
xk+1 = f (xk , uk , 0)
(6.2)
Hip
otesis 6.1 El modelo es suave respecto a los estados y a las incertidumbres, de
forma que existen dos funciones K , x () y w (), tales que
kf (x + x, u, 0) f (x, u, 0)k x (kxk)
kf (x, u, w) f (x, u, 0)k w (kwk)
para todo x, x + x X, u U y w B .
Resulta interesante destacar que en el caso en el que el modelo sea Lipschitz respecto
a x y a w, entonces estas funciones tienen la forma
x (kxk) = Lx kxk
w (kwk) = Lw kwk
6.3.
161
Acotaci
on del efecto de las incertidumbres en
la predicci
on
Las incertidumbres existentes en el sistema real o planta hacen que el comportamiento de este difiera del comportamiento dado por el modelo nominal, por lo que
el sistema no evolucionara como se espera. Con el fin de incorporar este efecto en el
dise
no del controlador, resulta de interes realizar una acotacion de la discrepancia entre
la evolucion del sistema real y la evolucion esperada o predicha por el modelo nominal,
ante una misma secuencia de actuaciones.
Para hacer mas legibles las demostraciones de esta seccion se denotara:
xk+j : el estado del sistema real (incierto) en el instante k + j al aplicar una secuencia
de actuaciones {uk , , uk+j1 } a partir del instante k, estando el sistema en el
estado xk .
x(k + j|k) : el estado predicho mediante el modelo nominal (en ausencia de incertidumbres) ante la misma secuencia de actuaciones y partiendo de xk .
El objeto de esta seccion es pues calcular una acotacion de la forma
kxk+j x(k + j|k)k cj ()
siendo la constante la cota de las incertidumbres, tal que wk B . Esta se establece
en el siguiente lema.
Demostraci
on:
Para ello se va a proceder de la siguiente forma:
162
j=1 :
kxk+1 x(k + 1|k)k = kf (xk , uk , wk ) f (xk , uk , 0)k w () = c1 ()
j=2 :
kxk+2 x(k + 2|k)k = kf (xk+1 , uk+1 , wk+1 ) f (x(k + 1|k), uk+1 , 0)k
kf (xk+1 , uk+1 , wk+1 ) f (xk+1 , uk+1 , 0)k
+kf (xk+1 , uk+1 , 0) f (x(k + 1|k), uk+1 , 0)k
w () + x (kxk+1 x(k + 1|k)k)
w () + x (c1 ()) = c2 ()
j : siguiendo este procedimiento, para k + j se tendra
kxk+j x(k + j|k)k = kf (xk+j1 , uk+j1 , wk+j1 ) f (x(k + j 1|k), uk+j1 , 0)k
kf (xk+j1 , uk+j1 , wk+j1 ) f (xk+j1 , uk+j1 , 0)k
+kf (xk+j1 , uk+j1 , 0) f (x(k + j 1|k), uk+j1 , 0)k
w () + x (kxk+j1 x(k + j 1|k)k)
w () + x (cj1 ()) = cj ()
163
Notese que una secuencia monotonamente creciente no tiene por que divergir. Por
tanto, la acotacion del efecto de las incertidumbres puede no tender a infinito (cuando
j ), permaneciendo acotado, tal y como puede ocurrir en sistemas estables.
En el desarrollo llevado a cabo en las siguientes secciones, se requiere la acotacion
de la discrepancia que experimenta el sistema considerando tan solo el efecto de las
incertidumbres en el instante siguiente. Esta acotacion se establece en el siguiente lema.
Lema 6.4 Sea xk el estado de un sistema incierto descrito por (6.1) tal que satisface
la hipotesis 6.1. Sea x(k + j|k) el estado predicho en el instante k + j a partir de
x(k|k) = xk utilizando el modelo nominal y aplicando una secuencia de actuaciones
uF (k) = {u(k|k), , u(k + j 1|k)}
Sea xk+1 el estado al que evoluciona el sistema incierto al aplicar u(k|k). Sea el estado
x(k + j|k + 1) el estado predicho en el instante k + j a partir de x(k + 1|k + 1) = xk+1
aplicando el resto de la secuencia uF (k), es decir {u(k + 1|k), , u(k + j 1|k)}.
Entonces se tiene que
kx(k + j|k) x(k + j|k + 1)k xj1 w ()
(6.3)
on sucesiva i veces de
para cualquier incertidumbre wk B , siendo xi () la composici
la funcion x ().
Demostraci
on:
Para j = 1 se tiene que
kx(k + 1|k + 1) x(k + 1|k)k = kxk+1 x(k + 1|k)k w ()
164
6.3.1.
Acotaci
on basada en la continuidad Lipschitz
i=j1
X
Lix Lw =
i=0
Ljx 1
Lw
Lx 1
6.3.2.
Reducci
on del conservadurismo
165
Ljx 1
Mq Lw
Lx 1
166
Ljx 1 Mq
Lw
Lx 1 mq
De esta expresion se deduce que, por el efecto de la composicion de Lx , una reduccion en el valor de Lx puede afectar en mayor medida que un posible aumento
en la relacion entre normas (que viene dado por la razon Mq /mq ).
Tomese por ejemplo un sistema lineal xk+1 = Axk + wk siendo
A=
0,9 2,0
0
0,8
P =
1,0189
0,7283
0,7283 29,9620
167
6.4.
168
primero un controlador MPC dual, tal que conduce el sistema hasta una region terminal
, donde un controlador local es el encargado de estabilizarlo hasta el origen. En esta
formulacion, ademas de la conmutacion del controlador, el horizonte de control es una
variable de decision, por lo que se va reduciendo a lo largo de la evolucion del sistema.
Con el fin de proveer robustez al sistema cuando se a
nade un observador de los estados,
se propone un controlador robusto dual que estabiliza sistemas con cierto grado de
incertidumbres aditivas que decaen con el tiempo. Partiendo de un invariante robusto,
se considera en el problema de optimizacion una region terminal mas conservadora
. Para cierto grado de incertidumbres se garantiza que en el instante siguiente el
problema es factible en y por lo tanto el controlador local lo puede llevar hasta en
un tiempo determinado.
En la formulacion que se propone en esta seccion, se utiliza la idea de la region
terminal conservadora pero se extiende a un controlador MPC con horizonte fijo, y por
lo tanto no es necesario conmutar a un controlador local. Ademas se demuestra que el
controlador propuesto garantiza la estabilidad entrada a estado para ciertas cotas de
las incertidumbres.
Cabe resaltar que la formulacion que se presenta esta basada en la prediccion nominal del sistema, con un problema de optimizacion semejante al de un MPC general.
Por lo tanto el procedimiento propuesto para garantizar robustez es tan sencillo como considerar en el problema de optimizacion una region interior a la region terminal
obtenida.
A continuacion se presentan una serie de resultados preliminares sobre la region
terminal necesarios para la formulacion del controlador que se propone.
6.4.1.
Determinaci
on de la regi
on terminal
Qh ()
1
(6.4)
169
(6.5)
(6.6)
170
6.4.2.
Formulaci
on del MPC
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + N |k)
siendo el funcional a optimizar
JN (xk , uF (k)) =
N
1
X
i=0
Hip
otesis 6.7 La funcion de coste de etapa L(x, u) es suave respecto al estado de
forma que existe una funcion K , L (x), tal que
|L(x + x, u) L(x, u)| L (kxk)
para todo u U y para todo x IRn .
6.4.3.
171
An
alisis de estabilidad
Demostraci
on:
Para probar el teorema, se va a proceder demostrando que para todo xk1 XNr , se
tiene que xk = f (xk1 , u (k 1|k 1), wk1 ) XNr para toda incertidumbre wk1 B .
Esta condicion garantiza que el conjunto XNr es un invariante robusto del sistema en
bucle cerrado.
Sea uF (k 1) la solucion optima en el instante k 1. A partir de esta se va a
calcular una secuencia uF (k) para el instante k, de forma que
u (k + j 1|k 1) para
u(k + j 1|k) =
h(
x(k + N 1|k)) para
j = 1, ..., N 1
j=N
(6.7)
172
xk1
xk
x2
x(k+N1|k)
x*(k+N1|k1)
x(k+N|k)
0
4
2
x1
173
N 1
Lx Lw
Notese que si el sistema es estable y con una constante de Lipschitz Lx < 1, cuanto
mayor es el horizonte, mayor es el grado de incertidumbres que admite el controlador.
Una vez demostrado que el controlador es factible a lo largo de la evolucion del
sistema incierto, se va a demostrar que el sistema en bucle cerrado es estable entrada a
estado respecto a las incertidumbres. Esto implica que el controlador es robusto en el
sentido de que si las incertidumbres sobre el sistema estan acotadas, el comportamiento
del sistema tambien estara acotado. Si, ademas, estas decaen con el tiempo, el controlador estabiliza asintoticamente el sistema incierto. Este resultado forma parte de las
contribuciones de esta tesis.
Demostraci
on:
En esta demostracion se sigue la misma notacion utilizada en la demostracion del
teorema 6.8, siendo uF (k 1) la secuencia optima de actuaciones obtenida en el estado
xk1 . Como consecuencia de la aplicacion de la actuacion optima, el sistema evoluciona
al estado xk , en el cual, como se demostro anteriormente, existe una secuencia factible
de actuaciones uF (k) calculada a partir de la secuencia uF (k 1). Los estados predichos
con esta secuencia son x(k + j|k). As el coste optimo en el instante k 1 es
JN (xk1 )
N
1
X
i=0
174
N
1
X
L(
x(k + i|k), u(k + i|k)) + V (
x(k + N |k))
i=0
N
2
X
L(
x(k + i|k), u(k + i|k))
i=0
(N 2
X
{L
xi
w ()} + V
xN 1
w ()
i=0
175
6.5.
Robustez de la formulaci
on con Np > Nc
Del analisis de estabilidad desarrollado en la seccion anterior, se deducen unas propiedades interesantes en el caso en que se considere un horizonte de prediccion mayor
que el de control.
En esta formulacion, la secuencia de actuaciones se calcula para un horizonte de
control Nc , de forma que la prediccion del comportamiento se extiende hasta Np aplicando el controlador local obtenido para la region terminal uk = h(xk ). Seg
un esto, el
MPC se formula como
mn JNc ,Np (xk , uF )
uF
s.a
u(k + j|k) U
j = 0, , Nc 1
h(x(k + j|k)) U j = Nc , , Np 1
x(k + Np |k)
3
(6.8)
176
NX
c 1
i=0
Np 1
i=Nc
177
Sup
ongase que las funciones que describen el modelo f (, , ), el coste terminal V () y
el coste de etapa L(, ) son funciones suaves que satisfacen las hipotesis 6.1,6.6 y 6.7.
Sea el controlador MPC obtenido del problema de optimizacion dado por la ecuaci
on
(6.8), de forma que el conjunto terminal satisface la hipotesis 6.5, para cierto conjunto de incertidumbres B .
Entonces el sistema incierto controlado por el controlador MPC propuesto es estable
entrada a estado con un dominio de atraccion que es el conjunto factible del problema
XNc ,Np y para unas incertidumbres tales que
N Nc
hxp
xNc 1 w ()
6.6.
Las restricciones impuestas sobre los estados son especialmente delicadas en el caso
en el que el sistema real tenga incertidumbres. En efecto, si el comportamiento real
del sistema difiere de la prediccion realizada a partir del modelo nominal, la actuacion
obtenida del controlador basado en este puede hacer que el sistema incierto viole las
restricciones impuestas.
178
En el captulo anterior se analizo el problema de la factibilidad robusta y se expusieron distintas formas de garantizarla. Todas estas medidas estan relacionadas con
la propiedad de invariancia robusta:
1. La primera forma y mas inmediata es basandose en el coste optimo que es una
funcion de Lyapunov entrada a estado. As toda region
r = {x IRn : JN (x) r}
es un invariante robusto (para un cierto grado de incertidumbres). As en un
conjunto tal que r X el controlador garantiza las restricciones.
2. Determinando si el dominio de atraccion XNr = SN (X, ) es un invariante robusto
del sistema en bucle cerrado. En el caso de incertidumbres aditivas, esto se cumple
bajo la condicion (Kerrigan 2000) dada por
SN 1 (X, ) W SN (X, )
3. Incorporando la restriccion de robustez (Kerrigan 2000). A
nadiendo al problema
de optimizacion la restriccion
x(k + 1|k) XR W
y bajo ciertas condiciones sobre XR se establece que el dominio de atraccion del
controlador con esta restriccion es un invariante robusto, y por lo tanto satisface
las restricciones.
Hay que indicar que en este caso, en las condiciones impuestas en la determinacion
de la region terminal en la hipotesis 6.5, se debe considerar las restricciones en los
estados, de forma que X.
Bajo estas condiciones, el controlador MPC propuesto garantiza la estabilidad robusta, pues los teoremas sobre la estabilidad entrada a estado se siguen satisfaciendo,
y la factibilidad robusta.
6.6.1.
179
conservador tal que garantice que si el sistema nominal satisface la restriccion conservadora, entonces el sistema real satisface la restriccion X a pesar de las incertidumbres.
Para ello se va a definir una nueva secuencia de cotas cj () que posee unas propiedades
interesantes:
n
cj () = max w () + x (
cj1 ()), cj1 + xj1 w ()
(6.9)
(6.10)
{z
j
B
180
Demostraci
on:
Sea ej Bj y sea z = x y + ej . Entonces se tiene que
kzk kx yk + kej k xj w () + cj () cj+1 ()
por lo tanto z Bj+1 .
Teniendo en cuenta que x Xj+1 , se tiene que y + ej = x + z X para todo
ej Bj . Por lo tanto y Xj .
En este caso, el controlador MPC toma la forma
mn JN (xk , uF (k))
uF (k)
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) Xj j = 0, , N 1
x(k + N |k)
Ademas, en las condiciones de la hipotesis 6.5, se debe considerar las restricciones
en los estados, de forma que XN 1 .
A continuacion se va a demostrar que el controlador as obtenido garantiza la factibilidad robusta del sistema. Para ello se va a demostrar el teorema 6.8 considerando
estas restricciones. Dado que las restricciones en los estados y la restriccion terminal
son factibles como ya se demostro, tan solo se va a demostrar que las restricciones en
los estados son factibles. De esta forma se complementa el nuevo controlador propuesto en este captulo, en el que se garantiza la satisfaccion robusta de las restricciones,
as como la convergencia gracias a la estabilidad ISS.
Teorema 6.12 (Factibilidad robusta con restricciones en el estado)
Sea un sistema incierto descrito por un modelo
xk+1 = f (xk , uk , wk )
con el estado sujeto a xk X y las actuaciones sujetas a uk U en todo instante k.
Las incertidumbres wk IRp est
an contenidas en el conjunto wk B = {w IRp :
181
kwk }.
Sup
ongase que las funciones que describen el modelo f (, , ), el coste terminal V () y
el coste de etapa L(, ) son funciones suaves que satisfacen las hipotesis 6.1,6.6 y 6.7.
Sea el controlador MPC obtenido del problema de optimizacion propuesto, de forma
que los conjuntos de restricciones Xj vienen dados por la ecuaci
on (6.10) y el conjunto
terminal XN 1 satisface la hipotesis 6.5, siendo B el conjunto asociado a .
Entonces el sistema incierto controlado por el controlador MPC propuesto es factible a
lo largo de la evolucion del sistema, para todo estado inicial perteneciente al conjunto
factible del problema XNr y para unas incertidumbres tales que
xN 1 w ()
Demostraci
on:
Se procede de la misma forma que en la demostracion del teorema 6.8, comprobando
que la secuencia uF (k) es factible. En esta demostracion se probo que se satisface la
restriccion terminal y ademas que
x(k + N + 1|k)
182
6.7.
Ejemplo de aplicaci
on al reactor
Q=
10
0,1
R=1
y para las cuales se obtiene un controlador lineal y una funcion de Lyapunov cuadratica
dados por
K=
1,5488 3,4658
P =
263,5900
47,1760
47,1760
117,4640
El sistema controlado por este controlador local tiene un invariante positivo dado por
= {x IR2 : xT P x }
siendo = 9,764 y una constante de decrecimiento de la funcion de Lyapunov =
0,924. El conjunto que se va a considerar como region terminal en el problema de
optimizacion sera
= {x IR2 : xT P x v }
siendo v = = 9,0219.
Como norma para expresar las incertidumbres se va a tomar la norma dos ponderada
por la matriz P . As, la constante viene dada en este caso por
kwkP = (1 )
obteniendose = 0,1208.
183
0.5
1.5
0.25
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
0.25
x1
6.8.
Conclusiones
En este captulo se ha presentado un procedimiento para incorporar el conocimiento de las incertidumbres en el dise
no del controlador. Basandose en la acotacion de
184
6.8. Conclusiones
las discrepancias entre la evolucion del sistema real y el comportamiento predicho por
el modelo nominal, se garantiza que, bajo ciertas cotas de la incertidumbres y considerando como region terminal una region mas conservadora, se satisface de manera
robusta la condicion terminal. Tambien se consideran unas restricciones conservadoras
en los estados predichos que garantizan la satisfaccion robusta de las restricciones por
parte del sistema incierto. En consecuencia, se garantiza la satisfaccion robusta de las
restricciones en el conjunto factible XNr .
Ademas se puede garantizar la estabilidad entrada a estado del sistema para todo
estado inicial factible lo que dota de convergencia al controlador. Esta formulacion
forma parte de las contribuciones originales de esta tesis y ha dado lugar al artculo
Captulo 7
MPC robusto basado en regiones
de evoluci
on incierta
7.1.
Introducci
on
186
7.2.
Regiones de evoluci
on incierta
7.2.1.
Descripci
on del sistema
(7.2)
(7.3)
(7.4)
187
7.2.2.
Notaci
on y definici
on de operaciones sobre conjuntos
siendo i j N .
x(k + j|k) : a la prediccion en el instante k + j de la evolucion del sistema en ausencia
de incertidumbres a partir del estado xk aplicando sobre el sistema una secuencia
de actuaciones uF (k).
Tambien resulta de utilidad la definicion de ciertas operaciones sobre conjuntos que
se utilizan en el desarrollo de posteriores resultados.
Definici
on 7.1 Sea el conjunto IRn , y sea la funcion g : IRn IRn , entonces
se define el conjunto g() como
g() = {z IRn : s , z = g(s)}
188
Definici
on 7.2 Sea IRn , y IRn , se denomina conjunto diferencia de Pontryagin al conjunto
= {x IRn : x + y , y }
Definici
on 7.3 Sea IRn , y IRn , se denomina conjunto suma de Minkowski
al conjunto
= {z IRn : x , y , z = x + y}
7.2.3.
Regiones de evoluci
on incierta
Como es bien sabido, el efecto de la incertidumbre sobre el sistema hace que, ante
una determinada accion de control, exista una discrepancia entre el estado al que este
evoluciona y el que predice el modelo nominal. As, el estado real del sistema puede
evolucionar a cualquier estado contenido en una vecindad del estado nominal, dado
que 0 W . La region a la que el sistema real puede evolucionar ante una determinada
actuacion depende del estado del que se parte, de la actuacion aplicada y del grado de
incertidumbres que presenta el sistema, siendo tanto mayor cuanto mayor sea el grado
de incertidumbre.
Esta idea puede extenderse a la prediccion realizada a j pasos. As, existe una region
entorno al estado nominal predicho x(k+j|k) tal que contiene todas los posibles estados
a los que el sistema puede evolucionar ante una determinada secuencia de actuaciones.
Esta region se plasma en la denominada region exacta de evolucion incierta.
Definici
on 7.5 Sea un sistema incierto descrito por un modelo
xk+1 = f (xk , uk ) + wk
de forma que las incertidumbres wk W , entonces se denomina regi
on exacta de
evolucion incierta en el instante k + j partiendo del estado en el instante k,xk , y ante
una secuencia de actuaciones uF (k), al conjunto que contiene todos los posibles estados
189
a los que el sistema incierto puede evolucionar en el instante k + j. Este conjunto viene
dado por:
j2
Xj (xk , {uF (k)}j1
0 ) = f (Xj1 (xk , {uF (k)}0 ), u(k + j 1|k)) W
siendo
X1 = f (xk , u(k|k)) W
La region exacta de evolucion incierta Xj depende en general del estado del sistema
en el instante k, xk , de la secuencia de actuaciones desde el instante k hasta el instante
j 1, {uF (k)N }j1
0 , del conjunto de incertidumbres W y del modelo nominal f (, ).
Para simplificar la notacion, esta region se denota Xj (xk , uF (k)). As esta viene dada
por la composicion
Xj (xk , uF (k)) = f (Xj1 (xk , uF (k)), u(k + j 1|k)) W
Notese que la region Xj se puede entender como la union de todas las regiones
exactas de evolucion incierta a un paso que parten de cualquier estado en Xj1 ante la
actuacion u(k + j 1|k), es decir
Xj (xk , uF (k)) =
xXj1
Dado que las regiones exactas de evolucion incierta resultan en general muy difciles
de calcular con exactitud, resulta de interes caracterizar regiones que las aproximen de
una manera conservadora y cuyo calculo sea sencillo. Esto da lugar a las denominadas
regiones de evolucion incierta.
Para ello se parte de un procedimiento (, ) tal que para un conjunto A IRn
dado proporciona otro conjunto (A, u) tal que
f (A, u) (A, u)
para todo A IRn y para todo u U . En consecuencia, el procedimiento (A, u) es una
aproximacion conservadora de f (A, u) que se puede obtener mediante la utilizacion de
tecnicas de aproximacion de conjuntos. De este modo se puede hacer mas facil y menos
costoso el calculo de estos conjuntos, a cambio, claro esta, de un mayor conservadurismo
en la aproximacion. Este procedimiento debe satisfacer la siguiente hipotesis
Hip
otesis 7.6 Sea un conjunto A IRn y sea una actuacion admisible u U . Sea el
procedimiento (, u) : A IRn 7 (A, u) IRn , entonces (, ) debe satisfacer las
siguientes condiciones:
190
Definici
on 7.7 (Regi
on de evoluci
on incerta) Sea un sistema incierto descrito por
un modelo
xk+1 = f (xk , uk ) + wk
de forma que las incertidumbres wk W . Sea (, ) un procedimiento tal que satisfaga
la hipotesis 7.6, entonces se denomina regi
on de evolucion incierta en el instante k + j
partiendo del estado xk y ante una secuencia de actuaciones uF (k) al conjunto:
Xj (xk , uF (k)) = (Xj1 (xk , uF (k)), u(k + j 1|k)) W
siendo
X1 = f (xk , u(k|k)) W = X1
191
Demostraci
on:
1. Se procede por induccion: considerese que j = 2. Entonces se tiene que
X2 (xk , uF (k)) = f (X1 , u(k + 1|k)) W (X1 , u(k + 1|k)) W = X2 (xk , uF (k))
Supongase que Xj1 (xk , uF (k)) Xj1 (xk , uF (k)), entonces
Xj (xk , uF (k)) = f (Xj1 , u(k + j 1|k)) W
(Xj1 , u(k + j 1|k)) W
(Xj1 , u(k + j 1|k)) W
= Xj (xk , uF (k))
Con lo que se demuestra esta propiedad.
2. Para demostrar la propiedad se procede tambien por induccion:
Partiendo de que xk+1 X1 (xk , uF (k)) y utilizando la propiedad de monotona
se tiene que
X1 (xk+1 , uF (k + 1)) = (xk+1 , u(k + 1|k + 1)) W
(X1 (xk , u(k|k)), u(k + 1|k)) W = X2 (xk , uF (k))
Supongase que Xj1 (xk+1 , uF (k + 1)) Xj (xk , uF (k)). Dado que
u(k + j|k + 1) = u(k + j|k)
de la propiedad de inclusion se tiene que:
Xj (xk+1 , uF (k + 1)) = (Xj1 (xk+1 , uF (k + 1)), u(k + j|k + 1)) W
(Xj (xk , uF (k)), u(k + j|k + 1) W
= (Xj (xk , uF (k)), u(k + j|k) W = Xj+1 (xk , uF (k))
La primera de las propiedades demuestra que bajo las hipotesis impuestas al procedimiento (, ) se garantiza que las regiones de evolucion incierta contienen a las
regiones exactas.
La segunda propiedad resulta muy interesante para posteriores aplicaciones, pues
demuestra que ante una misma secuencia de actuaciones, las regiones de evolucion
incierta obtenidas en un estado real de la planta en k + 1 estan contenidas en las
calculadas en el instante anterior k.
192
7.2.4.
Un procedimiento de c
alculo basado en el
algebra intervalar
1 1
,
d c
(7.5)
si 0
/ [c, d]
193
194
Condici
on de inclusi
on : Se satisface por el teorema 7.11 y por la definicion de
funcion de inclusion, seg
un los cuales, para todo X se tiene que
f (X, u) F (X, u)
Condici
on de monotona : El teorema 7.11 tambien establece que la funcion de
extension intervalar natural es monotona, por lo tanto, para todo X Y , se
tiene que
F (X, u) F (Y, u)
7.3.
195
En este trabajo tambien se presenta una tecnica para dotar de robustez al controlador, que es la que inspiro la formulacion presentada en el captulo anterior. En
este caso la presencia de incertidumbres hace necesario que el controlador local deba
estabilizar el sistema incierto y que el conjunto terminal sea un invariante robusto.
Entonces considerando como restriccion terminal un conjunto contenido en , demuestra que el controlador estabiliza el sistema ante un cierto grado de incertidumbres
aditivas que decaen.
El controlador que se propone en esta seccion es esencialmente distinto pues se incorporan los conjuntos de evolucion incierta en la formulacion del controlador MPC dual.
Para ello, y dado que el sistema presenta incertidumbres, se requiere el conocimiento
de un conjunto invariante robusto para las incertidumbres del sistema.
Hip
otesis 7.12 Sea el conjunto X, una regi
on entorno al origen que es un invariante robusto del sistema (7.1). La ley de control local asociada u = h(x) es tal
que
X h = {x X : h(x) U }.
Para todo x se tiene que
f (x, h(x)) W
Esta condici
on garantiza que el conjunto es un invariante robusto por el principio
de invariancia.
Partiendo de la determinacion del conjunto invariante robusto y de un procedimiento para el calculo de las regiones de evolucion incierta, se puede formular el siguiente
problema de optimizacion:
m
n JN k (xk , uF )
u
F
s.a
u(k + j|k) U
Xj (xk , uF ) X
j = 0, , N k 1
j = 1, , N k 1
XN k (xk , uF )
Siendo el funcional a minimizar :
JN k =
N k1
X
i=0
196
Este coste esta basado en las predicciones nominales del sistema, sin considerar el efecto
de las incertidumbres. En este caso el funcional afecta exclusivamente al desempe
no
del sistema y no a la estabilidad como en la formulacion general del MPC. As, por
ejemplo, el coste terminal se puede eliminar, o bien se puede tomar una funcion de
coste que considere el efecto de las incertidumbres, como por ejemplo, el coste de la
peor situacion posible, lo cual conduce a un problema min-max.
La principal caracterstica de este controlador es que las restricciones en los estados
se establecen en terminos de regiones de evolucion incierta en vez de en terminos de
estados nominales del sistema. Estas regiones dependen del estado actual xk , de la
secuencia de actuaciones futuras uF , y del grado de incertidumbres. Por tanto son
restricciones en uF .
Notese tambien que el problema de optimizacion reduce el horizonte de control a lo
largo del tiempo, de forma que el controlador tan solo esta definido desde k = 0 hasta
k = N 1. Pero esto no ofrece problemas pues, como se demostrara mas adelante, se
garantiza que en el instante N el estado del sistema alcanza la region terminal, donde
se conmuta al controlador local.
A partir de este problema de optimizacion se establece la siguiente ley de control
dual:
u (k|k) x 6
k
d
KM
(x
)
=
(7.6)
k
PC
h(x )
xk
k
siendo u (k|k) el primer termino de la secuencia de control optima del problema en el
instante k.
7.3.1.
An
alisis de estabilidad
Dado que las incertidumbres que afectan al sistema se modelan como incertidumbres
aditivas acotadas, el origen no es un punto de equilibrio del sistema incierto, por lo
que hay que considerar otro concepto de estabilidad como la estabilidad finalmente
acotada, que se presento en el captulo 6.
Definici
on 7.13 (Khalil 1996) Un sistema es asintoticamente acotado al final si el
sistema evoluciona a un conjunto acotado. Es decir, si existen unas constantes positivas
b y c tales que para todo (0, c), existe un k tal que para todo estado inicial kx0 k
se tiene que kxk k b k > k .
Entonces se puede establecer el siguiente teorema en el que se demuestra que la ley
de control derivada del problema de optimizacion propuesto estabiliza al sistema en
197
xk X
Demostraci
on:
Para probar el teorema se va a comprobar que en cada instante k se puede calcular
una secuencia de actuaciones a partir de la solucion optima en k 1 que es factible.
La secuencia de actuaciones factibles es
u(k + j|k) = u (k + j|k 1) j = 0, , N k 1
k
es decir uF (k) = {uF (k 1)}N
1
198
Nota 7.15 La convergencia del controlador esta basada en la obtencion de una solucion factible del problema de optimizacion, que no necesariamente tiene que ser la
solucion optima. Esto implica que soluciones suboptimas del problema de optimizacion
estabilizan igualmente el sistema.
De este teorema se deduce que para todo estado inicial factible, el controlador
conduce al sistema incierto hasta el invariante robusto donde queda confinado. Por
tanto el sistema es asintoticamente estable acotado al final. Si las incertidumbres fuesen
decayendo a lo largo del tiempo y el controlador local estabilizase al sistema asintoticamente, entonces el controlador dual conduce el sistema hasta el origen.
Una bondad del controlador propuesto es que la estabilidad esta sujeta a la factibilidad del estado inicial. Por tanto no se imponen cotas explcitas sobre las incertidumbres,
sino que estas estan implcitamente consideradas en la factibilidad del problema con las
regiones de evolucion incierta. En efecto este controlador admite cualquier grado de incertidumbres y garantiza que estabiliza el sistema siempre que, para las incertidumbres
consideradas, el estado del que se parte sea factible.
199
Ademas, el caracter local de estas regiones hace que la cota de incertidumbres que
admite el controlador dependa del estado inicial en que se encuentra el sistema. Esto es
una ventaja pues en otro tipo de controladores basados en acotaciones globales de las
incertidumbres (como por ejemplo las basadas en la continuidad Lipschitz del modelo)
se toma el caso mas desfavorable como cota de incertidumbres, incurriendo en cierto
conservadurismo del controlador.
A pesar de la ventaja que supone la aproximacion local, no debe perderse de vista
que este controlador se enmarca dentro de los controladores en bucle abierto, es decir,
aquellos en los que no se considera el efecto de realimentacion del controlador en la
prediccion del comportamiento del sistema incierto. Esto hace que el controlador presente un alto grado de conservadurismo en relacion a formulaciones en bucle cerrado.
De todas formas existen procedimientos que permiten reducir este efecto, como ya se
comento en el captulo anterior.
7.4.
200
m
n JN (xk , uF )
u
F
s.a
u(k + j|k) U
si k < N
si no
j = 0, , N 1
X (x , u ) X
j k F
j = 1, , N k 1
x(k + j|k) W
j = 1, , N
XN k (xk , uF (k))
x(k + j|k) W
j = N k + 1, , N
Como se puede observar, en el instante inicial coincide con la formulacion dual. Pero
en este caso, en todo instante k el horizonte de control se extiende hasta N , a
nadiendose
desde N k + 1 hasta N la condicion de invariancia robusta sobre los estados. As,
para k > N es esta restriccion la u
nica que se impone sobre los estados, quedando el
problema de optimizacion
mn JN (xk , uF )
uF
s.a
u(k + j|k) U
j = 0, , N 1
x(k + j|k) W j = 1, , N
Notese que esto hace que el controlador aplique soluciones optimas en el conjunto
invariante robusto que garantizan la robustez. Ademas, si la region terminal y la funcion
de coste terminal se obtienen de forma que satisfacen las condiciones de estabilidad de
la formulacion general del MPC (hipotesis 3.5), entonces el controlador optimo obtenido
proporciona un mejor desempe
no y garantiza la estabilidad asintotica del sistema al
origen en el caso en que las incertidumbres decaigan con el tiempo.
El nuevo controlador robusto viene dado por
nd
KMPC
(xk ) = u (k|k)
201
xk X
Demostraci
on:
Para probar el teorema se va a comprobar que en cada instante k se puede calcular
una secuencia de actuaciones a partir de la solucion optima en k 1 que es factible.
La secuencia de actuaciones factibles es
(
u(k + j|k) =
u (k + j|k 1) j = 0, , N k 1
h(
x(k + j|k))
j = N k, , N 1
k1
k
que verifica {
uF (k)}N
= {uF (k 1)}N
.
0
1
x1 X1 (x0 , u (0|0))
de la propiedad 7.8 se tiene que
2
) Xj (x0 , {uF (0)}1N 1 ) X
Xj1 (x1 , {
uF (1)}N
0
202
Por lo tanto, x(N |1) . Aplicando la ley de control local se tiene una actuacion
admisible tal que
x(N + 1|1) = f (x(N |1), h(x(N |1))) W
Consecuentemente, el problema de optimizacion es factible en k = 1.
Supongase que el instante k 1 el estado del sistema es xk1 y el problema de
optimizacion es factible. Entonces, se obtiene una solucion optima uF (k 1). Sea xk
el estado al que evoluciona el sistema al aplicar u (k 1|k 1) y sea uF (k 1) la
secuencia de actuaciones calculada a partir de uF (k). Entonces es obvio que la secuencia
k1
{
uF (k)}N
es admisible por serlo uF (k). Ademas, dado que
0
xk X1 (xk1 , u (k 1|k 1))
de la propiedad 7.8 se tiene que
k1
k
Xj1 (xk , {
uF (k)}N
) Xj (xk1 , {uF (k 1)}N
)X
0
1
Ademas se tiene que x(N |k) . Aplicando la ley de control local se mantiene el sistema nominal en W con una secuencia de actuaciones admisibles. En consecuencia
el problema es factible.
Por induccion se deduce que el problema es factible en todo k N 1.
En el instante k = N 1, se tiene que
X1 (xN 1 , u (N 1|N 1))
por lo que el estado en el instante N satisface que xN .
A partir de este instante, la restriccion
x(k + j|k) W
es factible gracias a la invariancia robusta de , lo que garantiza la estabilidad. Notese
que a partir de este instante la secuencia dada por el controlador local es la secuencia
factible, y el controlador proporciona una actuacion que minimiza el coste.
7.5.
203
Ejemplo de aplicaci
on al reactor
1,5488 3,4658
"
P =
263,5900 47,1760
47,1760 117,4640
El sistema controlado por este controlador local tiene un invariante positivo dado por
= {x IR2 : xT P x }
siendo = 9,764. Tomando de base este conjunto, se ha calculado un invariante positivo
en el cual el controlador local estabiliza robustamente el sistema con una incertidumbre
h
w1 8103 , 6,5103
h
w2 8,5102 , 1,2102
i
i
Como coste de etapa se ha tomado un coste cuadratico con unas matrices de ponderacion
"
#
0,5000
0
Q=
R = 1,3333
0
1,1429
Se ha considerado tambien como coste terminal, V (x) = xT P x.
204
0.4
0.2
x2
0.2
0.4
0.6
0.8
0.25
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
0.25
x1
En la figura 7.2 se muestra la evolucion del sistema incierto controlado por el MPC
robusto dual para el primer ensayo. Como se puede observar, el sistema se estabiliza
hasta el invariante robusto donde, debido a las incertidumbres, el sistema evoluciona
hasta quedarse confinado en una vecindad del origen.
En un segundo ensayo, se ha considerado que la planta tiene unas incertidumbres
menores, dadas por
h
w1 6,5103 , 6,5103
w2 1,2102 , 1,2102
205
0.4
0.2
x2
0.2
0.4
0.6
0.8
0.25
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
0.25
x1
Por este motivo se ha considerado para este segundo ensayo un horizonte de control
de N = 7. En la figura 7.3 se ilustra la primera iteracion del algoritmo en un par de
estados iniciales, en la que se puede observar la evolucion de las regiones inciertas,
as como la factibilidad del problema de optimizacion. El comportamiento del sistema
en bucle cerrado se muestra en la figura 7.4. En esta se puede observar que, tal y como se
esperaba, el controlador es capaz de estabilizar el sistema incierto partiendo de estados
mas alejados del punto de equilibrio que los estabilizables en el primer ensayo.
7.6.
Conclusiones
206
7.6. Conclusiones
0.4
0.2
0.2
x2
0.4
0.6
0.8
1.2
1.4
1.6
0.25
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
0.25
x1
x2
0.4
0.8
1.2
1.6
0.25
0.2
0.15
0.1
0.05
0
x1
0.05
0.1
0.15
0.2
0.25
con un conjunto invariante positivo admisible asociado. As, para todo estado factible,
el controlador estabiliza de forma robusta el sistema. Ademas, la estabilidad se conserva
en ausencia de optimalidad de la solucion.
Para evitar la conmutacion al controlador local, se propone una modificacion sobre
la formulacion del MPC que consiste en incorporar el principio de invariancia como
207
208
7.6. Conclusiones
Captulo 8
MPC robusto basado en conjuntos
invariantes robustos
8.1.
Introducci
on
210
MPC
en
bucle cerrado
Restriccin
estabilizante
MPC robusto
basado en
invariantes robustos
8.2.
(8.1)
siendo xk IRn el vector de estados del sistema y uk IRm las actuaciones sobre el
mismo. El vector wk IRp representa las incertidumbres presentes en el modelo, de las
cuales tan solo se conoce que estan acotadas en un conjunto
wk W
211
Por otro lado las entradas y los estados estan sujetos a las restricciones
uk U
xk X
8.2.1.
{z
[2,2]
212
entonces, dado que la incertidumbre posible es mayor que la region se deduce que
no existe ninguna secuencia de actuaciones tal que el problema sea factible.
Sin embargo el problema s es robustamente controlable a ese conjunto en dos pasos.
Para ello basta hacer uk = xk y uk+1 = xk+1 . En efecto
xk+1 = xk + uk + wk = wk [1, 1] [1,2, 2]
luego satisface las restricciones. En el instante siguiente se tiene que
xk+2 = xk+1 + uk+1 + wk+1 = wk+1 [1, 1] =
luego, el sistema puede ser llevado hasta la region terminal en N pasos.
La diferencia entre ambas situaciones es que en la primera la secuencia de actuaciones que se determina en un determinado estado es fija e independiente de la realizacion de las incertidumbres futuras: debe satisfacer las restricciones para cualquier
incertidumbre posible, y esta secuencia no existe. Sin embargo, si se considera que incertidumbres han intervenido en el sistema se pueden determinar actuaciones, dependientes de la evolucion del sistema, que satisfacen las restricciones. Notese que estas
actuaciones son leyes de control, pues proporcionan una actuacion en funcion del estado
del sistema: uk = xk , uk+1 = xk+1 .
En efecto, para un sistema incierto, el conjunto de estados que pueden ser llevados por una secuencia de actuaciones admisible uk = k (xk ) U a un determinado
invariante robusto , en N pasos y satisfaciendo las restricciones a pesar de las incertidumbres es el conjunto estabilizable a N pasos robusto SN (X, ).
SN (X, ) = {x0 X : uk = k (xk ) U k = 0, , N 1 | xk X, xN , wk W }
Sin embargo, en el control predictivo robusto (en bucle abierto) el conjunto de
estados robustamente estabilizables es
Xba = {x0 X : uk (x0 ) U k = 0, , N 1 | xk X, xN , wk W }
es decir, el conjunto de estados que pueden ser llevados por una secuencia de actuaciones admisible y fija hasta el conjunto en N pasos. Este conjunto esta incluido en
SN (X, ), y de hecho suele ocurrir que este conjunto es mucho menor
Xba SN (X, )
En consecuencia, el problema de la prediccion en bucle abierto es un problema de factibilidad: el conjunto de estados estabilizables de forma robusta en bucle abierto es
mucho menor que el que realmente se puede estabilizar. Este es el origen del conservadurismo de las formulaciones robustas del MPC basadas en predicciones en bucle
abierto.
8.2.2.
213
Formulaci
on del MPC robusto en bucle cerrado
s.a
u(k|k) U
j (x(k + j|k)) U j = 1, , N 1 wk+i W, i = 0, j 1
x(k + j|k) X
j = 0, , N 1 wk+i W, i = 0, j 1
x(k + N |k)
wk+i W, i = 0, N 1
siendo x(k + 1|k) = f (xk , u(k|k), wk ) y para j = 1, , N 1
x(k + j + 1|k) = f (x(k + j|k), j (x(k + j|k)), wk+j )
el estado predicho incorporando el efecto de las incertidumbres.
Es importante poner de manifiesto que la prediccion de los estados depende de la
realizacion de las incertidumbres, pudiendo ser esta distinta en el calculo del coste a
optimizar que en la determinacion de las restricciones. Sera conveniente pues, a
nadir a
la notacion de los estados predichos la dependencia de las incertidumbres. Sin embargo,
dado que esta dependencia se deriva del contexto y con el objetivo de la sencillez en
el desarrollo de los resultados que se presentan, se realiza un abuso de notacion y se
omite esta dependencia. Sin embargo, se insta al lector a tener esto en cuenta a lo
largo del captulo, pues en secciones posteriores, los estados predichos corresponden al
comportamiento nominal.
La region terminal X suele ser un conjunto invariante robusto, con una ley de
control local asociada uk = h(xk ) tal que garantiza que f (x, h(x), w) para todo
x y w W.
En consecuencia el coste a minimizar tiene la forma
JN (xk , (k), W ) =
j=N
X1
j=0
214
considerando 0 = u(k|k) (en aras de la sencillez). El coste puede depender del conjunto de incertidumbres presentes sobre el sistema, seg
un como se calculen los estados
predichos para la determinacion de su coste. As, se puede considerar la peor de las
realizaciones posibles de las incertidumbres, lo cual conduce a un problema min-max, o
bien considerar el coste nominal, resultante de hacer wk+j = 0. Por eso, la dependencia
del coste con las incertidumbres se pone de manifiesto en la incorporacion del conjunto
de incertidumbres W en la notacion del coste.
Notese que independientemente de la forma del coste a minimizar, las restricciones
deben satisfacerse para toda posible realizacion de las incertidumbres.
Como es logico, este problema de optimizacion es notablemente mas complejo en
su resolucion que la formulacion en bucle abierto, pues requiere el calculo de leyes de
control, que son variables infinito dimensionales, en general. Por tanto, esta estrategia
se considera una solucion teorica por ahora, si bien importantes esfuerzos se estan
haciendo en la comunidad investigadora para tratar este nuevo reto.
Esta formulacion se utiliza en (Scokaert & Mayne 1998) en el contexto de min-max
y en (Magni, De Nicolao, Magnani & Scattolini 2001) en el contexto del control H .
Dentro de esta familia de controladores se puede englobar el presentado en (Kothare
et al. 1996), en el cual se plantea el problema en bucle cerrado en forma de LMI que
se resuelve en cada instante.
8.3.
An
alisis de estabilidad del MPC robusto en bucle cerrado
8.3.1.
Aproximaci
on desde la programaci
on din
amica
Al igual que los controladores nominales, el control robusto permite una interpretacion desde el punto de vista de la programacion dinamica. Para ello se va a
considerar el controlador en su formulacion min-max, el cual se puede expresar como
la solucion del siguiente problema de programacion dinamica (Mayne 2001):
n
i1 , w W
Ji (x) = mn max{L(x, u) + Ji1
(f (x, u, w))} | f (x, u, w) X
uU
wW
i , que
= V (x) y X0 = . Este problema esta definido en el conjunto X
siendo
es el conjunto de estados que pueden alcanzar el conjunto terminal en i pasos,
estabilizados por una secuencia de actuaciones admisibles y siguiendo una trayectoria
admisible. Por tanto este conjunto es el conjunto controlable en i pasos robusto.
i = K
i (X, )
X
J0 (x)
215
i1 , w W
(f (x, u, w))} | f (x, u, w) X
Kir (x) = arg mn max{L(x, u) + Ji1
uU
wW
216
8.3.2.
Estabilidad del MPC robusto en bucle cerrado con horizonte fijo e incertidumbres que decaen con el estado
max
wF W
j=N
P1
j=0
s.a
u(k|k) U
j (x(k + j|k)) U j = 1, , N 1 wk+i W, i = 0, j 1
x(k + j|k) X
j = 0, , N 1 wk+i W, i = 0, j 1
x(k + N |k)
wk+i W, i = 0, N 1
del cual se deriva la ley de control
r
(xk ) = u (k|k)
uk = KMPC
217
Teorema 8.2 (Mayne 2001) Sea un sistema incierto que responde a un modelo
xk+1 = f (xk , uk , wk )
siendo xk IRn , uk IRm y wk IRp . Las entradas y los estados estan sujetos a las
restricciones
uk U
xk X
Demostraci
on:
N = SN (X, ) y ademas para
Todo estado inicial, por ser factible, satisface que x0 X
i1
Ji (x) Ji1
(x) 0 x X
i , w W Ji (x)
(x)Ji (x) = mn max{L(x, u)+Ji (f (x, u, w))} | f (x, u, w) X
Ji+1
uU
wW
218
Ji+1
(x) Ji (x) max{L(x, Kir (x)) + Ji (f (x, Kir (x), w))} Ji (x)
wW
se deriva que
Ji+1
(x) Ji (x) max{Ji (f (x, Kir (x), w)) Ji1
(f (x, Kir (x), w))}
wW
Ji+1
(x) Ji (x) 0
Con lo que queda demostrada la afirmacion anterior.
Considerando este resultado se puede establecer que
r
r
JN (xk+1 ) JN (xk ) = JN (xk+1 ) max{L(xk , KMPC
(xk )) + JN 1 (f (xk , KMPC
(xk ), w))}
wW
r
Dado que xk+1 = f (xk , KMPC
(xk ), wk ), se verifica que
r
r
r
max{L(xk , KMPC
(xk )) + JN 1 (f (xk , KMPC
(xk ), w))} L(xk , KMPC
(xk ))
wW
r
+JN 1 (f (xk , KMPC
(xk ), wk ))
r
= L(xk , KMPC (xk )) + JN 1 (xk+1 )
219
8.3.3.
Estabilidad del MPC robusto en bucle cerrado con horizonte fijo e incertidumbres acotadas
220
para todo x y w W .
Con esta ligera modificacion se puede comprobar que el sistema controlado por la
ley
r
uk = KMPC
(xk )
es estable entrada a estado, y por lo tanto, que el sistema evoluciona hasta un invariante
robusto en el que queda acotado. Este resultado es original de esta tesis y se establece
en el siguiente teorema
Teorema 8.4 Sea un sistema incierto que responde a un modelo
xk+1 = f (xk , uk , wk )
siendo xk IRn , uk IRm y wk IRp . Las entradas y los estados estan sujetos a las
restricciones
uk U
xk X
i1
(x) () x X
Ji (x) Ji1
221
()
consecuencia de la hipotesis 8.3.
Ji+1
(x) Ji (x) max{Ji (f (x, Kir (x), w)) Ji1
(f (x, Kir (x), w))}
wW
Ji+1
(x) Ji (x) ()
Con lo que queda demostrada la afirmacion anterior.
Considerando esto se tiene que
r
r
JN (xk+1 ) JN (xk ) = JN (xk+1 ) max{L(xk , KMPC
(xk )) + JN 1 (f (xk , KMPC
(xk ), wk ))}
wW
r
JN (xk+1 ) L(xk , KMPC
(xk )) JN 1 (xk+1 )
y por lo tanto JN (x) es una funcion de Lyapunov entrada a estado del sistema.
8.4.
Transformaci
on de la formulaci
on en bucle cerrado en restricci
on estabilizante
La formulacion en bucle cerrado del MPC aparece como una formulacion necesaria para solventar los problemas asociados a los controladores robustos tradicionales,
basados en las predicciones en bucle abierto. Sin embargo, la incorporacion de leyes de
control en el problema de optimizacion hacen el problema tan complejo de resolver,
que se considera por ahora una solucion teorica.
222
s.a
N k1 w W
x(k + 1) X
u(k + j|k) U
j = 0, , N 1
x(k + j|k) X
j = 0, , N 1
x(k + N |k)
siendo x(k + 1) = f (x, u(k|k), w), garantiza igual la factibilidad del sistema y su convergencia al conjunto a pesar de las incertidumbres. Notese que en el problema
de optimizacion, las predicciones hechas a partir del instante k + 1, x(k + j|j) para
j = 2, , N pueden ser predicciones nominales del sistema.
La propiedad mas importante de este problema de optimizacion es que se recupera
la formulacion en bucle abierto, que es mucho mas sencilla de resolver. La adicion en
el problema en bucle abierto de la restriccion
N k1
x(k + 1) X
w W
N k , existe
es lo que garantiza la factibilidad del problema, pues para todo xk X
N k1 para toda incertidumbre w W y
una actuacion factible tal que xk+1 X
N k1 X, la restriccion asegura la satisfaccion robusta de las
ademas, dado que X
restricciones en el estado. Por tanto, la consideracion de un horizonte de control mayor
que 1, as como el resto de restricciones impuestas sobre los estados, tienen sentido
en lo que respecta al desempe
no del controlador pero no por la estabilidad ni por el
dominio de atraccion del controlador.
i =
En efecto, el conocimiento de la secuencia de conjuntos estabilizables a i pasos, X
Si (X, ), ofrece una informacion del sistema muy importante que puede incorporarse
3
Se entiende una secuencia contractiva de conjuntos, aquella secuencia tal que i i+1 para
todo i.
223
al dise
no de controladores estabilizantes. Para ello es necesario llevar a cabo el calculo
explcito de estas regiones para incorporarlas como restricciones. Este calculo se hace
fuera de lnea, por lo que el coste computacional derivado, si bien puede ser grande,
forma parte del dise
no del controlador. En lnea, el coste computacional asociado a la
resolucion de este problema de optimizacion es similar a la del MPC nominal.
Existen algoritmos eficientes para la determinacion de estos conjuntos tan solo en
sistemas lineales con restricciones politopicas (Kerrigan 2000). En un contexto diferente
al MPC, en (Mayne & Schroeder 1997) se dise
na un controlador en tiempo mnimo
robusto para sistemas lineales utilizando conjuntos invariantes.
En el caso de sistemas no lineales es necesario recurrir a procedimientos aproximados, que hacen que la anterior restriccion estabilizante no se pueda implementar.
Para subsanar este problema, se propone en la siguiente seccion una formulacion de la
restriccion basada en una secuencia de conjuntos invariantes de control robustos, que
pueden calcularse a partir de procedimientos aproximados.
Esta idea se puede enmarcar dentro los denominados controladores predictivos con
restriccion estabilizante, en los cuales se garantiza la estabilidad del sistema mediante
una restriccion estabilizante impuesta sobre el estado siguiente. En (Primbs et al. 2000),
se presenta un controlador con estabilidad garantizada para sistemas sin incertidumbres
y sin restricciones en los estados. Este controlador se basa la incorporacion de una
restriccion basada en una funcion de Lyapunov de control (CLF). Esta restriccion
obliga a tomar una actuacion que provoque un decrecimiento de la CLF en el instante
siguiente. As, esta funcion es funcion de Lyapunov del sistema en bucle cerrado. La
idea de restriccion estabilizante basada en invariantes de control se podra considerar
una generalizacion de estos resultados.
8.5.
En la seccion anterior se mostro como se pueden transformar las condiciones impuestas en el control predictivo en bucle cerrado en una restriccion estabilizante sobre el problema formulado en bucle abierto. Esto tiene unas ventajas notables, pero
esta basado en la determinacion de los conjuntos Si (X, ).
Con el fin de evitar el calculo de estos conjuntos y conservar las caractersticas
estabilizantes del controlador, se propone un controlador basado en una secuencia de
invariantes de control robustos, que es mas sencilla de obtener.
224
8.5.1.
xk X
Determinaci
on de una secuencia de invariantes de control robustos
Q().
Este conjunto viene dado por
Q()
= {x IRn : u(x) U | f (x, u) + w w W }
es decir, el conjunto de estados para los cuales existe una actuacion admisible tal que
el estado siguiente esta contenido en para toda posible incertidumbre.
En el caso de incertidumbres aditivas, el conjunto a un paso robusto satisface la
propiedad
Q()
= Q( W )
por lo que se puede obtener a partir del conjunto a un paso nominal 4 .
Teniendo en cuenta lo anterior, se puede establecer la siguiente propiedad
Propiedad 8.5 Sea X un invariante de control robusto del sistema y sea Q()
su conjunto a un paso robusto, entonces todo conjunto tal que
Q()
X
es un invariante de control robusto del sistema.
4
El fin u
ltimo de considerar modelos con incertidumbres aditivas es poder obtener el conjunto a
un paso robusto a partir del nominal, que resulta mas sencillo de calcular. Sin embargo, todos los
resultados posteriores son extensibles a otro tipo de incertidumbres considerando el conjunto a un
paso robusto
225
226
4. Si el calculo de la regi
on a un paso es exacta, es decir Qap () = Q(), entonces
i = Si (X, ).
Es interesante resaltar que esta secuencia de invariantes de control robustos puede
estar finitamente determinada, es decir, que exista un i tal que para todo i i , resulta
que i = i+1 . En consecuencia, la secuencia de invariantes de control dejara de crecer.
Esta determinacion puede venir derivada de la determinacion finita de S (X, ), es
decir, de la propia naturaleza del sistema y de las restricciones, o bien por el caracter
aproximado del calculo de Qap ().
8.5.2.
Formulaci
on del MPC robusto
El analisis llevado a cabo anteriormente muestra que la incorporacion de una restriccion estabilizante basada en las regiones estabilizables asegura estabilidad del controlador robusto en una formulacion en bucle abierto. Sin embargo, la dificultad de la
determinacion de estos conjuntos en sistemas no lineales, conduce a la necesidad de
formulaciones mas implementables.
La estabilidad de la formulacion anterior esta basada en la contractividad de la
N k , que va forzando al sistema, de una forma admisible, a
secuencia de regiones X
alcanzar el invariante robusto. Para conservar la contractividad y admisibilidad de las
soluciones, se propone el calculo de una secuencia de Nr invariantes de control robustos
desarrollado en el apartado anterior. Por tanto, esta secuencia puede utilizarse para
formular un nuevo controlador MPC robusto:
mn JN (xk , uF , W )
uF
s.a (
En este caso los estados x(k+j|k) son los estados predichos a partir del modelo nominal
del sistema.
Este problema de optimizacion es en bucle abierto, lo que simplifica la resolucion del
problema. El coste a optimizar JN (xk , uF , W ) puede basarse en predicciones nominales,
o bien el correspondiente a una formulacion min-max o cualquier otra. El coste JN , el
horizonte de control N , as como las restricciones adicionales sobre los estados tan solo
afectan al comportamiento del sistema controlado, no a la estabilidad del mismo, que
esta garantizada por la restriccion estabilizante (como se demostrara a continuacion).
8.5.3.
227
An
alisis de estabilidad
xk X
Sea X un conjunto invariante robusto del sistema incierto y sea {i } una secuencia contractiva de Nr invariantes de control robustos basada en obtenida utilizando
el algoritmo propuesto.
Entonces el sistema incierto controlado por el controlador MPC robusto propuesto estabiliza el sistema hasta quedar acotado en , para todo estado contenido en XNr =
Q(Nr W ) X.
Demostraci
on:
Se va a comprobar que todo x0 XNr es asintoticamente estabilizado al conjunto , y
para ello se procede por induccion.
Supongase que x0 XNr = Q(Nr W ) X, entonces existe una actuacion
admisible u0 U tal que f (x0 , u0 ) Nr W X. Por lo tanto satisface las
restricciones en x(1|0). Ademas, de la teora de conjuntos invariantes se tiene que
Nr SNr (X, ) SNr (X, ) C (X), siendo C (X) el maximo invariante de
control robusto. Por lo tanto existe una secuencia de actuaciones admisibles tales que la
evolucion del sistema es admisible. En consecuencia se satisfacen todas las restricciones
y el problema es factible en x0 . Ademas el estado siguiente x1 Nr Q(Nr 1
W ) X.
Supongase ahora que xk Q(Nr k W ) X. Entonces existe una actuacion
admisible uk U tal que x(k + 1|k) Nr k W . Ademas, dado que Nr k
C (X), existe una secuencia de actuaciones admisibles que mantienen la evolucion del
sistema admisible. Entonces el problema es factible en xk y ademas xk+1 Nr k
Q(Nr k1 W ) X.
228
Por lo tanto, para todo k < Nr , se satisface que el problema es factible y ademas el
sistema evoluciona de forma que xNr .
Para k Nr la restriccion x(k + 1|k) W es factible por ser un conjunto
invariante robusto, y ademas la actuacion obtenida garantiza que el sistema permanece
contenido en dicho invariante.
Nota 8.9 Si la funcion de coste se toma de forma que el MPC estabiliza asintoticamente el sistema en ausencia de incertidumbres, entonces el controlador estabiliza
asintoticamente el sistema incierto si las incertidumbres decaen con el tiempo.
Esto se debe a que, una vez que el estado del sistema queda confinado en , la
robustez inherente del controlador MPC garantiza la estabilidad asintotica.
229
8.6.
Ejemplos
8.6.1.
230
8.6. Ejemplos
1
0.5
0
0.5
1
10
12
14
16
18
20
10
12
14
16
18
20
0.5
0.5
1.5
muestras
1.5
xk
0.5
0.5
1.5
10
15
20
sample time
25
30
35
40
8.6.2.
231
Ejemplo de aplicaci
on al reactor
1,5488 3,4658
w1 8103 , 6,5103
h
w2 8,5102 , 1,2102
i
i
0.2
0.2
x2
0.4
1
2
0.8
1.2
0.6
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
x1
Para ilustrar la forma en que los invariantes de control introducen informacion del
comportamiento del sistema en bucle cerrado, se muestra en la figura 8.5 la evolucion
232
8.6. Ejemplos
de varias realizaciones de incertidumbres aleatorias considerando la restriccion estabilizante. En esta se puede comprobar que la evolucion es siempre admisible a pesar de
las incertidumbres.
0.2
x2
0.2
0.4
0.6
0.8
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
x1
En la figura 8.6 se muestra las trayectorias del sistema incierto en bucle cerrado.
Como ponderacion en el controlador se han tomado las mismas matrices de ponderacion
anteriormente citadas y se ha tomado un coste terminal cuadratico dado por la matriz
P . El horizonte de control considerado ha sido Nc = 1 y el de prediccion Np = 1. Para
la simulacion se ha considerado incertidumbres aditivas sobre el sistema aleatorias, de
ah el comportamiento erratico del sistema una vez ha alcanzado el invariante robusto.
0.4
0.2
x2
0.2
x2
0.4
0.6
0.8
1.2
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
x1
x1
Figura 8.6: Trayectorias del sistema en bucle cerrado con incertidumbres aleatorias.
233
0.2
0.2
0.2
x2
0.2
0.4
0.4
0.6
0.6
0.8
0.8
0.2
0.15
0.1
0.05
0.05
0.1
0.15
1.2
0.2
0.2
0.15
0.1
0.05
x1
(a)
(b)
0.05
0.1
0.15
0.2
Figura 8.7: Trayectorias del sistema en bucle cerrado con incertidumbres mnimas y maximas.
x1
0.2
0.15
0.1
10
15
20
25
30
35
10
15
20
25
30
35
10
15
20
25
30
35
x2
0.2
0.4
2
1
0
1
muestras
234
8.6. Ejemplos
0.2
x2
0.2
0.4
0.6
0.8
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
x1
Figura 8.9: Influencia del coste terminal en el sistema en bucle cerrado: lnea con puntos: MPC dual, lnea con cruces: MPC no dual, lnea con crculos: MPC no dual con coste
terminal.
235
En la figura 8.10 se muestra la evolucion del sistema incierto, considerando las incertidumbres maximas, para ciertos valores de los horizontes.
0.4
0.2
x2
0.2
0.4
0.6
0.8
1.2
0.2
0.15
0.1
0.05
0.05
0.1
0.15
0.2
x1
Figura 8.10: Influencia del horizonte de control y de prediccion sobre el sistema en bucle
cerrado
Tipo de lnea
puntos
cruces
crculos
Nc
1
3
3
Np
1
3
10
JMPC
60.38
52.61
45.91
236
8.7.
8.7. Conclusiones
Conclusiones
Captulo 9
Conclusiones y futuras lneas de
investigaci
on
9.1.
Dise
no de controladores con estabilidad garantizada :
Partiendo del analisis de estabilidad de la formulacion general del MPC, se han
propuesto dos controladores originales: El controlador MPC con horizonte de
prediccion mayor que el de control, y el controlador MPC con coste terminal
cuasi-infinito. El controlador con mayor horizonte de prediccion es una generalizacion del trabajo previo (Magni, De Nicolao, Magnani & Scattolini 2001)
237
238
239
240
9.2.
Las caractersticas del control predictivo y el rapido avance que se ha experimentado recientemente en aspectos teoricos como estabilidad y robustez, hacen que esta
estrategia tenga un futuro prometedor. Sin embargo, quedan temas abiertos en los que
trabajar, principalmente orientados a la implementacion.
En esta tesis se ha estudiado con profundidad la estabilidad y robustez de los
controladores predictivos y se han adquirido conocimientos que serviran de base para
241
el analisis de aspectos del control predictivo no abordados en la misma o bien que han
quedado abiertos. Entre ellos se pueden destacar:
242
Ap
endice A
Estabilidad y robustez de sistemas
no lineales en tiempo discreto
A.1.
Introducci
on
243
244
de suma utilidad en el analisis de sistemas con restricciones. Esta teora, ademas de ser
una potente herramienta de analisis, puede ser utilizada en la sntesis de controladores.
Todo ello hace de la teora de conjuntos invariantes un campo que, a juicio del autor, va
a tener un protagonismo cada vez mayor en el area del control. Como referencia tomese
el artculo, (Mayne 2001), que resume la sesion plenaria del ECC del a
no 2000, en la
cual D. Q. Mayne hace un enfoque de la estabilidad y robustez del MPC introduciendo
conceptos de la teora de conjuntos invariantes.
En este apendice se presenta ademas un balance de resultados en el campo de la
teora de conjuntos invariantes de sistemas en tiempo discreto. Entre las publicaciones
dentro de esta teora cabe destacar (Blanchini 1999), en el que se presentan resultados
en este campo, y los trabajos de E. C. Kerrigan (Kerrigan & Maciejowski 2000, Kerrigan
2000) en los que se hace un balance de esta teora con una notacion y nomenclatura
muy consistente, que es la que se ha adoptado en esta tesis.
En el caso de que los sistemas presenten incertidumbres, la teora de Lyapunov
se extiende de una manera natural a la denominada estabilidad entrada a estado.
Esta teora ofrece un marco teorico para el analisis de estos sistemas, dentro del cual
se enmarcan el analisis y dise
no de controladores predictivos para sistemas inciertos
desarrollados en esta tesis. Junto a esta se extiende tambien el concepto de invariancia
robusta, que se desarrolla en la teora de conjuntos invariantes robustos.
A.2.
Basta con hacer el cambio de variables z = x xo para trasladar el punto de equilibrio al origen.
A.2.1.
245
Definiciones previas
246
Definici
on A.3 (Funci
on definida positiva) Una funcion V : IRn 7 IR+ se dice
que es (localmente) definida positiva si existe una funcion K , () tal que
(kxk) V (x)
para todo x Br = {x IRn : kxk r}.
Si esta condici
on se extiende a IRn , entonces se denomina globalmente definida
positiva.
Si la funcion V () es globalmente definida positiva y ademas existe una funcion ()
que es K , entonces se dice que es radialmente no acotada. En este caso se verifica
que V (x) cuando kxk .
Lema A.4 (Khalil 1996) Sea una funcion V : IRn 7 IR+ continua y definida positiva
en Br , entonces existe una funcion K () definida en [0, r] tal que
V (x) (kxk)
para todo x Br .
Si ademas V () es radialmente no acotada, entonces () puede ser K .
A.2.2.
247
Estabilidad de un sistema
248
A.2.3.
Teora de Lyapunov
249
A la funcion V (x) definida positiva que satisface las condiciones de este teorema se
denomina funcion de Lyapunov asociada al sistema xk+1 = F (xk ). As, el teorema anterior se puede reescribir como: un sistema es estable si tiene una funcion de Lyapunov
asociada.
Por el lema A.4, la condicion
V (x) 2 (kxk)
se satisface si la funcion definida positiva V (x) es continua.
La estabilidad de Lyapunov esta ntimamente ligada al concepto de invariancia
positiva.
Definici
on A.10 (Conjunto invariante positivo) Un conjunto IRn se dice
que es un conjunto invariante positivo, si para todo x0 , la evolucion del sistema es
tal que xk para todo k 0.
250
251
Dado que la secuencia de valores V (xk ) es definida positiva y estrictamente decreciente para todo x 6= 0, entonces, V (xk ) tiende a 0, cuando k pues de lo contrario,
V (x) lo cual es una contradiccion con el caracter definido positivo de V (). Por
lo tanto xk 0.
Si la condicion
V (x) 3 (kxk)
se satisface en un conjunto invariante positivo , entonces el sistema es asintoticamente
estable para todo x0 .
252
tales que
c
c
V (F (x)) V (x) ckxk = V (x) bkxk 1
b
b
V (x) = V (x)
=
5
b
a
= [0, 1)
En (Vidyasagar 1993) se impone que > 1, sin embargo en (Scokaert et al. 1997) demuestra que
basta con considerar > 0. El teorema aqu presentado es una sntesis de ambos resultados.
253
Por u
ltimo, hay que comentar que, si bien estos teoremas establecen condiciones
sobre la funcion de Lyapunov que son suficientes para garantizar estabilidad, bajo
ciertas condiciones estas condiciones son tambien necesarias. Estos son los denominados
teoremas inversos de Lyapunov (Khalil 1996, Vidyasagar 1993, Scokaert et al. 1997,
Jiang & Wang 2002).
A.2.4.
Sea un sistema
xk+1 = F (xk )
cuyo estado esta sujeto a las restricciones dadas por
xk X
para todo k. Dado que el punto de equilibrio debe ser admisible, por lo que 0 X.
Este tipo de sistemas incluyen el caso de un sistema no autonomo
xk+1 = f (xk , uk )
controlado por la ley de control uk = h(xk ), sujeto a restricciones en las actuaciones
uk U y en los estados xk X. El sistema autonomo resultante de cerrar el bucle es
xk+1 = f (xk , h(xk ))
sujeto a la restriccion
xk X h = {x X : h(x) U } X
El concepto de invariancia es esencial en el analisis de sistemas con restricciones. En
efecto, un sistema autonomo sujeto a restricciones evoluciona de una forma admisible
(es decir cumpliendo las restricciones en todo k) si existe un conjunto invariante positivo
contenido en el conjunto de restricciones X. Por tanto, si x0 X, entonces, por
ser un conjunto invariante positivo, se tiene que xk X para todo k y por lo
tanto la evolucion del sistema es admisible.
La teora de Lyapunov demuestra que si existe una funcion de Lyapunov V (x) tal
que
V (x) 0
para todo x X, entonces todo conjunto
= {x IRn : V (x) }
254
contenido en X es un invariante positivo del sistema, y por lo tanto para todo estado
inicial x0 el sistema satisface las restricciones. Si por el contrario, x0 X \ ,
entonces la evolucion del sistema podra no ser admisible.
El conjunto de estados que satisfacen las restricciones sera por lo tanto el maximo
conjunto invariante asociado al sistema contenido en X, que no tiene por que ser X.
A.2.5.
Generalizaci
on a sistemas no aut
onomos: funciones de
Lyapunov de control
Los resultados de la teora de Lyapunov permiten el analisis de estabilidad de sistemas autonomos (que incluye a los sistemas no autonomos en bucle cerrado). Dada
la generalidad de la teora de Lyapunov resulta muy interesante trasladar todos estos
resultados al analisis de sistemas no autonomos. Esto se consigue gracias al concepto de funcion de Lyapunov de control introducido por primera vez en (Arstein 1983)
para sistemas continuos. En este trabajo se demuestra que la existencia de una CLF
asociada a un sistema es equivalente a la existencia de un controlador asintoticamente
estabilizable. En (Sontag 1989b), se establece una ley de control general obtenida a
partir de la CLF para sistemas afines en la actuacion. En esta seccion se traslada el
concepto de CLF a sistemas en tiempo discreto.
Sea un sistema no autonomo dado por
xk+1 = f (xk , uk )
siendo xk IRn el estado del sistema y uk IRm las actuaciones aplicadas sobre el
sistema. Sea el origen un punto de equilibrio del sistema, por tanto f (0, 0) = 0.
Las entradas del sistema pueden estar restringidas a un conjunto compacto U que
contiene el origen, de forma que uk U en todo instante k.
El concepto de sistema estable definido para sistemas autonomos, se transforma en
estabilizable para un sistema no autonomo. Un sistema es estabilizable si existe una ley
de control tal que estabilice el sistema en bucle cerrado. As se generalizan las distintas
nociones de estabilidad anteriormente definidas.
El concepto de conjunto invariante positivo asociado al caso autonomo se puede
extender al caso de sistemas no autonomos introduciendo el concepto de conjunto
invariante de control.
255
Definici
on A.13 (Conjunto invariante de control) Un conjunto IRn se dice
que es un conjunto invariante de control asociado a un sistema
xk+1 = f (xk , uk )
siendo xk IRn y uk IRm , si para todo x0 , existe una ley de control uk = h(xk )
tal que xk para todo k 0 y ademas las actuaciones son admisibles uk = h(xk )
U.
El concepto de funcion de Lyapunov asociado a un sistema autonomo, se puede extender para el caso de un sistema no autonomo en la denominada funcion de Lyapunov
de control.
Definici
on A.14 (Funci
on de Lyapunov de Control) Una funcion V : IRn 7
IR+ se dice que es una funcion de Lyapunov de control asociada al sistema
xk+1 = f (xk , uk )
siendo xk IRn , uk U IRm , si es definida positiva y satisface que
n
para todo x Br .
Notese que el problema de minimizacion implicado en una funcion de control de
Lyapunov no es difcil de resolver, especialmente en el caso de sistemas afines en las
actuaciones o sistemas sin restricciones en las actuaciones.
La principal diferencia es que la funcion V (x) se define en terminos de la actuacion,
de forma que si se satisface
n
entonces existe una actuacion admisible asociada a cada estado xk (es decir, una ley
de control uk = h(xk ) U ) tal que la funcion V (xk+1 ) V (xk ).
Por lo tanto si un sistema tiene una funcion de Lyapunov de control asociada,
entonces el conjunto acotado V (x) contenido en Br es un invariante de control del
sistema y por lo tanto el sistema es estabilizable. Esto permite establecer el siguiente
resultado:
Teorema A.15 Si un sistema no autonomo admite una funcion de Lyapunov de control asociada al sistema en Br , entonces el sistema es estabilizable.
256
A.2.5.1.
257
A.3.
Como se ha podido comprobar, los conceptos tales como conjunto invariante positivo
o conjunto invariante de control son trascendentales en el analisis de la estabilidad de un
sistema dinamico, especialmente cuando el sistema esta sujeto a restricciones. Alrededor
de estos conceptos se ha formado toda una teora que los desarrolla, denominada teora
de conjuntos invariantes.
Existen numerosos trabajos en este campo (Bertsekas 1972, Keerthi & Gilbert 1987,
Bitsoris 1988, Gilbert & Tan 1991), si bien, esta teora ha experimentado un nuevo auge
a raz de los trabajos de Blanchini y otros autores (Blanchini 1994, Kolmanovsky &
Gilbert 1998, Kerrigan & Maciejowski 2000). En (Blanchini 1999) se presenta un compendio de resultados en este campo, tanto en el aspecto teorico como de su aplicacion
al control de sistemas.
En esta seccion se sigue la lnea y notacion utilizada en (Kerrigan & Maciejowski
2000), artculo en el que se hace un balance conciso de los principales resultados en
esta teora y los aplica al analisis de la factibilidad del control predictivo.
En lo que sigue, las definiciones se van a centrar en el caso de sistemas no autonomos.
La traslacion a sistemas autonomos, o bien a sistemas en bucle cerrado, es inmediata.
Sea pues un sistema no autonomo dado por
xk+1 = f (xk , uk )
258
siendo xk IRn el estado del sistema y uk IRm las actuaciones aplicadas sobre el
mismo. Sea el origen un punto de equilibrio del sistema, f (0, 0) = 0. Las entradas del
sistema pueden estar restringidas a un conjunto compacto U IRm y el estado del
sistema a un conjunto compacto X IRn , ambos contiendo el origen. Por tanto
uk U
xk X
para todo k.
Si el sistema estuviese controlado por una ley de control u = h(x), entonces las
restricciones se transforman en xk X h = {x X : h(x) U }.
A partir del concepto de conjunto invariante de control (e invariante positivo), se
extienden estos al analisis de la region en la que un sistema puede ser admisible o
estabilizable. Para ello es necesaria la introduccion de un conjunto basico: el conjunto
a un paso.
Definici
on A.17 (Conjunto a un paso) El conjunto a un paso del conjunto , Q(),
es el conjunto de estados x para los cuales existe una actuacion admisible u U
(que depender
a del estado x) tal que el sistema alcanza el conjunto en un solo paso
f (x, u) .
Q() = {x IRn : u(x) U tal que f (x, u) }
Esta definicion se puede extender a un sistema controlado por una ley de control
u = h(x) de la siguiente forma
Qh () = {x IRn : h(x) U y f (x, h(x)) }
Definici
on A.18 (Conjunto de alcance) El conjunto de alcance del conjunto ,
R(), es el conjunto de estados x a los cuales puede evolucionar el sistema partiendo
de ante una actuacion admisible u U en un solo paso.
R() = {z IRn : x , u U tal que z = f (x, u)}
259
260
El conjunto Ki (X, ) no tiene por que estar incluido en Ki+1 (X, ), salvo en el
caso en que el conjunto sea un conjunto invariante de control. As, si x0
Ki (X, ) \ Ki+1 (X, ), entonces el sistema puede llevarse a en i pasos, pero no
en i + 1.
El conjunto K (X, ) esta finitamente determinado si existe un ndice i tal que
K (X, ) = Ki (X, ). Al menor ndice que satisface esta propiedad i se denomina ndice de determinacion.
Si existe un ndice j tal que Ki+1 (X, ) = Ki (X, ) para todo i j entonces
K (X, ) = Kj (X, ) y ademas el menor j que cumple esta propiedad es el
ndice de determinacion.
Este conjunto se puede extender a sistemas en bucle cerrado controlados por una
ley de control u = h(x), dando lugar a
Kih (X, ) = {x0 X h : xk X h , k = 0, , i 1 y xi }
siendo X h = {x X : h(x) U }.
Este conjunto satisface las propiedades anteriores y ademas
h
Ki+1
(X, ) = Qh (Kih (X, )) X
261
Definici
on A.24 (Conjunto admisible en i pasos) El conjunto admisible en i pasos Ci (X) es el conjunto de estados para los cuales existe una secuencia de actuaciones
admisibles tal que la evolucion del sistema permanece en el conjunto X durante los i
instantes siguientes.
Ci (X) = {x0 X : para todo k = 0, , i 1, uk U tal que xk+1 X}
El conjunto Ci (X) representa una secuencia de conjuntos que posee una serie de
propiedades:
262
263
Demostraci
on:
6
Este conjunto es una generalizacion del maximo conjunto estabilizable introducido en (Keerthi
& Gilbert 1987).
264
Necesidad:
Supongase que S (X, ) = S (X, {0}), entonces se tiene que
S (X, ) = S (X, {0})
y por lo tanto S (X, {0}).
Suficiencia:
Supongase que S (X, {0}), entonces:
S (X, ) S (X, {0}) :
Dado que S (X, {0}), se tiene que
S (X, ) S (X, S (X, {0})) = S (X, {0})
S (X, {0}) S (X, ) :
Dado que {0} , entonces de las propiedades del conjunto estabilizable
se tiene que S (X, {0}) S (X, ).
Y por lo tanto se demuestra que S (X, {0}) = S (X, )
Este teorema demuestra que el maximo conjunto estabilizable al origen y a coinciden si y solo si es un conjunto invariante cuyos estados son asintoticamente
estabilizables al origen.
En el corolario siguiente se establecen condiciones bajo las cuales ambos conjuntos
S (X, {0}) y S (X, ) estan finitamente determinados. Este resultado tambien es
original de esta tesis y tiene una aplicacion interesante en el analisis del dominio de
atraccion de los controladores predictivos.
Corolario A.29 Sea Sn (X, {0}) para cierto n, entonces S (X, {0}) est
a finitamente determinado si y solo si S (X, ) tambien lo esta.
Adem
as si el ndice de determinacion de S (X, ) es i , y el de S (X, {0}) es j , se
verifica que
i j i + n
Demostraci
on:
265
Este resultado es interesante desde un punto de vista practico, ya que, si el invariante es tal que Sn (X, {0}), que es lo habitual, entonces, S (X, ) esta finitamente determinado si y solo si S (X, {0}) tambien lo esta. Por lo tanto si todo
estado estabilizable a lo es en N pasos (siendo N el ndice de determinacion), entonces sera asintoticamente estabilizable al origen N + n pasos. Esta consecuencia se
utilizara en el analisis del dominio de atraccion del MPC, en la seccion 4.3.1.
A.3.1.
Determinaci
on del conjunto a un paso
266
= z IR
h
"
n+m
f (z)
IU z
Au
que es otro politopo. Este conjunto se puede proyectar sobre x utilizando por ejemplo
el algoritmo de eliminacion de Fourier-Motzkin utilizado en (Keerthi & Gilbert 1987,
Kerrigan 2000), lo que da lugar a Q(), que es otro politopo.
267
Una vez obtenido este conjunto, la interseccion con otro politopo da como resultado
otro politopo y su determinacion es sencilla. En consecuencia, los conjuntos estabilizables, controlables, y admisibles en sistemas lineales sujetos a restricciones politopicas
son politopos y el procedimiento por el que se obtienen estos es exacto.
En el caso de sistemas no lineales el calculo exacto es enormemente complejo. Sin
embargo en ocasiones es suficiente con la determinacion de conjuntos aproximados a
estos conjuntos de forma que
Qap () Q()
Estos conjuntos aproximados pueden servir para la determinacion de conjuntos invariantes de control de sistemas, pues todo conjunto tal que Q() es un
conjunto invariante de control (si es un invariante).
Un posible procedimiento para el calculo aproximado Qap () puede obtenerse trasladando el procedimiento seguido para sistemas lineales a sistemas no lineales. Para ello
se va a considerar que los conjuntos X, U y son politopos. Esto no es muy restrictivo,
pues es habitual expresar las restricciones de forma politopica. Si no fuese este el caso,
se pueden tomar aproximaciones politopicas no muy conservadoras, siempre que estos
conjuntos sean convexos.
As, el conjunto Q() vendra caracterizado en el espacio extendido por el conjunto
"
n+m
= z IR
A f (z)
AU z
"
b
bu
#)
268
A.4.
An
alisis de la robustez de sistemas no lineales:
estabilidad entrada a estado
Si existe una funcion de Lyapunov tal que V (x) 0, el sistema sera estable a pesar de
las incertidumbres. Si ademas existe una funcion K , (), tal que V (x) (kxk),
entonces el sistema incierto es asintoticamente estable en el origen.
Sin embargo, en el caso en el que las incertidumbres estan simplemente acotadas, el
origen deja de ser un punto de equilibrio del sistema incierto. Por tanto las definiciones
de estabilidad al origen, as como la teora de Lyapunov asociada, no se pueden aplicar.
La teora de la estabilidad entrada a estado, basada en la de Lyapunov, ofrece un marco
para el analisis de estos sistemas.
La estabilidad entrada a estado fue formulada por primera vez en (Sontag 1989a)
para sistemas en tiempo continuo, pero recientes resultados (Jiang et al. 1999, Jiang
& Wang 2001) han trasladado estos conceptos a sistemas en tiempo discreto. A continuacion se presentan algunas definiciones y resultados interesantes.
269
Definici
on A.30 (Estabilidad entrada a estado) (Jiang & Wang 2001) Un sistema xk+1 = f (xk , wk ) es estable entrada a estado si existe una funcion KL , (, ), y
una funcion K , (), tal que la evolucion del sistema satisface que
kxk k (kx0 k, k) + ()
siendo kwk k para todo k.
Esta definicion se puede interpretar como que el sistema en ausencia de incertidumbres es asintoticamente estable. Sin embargo, cuando aparecen incertidumbres
acotadas, el efecto que estas tienen sobre la evolucion del sistema esta acotada, es
decir, que las incertidumbres no hacen divergir al sistema.
Asociada a este concepto de estabilidad existe la definicion de una funcion de Lyapunov entrada a estado.
Definici
on A.31 (Funci
on de Lyapunov entrada a estado) (Jiang & Wang 2001)
Una funcion continua V : IRn 7 IR+ se denomina funcion de Lyapunov entrada a estado si satisface que
Existen unas funciones K , 1 () y 2 (), tales que
1 (kxk) V (x) 2 (kxk) x Br
Existe una funcion K , 3 (), y una funcion K , (), tales que
V (f (x, w)) V (x) 3 (kxk) + () x Br , w B = {kwk }
La segunda propiedad de la definicion es equivalente a decir que existe una funcion
K , (), y una funcion K , 4 (), tales que
V (f (x, w)) V (x) 4 (x) x : kxk (kk)
es decir, que se satisface la condicion de Lyapunov tan solo fuera de una vecindad del
origen.
En el siguiente lema se establece la condicion suficiente para garantizar la estabilidad
entrada a estado de un sistema.
Lema A.32 (Jiang & Wang 2001) Si un sistema xk+1 = f (xk , wk ) admite una funcion
de Lyapunov entrada a estado entonces el sistema es estable entrada a estado.
270
271
A.4.1.
(A.1)
Sea un sistema incierto xk+1 = f (xk , wk ) tal que su modelo es suave respecto a la
variacion de los parametros, es decir, que existe una funcion K , (), tal que
kf (x, w) f (x, 0)k (kwk)
Notese que esta condicion se satisface bajo condiciones de diferenciabilidad de la funcion.
Sea el sistema sin incertidumbres xk+1 = f (xk , 0) asintoticamente estable con una
funcion de Lyapunov asociada V (x) tal que
V (f (x, 0)) V (x) (kxk)
siendo () una funcion K . Supongase que V (x) una funcion suave, es decir, que existe
una funcion K () tal que
|V (x + x) V (x)| (kxk)
272
A.4.2.
uU
wW (x)
para todo x Br , siendo () una funcion K . Por tanto si un sistema tiene una funcion
de Lyapunov de control asociada, entonces es estabilizable a pesar de las incertidumbres
en una region
b = {x IRn : V (x) b}
En el caso en que las incertidumbres sean meramente acotadas, se puede extender
el concepto de funcion de Lyapunov entrada a estado a una CLF. As, si una funcion
definida positiva satisface que
n
wW
273
para todo x Br \ Bd siendo Bd una vecindad del origen que depende del grado de
incertidumbres del sistema.
En este caso, la existencia de una funcion que satisfaga esta condicion garantiza que
el sistema evoluciona hasta una vecindad del origen en la que la evolucion del sistema
queda acotada. En efecto, sea una region b contenida en Br tal que Bd b . Este
conjunto, b es un invariante robusto del sistema. Entonces para todo x b \Bd , existe
una ley de control que conduce el sistema hacia el origen a pesar de las incertidumbres
(gracias a que V (xk ) es estrictamente decreciente). Por lo tanto, en un determinado
instante, el sistema entra en Bd , donde la condicion puede no satisfacerse, y entonces
la evolucion del sistema podra salir de dicho conjunto. Pero, dado que una vez fuera,
el sistema es forzado a converger, el sistema permanecera acotado en una vecindad del
origen.
Asociado al concepto de conjunto robustamente estabilizable esta el concepto de
conjunto invariante de control robusto.
Definici
on A.34 (Conjunto invariante de control robusto) Sea un sistema incierto dado por
xk+1 = f (xk , uk , wk )
siendo xk IRn el estado del sistema, uk U IRm las actuaciones sobre el sistema
y wk IRq el vector de incertidumbres sobre el sistema que se suponen acotadas de
forma que wk W .
Un conjunto IRn se dice que es un conjunto invariante de control robusto
del sistema si para todo x0 se tiene que que existe una ley de control admisible
uk = h(xk ) U tal que xk para todo k 0 y para toda incertidumbre wk W .
Por ejemplo, el conjunto b anteriormente definido es un conjunto invariante robusto. Alrededor de este concepto, se extiende la teora de conjuntos invariantes al caso
de sistemas con incertidumbres, que es particularmente u
til para el analisis de sistemas
inciertos sujetos a restricciones.
A.5.
274
Definici
on A.35 (Conjunto a un paso robusto) El conjunto a un paso robusto
Q()
= {x IRn : u(x) U |f (x, u, w) , w W }
Notese que la u
nica diferencia con el caso no robusto es que se debe satisfacer la
condicion para toda posible incertidumbre. En el caso en que las incertidumbres sean
aditivas, de forma que
xk+1 = f (xk , uk ) + wk
el conjunto robusto a un paso robusto verifica que
Q()
= Q( W )
siendo W la diferencia de Pontryagin de ambos conjuntos. Por lo tanto, en este
caso, el conjunto robusto se calcula a partir del conjunto no robusto.
275
Definici
on A.36 (Conjunto de alcance robusto) El conjunto de alcance robusto
R()
= {z IRn : x , U, w W tal que z = f (x, u, w)}
A partir de la definicion de conjunto a un paso robusto, se extienden inmediatamente
todos los resultados y definiciones no robustas al caso robusto.
Teorema A.37 (Condici
on geom
etrica de invariancia robusta)
Un conjunto es un invariante de control robusto si y solo si
Q()
Definici
on A.38 (Conjunto controlable en i pasos robusto) El conjunto contro i (X, ) es el conjunto de estados para los cuales existe una secuencia
lable en i pasos K
de actuaciones admisibles que dependen del estado, tal que conduce el sistema hasta
el conjunto en i pasos con una trayectoria admisible y ante cualquier secuencia de
incertidumbres posibles.
i (X, ) = {x0 X : uk (xk ) U k = 0, , i | xk X, xi , wk W }
K
i (X, ) presenta propiedades semejantes al caso sin incertidumbres.
El conjunto K
Definici
on A.39 (M
aximo conjunto invariante de control robusto) El conjunto C (X) es el maximo conjunto invariante de control robusto contenido en X si y solo
si todo conjunto invariante de control robusto del sistema satisface que
C (X) X
As, C (X) es el maximo conjunto en el cual existe una ley de control admisible tal
que el sistema puede satisfacer las restricciones en su evolucion ante cualquier posible
incertidumbre.
Definici
on A.40 (Conjunto admisible en i pasos robusto) El conjunto admisible en i pasos robusto Ci (X) es el conjunto de estados para los cuales existe una secuencia de actuaciones admisibles tal que la evolucion del sistema permanece en el conjunto
X durante las i muestras siguientes ante cualquier incertidumbre posible.
Ci (X) = {x0 X : uk (xk ) U | xk + 1 X, wk W, k = 0, , i 1 }
276
Definici
on A.41 (Conjunto estabilizable en i pasos robusto) El conjunto estabilizable en i pasos robusto al conjunto invariante robusto (positivo o de control) ,
Si (X, ), es el conjunto de estados para los cuales existe una secuencia de actuaciones
admisibles tal que conduce el sistema hasta el conjunto en i pasos con una trayectoria
admisible para toda posible incertidumbre.
Si (X, ) = {x0 X : uk (xk ) U k = 0, , i 1 | xk X, xi , wk W }
Ap
endice B
Un ejemplo ilustrativo: el reactor
continuamente agitado (CSTR)
Para ilustrar las estrategias de control MPC que se presentan a lo largo de esta
tesis, se van a aplicar sobre el modelo de un sistema altamente no lineal: un reactor
continuamente agitado de mezcla perfecta (CSTR). Este proceso ha sido extensamente
utilizado en la literatura de control pues re
une las principales caractersticas de la
mayora de los reactores (Seborg, Edgar & Mellichamp 1989, Henson & Seborg 1997,
Magni, De Nicolao, Magnani & Scattolini 2001, De Oliveira Kothare & Morari 2000).
Este sistema esta formado por un tanque en el cual tiene lugar una reaccion exotermica irreversible de descomposicion
AB
El caracter exotermico de la reaccion provoca una continua generacion de calor en el
seno del tanque, el cual es evacuado por medio de una camisa de refrigeracion por la
que circula el refrigerante, cuya temperatura Tc es manipulable.
El objetivo del control es mantener la concentracion de reactivo del producto CA
y la temperatura del tanque T en el punto de funcionamiento determinado. Para ello
se act
ua sobre la temperatura de refrigerante Tc modificando as la temperatura del
tanque y, por lo tanto, la temperatura a la que se realiza la reaccion. En consecuencia
se acelera o decelera la reaccion y por tanto se act
ua sobre la concentracion de reactivo
y de producto.
El modelado de este sistema se puede encontrar en (Seborg et al. 1989, Ollero &
Camacho 1997) y se hace bajo las siguientes hipotesis o simplificaciones:
277
278
k = k0 exp
E
RT
d CA
q
E
=
(CAf CA ) k0 exp
CA
dt
V
RT
q
(Hr )k0
E
U A
dT
=
(Tf T ) +
exp
CA +
(Tc T )
dt
V
Cp
RT
V Cp
Par
ametro
Descripci
on
Valor
1000 g/l
Cp
0,239 J/g K
(Hr )
Entalpa de reaccion
5 104 J/mol
E/R
8750 K
k0
Constante de frecuencia
U A
5 104 J/min K
279
Los parametros que definen el sistema, as como las condiciones nominales de funcionamiento, se han tomado iguales a las utilizadas en (Magni, De Nicolao, Magnani
& Scattolini 2001). El punto de funcionamiento elegido es inestable y ademas, el sistema presenta un comportamiento altamente no lineal como se puede observar en las
respuestas en bucle abierto ante un escalon negativo (figura B.1) y ante un escalon
positivo (figura B.2).
El modelo se ha discretizado con un periodo de muestreo Tm = 0,03. El procedimiento de discretizacion utilizado para la implementacion de los controladores predictivos es
mplcito, de forma que no se han obtenido unas expresiones en forma de ecuaciones en
diferencias. El modelo continuo se ha integrado mediante un algoritmo de integracion
numerica, suficientemente preciso (alto orden y de paso variable). As, partiendo de las
condiciones iniciales dadas por el estado en el instante anterior xk , se integra el modelo
considerando a lo largo del periodo de muestreo la entrada constante u(t) = uk para
280
t [kT m, (k + 1)T m], tal y como hace un mantenedor de orden cero. De esta forma,
el estado obtenido en t = (k + 1)T m es el estado xk+1 .
El modelo discreto linealizado en torno al origen se ha obtenido calculando el jacobiano del modelo aproximado utilizando el metodo de diferencias finitas. El modelo
linealizado obtenido es xk+1 = Axk + Buk siendo
A=
0,9385 0,0443
0,1624
B=
1,1365
0,0013
0,0668
que, como se puede comprobar, la matriz A tiene un autovalor fuera del disco unidad,
por lo que el origen es un punto de equilibrio inestable.
1
0.8
x1
0.6
0.4
0.2
0
50
100
150
200
250
300
350
200
250
300
350
muestras
x2
0.5
1.5
50
100
150
muestras
x1
0.4
0.6
0.8
1
50
100
150
200
250
300
350
200
250
300
350
muestras
5
4
x2
3
2
1
0
50
100
150
muestras
Ap
endice C
An
alisis de la continuidad del coste
optimo
C.1.
El problema de programaci
on matem
atica en
el MPC
JN (xk , uF )
(C.1)
x(k + j|k) X j = 0, , N 1
x(k + N |k)
u(k + j|k) U j = 0, , N 1
siendo el funcional a optimizar
JN (xk , uF (k)) =
N
1
X
i=0
que depende del comportamiento futuro del sistema y de las actuaciones a lo largo del
horizonte de prediccion N .
Las restricciones en el estado en el instante j-esimo x(k + j|k) pueden expresarse
mediante un conjunto de ecuaciones
gjx (x) 0
281
282
JN (xk , uF )
G(xk , uF ) 0
donde la funcion G(, ) representa las restricciones sobre el estado y sobre las actuaciones.
Otra forma de plantear este problema de programacion matematica es mediante
la denominada formulacion simultanea (Biegler 1998). En esta, la prediccion de los
estados futuros no se incluye implcitamente en las restricciones y en el funcional del
problema de optimizacion. Para ello se a
nade como variable adicional de optimizacion
la secuencia de estados futuros del sistema. Esta nueva variable debe satisfacer en
cada instante el modelo de prediccion, lo que a
nade nx N restricciones de igualdad
a las restricciones de desigualdad derivadas de las restricciones en el estado y en las
actuaciones. El problema de optimizacion se formula pues de la siguiente forma:
mn
s.a
uF ,xF
JN (xk , xF , uF )
(C.2)
283
uF ,xF
JN (xk , xF , uF )
H(xk , xF , uF ) = 0
G(xk , xF , uF ) 0
C.2.
An
alisis de sensibilidad de un problema NLP
En esta seccion se presentan resultados conocidos sobre la sensibilidad de un problema de programacion matematica no lineal (NLP) que seran de utilidad para el analisis
de la suavidad del coste optimo del MPC. Como se ha comentado, el presente analisis se
centra en la continuidad del coste optimo con respecto a la variacion de los parametros
de los que depende. Un estudio mas extenso y profundo sobre el analisis de sensibilidad
de problemas de programacion matematica puede encontrarse en (Fiacco 1983) y en
sus referencias.
El problema de programacion no lineal parametrica, cuyas variables de decision son
x y que depende del vector de parametros y, se formula de la siguiente forma:
284
mn
x
s.a
f (x, y)
(C.3)
h(x, y) = 0
g(x, y) 0
en el cual el vector x IRn es el conjunto de variables respecto al cual se minimiza, y el
vector y IRm es el conjunto de parametros del que depende el problema. La funcion
de coste f (, ) es una funcion escalar, la funcion h(, ) representa las p restricciones de
igualdad y g(, ) representa las k restricciones de desigualdad impuestas al sistema.
La solucion optima de este problema dependera en general de los parametros, por
lo que x = x (y). En consecuencia el coste optimo tambien depende de los parametros
f (y). El conjunto de puntos factibles, es decir que satisfacen las restricciones, depende
tambien del valor de los parametros y se define como
S(y) = {x IRn |h(x, y) = 0, g(x, y) 0}
Definici
on C.1 El conjunto S(y) es uniformemente compacto en una vecindad N (
y)
S
en torno a y si el cierre de
S(y) es un conjunto compacto.
yN (
y)
A continuacion se establece el primer resultado de este analisis, en el que se establecen condiciones para garantizar la continuidad Lipschitz del coste optimo.
Teorema C.2 (Continuidad Lipschitz) (Gauvin & Dubeau 1982)
Sea un problema de programaci
on parametrica (C.3) que satisface las siguientes condiciones:
(i) Sean las funciones que definen el problema f ,g y h funciones C 1 .
(ii) Sea el problema de optimizacion factible para un cierto valor de los par
ametros
y.
(iii) Sea x el optimo del problema para un valor de los par
ametros y, tal que satisface
las condiciones de Magasarian-Fromovitz:
a) Existe una direcci
on d IRn tal que
x gi (
x, y)d < 0
x h(
x, y)d = 0
si
gi (
x, y) = 0
285
b) El jacobiano x h(
x, y) es de rango maximo.
(iv) Sea el conjunto factible S(y) uniformemente compacto en una vecindad de y.
Entonces el coste optimo f (y) es localmente Lipschitz en una vecindad de los parametros.
x gi (x , 0)
x h(x , 0)
Bajo las hipotesis de los dos teoremas anteriores se deduce la continuidad Lipschitz
del coste optimo en una vecindad de los parametros. Las condiciones del teorema
C.2 son menos restrictivas que las del teorema C.3. En primer lugar, las funciones
que definen el problema deben ser C 1 , y ademas el punto optimo debe satisfacer la
condicion de Magasarian-Fromovitz, para la cual la condicion de independencia lineal
es suficiente. Es decir, la condicion de independencia lineal implica la de MagasarianFromovitz, pero no al contrario. Tan solo cuando el problema no presenta restricciones
de igualdad, ambas son equivalentes.
C.3. Continuidad Lipschitz del coste optimo JN
(xk )
286
Ademas resulta complejo determinar cuando el mnimo obtenido para un determinado problema satisface las condiciones suficientes de segundo orden. En (Biegler 1998),
L.T. Biegler afirma que no es frecuente que el hessiano de la lagrangiana en el punto
optimo sea definido positivo, por lo que no se satisfacen dichas condiciones. Aunque
en dicho trabajo se establece que cuando el sistema se encuentra en las proximidades
del punto de equilibrio, los multiplicadores de Lagrange tienden a anularse, haciendose
dicho hessiano definido positivo. Esta propiedad es aprovechada para aumentar la tasa
de convergencia del algoritmo de optimizacion.
El teorema C.3 puede extenderse para demostrar que la solucion optima x (y) es
una funcion C p . Para ello basta imponer que las funciones implicadas en el problema
sean de mayor orden: f (, ),g(, ) y h(, ) sean C p+1 respecto a x y C p respecto a y.
C.3.
C.3.1.
h(xF , uF ) =
287
x h u h
A1
.
.
x h(xF , uF ) =
.
I
..
.
..
.
AN 2
..
.
I
AN 1
B0
.
.
u h(xF , uF ) =
.
B1
..
..
.
.
..
.
..
.
BN 2
g(xF , uF ) =
x g x
Cx
1
..
..
.
.
u g u
..
.
BN 1
..
.
..
.
..
.
..
.
CNx
..
.
..
.
C1u
.. . .
.
.
..
.
CNu
C.3. Continuidad Lipschitz del coste optimo JN
(xk )
288
Bj1
hxu
!
ij =
i1
As Bj1
s=j
siendo
i1
Q
s=j
i<j
i=j
i>j
As = Aj Aj1 Ai
x(k + i|k)
u(k + j 1|k)
Sustituyendo en g
gd =
x g x hxu
u g u
du =
u g x
u g u
du
g x (x(k + i|k))
u(k + j 1|k)
g u (u(k + i 1|k))
u(k + j 1|k)
Por tanto para que se satisfaga la condicion de Magasarian-Fromovitz deben verificarse dos condiciones: que el jacobiano u h sea de rango maximo y que las filas
de gd correspondientes a las restricciones activas sean menores que cero para alg
un
vector d. La primera de las condiciones se satisface siempre por ser la submatriz x h
289
Corolario C.4 Sea el problema de optimizacion del MPC (C.1) tal que el modelo de
predicci
on F (x, u), la funcion de coste de etapa L(x, u), la funcion de coste terminal
V (x) y las funciones que definen los conjuntos de restricciones g x (x), g u (u) son funciones C 1 . Sea un estado actual xk tal que el conjunto de actuaciones factibles es un
conjunto compacto. Sea el optimo de dicho problema tal que satisface la condici
on de
independencia lineal de las restricciones activas. Entonces la funcion de coste optimo
JN (xk ) es localmente Lipschitz en un vecindad de estados en torno a xk .
Corolario C.5 Sea el problema de optimizacion del MPC (C.1) tal que el modelo de
predicci
on F (x, u), la funcion de coste de etapa L(x, u), la funcion de coste terminal V (x) y las funciones que definen los conjuntos de restricciones g x (x), g u (u) son
funciones C 2 . Sea el optimo de dicho problema tal que satisface la condici
on de independencia lineal de las restricciones activas y la condici
on suficiente de segundo orden.
Entonces la funcion de coste optimo JN (xk ) es localmente Lipschitz en un vecindad de
estados en torno a xk .
De estos dos resultados se infiere que si las funciones que definen el problema de
optimizacion son C 1 , entonces es necesario comprobar la compacidad del conjunto de
actuaciones factibles. En el caso en que estas funciones sean C 2 entonces no es necesario
determinar dicha compacidad.
C.3. Continuidad Lipschitz del coste optimo JN
(xk )
290
Demostraci
on:
Supongase que conjunto XN es un conjunto compacto (Mayne 2001)(si no fuese as,
el resultado es valido para un conjunto compacto incluido en XN , como por ejemplo
r = {x IRn : JN (x) r}). Sea un conjunto convexo tal que XN . Entones
para todo x, y existe una recta de la forma z = x+(y x) con [0, 1]. Sea {zk }
una secuencia de nz puntos de dicha recta con z1 = x y znz = y, tal que zk+1 pertenece
a la vecindad de zk en la que la funcion de coste optimo es localmente Lipschitz con
una constante de Lipschitz Lk .
Entonces se tiene que
nz1
X
JN (zk , uF (zk ))
k=1
nz1
X
nz
X
k=2
k=1
nX
z 1
Lk kzk+1 zk k
k=1
LJ
nX
z 1
kzk+1 zk k = LJ kx yk
k=1
nv1
X
k=1
nX
v 1
nv
X
k=2
k=1
JN (vk , uF (vk ))
C.3.2.
291
Lema C.7 Sea la funcion de coste de etapa L(x, u) Lipschitz en x con una constante
Lc . Sea el modelo del sistema F (x, u) Lipschitz en x con una constante Lf . Sea la
funcion de Lyapunov asociada al controlador local en la regi
on terminal V (x) Lipschitz
en x con una constante Lv . Entonces se verifica que
|JN (x + x, uF ) JN (x, uF )| LJ kxk
siendo
LJ = Lc
LN
f 1
+ Lv LN
f
Lf 1
Demostraci
on:
Sea x(k + j|k) el estado predicho con el modelo tal que xk = x, y sea x(k + j|k) al
estado predicho partiendo de xk = x + x. Dado que el modelo es Lipschitz en x, se
tiene que
k
x(k + j|k) x(k + j|k)k Ljf kxk
Seg
un esto se tiene que
|JN (x + x, uF ) JN (x, uF )| = |
N
1 n
X
L(
x(k + i|k), u(k + i|k))
i=0
+V (
x(k + N |k)) V (x(k + N |k))|
N
1
X
i=0
Lc Lif kxk + Lv LN
f kxk
!
LN 1
kxk
Lc f
+ Lv LN
f
Lf 1
Teorema C.8 Sea un sistema no lineal controlado por un MPC cuyo dominio de atracci
on es XN . Sea la funcion de coste de etapa L(x, u) Lipschitz respecto a x en el conjunto XN con una constante Lc . Sea el modelo del sistema F (x, u) Lipschitz respecto
C.3. Continuidad Lipschitz del coste optimo JN
(xk )
292
1
LN
LJ = Lc f
+ Lv LN
f
Lf 1
Demostraci
on:
Por el principio de optimalidad se tiene que
J (y) < J(y, uF )
para toda secuencia de actuaciones factibles. Teniendo en cuenta que la secuencia
optima en x, uF (x), es factible para todo y XN y considerando el lema anterior, se
demuestra el teorema. Para ello se distinguen dos casos:
y por tanto
|JN (y) JN (x)| LJ ky xk
siendo LJ la constante calculada en el lema anterior.
C.4.
293
(C.4)
(C.5)
(C.6)
(C.7)
Corolario C.9 Sea el problema de optimizacion del MPC (C.1) tal que el modelo de
predicci
on F (x, u, w), la funcion de coste de etapa L(x, u), la funcion de coste terminal V (x) y las funciones que definen los conjuntos de restricciones g x (x), g u (u) son
294
Este resultado es de particular interes para el analisis de robustez del MPC ante
incertidumbres no aditivas.
Bibliografa
Alamir, M. & Bornard, G. (1995), Stability of truncated infinite constrained receding
horizon scheme: The gerenal discrete nonlinear case, Automatica 31, 13531356.
Allgower, F., Badgwell, T. A., Qin, J. S., Rawlings, J. B. & Wright, S. J. (1999), Nonlinear model predictive control and moving horizon estimation - an introductory
overview, in P. M. Frank, ed., Advances in Control, Springer, pp. 391449.
Arstein, Z. (1983), Stabilization with relaxed controls, Nonlinear Analysis 7, 1163
1173.
Bellman, R. (1957), Dynamic Programming, Princeton Universuty Press.
Bemporad, A. (1998), Reducing conservativeness in predictive control of constrained
systems with disturbances, in Proceedings of the CDC.
Bemporad, A., Borrelli, F. & Morari, M. (2001), Robust model predictive control:
Piecewise linear explicit solution, in Proceedings of the ECC.
Bemporad, A., Chisci, L. & Mosca, E. (1995), On the stabilizing property of SIORHC,
Automatica 31, 20132015.
Bemporad, A., Morari, M., Dua, V. & Pistikopoulos, E. (2000), The explicit solution
of model predictive control via multiparametric quadratic programming, en Proceedings of the ACC.
Bertsekas, D. M. (1972), Infinite-time reachability of state-space regions by using feedback control, IEEE Transactions on Automatic Control 17, 604612.
Biegler, L. T. (1998), Advances in nonlinear programming concepts for process control,
International Journal of Process Control 8(5-6), 301311.
Bitmead, R. R., Gervers, M. & Wertz, V. (1990), Adaptive optimal control - The thinkings man GPC, Prentice-Hall.
Bitsoris, G. (1988), On the positive invariance of polyhedral sets for discrete-time
systems, Systems & Control Letters 11, 243248.
295
296
BIBLIOGRAFIA
BIBLIOGRAFIA
297
De Nicolao, G., Magni, L. & Scattolini, R. (1996), On the robustness of receding horizon control with terminal constraints, IEEE Transactions on Automatic Control
41, 451453.
De Nicolao, G., Magni, L. & Scattolini, R. (1998), Stabilizing receding-horizon control
of non-linear time-varying systems, IEEE Transactions on Automatic Control
43, 10301036.
De Nicolao, G., Magni, L. & Scattolini, R. (2000), Stability and robustness of nonlinear receding horizon control, en F.Allgower & A.Zheng, eds, Nonlinear Model
Predictive Control, Birkhauser.
De Oliveira Kothare, S. L. & Morari, M. (2000), Contractive model predictive control for constrained nonlinear systems, IEEE Transactions on Automatic Control
45, 10531071.
Fiacco, A. V. (1983), Introduction to Sensivity and Stability Analysis in Nonlinear
Programming, Vol. 165 of Mathematics in Science and Engineering, Academic
Press.
Garca, C. E. & Morshedi, A. M. (1986), Quadratic programming solution of dynamic
matrix control (QDMC), Chemical Engineering Communications 46, 7387.
Garca, C. E., Prett, D. M. & Morari, M. (1989), Model predictive control: theory and
practice - a survey, Automatica 25, 335348.
Gauvin, J. & Dubeau, F. (1982), Differential properties of the marginal function in
mathematical programming, Mathematical Programming Study 19, 101119.
Genceli, H. & Nikolau, M. (1993), Robust stability analysis of constrained l1 -norm
model predictive control, AIChE Journal 39, 19541965.
Geromel, J. C. & Da Cruz, J. J. (1987), On the robustness of optimal regulators
for nonlinear discrete-time systems, IEEE Transactions on Automatic Control
32, 703710.
Gilbert, E. G. & Tan, K. (1991), Linear systems with state and control constraints: The
theory and application of maximal output admissible sets, IEEE Transactions on
Automatic Control 36, 10081020.
Glad, S. T. (1987), Robustness of nonlinear state feedback - a survey, Automatica
23, 425435.
Gomez Ortega, J. (1994), Navegacion en robots moviles basada en tecnicas de control
predictivo neuronal, PhD thesis, Universidad de Sevilla.
Gomez Ortega, J., Ramrez, D. R., Limon Marruedo, D. & Camacho, E. F. (2001), Genetic algorithms based predictive control for mobile robot navigation in changing
environments, en Proceedings of the ECC.
298
BIBLIOGRAFIA
Hansen, E. (1992), Global optimization using interval analysis, Marcel Dekker, Inc.
Henson, M. A. & Seborg, D. E. (1997), Nonlinear process control, Prentice Hall.
Jadbabaie, A., Yu, J. & Hauser, J. (2001), Unconstrained receding-horizon control of
nonlinear systems, IEEE Transactions on Automatic Control 46(5), 776783.
Jiang, Z.-P. & Wang, Y. (2001), Input-to-state stability for discrete-time nonlinear
systems, Automatica 37, 857869.
Jiang, Z.-P. & Wang, Y. (2002), A converse lyapunov theorem for discrete-time systems
with disturbances, Systems & Control Letters 45, 4958.
Jiang, Z., Sontag, E. & Wang, Y. (1999), Input-to-state stability for discrete-time
nonlinear systems, en Proceedings of the IFAC World Congress.
J.Qin, S. & Badgwell, T. A. (1997), An overview of industrial model predictive control
technology, en Proceedings of the conference on Chemical Process Control.
Keartfort, R. B. (1996), Rigorous global search: continuous problems, Kluwer Academic
Publishers.
Keerthi, S. S. & Gilbert, E. G. (1987), Computation of minimum-time feedback control
laws for discrete-time systems with state-control constraints, IEEE Transactions
on Automatic Control 32, 432435.
Keerthi, S. S. & Gilbert, E. G. (1988), Optimal infinite-horizon feedback laws for a
general class of constrained discrete-time systems: Stability and moving-horizon
approximations, Journal of Optimization Theory and Applications 37, 265293.
Kerrigan, E. C. (2000), Robust Constraint Satisfaction: Invariant Sets and Predictive
Control, PhD thesis, University of Cambridge.
Kerrigan, E. C. & Maciejowski, J. M. (2000), Invariant sets for constrained discrete-time
systems with application to feasibility in model predictive control, en Proceedings
of the CDC.
Kerrigan, E. C. & Maciejowski, J. M. (2001), Robust feasibility in model predictive
control: Necessary and sufficient conditions, en Proceedings of the CDC.
Khalil, H. (1996), Nonlinear Systems, 2 edn, Prentice-Hall.
Kolmanovsky, I. & Gilbert, E. G. (1998), Theory and conmputation of disturbance
invariant sets for discrete-time linear systems, Mathematical Problems in Engineering: Theory, Methods and Applications 4, 317367.
Kothare, M. V., Balakrishnan, V. & Morari, M. (1996), Robust constrained model
predictive control using linear matrix inequalities, Automatica 32, 13611379.
BIBLIOGRAFIA
299
Kwon, W. H. & Pearson, A. E. (1977), A modified quadratic cost problem and feedback
stabilization of a linear system, Automatica 22, 838842.
Lee, E. B. & Markus, L. (1967), Foundations of optimal control theory, Wiley.
Lee, J. H. & Yu, Z. (1997), Worst-case formulations of model predictive control for
systems with bounded parameters, Automatica 33, 763781.
300
BIBLIOGRAFIA
BIBLIOGRAFIA
301