Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DE
MODELADO E IDENTIFICACION
BIOPROCESOS
Autorizaci
on
CERTIFICA:
Que la memoria adjunta, titulada Modelado e Identificacion de Bioprocesos,
que para optar al grado de Doctora presenta Da . Mara Rodrguez Fernandez, ha sido
realizada bajo su inmediata direccion en el Instituto de Investigaciones Marinas del
C.S.I.C. y, considerando que constituye trabajo de Tesis, autoriza su presentacion
en la Universidad de Vigo.
Resumen
La ingeniera de procesos moderna se basa en el uso de modelos matematicos
rigurosos para realizar tareas de analisis, dise
no, optimizacion y control. En el caso
de bioprocesos (industria alimentaria y biotecnologica) estos modelos suelen tener
un caracter dinamico y no lineal.
El desarrollo de un modelo matematico puede considerarse como un ciclo: partiendo de unos objetivos (finalidad del modelo) y de unos conocimientos a priori
(datos preliminares, analisis basico e hipotesis iniciales), se propone una estructura
para el modelo. A partir de los datos experimentales, se realiza entonces la estimacion de parametros dando lugar a un modelo inicial que debe ser validado con
nuevos experimentos, lo que en la mayora de los casos revelara algunas deficiencias.
En ese caso, debe plantearse una nueva estructura del modelo o un nuevo dise
no de
experimentos. Este proceso debe repetirse de forma iterativa hasta que la etapa de
validacion se considere satisfactoria. El presente estudio se centra en los problemas
de (i) estimacion de parametros y (ii) dise
no optimo de experimentos dinamicos.
El problema de estimacion de parametros se plantea como la minimizacion de
una funcion de coste (J) que mide la calidad del ajuste del modelo con respecto
a un conjunto de datos experimentales, sujeto a la dinamica del sistema y a otras
posibles restricciones algebraicas. Esta formulacion corresponde a la de un problema
de optimizacion no lineal (Non-Linear Optimization Problem, NLO) con ecuaciones
diferenciales ordinarias y algebraicas como restricciones.
Matematicamente, el dise
no optimo de experimentos puede plantearse como un
problema de optimizacion dinamica en donde el objetivo es encontrar un conjunto
de variables de entrada (controles) para los experimentos dinamicos que maximicen
la calidad de alg
un indicador estadstico de los parametros estimados. Con objeto
de aumentar la identificabilidad practica y la precision de los parametros, en este
trabajo se han utilizado funciones escalares de la matriz de informacion de Fisher.
Empleando metodos directos, que transforman el problema original en un problema
de optimizacion no lineal (NLO) mediante la parametrizacion de los controles y/o
de los estados, se pueden obtener soluciones numericas.
xi
xii
Resumen
Debido a la naturaleza no lineal del modelo dinamico, estos dos problemas son frecuentemente multimodales (no convexos) y, por lo tanto, si se resuelven con metodos
tradicionales de optimizacion local es muy probable que converjan a optimos locales.
Ademas, en el caso de un mal ajuste de los parametros, no hay modo de saber si
este se debe a una mala formulacion del modelo o si es debido a la convergencia a
Objetivos
El objetivo fundamental de esta tesis consiste en desarrollar una metodologa
integrada para el modelado y la identificacion de bioprocesos, es decir, aquellos pertenecientes a la industria alimentaria y biotecnologica. Los modelos que representan
estos procesos suelen tener un caracter dinamico y no lineal por lo que el problema
inverso asociado resulta especialmente complejo. Para poder realizar esta tarea con
exito, se han propuesto una serie de sub-objetivos:
Analisis de la identificabilidad de los modelos tanto estructural (para aquellos
abordables mediante las tecnicas disponibles en la actualidad) como practica
y cuantificacion de la importancia de los parametros estableciendo un ranking
de los mismos.
Estimacion robusta de parametros mediante metodos que permitan el manejo adecuado de ruido en las medidas y observaciones parciales as como la
resolucion de este tipo de problemas en un tiempo de calculo reducido.
Dise
no optimo de experimentos empleando tecnicas de optimizacion dinamica
con objeto de reducir los problemas de identificabilidad practica, aumentar la
precision de los parametros estimados y disminuir el esfuerzo experimental.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitira asegurar que los nuevos experimentos dise
nados sean globalmente optimos y evitar la convergencia a mnimos locales.
Desarrollo de un entorno integrado para la automatizacion de las tareas de
estimacion de parametros, dise
no optimo de experimentos, analisis de la identificabilidad y otras medidas asociadas.
Modelado e identificacion de una serie de bioprocesos de interes relativos a:
i.- Secado de alimentos
ii.- Procesamiento termico de alimentos
xiii
xiv
Objetivos
Indice general
I
Introducci
on
1. Modelos matem
aticos
1.1. Desarrollo de modelos matematicos . . . . . . . . . . . . . . . . . . .
1.2. Tipos de modelos matematicos . . . . . . . . . . . . . . . . . . . . . .
3
4
5
II
Metodologa
2. Estimaci
on de par
ametros
2.1. Planteamiento del problema . . .
2.1.1. Caracterizacion del modelo
2.1.2. Datos experimentales . . .
2.1.3. Funciones de coste . . . .
2.2. Metodos de estimacion . . . . . .
2.2.1. Metodos de valor inicial .
2.2.2. Metodo multiple shooting .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. An
alisis de sensibilidad
3.1. Metodos numericos para el calculo de sensibilidades locales
3.1.1. Aproximacion por diferencias finitas . . . . . . . . .
3.1.2. Metodos directos . . . . . . . . . . . . . . . . . . .
3.1.3. Metodo de la funcion de Green . . . . . . . . . . .
3.2. Tipos de funciones de sensibilidad . . . . . . . . . . . . . .
3.2.1. Funcion de sensibilidad absoluta . . . . . . . . . . .
3.2.2. Funcion de sensibilidad relativa . . . . . . . . . . .
3.2.3. Funcion de sensibilidad semirelativa . . . . . . . . .
3.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
14
17
18
19
.
.
.
.
.
.
.
.
.
21
22
22
22
24
24
25
25
26
26
4. An
alisis de identificabilidad
29
4.1. Identificabilidad estructural . . . . . . . . . . . . . . . . . . . . . . . 30
xv
Indice general
xvi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
32
34
34
36
.
.
.
.
.
.
37
37
38
39
40
41
42
6. Dise
no
optimo de experimentos
43
6.1. Criterios de dise
no optimo . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formulacion del OED como un problema de optimizacion dinamica . 47
6.3. Metodo de parametrizacion de control . . . . . . . . . . . . . . . . . . 48
7. M
etodos de optimizaci
on
7.1. Metodos locales . . . . . . . . . . . . . . . . . . .
7.1.1. Metodos para problemas sin restricciones .
7.1.2. Metodos para problemas con restricciones
7.1.3. Metodos locales empleados . . . . . . . . .
7.2. Metodos globales . . . . . . . . . . . . . . . . . .
7.2.1. Metodos deterministas . . . . . . . . . . .
7.2.2. Metodos estocasticos . . . . . . . . . . . .
7.2.3. Metodos hbridos . . . . . . . . . . . . . .
7.3. Desarrollo de un metodo hbrido secuencial . . . .
7.3.1. Ajuste del metodo hbrido secuencial . . .
7.4. Metodo hbrido paralelo sincronico . . . . . . . .
8. GOSBio: entorno para modelado e
8.1. Descripcion de la metodologa .
8.2. Fichero de entrada . . . . . . .
8.2.1. Modelo matematico . . .
8.2.2. Datos de entrada . . . .
8.3. Ficheros de salida . . . . . . . .
8.3.1. Datos . . . . . . . . . .
8.3.2. Figuras . . . . . . . . .
identificaci
on
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
53
53
54
55
56
56
57
60
62
63
64
.
.
.
.
.
.
.
69
70
72
72
73
75
75
75
Indice general
III
Aplicaciones
9. Secado de alimentos
xvii
77
79
9.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2.1. Transferencia de masa . . . . . . . . . . . . . . . . . . . . . . 81
9.2.2. Transferencia de energa . . . . . . . . . . . . . . . . . . . . . 82
9.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 83
9.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9.5. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 87
9.5.1. Caso 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.5.2. Caso 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 91
9.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.Procesamiento t
ermico de alimentos
95
10.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
10.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
10.2.1. Esterilizacion industrial de alimentos enlatados . . . . . . . . 98
10.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 99
10.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.5. Dise
no optimo de experimentos . . . . . . . . . . . . . . . . . . . . . 100
10.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 104
10.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
11.Isomerizaci
on del -pineno
109
xviii
12.Inhibici
on de la proteasa del HIV
Indice general
119
129
141
161
Indice general
IV
V
Conclusiones
Ap
endices
VI
VII
Bibliografa
Publicaciones
xix
173
181
183
189
209
Indice de tablas
9.1.
9.2.
9.3.
9.4.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
122
125
127
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
143
144
146
147
150
155
158
xxii
Indice de tablas
Indice de figuras
1.1. Esquema para la construccion de modelos matematicos . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
81
85
85
86
86
86
89
90
90
90
91
92
92
100
101
102
103
xxiii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xxiv
Indice de figuras
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
103
103
104
104
104
106
106
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
109
113
114
115
115
115
116
116
116
117
117
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
123
124
125
125
126
.
.
.
.
130
132
135
136
. 136
. 137
. 138
Indice de figuras
xxv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
148
149
151
151
152
153
154
154
154
158
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
162
164
165
166
167
168
169
170
170
170
Notaci
on
Tipografa
Italica
Escalar
Negrita min
uscula Vector
Negrita may
uscula Matriz
Abreviaturas
ACO
BLUE
CP
CVP
DAEs
GO
DDM
EP
ES
FIM
GA
GFM
GPS
GRG
IDP
IVP
KKT
MINLP
NLO
NMOL
ODEs
OED
PDAEs
PDEs
xxviii
s.g.i.
s.l.i.
s.u.i.
SC1 y SC2
SA
SS
SQP
TDT
TPBVP
TS
Smbolos
C
F
F1 , F2 y F3
J
Jmp
Jmc
J
M
N
Np
Nu
Nx
Ny
Nz
R
p
p
p
t
u
x
x y x
xt
y
y
z
Notaci
on
Parte I
Introducci
on
Captulo 1
Modelos matem
aticos
La b
usqueda de pautas en el mundo fsico parte de la idea de que este es inteligible
y su funcionamiento puede conocerse mediante la observacion y la especulacion.
Esta forma de pensar se remonta a los filosofos naturalistas jonios del siglo VI
antes de Cristo (Tales, Anaximandro y sus discpulos Leucipo y Democrito). La
idea subyacente en esta inteligibilidad es que toda la multiplicidad del mundo puede
reducirse a una serie de pautas o principios fundamentales llamadas leyes de la
naturaleza.
La Revolucion Cientfica que culmino en 1687 con la publicacion de Philosophiae
Naturalis Principia Mathematica (Principios matematicos de la filosofa natural) por
el matematico, fsico, alquimista e inventor Isaac Newton (1643-1727), considero que
el universo funciona como un engranaje de relojera. A partir de este momento, su
mensaje fundamental ha ido calando en la comunidad cientfica y en nuestra sociedad
en general: La naturaleza posee unas leyes y nosotros podemos encontrarlas. Esta
afirmacion implica que todo sistema - mecanico, electrico, biologico, etc. - puede ser
descrito de manera adecuada mediante un modelo matematico. A pesar de que la
teora cuantica y la, recientemente desarrollada, teora del caos han probado que
esta afirmacion es falsa, la influencia en el modo de pensar de los cientficos ha sido
enorme.
Hoy en da la idea de que un modelo es una simplificacion de la realidad y que
un modelo matematico es un modo particular de representacion es admitida por
toda la comunidad cientfica. No se debe olvidar que el desarrollo de un modelo
esta siempre motivado por una aplicacion real y en este proceso se esta traduciendo
nuestro problema en el mundo real a un problema matematico equivalente que se
resuelve y despues se intenta interpretar. Esto se hace para llegar a comprender en
mayor profundidad la situacion original en el mundo real o para utilizar el modelo
para realizar tareas de analisis, dise
no, optimizacion y/o control.
3
Cualquiera que sea el objetivo del modelo, este debe ser formulado explcitamente
ya que influenciara en gran medida el proceso de modelado. Ademas, el modelo
obtenido debe ser juzgado en base a la satisfaccion de esos propositos.
1.1.
Anlisis
Conocimientos
a priori
Caracterizacin
de la estructura
Estimacin de
parmetros
Datos
experimentales
Diseo de experimentos
Definicin
del marco
NO
Validacin
S
Modelo
Datos experimentales. La adquisicion de datos puede realizarse durante la operacion normal del sistema o durante un experimento dise
nado
especficamente. En etapas posteriores se hara uso del dise
no optimo de
experimentos para optimizar el contenido informativo de los datos resultantes de cara a la identificacion del sistema.
II. Identificaci
on del sistema
En teora de sistemas y de control, la identificacion de sistemas se define como
identificar un modelo a partir de datos experimentales e incluye los tres bloques
centrales del esquema de la Figura 1.1.
Definici
on del marco en el que se establecen los lmites del sistema y las
variables de entrada y salida.
Caracterizaci
on de la estructura en donde se determina el tipo de modelo
a considerar (lineal-no lineal, continuo-discreto,...), su nivel de complejidad y las relaciones funcionales entre las variables.
Estimaci
on de parametros que proporciona valores numericos para las
constantes de las relaciones funcionales.
La identificabilidad teorica de los parametros del modelo (tambien llamada
identificabilidad estructural) viene dada por la propia estructura del modelo
por lo que debe elegirse una estructura adecuada para poder estimar todos los
parametros.
III. Validaci
on del modelo
Esta es la u
ltima etapa del ciclo de modelado en donde se comprueba si el
modelo alcanza los objetivos postulados. Cuando esta etapa no es satisfactoria,
los pasos anteriores deben ser reconsiderados.
Notese que un modelo nunca puede ser validado con completa certeza (Smith
et al., 1997) por lo que la fase de validacion consistira esencialmente en una
serie de intentos por invalidar el modelo.
1.2.
modelo y la informacion disponible (no tiene sentido concebir un modelo muy complejo con muchos parametros si los datos experimentales disponibles son escasos e
imprecisos).
Entre las distintas clasificaciones que se pueden realizar de los modelos en funcion
de su estructura matematica cabe destacar (Jeppsson, 1996):
Lineales versus no lineales
En esta clasificacion se debe distinguir entre dos tipos de no linealidad: con
respecto a las entradas y con respecto a los parametros. Sea z(t, p, u) la salida a
tiempo t del modelo con parametros p cuando se le ha aplicado la entrada u( ),
0 t desde una condicion inicial cero. Se dice que la estructura del modelo
es lineal en sus entradas si la salida satisface el principio de superposicion con
respecto a sus entradas, es decir, si:
(, ) R2 , t R+ , z (t, p, u1 + u2 ) = z (t, p, u1 ) + z (t, p, u2 ) (1.1)
Por otra parte, se dice que la estructura de un modelo es lineal en sus par
ametros si la salida satisface el principio de superposicion con respecto a sus
parametros, es decir, si:
(, ) R2 , t R+ , z (t, p1 + p2 , u) = z (t, p1 , u) + z (t, p2 , u) (1.2)
Siempre que sea posible se prefieren modelos lineales en sus entradas y en
sus parametros. Las estructuras lineales en sus entradas se benefician de la
existencia de resultados matematicos que facilitan su estudio teorico (p. ej.,
condiciones de estabilidad, control optimo, efecto de las perturbaciones). La
estimacion de parametros de estructuras lineales en sus parametros resulta
sencillo y a menudo es posible emplear formulas explcitas.
Sin embargo, los modelos lineales en sus entradas tienen un reducido dominio
de validez y para la mayora de los procesos reales solo pueden aproximar el
comportamiento del sistema alrededor de un punto de operacion. Con respecto a los modelos lineales en sus parametros, estos a menudo carecen de un
significado concreto.
Tiempo continuo versus tiempo discreto
La mayora de los bioprocesos son dinamicos, es decir, varan con el tiempo y
pueden clasificarse en funcion de la forma en la que consideran esta variable.
Los modelos en tiempo continuo estan basados en formulaciones de la velocidad
de cambio de las variables de estado. De este modo, los valores de las variables
1988). De este modo, por definicion, cualquier sistema de ODEs tiene ndice
cero. As mismo, los sistemas de DAEs de ndice uno se comportan de modo
bastante parecido a los sistemas de ODEs pudiendo ser resueltos utilizando
metodos similares. Sin embargo, el comportamiento de los sistemas de ndice superior es cualitativamente diferente y deben ser tratados con metodos
especficos.
Muchos procesos biologicos estan distribuidos no solo en el tiempo sino tambien en el espacio. Matematicamente, las variables distribuidas en el espacio
pueden describirse mediante ecuaciones diferenciales parciales (PDEs) y los
modelos resultantes son los llamados modelos distribuidos. Muchas veces estas
ecuaciones estan combinadas con ecuaciones diferenciales ordinarias y ecuaciones algebraicas dando lugar a sistemas de PDAEs.
El presente estudio se centra en el estudio de bioprocesos (industria alimentaria y biotecnologica) cuyos modelos suelen tener un caracter dinamico, no lineal y
normalmente estan descritos por sistemas de ecuaciones deterministas en tiempo
continuo. Se han considerado modelos tanto concentrados (descritos por sistemas
de DAEs) como distribuidos (sistemas de PDAEs) en funcion de los requerimientos
particulares de cada proceso. En ning
un caso el ndice de los sistemas diferencialesalgebraicos considerados es mayor que uno por lo que para todos ellos se ha podido
utilizar las tecnicas aplicables a sistemas de ODEs.
Parte II
Metodologa
Captulo 2
Estimaci
on de par
ametros
2.1.
2.1.1.
Caracterizaci
on del modelo
Muchos modelos dinamicos de bioprocesos, junto con los experimentos de entradasalida dise
nados para su identificacion, pueden ser descritos por un sistema de
PDAEs general de la forma:
F (x, x , x , xt , y, y,
z, u, p, t) = 0
(2.1)
12
(2.2)
Condiciones frontera:
- de primer orden o tipo Dirichlet:
x(, t) = F1 (, t)
(2.3)
(2.4)
f1 ()x(, t) + f2 ()xn (, t) = F3 (, t)
(2.5)
- mixtas o de Robin:
2.1.2.
Datos experimentales
13
siendo
(2.7)
2
ijk = ijk
zijk +
(2.8)
14
2.1.3.
Funciones de coste
El valor optimo de p va a depender del modo en que se cuantifique la distancia entre los valores experimentales y los valores predichos por el modelo para las variables
medidas. Entre las funciones de coste que han demostrado funcionar correctamente,
en orden decreciente de cantidad de informacion que debe ser proporcionada por
el usuario, o lo que es lo mismo, en orden creciente del n
umero de asunciones a
priori ya incluidas en el metodo, destacan: el estimador Bayesiano, el estimador de
maxima probabilidad y el estimador por mnimos cuadrados. Para el metodo mas
complejo, estimacion Bayesiana, la distribucion de probabilidad de los parametros
y la distribucion de la probabilidad condicional de las medidas para unos valores
dados de los parametros deben ser parametrizadas, mientras que el metodo mas
simple, estimacion por mnimos cuadrados, puede ser llevado a cabo sin ninguna
informacion extrnseca adicional. La estimacion por mnimos cuadrados es un caso
especial del metodo de maxima probabilidad en el que se asume que los errores de
las medidas no estan correlacionados y que tienen distribucion normal con media
cero y varianza constante (Bates y Watts, 1988; Seber y Wild, 1988).
Estimador Bayesiano
La estimacion Bayesiana considera las medidas y los parametros del modelo
como variables aleatorias. Si se conoce la densidad de probabilidad a priori
p (p) para la ocurrencia del vector de parametros p y la densidad de probabilidad condicional z (
z|p) del modelo para medir los valores
z para unos valores
dados de los parametros p, la densidad de probabilidad de los parametros para
valores dados de las medidas se puede escribir como:
p (p|
z) =
z (
z|p)p (p)
z (
z)
(2.9)
15
maxima probabilidad consiste en maximizar la denominada funcion de probabilidad, Jmp , buscando el valor p
mp que proporciona la maxima probabilidad
de ocurrencia a los datos observados
z:
Jmp (p) = z (
z|p)
(2.10)
"
#
Mij
N Vi N
NE X
2
X
X
(
zijk zijk (p))
1
N
2
ln ijk
+
Jmp (p) = ln (2)
2
2
2
ijk
i=1 j=1 k=1
(2.12)
donde los smbolos de la ecuacion (2.12) tienen las siguientes definiciones:
N:
p:
n
umero total de medidas en todos los experimentos
conjunto de parametros a estimar. Los valores aceptables pueden
estar sujetos a lmites inferiores y superiores, pL p pU
N E:
n
umero de experimentos realizados
N Vi :
n
umero de variables medidas en el experimento i
N Mij : n
umero de medidas de la variable j durante el experimento i
2
ijk :
varianza de la medida k de la variable j en el experimento i
zijk :
medida k de la variable j en el experimento i
zijk :
valor k de la variable j en el experimento i predicho por el modelo
16
(2.13)
(2.15)
Mij
N Vi N
NE X
X
X
wijk (
zijk zijk (p))2
(2.16)
"
#
Mij
N Vi N
NE X
2
X
X
1
(
zijk zijk (p))
Jmp (p) = (termino ind. de p) +
(2.17)
2
2
ijk
i=1 j=1 k=1
(2.18)
(2.19)
2.2.
17
M
etodos de estimaci
on
Una vez llevada a cabo la caracterizacion del modelo dinamico no lineal, el problema de identificacion consiste en buscar el vector de parametros que proporciona
el mejor ajuste del modelo con respecto a un conjunto de datos experimentales dado.
El problema se plantea como la minimizacion de una funcion de coste escalar, J(p),
que mide la bondad de ese ajuste, con respecto a los parametros del modelo, p. Esto
esta sujeto a la dinamica del sistema, que act
ua como un conjunto de restricciones diferenciales de igualdad y, en algunos casos, a otras posibles restricciones algebraicas.
Matematicamente, esta formulacion es la de un problema de optimizacion no lineal
(Nonlinear Optimization Problem, NLO) con restricciones diferenciales-algebraicas
consistente en:
Encontrar el vector de parametros p que minimiza la funcion:
J(p)
(2.20)
y que verifica:
F (y, y,
z, u, p, t) = 0
(2.21)
(2.22)
h (y, z, u, p, t) = 0
(2.23)
g (y, z, u, p, t) 0
(2.24)
p pp
(2.25)
18
2.2.1.
M
etodos de valor inicial
Definicin estructura
del modelo
Integracin de las
ecuaciones del modelo
(IVP)
Datos experimentales
Mnimo
de la funcin
objetivo?
NO
Nuevos valores
para los parmetros
Mejor estimador
para los parmetros
19
2.2.2.
M
etodo multiple shooting
20
z (t)
Valores iniciales
z (t)
8 iteracin
z (t)
34 iteracin: convergencia
Captulo 3
An
alisis de sensibilidad
El analisis de sensibilidad consiste en el estudio de como la variacion en la salida
de un modelo (numerica o de otro tipo) puede ser atribuida, cualitativa o cuantitativamente, a diferentes fuentes de variacion y de como el modelo dado depende de
la informacion que se le proporciona.
Existen varios metodos de analisis de sensibilidad que pueden clasificarse en
metodos de monitorizacion, metodos locales y metodos globales (Saltelly et al, 2000).
Esta distincion es de alg
un modo arbitraria ya que los metodos de monitorizacion
tambien pueden ser vistos como locales o globales. Ademas, la primera clase se
caracteriza con respecto a su uso (monitorizacion), mientras que los otros dos se
caracterizan con respecto a como tratan los factores.
En el contexto de modelizacion numerica, los coeficientes de sensibilidad local,
que son las derivadas parciales de las variables de estado del modelo con respecto
a los parametros evaluadas en el punto normal de operacion, juegan un papel muy
importante en el analisis de probabilidades, estimacion de parametros, optimizacion
y discriminacion de modelos. Los resultados de un analisis de sensibilidad pueden
ser utilizados para (Karnavas et al., 1993) :
- Validar un modelo.
- Advertir de comportamientos del modelo extra
nos o no realistas.
- Sugerir nuevos experimentos o guiar futuros esfuerzos en recoleccion de datos.
- Indicar supuestos importantes del modelo.
- Sugerir la precision con la que los parametros deben ser calculados.
- Guiar la formulacion de la estructura del modelo.
- Ajustar valores numericos para los parametros.
21
22
3.1.
M
etodos num
ericos para el c
alculo de sensibilidades locales
(3.1)
yi
Sij =
(3.2)
pj y=y(t,p),p=p
Hay varios metodos numericos para el calculo de sensibilidades locales pero los
valores calculados deben ser identicos dentro de la precision del metodo empleado.
3.1.1.
Aproximaci
on por diferencias finitas
pj
pj
(3.3)
3.1.2.
M
etodos directos
23
y Kramer, 1985) :
S(t)
=
f (t)
y
S(t) +
p
f (t)
p
; S(0) = S0
(3.4)
o, de forma matricial:
S = J(t)S(t) + F(t)
(3.5)
24
3.1.3.
M
etodo de la funci
on de Green
(3.6)
ci (t)
; K(t1 , t1 ) = I ; t t1
c0j (t1 )
(3.7)
La ecuacion (3.1) consiste en un sistema lineal no homogeneo de ecuaciones diferenciales y, por lo tanto, puede ser resuelto determinando primero la parte homogenea,
ecuacion (3.6), y calculando despues la solucion particular:
Z t2
S(t1 , t2 ) =
K(t2 , s)F(s)ds
(3.8)
t1
Z t+t
J(s)ds
(3.9)
K(t + t, t) = exp
t
El metodo GFM/AIM es varias veces mas rapido que otras versiones del metodo de
la funcion de Green.
Aplicando el metodo directo, el esfuerzo numerico aumenta linealmente con el
n
umero de parametros. En el caso de los metodos de la funcion de Green, el esfuerzo
numerico es proporcional al n
umero de variables. Sin embargo, en la practica, el
metodo GFM solo es mas rapido que el DDM cuando la relacion entre el n
umero
de parametros y el de variables es muy elevada y el error numerico es mas difcil de
controlar en este caso que utilizando el metodo DDM, que es mucho mas simple.
3.2.
25
una breve descripcion de cada una de ellas y sus aplicaciones principales destacando
sus ventajas e inconvenientes.
3.2.1.
Funci
on de sensibilidad absoluta
Sij =
yi
pj
(3.10)
y=y(t,
p),p=
p
3.2.2.
Funci
on de sensibilidad relativa
La sensibilidad relativa de la variable yi con respecto a las variaciones del parametro pj representa el porcentaje de cambio en yi con respecto al cambio en pj :
% cambio en yi
pj
S ij =
=
% cambio en pj
yi
yi
pj
(3.11)
y=y(t,
p),p=
p
26
3.2.3.
Funci
on de sensibilidad semirelativa
yi
pj
(3.12)
y=y(t,
p),p=
p
Sij = pj
yi
pj
(3.13)
y=y(t,
p),p=
p
Mientras que las funciones de sensibilidad semirelativas con respecto a las variables de estado tienen la misma forma que las funciones de sensibilidad relativas
(y por lo tanto los mismos problemas de division por cero y sobrepesado), las funciones de sensibilidad semirelativas con respecto a los parametros tienen la misma
forma que las funciones de sensibilidad absolutas (estan u
nicamente multiplicadas
por los valores constantes de los parametros) pero este reescalado permite hacer
comparaciones de los efectos de los distintos parametros.
Cuando se utilizan funciones de sensibilidad, tanto relativas como semirelativas
con respecto a las variables, se puede definir un valor umbral ymin en el factor
premultiplicador de las ecuaciones (3.11) y (3.12) cuando este es menor que el valor
de ymin . De este modo, se evitan los errores de sobrepesado cuando la trayectoria de
salida tiende a cero (Versyck, 2000) .
3.3.
Ranking de par
ametros
El analisis de sensibilidad indica que parametros son los mas importantes y los
que con mas probabilidad van a afectar las predicciones del modelo. De este modo,
los valores de los parametros crticos pueden ser redefinidos mientras que parametros
que tienen poco efecto pueden ser simplificados o incluso ignorados (Karnavas et al.,
1993) .
Para casos muy simples, el analisis visual de las graficas de las sensibilidades
relativas es suficiente para determinar la importancia relativa de los parametros. Sin
embargo, esto resulta inmanejable cuando el tama
no del problema aumenta y se
necesita una justificacion cuantitativa.
27
jmsqr
jmabs
v
u
Ny N
u 1 1 X
X 2
t
=
S (tk )
Ny N i=1 k=1 ij
(3.14)
Ny N
1 1 XX
|S ij (tk )|
=
Ny N i=1 k=1
(3.15)
Ny N
1 1 XX
=
S ij (tk )
Ny N i=1 k=1
(3.16)
jmean
(3.17)
(3.18)
i,k
i,k
28
relativa (analisis de las componentes principales) y los comparan con la aproximacion de importancia del ajuste. Este analisis muestra que ambos procedimientos
llevan a descartar basicamente los mismos parametros. Sin embargo, el analisis de
componentes principales ofrece la oportunidad de ser utilizado como una rutina autocontrolable mientras que, para el procedimiento de importancia del ajuste, el lmite
superior de los valores de sensibilidades totales para el cual todos los parametros
con un valor inferior pueden ser descartados dependera de cada modelo.
Captulo 4
An
alisis de identificabilidad
El problema de estimacion de parametros tratado en el captulo 2 (determinar
los parametros de un sistema a partir de unos datos de entrada y salida) se denomina
a menudo problema de identificacion. Esto es solamente un aspecto de un problema
mayor, el problema inverso, que incluye el estudio a priori de la identificabilidad
estructural, la identificabilidad a posteriori o practica y la estimacion de parametros.
Una vez elegida una estructura para el modelo (o un conjunto de estructuras
entre las que se debe elegir), sus propiedades deben ser estudiadas lo mas independientemente posible del valor que tomen sus parametros. Este estudio debera
realizarse antes de la estimacion para detectar problemas potenciales antes de recoger datos. En la practica, esto no siempre es posible ya que muchos metodos de
analisis de identificabilidad son locales y requieren conocer el valor de los parametros
procedente de una calibracion previa.
El analisis de identificabilidad estructural es un problema a priori y se formula de la siguiente manera: dado un modelo para el sistema, que se considera sin
errores de caracterizacion, se pregunta si, bajo condiciones ideales de observacion
(medidas ilimitadas y sin ruido) e independientemente de los valores particulares de
los parametros y de las condiciones experimentales, los parametros desconocidos del
modelo postulado pueden ser estimados de forma u
nica.
Aunque necesaria, la identificabilidad estructural no es suficiente para garantizar
una estimacion satisfactoria de los parametros a partir de datos reales y es entonces
cuando el concepto de identificabilidad a posteriori o practica entra en juego. Se sigue
asumiendo que la estructura del modelo es exacta, sin embargo, ahora las condiciones
experimentales son conocidas y los datos son limitados y con ruido y la pregunta
es: pueden los parametros desconocidos del modelo postulado ser determinados a
partir de los datos disponibles?
29
30
4.1.
Identificabilidad estructural
(4.1)
(4.2)
(4.3)
31
32
M
etodo de series de Taylor
La aproximacion por series de Taylor, propuesta originalmente por Pohjanpalo
(1978), se basa en analizar la expansion en series de potencias de las trayectorias de
las medidas z(t), evaluadas a tiempo cero, en funcion del conjunto desconocido de
parametros p:
1
1
zi (p, O+ ) = a0i (p) + a1i (p)t + a2i (p)t2 + ... + ani (p)tn
2
n!
(4.4)
siendo:
dj zi
i = 1, ..., Nz ; j = 0, ...n
(4.5)
dtj
Ya que el vector de medidas es u
nico, todas sus derivadas son tambien u
nicas.
Por lo tanto una condicion suficiente para que el modelo sea s.g.i. sera:
aji (p) =
(4.6)
Cuando no se verifica la condicion suficiente, el problema de demostrar la identificabilidad teorica de los parametros del modelo es equivalente a determinar el
n
umero de soluciones de p para el conjunto de ecuaciones algebraicas (4.5), que
normalmente son no lineales en los parametros. Si este es mayor que uno pero un
n
umero finito, se podra decir que el modelo es s.l.i. y no u
nicamente identificable y,
si el n
umero de soluciones es infinito, se dira que es s.u.i.
4.2.
33
(4.7)
(4.8)
zi
Szij =
(4.9)
pj z=z(t,p),p=p
La matriz G se construye entonces almacenando las matrices de sensibilidades
para estos puntos:
Sz (t1 )
Sz (t2 )
G=
(4.10)
..
.
Sz (tN )
Finalmente la matriz de correlacion de los parametros (Mc ), de dimension Np
por Np , se calcula como:
Mc = correlaci
on(G)
(4.11)
Los parametros que son localmente identificables tienen correlaciones entre 1
y +1 con todos los demas parametros. Los parametros que no son localmente identificables tienen correlaciones de exactamente 1 o +1 con al menos uno de los
otros parametros. Esto significa que estos parametros influyen en las variables medidas de la misma manera o de manera exactamente opuesta. El conjunto original
34
4.3.
Identificabilidad pr
actica o a posteriori
4.3.1.
M
etodo basado en la FIM
N
X
(4.12)
i=1
donde zi y zi (p) son vectores de N valores medidos y predicciones del modelo a los
tiempos ti (i = 1 a N ), respectivamente, y Qi es una matriz cuadrada proporcionada
por el usuario de coeficientes de peso.
35
El valor esperado de la funcion objetivo para un conjunto de parametros ligeramente diferente del optimo viene dado por:
" N
T
#
N
X z
X
z
T
E[J(p + p)] = p
(ti ) Qi
(ti ) p +
tr (Vi Qi ) (4.13)
p
p
i=1
i=1
donde Vi representa la matriz de covarianza del error de las medidas (Qi se elige
tpicamente como Vi 1 ).
Una consecuencia importante de la ecuacion (4.13) es que para optimizar la
identificabilidad practica (maximizar la diferencia entre J(p + p) y J(p)) se tiene
que maximizar el termino entre corchetes []. Este termino se conoce como matriz
de informacion de Fisher (FIM) y expresa la cantidad de informacion de los datos
experimentales (Ljung, 1999):
FIM =
N
X
z
i=1
T
(ti )
Qi
z
(ti )
p
(4.14)
Los terminos z/p son las funciones de sensibilidad que son de gran importancia
para la evaluacion de la identificabilidad practica ya que son el componente principal
de la matriz de informacion de Fisher.
Como se explicara en detalle en el captulo 5, la matriz de informacion de Fisher
es tambien una aproximacion de la inversa de la matriz de covarianza del error del
mejor estimador lineal no sesgado (Best Linear Unbiased Estimator, BLUE):
C = FIM1 =
" N
X z
i=1
T
#1
z
(ti ) Qi
(ti )
p
p
(4.15)
(4.17)
36
1
norm(FIM, 1)norm(FIM1 , 1)
(4.18)
4.3.2.
M
etodo basado en las regiones de confianza
Existen distintas posibilidades para la determinacion de las regiones de confianza para los parametros estimados (ver captulo 5). Las tecnicas basadas en la FIM
presentan las limitaciones inherentes a esta matriz derivadas de su caracter lineal.
Sin embargo, la forma y dimensiones de las regiones de confianza obtenidas mediante metodos de Monte Carlo permitiran obtener conclusiones objetivas sobre la
identificabilidad practica de los parametros del modelo.
Captulo 5
Intervalos de confianza
Despues de ajustar los parametros p a los datos experimentales, es deseable
obtener alguna medida de la calidad de los estimadores. En principio, el objetivo
es obtener la distribucion de probabilidad de los parametros estimados o una caracterizacion adecuada de la misma, por ejemplo, mediante el calculo de diferentes
percentiles de la distribucion. Sin embargo, en la mayora de los casos, esta distribucion no se conoce y por lo tanto es necesario obtener una aproximacion de la
misma.
En este captulo, se introducira, en primer lugar, la definicion basica de las regiones de confianza exactas. A continuacion, se consideran dos metodos de aproximacion: una linealizacion local de las salidas dando lugar a la matriz de informacion
de Fisher (FIM) y una expansion cuadratica del funcional del error de estimacion
implicando a la matriz Hessiana. Por u
ltimo se consideran alternativas mas robustas
basadas en metodos de Monte Carlo.
5.1.
Las regiones de confianza son de gran importancia ya que proporcionan una evaluacion objetiva de la precision de los parametros estimados y de su identificabilidad.
Dado que la funcion objetivo J representa la cercana de los datos experimentales al
modelo ajustado, es justificable basar la region de confianza de p
en los contornos
de J(p). En el espacio parametrico, esta region tiene la forma general:
{p : J(p) cJ(
p)}
(5.1)
para todo c > 1. Esta region puede ser considerada como exacta ya que no esta basada en ninguna aproximacion, aunque es difcil seleccionar un valor de c con significado estadstico. De todos modos, para un n
umero de puntos experimentales N
37
38
Np
1
p : J(p) 1 +
F
J(
p)
(5.2)
N Np Np ,N Np
tiene el nivel de confianza asintotico de 100(1 ) % donde FN1
es el nivel
p ,N Np
crtico superior de la distribucion FNp ,N Np .
La dificultad practica de estimar esta region ha sido examinada por Vanrolleghem
y Keesman (1996) que sugirieron utilizar simulaciones extensivas de Monte Carlo
que se explicaran mas adelante. Mas recientemente, Dochain y Vanrolleghem (2001)
propusieron un metodo de contraccion sucesiva para encontrar el valor de J(p)
correspondiente al valor prescrito de la distribucion F .
5.2.
M
etodo basado en la FIM
La region de confianza puede definirse como una funcion de la matriz de covarianza de los parametros C y puede expresarse como (Seber y Wild, 1989; Ljung,
1999):
n
o
p : (p p
)T C1 (p p
) Np FN1
(5.3)
p ,N Np
Para un modelo lineal z = py + , con ruido residual N (0, 2 Iq ), C puede
obtenerse de forma compacta como:
1
C = 2 YT V1 Y
(5.4)
1
J(
p)
J(
p)T V1 J(
p)
N Np
(5.5)
donde el termino J(
p)/N Np es una aproximacion objetiva de la varianza residual
2 y J es la matrix Jacobiana del modelo que puede escribirse en columna, tal que:
siendo
(5.6)
z
= Sj , j = 1, ..., Np
Jj (
p) =
pj p
(5.7)
39
Las columnas de la matrix Jacobiana J son las salidas de las funciones de sensibilidad
Sj = (z/pj ) con respecto a los parametros.
Asumiendo que el ruido de las medidas no esta correlacionado y que este presenta una distribucion normal con media cero y varianza constante, CJ , dada por
la ecuacion (5.5), es tambien la inversa de la FIM, definida como:
FIM =
T
N
X
z(ti )
i=1
Vi2
z(ti )
p
(5.8)
es decir,
CJ (
p) = FIM1
(5.9)
En este caso, la inversa de la FIM representa la matriz de covarianza del error del
estimador objetivo de varianza mnima de acuerdo con el teorema de Cr`amer-Rao
(Ljung, 1999). Sustituyendo C de la ecuacion (5.5) en la ecuacion (5.3), se obtienen
los elipsoides de confianza aproximados:
n
o
1
1
T
p : (p p
) CJ (p p
) Np FNp ,N Np
(5.10)
5.3.
M
etodo basado en la matriz Hessiana
Para modelos no lineales la funcion objetivo J(p) dada por la ecuacion (4.12) no
es una forma cuadratica exacta pero, para desviaciones de los parametros suficientemente peque
nas (p p
), puede ser aproximada por una expansion de segundo orden
alrededor de los parametros estimados p
. Dado que en la vecindad del mnimo el
termino de primer orden se pierde ((J/p)p 0) la expansion de segundo orden
da lugar a:
2
1
J
T
J(p) J(
p) + (p p
)
(
p) (p p
)
(5.11)
2
ppT
Sustituyendo la ecuacion (5.11) en la ecuacion (5.2), se obtiene un resultado formalmente similar al caso lineal:
CH (
p) =
donde:
2
J(
p)H(
p)1
N Np
2 J(
p)
H(
p) =
ppT
(5.12)
(5.13)
(5.14)
40
i = tN Np
Cii
(5.15)
5.4.
M
etodos de Monte Carlo
La estimacion de parametros utiliza los datos obtenidos de un sistema en un experimento dado. En general, debido a las perturbaciones que act
uan sobre el sistema
y el ruido en las medidas, la repeticion de experimentos identicos no conducira a
los mismos resultados. Por lo tanto, antes de la recogida de datos, el vector
z es
un vector aleatorio cuyo estimador asociado sera p
(
z) y una vez llevados a cabo los
experimentos, lo que se tendra es una realizacion particular de ese vector aleatorio.
Los metodos de Monte Carlo tratan de determinar las caractersticas estadsticas
de la poblacion de estimadores proporcionada por un conjunto de todas las posibles
realizaciones de
z, es decir, de todos los resultados experimentales posibles. Con este
fin, se generan vectores de datos ficticios
zf mediante simulaciones del modelo para
el valor estimado de los parametros, incorporando errores aleatorios para representar
la presencia de perturbaciones y de ruido. Cada vector de datos ficticios dara lugar
a un estimador ficticio p
f = p
(
zf ), calculado como para los datos reales. De este
modo se obtendra un conjunto de estimadores ficticios cuyas propiedades estadsticas
pueden ser estudiadas. Normalmente, p
f se considera un vector aleatorio normal
41
5.4.1.
Jackknife
(5.16)
p
Jk
1 X
=
p
g
G g=1
(5.17)
y matriz de varianza-covarianza:
CJk = (CJkij ) =
1 X
(
pg p
Jk ) (
pg p
Jk )T
G 1 g=1
(5.18)
De este modo, p
Jk es el estimador jackknife de p y CJk /G es un estimador de
D[
pJk ]. Considerando p
g (g = 1, 2, ..., G) independientes e igualmente distribuidos,
se puede construir una region con un nivel de confianza de 100(1 ) % para p
empleando la distribucion T 2 de Hotelling (p. ej. Seber, 1984) de modo que:
Np G 1 1
1
T
(5.19)
Jk )
FNp ,GNp
p : (p p
Jk ) CJk (p p
G Np G
Ademas, para un pi dado, el intervalo de confianza 100(1 ) % puede obtenerse
como:
r
CJkii
1(/2)
(5.20)
pJki tN Np
G
donde pJki es el elemento i de p
Jk .
42
Las propiedades de (5.19) y (5.20) fueron estudiadas por Dunkan (1978) para
N = 24 y distintos valores de h. Aunque tener un h lo mas grande posible es
conveniente desde el punto de vista computacional, su estudio concluye claramente
que las omisiones de uno en uno (h = 1) son mas recomendables, especialmente para
muestras peque
nas. A pesar de su facil implementacion, este metodo resulta menos
flexible y fiable que el metodo bootstrap (Walter y Pronzato, 1997).
5.4.2.
Bootstrap
El metodo bootstrap (ver, por ejemplo, DiCiccio y Romano, 1988; Hinkley, 1988)
utiliza solamente los valores de los datos experimentales
z y el modelo M (
p) asumiendo que los errores son variables aleatorias con identica distribucion pero sin
especificar. Se asume por ejemplo que
z(ti ) = z(ti , p ) + bi , i = 1, ..., N
(5.21)
(5.22)
donde p
es un estimador de p . Un vector
zf de datos ficticios zf se obtiene entonces
como:
zf (ti ) = z(ti , p
) + b, i = 1, ..., N
(5.23)
donde, para cada ti , b se elige aleatoriamente entre los residuos bk (k = 1, ..., N )
considerados como equiprobables. Esto equivale a sustituir la distribucion emprica
de los residuos por la distribucion verdadera de los bi que sera mas aceptable cuanto
mas cerca este p
de p . Repitiendo esta operacion, se obtiene la poblacion de vectores
de datos ficticios, a partir de la cual puede derivarse la poblacion de los parametros.
Las caractersticas de esta poblacion (media p
B , matriz de covarianza CB ) podran
entonces ser estudiadas de manera analoga al metodo jackknife obteniendo, para un
pi dado, el intervalo de confianza 100(1 ) %:
1(/2)
pBi tN Np
donde pBi es el elemento i de p
B.
CBii
(5.24)
Captulo 6
Dise
no
optimo de experimentos
Para llevar a cabo la estimacion de parametros de modo satisfactorio, es imprescindible que los datos experimentales sean de suficiente calidad. La realizacion de
experimentos en bioprocesos, especialmente a nivel industrial, es una actividad muy
costosa en tiempo y dinero. Por estos motivos, se hace necesario el dise
no optimo
de experimentos (OED) cuyo objetivo es encontrar los experimentos dinamicos necesarios para que los parametros estimados a partir de los datos proporcionados por
los mismos sean de la mejor calidad estadstica posible.
Ademas, todos los algoritmos numericos empleados para la estimacion de parametros en modelos no lineales presentan dificultades cuando se encuentran con problemas mal condicionados. Asumiendo que la estructura del modelo es correcta y que
este es estructuralmente identificable, el dise
no de experimentos va a influir en gran
medida para la identificabilidad practica del mismo. El OED ayudara a mejorar la
identificabilidad practica mejorando a su vez el condicionamiento del problema de
estimacion y facilitando as la tarea de los metodos de optimizacion.
Cuando uno se enfrenta a un problema de dise
no optimo de experimentos las
preguntas que se debe plantear son:
- Qu
e medir? Esta pregunta afronta la eleccion de las variables medidas.
- D
onde medir? Aqu se trata el problema de la localizacion de los sensores.
- Cu
ando medir? Consiste en establecer la estrategia de muestreo.
omo manipular? Se trata de definir cuales son las posibles variables ma- C
nipuladas o controles y el tipo de manipulaciones, es decir, la variacion de
los controles a lo largo del experimento. En algunos casos tambien se podran
modificar las condiciones iniciales de ciertas variables.
43
44
Captulo 6. Dise
no optimo de experimentos
Para el dise
no de experimentos informativos, se han desarrollado diferentes estrategias basadas en la definicion del contenido de informacion de un experimento
dado. Por sus caractersticas, la matriz de informacion de Fisher (FIM) es la clave
de muchos de estos procedimientos. Para sistemas lineales y bajo ciertas suposiciones sobre el ruido de las medidas, la inversa de la FIM evaluada en los verdaderos
parametros del proceso p es la matriz de covarianza del mejor estimador lineal no
sesgado (Best Linear Unbiased Estimator, BLUE) (Goodwin y Payne, 1977; Godfrey
y DiStefano III, 1985). Cuando los parametros estimados a partir de un experimento
estan cerca de los parametros verdaderos del proceso p , la matriz de informacion
de Fisher evaluada en esos estimadores puede verse como una aproximacion de la
FIM evaluada en los parametros verdaderos del proceso p . De este modo, su inversa proporciona una aproximacion de la mejor covarianza del error que se puede
conseguir.
Para modelos no lineales en los parametros, la aplicacion de esta metodologa
implica la suposicion de que las salidas pueden ser aproximadas por una expansion
en series de Taylor de primer orden en la vecindad de los parametros verdaderos
de proceso p . En la practica, los parametros verdaderos se desconocen por lo que,
durante el dise
no de experimentos, debe utilizarse un conjunto de parametros, llamado conjunto de parametros nominales p0 que generalmente no coincide con los
parametros verdaderos del proceso p . Normalmente, estos parametros nominales
p0 se obtienen a partir de experimentos preliminares o de datos bibliograficos. De
este modo, el problema de OED se establece como la optimizacion de una funcion
escalar de la FIM evaluada en los parametros nominales p0 . Dado que estos normalmente no coinciden con los parametros verdaderos, se debe realizar un esquema
iterativo de dise
no para obtener los verdaderos experimentos optimos con respecto al
vector de parametros verdadero p . En cada ciclo iterativo, los valores de los parametros estimados a partir del experimento precedente son utilizados como conjunto de
parametros nominales para el dise
no optimo de experimentos.
6.1.
Criterios de dise
no
optimo
Con objeto de comparar la eficacia de un experimento con respecto a la identificabilidad de los parametros y a la precision esperada de la estimacion a partir de
los datos recogidos, se han sugerido como medida varias funciones escalares de la
matriz de informacion de Fisher. Estos funcionales tambien se utilizan como ndices
de eficacia para el dise
no optimo de experimentos. En la bibliografa se pueden encontrar varios de estos criterios de dise
no optimo (Vanrolleghem y Dochain, 1998)
45
Criterio A
Criterio E
p2
Criterio D
p1
46
Captulo 6. Dise
no optimo de experimentos
47
6.2.
Formulaci
on del OED como un problema de
optimizaci
on din
amica
El problema de dise
no optimo de experimentos puede ser formulado como un
problema de optimizacion dinamica, tambien llamado de control optimo en lazo
abierto, como sigue:
Encontrar los factores externos variables con el tiempo o variables de control
(temperatura, pH, concentraciones, etc.), u(t), as como los tiempos de muestreo, la
duracion del experimento y las condiciones iniciales, v, que minimizan (o maximizan)
una funcion escalar de la matriz de informacion de Fisher:
JOED = (FIM)
(6.1)
sujeto a:
la dinamica del sistema:
F (y, y,
z, u, v, p, t) = 0
(6.2)
(6.3)
h (y, z, u, v, p, t) = 0
(6.4)
g (y, z, u, v, p, t) 0
(6.5)
48
Captulo 6. Dise
no optimo de experimentos
(6.6)
vL v vU
(6.7)
Los metodos existentes en la actualidad para la resolucion de problemas de optimizacion dinamica pueden clasificarse en tres grandes grupos:
etodos de programaci
on din
amica desarrollados inicialmente para pro1. M
blemas discretos y que estan basados en las condiciones de optimalidad de
Bellman (1957). Luus (1990) propone el metodo denominado programacion
dinamica iterativa (Iterative Dynamic Programming, IDP) que se basa en aplicar el principio de Bellman de manera iterativa.
etodos indirectos que emplean las condiciones del principio mnimo de
2. M
Pontryagin (1962) dando lugar a un problema de condiciones iniciales para
los estados y finales para las variables adjuntas (Two Point Boundary Value
Problem, TPBVP) (Bryson y Ho, 1975).
3. M
etodos directos, donde el problema original se transforma en un problema de optimizacion no lineal (NLO) utilizando o bien la parametrizacion de
control (Control Vector Parametrization, CVP) (Vassiliadis, 1993) o bien la
parametrizacion total (Complete Parametrization, CP), donde se parametrizan tanto las variables de control como las variables de estado (Polak, 1971;
Biegler, 1984).
Las tecnicas mas utilizadas en la actualidad para la resolucion de problemas de
optimizacion dinamica estan basadas en metodos directos (ver revisiones por BalsaCanto, 2001 y Banga et al., 2005). De las distintas alternativas, en este trabajo se
ha elegido la parametrizacion de control (CVP) ya que permite el dise
no de varios
experimentos simultaneos con varias entradas para el caso general de modelos de
dimension elevada sin resolver NLO excesivamente grandes (Banga et al, 2002).
6.3.
M
etodo de parametrizaci
on de control
u(t) = (t, w)
49
(6.8)
Captulo 7
M
etodos de optimizaci
on
Optimizar es encontrar, de forma eficiente, la mejor solucion del conjunto de
todas las posibles. Tanto en el caso de estimacion de parametros como en el de
dise
no optimo de experimentos, lo que se pretende es encontrar el valor de un vector
de variables de decision que proporciona el mnimo valor posible de una funcion
objetivo J. En el caso de la estimacion de parametros, las variables de decision
son los parametros del modelo que se debe calibrar. Para resolver ambos problemas
se empleara un esquema de un problema de optimizacion no lineal que requiere
la resolucion de un problema de valor inicial para cada evaluacion de la funcion
objetivo. Como se explica en la seccion 2.2.1, los metodos de optimizacion numerica
generan nuevos valores para las variables de decision en cada iteracion de modo que
estos disminuyan el valor de la funcion objetivo. La generacion de nuevos valores se
realiza habitualmente de acuerdo con:
pi+1 = pi + di
(7.1)
tal que J(
p) < J(p) para todos los valores de p cercanos a p
. En el caso de los meto51
52
53
el uso de estrategias de optimizacion que proporcionen mas garantas de convergencia a la solucion global. Las Figuras 7.1 y 7.2 representan el comportamiento de
los metodos de optimizacion local y global respectivamente para la resolucion de
problemas no convexos.
En las siguientes secciones se hara una revision de los metodos de optimizacion mas utilizados en la actualidad, tanto locales como globales y se justificara la
eleccion de algoritmos estocasticos e hbridos para la resolucion de los problemas
considerados.
7.1.
M
etodos locales
7.1.1.
M
etodos para problemas sin restricciones
54
primer orden y aquellos que requieren las derivadas de primer y segundo orden
se llaman metodos de segundo orden. El primer metodo de este grupo, propuesto por Cauchy en el siglo XIX, es el metodo del gradiente clasico que utiliza
el negativo del gradiente como direccion de b
usqueda para la minimizacion.
En este metodo la direccion de b
usqueda puede interpretarse como ortogonal a una aproximacion lineal tangente a la funcion objetivo en ese punto. Los
metodos de segundo orden tienen tambien en cuenta la curvatura de la funcion
para lo que debera considerarse la matriz Hessiana de la misma. Entre estos
metodos destacan el metodo de Newton y los populares metodos quasi-Newton
que tratan de aproximar la direccion de Newton asintoticamente.
Estas tecnicas han sido originalmente desarrolladas para resolver problemas sin
restricciones pero se adaptan facilmente a la resolucion de problemas con restricciones mediante el uso de funciones de penalizacion (Balsa-Canto, 2001).
7.1.2.
M
etodos para problemas con restricciones
55
el problema original se convierte en una sucesion de problemas cuadraticos con restricciones lineales. Estos metodos se basan en la aplicacion del metodo de Newton
a las condiciones necesarias de optimalidad Karush-Kunh-Tucker y resuelven una
secuencia de problemas cuadraticos, en los que en cada iteracion se requiere la resolucion de un sistema de ecuaciones generalmente grande. Aunque estos metodos han
demostrado una gran eficiencia para la resolucion de problemas con funcion objetivo
y restricciones suaves, esto puede resultar muy costoso por lo que se han dedicado
muchos esfuerzos al desarrollo de estrategias eficientes.
7.1.3.
M
etodos locales empleados
Con objeto de ilustrar las ventajas de los metodos de optimizacion global y como segunda etapa de los metodos hbridos, en este trabajo tambien se han utilizado
metodos locales estandar. En ocasiones se han empleado en un esquema multiarranque (multi-start), generando soluciones aleatorias entre los lmites de los parametros
y comenzando el algoritmo local en esos puntos. Los metodos considerados son los
siguientes:
clsSolve: este algoritmo forma parte del entorno de optimizacion Tomlab (Holmstrom, 2004) y resuelve problemas de estimacion de parametros no lineales,
dispersos o densos, manejando explcitamente igualdades y desigualdades lineales y lmites simples en las variables.
fmincon: metodo local basado en gradiente implementado como parte de la librera
R
de optimizacion de Matlab (Maltab Optimization Toolbox
, The MathWorks
Inc.). Este metodo encuentra el mnimo local de una funcion multivariable con
restricciones por medio de un algoritmo de programacion cuadratica secuencial,
SQP. El metodo utiliza gradientes numericos o analticos si estan disponibles.
n2fb/dn2fb: este algoritmo fue especialmente dise
nado para problemas de estimacion de parametros por Denis et al., (1981). Esta basado en la combinacion
de un algoritmo Gauss-Newton y uno quasi-Newton y soporta lmites superiores e inferiores para las variables de manera independiente. Una parte del
Hessiano se calcula directamente y otra se aproxima mediante un metodo de
actualizacion quasi-Newton. En ciertas situaciones el algoritmo se reduce a un
algoritmo Gauss-Newton o Levenberg-Marquardt. El metodo es estabilizado
mediante una tecnica de regiones de confianza junto con una eleccion adaptativa del modelo del Hessiano para alcanzar la convergencia. El algoritmo dn2fb
es la version en doble precision de n2fb.
56
7.2.
M
etodos globales
7.2.1.
M
etodos deterministas
Los metodos de optimizacion global deterministas pueden garantizar la optimalidad global bajo unas condiciones determinadas y para ciertos problemas. Sin
embargo, ninguno de estos algoritmos puede garantizar la resolucion de problemas
generales NLOs con certeza en un tiempo finito (Guus et al., 1995). De hecho, el
esfuerzo computacional asociado crece muy rapido (a menudo exponencialmente)
con el tama
no del problema.
57
7.2.2.
M
etodos estoc
asticos
58
M
etodos de b
usqueda aleatoria y m
etodos estoc
asticos adaptativos:
tienen sus orgenes en investigaciones realizadas a lo largo de los a
nos cincuenta y sesenta (Brooks, 1958; Matyas, 1965; Rastrigin y Rubinstein, 1969).
Basandose en estas investigaciones, en la u
ltima decada se han desarrollado
metodos mas refinados y eficientes (p. ej. Zabinsky y Smith, 1992; Banga y
Seider, 1996; Torn et al., 1999).
M
etodos de agrupamiento: (clustering) derivan de los conceptos basicos de
los metodos multi-start, es decir, metodos locales que comienzan en distintos
puntos iniciales. Los metodos de agrupamiento son mas eficientes y robustos
que los multi-start ya que tratan de identificar la vecindad de los optimo locales,
e incrementan su eficiencia evitando la determinacion repetida de las mismas
soluciones locales (Torn, 1973; Rinnooy-Kan y Timmer, 1987).
Computaci
on evolutiva: la mayora de estos algoritmos fueron creados siguiendo ideas de la evolucion biologica pero en la practica pueden ser considerados como metodos adaptativos estocasticos basados en poblaciones. Al
menos tres clases fueron desarrolladas independientemente a finales de los a
nos
sesenta y principios de los setenta: algoritmos geneticos (Genetic Algorithms,
GAs) (Holland, 1975; Goldberg, 1989), programacion evolutiva (Evolutionary
Programming, EP) (Fogel et al., 1966) y estrategias evolutivas (Evolution Strategies, ES) (Schwefel, 1995; Beyer, 1996; Beyer y Schwefel, 2002).
Templado simulado: (Simulated Annealing, SA) este metodo y sus variantes
fueron desarrollados originariamente para problemas combinatorios. Su base
esta en la simulacion de un cierto fenomeno natural que tiene lugar a nivel
atomico, relativo al enfriamiento de metales (Kirkpatrick et al., 1983; Laarhoven y Aarts, 1987).
Otros m
etodos inspirados en la biologa y metaheursticas: en los u
ltimos a
nos se han presentado un gran n
umero de las denominadas metaheursticas, la mayor parte de ellas basadas en fenomenos biologicos o fsicos, desarrolladas en primera instancia para problemas combinatorios. Algunos ejemplos
son el metodo de la colonia de hormigas (Ant Colony Optimization, ACO) (Dorigo et al., 1996; Bonabeau et al., 2000), el metodo del enjambre de partculas
(Particle Swarm Method) (Bonabeau et al., 1999) y el metodo de b
usqueda
tab
u (Tabu Search, TS) desarrollado por Glover y Laguna (1997) basandose
en conceptos del campo de la Inteligencia Artificial. En este grupo se debe
tambien destacar el metodo de b
usqueda dispersa (Scatter Search, SS) introducido por Glover (1977) como una heurstica para programacion entera. A
59
60
7.2.3.
M
etodos hbridos
La idea clave de los metodos hbridos esta en el concepto de sinergia, esto es,
union de varios elementos cuyo resultado aprovecha y maximiza las cualidades de
cada uno de ellos. Las metodologas hbridas han recibido un interes creciente en
los u
ltimos a
nos y se han propuesto una gran variedad de aproximaciones (ver Talbi
(2002) con referencias a casi 100 algoritmos hbridos diferentes). Las combinaciones
de algoritmos como templado simulado (SA), algoritmos evolutivos y otras metaheursticas han proporcionado metodos de b
usqueda eficientes y robustos dando
lugar a que los mejores resultados para muchas aplicaciones practicas fueran obtenidos mediante hbridos. Sin embargo, la hibridacion de algoritmos es una tarea
delicada en donde la eleccion de los metodos a combinar y el modo de estructurar
dicha combinacion juegan un papel clave.
Una primera clasificacion de los metodos hbridos puede hacerse seg
un el tipo de
hibridacion, secuencial o paralela (Preux y Talbi, 1999):
Hibridaci
on secuencial
La hibridacion secuencial es aquella en la que dos o mas algoritmos son aplicados
uno despues de otro, utilizando cada uno de ellos el resultado del anterior como
punto inicial. Numerosos autores han utilizado la idea de hibridacion secuencial
dando lugar a muchos esquemas diferentes: varios metodos estocasticos combinados
entre si, un algoritmo voraz para generar una buena poblacion para un algoritmo
evolutivo, un metodo estocastico con uno determinista local, etc.
61
62
7.3.
Desarrollo de un m
etodo hbrido secuencial
En una contribucion reciente (Moles et al., 2003b), se consideraron varios metodos de optimizacion global, tanto deterministas como estocasticos, para resolver un
problema de estimacion de parametros relativamente complejo, asociado a una ruta
bioqumica. Solo un cierto tipo de algoritmos estocasticos, las estrategias evolutivas
(ES), fue capaz de resolverlo satisfactoriamente. El mejor resultado fue obtenido con
el metodo SRES, aunque con un elevado tiempo de calculo.
Los algoritmos evolutivos simulan mas o menos un proceso natural. Una propiedad basica de estos procesos evolutivos es que la poblacion que act
ua en ellos se
vuelve cada vez mas uniforme, por lo que, empezando con una poblacion aleatoria,
todos sus individuos se vuelven muy parecidos despues de un cierto periodo de tiempo. La uniformizacion de los genotipos esta relacionada con la estabilizacion de la
aptitud media de la poblacion. Si se observa la evolucion a lo largo del tiempo de
la aptitud media de la poblacion de los algoritmos evolutivos, se ve claramente que
esta tiende a converger y que la estabilizacion es bastante rapida. De este modo, estos metodos seran relativamente rapidos en encontrar la vecindad del optimo global
pero se haran especialmente lentos en la u
ltima fase de la b
usqueda si se requiere
una solucion refinada.
Por otra parte, se ha demostrado que ciertos metodos locales deterministas, como
los presentados en la seccion 7.1.3, convergen muy rapido si son inicializados desde
un punto que se encuentre dentro de la zona de atraccion de la solucion global.
En el presente estudio se ha utilizado el metodo hbrido secuencial en dos fases
presentado en Rodriguez-Fernandez et al. (2006) para problemas de estimacion de
parametros. En la primera fase de este metodo hbrido se utiliza un metodo global
estocastico, SRES. El metodo estocastico se interrumpe cuando se satisface un criterio de parada relativamente amplio. A pesar de que este criterio no asegura una
solucion final apropiada, se elige lo suficientemente ajustado para asegurar que se
ha encontrado un punto en la vecindad de la solucion global. La segunda fase se
inicializa desde este punto y se lleva a cabo por tecnicas rapidas de estimacion de
parametros basadas en el gradiente. En este trabajo, se ha utilizado el metodo n2fb
63
7.3.1.
Ajuste del m
etodo hbrido secuencial
Una vez que el metodo global y el local han sido seleccionados, se debe tratar la
cuestion de como estructurar su combinacion. Aqu se ha elegido una aproximacion
hbrida secuencial de dos fases por lo que el asunto clave sera decidir la cantidad
de b
usqueda a realizar por cada metodo, es decir, el ajuste del hbrido. En nuestra propuesta, el usuario debe especificar previamente el criterio de parada para el
metodo estocastico y para el determinista local, SC1 y SC2 . El valor asignado a SC1
establece el punto de cambio entre la b
usqueda global y la local, y en cierto modo
controla la robustez del hbrido, es decir, la probabilidad de convergencia a la vecindad de la solucion global. Por lo tanto, este debe elegirse de modo que se asegure
que el metodo estocastico va a llegar a un punto dentro del radio de convergencia
del metodo determinista al optimo global. Por otra parte, el valor elegido para SC2
sera crucial a la hora de minimizar el tiempo de computacion final asegurando a su
vez una solucion muy cercana a la verdaderamente global. De este modo, uno debe
encontrar el mejor ajuste, es decir, un compromiso entre robustez y eficiencia.
Debe destacarse, que la eleccion de unos criterios SC1 y SC2 adecuados es dependiente del problema, por lo que, en general, el ajuste del metodo hbrido debe
realizarse para cada clase especfica de problemas. En otras palabras, y como ocurre
con todos los metodos estocasticos en general, no hay ning
un procedimiento analtico a priori para derivar, en base a las caractersticas estructurales del problema,
rangos aconsejables para los criterios de parada. Esta dependencia es especialmente
relevante en problemas con restricciones dinamicas no lineales como los considerados
en el presente trabajo. Sin embargo, esta ampliamente aceptado que los metodos estocasticos, o sus hbridos, pueden ser ajustados en base a resultados empricos para
clases especficas. De hecho, esta aproximacion ha dado lugar a los mejores metodos
que se conocen para muchas clases de problemas (Michalewicz y Fogel, 2000).
Basandose en la experiencia, se ha ideado una heurstica simple para ajustar el
punto de cambio (eleccion de SC1 ) del metodo hbrido. Comenzando con las curvas
de convergencia (historiales de la funcion objetivo y de los vectores de decision frente al tiempo de CPU) obtenidos con algunas optimizaciones del metodo estocastico
puro, se selecciona un n
umero de posibles puntos de cambio, en la mayora de los
casos igualmente distribuidos en la escala lineal de tiempos de CPU. El metodo de
optimizacion local se inicia desde estos puntos, y se registran las curvas de convergencia. En general, se va a obtener un cierto n
umero de puntos de cambio que
convergen a soluciones locales (normalmente los que corresponden a tiempos mas
64
7.4.
M
etodo hbrido paralelo sincr
onico
65
66
Llamada
mtodo
local?
Pasa
filtros?
NO
Regeneracin
RefSet
Actualizacin
RefSet
NO
Clculo
resultados
mtodo local
Elementos no
combinados?
NO
NO
Satisfaccin
criterio de
parada?
S
Resultados
para mejorar las soluciones, tanto del conjunto de referencia como las combinadas antes de estudiar su inclusion en el conjunto de referencia.
III. M
etodo de actualizaci
on del conjunto de referencia: las soluciones del
conjunto de referencia RefSet estan ordenadas de mejor a peor con respecto
a su calidad, de modo que el acceso de otras partes del metodo sea eficiente.
Las soluciones entran a formar parte de este conjunto en funcion de criterios
de calidad y diversidad.
IV. M
etodo de generaci
on de subconjuntos: metodo para generar subconjuntos del RefSet a los que se aplicara el metodo de combinacion. Scatter Search
se basa en examinar de forma bastante exhaustiva todas las combinaciones del
RefSet y este metodo especifica la forma en que se seleccionan los subconjuntos
para aplicarles el metodo de combinacion.
67
V. M
etodo de combinaci
on de soluciones: metodo de combinacion para
transformar un subconjunto dado de soluciones producidas por el Metodo de
generaci
on de subconjuntos en uno o mas vectores combinados.
Las diferencias entre las distintas implementaciones de Scatter Search se basan en
el nivel de sofisticacion con el que estan implementados los pasos, no en la presencia
o ausencia de otros pasos. En nuestra implementacion, llamada SSm (Scatter Search
para Matlab), se han a
nadido algunas caractersticas avanzadas:
El usuario puede elegir una distribucion logartmica para la generacion de soluciones iniciales con objeto de favorecer su presencia cerca de los lmites en
terminos de distancia eucldea, ya que en problemas de estimacion de parametros es bastante usual que el optimo global se encuentre cerca de los lmites
inferiores.
Se han a
nadido mecanismos para evitar zonas planas (tambien frecuentes en
problemas de estimacion de parametros) as como otros para no quedar atrapado en soluciones locales peque
nas.
Un nuevo metodo de combinacion permite explorar con mayor profundidad el
espacio de b
usqueda.
Cuando ya se han hecho todas las combinaciones entre las soluciones del RefSet, el algoritmo puede parar o continuar mediante la reconstruccion parcial
del conjunto de soluciones de elite. Se ha implementado una nueva estrategia
para reconstruir este conjunto, basada en direcciones de b
usqueda ortogonales.
El usuario puede elegir entre un amplio n
umero de metodos locales SQP como
fmincon (The MathWorks Inc.), solnp (Ye, 1987), npsol (Gill et al, 1998),
snopt (Gill et al, 2002), metodos directos como NOMADm (Abramson, 2002)
para casos con datos con mucho ruido, y otros especficamente dise
nados para
problemas de estimacion de parametros como n2fb/dn2fb de Dennis et al.
(1981).
Captulo 8
GOSBio: entorno para modelado e
identificaci
on
El desarrollo de modelos matematicos puede ser considerado como un ciclo y
debe comprender una serie de pasos. La omision de alguna de estas etapas puede dar lugar a modelos erroneos o de baja capacidad predictiva. Por este motivo,
en el presente estudio se ha acoplado el uso de metodos de optimizacion global
para la estimacion de parametros y el dise
no optimo de experimentos con otros
procedimientos computacionales para analizar la identificabilidad y otras medidas
asociadas. Todas estas tareas fueron implementadas en Matlab (The Mathworks
Inc.) creando pasarelas adecuadas para llamar a codigos Fortran externos cuando
resulto necesario. Estos codigos Fortran fueron implementados como libreras de enlace dinamicas (dynamic link libraries, .dll) dando lugar a un entorno integrado,
denominado GOSBio (Global Optimization for Systems Biology), capaz de llevar a
cabo la estimacion robusta de parametros, el analisis de identificabilidad y el dise
no optimo de experimentos dinamicos (Rodriguez-Fernandez y Balsa-Canto, 2006;
Balsa-Canto y Rodriguez-Fernandez, 2006).
Para utilizar estas herramientas, el usuario tiene que especificar el modelo y
otros datos (por ejemplo, los valores iniciales de los estados, los tiempos a los que
se efect
uan las medidas o las variables manipulables en el OED) en un fichero de
entrada.
GOSBio llevara a cabo entonces la estimacion de parametros y/o el dise
no optimo
de experimentos evaluando a su vez la identificabilidad y otras medidas del modo
que se detalla a continuacion.
Los resultados, ademas de presentarse por pantalla en tiempo real, se guardan
en un fichero de datos de salida y en una serie de ficheros graficos.
69
70
8.1.
Descripci
on de la metodologa
Las principales etapas del entorno GOSBio pueden esquematizarse del siguiente
modo (ver Figura 8.1):
Modificar modelo
Modelo
propuesto
Diseo
experimentos
Modelo
adecuado
Clculo
sensibilidades
Modelo no
adecuado
Rnking
parmetros
NO
NO
Anlisis identificabilidad
terica
Validacin del
modelo
NO
Clculo intervalos
de confianza
Obtencin datos
experimentales
S
Anlisis identificabilidad
prctica
Estimacin
parmetros
Cmputo
FIM
Paso 1: Calculo de las sensibilidades parametricas (derivadas parciales de los estados con respecto a los parametros) para un valor dado del conjunto de parametros. En el caso de problemas sinteticos (aquellos en los que los datos son
pseudo-experimentales calculados mediante simulacion) las sensibilidades se
calcularan para los valores nominales. Sin embargo, en el caso de datos reales,
cuando este paso se realiza previo a cualquier estimacion de parametros, se
emplearan los valores de los parametros disponibles en la bibliografa u otras
fuentes. De no disponer de ninguna informacion previa sobre el valor de los
parametros, se considerara el punto medio entre los lmites definidos para la
estimacion.
Paso 2: Computo de las sensibilidades relativas a partir de las sensibilidades absolutas obtenidas en el paso anterior y del valor de los estados obtenido mediante
simulacion. Empleando las sensibilidades relativas se procede al calculo del valor de los cinco criterios msqr , mabs , mean , max y min explicados en la seccion
3.3 y a la clasificacion de los parametros en orden decreciente de msqr dando
lugar a un ranking de importancia.
71
72
8.2.
Fichero de entrada
8.2.1.
Modelo matem
atico
73
8.2.2.
Datos de entrada
74
75
8.3.
Ficheros de salida
8.3.1.
Datos
El programa GOSBio genera un fichero de texto con los datos mas relevantes y
una estructura de datos de Matlab (.mat) con todas las entradas proporcionadas
por el usuario y todos los resultados obtenidos. Estos dos archivos se guardan en la
carpeta results.folder.
8.3.2.
Figuras
76
Parte III
Aplicaciones
Captulo 9
Secado de alimentos
9.1.
Introducci
on
La creciente demanda de los consumidores con respecto a la calidad de los alimentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de metodos de computacion basados en modelos para la simulacion, la optimizacion
y el control de tecnicas para su procesamiento (Datta, 1998; Banga et al., 2003).
El modelado de secado por aire de alimentos ha recibido una gran atencion
durante las u
ltimas decadas ya que es uno de los metodos de preservacion mas
importantes. Los primeros modelos matematicos simples de este proceso aparecieron
a finales de los a
nos 70. El desarrollo de nuevas tecnicas numericas y el incremento
de las capacidades computacionales han permitido el aumento de la complejidad
de modelos posteriores. Muchos autores han revisado los distintos avances, ver p.ej.
Bruin y Luyben (1980), Jayaraman y Das Gupta (1992) o Waananen et al. (1993) o,
mas recientemente, Ruiz-Lopez et al. (2004) en el contexto de modelado de procesos
y Banga y Singh (1994) y los trabajos all citados, en el contexto de optimizacion.
La combinacion de las leyes fsicas de transferencia de masa y de energa con las
propiedades fsicas del producto alimentario, permiten la prediccion de la variacion
a lo largo del tiempo de las variables de estado relevantes (contenido de humedad y
temperatura), sujetas a diferentes condiciones de secado. Aunque los modelos mas
simples asumen que la contraccion del alimento durante el proceso es despreciable y
que las propiedades de transporte son constantes, se ha ilustrado experimentalmente
que estas suposiciones no son realistas (Balaban, 1989; Park, 1998; Simal et al., 1998)
y que, por lo tanto, cualquier modelo riguroso debera considerar estos efectos (ver
una revison mas extensa en Mayor y Sereno (2004)).
En la bibliografa se han propuesto muchos modelos (la mayora empricos) para
diferentes tipos de alimentos. La mayor parte de ellos son muy no lineales, frecuen79
80
9.2.
81
Modelo matem
atico
corriente de aire
Tdb
Ts , m
L3 = 0.2 cm
L2 = 3.5 cm
L1 = 3.4 cm
Figura 9.1: Secado por aire de una lamina de celulosa
9.2.1.
Transferencia de masa
(9.1)
Debido al peque
no grosor de la lamina en comparacion con las otras dimensiones,
esta puede ser considerada como un sistema semi-infinito en donde el contenido de
humedad depende solo de la posicion con respecto a la dimension menor. Ademas,
con objeto de tener en cuenta el efecto de la contraccion, se asume que la difusividad
D es una funcion no lineal de ambos, el contenido de humedad y la temperatura,
por lo que la ecuacion (9.1) resulta:
dm
=D
dt
2m
x2
D
+
m
m
x
2
(9.2)
82
ED 1
1
D = Dref exp
(9.3)
R Ts Tref
donde Dref y ED son funciones del contenido de humedad:
b1 + b2 m
Dref = exp
1 + b3 m
b4 + b5 m
ED =
1 + b6 m
(9.4)
(9.5)
1
=
L
ms =
9.2.2.
m(x)dx
(9.6)
0 L1 L2 L3
mavg,0 + 1
(9.7)
Transferencia de energa
dmavg
dt
(9.8)
(9.9)
(9.10)
A0 = 2 (L1 L2 + L1 L3 + L2 L3 )
(9.11)
donde:
El problema tpico de calibracion consistira en calcular los parametros relacionados con la contraccion y la transferencia de energa, en nuestro caso bi y pi , basandose
en medidas experimentales del contenido medio de humedad de la lamina mavg y
83
de su temperatura Ts a lo largo del tiempo para un conjunto de condiciones experimentales dadas. El resto de los parametros estan disponibles en manuales estandar
(p.ej. aquellos para la vaporizacion de agua).
En un estudio preliminar (Rodriguez-Fernandez et al., 2004), este problema fue
resuelto utilizando metodos de optimizacion global obteniendo varias soluciones (diferentes valores para los parametros), todas ellas capaces de ajustar adecuadamente
los datos experimentales. El hecho de que estas soluciones sean equivalentes y obtenidas utilizando tecnicas de optimizacion global permite concluir que no son el
resultado de la convergencia a soluciones locales sino un claro signo de la falta de
identificabilidad del modelo.
9.3.
An
alisis de identificabilidad estructural
m
1 = 0
m
avg
Ts
Di+1 Di1
mi+1 mi1
mi1 2mi + mi+1
+
2dx
2dx
2dx
mnx1 mnx
= Dnx
dx
nx
1X
=
m
i
L i=1
1
=
(A0 (p1 mavg + p2 ) (Tdb Ts )
ms Cps + ms Cpw mavg
+ms (1 2 Ts ) m
avg )
m
i = Di
m
nx
(9.12)
(9.13)
(9.14)
(9.15)
(9.16)
84
a01 = mavg,0
a02 = Ts,0
1
1
a11 = dxDm,0 m0 + dx2 (Dm,0 Dm1 ,0 ) m0
2
4
w,0 a11
A0 (a01 p1 + p2 ) (Tdb,0 a02 )
a12 =
+
Cps + Cpw a01
(Cps + Cpw a01 ) ms
2
m0 (b2 + b3 log (Dref,0 ))
dx m0 a12 (ED,0 b4 Dm1 ,0 ) Dm,0 dx
a11 1
a21 =
2
4Ra02
2
1 + b3 m0
m0 ED,0 a12
m0 (b5 + b6 ED,0 ) (log (Dref,0 ) log (Dm,0 ))
+
+
ED,0 (1 + b6 m0 )
Ra202
85
18
6.755
16
6.75
14
6.745
b3
b6
12
10
6.74
6.735
6.73
4
6.725
6.4
6.5
6.6
6.7
6.8
6.9
b3
7.1
los parametros b3 y b6
los parametros p1 y b3
iii. Las condiciones suficientes (ecuacion 4.6) aplicadas a a22 revelan que algunos
conjuntos de cuatro parametros son s.l.i. A modo ilustrativo, aqu se considero el caso pk = [b1 b4 p1 p2 ]T .
h
i
De la ecuacion a22 ([b1 b4 p1 p2 ]) = a22 b1b4 p1 p2 se concluye que:
p1 = p1
(9.17)
a01 p1 + p2 = a01 p1 + p2
1
1
1
1
b1 + b4
+
+
= b1 + b4
RTs,0 RTref
RTs,0 RTref
b1
b4
1
1
b1
+
+
=
1 + b3 m0 1 + b6 m0 RTs,0 RTref
1 + b3 m0
b4
1
1
+
+
1 + b6 m0
RTs,0 RTref
(9.18)
(9.19)
(9.20)
86
100.25
0.01874
100.2
100.15
0.01872
100.1
0.01871
100.05
b4
p2
0.01873
0.01870
100
99.95
0.01869
0.01868
99.9
0.01867
99.85
99.8
0.01866
8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75
4
p1
x 10
99.75
34.12 34.14 34.16 34.18
34.2
b1
los parametros p1 y p2
los parametros b1 y b4
9.4.
Ranking de par
ametros
2
1
0
1
2
3
4
b3
b2
b1
b6
p2
Parmetros
b4
b5
p1
87
Par
ametro
Valor nominal
msqr
mabs
mean
max
min
b3
b2
b1
b6
p2
b4
b5
p1
6.74e+0
1.38e+2
3.42e+1
1.00e+2
1.87e-2
1.00e+2
2.00e+2
8.73e-4
8.52e-1
7.30e-1
4.31e-1
4.34e-2
3.97e-2
3.49e-2
2.29e-2
1.29e-3
1.42e+0
1.23e+0
6.73e-1
5.60e-2
7.76e-2
4.21e-2
3.05e-2
2.36e-3
-1.37e+0
1.17e+0
6.70e-1
5.42e-2
5.92e-3
-4.13e-2
-2.91e-2
1.62e-4
1.26e-1
2.73e+0
1.91e+0
1.73e-1
2.15e-1
1.14e-2
1.54e-2
8.62e-3
-3.24e+0
-1.20e-1
-9.28e-3
-2.34e-2
-9.14e-2
-1.48e-1
-8.70e-2
-2.92e-3
9.5.
Estimaci
on de par
ametros
donde wij corresponde a los diferentes pesos considerados con objeto de normalizar
la contribucion de cada termino:
wij = (1/max (
zijk ))2
(9.22)
88
Esta normalizacion se hace especialmente necesaria en problemas donde las variables medidas tienen valores de diferente orden de magnitud como sucede en el
caso que nos ocupa.
Para poder evaluar los metodos considerados mediante una medida objetiva de
la calidad de la solucion, se emplearon datos pseudo-experimentales. Las medidas
correspondientes al contenido de humedad medio de la lamina mavg y a su temperatura Ts a lo largo del tiempo, fueron generadas mediante simulacion considerando
los parametros publicados por Luyben et al. (1982) como los valores verdaderos
(ver Tabla 9.2 para examinar el valor nominal y los lmites de cada parametro).
Se realizo un conjunto de cinco experimentos (simulaciones) con diferentes valores
constantes para la temperatura de bulbo seco, Tdb (55, 65, 75, 85 y 100 o C).
Par
ametro
Valor nominal
Lmite inferior
Lmite superior
p1
p2
b1
b2
b3
b4
b5
b6
8.73e-4
1.87e-2
3.42e+1
1.38e+2
6.74e+0
1.00e+2
2.00e+2
1.00e+1
1.00e-4
1.00e-4
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+3
1.00e+3
1.00e+3
1.00e+3
1.00e+3
1.00e+3
9.5.1.
Caso 1
89
Par
ametro
Soluci
on I
Soluci
on II
p1
p2
b1
b2
b3
b4
b5
b6
4.89e-3
1.45e-2
5.49e+2
9.85e+2
7.13e+1
9.96e+2
9.93e+2
1.24e+1
3.04e-2
4.92e-4
5.99e+1
5.79e+2
2.85e+1
6.47e+2
9.88e+2
8.51e+2
9.5.2.
Caso 2
Frecuencia
30
25
20
15
10
5
0
0
0.5
1.5
2
Funcin Objetivo
2.5
3
4
x 10
90
Por otra parte, el uso de metodos globales (SRES, DE y SSm) dio lugar soluciones optimas globales siendo el valor del vector de parametros encontrado proximo
al vector nominal. El algoritmo SSm convergio casi dos ordenes de magnitud mas
rapido que los demas como se ilustra en la Figura 9.8 con las curvas de convergencia
(evolucion del valor de la funcion objetivo con respecto al tiempo de computacion).
4
10
Funcin objetivo
DE
SRES
SSm
10
10
500
1000
1500
2000
2500
1
Tdb=100
0.9
90
0.8
70
T =75
db
0.7
60
Tdb=65
50
T =55
db
mavg
Ts (C)
T =85
db
80
0.6
0.5
0.4
Tdb=55
T =65
0.3
T =75
db
T =85
db
40
db
30
0
1000
2000
3000
4000
Tiempo (s)
5000
6000
7000
0.2
0
T =100
db
1000
2000
3000
4000
Tiempo (s)
5000
6000
7000
9.6.
91
Identificabilidad a posteriori
0.8
b4
0.6
0.4
b1
0.2
0.2
p2
0.4
0.6
p1
0.8
p1
p2
b1
b4
9.7.
Intervalos de confianza
Los valores de los parametros correspondientes a la mejor solucion y sus intervalos de confianza del 95 % obtenidos mediante la aproximacion de Cr`amer-Rao y
el metodo de Monte Carlo se presentan en la Tabla 9.4. Los intervalos obtenidos
por ambos metodos son bastante cercanos excepto para el parametro p2 para el cual
difieren en casi un orden de magnitud. El metodo de Monte Carlo, siendo el mas
robusto de los dos, predice un error de casi el 25 % para los parametros p1 y p2 lo
cual podra explicarse por la alta correlacion que existe entre ellos. Para los otros
dos parametros los intervalos son peque
nos en terminos relativos indicando que estos
fueron estimados con precision.
La forma elptica de la region de confianza para los parametros b1 y b4 confirma los
92
Par
ametro
Valor
optimo
p1
p2
b1
b4
7.05e-3
1.43e-2
3.43e+1
1.08e+2
1.51e-3
6.24e-4
3.45e-1
3.90e+0
1.76e-3
3.47e-3
7.34e-1
8.96+0
120
120
115
115
110
110
b4
b4
resultados del analisis de correlacion (R3,4 = 0.82). Sin embargo, la baja correlacion
entre los parametros p2 y b4 (R2,4 = 0.61) se traduce en una region de confianza mas
esferica.
105
105
100
100
95
95
90
0.0125 0.013 0.0135 0.014 0.0145 0.015 0.0155 0.016 0.0165
p2
90
33.8
9.8.
34
34.2
34.4
34.6
34.8
Conclusiones
9.8. Conclusiones
93
Captulo 10
Procesamiento t
ermico de
alimentos
10.1.
Introducci
on
96
97
El uso de la aproximacion no estacionaria ha demostrado reducir estas dificultades. Banga et al. (1993) emplearon 10 experimentos dinamicos para calibrar un
modelo TDT para la disminucion de tiamina en el procesamiento termico de at
un
en lata obteniendo un error maximo para los parametros estimados de un 2.3 %.
Garote et al. (2001) utilizaron alrededor de 10 experimentos dinamicos para estimar los parametros cineticos que describen la inactivacion de la lipogenasa durante
el calentamiento de judas verdes, consiguiendo una buena concordancia entre la
prediccion del modelo y los datos experimentales.
Sin embargo, el uso de experimentos dinamicos no optimos puede dar lugar a
una carga experimental innecesariamente elevada, problemas de identificabilidad o
grandes intervalos de confianza para los parametros. Los trabajos de Versyck et
al. (1999) y Grijspeerdt y Vanrolleghem (1999) fueron los primeros en introducir el
dise
no optimo de experimentos para modelos de biologa predictiva y posteriormente,
Nahor et al. (2001, 2003) propusieron su utilizacion para la estimacion de parametros
termicos de alimentos.
En este captulo, se propone el uso de dise
no optimo de experimentos (OED)
para superar las dificultades antes mencionadas en la estimacion de los parametros
cineticos de retencion de tiamina en la esterilizacion termica de alimentos enlatados.
10.2.
Modelo matem
atico
(10.1)
98
adecuadas condiciones iniciales y de frontera. Los parametros y Cp corresponden a la densidad del alimento y su capacidad calorfica respectivamente y k es la
conductividad termica. Los procesos termicos inducidos mediante campos electromagneticos (microondas) o calentamiento ohmico tambien pueden ser introducidos
en esta formulacion mediante el termino de generacion q(T, , t).
Para el caso de productos solidos las especies de interes no se distribuyen mediante conveccion o difusion por lo que la ecuacion general que describe la disminucion
de la calidad como efecto de la temperatura es (Saguy y Karel, 1980):
dC
= f (T )
(10.2)
dt
donde C representa el factor de calidad considerado.
Con objeto de resolver las ecuaciones (10.1-10.2), deben imponerse condiciones
iniciales y frontera adecuadas en el dominio.
10.2.1.
Esterilizaci
on industrial de alimentos enlatados
2T
1 T
2T
+
+
r2
r r
z 2
(10.3)
(10.4)
(10.5)
T
(0, z, t) = 0
r
T
(r, 0, t) = 0
z
(10.6)
(10.7)
T (r, z, 0) = T0
99
(10.8)
VT
exp
0
ln 10
DN,ref
tf
exp
0
T (r, z, t) TN,ref
ln 10 dt dV
ZN,ref
(10.9)
Notese que este valor se mide a tiempo final por lo que solo se dispone de una
medida por cada experimento.
Para transformar la ecuacion diferencial parcial original (10.3) en un conjunto
de ecuaciones diferenciales ordinarias, se empleo el metodo numerico de las lneas
(NMOL) (Schiesser, 1991). El sistema de ODEs resultante, combinado con las ecuaciones cineticas (una ecuacion por posicion espacial) se resolvio posteriormente con
ODESSA (Leis y Kramer, 1988) para permitir el calculo de las sensibilidades parametricas.
10.3.
An
alisis de identificabilidad estructural
10.4.
Ranking de par
ametros
dero DN,ref
= 5428 s y ZN,ref
= 31.4o C como se establece en Banga et al (1993).
100
2
d
msqr
d
mabs
dmean
dmax
d
1.5
Valor del criterio
min
0.5
0.5
p1
p2
Parmetros
Val nom
msqr
mabs
mean
max
min
DN,ref /DN,ref
ZN,ref /ZN,ref
1
1
4.81e-1
4.66e-2
1.03e+0
9.99e-2
1.03e+0
7.28e-2
1.51e+0
1.71e-1
0.00e+0
-7.12e-2
10.5.
Dise
no
optimo de experimentos
10.5. Dise
no optimo de experimentos
101
(10.10)
(10.11)
(10.12)
Se considero una sola medida por experimento a tiempo final y que estas estan
sujetas a un ruido gaussiano del 3 %.
El objetivo de la optimizacion consistio en la maximizacion del criterio D.
En primer lugar y con objeto de analizar la posible naturaleza multimodal del
problema, se resolvio el problema de dise
no de cinco experimentos empleando un
metodo local en modo multi-start. La Figura 10.2 representa el histograma de frecuencia de las soluciones mostrando la presencia de varias soluciones suboptimas y
confirmando la necesidad de emplear metodos de optimizacion global.
4
Frecuencia
0
0.8
1.2
1.4
1.6
Funcion Objetivo
1.8
2.2
x 10
102
10
Funcin objetivo
10
10
10
10
10
5000
10000
Tiempo CPU (s)
15000
Criterio D
Criterio E M od
5
6
8
2.63e + 5
3.95e + 5
7.01e + 5
1.46e+0
1.88e+0
1.86e+0
10.5. Dise
no optimo de experimentos
103
4 x 10
4
3.5
3
2.5
2
E modificado
Criterio D
1
1.5
0
nexp
140
Experimentos: 2, 4, 5
Experimentos: 1, 3, 6
120
Temperatura (C)
Temperatura (C)
120
100
80
60
80
60
40
40
20
100
2000
4000
6000
Tiempo (s)
8000
20
2000
4000
6000
Tiempo (s)
8000
experimentos 1, 3 y 6
experimentos 2, 4 y 5
104
140
140
Experimentos: 1, 3, 6
Experimentos: 2, 4, 5
120
0.8
ret N
80
T0 ( C)
ret N
0.6
100
0.6
80
T0
60
retN
0.4
60
0.4
40
20
2000
4000
6000
Tiempo (s)
8000
40
ret N
0.2
0
2000
4000
6000
Tiempo (s)
8000
20
10.6.
T0 ( C)
100
T0
0.2
0
120
0.8
Identificabilidad a posteriori
Con objeto de comprobar las propiedades de los esquemas experimentales optimos, se realizo el analisis de identificabilidad practica. Para ello se selecciono el caso
de seis experimentos ya que ofrece un buen compromiso entre la calidad de la solucion y el esfuerzo experimental. La Figura 10.9 muestra la matriz de correlacion a
0.8
0.6
Z N,ref
0.4
0.2
0
0.2
0.4
DN,ref
0.6
0.8
DN,ref
Z N,ref
105
10.7.
Intervalos de confianza
DN,ref /DN,ref
Valor
optimo Int conf (95 %)
nexp
5 exp.
6 exp.
8 exp.
1.0
1.0
1.0
1.95e-2
1.58e-2
1.42e-2
ZN,ref /ZN,ref
Valor
optimo Int conf (95 %)
1.0
1.0
1.0
2.02e-2
1.58e-2
1.44e-2
106
1.020
1.015
1.010
Zref/Z*ref
1.005
1.000
0.995
0.990
0.985
0.980
0.980 0.985
0.990 0.995
1.000 1.005
1.010
1.015
1.020
*
Dref /Dref
log(Jmc)
5
4
3
2
1
0
1.5
1
Zref /Z*
0.5 0.5
1.5
*
Dref /Dref
ref
10.8. Conclusiones
10.8.
107
Conclusiones
Captulo 11
Isomerizaci
on del -pineno
11.1.
Introducci
on
110
11.2.
111
Modelo matem
atico
Para la resolucion de este problema, se consideran las ecuaciones lineales derivadas por Hunter y MacGregor (1967) asumiendo cineticas de primer orden:
dy1
dt
dy2
dt
dy3
dt
dy4
dt
dy5
dt
11.3.
= (p1 + p2 )y1
(11.1)
= p1 y1
(11.2)
= p2 y1 (p3 + p4 )y3 + p5 y5
(11.3)
= p3 y3
(11.4)
= p4 y3 + p5 y5
(11.5)
An
alisis de identificabilidad estructural
112
p1 y1 = p1 y1
(11.7)
(11.8)
(11.9)
11.4.
Ranking de par
ametros
113
Par
ametro
Valor nominal
msqr
mabs
mean
max
min
p1
p2
p4
p3
p5
5.93e-5
2.96e-5
2.75e-4
2.05e-5
4.00e-5
0.7144
0.6978
0.4762
0.4242
0.2256
0.5712 -0.3169
0.6313 0.3415
0.3403 -0.1869
0.2206 0.1552
0.1303 0.0864
0.9946
0.9982
0.9834
0.9988
0.7189
-2.1582
-1.0793
-0.8533
-0.1593
-0.1641
2
1.5
Valor del criterio
1
0.5
0
0.5
1
1.5
2
2.5
p1
p2
p4
Parmetros
p3
p5
11.5.
Estimaci
on de par
ametros
(11.10)
j=1 i=1
114
En primer lugar se intento resolver el problema utilizando un metodo SQP en modo multi-start. El histograma de frecuencias representado en la Figura 11.3 muestra
que los metodos locales no son capaces de converger a la solucion global estando la
mayora de las soluciones muy alejadas de este punto. Por este motivo, el empleo de
herramientas de optimizacion global resulta imprescindible para resolver con exito
este problema.
90
80
70
Frecuencia
60
50
40
30
20
10
0
3
3.2
3.4
3.6
3.8
Funcin objetivo
4.2
4.4
4
x 10
La Figura 11.4 muestra claramente que SSm convergio siempre a la solucion global
en un tiempo de computacion corto mientras que otros metodos de optimizacion
global fallaron o convergieron en un tiempo computacional mucho mayor. Con objeto
de favorecer la visualizacion, la curva correspondiente a SSm se representa en ejes
diferentes, ya que SRES y DE quedaron atrapados en soluciones locales cerca del
punto inicial mientras que SSm convergio al optimo global lejos del primer valor.
Asimismo, la Figura 11.5 muestra una comparacion entre los valores predichos
a partir del mejor vector de parametros obtenido con SSm (linea continua) y los
datos experimentales para estas especies proporcionados por Fuguitt y Hawkins
(1947) (smbolos), correspondientes a la concentracion del reactante y de los cuatro
productos. Los parametros estimados permiten reproducir los datos experimentales
y, como puede verse en la Figura 11.6, no existe correlacion entre los residuos y el
tiempo lo que indica que el error de los datos experimentales es homocedastico.
115
Funcin objetivo
50000
SRES
DE
40000
30000
10
10
10
Tiempo CPU (s)
10
10
Funcin objetivo
SSm
3
10
10
10
10
10
Tiempo CPU (s)
10
100
y1: alfapineno
y2: dipenteno
y3: alloocimeno
y4: pironeno
y5: dimero
80
y1: alfapineno
y2: dipenteno
y3: alloocimeno
y4: pironeno
y5: dimero
1.5
1
70
0.5
60
Residuos
Concentracin (% peso)
90
50
40
0
0.5
30
1
20
1.5
10
0
0
0.5
1.5
2.5
3.5
Tiempo (min)
2
0
0.5
x 10
1.5
2
2.5
Tiempo (min)
3.5
11.6.
x 10
Identificabilidad a posteriori
La matriz de correlacion representada en la Figura 11.7 muestra una identificabilidad aceptable en el optimo, con un n
umero de condicion rcond(FIM)=2.2e-4.
Este hecho lleva a pensar que los problemas en la calibracion del modelo experimentados por la mayora de los metodos se deben fundamentalmente a la existencia de
m
ultiples mnimos locales.
116
1
p5
0.8
0.6
p4
0.4
0.2
p3
0
0.2
p2
0.4
0.6
p1
0.8
p1
p2
p3
p4
p5
Las Figuras 11.8 y 11.9 muestran las lneas de contorno de la funcion objetivo
en el plano parametrico para el par (p1 , p2 ) que presenta un valor del coeficiente de
correlacion R1,2 = 0.13 y para el par mas correlacionado (p4 , p5 ) con R4,5 = 0.82.
x 10
x 10
5.5
5
3.5
p5
p2
4.5
4
3.5
2.5
3
2
2.5
1.5
x 10
1.5
2.5
3.5
plano (p1 , p2 )
plano (p4 , p5 )
4
4
x 10
11.7.
117
Intervalos de confianza
Por otra parte, los intervalos de confianza del 95 % que se muestran en la Tabla
11.2 para los valores optimos de los parametros (J = 19.87) son peque
nos lo que
indica que estos fueron estimados con precision. No obstante, el parametro que
presenta un mayor intervalo de confianza, en terminos relativos, es p5 . Este hecho
puede explicarse por la menor sensibilidad del modelo con respecto a este parametros
que resulto el u
ltimo en el ranking y por la correlacion entre p4 y p5 detectada en el
analisis de identificabilidad a posteriori.
Par
ametro
Valor
optimo
p1
p2
p3
p4
p5
5.926e-5
2.963e-5
2.047e-5
2.745e-4
3.998e-5
8.706e-7
8.431e-7
5.313e-6
3.984e-5
1.439e-5
3.732e-7
3.563e-7
1.725e-6
1.003e-5
4.579e-6
x 10
x 10
4.6
3.02
4.4
4.2
p5
2.98
p2
2.96
4
3.8
2.94
3.6
2.92
3.4
2.9
5.86
5.88
5.9
5.92
5.94
p1
5.96
5.98
2.55
5
x 10
2.6
2.65
2.7
2.75
p4
2.8
2.85
2.9
4
x 10
plano (p1 , p2 )
plano (p4 , p5 )
118
11.8.
Conclusiones
Captulo 12
Inhibici
on de la proteasa del HIV
12.1.
Introducci
on
120
12.2.
Modelo matem
atico
d[M ]
dt
d[P ]
dt
d[S]
dt
d[I]
dt
d[ES]
dt
d[EP ]
dt
d[E]
dt
(12.1)
(12.2)
(12.3)
(12.4)
(12.5)
(12.6)
(12.7)
d[EI]
= k51 [I][E] k52 [EI] k6 [EI]
dt
d[EJ]
= k6 [EI]
dt
(12.8)
(12.9)
12.3.
121
Ranking de par
ametros
El valor de los criterios descritos en la seccion 3.3 para los cinco parametros a
estimar se muestran en la Tabla 12.1. Los parametros aparecen en orden decreciente
de acuerdo con el criterio msqr y se representan en la Figura 12.2.
Par
ametro
Valor nominal
msqr
mabs
mean
max
min
k42
k22
k3
k52
k6
5.00e+2
3.00e+2
1.00e+1
1.00e-1
1.00e-1
8.10e+1
4.85e+1
1.80e+0
6.49e-2
4.17e-2
1.62e+2
9.67e+1
3.60e+0
1.10e-1
6.59e-2
1.62e+2
9.68e+1
3.60e+0
1.10e-1
-4.97e-2
5.00e+2
3.00e+2
1.00e+1
1.63e-1
1.00e-1
1.26e+2
7.53e+1
2.81e+0
4.97e-2
-7.29e-2
400
300
200
100
100
k42
k22
k3
Parmetros
k52
k6
122
12.4.
Estimaci
on de par
ametros
(12.10)
Par
ametro
Valor inicial
Lmite inf.
Lmite sup.
k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)
1.00e+1
5.00e+2
3.00e+2
1.00e-1
1.00e-1
2.50e+1
2.50e+1
2.50e+1
2.50e+1
2.50e+1
4.00e-3
4.00e-3
4.00e-3
4.00e-3
4.00e-3
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1
0.00e+0
0.00e+0
0.00e+0
0.00e+0
0.00e+0
1.25e+1
1.25e+1
1.25e+1
1.25e+1
1.25e+1
2.00e-3
2.00e-3
2.00e-3
2.00e-3
2.00e-3
-2.00e-1
-2.00e-1
-2.00e-1
-2.00e-1
-2.00e-1
1.00e+5
1.00e+5
1.00e+5
1.00e+5
1.00e+5
3.75e+1
3.75e+1
3.75e+1
3.75e+1
3.75e+1
6.00e-3
6.00e-3
6.00e-3
6.00e-3
6.00e-3
4.00e-1
4.00e-1
4.00e-1
4.00e-1
4.00e-1
123
Para poder comparar los resultados se tomaron los lmites y valores iniciales para
los parametros empleados por Mendes y Kell (1998) (ver Tabla 12.2). Una de las
dificultades a
nadidas de este problema son los amplios lmites considerados para las
constantes cineticas.
Mediante la minimizacion de la suma de los cuadrados de los residuos entre
los datos medidos y los simulados, la mejor solucion conocida hasta este trabajo
fue obtenida por Mendes y Kell (1998) utilizando el metodo Simulated Annealing,
con un coste computacional de tres millones de simulaciones. La siguiente mejor
solucion fue obtenida utilizando un metodo Levenberg-Marquardt con un esfuerzo
computacional considerablemente menor (4000 simulaciones) aunque la convergencia
al optimo global con este metodo solo esta garantizada si se inicializa en su vecindad.
En este trabajo se trato de resolver el problema mediante un metodo local tipo
SQP en modo multi-start. El histograma de frecuencias (Figura 12.3) muestra que
este metodo se quedo atrapado en soluciones locales la mayora de las veces lo que
demuestra que este problema es multimodal por lo que se necesitaran metodos de
optimizacion global para poder asegurar la convergencia al optimo global.
35
30
Frecuencia
25
20
15
10
5
0
0
10
20
30
Funcin objetivo
40
50
El metodo SSm convergio a mejores soluciones que las encontradas por Mendes y
Kell (1998) en menos de 1500 simulaciones lo que confirma el buen comportamiento de este metodo incluso en problemas complejos de estimacion de parametros.
Ademas, cuando se compara con otros metodos estocasticos de demostrada eficacia
124
como SRES o DE, SSm alcanzo mejores soluciones con una aceleracion en el tiempo
de calculo de casi tres ordenes de magnitud (ver Figura 12.4).
2
10
SRES
DE
SSm
1
Funcin objetivo
10
10
10
10
10
10
10
10
12.5.
Identificabilidad a posteriori
125
Par
ametro
Soluci
on I (J=1.99e-2)
Soluci
on II (J=2.03e-2)
k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)
6.23e+0
8.77e+4
4.73e+2
9.73e-2
1.42e-2
2.46e+1
2.33e+1
2.69e+1
1.33e+1
1.25e+1
5.52e-3
5.32e-3
6.00e-3
4.39e-3
3.98e-3
-4.34e-3
-1.58e-3
-1.12e-2
-1.66e-3
7.13e-3
5.66e+0
6.88e+2
1.21e+2
4.61e+0
3.53e+0
2.47e+1
2.34e+1
2.71e+1
1.71e+1
1.45e+1
5.40e-3
5.20e-3
6.00e-3
4.26e-3
3.97e-3
-5.61e-3
-4.25e-3
-1.52e-2
-9.65e-3
1.33e-3
Tabla 12.3: Valor de los parametros para dos resultados obtenidos con SSm
0.7
0.6
0.5
0.03
Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5
0.02
0.01
Residuos
0.4
Seal
Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5
0.3
0.2
0.01
0.1
0.02
0
0.1
0
500
1000
3000
3500
4000
0.03
0
500
1000
1500
2000 2500
Tiempo (s)
3000
3500
4000
126
offset(5)
E0(5)
S0(5)
offset(4)
E0(4)
S0(4)
offset(3)
E0(3)
S0(3)
offset(2)
E0(2)
S0(2)
offset(1)
E0(1)
S0(1)
k6
k52
k22
k42
k3
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
12.6.
Intervalos de confianza
Los valores de los parametros correspondientes a la mejor solucion y sus intervalos de confianza del 95 % obtenidos mediante la aproximacion de Cr`amer-Rao se
presentan en la Tabla 12.4. Como era de esperar, los parametros que presentaron
altas correlaciones como k42 , k22 , k52 y k6 son los que tienen los mayores intervalos
de confianza. El elevado valor de estos intervalos, demuestra nuevamente la falta de
identificabilidad de estos parametros.
12.7.
Conclusiones
En este captulo se considero el problema de estimacion de parametros y concentraciones iniciales para un modelo de la inhibicion irreversible de la proteasa del HIV.
El metodo SSm demostro ser una estrategia muy eficaz para su resolucion alcanzando
valores muy buenos de la funcion objetivo en un tiempo de calculo muy razonable y
superando en mas de dos ordenes de magnitud los requerimientos computacionales
de otros metodo de optimizacion global como SRES, DE o Simulated Annealing.
12.7. Conclusiones
127
Par
ametro
Valor
optimo
k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)
6.23e+0
8.77e+3
4.73e+2
9.73e-2
1.42e-2
2.46e+1
2.33e+1
2.69e+1
1.33e+1
1.25e+1
5.52e-3
5.32e-3
6.00e-3
4.39e-3
3.98e-3
-4.34e-3
-1.58e-3
-1.12e-2
-1.66e-3
7.13e-3
3.25e+0
4.61e+4
6.25e+2
1.29e-1
1.03e-2
7.82e-2
1.35e+0
1.22e+0
1.82e+0
1.81e+0
1.97e-3
1.31e-3
1.11e-3
8.69e-5
8.84e-5
1.79e-3
2.97e-3
2.73e-3
1.88e-3
1.76e-3
Captulo 13
Funci
on de las caspasas en la
apoptosis
13.1.
Introducci
on
130
FAS/FASL
Activacin inducida por el receptor
FADD
FADD
Procaspasa-8
FLIP
Procaspasa-8
Divisin proteoltica
Caspasa-8
Caspasa-8
Citocroma - c
p53
Bcl-2
ARC
Bcl-xL
Bcl-xL
Apaf-1
Mitocondria
Citocroma - c
Procaspasa-9
Procaspasa-9
IAPs
Divisin proteoltica
Caspasa-9
Ejecutor procaspasa
Caspasa-8
Ejecutor procaspasa Ejecutor caspasa
Caspasa-9
zVAD-fmk
Caspasa-9
Ejecutor caspasa
Ruptura de
protenas
datos pseudo-experimentales a partir de simulaciones de este sistema corrompiendolos con un 10 % de error y suponiendo que solo un conjunto de siete protenas y
ninguna velocidad de reaccion poda ser medido directamente. Este grupo propuso
un algoritmo iterativo para la identificacion del modelo que incluye el estudio de la
identificabilidad, la eliminacion de los parametros no identificables y la estimacion
de los parametros identificables. En el trabajo citado, se emplea un algoritmo basado
en el problema del regulador de estado (State Regulator Problem, SRP) para estimar
todas las concentraciones no medidas y las velocidades de reaccion a partir de los
estados medidos. De este modo, la calibracion fue realizada mediante la division de
los parametros en varios grupos, correspondiendo cada uno de ellos a los parametros
relacionados con una de las velocidades de reaccion, y resolviendo as el problema de
estimacion de modo desacoplado con respecto a cada reaccion mediante un metodo
local basado en gradiente.
En este captulo, se considero este mismo modelo y se resolvio el problema de
estimacion de parametros asociado mediante tecnicas de optimizacion global ilustrando su superioridad frente a las tecnicas locales. El analisis de identificabilidad
practica permitira extraer conclusiones interesantes sobre el modelo.
13.2.
131
Modelo matem
atico
x 1 = 1 x1
(13.1)
x 2 = r1 x2
(13.2)
x 3 = 3 2r2 x3
(13.3)
x 4 = r2 x4
(13.4)
x 5 = r10 r3 x5
(13.5)
x 6 = 6 x6
(13.6)
x 7 = r3 x7
(13.7)
x 8 = 8 2r4 2r6 x8
(13.8)
x 9 = 9 2r5 2r7 x9
(13.9)
x 10 = 10 r8 r9 x10
(13.10)
(13.11)
(13.12)
x 13 = r8 + r9 r11 x13
(13.13)
x k = k xk
(13.14)
x3 x2
x4
= ka
(1 + KA x3 + KA KB x23 ) KA KB x3
"
#
x5 x6
x7
= kh
x19
1 + KH x5 + KI 1+K
KH
J x17
r1 =
(13.15)
r2
(13.16)
r3
r4 =
k8za1 x28 x4
1
1
1
1
KC1 KD
+ KD
x8 + x28 + KF KC1 KD
x15 + KG KD
x8 x15
(13.17)
(13.18)
132
k9za1 x29 x7
(13.19)
1 1
1 1
KL x16 + KO KL1 x9 x16
KL + KL1 x9 + x29 + KN KK
KK
(13.20)
= k8za2 x28
r5 =
r6
r7 = k9za2 x29
k83a x10 x11
+ KR KP1 x14 + x10
k93a x10 x12
=
1
KP + KR KP1 x14 + x10
= CE [ (x13 , x18 ) + (X, x18 )]
[IAP s]
= ku x13
1 + KU [IAP s]
r8 =
r9
r10
r11
(13.21)
(13.22)
KP1
(13.23)
(13.24)
(13.25)
donde
L = concentracion de ligando libre (receptor)
1 xx13
>
0.25
18
(x13 , x18 ) =
0 xx13
0.25
18
(13.27)
(13.28)
(13.29)
(13.30)
Ranking de par
ametros
1.5
dmsqr
d
mabs
dmean
dmax
dmin
13.3.
(13.26)
0.5
0.5
1.5
10 3 16 4 5 19 21 23 25 8 26 27 17 14 13 11 9 7 2 1 15 12 18 20 22 24 6
Parmetros
133
pn
Val nom
msqr
mabs
mean
max
min
CE
kh
KI
k8za1
k9za1
KS
KG
KL
KO
k83a
Kp
KR
KJ
KB
KA
ku
k93a
k9za2
ka
kI
KH
KS
KC
KF
KK
KN
k8za2
p10
p3
p16
p4
p5
p19
p21
p23
p25
p8
p26
p27
p17
p14
p13
p11
p9
p7
p2
p1
p15
p12
p18
p20
p22
p24
p6
1.00e-1
3.00e-1
1.00e+2
1.25e+0
1.25e+0
1.00e+2
2.00e+3
1.00e+2
2.00e+3
5.00e-1
1.50e+0
5.00e+0
5.00e+0
1.00e+2
1.00e-1
1.10e-1
5.00e-1
1.00e-5
2.00e+0
2.00e+0
1.00e+1
1.00e+1
1.00e+2
2.00e+3
1.00e+2
2.00e+3
1.00e-5
3.34e-1
2.23e-1
2.09e-1
2.07e-1
2.07e-1
2.02e-1
1.99e-1
1.98e-1
1.97e-1
1.87e-1
1.86e-1
1.42e-1
1.28e-1
9.25e-2
8.93e-2
5.21e-2
4.35e-2
3.60e-2
1.89e-2
1.69e-2
1.23e-2
1.02e-2
1.93e-3
1.93e-3
1.16e-3
1.16e-3
9.28e-5
1.40e-1
8.47e-2
7.98e-2
8.78e-2
6.12e-2
8.53e-2
8.45e-2
5.86e-2
5.82e-2
5.37e-2
5.33e-2
4.07e-2
4.80e-2
3.02e-2
2.92e-2
1.16e-2
1.04e-2
2.33e-3
7.07e-3
7.14e-3
3.82e-3
3.80e-3
8.20e-4
8.20e-4
3.45e-4
3.45e-4
3.83e-5
1.20e-1
5.81e-2
-5.44e-2
-8.44e-3
3.37-2
-8.23e-3
8.15e-3
3.22e-2
-3.20e-2
-2.19e-2
-2.38e-2
1.80e-2
3.32e-2
-1.73e-2
-1.67e-2
-1.16e-2
-5.87e-3
2.20e-3
-2.84e-3
6.49e-4
-1.77e-3
2.80e-4
-8.22e-5
8.22e-5
1.89e-4
-1.89e-4
-3.28e-6
1.04e+0
9.95e-1
1.34e-1
7.65e-1
9.68e-1
7.37e-1
5.42e-1
9.23e-1
2.10e-1
8.57e-1
6.23e-1
6.18e-1
6.81e-1
8.64e-2
8.33e-2
0.00e+0
5.84e-2
9.97e-1
1.49e-1
1.41e-1
3.51e-2
1.20e-1
6.46e-3
5.05e-3
5.30e-3
1.31e-3
5.06e-4
-1.56e-1
-1.37e-1
-9.48e-1
-5.65e-1
-2.20e-1
-5.47e-1
-7.30e-1
-2.11e-1
-9.18e-1
-8.79e-1
-8.13e-1
-4.97e-1
-7.49e-2
-3.97e-1
-3.83e-1
-2.76e-1
-2.70e-1
-9.18e-4
-7.73e-2
-5.88e-2
-6.98e-2
-5.00e-2
-5.05e-3
-6.46e-3
-1.31e-3
-5.29e-3
-2.87e-4
134
y poco sensible a otros. Entre msqr y mabs no hay grandes diferencias lo que indica
que no existe mucha variabilidad en las sensibilidades de los distintos estados con
respecto a un mismo parametro (Sj ). Una comparacion de max y min indica que
todos los parametros presentan sensibilidades tanto positivas como negativas.
13.4.
Estimaci
on de par
ametros
pn
Val nom
Lim inf
Lim sup
kI
ka
kh
p1
p2
p3
p4
p5
p8
p9
p10
p11
p12
p13
p15
p16
p19
p21
p25
p26
p27
2.00e+0
2.00e+0
3.00e-1
1.25e+0
1.25e+0
5.00e-1
5.00e-1
1.00e-1
1.10e-1
1.00e+1
1.00e-1
1.00e+1
1.00e+2
1.00e+2
2.00e+3
2.00e+3
1.50e+0
5.00e+0
0.00e+0
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1
0.00e+0
0.00e+0
1.00e-1
1.00e-2
1.00e-1
1.00e-1
1.00e-1
1.00e-2
1.00e-1
5.00e-2
1.00e-2
1.00e+1
1.00e+1
2.00e+0
1.00e+1
1.00e+1
1.00e+1
1.00e+1
1.00e+0
1.00e+0
1.00e+2
1.00e+1
1.00e+3
1.00e+3
1.00e+3
2.00e+6
1.00e+4
1.00e+2
2.00e+1
k8za1
k9za1
k83a
k93a
CE
ku
KS
KA
KH
KI
KS
KG
KO
Kp
KR
135
Frecuencia
12
10
8
6
4
2
0
0
10
15
Funcin objetivo
20
25
Por este motivo, el problema de estimacion fue tambien resuelto con los metodos
globales SRES, DE y SSm. El metodo DE no alcanzo la solucion global mientras que
SRES y SSm convergieron a valores muy buenos de la funcion objetivo aunque el
tiempo de calculo requerido por SSm fue de menos de 10 segundos, mas de un orden
de magnitud inferior al requerido por SRES.
A pesar de que para la estimacion solamente se consideraron los datos pseudoexperimentales correspondientes a la concentracion de siete protenas, el ajuste de
todos los estados es bueno como muestra la Figura 13.6. El valor de las velocidades
de reaccion predicho por el modelo tambien se ajusta bien a los valores teoricos a
pesar de que estos no hayan sido empleados para la estimacion (ver Figura 13.5).
136
10
Funcin objectivo
DE
SRES
SSm
10
10
10
10
10
10
0.25
0.2
0.2
0.02
r4
0.005
0.01
0.05
0
0
100
50
Tiempo (min)
0
0
100
1.4
3.5
0.005
0.8
50
Tiempo (min)
100
0.03
50
Tiempo (min)
100
0.08
2.5
0.06
0.04
1.5
0.02
50
Tiempo (min)
100
50
Tiempo (min)
100
0
0
50
Tiempo (min)
100
0.04
0.15
r11
10
100
0.05
0.02
r
50
Tiempo (min)
0.1
1
0
0.2
r9
x 10
r7
r5
0.6
0
0
0
100
x 10
1.2
0.01
50
Tiempo (min)
r8
50
Tiempo (min)
0.015
0.1
0.03
0.02
0.01
0.05
0
0
0.01
r3
r1
0.1
0.1
0.05
0
0
0.03
0.15
0.15
0
0
0.015
50
Tiempo (min)
100
0.01
0
0
50
Tiempo (min)
100
0
0
2.5
137
2.5
2
2
0.8
0.6
0.4
0.4
50
Tiempo (min)
0
0
100
50
Tiempo (min)
0.2
0
100
2.5
0.2
50
Tiempo (min)
0
0
100
0.25
x8
x7
0.5
1
0
50
Tiempo (min)
0
0
100
1.5
1.5
50
Tiempo (min)
100
0.5
x12
x11
10
x9
1.4
50
Tiempo (min)
100
0.3
0.2
0.5
1.2
0.1
14
100
2.2
0.9
0.8
1.8
x13
50
Tiempo (min)
50
Tiempo (min)
0.7
1.6
0.6
1.4
0.5
0
100
2.5
0.6
2
18
0.8
0.4
50
Tiempo (min)
100
0
0
100
2.5
1.5
50
Tiempo (min)
100
50
Tiempo (min)
100
1
0
1.6
1.4
x19
0.5
50
Tiempo (min)
x16
100
0
0
x15
50
Tiempo (min)
0
0
1.5
x17
100
0.4
1.6
0
0
50
Tiempo (min)
0.5
1.8
1
0
100
1
0.8
0.05
100
50
Tiempo (min)
1.2
0.1
1.5
50
Tiempo (min)
100
0.15
50
Tiempo (min)
1.4
0.2
1.5
x5
0.6
1
0.5
0
0
x4
x3
x1
1.5
1.5
1
0
1
0.8
1.5
1.2
1
0.2
0
0
50
Tiempo (min)
100
0.5
0
0.8
50
Tiempo (min)
100
13.5.
Identificabilidad a posteriori
138
27
26
25
21
19
16
15
13
12
11
10
9
8
5
4
3
2
1
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
1 2 3 4 5 8 9 10 11 12 13 15 16 19 21 25 26 27
13.6.
139
Intervalos de confianza
Param
pn
Valor
optimo
kI
ka
kh
p1
p2
p3
p4
p5
p8
p9
p10
p11
p12
p13
p15
p16
p19
p21
p25
p26
p27
8.41e-1
1.54e+0
1.05e-1
9.95e+0
1.88e+0
5.54e+0
7.95e+0
9.71e-2
1.10e-1
6.08e+1
1.13e-1
3.78e+0
3.20e+1
1.87e+2
2.90e+4
3.19e+3
1.46e-1
7.91e+0
4.40e-1
5.70e-1
1.05e+1
7.01e+3
3.48e+2
1.37e+3
1.99e+3
4.13e-3
2.50e-2
8.23e+1
3.57e-2
4.54e+2
3.49e+3
2.58e+6
4.21e+8
6.09e+5
2.93e+1
5.13e+2
k8za1
k9za1
k83a
k93a
CE
ku
KS
KA
KH
KI
KS
KG
KO
Kp
KR
140
13.7.
Conclusiones
Captulo 14
Ruta bioqumica en tres pasos
14.1.
Introducci
on
La construccion de modelos dinamicos de rutas bioqumicas es un punto clave para el desarrollo de modelos celulares y de organismos completos. Estas herramientas
pueden dar lugar, en u
ltima instancia, a medicina predictiva y/o preventiva basada
en modelos.
Los recientes trabajos de Sugimoto et al. (2005), Voit y Almeida (2004) y Polisetty et al. (2006) demuestran el interes creciente por llevar a cabo la identificacion
de modelos de rutas bioqumicas. En Moles et al. (2003b) se considera un conjunto seleccionado de metodos estocasticos y deterministas de optimizacion global que
pueden manejar modelos tipo caja negra para resolver el problema de estimacion de
parametros de una ruta bioqumica empleado como problema de referencia (ver Figura 14.1). Solamente un cierto tipo de metodos estocasticos de optimizacion global,
las estrategias evolutivas, fueron capaces de resolver con exito el problema inverso
asociado aunque con un esfuerzo de calculo muy elevado, especialmente cuando se
requiere una gran precision para la solucion.
Con objeto de acelerar los metodos de optimizacion global estocasticos manteniendo su robustez, las estrategias hbridas tratan de combinar ambas metodologas
de un modo adecuado (sinergico) para beneficiarse de sus ventajas reduciendo, o
eliminando, sus limitaciones. En este captulo se utilizo el metodo hbrido secuencial
en dos fases, estocastico-determinista presentado en la seccion 7.3. Con objeto de
incrementar todava mas la eficiencia computacional y de comparar ambas aproximaciones, tambien se empleo el metodo hbrido paralelo sincronico basado en Scatter
Search presentado en la seccion 7.4, SSm.
141
142
G2
G1
G3
E2
E1
S
E3
M1
M2
14.2.
Modelo matem
atico
1+
P
Ki1
V1
ni1
Ka na1 k1 G1
S
(14.1)
dG2
=
dt
V2
ni2
na2 k2 G2
Ka2
P
1 + Ki
+
M1
2
(14.2)
dG3
=
dt
V3
ni3
na3 k3 G3
Ka3
P
1 + Ki3
+ M2
(14.3)
dM1
=
dt
kcat1 E1
dM2
=
dt
kcat2 E2
1+
1
Km1
S
Km1
1+
(14.4)
dE2
V5 G2
k5 E 2
=
dt
K5 + G2
(14.5)
dE3
V6 G3
=
k6 E 3
dt
K6 + G3
(14.6)
(S M1 )
1
Km3
M1
Km3
dE1
V4 G1
=
k4 E 1
dt
K4 + G1
M1
Km2
kcat2 E2
1+
M1
Km3
(M1 M2 )
1
Km3
M2
Km4
kcat3 E3
1+
(M1 M2 )
+
1
Km5
M2
Km5
M2
Km4
(14.7)
(M2 P )
P
Km6
(14.8)
143
Concentraci
on
G1
G2
G3
E1
E2
E3
M1
M2
6.6667e-1
5.7254e-1
4.1758e-1
4.0000e-1
3.6409e-1
2.9457e-1
1.4190e+0
9.3464e-1
14.3.
Ranking de par
ametros
144
Par
ametro
pnumero
msqr
mabs
mean
max
min
na1
na2
na3
Ka1
Ka2
k4
Ka3
k1
V1
k2
V2
k6
k5
k3
V3
V4
V5
V6
kcat1
kcat3
K4
K6
K5
Km1
Km5
Ki2
Ki3
Ki1
kcat2
Km2
Km3
ni1
Km4
ni2
Km6
ni3
p5
p11
p17
p4
p10
p21
p16
p6
p1
p12
p7
p27
p24
p18
p13
p19
p22
p25
p28
p34
p20
p26
p23
p29
p35
p8
p14
p2
p31
p30
p32
p3
p33
p9
p36
p15
2.61e-1
1.80e-1
1.62e-1
1.42e-1
1.32e-1
1.21e-1
1.19e-1
1.11e-1
1.08e-1
1.07e-1
1.06e-1
9.68e-2
9.58e-2
9.37e-2
9.31e-2
8.88e-2
8.53e-2
8.31e-2
7.40e-2
7.18e-2
6.44e-2
6.39e-2
6.30e-2
6.00e-2
4.94e-2
4.02e-2
3.93e-2
3.75e-2
3.27e-2
2.22e-2
1.80e-2
8.41e-3
7.48e-3
7.46e-3
6.34e-3
4.97e-3
3.81e-1
2.38e-1
2.39e-1
2.52e-1
2.32e-1
3.00e-1
2.59e-1
2.74e-1
2.61e-1
2.43e-1
2.40e-1
2.29e-1
1.98e-1
2.23e-1
2.21e-1
2.10e-1
1.80e-1
1.99e-1
1.85e-1
1.74e-1
1.47e-1
1.52e-1
1.27e-1
1.31e-1
1.15e-1
4.95e-2
4.84e-2
4.34e-2
8.54e-2
5.37e-2
4.94e-2
1.06e-2
1.94e-2
9.28e-3
1.65e-2
6.24e-3
-2.42e-1
-1.89e-1
-1.45e-1
-1.99e-1
-2.17e-1
-1.21e-1
-1.50e-1
-2.27e-1
2.31e-1
-2.21e-1
2.19e-1
1.57e-2
-1.47e-1
-1.28e-1
1.29e-1
1.61e-1
1.34e-1
-1.50e-4
-1.04e-2
-1.52e-1
-1.04e-1
-3.66e-3
-9.63e-2
4.96e-2
9.86e-2
4.49e-2
3.92e-2
4.09e-2
2.18e-2
-8.38e-3
-1.19e-2
1.05e-2
5.25e-3
8.21e-3
-9.16e-3
3.15e-3
2.83e-1
1.73e-1
2.21e-1
1.16e-1
6.26e-2
3.30e-1
2.55e-1
8.32e-2
1.00e+0
9.66e-2
1.02e+0
5.65e-1
1.94e-1
2.57e-1
9.92e-1
9.99e-1
9.84e-1
8.10e-1
2.73e-1
3.09e-2
7.97e-2
3.21e-1
1.07e-1
4.20e-1
4.20e-1
2.41e-1
2.18e-1
1.74e-1
2.52e-1
7.36e-2
1.02e-1
4.13e-2
6.20e-2
5.41e-2
9.81e-3
3.79e-2
-1.44e+0
-1.08e+0
-1.05e+0
-9.67e-1
-1.09e+0
-1.39e+0
-1.20e+0
-1.47e+0
-6.39e-2
-1.07e+0
-9.61e-2
-9.96e-1
-1.22e+0
-1.03e+0
-2.47e-1
-9.08e-2
-1.65e-1
-4.49e-1
-4.61e-1
-6.72e-1
-7.47e-1
-6.44e-1
-7.39e-1
-1.22e-1
-2.30e-2
-2.07e-2
-3.52e-2
-4.05e-3
-1.86e-1
-1.72e-1
-1.45e-1
-3.00e-4
-4.38e-2
-5.29e-3
-5.53e-2
-1.04e-2
145
1.5
dmsqr
dmabs
dmean
dmax
dmin
0.5
0.5
1.5
5 11 17 4 10 21 16 6 1 12 7 27 24 18 13 19 22 25 28 34 20 26 23 29 35 8 14 2 31 30 32 3 33 9 36 15
Parmetros
14.4.
Estimaci
on de par
ametros
146
Par
ametros
pnumero
Val. nom.
Lmite inf.
Lmite sup.
V1
Ki1
ni1
Ka1
na1
k1
V2
Ki2
ni2
Ka2
na2
k2
V3
Ki3
ni3
Ka3
na3
k3
V4
K4
k4
V5
K5
k5
V6
K6
k6
kcat1
Km1
Km2
kcat2
Km3
Km4
kcat3
Km5
Km6
p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36
1
1
2
1
2
1
1
1
2
1
2
1
1
1
2
1
2
1
0.1
1
0.1
0.1
1
0.1
0.1
1
0.1
1
1
1
1
1
1
1
1
1
1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5
Experimento 6
Experimento 7
Experimento 8
Experimento 9
Experimento 10
Experimento 11
Experimento 12
Experimento 13
Experimento 14
Experimento 15
Experimento 16
147
Concentraci
on de S
Concentraci
on de P
0.1
0.1
0.1
0.1
0.46416
0.46416
0.46416
0.46416
2.1544
2.1544
2.1544
2.1544
10
10
10
10
0.05
0.13572
0.36840
1.0
0.05
0.13572
0.36840
1.0
0.05
0.13572
0.36840
1.0
0.05
0.13572
0.3684
1.0
(14.9)
Resultados de los m
etodos locales
En una primera aproximacion, se intento resolver el problema empleando varios
metodos locales (n2fb, NOMADm y solnp) llegando a la conclusion de que ninguno
de ellos es capaz de resolver el problema satisfactoriamente si no se inicializa en un
punto muy proximo al verdadero valor de los parametros. Ademas, la aproximacion
multi-start tradicional (es decir, elegir un gran n
umero de valores iniciales aleatorios
148
25
Frecuencia
20
15
10
0
0
200
400
600
800
Funcin Objetivo
1000
1200
Esto lleva a confirmar la idea de que solo los metodos de optimizacion global son
adecuados para resolver esta clase de problemas.
Resultados del m
etodo hbrido SRES-n2fb
Los resultados obtenidos con el hbrido SRES-n2fb mejoraron significativamente
los resultados de Moles et al. (2003b) utilizando SRES solo. En concreto, el tiempo
computacional se redujo en un orden de magnitud (de un rango de 35-40 a 2-3
horas, empleando 5 optimizaciones con cada aproximacion) y, simultaneamente, se
obtuvo un valor de la funcion objetivo mucho mejor (en el caso de conjunto de datos
I, el valor final de la funcion objetivo se redujo de 103 a 107 ). Esto se muestra
claramente en la Figura 14.8, donde se comparan las curvas de convergencia (valor
de la funcion objetivo frente al tiempo computacional, en escala logartmica) del
metodo SRES y del hbrido SRES-n2fb (para este u
ltimo, la fase estocastica global y
la local se representan con distinto tipo de lnea). Notese que, para esta grafica, el
metodo hbrido fue inicializado a proposito en un punto peor (es decir, con un valor
149
mayor de la funcion objetivo) que el metodo SRES. A pesar de esta ventaja inicial,
puede verse como la fase local del hbrido proporciona una convergencia mucho mas
rapida a una solucion mejor, dando lugar a una aceleracion total de un orden de
magnitud.
Basandose en la observacion de la Figura 14.8, sera natural argumentar que un
cambio mas temprano de la b
usqueda estocastica a la fase local del hbrido podra
dar lugar a una aceleracion todava mayor. Sin embargo, como ya se discutio en
la seccion 7.3, si el cambio se realiza demasiado pronto, este podra dar lugar a la
convergencia a una solucion local, es decir, un punto de cambio anterior tiene mayor
probabilidad de estar fuera de la zona de atraccion de la solucion global. Este efecto
se ilustra en la Figura 14.4 donde se representan tres b
usquedas locales realizadas a
partir de diferentes puntos de la misma b
usqueda global. Las flechas indican el punto
de cambio a lo largo de la curva de convergencia de SRES (lnea contnua), mientras
que la convergencia de n2fb para cada punto se representa por lneas discontinuas.
Las dos primeras, se
naladas con (a), convergieron a soluciones locales, mientras que
la u
ltima, se
nalada con (b), alcanza la solucion optima global.
4
10
10
(a)
Funcin objetivo
10
10
(b)
10
10
10
2000
4000
6000
8000
Tiempo CPU (s)
10000
12000
Obviamente, el tama
no de la zona de atraccion, o en general, la topologa del
espacio de b
usqueda, es dependiente del problema. Por lo tanto, encontrar un punto
de cambio adecuado que de lugar a la mejor relacion eficiencia/robustez requiere
unos cuantos ensayos preliminares. De todos modos, una vez que esto se ha llevado
a cabo (y el tiempo computacional no es prohibitivo), nuestra experiencia demuestra
150
que el hbrido ajustado puede ser aplicado a otros conjuntos de datos, o incluso a
modelos ligeramente diferentes, sin ajuste adicional.
Para el conjunto de datos I, el mejor resultado (J=1.54e-7) se obtuvo despues de
un tiempo de calculo de 3.1 horas. Para el conjunto de datos pseudo-experimentales
II (3 % de error) el mejor resultado (J = 1.25) se obtuvo despues de un tiempo de
calculo de 3.4 horas y para el conjunto de datos pseudo-experimentales III (5 % de
error) se alcanzo un valor de la funcion objetivo J = 3.27 en un tiempo de calculo
total de 3.5 horas. En la Tabla 14.5 se muestran los valores del tiempo computacional
y de la funcion objetivo en cada una de las etapas del metodo hbrido (punto inicial,
punto de cambio y resultado final) para los tres conjuntos de datos.
Conjunto I
J
tCP U (h)
Conjunto II
J
tCP U (h)
Conjunto III
J
tCP U (h)
Punto inicial
Primera etapa
Segunda etapa
1180
48.2
1.54e-7
0
1.55
1.59
1116
34.9
1.25
0
2.50
0.93
1100
44.6
3.27
0
2.09
1.39
Final
1.54e-7
3.14
1.25
3.43
3.27
3.47
151
25
25
20
20
15
15
10
10
5
0
5
5
0
5
10
10
15
15
20
20
25
10
15
20
Parmetro
25
30
35
25
10
15
20
Parmetro
25
30
35
La Figura 14.4 muestra los valores M1, M2, E1, E2, E3, G1, G2 y G3 teoricos
(lnea continua) frente a sus experimentales (marcador) considerando los mejores
parametros estimados por el metodo hbrido secuencial para el conjunto de datos
III en cada uno de los 16 experimentos. Notese que existe una muy buena correlacion
entre los datos experimentales y los predichos incluso para el conjunto de datos con
mas ruido. El comportamiento para los otros dos conjuntos de datos es similar por
lo que se omitio su representacion.
Resultados del m
etodo SSm
Como se puede apreciar en la Figura 14.8 el metodo hbrido paralelo sincronico,
SSm, fue capaz de mejorar el resultado del metodo hbrido secuencial SRES-n2fb en
un orden de magnitud con respecto al tiempo computacional. Ademas, SSm presenta
la ventaja de no requerir ning
un ensayo preliminar para el ajuste del metodo, lo que
hace que sea una estrategia muy facil de usar. En resumen, empleando SSm se redujo
el tiempo computacional de dos das (Moles et al., 2003b) a un par de minutos,
asegurando la robustez.
152
2.5
M2
M1
1.5
0.5
0
0
20
40
60
80
Tiempo (min)
100
0
0
120
0.7
0.6
0.6
0.5
0.5
0.4
0.4
40
60
80
Tiempo (min)
100
120
20
40
60
80
Tiempo (min)
100
120
20
40
60
80
Tiempo (min)
100
120
20
40
60
80
Tiempo (min)
100
120
E2
E1
0.7
20
0.3
0.3
0.2
0.2
0.1
0.1
0
0
20
40
60
80
Tiempo (min)
100
0
0
120
0.45
1.4
0.4
1.2
0.35
1
0.3
0.8
E3
G1
0.25
0.2
0.6
0.15
0.4
0.1
0.2
0.05
0
0
20
40
60
80
Tiempo (min)
100
0
0
120
1.4
0.8
1.2
0.7
0.6
0.5
G3
G2
0.8
0.4
0.6
0.3
0.4
0.2
0.2
0.1
0
0
20
40
60
80
Tiempo (min)
100
120
0
0
153
10
SRES
SRES
n2fb
SSm
Funcin objetivo
10
10
10
10
Mtodo hbrido
6
10
10
10
10
Tiempo CPU (s)
10
14.5.
Identificabilidad a posteriori
154
35
0.8
30
0.6
0.4
25
0.2
20
0
15
0.2
0.4
10
0.6
5
0.8
5
10
15
20
25
30
35
14.6.
Intervalos de confianza
1.5
1.5
1.4
1.4
1.3
1.3
1.2
1.2
1.1
1.1
p4
Los intervalos de confianza del 95 % calculados a partir de la matriz de informacion de Fisher para los 36 parametros se representan en la Tabla 14.6. Como se
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
1
p
1.5
0.5
0.5
1
p
1.5
Par
ametro
pn
V1
Ki1
ni1
Ka1
na1
k1
V2
Ki2
ni2
Ka2
na2
k2
V3
Ki3
ni3
Ka3
na3
k3
V4
K4
k4
V5
K5
k5
V6
K6
k6
kcat1
Km1
Km2
kcat2
Km3
Km4
kcat3
Km5
Km6
p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36
2.160e-5
2.056e-6
9.278e-6
2.036e-6
2.957e-6
2.157e-5
3.197e-5
2.228e-6
1.381e-5
2.282e-6
4.819e-6
3.210e-5
3.667e-5
7.752e-6
4.084e-5
7.689e-6
7.610e-6
3.644e-5
7.369e-7
1.228e-5
3.694e-7
9.714e-7
1.375e-5
9.298e-7
1.245e-6
1.809e-5
9.718e-7
1.067e-5
1.905e-5
5.175e-5
2.475e-5
3.781e-5
9.325e-5
2.376e-5
3.646e-5
2.456e-5
155
8.639e-2
1.148e-2
1.012e-1
1.149e-2
1.651e-2
8.558e-2
6.952e-2
1.335e-2
1.078e-1
1.396e-2
1.915e-2
7.001e-2
1.228e-1
2.135e-2
1.675e-1
2.337e-2
2.190e-2
1.236e-1
2.703e-3
3.805e-2
1.608e-3
3.307e-3
4.465e-2
2.561e-3
3.167e-3
4.707e-2
1.999e-3
3.198e-2
5.059e-2
1.913e-1
7.569e-2
9.858e-2
3.560e-1
6.890e-2
1.034e-1
9.928e-2
1.424e-1
1.953e-2
1.478e-1
1.869e-2
2.861e-2
1.409e-1
1.739e-1
2.063e-2
1.903e-1
2.164e-2
3.127e-2
1.717e-1
2.320e-1
3.307e-2
3.440e-1
3.858e-2
3.695e-2
2.360e-1
4.053e-3
5.344e-2
2.778e-3
4.883e-3
7.318e-2
3.112e-3
7.095e-3
1.002e-1
3.672e-3
5.926e-2
9.101e-2
2.727e-1
1.339e-1
1.510e-1
3.855e-1
1.079e-1
1.563e-1
1.317e-1
156
14.7.
Dise
no
optimo de experimentos
Este
es un problema de optimizacion no lineal (NLO) con restricciones diferenciales que puede resolverse como se detalla en seccion 6.2. Notese que, por supuesto,
14.7. Dise
no optimo de experimentos
157
tambien podra plantearse una formulacion mas (o menos) general del problema.
Por ejemplo, el n
umero de nuevos experimentos N 2exp podra ser considerado como
una variable de decision, dando lugar a un problema de optimizacion no lineal entero mixto (Mixed-Integer Non-Linear Programming, MINLP) con un problema de
valor inicial interno. El horizonte de tiempo y los tiempos de muestreo para cada
experimento tambien podran ser considerados como variables de decision. Obviamente, aumentar la generalidad de la formulacion implica resolver un problema de
optimizacion mas complejo.
Para los objetivos de este trabajo, se considero que el valor de N 2exp es fijo y
ademas:
el horizonte de tiempo y los tiempos de muestreo son los mismos que en el
dise
no original
los lmites para los valores de S y P se consideran como el maximo y el mnimo
valor de estas variables en el dise
no original
los valores de P y S son invariantes con el tiempo para cada uno de los experimentos
De este modo, se intento encontrar un dise
no experimental alternativo de igual
dificultad practica que el original (es decir, al emplear los mismos tiempos de muestreo significa que se podran utilizar los mismos sensores, etc.).
Este problema fue resuelto mediante la minimizacion del criterio E, considerando 10 y 16 experimentos. Para su resolucion se emplearon los metodos globales DE,
SRES y SSm alcanzando los tres la solucion optima global. No obstante, como muestra la Figura 14.12 para el caso de 16 experimentos, SSm resulto ser un orden de
magnitud mas rapido que los otros dos. Ademas se utilizaron dos metodos locales,
fmincon y NOMADm, que quedaron atrapados en soluciones locales confirmando la
multimodalidad del problema y la necesidad de emplear metodos de optimizacion
global.
Los resultados se resumen en la Tabla 14.7, donde se muestran los valores del
criterio E y de otros criterios para el dise
no original y para los dise
nos resultantes.
El nuevo dise
no de 16 experimentos mejora el criterio E (empleado para la optimizacion) en un orden de magnitud. Ademas, tambien reduce el criterio E modificado
y simultaneamente mejora los demas. Sin embargo, debe destacarse que el criterio E
modificado del nuevo dise
no es tambien muy grande, indicando que todava existen
problemas de identificabilidad aunque en menor grado.
158
0.018
fmincon
NOMADm
DE
SRES
SSm
0.016
0.014
0.012
0.01
0.008
0.006
0.004
0.002
0 0
10
10
10
10
Tiempo CPU (s)
10
10
Dise
no
Original
Dise
no Opt.
(16 exp.)
Dise
no Opt.
(10 exp.)
Criterio E
Criterio E modificado
Criterio A
Criterio A modificado
Criterio D
1.658e-2
1.682e+6
6.040e-2
2.670e+8
2.264e+161
1.404e-3
8.673e+5
6.162e-3
9.434e+8
8.799e+185
2.586e-3
1.443e+6
1.181e-2
7.887e+8
5.428e+177
14.8. Conclusiones
14.8.
159
Conclusiones
Captulo 15
Cin
etica de la glucosa en pacientes
diab
eticos
15.1.
Introducci
on
Estas
pueden eventualmente producir fallos renales, ceguera, amputacion y otros
tipos de morbilidad. Los sujetos con diabetes tienen un alto riesgo de sufrir enfermedades cardiovasculares y se enfrentan a una mayor morbilidad y mortalidad
cuando son enfermos crticos.
La eficacia de un tratamiento intensivo para la prevencion de complicaciones
diabeticas ha sido demostrada por el Ensayo sobre el Control y las Complicaciones de la Diabetes (Diabetes Control and Complications Trial, 1993) y el Estudio
Prospectivo de Diabetes del Reino Unido (United Kingdom Prospective Diabetes
Study, 1998). En ambos ensayos los regmenes de tratamiento que redujeron la me161
162
dia de la hemoglobina glicosilada A1C (medida clnica del control glucemico que
refleja los niveles medios de glucosa en sangre durante los 2-3 meses precedentes) a
un aproximadamente 7 % (el rango normal es de 4-6 %) fueron asociados con pocas
complicaciones microvasculares a largo plazo. A pesar de ello, evidencias recientes
sugieren que estos niveles objetivo no son suficientemente bajos (Khaw et al., 2001;
Muntner et al., 2005).
Los tratamientos intensivos requieren m
ultiples inyecciones diarias de insulina
(tres o mas), o un tratamiento con una bomba de infusion de insulina (ver Figura
15.1). En cualquier caso, este control estricto (lo mas cercano posible a la normalidad) debe mantenerse de por vida para aprovechar todos los beneficios que confiere.
Hay muchos factores que influyen en la dosis de insulina requerida a traves del tiempo, incluyendo el peso, la condicion fsica y los niveles de estres. Debido a esto, se
requiere una monitorizacion frecuente de la glucosa en sangre. Basandose en estas
medidas, se puede modificar la dosificacion de la insulina, implementar cambios en
la dieta (como alteraciones en los horarios, frecuencia y contenido de las comidas)
y variar las pautas de actividad y ejercicio.
163
muestran que el modelo es capaz de describir las dinamicas observadas para sujetos
de tipo 1 y por lo tanto puede ser empleado para simular el comportamiento del
paciente en estas condiciones.
15.2.
Modelo matem
atico
dQ1 (t)
c
= F01
x1 (t)Q1 (t) + k12 Q2 (t) FR
dt
+UG (t) + EGP0 [1 x3 (t)]
dQ2 (t)
= x1 (t)Q1 (t) [k12 + x2 (t)] Q2 (t)
dt
dx1 (t)
= ka1 x1 (t) + SIT ka1 I(t)
dt
dx2 (t)
= ka2 x2 (t) + SID ka2 I(t)
dt
dx3 (t)
= ka3 x3 (t) + kb3 I(t)
dt
G(t) = Q2 (t)/VG
(15.1)
(15.2)
(15.3)
(15.4)
(15.5)
(15.6)
164
absorcin
intestinal
UG
EGP0
G=Q1/VG
Q1
k 12
Q2
Fc 01Q1/(GVG)-FR
k a1
absorcin
insulina
UI /VI
k a2
x1
kb2
x2
ke
ka3
k b1
x3
k b3
c
F01
FR =
UG =
F01
F01 G/4.5
si G 4.5 mmol/L
en otro caso
DG AG tet/tmax,G
t2max,G
(15.7)
(15.8)
(15.9)
165
canal lento
ku
ka1
Q1a
1
Q2
LDa
ka1
canal rpido
(1-k)u
ka2
Q1a
1
insulina en
plasma
Q2
ke
Figura 15.3: Estructura del modelo de infusion de insulina (Wilinska et al., 2005)
Las ecuaciones que describen la cinetica de la insulina son:
dQI1a (t)
dt
dQI1b (t)
dt
dQI2 (t)
dt
dI(t)
dt
(15.10)
(15.11)
(15.12)
1
(kia1 QI2 + kia2 QI1b (t)) ke I(t)
VI
(15.13)
donde
15.3.
LDa =
Vmax,ld QI1a
km,ld +QI1a
(15.14)
LDb =
Vmax,ld QI1b
km,ld +QI1b
(15.15)
Ranking de par
ametros
166
1
d
msqr
0.8
dmabs
0.6
mean
dmax
0.4
dmin
0.2
0
0.2
0.4
0.6
0.8
1
SIT
SID
F01
tmaxG
Parmetros
pn
Val nom
msqr
mabs
mean
max
min
SIT
SID
p1
p2
p4
p3
5.12e-3
8.20e-4
4.00e+1
9.70e-3
8.17e-1
3.96e-1
2.53e-1
1.86e-1
7.83e-1
3.62e-1
1.36e-1
1.68e-1
-7.83e-1
-3.62e-1
-9.81e-2
-1.68e-1
0.00e+0
0.00e+0
3.05e-1
0.00e+0
-9.65e-1
-5.12e-1
-6.61e-1
-3.00e-1
tmax,G
F01
15.4.
Estimaci
on de par
ametros
Es bien sabido que los parametros del sistema glucorregulatorio varan considerablemente entre sujetos, por lo tanto, la estimacion de parametros se realizo por
separado para cada uno de los pacientes. Utilizando varios metodos de optimizacion,
se estimaron los parametros correspondientes al sistema de glucosa (F01 , SIT , SID )
y tambien tmax,G considerada una constante del modelo por Hovorka et al. (2004).
Los parametros relacionados con el sistema de insulina se mantuvieron en sus valores nominales. Para los metodos que requieren un valor inicial para los parametros
se consideraron los valores de la bibliografa. Los lmites inferiores y superiores se
muestran en la Tabla 15.2.
167
Par
ametro
Val inicial
Lmite inf
Lmite sup
SIT
SID
F01
5.12e-3
8.20e-4
9.70e-3
4.00e+1
1.00e-5
1.00e-5
1.00e-5
2.00e+1
1.00e+0
1.00e+0
1.00e+0
1.00e+2
tmax,G
Frecuencia
60
50
40
30
20
10
0
0
0.5
1.5
2
Funcin objetivo
2.5
3
5
x 10
168
x 10
SRES
DE
SSm
Funcin objetivo
6 8 10
Tiempo CPU (s)
20
40
60
SIT
SID
F01
tmax,G
Paciente 1
Paciente 2
Paciente 3
Paciente 4
Paciente 5
5.05e-3
1.49e-5
2.36e-2
3.82e+1
2.48e-3
9.94e-5
2.70e-2
5.58e+1
4.49e-3
2.18e-5
2.55e-2
5.63e+1
5.57e-4
1.00e-5
5.25e-2
8.92e+1
1.73e-3
1.00e-5
3.60e-2
8.75e+1
169
Paciente 1
Paciente 2
Paciente 3
Paciente 4
Paciente 5
10
10
200
250
300
Tiempo (min)
350
400
Paciente 2
Paciente 3
Paciente 4
Paciente 5
4.41 %
3.71 %
3.07 %
4.19 %
4.79 %
Tabla 15.4: Valor medio de los errores de prediccion para los niveles de glucosa
170
120
140
120
100
100
Glucosa (mg/dl)
Glucosa (mg/dl)
80
60
80
60
40
40
20
datos experimentales
data filtrados
prediccin del modelo
0
50
100
150
200
Tiempo (min)
250
300
datos experimentales
datos filtrados
prediccin del modelo
20
350
50
100
150
200
250
Tiempo (min)
300
350
15.5.
400
Identificabilidad a posteriori
tmaxG
0.6
0.4
F01
0.2
0
0.2
SID
0.4
0.6
SIT
0.8
SIT
SID
F01
tmaxG
15.6.
171
Intervalos de confianza
Valor
optimo
Desv estd
SIT
SID
F01
5.12e-3
8.20e-4
9.70e-3
4.00e+1
2.86e-3
3.12e-5
3.29e-2
6.54e+1
1.88e-3
3.84e-5
1.19e-2
2.22e+1
tmax,G
15.7.
Conclusiones
Parte IV
Conclusiones
Conclusiones
En esta tesis se abordo el modelado y la identificacion de procesos relacionados con la industria alimentaria y biotecnologica. Debido a la compleja estructura
de estos modelos, descritos en su mayora por sistemas de ecuaciones algebraicas y
diferenciales ordinarias y/o en derivadas parciales de naturaleza no lineal, se desarrollo una metodologa en varios pasos para la adecuada resolucion del problema
inverso asociado.
La primera parte de este trabajo se centro en el problema de estimacion de
parametros. Como conclusiones y resultados mas relevantes cabe destacar:
Los metodos locales basados en el gradiente, empleados habitualmente para
el ajuste de sistemas dinamicos no lineales, presentan a menudo problemas de
convergencia local dando lugar a conclusiones erroneas sobre la validez de los
modelos.
La mayora de los metodos de optimizacion global capaces de resolver este tipo
de problemas dan lugar a tiempos de calculo excesivos, especialmente cuando
se requiere una gran precision para la solucion.
Con objeto de superar estas dificultades se desarrollo un metodo hbrido estocastico-determinista (SRES+n2fb) y se emplearon otras metaheursticas alternativas (SSm) para la calibracion de los modelos considerados. Mediante
la resolucion de una serie de problemas de complejidad media-alta, estas estrategias han demostrado mejorar la eficiencia sin perder robustez, manejando
adecuadamente medidas con ruido y observaciones parciales. En todos los problemas considerados, SSm resulto ser al menos dos ordenes de magnitud mas
rapido que metodos estocasticos de probada eficacia como SRES y DE.
El valor de los parametros estimados siempre debe ir acompa
nado de una medida objetiva de su precision. Para ello se calcularon los intervalos de confianza
mediante la aproximacion de Cr`amer-Rao y mediante el metodo de Monte
Carlo resultando esta u
ltima aproximacion mas robusta.
175
176
Conclusiones
En una segunda parte se realizo un estudio sobre de los diferentes metodos para el
calculo de sensibilidades y el analisis de identificabilidad obteniendose las siguientes
conclusiones:
El estudio de la identificabilidad estructural global es muy complejo para modelos no lineales. Para algunos de los modelos considerados (el relativo al secado de alimentos y el correspondiente a la isomerizacion termica del -pineno)
se pudo estudiar la identificabilidad estructural mediante el metodo de series
de Taylor. A pesar de que las tecnicas basadas en algebra diferencial hayan
demostrado resultados prometedores, la aplicabilidad de las tecnicas existentes
en la actualidad es limitada (Dokos y Lovell, 2004; Baker et al., 2005) por lo
que para otros de los modelos considerados no fue posible realizar este analisis.
El analisis de sensibilidades permitio establecer un ranking en funcion de la
importancia de los parametros de modo que los que demostraron tener poco
efecto pudieron ser simplificados o incluso ignorados. Dado el caracter local
de este procedimiento, este debe realizarse con especial cautela y siempre de
modo iterativo para evitar descartar parametros poco importantes en fases
intermedias que afecten significativamente a las predicciones del modelo una
vez encontrado el optimo global. Por este motivo, siempre que fue posible, se
intento llevar a cabo la estimacion del conjunto completo de los parametros
del modelo.
Se realizo el chequeo de la identificabilidad practica de todos los modelos
considerados. En algunos casos, como en el modelo de la ruta bioqumica
en tres pasos, al llevar a cabo el estudio de identificabilidad a posteriori se
vieron algunos pares de parametros altamente correlacionados. A pesar de estos
resultados, al realizar la identificacion con metodos globales, se comprobo que
los parametros s pueden ser determinados de forma u
nica. Esto lleva a pensar
que, como ya han indicado otros autores como Petersen et al. (2001), en algunos
casos la matriz de informacion de Fisher resulta inadecuada para evaluar la
identificabilidad practica. Debido a la linealizacion de primer orden del modelo
con respecto a los parametros en la que se basa la FIM, se podra estar
perdiendo alguna informacion sobre los parametros lo que hace que en algunas
ocasiones estos sean identificables a
un cuando la FIM sea singular.
En la tercera parte de este trabajo se considero e problema de dise
no optimo de
experimentos. Basandose en los resultados obtenidos se puede concluir que:
Conclusiones
177
El dise
no optimo de experimentos mediante tecnicas de optimizacion dinamica
consiguio reducir los problemas de identificabilidad practica de algunos modelos a la vez que se aumento la precision de los parametros estimados.
Esta tecnica permite ademas reducir el esfuerzo experimental con el consiguiente beneficio economico que esto supone a nivel industrial.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitio asegurar que los nuevos experimentos dise
nados son globalmente optimos y evitar la convergencia a soluciones esp
ureas experimentada
por los metodos locales.
Los resultados obtenidos con los distintos criterios sugieren el uso de otras formulaciones alternativas a ser estudiadas en trabajos futuros como, por ejemplo,
formulaciones multi-objetivo para considerar simultaneamente varios criterios
basados en la matriz de informacion de Fisher.
La cuarta parte de este trabajo consistio en el desarrollo de un entorno de trabajo
(GOSBio) para la automatizacion de estas tareas dando lugar a una herramienta de
las siguientes caractersticas:
El entorno principal se logro empleando codigo Matlab y creando pasarelas
para llamar a codigos Fortran externos para la simulacion, el computo de las
sensibilidades parametricas y algunos metodos de optimizacion como n2fb.
Esto permitio reducir considerablemente el esfuerzo de calculo con respecto
a una implementacion completa en Matlab, manteniendose todas las ventajas
de este lenguaje en cuanto a facilidad de implementacion y visualizacion de
los resultados.
La simplicidad de uso del codigo desarrollado, su versatilidad y su rapidez lo
convierten en una herramienta practica y eficaz que puede ser empleada para
el modelado e identificacion de un amplio rango de modelos no lineales.
Por u
ltimo, la utilidad y potencial de esta metodologa se ilustro mediante el modelado e identificacion de una serie de procesos de complejidad media-alta tomados
del area de ingeniera de bioprocesos. Las principales conclusiones fueron:
Secado de alimentos: mediante la aproximacion de Taylor se detectaron problemas de identificabilidad estructural en este modelo. La eliminacion de los
parametros no identificables y el empleo de metodos de optimizacion global
para la calibracion de los parametros identificables a priori permitio estimarlos
con gran precision como muestran los intervalos de confianza calculados.
178
Conclusiones
Conclusiones
179
Parte V
Ap
endices
Ap
endice A
Ejemplo de fichero de entrada
para el entorno GOSBio
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
USER MUST INTRODUCE HERE PROBLEM RELATED DATA:
%
%
--> SIMULATION DATA
%
%
--> OPTIMIZATION RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% User may change the name of the function according to his/her necessities
% Please, remember to save the file as name_function.m
function[problem_input,ivp_solver,opt_solver,results]=mendes_input_data;
% problem_input.folder: folder to keep problem related files.
problem_input.folder=Mendes;
% Folder to keep all output files:
%
General input report for a particular run.
%
Optimizer report.
%
Plots: Best fit and Convergence curve when available
results.folder=results_SSm_noise_5_run_1;
% problem_input.report: file to keep input/output information for each different run
results.report=results.m;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
ANALYSIS TO BE PERFORMED
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% PE
Parameter estimation
% OED
Optimal experimental design
% prior_analysis
Performs: Ranking of parameters and local a priori identifiability analysis
% post_analysis
Performs practical identifiability analysis
% all
Performs a priori analysis, OED and a posteriori analysis
problem_input.task=PE;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
MODEL RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% results.n_states: number of state variables.
problem_input.n_states=8;
183
184
185
186
%
For the case experimental data is provided this value should be fixed to 1.0
problem_input.rel_error{iexp}=0.05;
% problem_input.fobj_norm:
%
1: to normalize objective function with max experimental data.
%
0: no normalization is applied problem_input.
problem_input.fobj_norm=1;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
OBJECTIVE FUNCTION FOR OPTIMAL EXPERIMENTAL DESIGN
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.fobj_type: Function of the FIM to be minimized
% A_optimality = trace(inv(FIM))
% A_modified = -trace(FIM)
(maximize trace(FIM))
% D_optimality = -det(FIM)
(maximize det(FIM))
% E_optimality = -min(abs(eig(FIM))) (maximize min(eig(FIM)))
% E_modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))
problem_input.fobj_type=D_optimality;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
CONTROL RELATED DATA FOR EACH EXPERIMENT {i}
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_u: number of control variables >=1 for experiment {i}:1-n_exp
problem_input.n_u=2;
% problem_input.n_con: number of control steps >=1 for experiment {i}:1-n_exp
problem_input.n_con{iexp}=1;
% problem_input.u: control variable for experiment {i}:1-n_exp
S_list = [0.1 0.1 0.1 0.1 0.46416 0.46416 0.46416 0.46416 2.1544 2.1544 2.1544 2.1544 10 10 10 10];
P_list = [0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1];
problem_input.u{iexp}(1,:)=S_list(iexp);
problem_input.u{iexp}(2,:)=P_list(iexp);
% t_con: temporal control switching points for experiment {i}:1-n_exp
% t_con(n_con)=tf
% problem_input.t_con=[];
problem_input.t_con{iexp}=[120.0];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
ODE SOLVER RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Select the solver to be used from the following alternatives
%
radau5: BDF based method suitable also for DAEs
%
rkf45 : Runge-Kutta-Fehlberg ODE Solver
%
ode15s: MATLAB code to be used when fcn.m is provided
%
odessa: BDF based method suitable for parametric sensitivity analysis
ivp_solver.name= radau5;
% rtol/atol: integration tolerances
ivp_solver.rtol = 1.0D-6;
ivp_solver.atol = 1.0D-6;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
NLP SOLVER RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
187
Parte VI
Bibliografa
Bibliografa
[1] J. Abadie y J. Carpentier. Optimization, captulo: Generalization of the
Wolfe Reduced Gradient Method to the case of Nonlinear Constraints. Academic Press, New York, 1969.
[2] M. A. Abramson. Pattern Search Algorithms for Mixed Variable General Constrained Optimization Problems. Tesis doctoral, Houston, Texas, Rice
University, 2002.
orn. Application of stochastic global optimiza[3] M.M. Ali, C. Storey y A. T
tion algorithms to practical problems. J. of Opt. Th. and Appl., 95(3):545563,
1997.
[4] S. P. Asprey y S. Macchietto. Designing robust optimal dynamic experiments. J. of Biotechnology, 12(4):545556, 2002.
[5] A. C. Atkinson y W. G. Hunter. The design of experiments for parameter
estimation. Technometrics, 10:271289, 1968.
[6] S. Audoly, G. Bellu, L. DAngio, M.P. Saccomani y C. Cobelli. Global
identifiability of nonlinear models of biological systems. IEEE Trans Biomedical Engineering., 48(1):5565, 2001.
[7] B. M. Averick, R. G. Carter y J. J. More. The minpack-2 test problem
collection. Technical Report ANL/MCS-TM-273, Argonne National Laboratory., 1991.
[8] C. T. H. Baker, G. A. Bocharov, C. A. H. Paul y F. A. Rihan.
Computational modelling with functional differential equations: Identification,
selection, and sensitivity. Applied Numerical Mathematics, 53:107129, 2005.
[9] M. Balaban. Effect of volume change in foods on the temperature and moisture content predictions of simultaneous heat and moisture transfer models.
Journal of Food Process Engineering, 12:6788, 1989.
191
192
Bibliografa
Bibliografa
193
194
Bibliografa
[32] L.T. Biegler. Solution of dynamic optimization problems by succesive quadratic programming and orthogonal collocation. Comp. and Chem. Eng.,
8(3/4):243248, 1984.
[33] H. Bock. Progress in Scientific Computing, vol. 2, captulo: Recent advances
in parameter identification for ordinary differential equations., paginas 95121.
Deuflhard, P., Hairer, E. (Eds.) Birkhauser, Boston, 1983.
[34] H. Bock. Randwertproblemmethoden zur Parameteridentifizierung in Systemen Nichtlinearer Differentialgleichungen. Tesis doctoral, Universitat Bonn,
1987.
[35] E. Bonabeau, M. Dorigo y G. Theraulaz. Swarm intelligence: from
natural to artificial systems. Oxford University Press, New York, 1999.
[36] E. Bonabeau, M. Dorigo y G. Theraulaz. Inspiration for optimization
from social insect behaviour. Nature, 406:3942, 2000.
[37] G. E. P. Box, W. G. Hunter, J. F. MacGregor y J. Erjavec. Some
problems associated with the analysis of multiresponse data. Technometrics,
15:3351, 1973.
[38] M.J. Box. The occurrence of replications in optimal designs of experiments
to estimate parameters in non-linear models. Journal of the Royal Statistical
Society, Series B, 30:290302, 1968.
[39] M.J. Box. Some experiences with a non-linear experimental design criterion.
Technometrics, 12:569589, 1970.
[40] S. Brooks. A discussion of random methods for seeking maxima. Operations
Research, 6:244251, 1958.
[41] S. Bruin y K.C.A.M. Luyben. Advances in drying, Vol. I, captulo: Drying
of food materials: A review of recent developments. New York: Hemisphere
Publishing Corp., 1980.
[42] R. Brun, P. Reichert y H.R. Kunsch. Practical identifiability analysis of
large environmental simulation models. Water Resources Research., 37:1015
1030, 2001.
[43] A. E. Bryson y Y. C. Ho. Applied optimal control. Hemisphere Publishing
Corporation, New York, 1975.
Bibliografa
195
196
Bibliografa
Bibliografa
197
[69] C.A. Floudas. Deterministic Global Optimization: Theory, Methods and Applications. Kluwer Academics, The Netherlands, 2000.
[70] L.J. Fogel, A.J. Owens y M.J. Walsh. Artificial intelligence through
simulated evolution. Wiley, New York, 1966.
[71] R.E. Fuguitt y J. E. Hawkins. Rate of thermal isomerization of -pinene
in the liquid phase. J. A. C. S., 69:461, 1947.
[72] M. Fussenegger, J. E. Bailey y J. Varner. A mathematical model of
caspase function in apoptosis. Nat. Biotechnol., 18:768774, 2000.
[73] K.G. Gadkar, R. Gunawan y F.J. Doyle III. Iterative approach to model
identification of biological networks. BMC Bioinformatics, 6:155, 2005.
[74] M.S.G. Garcia, E. Balsa-Canto, A.A. Alonso y J.R. Banga. Computing optimal operating policies for the food industry. J. Food Eng., 74(1):1323,
2006.
[75] R. L. Garote, E. R. Silva y R. A. Bertone. Kinetic parameters for thermal
inactivation of cut green beans lipoxygenase calculated using unsteady-state
methods. International Journal of Food Science and Technology, 36:377385,
2001.
[76] P. E. Gill, W. Murray y M. A. Saunders. SNOPT: An SQP algorithm for large-scale constrained optimization. Siam Journal on Optimization.,
12(4):9791006, 2002.
[77] P. E. Gill, W. Murray, M. A. Saunders y M. H. Wight. Users guide for
npsol 5.0: a FORTRAN package for nonlinear programming. Informe Tecnico
SOL 86-1, Systems Optimization Laboratory, Standford University, 1998.
[78] P. E. Gill, W. Murray y M. H. Wright. Practical Optimization. Academic
Press, New York, 1981.
[79] F. Glover. Heuristics for integer programming using surrogate constraints.
Decision Sciences, 8-1:156166, 1977.
umen
[80] F. Glover. Artificial Evolution, Lecture Notes in Computer Science, vol
1363, captulo: A Template for Scatter Search and Path Relinking, paginas
1354. Springer-Verlag, 1998.
[81] F. Glover y M. Laguna. Tabu Search. Kluwer, MA, 1997.
198
Bibliografa
[82] K. R. Godfrey y J. J. DiStefano III. Identification and System Parameter Estimation, captulo: Identifiability of model parameters, paginas 89114.
Pergamon Press, Oxford, 1985.
[83] D.E. Goldberg. Genetic Algorithms in Search, Optimization & Machine
Learning. Addison Wesley Longman, 1989.
[84] G.C. Goodwin y R.L. Payne. Dynamic system identification: Experiment
design and data analysis. Acadamic Press, New York, 1977.
[85] F. H. Grant III y J.J. Solberg. Variance reduction techniques in stochastic
shortes route analysis: Application procedures and results. Mathematics and
Computers in Simulation, 25:366375, 1983.
[86] K. Grijspeerdt y P. Vanrolleghem. Estimating the parameters of the
baranyi model for bacterial growth. Food. Microbiol., 16(6):593605, 1999.
[87] C. Guus, E. Boender y H.E. Romeijn. Handbook of Global Optimization,
captulo: Stochastic Methods. Kluwer, 1995.
[88] E. Hairer y G. Wanne. Solvind Ordinary Differential Equations II: Stiff
and Differential Algebraic Problems. Springer-Verlag, 1996.
[89] D. V. Hinkley. Bootstrap methods. Journal of Royal Statistics Society,
Series B, 50(3):321337, 1988.
[90] K. Holmstr
om y M.M. Edvall. Modeling Languages in Mathematical Optimization, captulo: The Tomlab Optimization Environment, paginas 369378.
Kluwer Academic Publishers, 2004.
[91] R. Hooke y T. A. Jeeves. An automatic method for finding the greatest
or least value of a function. The Computer Journal, 3(3):175184, 1960.
[92] R. Hooke y T. A. Jeeves. Direct Search solution of numerical and statistical problems. J. Assoc. Comput. Mach., 8:212229, 1961.
[93] W. Horbelt, J. Timmer y W. Melzer. Differential equations and applications, captulo: Estimating parameters in Nonlinear Differential Equations
with Application to Physiological Data. G. Osipenko, ed., 1998.
[94] R. Horst y P.M. Pardalos. Handbook of Global Optimization. Kluwer
Academic, 1995.
Bibliografa
199
[95] R. Hovorka, V. Canonico, L.J. Chassin, U. Haueter, M. MassiBenedetti, M.O. Federici, T.R. Pieber, H.C. Schaller, L. Schaupp,
T. Vering y M.E. Wilinska. Nonlinear model predictive control of glucose
concentration in subjects with type 1 diabetes. Physiological Measurement,
25(4):90520, Agosto 2004.
[96] W. G. Hunter y J. F. McGregor. The estimation of common parameters from several responses: Some actual examples. Department of Statistics,
University of Winsconsin, 1967.
[97] J. A. Jacquez y P. Greif. Numerical parameter identifiability and estimability: Integrating identifiability, estimability, and optimal sampling desing.
Mathematical Biosciences., 77:201227, 1985.
[98] K. S. Jayaraman y D. K. Das Gupta. Dehydration of fruits and
vegetablesrecent developments in principles and techniques. Drying Technology, 10(1):150, 1992.
[99] U. Jeppsson. Modelling Aspects of Wastewater Treatment Processes. Tesis
doctoral, Lund Institute of Technology, 1996.
[100] W.J. Karnavas, P. Sanchez y A.T. Bahill. Sensitivity analyses of continuous and discrete systems in the time and frequency domains. IEEE Trans.
Syst. Man. Cybernetics., SCM-23:488501, 1993.
[101] K. Khaw, N. Wareham, R. Luben, S. Bingham, S. Oakes, A. Welch
y N. Day. Glycated haemoglobin, diabetes, and mortality in men in Norfolk
cohort of European Prospective Investigation of Cancer and Nutrition (EPICNorfolk). British Medical Journal, 322(7277):1518, 2001.
[102] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. Optimization by simulated
annealing. Science, 220:671680, 1983.
[103] P. Kuzmic. Program dynafit for the analysis of enzyme kinetic data: application to hiv proteinase. Analytical Biochemistry, 237:260273, 1996.
[104] P.J.M. Laarhoven y E.H.L. Aarts. Simulated annealing: theory and applications. Reidel Publishing Company, Dordrecht, 1987.
[105] M. Laguna y Marti R. Scatter Search: Methodology and Implementations
in C. Kluwer Academic Publishers, The Netherlands, 2003.
200
Bibliografa
Bibliografa
201
202
Bibliografa
Bibliografa
203
204
Bibliografa
Bibliografa
205
[166] S. Simal, C. Rossello, A. Berna y A. Mulet. Drying of shrinking cylindershaped bodies. Journal of Food Engineering, 37:423435, 1998.
[167] R. Smith, G. Dullerud, S. Rangan y K. Poolla. Model validation for
dynamically uncertain systems. Mathematical Modeling of Systems, 3:4358,
1997.
[168] E. D. Sontag. For differential equations with r parameters, 2r+1 experiments
are enough for identification. Nonlinear Science, 12:553583, 2002.
[169] S. M. Stigler. Gauss and the invention of the least-squares. Annals of
Statistics, 9(4):465474, 1981.
[170] R. Storn y K. Price. Differential evolution - a simple and efficient heuristic
for global optimization over continuous spaces. J. Global. Optim., 11:341359,
1997.
[171] M. Sugimoto, S. Kikuchi y M. Tomita. Reverse engineering of biochemical equations from time-course data by means of genetic programming.
BioSystems, 80:155164, 2005.
[172] E.-G. Talbi. A taxonomy of hybrid metaheuristics. Journal of Heuristics,
8:541564, 2002.
[173] J. Timmer. Modeling noisy time series: physiological tremor. Int. J. Bifurcation Chaos, 8(7):15051516, 1998.
[174] J. Timmer, W. Horbelt, M. B
unner, M. Ciofini y R. Meucci. Stochaos: Stochastic and Chaotic Dynamics in the Lakes, captulo: Estimating
Parameters in Differential Equations with Application to Laser Data. American Institute of Physics, Melvilley, NY, USA, 2000.
[175] I. B. Tjoa y L. T. Biegler. Simultaneous solution and optimization strategies for parameter estimation of differential-algebraic equation systems. Industrial and Engineering Chemistry Research, 30(2):376, 1991.
orn, M. Ali y S. Viitanen. Stochastic global optimization: Problem
[176] A. T
classes and solution techniques. Journal of Global Optimization, 14:437, 1999.
orn. Global optimization as a combination of global and local search.
[177] A. A. T
En Proceedings of Computer Simulation Versus Analytical Solutions for Business and Economic Models, 1973.
206
Bibliografa
[178] UK Prospective Diabetes Study Group. Intensive bloodglucose control with sulphonylureas or insulin compared with conventional treatment and
risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet,
352:837853, 1998.
[179] S. Vajda, K. R. Godfrey y H Rabitz. Similarity transformation approach
to structural identifiability of nonlinear models. Mathematical Biosciences.,
93:217248, 1989.
[180] A. Van Loey, A. Fransis, M. Hendrickx, G. Maesmans y P. Tobback. Kinetics quality changes of green peas and white beans during thermal
processing. Journal of Food Engineering, 24:361377, 1995.
[181] P. A. Vanrolleghem y K. J. Keesman. Identification of biodegradation models under model and data uncertainty. Water Science Technology,
33(2):91105, 1996.
[182] P.A. Vanrolleghem y D. Dochain. Advanced Instrumentation, data interpretation, and control of biotechnological process., captulo: Bioprocess Model
Identification, paginas 251318. Kluwer Academic Publishers, 1998.
[183] G. C. Vansteenkiste y J. A. Spriet. Progress in Modelling and Simulation, captulo: Modelling ill-defined systems, paginas 1138. Academic Press,
London, 1982.
[184] V. S. Vassiliadis. Computational Solution of Dynamic Optimization Problems with General Differential-Algebraic Constraints. Tesis doctoral, Imperial
College, University of London, London, U.K., Julio 1993.
[185] K. Versyck. Dynamic Input Design for Optimal Estimation of Kinetic Parameters in Bioprocess Models. Tesis doctoral, Katholieke Universiteit Leuven,
Mayo 2000.
[186] K. Versyck, K. Bernaerts, Geeraerd A.H. y J. Van Impe. Introducing
optimal experimental desing in predictive modeling: A motivating example.
Int. J. Food. Microbiol., 51:3951, 1999.
[187] E. O. Voit y J. Almeida. Decoupling dynamical systems for pathway identification from metabolic profiles. Bioinformatics, 20:16701681, 2004.
[188] K. M. Waananen, J. B. Litchfield y M. R. Okos. Classification of drying
models for porous solids. Drying Technology, 11(1):140, 1993.
Bibliografa
207
[189] E. Walter y L. Pronzato. Identification of Parametric Models from Experimental Data. Springer, 1997.
[190] F.S. Wang y J.P. Chiou. Optimal control and optimal time location problems of differential-algebraic systems by differential evolution. Ind. Eng.
Chem. Res., 36(12):53485357, 1997.
[191] S. Wild, G. Roglic, A. Green, R. Sicree y H. King. Global prevalence
of diabetes: estimates for the year 2000 and projections for 2030. Diabetes
Care, 27(5):10471053, 2004.
[192] M.E. Wilinska, L.J. Chassin, H.C. Schaller, L. Schaupp, T.R. Pieber
y R. Hovorka. Insulin kinetics in type1 diabetes: continuous and bolus delivery of rapid acting insulin. IEEE Transactions on Biomedical Engineering,
52(1):312, 2005.
[193] D.H. Wolpert y W.G. Macready. No free lunch theorems for optimization.
IEEE Transactions on Evolutionary Computation, 1:6782, 1997.
[194] Y. Ye. Interior algorithms for linear, quadratic and linearly constrained nonlinear programming. Tesis doctoral, Department of ESS, Stanford University,
1987.
[195] D. E. Zak, G. E. Gonye, J. S. Schwaber y F. J. Doyle III. Importance of
input perturbations and stochastic gene expression in the reverse engineering
of genetic regulatory networks: Insights from an identifiability analysis of an
in silico network. Genome Research., 13:23962405, 2003.
Parte VII
Publicaciones
Publicaciones
211
Contribuciones a congresos
Balsa-Canto, E., Rodriguez-Fernandez, M., Alonso, A. A. y Banga,
J. R. Optimal Identification in Systems Biology. Applications in Cell Signaling. AIChE Annual Meeting, 12-17 Noviembre, 2006, San Francisco, Estados
Unidos.
Palerm, C. C., Rodriguez-Fernandez, M., Bevier, W. C., Zisser, H.,
Banga, J.R., Jovanovic, L. y Doyle III, F. J. Robust Parameter Estimation in a Model for Glucose Kinetics in Type 1 Diabetes Subjects. Engineering
in Medicine and Biology Conference, 30 Agosto - 3 Septiembre, 2006, Nueva
York, Estados Unidos.
Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Identification in Nonlinear Dynamic Process Models. Second CTS Workshop, 10-12
Julio, 2006, Paris, Francia.
212
Publicaciones
Publicaciones
213
of Industrial Food Processing. FOODSIM2004, 16-18 Junio, 2004, WICCWIR, Wageningen, Holanda.
Fernandez, C.V., Garcia, M.R., Rodriguez-Fernandez, M., BalsaCanto, E., Banga, J.R. y Alonso, A.A. On Systematic Model Reduction
Techniques for Dynamic Optimization and Robust Control of Distributed Process Systems. European Symposium on Computer Aided Process Engineering
(ESCAPE-14), 16-19 Mayo, 2004, Lisboa, Portugal.
Rodriguez-Fernandez, M., Alonso, A. A y Banga, J. R. Robust Parameter Estimation in Heat and Mass Transfer Models of Food Processing.
International Conference on Engineering and Food 9 (ICEF 9), 7-11 Marzo,
2004, Montpellier, Francia.