Está en la página 1de 237

UNIVERSIDAD DE VIGO

DEPARTAMENTO DE INGENIERIA QUIMICA

DE
MODELADO E IDENTIFICACION
BIOPROCESOS

Memoria que para optar al grado de Doctora por la


Universidad de Vigo presenta
Mara Rodrguez Fern
andez
Vigo, 2006

Autorizaci
on

El Doctor Julio Rodrguez Banga, Investigador Cientfico del Instituto de


Investigaciones Marinas de Vigo (C.S.I.C.)

CERTIFICA:
Que la memoria adjunta, titulada Modelado e Identificacion de Bioprocesos,
que para optar al grado de Doctora presenta Da . Mara Rodrguez Fernandez, ha sido
realizada bajo su inmediata direccion en el Instituto de Investigaciones Marinas del
C.S.I.C. y, considerando que constituye trabajo de Tesis, autoriza su presentacion
en la Universidad de Vigo.

Vigo, 9 de Octubre de 2006

Fdo.: Dr. Julio Rodrguez Banga

All models are wrong... but some are useful.


George E. P. Box

Resumen
La ingeniera de procesos moderna se basa en el uso de modelos matematicos
rigurosos para realizar tareas de analisis, dise
no, optimizacion y control. En el caso
de bioprocesos (industria alimentaria y biotecnologica) estos modelos suelen tener
un caracter dinamico y no lineal.
El desarrollo de un modelo matematico puede considerarse como un ciclo: partiendo de unos objetivos (finalidad del modelo) y de unos conocimientos a priori
(datos preliminares, analisis basico e hipotesis iniciales), se propone una estructura
para el modelo. A partir de los datos experimentales, se realiza entonces la estimacion de parametros dando lugar a un modelo inicial que debe ser validado con
nuevos experimentos, lo que en la mayora de los casos revelara algunas deficiencias.
En ese caso, debe plantearse una nueva estructura del modelo o un nuevo dise
no de
experimentos. Este proceso debe repetirse de forma iterativa hasta que la etapa de
validacion se considere satisfactoria. El presente estudio se centra en los problemas
de (i) estimacion de parametros y (ii) dise
no optimo de experimentos dinamicos.
El problema de estimacion de parametros se plantea como la minimizacion de
una funcion de coste (J) que mide la calidad del ajuste del modelo con respecto
a un conjunto de datos experimentales, sujeto a la dinamica del sistema y a otras
posibles restricciones algebraicas. Esta formulacion corresponde a la de un problema
de optimizacion no lineal (Non-Linear Optimization Problem, NLO) con ecuaciones
diferenciales ordinarias y algebraicas como restricciones.
Matematicamente, el dise
no optimo de experimentos puede plantearse como un
problema de optimizacion dinamica en donde el objetivo es encontrar un conjunto
de variables de entrada (controles) para los experimentos dinamicos que maximicen
la calidad de alg
un indicador estadstico de los parametros estimados. Con objeto
de aumentar la identificabilidad practica y la precision de los parametros, en este
trabajo se han utilizado funciones escalares de la matriz de informacion de Fisher.
Empleando metodos directos, que transforman el problema original en un problema
de optimizacion no lineal (NLO) mediante la parametrizacion de los controles y/o
de los estados, se pueden obtener soluciones numericas.
xi

xii

Resumen

Debido a la naturaleza no lineal del modelo dinamico, estos dos problemas son frecuentemente multimodales (no convexos) y, por lo tanto, si se resuelven con metodos
tradicionales de optimizacion local es muy probable que converjan a optimos locales.
Ademas, en el caso de un mal ajuste de los parametros, no hay modo de saber si
este se debe a una mala formulacion del modelo o si es debido a la convergencia a

una solucion de naturaleza local. Esta


es una clara motivacion para la utilizacion
de metodos que proporcionen mas garantas de convergencia al optimo global tanto
para resolver el problema de calibracion como para resolver el problema de dise
no
optimo de experimentos.
La creciente demanda de los consumidores con respecto a la calidad de los alimentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de metodos de computacion basados en modelos para la simulacion, la optimizacion
y el control de tecnicas de procesamiento de alimentos. Las aproximaciones basadas
en modelos son tambien un tema central en la biologa de sistemas ya que proporcionan nuevos modos de analizar los datos procedentes de la genomica y la proteomica,
proporcionando un gran entendimiento sobre el lenguaje de las celulas y los organismos. Ademas, estas aproximaciones proporcionan estrategias sistematicas para
cuestiones clave de la medicina y la industria farmaceutica y biotecnologica como,
por ejemplo, el desarrollo de farmacos teniendo en cuenta los efectos de posibles
nuevos medicamentos en rutas bioqumicas y en la fisiologa.
En este trabajo se estudia el modelado y la identificacion de una serie de bioprocesos. Relativos a la industria alimentaria, se han considerado procesos de conservacion
basados en tecnicas de secado y procesamiento termico de alimentos. En relacion a
la biologa de sistemas, se han considerado modelos de rutas bioqumicas de gran
interes as como la modelizacion de la cinetica de la glucosa en pacientes diabeticos
que es un paso clave en el desarrollo del deseado pancreas artificial.
Para llevar a cabo estas tareas, se presentan nuevas metodologas de optimizacion
global que aumentan significativamente la eficiencia de las hasta ahora utilizadas
garantizando su robustez. Se hace tambien una revision de los metodos de analisis de
sensibilidades as como de los tipos de funciones de sensibilidad y de su aplicabilidad,
especialmente para cuantificar la importancia de los parametros estableciendo un
ranking de los mismos. Ademas, se analizan las tecnicas existentes para el estudio de
R
la identificabilidad y se presenta un programa desarrollado en Matlab
que, como se
explicara detalladamente a lo largo de este trabajo, permite automatizar las tareas de
analisis de identificabilidad, ranking de parametros, calibracion del modelo, calculo
de intervalos de confianza y dise
no optimo de experimentos dinamicos.

Objetivos
El objetivo fundamental de esta tesis consiste en desarrollar una metodologa
integrada para el modelado y la identificacion de bioprocesos, es decir, aquellos pertenecientes a la industria alimentaria y biotecnologica. Los modelos que representan
estos procesos suelen tener un caracter dinamico y no lineal por lo que el problema
inverso asociado resulta especialmente complejo. Para poder realizar esta tarea con
exito, se han propuesto una serie de sub-objetivos:
Analisis de la identificabilidad de los modelos tanto estructural (para aquellos
abordables mediante las tecnicas disponibles en la actualidad) como practica
y cuantificacion de la importancia de los parametros estableciendo un ranking
de los mismos.
Estimacion robusta de parametros mediante metodos que permitan el manejo adecuado de ruido en las medidas y observaciones parciales as como la
resolucion de este tipo de problemas en un tiempo de calculo reducido.
Dise
no optimo de experimentos empleando tecnicas de optimizacion dinamica
con objeto de reducir los problemas de identificabilidad practica, aumentar la
precision de los parametros estimados y disminuir el esfuerzo experimental.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitira asegurar que los nuevos experimentos dise
nados sean globalmente optimos y evitar la convergencia a mnimos locales.
Desarrollo de un entorno integrado para la automatizacion de las tareas de
estimacion de parametros, dise
no optimo de experimentos, analisis de la identificabilidad y otras medidas asociadas.
Modelado e identificacion de una serie de bioprocesos de interes relativos a:
i.- Secado de alimentos
ii.- Procesamiento termico de alimentos
xiii

xiv

Objetivos

iii.- Isomerizacion del -pineno


iv.- Inhibicion de la proteasa del HIV
v.- Funcion de las caspasas en la apoptosis
vi.- Ruta bioqumica en tres pasos
vii.- Cinetica de la glucosa en pacientes diabeticos

Indice general
I

Introducci
on

1. Modelos matem
aticos
1.1. Desarrollo de modelos matematicos . . . . . . . . . . . . . . . . . . .
1.2. Tipos de modelos matematicos . . . . . . . . . . . . . . . . . . . . . .

3
4
5

II

Metodologa

2. Estimaci
on de par
ametros
2.1. Planteamiento del problema . . .
2.1.1. Caracterizacion del modelo
2.1.2. Datos experimentales . . .
2.1.3. Funciones de coste . . . .
2.2. Metodos de estimacion . . . . . .
2.2.1. Metodos de valor inicial .
2.2.2. Metodo multiple shooting .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

3. An
alisis de sensibilidad
3.1. Metodos numericos para el calculo de sensibilidades locales
3.1.1. Aproximacion por diferencias finitas . . . . . . . . .
3.1.2. Metodos directos . . . . . . . . . . . . . . . . . . .
3.1.3. Metodo de la funcion de Green . . . . . . . . . . .
3.2. Tipos de funciones de sensibilidad . . . . . . . . . . . . . .
3.2.1. Funcion de sensibilidad absoluta . . . . . . . . . . .
3.2.2. Funcion de sensibilidad relativa . . . . . . . . . . .
3.2.3. Funcion de sensibilidad semirelativa . . . . . . . . .
3.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

11
11
11
12
14
17
18
19

.
.
.
.
.
.
.
.
.

21
22
22
22
24
24
25
25
26
26

4. An
alisis de identificabilidad
29
4.1. Identificabilidad estructural . . . . . . . . . . . . . . . . . . . . . . . 30
xv

Indice general

xvi

4.2. Identificabilidad local a priori . . . . . . . . . . . .


4.3. Identificabilidad practica o a posteriori . . . . . . .
4.3.1. Metodo basado en la FIM . . . . . . . . . .
4.3.2. Metodo basado en las regiones de confianza
5. Intervalos de confianza
5.1. Regiones de confianza exactas . . . .
5.2. Metodo basado en la FIM . . . . . .
5.3. Metodo basado en la matriz Hessiana
5.4. Metodos de Monte Carlo . . . . . . .
5.4.1. Jackknife . . . . . . . . . . .
5.4.2. Bootstrap . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

32
34
34
36

.
.
.
.
.
.

37
37
38
39
40
41
42

6. Dise
no
optimo de experimentos
43
6.1. Criterios de dise
no optimo . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formulacion del OED como un problema de optimizacion dinamica . 47
6.3. Metodo de parametrizacion de control . . . . . . . . . . . . . . . . . . 48
7. M
etodos de optimizaci
on
7.1. Metodos locales . . . . . . . . . . . . . . . . . . .
7.1.1. Metodos para problemas sin restricciones .
7.1.2. Metodos para problemas con restricciones
7.1.3. Metodos locales empleados . . . . . . . . .
7.2. Metodos globales . . . . . . . . . . . . . . . . . .
7.2.1. Metodos deterministas . . . . . . . . . . .
7.2.2. Metodos estocasticos . . . . . . . . . . . .
7.2.3. Metodos hbridos . . . . . . . . . . . . . .
7.3. Desarrollo de un metodo hbrido secuencial . . . .
7.3.1. Ajuste del metodo hbrido secuencial . . .
7.4. Metodo hbrido paralelo sincronico . . . . . . . .
8. GOSBio: entorno para modelado e
8.1. Descripcion de la metodologa .
8.2. Fichero de entrada . . . . . . .
8.2.1. Modelo matematico . . .
8.2.2. Datos de entrada . . . .
8.3. Ficheros de salida . . . . . . . .
8.3.1. Datos . . . . . . . . . .
8.3.2. Figuras . . . . . . . . .

identificaci
on
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

51
53
53
54
55
56
56
57
60
62
63
64

.
.
.
.
.
.
.

69
70
72
72
73
75
75
75

Indice general

III

Aplicaciones

9. Secado de alimentos

xvii

77
79

9.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2.1. Transferencia de masa . . . . . . . . . . . . . . . . . . . . . . 81
9.2.2. Transferencia de energa . . . . . . . . . . . . . . . . . . . . . 82
9.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 83
9.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9.5. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 87
9.5.1. Caso 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.5.2. Caso 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 91
9.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
10.Procesamiento t
ermico de alimentos

95

10.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
10.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
10.2.1. Esterilizacion industrial de alimentos enlatados . . . . . . . . 98
10.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 99
10.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10.5. Dise
no optimo de experimentos . . . . . . . . . . . . . . . . . . . . . 100
10.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 104
10.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
11.Isomerizaci
on del -pineno

109

11.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109


11.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
11.3. Analisis de identificabilidad estructural . . . . . . . . . . . . . . . . . 111
11.4. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 112
11.5. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 113
11.6. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 115
11.7. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

xviii

12.Inhibici
on de la proteasa del HIV

Indice general

119

12.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119


12.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
12.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 121
12.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 122
12.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 124
12.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 126
12.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
13.Funci
on de las caspasas en la apoptosis

129

13.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129


13.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
13.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 132
13.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 134
13.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 137
13.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
14.Ruta bioqumica en tres pasos

141

14.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141


14.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
14.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 145
14.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 153
14.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.7. Dise
no optimo de experimentos . . . . . . . . . . . . . . . . . . . . . 156
14.8. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
15.Cin
etica de la glucosa en pacientes diab
eticos

161

15.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161


15.2. Modelo matematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
15.3. Ranking de parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.4. Estimacion de parametros . . . . . . . . . . . . . . . . . . . . . . . . 166
15.5. Identificabilidad a posteriori . . . . . . . . . . . . . . . . . . . . . . . 170
15.6. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Indice general

IV
V

Conclusiones
Ap
endices

A. Ejemplo de fichero de entrada para el entorno GOSBio

VI
VII

Bibliografa
Publicaciones

xix

173
181
183

189
209

Indice de tablas
9.1.
9.2.
9.3.
9.4.

Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 87


Valores nominales y lmites para los 8 parametros . . . . . . . . . . . . . 88
Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31 . . . . . . . 89
Valores e intervalos de confianza de los parametros optimos . . . . . . . . 92

10.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 100


10.2. Valor del criterio D y E modificado para cinco, seis y ocho experimentos . 102
10.3. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 105
11.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 113
11.2. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 117
12.1. Valores para el ranking de parametros . . . . . . . . . . . . .
12.2. Valores nominales y lmites para los 20 parametros . . . . . .
12.3. Valor de los parametros para dos resultados obtenidos con SSm
12.4. Valores e intervalos de confianza de los parametros optimos . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

121
122
125
127

13.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 133


13.2. Valores nominales y lmites para los 18 parametros . . . . . . . . . . . . 134
13.3. Valores e intervalos de confianza de los parametros optimos . . . . . . . . 139
14.1. Valores iniciales para los 8 estados . . . . . . . . . . . . . .
14.2. Valores para el ranking de parametros . . . . . . . . . . . .
14.3. Valores nominales y lmites para los 36 parametros . . . . .
14.4. Valores de S y P (10 experimentos) . . . . . . . . . . . . .
14.5. Evolucion de SRES-n2fb para los conjunto de datos I y II . .
14.6. Intervalos de confianza de los parametros optimos . . . . . .
14.7. Diseno original y disenos optimos para 16 y 10 experimentos

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

143
144
146
147
150
155
158

15.1. Valores para el ranking de parametros . . . . . . . . . . . . . . . . . . . 166


15.2. Valores nominales y lmites para los cuatro parametros . . . . . . . . . . 167
xxi

xxii

Indice de tablas

15.3. Valores de los parametros optimos para cada paciente . . . . . . . . . . . 168


15.4. Valor medio de los errores de prediccion para los niveles de glucosa . . . . 169
15.5. Valores y desviacion estandar de los parametros optimos . . . . . . . . . 171

Indice de figuras
1.1. Esquema para la construccion de modelos matematicos . . . . . . . . . .

2.1. Esquema para la estimacion mediante un metodo de valor inicial . . . 18


2.2. Ejemplo de estimacion mediante el metodo multiple shooting . . . . . 20
6.1. Interpretacion geometrica de varios criterios de dise
no optimo . . . . 45
7.1. Metodos locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.2. Metodos globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.3. Esquema de funcionamiento de Scatter Search . . . . . . . . . . . . . . . 66
8.1. Esquema de GOSBio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
9.1. Secado por aire de una lamina de celulosa . . . . . . . . .
9.2. Lneas de contorno para los parametros b3 y b6 . . . . . .
9.3. Lneas de contorno para los parametros p1 y b3 . . . . . .
9.4. Lneas de contorno para los parametros p1 y p2 . . . . . .
9.5. Lneas de contorno para los parametros b1 y b4 . . . . . .
9.6. Parametros ordenados por orden decreciente de msqr . . .
9.7. Frecuencia de las soluciones de un SQP en modo multi-start
9.8. Curvas de convergencia de SRES, DE y SSm . . . . . . . . .
9.9. Valores predichos versus datos experimentales para Ts . . .
9.10. Valores predichos versus datos experimentales para mavg .
9.11. Matriz de correlacion a posteriori . . . . . . . . . . . . .
9.12. Region de confianza para los parametros p2 y b4 . . . . .
9.13. Region de confianza para los parametros b1 y b4 . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

81
85
85
86
86
86
89
90
90
90
91
92
92

10.1. Parametros ordenados por orden decreciente de msqr . . . . . . . . . . .


10.2. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . . .
10.3. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . . .
10.4. Evolucion de los criterios D y E modificado con el numero de experimentos

100
101
102
103

xxiii

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

xxiv

Indice de figuras

10.5. Perfiles optimos para los experimentos 1, 3 y 6 . . . . . . . .


10.6. Perfiles optimos para los experimentos 2, 4 y 5 . . . . . . . .
10.7. Dinamica de la T0 y la retN para los experimentos 1, 3 y 6 . .
10.8. Dinamica de la T0 y la retN para los experimentos 2, 4 y 5 . .
10.9. Matriz de correlacion a posteriori . . . . . . . . . . . . . . .
10.10.Region de confianza para el diseno optimo de seis experimentos
10.11.Funcion objetivo para el diseno optimo de seis experimentos . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

103
103
104
104
104
106
106

11.1. Esquema de la isomerizacion del -pineno . . . . . . . . . .


11.2. Parametros ordenados por orden decreciente de msqr . . . .
11.3. Frecuencia de las soluciones de un SQP en modo multi-start .
11.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . .
11.5. Datos experimentales versus valores predichos por el modelo
11.6. Valores de los residuos en funcion del tiempo . . . . . . . .
11.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . .
11.8. Funcion objetivo en el plano (p1 , p2 ) . . . . . . . . . . . . .
11.9. Funcion objetivo en el plano (p4 , p5 ) . . . . . . . . . . . . .
11.10.Funcion objetivo en el plano (p1 , p2 ) . . . . . . . . . . . . .
11.11.Funcion objetivo en el plano (p4 , p5 ) . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

109
113
114
115
115
115
116
116
116
117
117

.
.
.
.
.
.
.
.
.
.
.

12.1. Esquema de reaccion para la inhibicion irreversible de la proteasa


12.2. Parametros ordenados por orden decreciente de msqr . . . . . .
12.3. Frecuencia de las soluciones de un SQP en modo multi-start . . .
12.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . .
12.5. Datos experimentales versus valores predichos por el modelo . .
12.6. Valores de los residuos en funcion del tiempo . . . . . . . . . .
12.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . .

del HIV 119

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

121
123
124
125
125
126

13.1. Esquema apoptosis (Fussengger et al., 2000) . . . . . . . . . . . . . . .


13.2. Parametros ordenados por orden decreciente de msqr . . . . . . . . . .
13.3. Frecuencia de las soluciones de un SQP en modo multi-start . . . . . . .
13.4. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . . . . .
13.5. Valores predichos versus datos pseudo-experimentales para las 11 velocidades de reaccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.6. Valores predichos versus datos pseudo-experimentales para las 19 concentraciones de protena . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.7. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . . .

.
.
.
.

130
132
135
136

. 136
. 137
. 138

14.1. Esquema de reaccion para la ruta bioqumica en tres pasos . . . . . . . . 142

Indice de figuras

14.2. Parametros ordenados por orden decreciente de msqr . . . . . . . .


14.3. Frecuencia de las soluciones de n2fb en modo multi-start . . . . . .
14.4. Efecto del punto de cambio en la convergencia del hbrido . . . . . .
14.5. Error relativo considerando el conjunto de datos II (3 % de error) . .
14.6. Error relativo considerando el conjunto de datos III (5 % de error) .
14.7. Valores predichos versus datos pseudo-experimentales (conjunto III)
14.8. Curvas de convergencia de SRES, hbrido SRES-n2fb y SSm . . . . .
14.9. Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . .
14.10.Lneas de contorno para los parametros p1 y p6 . . . . . . . . . . .
14.11.Lneas de contorno para los parametros p1 y p4 . . . . . . . . . . .
14.12.Curvas de convergencia para el OED con 16 experimentos . . . . . .

xxv

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

145
148
149
151
151
152
153
154
154
154
158

15.1. Bomba de infusion de insulina . . . . . . . . . . . . . . . . . . . . .


15.2. Estructura del modelo de Hovorka et al. (2004) . . . . . . . . . . . .
15.3. Estructura del modelo de infusion de insulina (Wilinska et al., 2005) .
15.4. Parametros ordenados por orden decreciente de msqr . . . . . . . . .
15.5. Frecuencia de las soluciones de un SQP en modo multi-start . . .
15.6. Curvas de convergencia de SRES, DE y SSm . . . . . . . . . . . . .
15.7. Porcentaje de error entre los datos experimentales y los predichos
15.8. Ajuste del modelo con los datos del experimento 1 . . . . . . . . . . .
15.9. Validacion del ajuste con los datos del experimento 2 . . . . . . . . .
15.10.Matriz de correlacion a posteriori . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

162
164
165
166
167
168
169
170
170
170

Notaci
on
Tipografa
Italica
Escalar
Negrita min
uscula Vector
Negrita may
uscula Matriz
Abreviaturas
ACO
BLUE
CP
CVP
DAEs
GO
DDM
EP
ES
FIM
GA
GFM
GPS
GRG
IDP
IVP
KKT
MINLP
NLO
NMOL
ODEs
OED
PDAEs
PDEs

Metodo de la colonia de hormigas


Mejor estimador lineal no sesgado
Parametrizacion total
Parametrizacion de control
Ecuaciones diferenciales ordinarias y algebraicas
Optimizacion global
Metodo directo desacoplado
Programacion Evolutiva
Estrategias Evolutivas
Matriz de informacion de Fisher
Algoritmo Genetico
Metodo de la funcion de Green
Metodo de b
usqueda por patrones generalizados
Metodo del gradiente reducido generalizado
Metodo de programacion dinamica iterativa
Problema de valor inicial
Condiciones de optimalidad de Karush-Kuhn-Tucker
Problema de optimizacion no lineal entero mixto
Problema de optimizacion no lineal
Metodo numerico de las lneas
Ecuaciones diferenciales ordinarias
Dise
no optimo de experimentos
Ecuaciones diferenciales en derivadas parciales y algebraicas
Ecuaciones en derivadas parciales
xxvii

xxviii

s.g.i.
s.l.i.
s.u.i.
SC1 y SC2
SA
SS
SQP
TDT
TPBVP
TS
Smbolos

C
F
F1 , F2 y F3
J
Jmp
Jmc
J
M
N
Np
Nu
Nx
Ny
Nz
R

p
p
p

t
u
x
x y x
xt
y
y
z

Notaci
on

Estructuralmente globalmente identificable


Estructuralmente localmente identificable
Estructuralmente no identificable
Criterio de parada para los metodos estocastico y determinista
respectivamente
Metodo de templado simulado
Metodo de b
usqueda dispersa
Metodo de programacion cuadratica secuencial
Modelo basado en el tiempo de muerte termica
Problema de condiciones frontera en dos puntos
Metodo de b
usqueda tab
u
Errores de observacion (ruido)
Matrix de covarianza
Jacobiano parametrico de un conjunto de ODEs
Condiciones frontera de primer, segundo y tercer orden
Funcion objetivo
Funcion de maxima probabilidad
Funcion de mnimos cuadrados
Jacobiano de un conjunto de ODEs
Estructura de un modelo
N
umero total de datos experimentales
N
umero de parametros a estimar
N
umero de variables de control
N
umero de variables de estado distribuidas
N
umero de variables de estado concentradas
N
umero de variables medidas
Matriz de correlacion
Desviacion estandar (ruido de las medidas)
Vector de los Np parametros del modelo
Vector de parametros verdaderos del proceso
Estimador de p asociado a optimo local
Estimador de p asociado a optimo global
Variable temporal
Vector de las Nu variables de control
Vector de las Nx variables de estado distribuidas
Vectores de la primera y segunda derivada espacial de x
Derivada temporal de x
Vector de las Ny variables de estado concentradas
Derivada temporal de y
Vector de las Nz variables medidas en cada experimento
Vector de las medidas experimentales
Vector de coordenadas espaciales

Parte I
Introducci
on

Captulo 1
Modelos matem
aticos
La b
usqueda de pautas en el mundo fsico parte de la idea de que este es inteligible
y su funcionamiento puede conocerse mediante la observacion y la especulacion.
Esta forma de pensar se remonta a los filosofos naturalistas jonios del siglo VI
antes de Cristo (Tales, Anaximandro y sus discpulos Leucipo y Democrito). La
idea subyacente en esta inteligibilidad es que toda la multiplicidad del mundo puede
reducirse a una serie de pautas o principios fundamentales llamadas leyes de la
naturaleza.
La Revolucion Cientfica que culmino en 1687 con la publicacion de Philosophiae
Naturalis Principia Mathematica (Principios matematicos de la filosofa natural) por
el matematico, fsico, alquimista e inventor Isaac Newton (1643-1727), considero que
el universo funciona como un engranaje de relojera. A partir de este momento, su
mensaje fundamental ha ido calando en la comunidad cientfica y en nuestra sociedad
en general: La naturaleza posee unas leyes y nosotros podemos encontrarlas. Esta
afirmacion implica que todo sistema - mecanico, electrico, biologico, etc. - puede ser
descrito de manera adecuada mediante un modelo matematico. A pesar de que la
teora cuantica y la, recientemente desarrollada, teora del caos han probado que
esta afirmacion es falsa, la influencia en el modo de pensar de los cientficos ha sido
enorme.
Hoy en da la idea de que un modelo es una simplificacion de la realidad y que
un modelo matematico es un modo particular de representacion es admitida por
toda la comunidad cientfica. No se debe olvidar que el desarrollo de un modelo
esta siempre motivado por una aplicacion real y en este proceso se esta traduciendo
nuestro problema en el mundo real a un problema matematico equivalente que se
resuelve y despues se intenta interpretar. Esto se hace para llegar a comprender en
mayor profundidad la situacion original en el mundo real o para utilizar el modelo
para realizar tareas de analisis, dise
no, optimizacion y/o control.
3

Captulo 1. Modelos matematicos

Cualquiera que sea el objetivo del modelo, este debe ser formulado explcitamente
ya que influenciara en gran medida el proceso de modelado. Ademas, el modelo
obtenido debe ser juzgado en base a la satisfaccion de esos propositos.

1.1.

Desarrollo de modelos matem


aticos

Como en otras tareas de la ingeniera, la buena practica requiere una estrategia


general para la construccion de modelos definida en una secuencia de pasos que se
realizaran en parte de modo consecutivo y en parte de modo iterativo. Esta estrategia
puede esquematizarse en tres grandes bloques como se representa en la Figura 1.1
(Vansteenkiste y Spriet, 1982):
Objetivos

Anlisis

Conocimientos
a priori

Caracterizacin
de la estructura

Estimacin de
parmetros

Datos
experimentales

Diseo de experimentos

Definicin
del marco

NO

Validacin
S

Modelo

Figura 1.1: Esquema para la construccion de modelos matematicos

I. Establecimiento de las entradas


En una primera fase se establece la informacion disponible procedente de tres
fuentes principales:
Objetivos del modelo que, como se ha mencionado anteriormente, influiran
particularmente en la definicion del marco de trabajo.
Conocimiento previos tanto empricos como teoricos (p.ej. leyes fsicas,
qumicas y, en el caso de bioprocesos, de naturaleza bioqumica o microbiologica).

1.2. Tipos de modelos matematicos

Datos experimentales. La adquisicion de datos puede realizarse durante la operacion normal del sistema o durante un experimento dise
nado
especficamente. En etapas posteriores se hara uso del dise
no optimo de
experimentos para optimizar el contenido informativo de los datos resultantes de cara a la identificacion del sistema.
II. Identificaci
on del sistema
En teora de sistemas y de control, la identificacion de sistemas se define como
identificar un modelo a partir de datos experimentales e incluye los tres bloques
centrales del esquema de la Figura 1.1.
Definici
on del marco en el que se establecen los lmites del sistema y las
variables de entrada y salida.
Caracterizaci
on de la estructura en donde se determina el tipo de modelo
a considerar (lineal-no lineal, continuo-discreto,...), su nivel de complejidad y las relaciones funcionales entre las variables.
Estimaci
on de parametros que proporciona valores numericos para las
constantes de las relaciones funcionales.
La identificabilidad teorica de los parametros del modelo (tambien llamada
identificabilidad estructural) viene dada por la propia estructura del modelo
por lo que debe elegirse una estructura adecuada para poder estimar todos los
parametros.
III. Validaci
on del modelo
Esta es la u
ltima etapa del ciclo de modelado en donde se comprueba si el
modelo alcanza los objetivos postulados. Cuando esta etapa no es satisfactoria,
los pasos anteriores deben ser reconsiderados.
Notese que un modelo nunca puede ser validado con completa certeza (Smith
et al., 1997) por lo que la fase de validacion consistira esencialmente en una
serie de intentos por invalidar el modelo.

1.2.

Tipos de modelos matem


aticos

La eleccion de la estructura del modelo matematico es un punto crtico en el


proceso de modelado. El tipo de modelo elegido va a depender de diversos factores
como la finalidad del modelo, las condiciones bajo las cuales este va a ser utilizado
(rangos de operacion, naturaleza de las entradas,...), el coste de construccion del

Captulo 1. Modelos matematicos

modelo y la informacion disponible (no tiene sentido concebir un modelo muy complejo con muchos parametros si los datos experimentales disponibles son escasos e
imprecisos).
Entre las distintas clasificaciones que se pueden realizar de los modelos en funcion
de su estructura matematica cabe destacar (Jeppsson, 1996):
Lineales versus no lineales
En esta clasificacion se debe distinguir entre dos tipos de no linealidad: con
respecto a las entradas y con respecto a los parametros. Sea z(t, p, u) la salida a
tiempo t del modelo con parametros p cuando se le ha aplicado la entrada u( ),
0 t desde una condicion inicial cero. Se dice que la estructura del modelo
es lineal en sus entradas si la salida satisface el principio de superposicion con
respecto a sus entradas, es decir, si:
(, ) R2 , t R+ , z (t, p, u1 + u2 ) = z (t, p, u1 ) + z (t, p, u2 ) (1.1)
Por otra parte, se dice que la estructura de un modelo es lineal en sus par
ametros si la salida satisface el principio de superposicion con respecto a sus
parametros, es decir, si:
(, ) R2 , t R+ , z (t, p1 + p2 , u) = z (t, p1 , u) + z (t, p2 , u) (1.2)
Siempre que sea posible se prefieren modelos lineales en sus entradas y en
sus parametros. Las estructuras lineales en sus entradas se benefician de la
existencia de resultados matematicos que facilitan su estudio teorico (p. ej.,
condiciones de estabilidad, control optimo, efecto de las perturbaciones). La
estimacion de parametros de estructuras lineales en sus parametros resulta
sencillo y a menudo es posible emplear formulas explcitas.
Sin embargo, los modelos lineales en sus entradas tienen un reducido dominio
de validez y para la mayora de los procesos reales solo pueden aproximar el
comportamiento del sistema alrededor de un punto de operacion. Con respecto a los modelos lineales en sus parametros, estos a menudo carecen de un
significado concreto.
Tiempo continuo versus tiempo discreto
La mayora de los bioprocesos son dinamicos, es decir, varan con el tiempo y
pueden clasificarse en funcion de la forma en la que consideran esta variable.
Los modelos en tiempo continuo estan basados en formulaciones de la velocidad
de cambio de las variables de estado. De este modo, los valores de las variables

1.2. Tipos de modelos matematicos

de estado como funciones del tiempo son obtenidas a partir de la solucion de un


sistema de ecuaciones diferenciales al que a menudo se le a
naden restricciones
en forma de ecuaciones algebraicas.
En contraposicion, los modelos en tiempo discreto se basan en una division de
la escala de tiempo en intervalos discretos y las variables de estado se especifican en un intervalo de tiempo determinado como funciones algebraicas de los
valores en el intervalo de tiempo inmediatamente anterior. Cuando un modelo
es simulado en un ordenador, este es discretizado ya que una computadora digital es en si misma discreta, aunque se utilizan algoritmos especiales y pasos
de tiempo muy peque
nos para imitar el comportamiento del sistema continuo
original casi a la perfeccion.
Deterministas versus estoc
asticos
Otra posible clasificacion surge entre los modelos que contemplan un cierto
grado de incertidumbre o aleatoriedad en su resultado final y los que no. En
estos u
ltimos, los modelos deterministas, todas las salidas vienen determinadas
con precision y de forma u
nica por el estado actual y los futuros valores de las
variables externas (entradas) del modelo.
En los modelos estocasticos, el resultado final no se conoce con certeza pero
puede expresarse como una distribucion de todos los posibles resultados. Estos modelos tambien tienen en cuenta las propias influencias aleatorias de la
evolucion temporal del sistema. A pesar de que este tipo de descripcion puede
resultar mas realista para ciertos modelos biologicos ya que tiene en cuenta
explcitamente las perturbaciones del sistema, la gran mayora de los formulados hasta ahora son deterministas. Las principales razones para este hecho son
la falta de datos para caracterizar las variables aleatorias, los elevados requerimientos computacionales para resolver ecuaciones diferenciales estocasticas y
el exito de los modelos deterministas para predecir el comportamiento futuro
en promedio.
Concentrados versus distribuidos
Como ya se ha mencionado, los modelos concentrados dinamicos en tiempo
continuo estan descritos por sistemas mixtos de ecuaciones diferenciales ordinarias y algebraicas (DAEs). Estos sistemas pueden clasificarse de acuerdo a
su ndice, definiendo este como el mnimo n
umero de veces que las ecuaciones
del sistema deben ser derivadas con respecto al tiempo para convertirse en
un sistema de ecuaciones diferenciales ordinarias (ODEs) (Pantelides et al.,

Captulo 1. Modelos matematicos

1988). De este modo, por definicion, cualquier sistema de ODEs tiene ndice
cero. As mismo, los sistemas de DAEs de ndice uno se comportan de modo
bastante parecido a los sistemas de ODEs pudiendo ser resueltos utilizando
metodos similares. Sin embargo, el comportamiento de los sistemas de ndice superior es cualitativamente diferente y deben ser tratados con metodos
especficos.
Muchos procesos biologicos estan distribuidos no solo en el tiempo sino tambien en el espacio. Matematicamente, las variables distribuidas en el espacio
pueden describirse mediante ecuaciones diferenciales parciales (PDEs) y los
modelos resultantes son los llamados modelos distribuidos. Muchas veces estas
ecuaciones estan combinadas con ecuaciones diferenciales ordinarias y ecuaciones algebraicas dando lugar a sistemas de PDAEs.
El presente estudio se centra en el estudio de bioprocesos (industria alimentaria y biotecnologica) cuyos modelos suelen tener un caracter dinamico, no lineal y
normalmente estan descritos por sistemas de ecuaciones deterministas en tiempo
continuo. Se han considerado modelos tanto concentrados (descritos por sistemas
de DAEs) como distribuidos (sistemas de PDAEs) en funcion de los requerimientos
particulares de cada proceso. En ning
un caso el ndice de los sistemas diferencialesalgebraicos considerados es mayor que uno por lo que para todos ellos se ha podido
utilizar las tecnicas aplicables a sistemas de ODEs.

Parte II
Metodologa

Captulo 2
Estimaci
on de par
ametros
2.1.

Planteamiento del problema

Suponiendo como valida la estructura de un modelo, el problema de estimacion


de parametros (tambien conocido como identificacion o calibracion de modelos) trata
de encontrar los parametros que proporcionan el mejor ajuste de la prediccion del
modelo a un conjunto de datos experimentales dado. De este modo, el problema
de identificacion se establece como la minimizacion de una medida ponderada de la
distancia entre los valores experimentales correspondientes a las variables medidas
representados por
z y los valores predichos para esas variables representados por z.

2.1.1.

Caracterizaci
on del modelo

Muchos modelos dinamicos de bioprocesos, junto con los experimentos de entradasalida dise
nados para su identificacion, pueden ser descritos por un sistema de
PDAEs general de la forma:
F (x, x , x , xt , y, y,
z, u, p, t) = 0

(2.1)

donde los smbolos de la ecuacion (2.1) tienen las siguientes definiciones:


x e y:
:
x
xt
z:
u:
p:
t:

vectores de las Nx variables de estado distribuidas y las Ny concentradas respectivamente


vector de coordenadas espaciales
y x : derivadas espaciales de x tal que x = x/ y x = 2 x/ 2
e y:

derivadas temporales de x e y tal que xt = x/t e y = dy/dt


vector de las Nz variables medidas para cada experimento
vector de las Nu variables de control o entradas del sistema que determinan la forma de cada experimento
vector de los Np parametros del modelo
variable temporal
11

12

Captulo 2. Estimacion de parametros

Para garantizar la existencia de solucion del sistema 2.1 es necesario imponer


condiciones iniciales y frontera de la forma:
Condiciones iniciales:
F0 (x(t0 ), y(t0 ), z(t0 ), u(t0 ), t0 ) = 0

(2.2)

Condiciones frontera:
- de primer orden o tipo Dirichlet:
x(, t) = F1 (, t)

(2.3)

- de segundo orden o de Neumann:


xn (, t) = F2 (, t)

(2.4)

f1 ()x(, t) + f2 ()xn (, t) = F3 (, t)

(2.5)

- mixtas o de Robin:

siendo n el vector normal a la superficie.


En caso de que se desconozcan las condiciones iniciales del problema, estas tambien pueden ser estimadas considerandose, a efectos de la calibracion, como parametros adicionales.
Para la resolucion de los sistemas distribuidos que aparecen en este trabajo, se
ha empleado el metodo numerico de las lneas (Numerical Method of Lines, NMOL)
(Schiesser, 1991) que transforma el problema original de dimension infinita en uno
de dimension finita, es decir, en un conjunto de ODEs o de DAEs. Por este motivo,
de aqu en adelante se prescindira del vector de variables x y de sus derivadas.

2.1.2.

Datos experimentales

El problema de estimacion hace uso de los datos obtenidos previamente a partir


de un conjunto de experimentos. Cada experimento se caracteriza por las condiciones
bajo las que es realizado, es decir, su duracion total, las condiciones iniciales y la
variacion de las variables de control a lo largo del tiempo.
A lo largo de cada experimento se recogen datos de las variables medidas (en
la mayora de los casos no es posible medir todas las variables de estado, sino un
subconjunto de las mismas o de variables relacionadas con ellas por medio de una
funcion de observacion). Estas medidas son de la forma (tijk ; zijk ) donde zijk es el

2.1. Planteamiento del problema

13

valor k de la variable medida zj durante el experimento i y tijk es el tiempo en el


que se toma esta medida.
Para casi todas las tecnicas de medicion, la medida de la evolucion de los observables de un sistema dinamico con respecto al tiempo lleva asociada un error
de observacion o ruido. En este caso, la observacion es perturbada por un sistema
diferente influenciando el proceso de medida y no se pueden determinar los valores verdaderos de los estados observados. De ah que la observacion siga una cierta
distribucion de probabilidad dependiendo de la perturbacion.
Asumiendo que la estructura del modelo es correcta y teoricamente identificable,
las desviaciones entre las predicciones del modelo y las medidas experimentales seran
debidas u
nicamente al ruido en las medidas. Para incorporar el ruido de observacion en el modelado matematico, estas perturbaciones se describen por una variable
aleatoria que se adiciona a la funcion de observacion. La variable medida es por lo
tanto:
zijk = zijk (p ) + ijk
(2.6)
siendo p el vector de parametros verdaderos del proceso.
En general, puede tener estructuras de dependencia complejas pero en la mayora de los casos puede ser descrita por una distribucion gaussiana (o normal).
Una justificacion para la importancia de esta familia de distribuciones estriba en el
teorema central del lmite que establece que ijk tiende a estar normalmente distribuida si resulta de la suma de un gran n
umero de errores independientes igualmente
distribuidos con varianza finita. De este modo:

siendo

ijk N (0, ijk )

(2.7)

2
ijk = ijk
zijk +

(2.8)

donde y vienen dadas por el conocimiento a priori sobre el proceso de medida


y es un valor peque
no distinto de cero que asegura que la varianza este definida
para valores de las medidas iguales a cero o muy peque
nos.
De esta manera, el ruido en las medidas se reduce a terminos de error absoluto
y relativo siendo sus formas mas relevantes:
- Error normal con varianza conocida o constante (homocedastico): cuando =
0 y es constante o tiene un valor conocido para cada medida.
- Error normal con varianza variable dependiente de las medidas (heterocedastico): si 6= 0. En el caso en que = 1 y es constante, se dice que la varianza
es constante relativa.

14

Captulo 2. Estimacion de parametros

2.1.3.

Funciones de coste

El valor optimo de p va a depender del modo en que se cuantifique la distancia entre los valores experimentales y los valores predichos por el modelo para las variables
medidas. Entre las funciones de coste que han demostrado funcionar correctamente,
en orden decreciente de cantidad de informacion que debe ser proporcionada por
el usuario, o lo que es lo mismo, en orden creciente del n
umero de asunciones a
priori ya incluidas en el metodo, destacan: el estimador Bayesiano, el estimador de
maxima probabilidad y el estimador por mnimos cuadrados. Para el metodo mas
complejo, estimacion Bayesiana, la distribucion de probabilidad de los parametros
y la distribucion de la probabilidad condicional de las medidas para unos valores
dados de los parametros deben ser parametrizadas, mientras que el metodo mas
simple, estimacion por mnimos cuadrados, puede ser llevado a cabo sin ninguna
informacion extrnseca adicional. La estimacion por mnimos cuadrados es un caso
especial del metodo de maxima probabilidad en el que se asume que los errores de
las medidas no estan correlacionados y que tienen distribucion normal con media
cero y varianza constante (Bates y Watts, 1988; Seber y Wild, 1988).
Estimador Bayesiano
La estimacion Bayesiana considera las medidas y los parametros del modelo
como variables aleatorias. Si se conoce la densidad de probabilidad a priori
p (p) para la ocurrencia del vector de parametros p y la densidad de probabilidad condicional z (
z|p) del modelo para medir los valores
z para unos valores
dados de los parametros p, la densidad de probabilidad de los parametros para
valores dados de las medidas se puede escribir como:
p (p|
z) =

z (
z|p)p (p)
z (
z)

(2.9)

La ecuacion (2.9) no especifica directamente una estimacion de los parametros,


pero proporciona una descripcion completa de las distribuciones de los valores
de los parametros para unas medidas dadas. Para la eleccion de estimaciones
de los parametros se necesitan asunciones adicionales. La idea central de la
estimacion Bayesiana es proporcionar informacion previa de la distribucion de
los parametros a partir de los datos medidos.
Estimador de m
axima probabilidad
A diferencia de la estimacion Bayesiana, la calibracion mediante el metodo
de maxima probabilidad no considera los parametros como variables aleatorias sino como parametros constantes aunque desconocidos. La estimacion de

2.1. Planteamiento del problema

15

maxima probabilidad consiste en maximizar la denominada funcion de probabilidad, Jmp , buscando el valor p
mp que proporciona la maxima probabilidad
de ocurrencia a los datos observados
z:
Jmp (p) = z (
z|p)

(2.10)

En la practica, es mas facil buscar p


mp maximizando el logaritmo de la funcion
de probabilidad:
Jmp (p) = ln z (
z|p)
(2.11)
que proporciona el mismo estimador ya que la funcion logartmica es monotonicamente creciente.
La funcion de probabilidad es una funcion compleja que depende de la distribucion de probabilidad de las medidas. Si se asume que estas no estan correlacionadas y que tienen una distribucion normal, la funcion de probabilidad
viene dada por:

"
#
Mij
N Vi N
NE X
2

X
X

(
zijk zijk (p))
1
N
2
ln ijk
+
Jmp (p) = ln (2)
2

2
2
ijk
i=1 j=1 k=1

(2.12)
donde los smbolos de la ecuacion (2.12) tienen las siguientes definiciones:
N:
p:

n
umero total de medidas en todos los experimentos
conjunto de parametros a estimar. Los valores aceptables pueden
estar sujetos a lmites inferiores y superiores, pL p pU
N E:
n
umero de experimentos realizados
N Vi :
n
umero de variables medidas en el experimento i
N Mij : n
umero de medidas de la variable j durante el experimento i
2
ijk :
varianza de la medida k de la variable j en el experimento i
zijk :
medida k de la variable j en el experimento i
zijk :
valor k de la variable j en el experimento i predicho por el modelo

Para unas medidas determinadas


z los estimadores de maxima probabilidad
para los parametros son aquellos valores de p para los cuales el valor de la
funcion de probabilidad es maximo.
Estimador por mnimos cuadrados
Las funciones de coste cuadraticas son las mas utilizadas desde Gauss y Legendre (Stigler, 1981) debido a su relativamente sencilla optimizacion. Para
modelos de programacion lineal, el mejor estimador correspondiente a una
funcion de coste cuadratica puede obtenerse analticamente (Walter y Pronzato, 1997). Estas funciones de coste pueden escribirse como:

16

Captulo 2. Estimacion de parametros

Jmc (p) = T (p)Q(p)

(2.13)

donde Q es una matriz definida no-negativa, y es un vector que caracteriza


el error entre el sistema y su modelo. El estimador de p correspondiente a Jmc
viene dado por:
p
mc = arg min Jmc (p)
(2.14)

Este estimador se llama estimador por mnimos cuadrados o estimador L2 . Este


puede ser obtenido independientemente de cualquier consideracion estadstica,
aunque su utilizacion puede estar motivada por informacion (hipotesis) sobre
la naturaleza del ruido que act
ua en el sistema. Como ya se ha mencionado:
(p) =
z z(p)

(2.15)

y Q se elige diagonal, por lo que el coste se escribe como:


Jmc (p) =

Mij
N Vi N
NE X
X
X

wijk (
zijk zijk (p))2

(2.16)

i=1 j=1 k=1

donde wijk es el coeficiente de peso k para la variable j en el experimento i.


Los coeficientes de peso son positivos o cero y estan fijados a priori. Pueden ser
elegidos empricamente. Cuanto mayor sea wijk , mas le va a costar al modelo
desviarse del resultado experimental zijk . La eleccion de los wijk expresara por
lo tanto la confianza relativa en los distintos datos experimentales y la consiguiente importancia que representa cada componente de z y su medida con
respecto al tiempo en el comportamiento del modelo.
La funcion objetivo de maxima probabilidad, ecuacion (2.12), permite flexibilidad para distintos tipos de modelos de varianza. Cuando la varianza de
los errores de las medidas se considera constante (independiente de i, j y k)
o conocida para todas las medidas, la funcion de maxima probabilidad (que
resulta a minimizar tras un cambio de signo) puede escribirse como:

"
#
Mij
N Vi N
NE X
2

X
X
1
(
zijk zijk (p))
Jmp (p) = (termino ind. de p) +
(2.17)
2

2
ijk
i=1 j=1 k=1

Un estimador de maxima probabilidad de p es por lo tanto aquel que maximice:


Mij
N Vi N
NE X
X
X
(
zijk zijk (p))2
J(p) =
2
ijk
i=1 j=1 k=1

(2.18)

es decir, un minimizador de la funcion cuadratica, ecuacion (2.16), con pesos:


2
wijk = 1/ijk

(2.19)

2.2. Metodos de estimacion

2.2.

17

M
etodos de estimaci
on

Una vez llevada a cabo la caracterizacion del modelo dinamico no lineal, el problema de identificacion consiste en buscar el vector de parametros que proporciona
el mejor ajuste del modelo con respecto a un conjunto de datos experimentales dado.
El problema se plantea como la minimizacion de una funcion de coste escalar, J(p),
que mide la bondad de ese ajuste, con respecto a los parametros del modelo, p. Esto
esta sujeto a la dinamica del sistema, que act
ua como un conjunto de restricciones diferenciales de igualdad y, en algunos casos, a otras posibles restricciones algebraicas.
Matematicamente, esta formulacion es la de un problema de optimizacion no lineal
(Nonlinear Optimization Problem, NLO) con restricciones diferenciales-algebraicas
consistente en:
Encontrar el vector de parametros p que minimiza la funcion:
J(p)

(2.20)

y que verifica:
F (y, y,
z, u, p, t) = 0

(2.21)

F0 (y(t0 ), z(t0 ), u(t0 ), t0 ) = 0

(2.22)

h (y, z, u, p, t) = 0

(2.23)

g (y, z, u, p, t) 0

(2.24)

p pp

(2.25)

donde J(p) es la funcion de coste a minimizar, p es el vector de variables de decision


del problema de optimizacion (el conjunto de parametros a estimar), y el vector de
las variables de estado del modelo, z el vector de las variables medidas, u el vector de
variables de control y h y g las posibles restricciones de igualdad y desigualdad, respectivamente. Finalmente, p esta sujeto a lmites inferiores y superiores que act
uan
como restricciones de desigualdad.
A la hora de resolver este problema, es frecuente encontrarse con muchas dificultades entre las que destacan (Schittkowski, 2002):
- Convergencia a soluciones locales debido a la frecuente no convexidad de los
problemas, originada por la no linealidad de los modelos.
- Errores de redondeo debido a una resolucion iterativa inadecuada del sistema
dinamico.
- Funcion objetivo con forma de valle angosto donde es difcil progresar hacia
la solucion.

18

Captulo 2. Estimacion de parametros

- Funcion objetivo muy plana en la vecindad de la solucion, por ejemplo, cuando


existen grandes perturbaciones en las medidas.
- Modelos sobredeterminados cuando hay demasiados parametros a estimar,
dando lugar a un n
umero infinito de vectores solucion.
- Malos valores iniciales para los parametros, lo que hace necesario un gran
n
umero de iteraciones en la optimizacion.
- Funciones del modelo mal escaladas, en particular, los valores de las medidas.
- Funciones del modelo no diferenciables.
Debido a estos escollos, se debe prestar especial atencion al metodo elegido para
llevar a cabo la identificacion que, a grandes rasgos, pueden clasificarse en dos grupos:
los metodos de valor inicial (o single shooting) y el metodo de disparo m
ultiple (o
multiple shooting).

2.2.1.

M
etodos de valor inicial

Dado que el NLO formulado no puede resolverse analticamente, los metodos


de valor inicial, o single shooting, proponen para su resolucion un procedimiento de
optimizacion iterativo como el representado en la Figura 2.1. Inicialmente se define
Valores iniciales para los parmetros

Definicin estructura
del modelo

Integracin de las
ecuaciones del modelo
(IVP)

Datos experimentales

Clculo funcin objetivo

Mnimo
de la funcin
objetivo?

NO

Nuevos valores
para los parmetros

Mejor estimador
para los parmetros

Figura 2.1: Esquema para la estimacion de parametros mediante


un metodo de valor inicial

2.2. Metodos de estimacion

19

la estructura del modelo, los datos experimentales y los parametros a estimar. A


partir de unos valores iniciales para los parametros (p0 ), la rutina de optimizacion
consiste, basicamente, en calcular el valor de la funcion objetivo (previa integracion
de las ecuaciones del modelo mediante la resolucion de un problema de valor inicial
(Initial Value Problem, IVP) y generar nuevos valores para los parametros de modo
que disminuyan el valor de dicha funcion. Este proceso se repite iterativamente hasta
alcanzar una solucion dentro de la tolerancia preespecificada.
Habitualmente, estos NLOs se resuelven empleando metodos locales de tipo Levenberg - Marquardt (L - M) o Gauss - Newton (G - N). Estos metodos resultan muy
eficientes y convergen a la solucion correcta (optimo global) si los valores iniciales
para la estimacion de los parametros son de buena calidad (es decir, si estan en la
zona de atraccion de la solucion global) o si el problema es convexo. Frecuentemente,
estos NLOs son multimodales (presentan optimos locales) por lo que estos metodos
convergeran a soluciones locales. De este modo, en presencia de un mal ajuste, no
se puede saber si este se debe a una mala formulacion del modelo o si se esta ante
un caso de convergencia a un optimo local.
Con objeto de solventar esta limitacion, en este trabajo se hara uso de metodos
de optimizacion global que se explicaran con mas detalle en el captulo 7.

2.2.2.

M
etodo multiple shooting

En el metodo multiple shooting (Bock, 1983; Timmer, 1998; Holbert, 1998) la


dinamica de las variables de estado se discretiza, dando lugar a problemas NLOs
mas grandes (es decir, con mayor n
umero de grados de libertad) pero evitando la
necesidad de resolver iterativamente un IVP (vease un ejemplo de la evolucion del
metodo en la Figura 2.2). La idea fundamental es dividir el intervalo de tiempo en
muchos subintervalos de modo que el sistema de ODEs se resuelve separadamente
para cada uno de ellos, haciendo uso de las medidas experimentales para proporcionar las primeras estimaciones para los valores iniciales de esos subintervalos. Durante
cada iteracion los valores iniciales de cada subintervalo estan sujetos a optimizacion
por lo que se convierten en nuevos parametros del modelo.
Esta aproximacion da lugar a una trayectoria inicial discontinua que, a pesar de
ello, esta proxima a las medidas. Por supuesto, la trayectoria final debe ser continua,
es decir, la solucion calculada para el final de un intervalo debe ser igual al valor
inicial al comienzo del intervalo siguiente. Con el fin de forzar esta condicion, se
imponen restricciones de continuidad a la solucion. En cada iteracion, el metodo tiene
que elegir una direccion de b
usqueda que lleve, no solo a un mnimo de la funcion
objetivo, sino que ademas satisfaga las restricciones de continuidad de una forma

20

Captulo 2. Estimacion de parametros

z (t)

Valores iniciales

z (t)

8 iteracin

z (t)

34 iteracin: convergencia

Figura 2.2: Ejemplo de estimacion de parametros mediante el


metodo multiple shooting (Timmer et al, 2000)

linealizada. De esta manera, los nuevos parametros introducidos correspondientes


a los valores iniciales de cada subintervalo de tiempo, son eliminados del problema
linealizado que debe ser resuelto con el fin de calcular la direccion de b
usqueda.
Como en el paso de actualizacion solo se imponen las restricciones de continuidad linealizadas, la iteracion podra avanzar hacia la solucion continua final a traves
de terreno prohibido: las iteraciones seran generalmente trayectorias discontinuas.
Esta libertad permite que el metodo este cerca de los datos observados, previene la
divergencia en la solucion numerica y no introduce tanta multimodalidad como los
metodos de valor inicial, reduciendo el n
umero de mnimos locales. A
un as, dado
que los problemas NLOs resultantes de esta formulacion suelen resolverse por medio
de metodos Gauss-Newton, que son de naturaleza local, la convergencia a soluciones
locales puede seguir ocurriendo, especialmente cuando se dispone de un mal punto
inicial para la estimacion. Ademas, debido a su gran tama
no y al necesario cumplimiento de las restricciones de continuidad, la aplicacion de metodos de optimizacion
global resultara inabordable para problemas reales.
Los detalles matematicos y de implementacion pueden encontrarse en Bock
(1987).

Captulo 3
An
alisis de sensibilidad
El analisis de sensibilidad consiste en el estudio de como la variacion en la salida
de un modelo (numerica o de otro tipo) puede ser atribuida, cualitativa o cuantitativamente, a diferentes fuentes de variacion y de como el modelo dado depende de
la informacion que se le proporciona.
Existen varios metodos de analisis de sensibilidad que pueden clasificarse en
metodos de monitorizacion, metodos locales y metodos globales (Saltelly et al, 2000).
Esta distincion es de alg
un modo arbitraria ya que los metodos de monitorizacion
tambien pueden ser vistos como locales o globales. Ademas, la primera clase se
caracteriza con respecto a su uso (monitorizacion), mientras que los otros dos se
caracterizan con respecto a como tratan los factores.
En el contexto de modelizacion numerica, los coeficientes de sensibilidad local,
que son las derivadas parciales de las variables de estado del modelo con respecto
a los parametros evaluadas en el punto normal de operacion, juegan un papel muy
importante en el analisis de probabilidades, estimacion de parametros, optimizacion
y discriminacion de modelos. Los resultados de un analisis de sensibilidad pueden
ser utilizados para (Karnavas et al., 1993) :
- Validar un modelo.
- Advertir de comportamientos del modelo extra
nos o no realistas.
- Sugerir nuevos experimentos o guiar futuros esfuerzos en recoleccion de datos.
- Indicar supuestos importantes del modelo.
- Sugerir la precision con la que los parametros deben ser calculados.
- Guiar la formulacion de la estructura del modelo.
- Ajustar valores numericos para los parametros.
21

22

3.1.

Captulo 3. Analisis de sensibilidad

M
etodos num
ericos para el c
alculo de sensibilidades locales

Considerese un sistema dinamico definido por un conjunto de Ny ecuaciones


diferenciales ordinarias (ODEs) con Np parametros p independientes del tiempo.
y = f (y, t; p) ; y(0) = y0

(3.1)

Los coeficientes de sensibilidad que forman la matriz de sensibilidades seran entonces:

yi
Sij =
(3.2)
pj y=y(t,p),p=p
Hay varios metodos numericos para el calculo de sensibilidades locales pero los
valores calculados deben ser identicos dentro de la precision del metodo empleado.

3.1.1.

Aproximaci
on por diferencias finitas

La manera mas sencilla de calcular sensibilidades locales se basa en perturbar


ligeramente un parametro de cada vez y volver a resolver el modelo. Utilizando la
aproximacion por diferencias finitas, los elementos de la matriz de sensibilidades
pueden aproximarse por:
yi (t)
yi (t, pj + pj ) yi (t, pj )

pj
pj

(3.3)

Este procedimiento se llama tambien metodo indirecto. La principal ventaja es


que no requiere ninguna modificacion del modelo original ni ning
un codigo adicional.
Sin embargo, presenta dos inconvenientes: los valores numericos obtenidos varan de
modo significativo con pj y se requiere la resolucion repetida del modelo (al menos
una vez por cada parametro). En el caso de modelos no lineales, si las perturbaciones
de los parametros son demasiado grandes (pj > 5 %) estos se alejan de la suposicion
de linealidad local, mientras que si la variacion es muy peque
na, la diferencia entre
el resultado original y el perturbado sera muy peque
na y los errores de redondeo
demasiado elevados. En la mayora de los casos, una perturbacion del 1 % es una
buena eleccion, pero encontrar el mejor valor supone a menudo un proceso de ensayo
y error.

3.1.2.

M
etodos directos

Los coeficientes de sensibilidad, ecuacion (3.2), pueden encontrarse resolviendo


las siguientes ODEs que resultan de derivar la ecuacion (3.1) con respecto a p (Leis

3.1. Metodos numericos para el calculo de sensibilidades locales

23

y Kramer, 1985) :

S(t)
=

f (t)
y

S(t) +
p

f (t)
p

; S(0) = S0

(3.4)

o, de forma matricial:
S = J(t)S(t) + F(t)

(3.5)

donde J(t) es la Ny Ny matriz Jacobiana (Jij = fi /yi ) y F(t) la Ny Np matriz


de derivadas parciales con respecto a los parametros (Fij = fi /pj ) llamada a veces
Jacobiano parametrico.
Los metodos directos (DM) se basan en la resolucion de la ecuacion diferencial
ordinaria (3.4). La resolucion numerica de la ecuacion (3.4) requiere el conocimiento
del valor de las matrices J(t) y F(t) en cada una de las etapas del integrador de
ecuaciones diferenciales ordinarias. Para evaluar estas matrices, los valores actuales
de las variables del sistema deben ser conocidos y, por lo tanto, se necesita una resolucion simultanea o sucesiva de la ecuacion (3.1). En las primeras implementaciones
del metodo directo, las ecuaciones (3.1) y (3.4) se resolvan independientemente pero
simultaneamente y la solucion de la ecuacion (3.1) era utilizada en la ecuacion (3.4).
Todas las variantes de este algoritmo eran relativamente lentas.
Dunker (1984) fue el primero en demostrar que existe una relacion especial entre la ecuacion (3.1) y la ecuacion (3.4) que permite un atajo numerico y llamo a
este algoritmo metodo directo desacoplado (Decoupled Direct Method, DDM). Las
ecuaciones (3.1) y (3.4) tienen el mismo Jacobiano y, por lo tanto, un integrador de
sistemas rgidos de ecuaciones diferenciales ordinarias selecciona el mismo tama
no
de paso y orden de aproximacion para la resolucion de ambas ecuaciones. En el
metodo de Dunker el integrador de ODEs descompone el Jacobiano una sola vez
y toma un intervalo de tiempo para resolver la ecuacion (3.1) y despues el mismo
para resolver la ecuacion (3.4) con todos los parametros, uno tras otro. Dado que la
triangularizacion del Jacobiano es la parte que mas tiempo consume de la resolucion
de un sistema de ODEs, utilizando el metodo directo desacoplado las sensibilidades
pueden calcularse con un coste extra relativamente peque
no.
Existen varias implementaciones del metodo DDM que ha demostrado ser el mejor metodo general para el calculo numerico de sensibilidades locales. Uno de los
codigos mas conocidos es ODESSA, un paquete de rutinas FORTRAN desarrollado
por Leis y Kramer (1988) basado en la rutina de resolucion de ecuaciones diferenciales ordinarias LSODE, que sera el empleado en este trabajo.

24

3.1.3.

Captulo 3. Analisis de sensibilidad

M
etodo de la funci
on de Green

Diferenciando la ecuacion (3.1) con respecto a los valores iniciales y0 , se obtiene


las siguiente ecuacion (Saltelli et al., 2000) :
t1 ) = J(t)K(t, t1 )
K(t,

(3.6)

donde t1 y t son el tiempo de perturbacion y de observacion, respectivamente, y K


es el valor inicial de la matriz de sensibilidades, es decir:
Kij (t, t1 ) =

ci (t)
; K(t1 , t1 ) = I ; t t1
c0j (t1 )

(3.7)

La ecuacion (3.1) consiste en un sistema lineal no homogeneo de ecuaciones diferenciales y, por lo tanto, puede ser resuelto determinando primero la parte homogenea,
ecuacion (3.6), y calculando despues la solucion particular:
Z t2
S(t1 , t2 ) =
K(t2 , s)F(s)ds
(3.8)
t1

En esta ecuacion, K se conoce como funcion de Green del n


ucleo y el metodo numerico basado en la solucion de la ecuacion (3.8) se llama metodo de la funcion de Green
(Green Function Method, GFM).
El metodo Magnus analticamente integrado (Analytically Integrated Magnus,
GFM/AIM) es una modificacion del metodo de la funcion de Green mas desarrollado. En esta version, la matriz K es aproximada por una matriz exponencial disminuyendo significativamente el esfuerzo de calculo:

Z t+t
J(s)ds
(3.9)
K(t + t, t) = exp
t

El metodo GFM/AIM es varias veces mas rapido que otras versiones del metodo de
la funcion de Green.
Aplicando el metodo directo, el esfuerzo numerico aumenta linealmente con el
n
umero de parametros. En el caso de los metodos de la funcion de Green, el esfuerzo
numerico es proporcional al n
umero de variables. Sin embargo, en la practica, el
metodo GFM solo es mas rapido que el DDM cuando la relacion entre el n
umero
de parametros y el de variables es muy elevada y el error numerico es mas difcil de
controlar en este caso que utilizando el metodo DDM, que es mucho mas simple.

3.2.

Tipos de funciones de sensibilidad

Existen distintos tipos de funciones de sensibilidad. El uso que se quiera hacer de


las mismas determinara cual es la mas adecuada en caso. A continuacion se presenta

3.2. Tipos de funciones de sensibilidad

25

una breve descripcion de cada una de ellas y sus aplicaciones principales destacando
sus ventajas e inconvenientes.

3.2.1.

Funci
on de sensibilidad absoluta

La sensibilidad absoluta de la variable yi con respecto a las variaciones en el


parametro pj viene dada por:

Sij =

yi
pj

(3.10)
y=y(t,
p),p=
p

estando la derivada parcial evaluada en el punto normal de operacion, donde todos


los parametros tienen sus valores nominales p = p
.
Las funciones de sensibilidad absolutas son u
tiles para calcular errores debidos
a variaciones en los parametros y para conocer los tiempos a los que un parametro
ejerce su mayor o menor efecto. Sin embargo, las funciones absolutas no estan normalizadas y no son u
tiles para comparar los efectos de distintos parametros para lo
cual se debe utilizar funciones de sensibilidad relativas.

3.2.2.

Funci
on de sensibilidad relativa

La sensibilidad relativa de la variable yi con respecto a las variaciones del parametro pj representa el porcentaje de cambio en yi con respecto al cambio en pj :
% cambio en yi
pj
S ij =
=
% cambio en pj
yi

yi
pj

(3.11)
y=y(t,
p),p=
p

Las funciones de sensibilidad relativas se forman multiplicando la derivada parcial


(funcion de sensibilidad absoluta) por el valor nominal del parametro y dividiendo
por el valor de la variable. Son ideales para comparar parametros dado que son
adimensionales (funciones normalizadas).
La utilidad de la funcion de sensibilidad relativa esta limitada a estudios analticos dado que tiene diferentes significados en los dominios del tiempo y de la frecuencia. Esto es el resultado de ser un producto de dos funciones (la derivada parcial
y la funcion original) y de que la transformada de Laplace de un producto no es
el producto de las transformadas de Laplace. Ademas, la funcion de sensibilidad
relativa presenta problemas de division por cero cuando yi es nula y proporciona
ponderaciones indebidas a la respuesta si el valor de y0 es peque
no. Por lo tanto, en
algunas ocasiones se recomienda el uso de la funcion de sensibilidad semirelativa.

26

Captulo 3. Analisis de sensibilidad

3.2.3.

Funci
on de sensibilidad semirelativa

Aqu se debe distinguir entre:


Sensibilidad de la variable yi con respecto a las variaciones del parametro pj
relativa a los valores de la variable:
1
Sij =
yi

yi
pj

(3.12)
y=y(t,
p),p=
p

Sensibilidad de la variable yi con respecto a las variaciones del parametro pj


relativa al valor del parametro:

Sij = pj

yi
pj

(3.13)
y=y(t,
p),p=
p

Mientras que las funciones de sensibilidad semirelativas con respecto a las variables de estado tienen la misma forma que las funciones de sensibilidad relativas
(y por lo tanto los mismos problemas de division por cero y sobrepesado), las funciones de sensibilidad semirelativas con respecto a los parametros tienen la misma
forma que las funciones de sensibilidad absolutas (estan u
nicamente multiplicadas
por los valores constantes de los parametros) pero este reescalado permite hacer
comparaciones de los efectos de los distintos parametros.
Cuando se utilizan funciones de sensibilidad, tanto relativas como semirelativas
con respecto a las variables, se puede definir un valor umbral ymin en el factor
premultiplicador de las ecuaciones (3.11) y (3.12) cuando este es menor que el valor
de ymin . De este modo, se evitan los errores de sobrepesado cuando la trayectoria de
salida tiende a cero (Versyck, 2000) .

3.3.

Ranking de par
ametros

El analisis de sensibilidad indica que parametros son los mas importantes y los
que con mas probabilidad van a afectar las predicciones del modelo. De este modo,
los valores de los parametros crticos pueden ser redefinidos mientras que parametros
que tienen poco efecto pueden ser simplificados o incluso ignorados (Karnavas et al.,
1993) .
Para casos muy simples, el analisis visual de las graficas de las sensibilidades
relativas es suficiente para determinar la importancia relativa de los parametros. Sin
embargo, esto resulta inmanejable cuando el tama
no del problema aumenta y se
necesita una justificacion cuantitativa.

3.3. Ranking de parametros

27

Cuando se considera la sensibilidad de una variable del modelo con respecto a


peque
nos cambios en los valores de los parametros en una localizacion especfica, se
recomienda el calculo de los cinco sumatorios a partir de las sensibilidades relativas
que se presentan a continuacion (Brun et al., 2001) :

jmsqr

jmabs

v
u
Ny N
u 1 1 X
X 2
t
=
S (tk )
Ny N i=1 k=1 ij

(3.14)

Ny N
1 1 XX
|S ij (tk )|
=
Ny N i=1 k=1

(3.15)

Ny N
1 1 XX
=
S ij (tk )
Ny N i=1 k=1

(3.16)

jmean

jmax = max S ij (tk )

(3.17)

jmin = min S ij (tk )

(3.18)

i,k

i,k

A partir de estos coeficientes se pueden extraer una serie de conclusiones. Por


ejemplo, grandes diferencias entre jmsqr y jmabs indican una alta variabilidad o valores extremos (outliers) en Sj . La revision de jmax y jmin puede ayudar a distinguir
entre estos dos casos. Los dos sumatorios jmax y jmin son generalmente u
tiles para
detectar outliers y para conocer ademas el rango de Sj . Una comparacion entre jmabs
y jmean muestra si los elementos de Sj tienen todos el mismo signo y jmean proporciona informacion sobre el signo del efecto medio que un cambio en un parametro
tiene sobre la salida del modelo.
La clasificacion de los parametros por medio de una de las medidas en orden
decreciente da lugar a un ranking de importancia de los parametros. En el contexto
de estimacion de parametros por mnimos cuadrados, jmsqr es el mas adecuado como
criterio de clasificacion y se denomina tambien sensibilidad total. Las sensibilidades
totales proporcionan informacion sobre la importancia del ajuste de cada uno de los
parametros del modelo y reflejan el efecto de los cambios en los parametros alrededor
de sus valores nominales para la medida investigada que, para el caso de estimacion
por mnimos cuadrados, esta muy relacionada con la funcion de coste.
Con objeto de decidir que parametros pueden ser descartados en modelos con
parametros redundantes, se puede utilizar la importancia dada por un ranking basado en las sensibilidades totales. Degenring et al. (2004) describen otros metodos
basados en el analisis de los autovalores y autovectores de la matriz de sensibilidad

28

Captulo 3. Analisis de sensibilidad

relativa (analisis de las componentes principales) y los comparan con la aproximacion de importancia del ajuste. Este analisis muestra que ambos procedimientos
llevan a descartar basicamente los mismos parametros. Sin embargo, el analisis de
componentes principales ofrece la oportunidad de ser utilizado como una rutina autocontrolable mientras que, para el procedimiento de importancia del ajuste, el lmite
superior de los valores de sensibilidades totales para el cual todos los parametros
con un valor inferior pueden ser descartados dependera de cada modelo.

Captulo 4
An
alisis de identificabilidad
El problema de estimacion de parametros tratado en el captulo 2 (determinar
los parametros de un sistema a partir de unos datos de entrada y salida) se denomina
a menudo problema de identificacion. Esto es solamente un aspecto de un problema
mayor, el problema inverso, que incluye el estudio a priori de la identificabilidad
estructural, la identificabilidad a posteriori o practica y la estimacion de parametros.
Una vez elegida una estructura para el modelo (o un conjunto de estructuras
entre las que se debe elegir), sus propiedades deben ser estudiadas lo mas independientemente posible del valor que tomen sus parametros. Este estudio debera
realizarse antes de la estimacion para detectar problemas potenciales antes de recoger datos. En la practica, esto no siempre es posible ya que muchos metodos de
analisis de identificabilidad son locales y requieren conocer el valor de los parametros
procedente de una calibracion previa.
El analisis de identificabilidad estructural es un problema a priori y se formula de la siguiente manera: dado un modelo para el sistema, que se considera sin
errores de caracterizacion, se pregunta si, bajo condiciones ideales de observacion
(medidas ilimitadas y sin ruido) e independientemente de los valores particulares de
los parametros y de las condiciones experimentales, los parametros desconocidos del
modelo postulado pueden ser estimados de forma u
nica.
Aunque necesaria, la identificabilidad estructural no es suficiente para garantizar
una estimacion satisfactoria de los parametros a partir de datos reales y es entonces
cuando el concepto de identificabilidad a posteriori o practica entra en juego. Se sigue
asumiendo que la estructura del modelo es exacta, sin embargo, ahora las condiciones
experimentales son conocidas y los datos son limitados y con ruido y la pregunta
es: pueden los parametros desconocidos del modelo postulado ser determinados a
partir de los datos disponibles?
29

30

Captulo 4. Analisis de identificabilidad

4.1.

Identificabilidad estructural

Considerese un proceso y una estructura para su modelado. Antes de comenzar


a recoger datos y de realizar la estimacion de parametros, es recomendable estudiar
si sus parametros pueden ser determinados de forma u
nica. Para definir el concepto
de identificabilidad estructural se debe considerar un marco idealizado donde:
- el proceso y el modelo tienen identica estructura, M ,
- los datos no contienen error,
- las entradas u y los tiempos de medida pueden ser escogidos libremente.
Bajo estas condiciones, siempre es posible (p.ej., eligiendo p
= p ) calibrar los
parametros del modelo de modo que su comportamiento sea identico al del proceso
para cualquier tiempo y entrada, lo que se denotara por M (p ) = M (
p). Lo que
interesa saber ahora es si este comportamiento identico implica que los parametros
del modelo, p
, son iguales a los del proceso, p . Mas concretamente y adoptando las
definiciones de Walter y Pronzato (1997), se dira que el parametro individual pi es:
Estructuralmente globalmente (o u
nicamente) identificable (s.g.i.) si y solo
si, para casi cualquier p P,
M (
p) = M (p ) pi = pi

(4.1)

La estructura M sera s.g.i. si todos sus parametros son s.g.i.


Estructuralmente localmente identificable (s.l.i) si y solo si, para casi cualquier p P, existe una vecindad V(p ) tal que
p V(p ) y M (
p) = M (p ) pi = pi

(4.2)

La identificabilidad local es, por lo tanto, una condicion necesaria para la


identificabilidad global.
La estructura M sera s.l.i. si todos sus parametros son s.l.i.
Estructuralmente no identificable (s.u.i.) si y solo si, para casi cualquier
p P no existe ninguna vecindad V(p ) tal que
p V(p ) y M (
p) = M (p ) pi = pi
La estructura M sera s.u.i. si al menos uno de sus parametros es s.u.i.

(4.3)

4.1. Identificabilidad estructural

31

Notese que la restriccion a casi cualquier p se refiere a que la condicion debe


ser cierta para casi cualquier valor de los parametros y puede ser falsa en un
subespacio del espacio parametrico de medida cero. Es decir, una propiedad
que es cierta para cualquier valor de p excepto para alguna hipersuperficie
atpica se considera estructural ya que, la probabilidad de elegir aleatoriamente
un valor atpico de p es cero.
De un analisis de identificabilidad estructural, se puede concluir que solo algunas
combinaciones de los parametros son identificables. Si el n
umero de parametros
identificables es menor al n
umero total, se debera reducir el n
umero de parametros
a estimar o modificar la estructura del modelo.
Se han publicado distintas tecnicas para el analisis de identificabilidad estructural a priori de modelos lineales (ver p.ej. Walter y Pronzato (1997) y los trabajos
ah citados). Sin embargo, este analisis es especialmente difcil para modelos dinamicos no lineales y existen relativamente pocas tecnicas propuestas para ese caso, a
saber, el metodo de Taylor, la aproximacion de transformacion de similitud y tecnicas basadas en algebra diferencial.
Chappel et al. (1990) comparan los dos principales metodos disponibles en ese
momento para el analisis de identificabilidad estructural de parametros de un sistema
no lineal, la aproximacion por series de Taylor de Pohjanpalo (1978) y la aproximacion de transformacion de similitud, basada en el teorema de isomorfismo de estado
local, introducido por Vajda et al. (1989). Ambos metodos han sido aplicados con
exito a algunas estructuras no lineales especficas pero se ha probado que no son
aplicables para el caso general, principalmente cuando el sistema no lineal aumenta
de tama
no.
Tambien se han aplicado tecnicas basadas en algebra diferencial al estudio de
este problema. Ollivier (1990) y Ljung y Glad (1994) propusieron por primera vez
metodos de este tipo. Mas recientemente, se ha desarrollado un nuevo algoritmo
basado en algebra diferencial (Audoly et al., 2001) que mejora la eficiencia de los
anteriores y aumenta su dominio de aplicacion. Sin embargo, a pesar de que estos
metodos han mejorado enormemente el analisis de identificabilidad para modelos
no lineales, la construccion de un algoritmo eficiente aplicable al caso general sigue
siendo una tarea difcil debido a las limitaciones en su aplicabilidad (Dokos y Lovell,
2004; Baker et al., 2005).
Desafortunadamente, probar la identificabilidad estructural global para algunos
de los modelos considerados en este trabajo no parece posible con las tecnicas disponibles en la actualidad ya que la mayora no pueden ser aplicadas a no linealidades
exponenciales. La aproximacion de Taylor es aplicable a algunos de los modelos a

32

Captulo 4. Analisis de identificabilidad

estudio aunque con algunas restricciones en el tama


no del conjunto de parametros.
A pesar de las limitaciones, esta tecnica permitira realizar el analisis de la identificabilidad estructural local (s.l.i.) de subconjuntos particulares de parametros,
proporcionando informacion u
til para llevar a cabo una identificacion iterativa del
modelo, como se mostrara mas adelante.

M
etodo de series de Taylor
La aproximacion por series de Taylor, propuesta originalmente por Pohjanpalo
(1978), se basa en analizar la expansion en series de potencias de las trayectorias de
las medidas z(t), evaluadas a tiempo cero, en funcion del conjunto desconocido de
parametros p:
1
1
zi (p, O+ ) = a0i (p) + a1i (p)t + a2i (p)t2 + ... + ani (p)tn
2
n!

(4.4)

siendo:
dj zi
i = 1, ..., Nz ; j = 0, ...n
(4.5)
dtj
Ya que el vector de medidas es u
nico, todas sus derivadas son tambien u
nicas.
Por lo tanto una condicion suficiente para que el modelo sea s.g.i. sera:
aji (p) =

aji (p) = aji (


p) p = p

(4.6)

Cuando no se verifica la condicion suficiente, el problema de demostrar la identificabilidad teorica de los parametros del modelo es equivalente a determinar el
n
umero de soluciones de p para el conjunto de ecuaciones algebraicas (4.5), que
normalmente son no lineales en los parametros. Si este es mayor que uno pero un
n
umero finito, se podra decir que el modelo es s.l.i. y no u
nicamente identificable y,
si el n
umero de soluciones es infinito, se dira que es s.u.i.

4.2.

Identificabilidad local a priori

La limitada aplicabilidad de las tecnicas existentes para la determinacion de la


identificabilidad global estructural, junto con la necesidad de metodos practicos,
suponen un argumento clave para enfatizar el uso de metodos locales a priori a
pesar de las limitaciones derivadas de su naturaleza local. Estos metodos dependen,
no solo del valor de los parametros, sino tambien de las condiciones experimentales
pero, a diferencia con la identificabilidad a posteriori o practica, suponen que los
datos experimentales son ilimitados y sin ruido.

4.2. Identificabilidad local a priori

33

Las funciones de sensibilidad de la salida son fundamentales para el estudio


de la identificabilidad local a priori. Si las funciones de sensibilidad son linealmente
dependientes, el modelo no es identificable mientras que funciones de sensibilidad que
son casi linealmente dependientes son un indicador de la existencia de parametros
muy correlacionados.
Una manera sencilla de estudiar la identificabilidad local de un modelo es representar graficamente las funciones de sensibilidad calculadas para ese conjunto de
parametros pero esto se vuelve complicado cuando el n
umero de estados medidos y
de parametros aumenta.
Zak et al. (2003) presentan el siguiente metodo numerico para comprobar la
identificabilidad local a priori de los parametros en un punto determinado p
haciendo
uso de las funciones de sensibilidad, basado en el propuesto por Jacquez y Greif
(1985).
Considerese un sistema de modelo-experimento descrito por:
F (y, y,
z, u, p, t) = 0

(4.7)

F0 (y(t0 ), z(t0 ), u(t0 ), t0 ) = 0

(4.8)

Considerando los valores de los parametros del conjunto p


como valores verdaderos, las matrices de sensibilidad de los estados medidos, Sz , de dimension Nz
por Np , se calculan para un n
umero suficientemente grande de puntos de tiempo N
donde:

zi
Szij =
(4.9)
pj z=z(t,p),p=p
La matriz G se construye entonces almacenando las matrices de sensibilidades
para estos puntos:

Sz (t1 )
Sz (t2 )

G=
(4.10)

..

.
Sz (tN )
Finalmente la matriz de correlacion de los parametros (Mc ), de dimension Np
por Np , se calcula como:
Mc = correlaci
on(G)
(4.11)
Los parametros que son localmente identificables tienen correlaciones entre 1
y +1 con todos los demas parametros. Los parametros que no son localmente identificables tienen correlaciones de exactamente 1 o +1 con al menos uno de los
otros parametros. Esto significa que estos parametros influyen en las variables medidas de la misma manera o de manera exactamente opuesta. El conjunto original

34

Captulo 4. Analisis de identificabilidad

de parametros, p, puede reducirse al conjunto de parametros identificables, pI , de


longitud NI , calculando Mc , eliminando uno de los parametros no identificables, recalculando Mc , eliminando otro parametro no identificable, etc., hasta que no quede
ning
un parametro no identificable.

4.3.

Identificabilidad pr
actica o a posteriori

A diferencia de la identificabilidad estructural o teorica que solo depende de la


estructura del modelo, la identificabilidad practica esta tambien relacionada con la
calidad de los datos y su contenido informativo. Mientras que la identificabilidad estructural se estudia bajo los supuestos de datos perfectos, el problema de parametros
muy correlacionados se acent
ua cuando se usa un conjunto limitado de datos experimentales y con ruido para la estimacion. Bajo estas condiciones, la unicidad de los
parametros estimados predicha por un analisis teorico ya no puede ser garantizada
ya que un cambio en un parametro puede ser compensado casi por completo por un
cambio proporcional en otro y estos seguir produciendo un ajuste satisfactorio de
los datos experimentales.
La cuestion a tratar en esta seccion es la siguiente: con los datos experimentales disponibles, se les puede dar a los parametros valores u
nicos para el mejor
ajuste? O, en otras palabras, si se produce una peque
na desviacion en el conjunto
de parametros, tendra esto como consecuencia una disminucion considerable de la
bondad del ajuste?
Existen varias tecnicas para analizar la identificabilidad practica siendo las mas
empleadas el metodo basado en la matriz de informacion de Fisher y el analisis
basado en las regiones de confianza.

4.3.1.

M
etodo basado en la FIM

Matematicamente este metodo puede formalizarse del modo que se detalla a


continuacion (Munack, 1991). En primer lugar recuerdese que la estimacion de
parametros puede formularse como la minimizacion de la siguiente funcion objetivo cuadratica mediante la eleccion optima de los parametros p:
J(p) =

N
X

(zi (p) zi )T Qi (zi (p) zi )

(4.12)

i=1

donde zi y zi (p) son vectores de N valores medidos y predicciones del modelo a los
tiempos ti (i = 1 a N ), respectivamente, y Qi es una matriz cuadrada proporcionada
por el usuario de coeficientes de peso.

4.3. Identificabilidad practica o a posteriori

35

El valor esperado de la funcion objetivo para un conjunto de parametros ligeramente diferente del optimo viene dado por:
" N
T

#
N
X z
X
z
T

E[J(p + p)] = p
(ti ) Qi
(ti ) p +
tr (Vi Qi ) (4.13)
p
p
i=1
i=1
donde Vi representa la matriz de covarianza del error de las medidas (Qi se elige
tpicamente como Vi 1 ).
Una consecuencia importante de la ecuacion (4.13) es que para optimizar la
identificabilidad practica (maximizar la diferencia entre J(p + p) y J(p)) se tiene
que maximizar el termino entre corchetes []. Este termino se conoce como matriz
de informacion de Fisher (FIM) y expresa la cantidad de informacion de los datos
experimentales (Ljung, 1999):
FIM =

N
X
z

i=1

T
(ti )

Qi

z
(ti )
p

(4.14)

Los terminos z/p son las funciones de sensibilidad que son de gran importancia
para la evaluacion de la identificabilidad practica ya que son el componente principal
de la matriz de informacion de Fisher.
Como se explicara en detalle en el captulo 5, la matriz de informacion de Fisher
es tambien una aproximacion de la inversa de la matriz de covarianza del error del
mejor estimador lineal no sesgado (Best Linear Unbiased Estimator, BLUE):
C = FIM1 =

" N
X z
i=1

T
#1

z
(ti ) Qi
(ti )
p
p

(4.15)

Ademas, de la matriz de covarianza tambien se puede obtener informacion u


til
sobre la correlacion de los parametros estimados. La matriz de correlacion, cuyos
elementos son los coeficientes de correlacion aproximados entre el parametro i y el
j, se define como:
Cij
Rij = p
, i 6= j,
(4.16)
Cii Cjj
Rij = 1, i = j,

(4.17)

La matriz de correlacion, R, mide la relacion entre los parametros y da una idea


de los efectos de compensacion de los cambios en los valores de los parametros sobre
la salida del modelo. Si dos parametros, pi y pj , estan altamente correlacionados,
un cambio en la salida del modelo ocasionado por un cambio en pi puede estar
(casi) compensado por un cambio apropiado en el valor de pj . Esto evita que los

36

Captulo 4. Analisis de identificabilidad

parametros sean identificables de forma u


nica incluso si la salida del modelo es muy
sensible a los cambios en los parametros individuales.
El problema de analizar la identificabilidad practica es similar al analisis de la
identificabilidad a priori local pero ahora los puntos de evaluacion de las funciones
estan limitados a los datos experimentales y estos tienen error. Si las funciones de
sensibilidad presentan dependencia lineal en los puntos de los datos experimentales,
la matriz de covarianza se vuelve singular y el modelo no es identificable. Una FIM
singular indica la presencia de parametros no identificables y correlaciones entre
parametros superiores de 0.99 pueden dar lugar a una FIM singular.
En el presente estudio, se ha utilizado el estimador del n
umero de condicion de
una matriz de Matlab, rcond, para determinar si la FIM es singular:
rcond(FIM) =

1
norm(FIM, 1)norm(FIM1 , 1)

(4.18)

Si rcond(FIM) < 10, donde es la maxima precision de Matlab en punto


flotante (2.2 1016 ), la FIM se considera singular.
A pesar de que el analisis de sensibilidad basado en la FIM es una tecnica muy
extendida, esta implica una linealizacion de primer orden del modelo con respecto a
los parametros lo que en algunos casos dara lugar a conclusiones erroneas (Petersen,
2000). En el caso de problemas muy no lineales, en esta aproximacion se pierde
mucha informacion lo que podra dar lugar a que los parametros sean identificables
en la practica a
un cuando la FIM sea singular.
Por este motivo, el analisis basado en las regiones de confianza se presenta en este
trabajo como una una alternativa mas robusta aunque mucho mas costosa desde el
punto de vista computacional.

4.3.2.

M
etodo basado en las regiones de confianza

Existen distintas posibilidades para la determinacion de las regiones de confianza para los parametros estimados (ver captulo 5). Las tecnicas basadas en la FIM
presentan las limitaciones inherentes a esta matriz derivadas de su caracter lineal.
Sin embargo, la forma y dimensiones de las regiones de confianza obtenidas mediante metodos de Monte Carlo permitiran obtener conclusiones objetivas sobre la
identificabilidad practica de los parametros del modelo.

Captulo 5
Intervalos de confianza
Despues de ajustar los parametros p a los datos experimentales, es deseable
obtener alguna medida de la calidad de los estimadores. En principio, el objetivo
es obtener la distribucion de probabilidad de los parametros estimados o una caracterizacion adecuada de la misma, por ejemplo, mediante el calculo de diferentes
percentiles de la distribucion. Sin embargo, en la mayora de los casos, esta distribucion no se conoce y por lo tanto es necesario obtener una aproximacion de la
misma.
En este captulo, se introducira, en primer lugar, la definicion basica de las regiones de confianza exactas. A continuacion, se consideran dos metodos de aproximacion: una linealizacion local de las salidas dando lugar a la matriz de informacion
de Fisher (FIM) y una expansion cuadratica del funcional del error de estimacion
implicando a la matriz Hessiana. Por u
ltimo se consideran alternativas mas robustas
basadas en metodos de Monte Carlo.

5.1.

Regiones de confianza exactas

Las regiones de confianza son de gran importancia ya que proporcionan una evaluacion objetiva de la precision de los parametros estimados y de su identificabilidad.
Dado que la funcion objetivo J representa la cercana de los datos experimentales al
modelo ajustado, es justificable basar la region de confianza de p
en los contornos
de J(p). En el espacio parametrico, esta region tiene la forma general:
{p : J(p) cJ(
p)}

(5.1)

para todo c > 1. Esta region puede ser considerada como exacta ya que no esta basada en ninguna aproximacion, aunque es difcil seleccionar un valor de c con significado estadstico. De todos modos, para un n
umero de puntos experimentales N
37

38

Captulo 5. Intervalos de confianza

grande, la region de confianza basada en estadsticos F (Seber y Wild, 1989)

Np
1
p : J(p) 1 +
F
J(
p)
(5.2)
N Np Np ,N Np
tiene el nivel de confianza asintotico de 100(1 ) % donde FN1
es el nivel
p ,N Np
crtico superior de la distribucion FNp ,N Np .
La dificultad practica de estimar esta region ha sido examinada por Vanrolleghem
y Keesman (1996) que sugirieron utilizar simulaciones extensivas de Monte Carlo
que se explicaran mas adelante. Mas recientemente, Dochain y Vanrolleghem (2001)
propusieron un metodo de contraccion sucesiva para encontrar el valor de J(p)
correspondiente al valor prescrito de la distribucion F .

5.2.

M
etodo basado en la FIM

La region de confianza puede definirse como una funcion de la matriz de covarianza de los parametros C y puede expresarse como (Seber y Wild, 1989; Ljung,
1999):
n
o
p : (p p
)T C1 (p p
) Np FN1
(5.3)
p ,N Np
Para un modelo lineal z = py + , con ruido residual N (0, 2 Iq ), C puede
obtenerse de forma compacta como:

1
C = 2 YT V1 Y

(5.4)

donde Y = [y1 , y2 , ..., yN ]T .


Para modelos no lineales no hay un modo exacto de obtener C y la aproximacion
lineal puede dar lugar a estimaciones pobres de la region de confianza real (Donaldson y Schnabel, 1987; Rooney y Biegler, 1999). La matriz de covarianza anterior
C obtenida para el caso lineal puede ser ampliada para dar lugar a una matriz de
covarianza aproximada como:
CJ (
p) =

1
J(
p)
J(
p)T V1 J(
p)
N Np

(5.5)

donde el termino J(
p)/N Np es una aproximacion objetiva de la varianza residual
2 y J es la matrix Jacobiana del modelo que puede escribirse en columna, tal que:

siendo

J = J1 |J2 |...|Jj |...|JNp

(5.6)

z
= Sj , j = 1, ..., Np
Jj (
p) =
pj p

(5.7)

5.3. Metodo basado en la matriz Hessiana

39

Las columnas de la matrix Jacobiana J son las salidas de las funciones de sensibilidad
Sj = (z/pj ) con respecto a los parametros.
Asumiendo que el ruido de las medidas no esta correlacionado y que este presenta una distribucion normal con media cero y varianza constante, CJ , dada por
la ecuacion (5.5), es tambien la inversa de la FIM, definida como:
FIM =

T
N
X
z(ti )
i=1

Vi2

z(ti )
p

(5.8)

es decir,
CJ (
p) = FIM1

(5.9)

En este caso, la inversa de la FIM representa la matriz de covarianza del error del
estimador objetivo de varianza mnima de acuerdo con el teorema de Cr`amer-Rao
(Ljung, 1999). Sustituyendo C de la ecuacion (5.5) en la ecuacion (5.3), se obtienen
los elipsoides de confianza aproximados:
n
o
1
1
T
p : (p p
) CJ (p p
) Np FNp ,N Np
(5.10)

5.3.

M
etodo basado en la matriz Hessiana

Para modelos no lineales la funcion objetivo J(p) dada por la ecuacion (4.12) no
es una forma cuadratica exacta pero, para desviaciones de los parametros suficientemente peque
nas (p p
), puede ser aproximada por una expansion de segundo orden
alrededor de los parametros estimados p
. Dado que en la vecindad del mnimo el
termino de primer orden se pierde ((J/p)p 0) la expansion de segundo orden
da lugar a:
2

1
J
T
J(p) J(
p) + (p p
)
(
p) (p p
)
(5.11)
2
ppT
Sustituyendo la ecuacion (5.11) en la ecuacion (5.2), se obtiene un resultado formalmente similar al caso lineal:
CH (
p) =
donde:

2
J(
p)H(
p)1
N Np

2 J(
p)
H(
p) =
ppT

con los elipsoides de confianza dadas por:


o
n
)T Np FN1
p : (p p
)T CH 1 (p p
p ,N Np

(5.12)

(5.13)

(5.14)

40

Captulo 5. Intervalos de confianza

En cualquiera de los dos casos, el intervalo de confianza individual de cada


parametro i puede obtenerse como:
1(/2)

i = tN Np

Cii

(5.15)

donde C puede ser aproximada o bien por CJ de la ecuacion (5.5) o por CH de la


1(/2)
ecuacion (5.12) y tN Np es la distribucion t de Student de dos colas para un nivel
de confianza dado y N Np grados de libertad. En el lmite de un n
umero largo
de medidas (N Np > 100), el intervalo de confianza del 95 % para los parametros
es [pi 1.96i , pi + 1.96i ].
Los elipsoides de confianza obtenidos a partir del Hessiano o con el metodo de
Fisher coinciden solo cuando la estimacion converge a los parametros verdaderos.
De otro modo, estos dan resultados claramente distintos, pudiendo as detectar si
los resultados de la estimacion son inadecuados (Marsili-Libelli et al., 2003).
De todos modos, estos intervalos de confianza son estadsticamente optimistas
debido al uso de una aproximacion del modelo no lineal en la vecindad de la mejor
estimacion de los parametros (Vanrolleghem y Dochain, 1998). Otras tecnicas alternativas mas robustas como los metodos jackknife y bootstrap producen varianzas de
los parametros mas realistas aunque estos metodos son bastante intensivos desde un
punto de vista computacional.

5.4.

M
etodos de Monte Carlo

La estimacion de parametros utiliza los datos obtenidos de un sistema en un experimento dado. En general, debido a las perturbaciones que act
uan sobre el sistema
y el ruido en las medidas, la repeticion de experimentos identicos no conducira a
los mismos resultados. Por lo tanto, antes de la recogida de datos, el vector
z es
un vector aleatorio cuyo estimador asociado sera p
(
z) y una vez llevados a cabo los
experimentos, lo que se tendra es una realizacion particular de ese vector aleatorio.
Los metodos de Monte Carlo tratan de determinar las caractersticas estadsticas
de la poblacion de estimadores proporcionada por un conjunto de todas las posibles
realizaciones de
z, es decir, de todos los resultados experimentales posibles. Con este
fin, se generan vectores de datos ficticios
zf mediante simulaciones del modelo para
el valor estimado de los parametros, incorporando errores aleatorios para representar
la presencia de perturbaciones y de ruido. Cada vector de datos ficticios dara lugar
a un estimador ficticio p
f = p
(
zf ), calculado como para los datos reales. De este
modo se obtendra un conjunto de estimadores ficticios cuyas propiedades estadsticas
pueden ser estudiadas. Normalmente, p
f se considera un vector aleatorio normal

5.4. Metodos de Monte Carlo

41

y su distribucion se caracteriza por la media y la matriz de covarianza emprica


de los estimadores ficticios. Este metodo requiere, por lo tanto, un gran n
umero
de estimaciones y de simulaciones del modelo. Con objeto de reducir el esfuerzo
computacional se han sugerido varias tecnicas (ver, p. ej., Grant y Solberg, 1983).
Una de las dificultades de los metodos de Monte Carlo esta en la eleccion de la
distribucion empleada para generar los datos ficticios
zf . Las tecnicas jackknife (Quenouille, 1949) y bootstrap (Efron, 1982) hacen posible evitar estimar la distribucion
del error a partir de los residuos.

5.4.1.

Jackknife

La mayor ventaja de la tecnica jackknife estriba en su simplicidad. Sea N = Gh,


el vector de datos experimentales
z = (
z1 , z2 , ..., zN ) se divide de la forma
z =
0
0
0
0
zG ), siendo cada
zg (g = 1, 2, ..., G) un vector h 1. Sea p
el vector de
z2 , ...,
(
z1 ,
parametros estimados a partir de todos los datos
z y p
(g) el mejor estimador de
parametros para el modelo omitiendo el grupo
z0g calculado iterativamente empleando p
como punto inicial. Se definen entonces G pseudo-estimadores de la forma:
p
g = G
p (G 1)
p(g) (g = 1, 2, ..., G)
con media:

(5.16)

p
Jk

1 X
=
p
g
G g=1

(5.17)

y matriz de varianza-covarianza:

CJk = (CJkij ) =

1 X
(
pg p
Jk ) (
pg p
Jk )T
G 1 g=1

(5.18)

De este modo, p
Jk es el estimador jackknife de p y CJk /G es un estimador de
D[
pJk ]. Considerando p
g (g = 1, 2, ..., G) independientes e igualmente distribuidos,
se puede construir una region con un nivel de confianza de 100(1 ) % para p
empleando la distribucion T 2 de Hotelling (p. ej. Seber, 1984) de modo que:

Np G 1 1
1
T
(5.19)
Jk )
FNp ,GNp
p : (p p
Jk ) CJk (p p
G Np G
Ademas, para un pi dado, el intervalo de confianza 100(1 ) % puede obtenerse
como:
r
CJkii
1(/2)
(5.20)
pJki tN Np
G
donde pJki es el elemento i de p
Jk .

42

Captulo 5. Intervalos de confianza

Las propiedades de (5.19) y (5.20) fueron estudiadas por Dunkan (1978) para
N = 24 y distintos valores de h. Aunque tener un h lo mas grande posible es
conveniente desde el punto de vista computacional, su estudio concluye claramente
que las omisiones de uno en uno (h = 1) son mas recomendables, especialmente para
muestras peque
nas. A pesar de su facil implementacion, este metodo resulta menos
flexible y fiable que el metodo bootstrap (Walter y Pronzato, 1997).

5.4.2.

Bootstrap

El metodo bootstrap (ver, por ejemplo, DiCiccio y Romano, 1988; Hinkley, 1988)
utiliza solamente los valores de los datos experimentales
z y el modelo M (
p) asumiendo que los errores son variables aleatorias con identica distribucion pero sin
especificar. Se asume por ejemplo que
z(ti ) = z(ti , p ) + bi , i = 1, ..., N

(5.21)

donde los bi corresponden a variables independientes e igualmente distribuidas. Un


estimador de bi viene dado por el residuo i:
bi = z(ti ) z(ti , p
), i = 1, ..., N

(5.22)

donde p
es un estimador de p . Un vector
zf de datos ficticios zf se obtiene entonces
como:
zf (ti ) = z(ti , p
) + b, i = 1, ..., N
(5.23)
donde, para cada ti , b se elige aleatoriamente entre los residuos bk (k = 1, ..., N )
considerados como equiprobables. Esto equivale a sustituir la distribucion emprica
de los residuos por la distribucion verdadera de los bi que sera mas aceptable cuanto
mas cerca este p
de p . Repitiendo esta operacion, se obtiene la poblacion de vectores
de datos ficticios, a partir de la cual puede derivarse la poblacion de los parametros.
Las caractersticas de esta poblacion (media p
B , matriz de covarianza CB ) podran
entonces ser estudiadas de manera analoga al metodo jackknife obteniendo, para un
pi dado, el intervalo de confianza 100(1 ) %:
1(/2)

pBi tN Np
donde pBi es el elemento i de p
B.

CBii

(5.24)

Captulo 6
Dise
no
optimo de experimentos
Para llevar a cabo la estimacion de parametros de modo satisfactorio, es imprescindible que los datos experimentales sean de suficiente calidad. La realizacion de
experimentos en bioprocesos, especialmente a nivel industrial, es una actividad muy
costosa en tiempo y dinero. Por estos motivos, se hace necesario el dise
no optimo
de experimentos (OED) cuyo objetivo es encontrar los experimentos dinamicos necesarios para que los parametros estimados a partir de los datos proporcionados por
los mismos sean de la mejor calidad estadstica posible.
Ademas, todos los algoritmos numericos empleados para la estimacion de parametros en modelos no lineales presentan dificultades cuando se encuentran con problemas mal condicionados. Asumiendo que la estructura del modelo es correcta y que
este es estructuralmente identificable, el dise
no de experimentos va a influir en gran
medida para la identificabilidad practica del mismo. El OED ayudara a mejorar la
identificabilidad practica mejorando a su vez el condicionamiento del problema de
estimacion y facilitando as la tarea de los metodos de optimizacion.
Cuando uno se enfrenta a un problema de dise
no optimo de experimentos las
preguntas que se debe plantear son:
- Qu
e medir? Esta pregunta afronta la eleccion de las variables medidas.
- D
onde medir? Aqu se trata el problema de la localizacion de los sensores.
- Cu
ando medir? Consiste en establecer la estrategia de muestreo.
omo manipular? Se trata de definir cuales son las posibles variables ma- C
nipuladas o controles y el tipo de manipulaciones, es decir, la variacion de
los controles a lo largo del experimento. En algunos casos tambien se podran
modificar las condiciones iniciales de ciertas variables.
43

44

Captulo 6. Dise
no optimo de experimentos

Para el dise
no de experimentos informativos, se han desarrollado diferentes estrategias basadas en la definicion del contenido de informacion de un experimento
dado. Por sus caractersticas, la matriz de informacion de Fisher (FIM) es la clave
de muchos de estos procedimientos. Para sistemas lineales y bajo ciertas suposiciones sobre el ruido de las medidas, la inversa de la FIM evaluada en los verdaderos
parametros del proceso p es la matriz de covarianza del mejor estimador lineal no
sesgado (Best Linear Unbiased Estimator, BLUE) (Goodwin y Payne, 1977; Godfrey
y DiStefano III, 1985). Cuando los parametros estimados a partir de un experimento
estan cerca de los parametros verdaderos del proceso p , la matriz de informacion
de Fisher evaluada en esos estimadores puede verse como una aproximacion de la
FIM evaluada en los parametros verdaderos del proceso p . De este modo, su inversa proporciona una aproximacion de la mejor covarianza del error que se puede
conseguir.
Para modelos no lineales en los parametros, la aplicacion de esta metodologa
implica la suposicion de que las salidas pueden ser aproximadas por una expansion
en series de Taylor de primer orden en la vecindad de los parametros verdaderos
de proceso p . En la practica, los parametros verdaderos se desconocen por lo que,
durante el dise
no de experimentos, debe utilizarse un conjunto de parametros, llamado conjunto de parametros nominales p0 que generalmente no coincide con los
parametros verdaderos del proceso p . Normalmente, estos parametros nominales
p0 se obtienen a partir de experimentos preliminares o de datos bibliograficos. De
este modo, el problema de OED se establece como la optimizacion de una funcion
escalar de la FIM evaluada en los parametros nominales p0 . Dado que estos normalmente no coinciden con los parametros verdaderos, se debe realizar un esquema
iterativo de dise
no para obtener los verdaderos experimentos optimos con respecto al
vector de parametros verdadero p . En cada ciclo iterativo, los valores de los parametros estimados a partir del experimento precedente son utilizados como conjunto de
parametros nominales para el dise
no optimo de experimentos.

6.1.

Criterios de dise
no
optimo

Con objeto de comparar la eficacia de un experimento con respecto a la identificabilidad de los parametros y a la precision esperada de la estimacion a partir de
los datos recogidos, se han sugerido como medida varias funciones escalares de la
matriz de informacion de Fisher. Estos funcionales tambien se utilizan como ndices
de eficacia para el dise
no optimo de experimentos. En la bibliografa se pueden encontrar varios de estos criterios de dise
no optimo (Vanrolleghem y Dochain, 1998)

6.1. Criterios de dise


no optimo

45

cuya interpretacion geometrica se ilustra en la Figura 6.1:

Criterio A

Criterio E

p2

Criterio D
p1

Figura 6.1: Interpretacion geometrica de varios criterios de


dise
no optimo (Asprey y Macchietto, 2002)

Criterio A: min traza FIM1


Este criterio se centra en la minimizacion de la traza y por lo tanto de la
suma de los autovalores de la matriz de covarianza, es decir, el cuadrado de
la longitud de los ejes de los elipsoides de confianza. Esto es equivalente a
minimizar la media aritmetica de los errores de los parametros. Notese que
este criterio se basa en la inversion de la FIM por lo que producira errores
numericos en el caso de que la FIM sea singular o este mal condicionada.
Criterio A modificado: max traza (FIM)
Este criterio es similar al criterio A solo que, en este caso, se maximiza la
traza de la FIM de modo que se evitan los errores numericos en caso de
que la FIM sea singular. Sin embargo, el problema de este criterio es que
en el maximo puede darse el caso de que la matriz sea singular porque uno
de los autovalores sea cero, si alguno de los otros autovalores se ha vuelto
lo suficientemente grande (Goodwin y Payne, 1977). Esto significara que la
region de confianza se va a infinito en cierta direccion y que los parametros no
son identificables.

46

Captulo 6. Dise
no optimo de experimentos

Criterio D: max det (FIM)


Aqu se trata de maximizar el determinante de la FIM. El determinante es
proporcional al volumen de la region de confianza. Maximizando el criterio D
se minimiza el volumen de los elipsoides de confianza asintoticos y, por lo tanto, la media geometrica del error de los parametros. Ademas, este criterio es
invariable a cualquier reescalado de los parametros (Walter y Pronzato, 1997).
Por otra parte, un dise
no D-optimo consiste normalmente en la repeticion de
un n
umero peque
no de condiciones experimentales diferentes, es decir, algunos experimentos apareceran repetidos (Atkinson y Hunter, 1968; Box, 1968,
1970). Como se explica en detalle en Walter y Pronzato (1997), esto puede
ayudar a eliminar optimos locales a la hora de estimar los parametros.
Criterio E: min max (FIM1 )
La longitud de los ejes de los elipsoides de confianza es proporcional a la
inversa de la raz cuadrada de los autovalores correspondientes. El criterio E
maximiza el mnimo autovalor de la FIM y, por lo tanto, minimiza la longitud
del mayor de los ejes de los elipsoides de confianza. De este modo, este criterio
trata de minimizar el mayor de los errores de los parametros y as maximizar
la distancia del caso singular (no identificable).
(FIM)
Criterio E modificado: min abs( max
)
min (FIM)

Este criterio tambien esta relacionado con la forma de la region de confianza.


Aqu el objetivo es la minimizacion del n
umero de condicion (relacion entre el
mayor y el menor autovalor) o lo que es lo mismo, trata de igualar el mayor
y el menor de los ejes de los elipsoides. Una de las ventajas de este criterio
es que su valor optimo es conocido y corresponde a la unidad indicando el
caso donde la forma de los elipsoides de confianza es una (hiper)esfera (en una
representacion tridimensional correspondera a una forma conica) y los errores
de los parametros estan igualmente distribuidos.
En este punto, se debe mencionar que el reescalado de los parametros afecta a
las propiedades de la matriz de informacion de Fisher y por lo tanto de su inversa,
la matriz de covarianza. El reescalado de los parametros puede utilizarse de modo
ventajoso ya que mediante un reescalado adecuado se puede minimizar los problemas
relacionados con la inversion de la FIM. Sin embargo, este efecto tambien afecta al
dise
no optimo de experimentos basado en funciones escalares de la FIM. Como se
muestra en Petersen (2000), todos los criterios antes explicados con excepcion del
criterio D son sensibles al reescalado de los parametros. Esto significa que los dise
nos

6.2. Formulacion del OED como un problema de optimizacion dinamica

47

experimentales obtenidos mediante estos criterios seran diferentes si el modelo se


expresa, por ejemplo, en distintas unidades de tiempo. Por este motivo, con objeto
de obtener unos elipsoides de confianza lo mas esfericos posible, se recomienda escalar
todos los parametros al mismo valor, p. ej. la unidad. Por otra parte, si se desea
que unos parametros tengan mejor calidad estadstica que los otros, se recomienda
escalar estos parametros a un valor mayor que el resto.

6.2.

Formulaci
on del OED como un problema de
optimizaci
on din
amica

El problema de dise
no optimo de experimentos puede ser formulado como un
problema de optimizacion dinamica, tambien llamado de control optimo en lazo
abierto, como sigue:
Encontrar los factores externos variables con el tiempo o variables de control
(temperatura, pH, concentraciones, etc.), u(t), as como los tiempos de muestreo, la
duracion del experimento y las condiciones iniciales, v, que minimizan (o maximizan)
una funcion escalar de la matriz de informacion de Fisher:
JOED = (FIM)

(6.1)

sujeto a:
la dinamica del sistema:

F (y, y,
z, u, v, p, t) = 0

(6.2)

F0 (y(t0 ), z(t0 ), u(t0 ), v, p, t0 ) = 0

(6.3)

donde y es el vector de las variables de estado del modelo, z es el vector de las


variables medidas en puntos discretos de tiempo, u es el vector de variables de
control o factores externos, v incluye los tiempos de medida, la duracion de
los experimentos y las condiciones iniciales y p es el vector de los parametros
del modelo.
posibles restricciones de igualdad y desigualdad respectivamente:

h (y, z, u, v, p, t) = 0

(6.4)

g (y, z, u, v, p, t) 0

(6.5)

48

Captulo 6. Dise
no optimo de experimentos

otras restricciones algebraicas relacionadas con limitaciones experimentales:

uL (t) u(t) uU (t)

(6.6)

vL v vU

(6.7)

Los metodos existentes en la actualidad para la resolucion de problemas de optimizacion dinamica pueden clasificarse en tres grandes grupos:
etodos de programaci
on din
amica desarrollados inicialmente para pro1. M
blemas discretos y que estan basados en las condiciones de optimalidad de
Bellman (1957). Luus (1990) propone el metodo denominado programacion
dinamica iterativa (Iterative Dynamic Programming, IDP) que se basa en aplicar el principio de Bellman de manera iterativa.
etodos indirectos que emplean las condiciones del principio mnimo de
2. M
Pontryagin (1962) dando lugar a un problema de condiciones iniciales para
los estados y finales para las variables adjuntas (Two Point Boundary Value
Problem, TPBVP) (Bryson y Ho, 1975).
3. M
etodos directos, donde el problema original se transforma en un problema de optimizacion no lineal (NLO) utilizando o bien la parametrizacion de
control (Control Vector Parametrization, CVP) (Vassiliadis, 1993) o bien la
parametrizacion total (Complete Parametrization, CP), donde se parametrizan tanto las variables de control como las variables de estado (Polak, 1971;
Biegler, 1984).
Las tecnicas mas utilizadas en la actualidad para la resolucion de problemas de
optimizacion dinamica estan basadas en metodos directos (ver revisiones por BalsaCanto, 2001 y Banga et al., 2005). De las distintas alternativas, en este trabajo se
ha elegido la parametrizacion de control (CVP) ya que permite el dise
no de varios
experimentos simultaneos con varias entradas para el caso general de modelos de
dimension elevada sin resolver NLO excesivamente grandes (Banga et al, 2002).

6.3.

M
etodo de parametrizaci
on de control

El metodo de parametrizacion de control (CVP) consiste en la discretizacion de


las variables de control u utilizando un conjunto finito de parametros w de modo
que los controles pueden expresarse como:

6.3. Metodo de parametrizacion de control

u(t) = (t, w)

49

(6.8)

De este modo el problema original de dimension infinita se transforma en un


problema de optimizacion no lineal (NLO) de dimension finita con restricciones
diferenciales-algebraicas.
En Vassiliadis (1993), la duracion de los experimentos se divide en un n
umero
de elementos y se aproximan las variables de control empleando polinomios de
orden bajo. Las aproximaciones lineales (rampas) o constantes (escalones) son las
mas convenientes ya que permiten la incorporacion simple de la mayora de las
actuaciones sobre los sistemas que se observan en la practica real.
Finalmente se debe resolver un problema de optimizacion no lineal (NLO) siendo
las variables de decision:
los coeficientes de los polinomios
la duracion de los experimentos
los tiempos de muestreo
las condiciones iniciales
La funcion objetivo sera una funcion escalar de la matriz de informacion de Fisher para cuya evaluacion se requiere la simulacion de la dinamica del sistema y el
calculo de sensibilidades parametricas. Por los motivos expuestos en el captulo 3,
se utilizara el codigo ODESSA (Leis y Kramer, 1985) para la resolucion del sistema de ecuaciones diferenciales que describe la dinamica del sistema y la obtencion
simultanea de las sensibilidades parametricas.
El problema as formulado puede resolverse, de forma analoga al problema de
estimacion de parametros formulado en la seccion 2.2, mediante metodos de valor
inicial o metodos multiple shooting. Los metodos mas populares para la resolucion de
este NLO son metodos de valor inicial consistentes en la resolucion del problema de
valor inicial (IVP) para cada evaluacion de la funcion. La mayora de estos metodos
son tecnicas de optimizacion local basadas en el gradiente, habitualmente variantes
del metodo de programacion cuadratica secuencial (Sequential Quadratic Problem,
SQP). Sin embargo, debido al caracter no lineal de la mayora de los bioprocesos,
el uso del metodo CVP da lugar con frecuencia a NLOs no convexos por lo que los
metodos de optimizacion local no convergeran o lo haran a optimos locales. Con
el fin de solventar estas dificultades, en el presente trabajo se propone el uso de
metodos de optimizacion global que se explican con detalle en el captulo 7.

Captulo 7
M
etodos de optimizaci
on
Optimizar es encontrar, de forma eficiente, la mejor solucion del conjunto de
todas las posibles. Tanto en el caso de estimacion de parametros como en el de
dise
no optimo de experimentos, lo que se pretende es encontrar el valor de un vector
de variables de decision que proporciona el mnimo valor posible de una funcion
objetivo J. En el caso de la estimacion de parametros, las variables de decision
son los parametros del modelo que se debe calibrar. Para resolver ambos problemas
se empleara un esquema de un problema de optimizacion no lineal que requiere
la resolucion de un problema de valor inicial para cada evaluacion de la funcion
objetivo. Como se explica en la seccion 2.2.1, los metodos de optimizacion numerica
generan nuevos valores para las variables de decision en cada iteracion de modo que
estos disminuyan el valor de la funcion objetivo. La generacion de nuevos valores se
realiza habitualmente de acuerdo con:
pi+1 = pi + di

(7.1)

donde di es una direccion de b


usqueda basada en informacion acerca de la funcion
objetivo J(p) adquirida en iteraciones previas y es una constante positiva determinada de modo que se obtenga una disminucion apropiada del valor de J(p). El
modo en que se calcula di va a determinar el tipo de metodo de optimizacion. En
una primera clasificacion, los metodos de optimizacion pueden dividirse en metodos
deterministas, estocasticos e hbridos.
Los metodos deterministas calculan las direcciones de b
usqueda de manera sistematica mediante la toma de decisiones deterministas. En muchos casos requieren
el calculo del gradiente y del Hessiano de la funcion objetivo y suelen buscar la verificacion de las condiciones de optimalidad. Dentro de este tipo se puede distinguir
entre metodos locales y metodos globales. Los metodos locales buscan un vector p

tal que J(
p) < J(p) para todos los valores de p cercanos a p
. En el caso de los meto51

52

Captulo 7. Metodos de optimizacion

dos globales lo que se pretende es encontrar el valor de p


tal que J(
p) < J(p) para
todos los posibles valores de p. Notese que, en el caso de los problemas convexos, el
optimo local coincide con el global.
Por otra parte, los metodos estocasticos calculan las direcciones de b
usqueda
empleando secuencias pseudo-aleatorias con un importante componente heurstico y
valores previos de la funcion objetivo, sin hacer uso de informacion sobre la estructura del problema. En general, son de caracter global aunque debido a su naturaleza
aleatoria no se puede garantizar la convergencia al optimo global con total certeza. Sin embargo, muchos de estos metodos disponen de pruebas de convergencia
asintoticas y a menudo son estrategias muy eficientes localizando las proximidades
del optimo global.
A su vez, la mayor parte de los metodos hbridos combinan estrategias estocasticas y deterministas para superar las limitaciones inherentes a cada una de ellas
mientras que potencian sus puntos fuertes. No obstante, un metodo hbrido es todo
aquel que resulta de la combinacion de dos o mas algoritmos por lo que tambien
se pueden encontrar estrategias que combinan varios metodos estocasticos o varios
metodos deterministas. La clave para la obtencion de metodos hbridos robustos y
eficaces radica en la eleccion de los metodos a combinar y en el modo de estructurar
dicha combinacion.

Figura 7.1: Metodos locales

Figura 7.2: Metodos globales

Este trabajo se centra en la estimacion de parametros y el dise


no optimo de
experimentos (OED) de modelos dinamicos no lineales que, como se ha explicado
anteriormente, pueden formularse como problemas de optimizacion no lineal (NLOs).
Debido a la acusada no linealidad de los modelos considerados, los problemas de calibracion y de OED resultantes seran multimodales por lo que los metodos locales
quedaran atrapados en soluciones locales. Para solventar esta limitacion se requiere

7.1. Metodos locales

53

el uso de estrategias de optimizacion que proporcionen mas garantas de convergencia a la solucion global. Las Figuras 7.1 y 7.2 representan el comportamiento de
los metodos de optimizacion local y global respectivamente para la resolucion de
problemas no convexos.
En las siguientes secciones se hara una revision de los metodos de optimizacion mas utilizados en la actualidad, tanto locales como globales y se justificara la
eleccion de algoritmos estocasticos e hbridos para la resolucion de los problemas
considerados.

7.1.

M
etodos locales

Como ya se ha mencionado, la mayora de los metodos locales son deterministas


y por lo tanto calculan la direccion de b
usqueda de manera sistematica. La diferencia
entre unos metodos y otros estriba, fundamentalmente, en el tipo de problemas que
pueden resolver y en el modo de generar las direcciones de b
usqueda. A continuacion
se presenta una breve revision de los principales metodos para tratar problemas de
optimizacion multidimensionales (Edgar y Himmelblau, 1988; Reklaitis et al., 1983).

7.1.1.

M
etodos para problemas sin restricciones

En funcion de la informacion que necesiten, estas estrategias pueden clasificarse


en dos grandes grupos:
M
etodos de b
usqueda directa: solamente requieren valores de la funcion
objetivo, y no de las derivadas parciales de la misma, para encontrar el optimo.
Tambien se conocen como metodos de orden cero ya que utilizan las derivadas
de orden cero de la funcion. De entre estos metodos se debe destacar los metodos de b
usqueda por patrones como el metodo de Hooke y Jeeves (1961), el
metodo de Powell (1964), el metodo de Rosenbrock (1960), el metodo simplex
(Dantzig, 1963) y el metodo de Nelder y Mead (1965), que es una modificacion
del simplex. Estos metodos son los mas adecuados para problemas simples con
un n
umero de variables relativamente peque
no pero generalmente son menos
eficientes y requieren mayor n
umero de evaluaciones de la funcion objetivo que
los metodos de b
usqueda indirecta.
M
etodos de b
usqueda indirecta: requieren conocer, ademas de los valores
de la funcion objetivo, el gradiente y en algunos casos tambien el Hessiano de
la misma. De entre los metodos basados en gradiente, aquellos que requieren
solamente las primeras derivadas de la funcion objetivo se llaman metodos de

54

Captulo 7. Metodos de optimizacion

primer orden y aquellos que requieren las derivadas de primer y segundo orden
se llaman metodos de segundo orden. El primer metodo de este grupo, propuesto por Cauchy en el siglo XIX, es el metodo del gradiente clasico que utiliza
el negativo del gradiente como direccion de b
usqueda para la minimizacion.
En este metodo la direccion de b
usqueda puede interpretarse como ortogonal a una aproximacion lineal tangente a la funcion objetivo en ese punto. Los
metodos de segundo orden tienen tambien en cuenta la curvatura de la funcion
para lo que debera considerarse la matriz Hessiana de la misma. Entre estos
metodos destacan el metodo de Newton y los populares metodos quasi-Newton
que tratan de aproximar la direccion de Newton asintoticamente.
Estas tecnicas han sido originalmente desarrolladas para resolver problemas sin
restricciones pero se adaptan facilmente a la resolucion de problemas con restricciones mediante el uso de funciones de penalizacion (Balsa-Canto, 2001).

7.1.2.

M
etodos para problemas con restricciones

Ademas de las tecnicas de resolucion de problemas de optimizacion no lineales


con restricciones (NLOs) mediante su transformacion en problemas sin restricciones
por medio de funciones de penalizacion, existen metodos especialmente dise
nados
para este tipo de problemas que hacen uso de las condiciones de optimalidad de
Karush-Kuhn-Tucker, KKT (ver, por ejemplo, Bazaara et al., 1993). Entre estos
metodos destacan el metodo clasico basado en multiplicadores de Lagrange, los
metodos de linealizacion iterativa y los metodos de programacion cuadratica secuencial que hacen uso de los valores de la funcion objetivo y de su gradiente. Ademas,
el metodo complex, que es una modificacion del metodo simplex, permite resolver
problemas con restricciones sin hacer uso de las derivadas de la funcion.
De entre los metodos de linealizacion iterativa, que consisten en linealizar el problema y aplicar tecnicas de optimizacion lineal de un modo secuencial, destaca el
metodo del gradiente reducido generalizado (Generalized Reduced Gradient, GRG)
(Abadie y Carpentier, 1969). Este metodo utiliza el llamado gradiente reducido generalizado para el calculo de la direccion de b
usqueda que consiste en una combinacion
del gradiente de la funcion objetivo y el jacobiano de las restricciones.
El metodo GRG requiere un tiempo de computacion muy elevado, lo que hace
que los metodos de programacion cuadratica sucesiva (Sequential Quadratic Programming, SQP) (Fletcher, 1982; Gill et al., 1981) sean los mas utilizados, junto con
los metodos de penalizacion, para resolver problemas de optimizacion no lineal con
restricciones (NLOs). Los metodos SQP aproximan localmente la funcion objetivo
por una funcion cuadratica y las restricciones por funciones lineales de modo que

7.1. Metodos locales

55

el problema original se convierte en una sucesion de problemas cuadraticos con restricciones lineales. Estos metodos se basan en la aplicacion del metodo de Newton
a las condiciones necesarias de optimalidad Karush-Kunh-Tucker y resuelven una
secuencia de problemas cuadraticos, en los que en cada iteracion se requiere la resolucion de un sistema de ecuaciones generalmente grande. Aunque estos metodos han
demostrado una gran eficiencia para la resolucion de problemas con funcion objetivo
y restricciones suaves, esto puede resultar muy costoso por lo que se han dedicado
muchos esfuerzos al desarrollo de estrategias eficientes.

7.1.3.

M
etodos locales empleados

Con objeto de ilustrar las ventajas de los metodos de optimizacion global y como segunda etapa de los metodos hbridos, en este trabajo tambien se han utilizado
metodos locales estandar. En ocasiones se han empleado en un esquema multiarranque (multi-start), generando soluciones aleatorias entre los lmites de los parametros
y comenzando el algoritmo local en esos puntos. Los metodos considerados son los
siguientes:
clsSolve: este algoritmo forma parte del entorno de optimizacion Tomlab (Holmstrom, 2004) y resuelve problemas de estimacion de parametros no lineales,
dispersos o densos, manejando explcitamente igualdades y desigualdades lineales y lmites simples en las variables.
fmincon: metodo local basado en gradiente implementado como parte de la librera
R
de optimizacion de Matlab (Maltab Optimization Toolbox
, The MathWorks
Inc.). Este metodo encuentra el mnimo local de una funcion multivariable con
restricciones por medio de un algoritmo de programacion cuadratica secuencial,
SQP. El metodo utiliza gradientes numericos o analticos si estan disponibles.
n2fb/dn2fb: este algoritmo fue especialmente dise
nado para problemas de estimacion de parametros por Denis et al., (1981). Esta basado en la combinacion
de un algoritmo Gauss-Newton y uno quasi-Newton y soporta lmites superiores e inferiores para las variables de manera independiente. Una parte del
Hessiano se calcula directamente y otra se aproxima mediante un metodo de
actualizacion quasi-Newton. En ciertas situaciones el algoritmo se reduce a un
algoritmo Gauss-Newton o Levenberg-Marquardt. El metodo es estabilizado
mediante una tecnica de regiones de confianza junto con una eleccion adaptativa del modelo del Hessiano para alcanzar la convergencia. El algoritmo dn2fb
es la version en doble precision de n2fb.

56

Captulo 7. Metodos de optimizacion

NOMADm: metodo directo de proposito general implementado en Matlab y dise


nado
por Abramson (2002) para la optimizacion de problemas no lineales con variables continuas, discretas y/o categoricas (Nonlinear Optimization for Mixed
variables And Derivatives-Matlab, NOMADm). Emplea varios algoritmos de
b
usqueda por patrones generalizados (Generalized Pattern Search, GPS), y no
requiere informacion sobre las derivadas. Resulta especialmente adecuado para
problemas de calibracion con datos con mucho ruido para los que los metodos
basados en gradiente no dan buenos resultados.
npsol: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
1998), se considera como el estado actual para la resolucion de problemas de
optimizacion no lineal densos.
snopt: desarrollado por Stanford Systems Optimization Laboratory (ver Gill et al.,
2002), se considera el metodo mas puntero para la resolucion de problemas
grandes y dispersos de optimizacion no lineal.
solnp: metodo SQP implementado por Ye (1987) para problemas de optimizacion
no lineal densos con restricciones.

7.2.

M
etodos globales

La optimizacion global (GO) de sistemas dinamicos no lineales ha recibido una


atencion creciente en los u
ltimos a
nos por parte de ingenieros, matematicos e informaticos. Favorecido por el aumento de las capacidades computacionales a lo largo
de las u
ltimas decadas, este campo ha crecido a un ritmo muy rapido y con el el
n
umero de algoritmos propuestos para resolver problemas que antes resultaban intratables. En Horst y Pardalos (1995), Pinter (1996) y mas recientemente en Moles
(2003) puede encontrarse una revision de los metodos deterministas y estocasticos
disponibles en la actualidad.

7.2.1.

M
etodos deterministas

Los metodos de optimizacion global deterministas pueden garantizar la optimalidad global bajo unas condiciones determinadas y para ciertos problemas. Sin
embargo, ninguno de estos algoritmos puede garantizar la resolucion de problemas
generales NLOs con certeza en un tiempo finito (Guus et al., 1995). De hecho, el
esfuerzo computacional asociado crece muy rapido (a menudo exponencialmente)
con el tama
no del problema.

7.2. Metodos globales

57

Recientemente han aparecido varias tecnicas avanzadas de ramificacion y poda


(branch and bound) para la resolucion de problemas de optimizacion dinamica y la
estimacion de parametros de sistemas dinamicos no lineales (Esposito y Floudas,

2000; Papamichail y Adjiman, 2002). Esta


parece una lnea de investigacion prometedora pero la funcion objetivo y la dinamica del sistema deben ser doblemente
diferenciables y continuas y las restricciones de camino que pueden manejar son
limitadas. Ademas, estos metodos no escalan bien con el tama
no del problema y
no resultan aplicables para problemas de estimacion con un n
umero relativamente
grande de parametros como los considerados en este trabajo. Por otra parte, los
problemas de dise
no optimo no garantizan el cumplimiento de las condiciones necesarias para la aplicacion de estos metodos ya que la funcion objetivo depende no
solo de los estados sino tambien de las sensibilidades parametricas.
Una revision extensa de estos metodos esta fuera de los objetivos de este trabajo
y puede encontrarse en Pinter (1996) y Floudas (2000).

7.2.2.

M
etodos estoc
asticos

Con respecto a los metodos estocasticos, muchos investigadores han demostrado


que estos pueden localizar la vecindad de la solucion global para problemas NLOs
con bastante eficicencia (Banga et al., 1991; Luus, 1993; Banga et al., 1997; Ali
et al., 1997; Wang y Chiou, 1997; Moles et al., 2003b; Banga et al., 2003). No
obstante, los metodos estocasticos son metodos basados en algoritmos probabilsticos
y, por lo tanto, se debe sacrificar la posibilidad de una garanta absoluta de exito.
En su lugar, algunos metodos disponen de pruebas de convergencia asintoticas que
garantizan que, a medida que aumenta el esfuerzo computacional, la probabilidad de
encontrar el optimo global se acerca a la unidad (Guus et al., 1995). Sin embargo, en
muchas situaciones practicas estos metodos resultan satisfactorios y proporcionan
una solucion suficientemente buena que a menudo es la mejor disponible, en un
tiempo computacional reducido. Ademas, los metodos estocasticos resultan faciles
de implementar y de usar, y no requieren la transformacion del problema original
que puede ser tratado como una caja negra.
Debido al gran interes por el estudio de tecnicas que permitan resolver problemas de gran complejidad que no pueden ser resueltos por los metodos tradicionales,
el n
umero de algoritmos estocasticos ha experimentado un crecimiento muy rapido
(ver revision por Osman y Laporte (1996) con mas de 1300 referencias). Resulta
difcil hacer una clasificacion exhaustiva de todos los metodos existentes por lo que
a continuacion se presentara una clasificacion de los tipos de metodos mas significativos:

58

Captulo 7. Metodos de optimizacion

M
etodos de b
usqueda aleatoria y m
etodos estoc
asticos adaptativos:
tienen sus orgenes en investigaciones realizadas a lo largo de los a
nos cincuenta y sesenta (Brooks, 1958; Matyas, 1965; Rastrigin y Rubinstein, 1969).
Basandose en estas investigaciones, en la u
ltima decada se han desarrollado
metodos mas refinados y eficientes (p. ej. Zabinsky y Smith, 1992; Banga y
Seider, 1996; Torn et al., 1999).
M
etodos de agrupamiento: (clustering) derivan de los conceptos basicos de
los metodos multi-start, es decir, metodos locales que comienzan en distintos
puntos iniciales. Los metodos de agrupamiento son mas eficientes y robustos
que los multi-start ya que tratan de identificar la vecindad de los optimo locales,
e incrementan su eficiencia evitando la determinacion repetida de las mismas
soluciones locales (Torn, 1973; Rinnooy-Kan y Timmer, 1987).
Computaci
on evolutiva: la mayora de estos algoritmos fueron creados siguiendo ideas de la evolucion biologica pero en la practica pueden ser considerados como metodos adaptativos estocasticos basados en poblaciones. Al
menos tres clases fueron desarrolladas independientemente a finales de los a
nos
sesenta y principios de los setenta: algoritmos geneticos (Genetic Algorithms,
GAs) (Holland, 1975; Goldberg, 1989), programacion evolutiva (Evolutionary
Programming, EP) (Fogel et al., 1966) y estrategias evolutivas (Evolution Strategies, ES) (Schwefel, 1995; Beyer, 1996; Beyer y Schwefel, 2002).
Templado simulado: (Simulated Annealing, SA) este metodo y sus variantes
fueron desarrollados originariamente para problemas combinatorios. Su base
esta en la simulacion de un cierto fenomeno natural que tiene lugar a nivel
atomico, relativo al enfriamiento de metales (Kirkpatrick et al., 1983; Laarhoven y Aarts, 1987).
Otros m
etodos inspirados en la biologa y metaheursticas: en los u
ltimos a
nos se han presentado un gran n
umero de las denominadas metaheursticas, la mayor parte de ellas basadas en fenomenos biologicos o fsicos, desarrolladas en primera instancia para problemas combinatorios. Algunos ejemplos
son el metodo de la colonia de hormigas (Ant Colony Optimization, ACO) (Dorigo et al., 1996; Bonabeau et al., 2000), el metodo del enjambre de partculas
(Particle Swarm Method) (Bonabeau et al., 1999) y el metodo de b
usqueda
tab
u (Tabu Search, TS) desarrollado por Glover y Laguna (1997) basandose
en conceptos del campo de la Inteligencia Artificial. En este grupo se debe
tambien destacar el metodo de b
usqueda dispersa (Scatter Search, SS) introducido por Glover (1977) como una heurstica para programacion entera. A

7.2. Metodos globales

59

partir de la publicacion de Glover (1998), SS ha empezado a ser utilizado por


numerosos investigadores para la resolucion de NLOs complejos obteniendo
resultados de gran calidad. Una revision de estas y otras tecnicas recientes
puede encontrarse en Corne et al. (1999) y Michalewicz y Fogel (2000) entre
otros.
En la actualidad, los tipos de metodos estocasticos mas populares son los algoritmos geneticos (GAs) y los de templado simulado (SA). Sin embargo, seg
un nuestra
propia experiencia y como muchos autores han se
nalado en los u
ltimos a
nos (Banga
et al., 2003; Moles et al., 2003b), los GAs y SA, dise
nados en primera instancia
para problemas combinatorios (con variables enteras), no son normalmente los algoritmos mas eficientes y robustos para la optimizacion global en variables reales.
La eleccion de un metodo para un cierto tipo de problemas de GO es complicada
y la bibliografa al respecto esta muy fragmentada, por lo que en muchos casos la
eleccion esta basada mas en la predileccion del autor por un tipo de tecnicas que en
criterios racionales (Preux y Talbi, 1999). Aunque este contin
ua siendo un tema de
gran debate, sin embargo, Wolpert y MacReady (1997) han demostrado a traves del
teorema no hay comida gratis (No Free Lunch, NFL) que no existe ning
un metodo que pueda ser considerado mejor que los demas para la resolucion de problemas
generales de optimizacion global de estructura desconocida.
No obstante, para el caso de optimizacion global de NLOs y para el caso particular de estimacion de parametros, diferentes trabajos recientes (Balsa-Canto et
al., 1998; Moles et al., 2003a; Moles et al., 2003b) indican que ciertos metodos
estocasticos simples, en concreto el metodo Evolucion Diferencial (Differential Evolution, DE) (Storn y Price, 1997) y ciertas estrategias evolutivas como la Estrategia
Evolutiva con Ranking Estocastico (Stochastic Ranking Evolution Strategy, SRES)
desarrollada por Runarsson y Yao (2000, 2005) presentan un comportamiento mejor
en terminos de eficiencia y robustez. Ademas estas estrategias escalan bien con el
tama
no del problema y permiten ser paralelizados muy facilmente, lo que significa que los problemas de mediana o gran escala podran ser resueltos en un tiempo
computacional razonable.
Por estos motivos, estos dos seran los metodos estocasticos considerados en el
presente estudio y serviran tambien de base para la creacion de metodos hbridos
que mejoren su eficiencia manteniendo su robustez:
DE: (Differential Evolution) es un algoritmo heurstico robusto para la optimizacion global de funciones no lineales continuas y posiblemente no diferenciables
desarrollado por Storn y Price (1997). Esta basado en poblaciones y maneja variables estocasticas por medio de un metodo de b
usqueda directa. Este

60

Captulo 7. Metodos de optimizacion

metodo es muy utilizado por la comunidad de computacion evolutiva y se ha


demostrado que supera a otros algoritmos populares de optimizacion global
como los de templado simulado (SA) o algoritmos geneticos (GAs).
SRES: (Stochastic Ranking Evolution Strategy) desarrollado por Runarsson y Yao
(2000, 2005), consiste en una estrategia evolutiva combinada con una aproximacion denominada clasificacion estocastica (Stochastic Ranking) para equilibrar de modo estocastico la funcion objetivo y las funciones de penalizacion.
En este algoritmo tipo (, )-ES, la funcion objetivo y las funciones de penalizacion para cada individuo se emplean para clasificar los individuos de una
poblacion, y los individuos mejor clasificados ( de ) son seleccionados para la siguiente generacion. Este hecho lo hace especialmente atractivo para la
resolucion de problemas con restricciones.

7.2.3.

M
etodos hbridos

La idea clave de los metodos hbridos esta en el concepto de sinergia, esto es,
union de varios elementos cuyo resultado aprovecha y maximiza las cualidades de
cada uno de ellos. Las metodologas hbridas han recibido un interes creciente en
los u
ltimos a
nos y se han propuesto una gran variedad de aproximaciones (ver Talbi
(2002) con referencias a casi 100 algoritmos hbridos diferentes). Las combinaciones
de algoritmos como templado simulado (SA), algoritmos evolutivos y otras metaheursticas han proporcionado metodos de b
usqueda eficientes y robustos dando
lugar a que los mejores resultados para muchas aplicaciones practicas fueran obtenidos mediante hbridos. Sin embargo, la hibridacion de algoritmos es una tarea
delicada en donde la eleccion de los metodos a combinar y el modo de estructurar
dicha combinacion juegan un papel clave.
Una primera clasificacion de los metodos hbridos puede hacerse seg
un el tipo de
hibridacion, secuencial o paralela (Preux y Talbi, 1999):
Hibridaci
on secuencial
La hibridacion secuencial es aquella en la que dos o mas algoritmos son aplicados
uno despues de otro, utilizando cada uno de ellos el resultado del anterior como
punto inicial. Numerosos autores han utilizado la idea de hibridacion secuencial
dando lugar a muchos esquemas diferentes: varios metodos estocasticos combinados
entre si, un algoritmo voraz para generar una buena poblacion para un algoritmo
evolutivo, un metodo estocastico con uno determinista local, etc.

7.2. Metodos globales

61

Una caracterstica com


un de la mayora de los metodos estocasticos de optimizacion es que presentan una velocidad de convergencia relativamente lenta, especialmente en la u
ltima etapa de la b
usqueda. Esto puede ocasionar tiempos de calculo
excesivos, especialmente si se requiere una gran precision en la solucion. Por el contrario, los metodos locales deterministas (como aquellos basados en el gradiente)
convergen muy rapido si se inicializan adecuadamente, es decir, dentro del radio de
atraccion de la solucion global. Por este motivo, los metodos que combinan de forma
secuencial un algoritmo estocastico en la primera fase y un algoritmo local basado en
gradiente en la segunda son bastante frecuentes y han demostrado ser muy eficientes
(Banga y Seider, 1996; Banga et al., 2005; Rodriguez-Fernandez et al., 2006).
El problema fundamental de la hibridacion secuencial radica en decidir cuando
parar un algoritmo e iniciar el siguiente. Una posibilidad consiste en esperar a que
la b
usqueda se estabilice, pero podra existir un punto anterior a la estabilizacion
desde el cual el siguiente algoritmo ya se encontrara en la zona de atraccion de la
solucion global, por lo que comenzar en ese punto sera mas eficiente. Por otra parte,
una inicializacion demasiado temprana puede hacer que, si el segundo algoritmo es
de naturaleza local, este quede atrapado en la zona de convergencia de una solucion local. Por lo tanto, una estrategia adecuada para elegir este punto de cambio
sera imprescindible para el buen funcionamiento del metodo hbrido secuencial.
Hibridaci
on paralela
Dependiendo del tama
no del problema a tratar, sera conveniente considerar implementaciones paralelas de los metodos a utilizar. Sin embargo, se debe distinguir
entre la mera paralelizacion de un algoritmo secuencial y una implementacion de
un algoritmo paralelo. Una implementacion en paralelo de un algoritmo trata de
mantener la esencia de la b
usqueda secuencial mientras que los algoritmos hbridos
paralelos son una sub-clase de algoritmos estocasticos que se comportan de modo
diferente a los secuenciales. Dentro de estos metodos se debe distinguir entre la
hibridacion paralela sincronica y asincronica.
La idea fundamental de la hibridacion paralela sincronica es la utilizacion de un
algoritmo como un operador de otro. Un ejemplo de este tipo de hibridacion sera
emplear un algoritmo evolutivo como estrategia de b
usqueda principal en donde, los
tradicionales operadores matematicos utilizados en las etapas de recombinacion y/o
mutacion, son sustituidos por otro algoritmo que puede ser desde un metodo local
tradicional hasta un metodo tab
u o incluso un algoritmo de templado simulado SA.
Este tipo de hibridacion se denomina hibridacion paralela sincronica porque en ella
los diferentes algoritmos estan sincronizados con precision.

62

Captulo 7. Metodos de optimizacion

Basicamente, el esquema de la hibridacion paralela asincronica implica varios


algoritmos realizando una b
usqueda en un determinado espacio o sub-espacio, y
cooperando para encontrar el optimo intercambiando informacion. Los algoritmos
que cooperan pueden ser todos identicos dando lugar a metodos homogeneos, o
diferentes, en cuyo caso el metodo resultante se denominara heterogeneo.

7.3.

Desarrollo de un m
etodo hbrido secuencial

En una contribucion reciente (Moles et al., 2003b), se consideraron varios metodos de optimizacion global, tanto deterministas como estocasticos, para resolver un
problema de estimacion de parametros relativamente complejo, asociado a una ruta
bioqumica. Solo un cierto tipo de algoritmos estocasticos, las estrategias evolutivas
(ES), fue capaz de resolverlo satisfactoriamente. El mejor resultado fue obtenido con
el metodo SRES, aunque con un elevado tiempo de calculo.
Los algoritmos evolutivos simulan mas o menos un proceso natural. Una propiedad basica de estos procesos evolutivos es que la poblacion que act
ua en ellos se
vuelve cada vez mas uniforme, por lo que, empezando con una poblacion aleatoria,
todos sus individuos se vuelven muy parecidos despues de un cierto periodo de tiempo. La uniformizacion de los genotipos esta relacionada con la estabilizacion de la
aptitud media de la poblacion. Si se observa la evolucion a lo largo del tiempo de
la aptitud media de la poblacion de los algoritmos evolutivos, se ve claramente que
esta tiende a converger y que la estabilizacion es bastante rapida. De este modo, estos metodos seran relativamente rapidos en encontrar la vecindad del optimo global
pero se haran especialmente lentos en la u
ltima fase de la b
usqueda si se requiere
una solucion refinada.
Por otra parte, se ha demostrado que ciertos metodos locales deterministas, como
los presentados en la seccion 7.1.3, convergen muy rapido si son inicializados desde
un punto que se encuentre dentro de la zona de atraccion de la solucion global.
En el presente estudio se ha utilizado el metodo hbrido secuencial en dos fases
presentado en Rodriguez-Fernandez et al. (2006) para problemas de estimacion de
parametros. En la primera fase de este metodo hbrido se utiliza un metodo global
estocastico, SRES. El metodo estocastico se interrumpe cuando se satisface un criterio de parada relativamente amplio. A pesar de que este criterio no asegura una
solucion final apropiada, se elige lo suficientemente ajustado para asegurar que se
ha encontrado un punto en la vecindad de la solucion global. La segunda fase se
inicializa desde este punto y se lleva a cabo por tecnicas rapidas de estimacion de
parametros basadas en el gradiente. En este trabajo, se ha utilizado el metodo n2fb

7.3. Desarrollo de un metodo hbrido secuencial

63

(Denis et al., 1981) con muy buenos resultados.

7.3.1.

Ajuste del m
etodo hbrido secuencial

Una vez que el metodo global y el local han sido seleccionados, se debe tratar la
cuestion de como estructurar su combinacion. Aqu se ha elegido una aproximacion
hbrida secuencial de dos fases por lo que el asunto clave sera decidir la cantidad
de b
usqueda a realizar por cada metodo, es decir, el ajuste del hbrido. En nuestra propuesta, el usuario debe especificar previamente el criterio de parada para el
metodo estocastico y para el determinista local, SC1 y SC2 . El valor asignado a SC1
establece el punto de cambio entre la b
usqueda global y la local, y en cierto modo
controla la robustez del hbrido, es decir, la probabilidad de convergencia a la vecindad de la solucion global. Por lo tanto, este debe elegirse de modo que se asegure
que el metodo estocastico va a llegar a un punto dentro del radio de convergencia
del metodo determinista al optimo global. Por otra parte, el valor elegido para SC2
sera crucial a la hora de minimizar el tiempo de computacion final asegurando a su
vez una solucion muy cercana a la verdaderamente global. De este modo, uno debe
encontrar el mejor ajuste, es decir, un compromiso entre robustez y eficiencia.
Debe destacarse, que la eleccion de unos criterios SC1 y SC2 adecuados es dependiente del problema, por lo que, en general, el ajuste del metodo hbrido debe
realizarse para cada clase especfica de problemas. En otras palabras, y como ocurre
con todos los metodos estocasticos en general, no hay ning
un procedimiento analtico a priori para derivar, en base a las caractersticas estructurales del problema,
rangos aconsejables para los criterios de parada. Esta dependencia es especialmente
relevante en problemas con restricciones dinamicas no lineales como los considerados
en el presente trabajo. Sin embargo, esta ampliamente aceptado que los metodos estocasticos, o sus hbridos, pueden ser ajustados en base a resultados empricos para
clases especficas. De hecho, esta aproximacion ha dado lugar a los mejores metodos
que se conocen para muchas clases de problemas (Michalewicz y Fogel, 2000).
Basandose en la experiencia, se ha ideado una heurstica simple para ajustar el
punto de cambio (eleccion de SC1 ) del metodo hbrido. Comenzando con las curvas
de convergencia (historiales de la funcion objetivo y de los vectores de decision frente al tiempo de CPU) obtenidos con algunas optimizaciones del metodo estocastico
puro, se selecciona un n
umero de posibles puntos de cambio, en la mayora de los
casos igualmente distribuidos en la escala lineal de tiempos de CPU. El metodo de
optimizacion local se inicia desde estos puntos, y se registran las curvas de convergencia. En general, se va a obtener un cierto n
umero de puntos de cambio que
convergen a soluciones locales (normalmente los que corresponden a tiempos mas

64

Captulo 7. Metodos de optimizacion

tempranos), y un conjunto de puntos que convergen a la mejor solucion conocida


(o su vecindad proxima, dependiendo del valor de SC2 elegido), que sera considerada como la global. En general, no se tendra ning
un conocimiento a priori sobre la
solucion global, por lo que esta u
ltima suposicion es la tpica de cualquier esquema
que incorpore metodos estocasticos. Por supuesto, en el caso de problemas sinteticos (como algunos de los considerados aqu), se esta en mejor posicion de evaluar la
eficacia del hbrido, por que la solucion global es conocida.
De estos datos se encontrara una region de valores admisibles para SC1 que representan un compromiso entre robustez y eficiencia, en otras palabras, estos valores
aseguran la convergencia final a la vecindad proxima de la mejor solucion (robustez)
manteniendo el tiempo computacional total (global mas local) en valores razonables
(eficiencia). Ademas, es importante destacar que este proceso de ajuste preliminar
no incrementa significativamente el esfuerzo computacional total comparado con el
uso del metodo estocastico puro, ya que: (i) el metodo estocastico se para prematuramente y (ii) las curvas de convergencia de un metodo estocastico pueden ser
reutilizadas.
En es este punto debe recordarse que los metodos estocasticos (ver revision en
Moles et al., 2003b) pueden normalmente proporcionar muy buenas soluciones (cerca de las globales), pero no proporcionan garantas totales (o solo de modo probabilstico debil). Por lo tanto, cualquier aproximacion hbrida que este basada en
una primera fase de b
usqueda global estocastica sufrira la misma limitacion basica,
incluso si el metodo de cambio es muy sofisticado (lo que, en cualquier caso, solo
puede ser considerado como una heurstica mas refinada).

7.4.

M
etodo hbrido paralelo sincr
onico

Con objeto de incrementar a


un mas la robustez y la eficiencia computacional,
en nuestro grupo se ha implementado una nueva metaheurstica basada en Scatter
Search (SS), conocido en castellano como b
usqueda dispersa (Egea et. al, 2006).
Con esta metaheurstica combinada con varios metodos locales, se consigue una
aceleracion de mas de un orden de magnitud con respecto a los resultados previos.
Ademas este metodo elimina la delicada tarea de decidir donde colocar el punto de
cambio entre el metodo global y el local.
En una reciente revision en la que se comparan un buen n
umero de metodos de
optimizacion global en un conjunto de 1000 problemas de optimizacion global con
restricciones (Neumaier et al, 2005), el metodo llamado OQNLP (basado en Scatter
Search) resulto ser el mejor de todos los estocasticos. Ademas, OQNLP resolvio el

7.4. Metodo hbrido paralelo sincronico

65

mayor porcentaje de problemas con un alto n


umero de variables de decision. Esta
es la justificacion para elegir e implementar un algoritmo hbrido basado en Scatter
Search para resolver nuestros problemas de optimizacion global.
Cuando la b
usqueda local esta activada, Scatter Search puede definirse como un
metodo hbrido paralelo sincronico ya que combina una b
usqueda global con una
intensificacion (es decir, b
usqueda local). El algoritmo utiliza distintas heursticas
para elegir eficientemente puntos iniciales para la b
usqueda local, basadas en filtros
de merito y de distancia as como un termino de memoria, lo que ayuda a superar
el problema del cambio de la b
usqueda global a la local.
Scatter Search es un metodo de poblaciones basado en formulaciones originalmente propuestas en los a
nos 60 para combinar reglas de decision y problemas con

restricciones, como el metodo de restricciones subrogadas. Este


fue introducido por
primera vez por Glover (1977) como una heurstica para programacion entera. Scatter Search orienta sus exploraciones sistematicamente en relacion a un conjunto de
puntos de referencia que normalmente esta compuesto por buenas soluciones obtenidas en anteriores esfuerzos por resolver el problema.
Es interesante observar las similitudes y las diferencias entre Scatter Search y las
propuestas originales de los algoritmos geneticos. Ambos son metodos basados en
poblaciones, o estrategias evolutivas. Ambos incorporan la idea de que un aspecto
clave para producir nuevos elementos es la generacion de alguna forma de combinacion de los elementos existentes. Sin embargo, los GAs se basan en la idea de elegir a
los padres aleatoriamente para producir descendencia, y ademas en introducir aleatoriedad para determinar que componentes de los padres deben ser combinados. A
diferencia de esto, Scatter Search no enfatiza la aleatoriedad, particularmente en el
sentido de ser indiferente a la eleccion entre alternativas. En lugar de esto, SS incorpora respuestas estrategicas tanto deterministas como probabilsticas, que tienen
en cuenta las evaluaciones y la historia. Debido al modo en que el proceso de generacion esta implementado, esta propuesta se centra en generar resultados relevantes
sin perder la habilidad de producir soluciones diversas.
En Laguna y Marti (2003) se da un esquema en cinco pasos para describir las
etapas basicas del algoritmo (ver Figura 7.3):
I. M
etodo de generaci
on de soluciones diversas: el algoritmo comienza
generando un conjunto inicial de soluciones diversas (alrededor de 100), del
que se extrae un subconjunto peque
no (alrededor de b = 10) que se denominara conjunto de referencia RefSet.
etodo de mejora: tpicamente se trata de un metodo de b
usqueda local
II. M

66

Captulo 7. Metodos de optimizacion

Generacin de Soluciones Diversas

Formacin del RefSet

Combinacin elementos RefSet

Llamada
mtodo
local?

Pasa
filtros?

NO

Regeneracin
RefSet

Actualizacin
RefSet

NO

Clculo
resultados
mtodo local

Elementos no
combinados?
NO

NO

Satisfaccin
criterio de
parada?
S

Resultados

Figura 7.3: Esquema de funcionamiento de Scatter Search

para mejorar las soluciones, tanto del conjunto de referencia como las combinadas antes de estudiar su inclusion en el conjunto de referencia.
III. M
etodo de actualizaci
on del conjunto de referencia: las soluciones del
conjunto de referencia RefSet estan ordenadas de mejor a peor con respecto
a su calidad, de modo que el acceso de otras partes del metodo sea eficiente.
Las soluciones entran a formar parte de este conjunto en funcion de criterios
de calidad y diversidad.
IV. M
etodo de generaci
on de subconjuntos: metodo para generar subconjuntos del RefSet a los que se aplicara el metodo de combinacion. Scatter Search
se basa en examinar de forma bastante exhaustiva todas las combinaciones del
RefSet y este metodo especifica la forma en que se seleccionan los subconjuntos
para aplicarles el metodo de combinacion.

7.4. Metodo hbrido paralelo sincronico

67

V. M
etodo de combinaci
on de soluciones: metodo de combinacion para
transformar un subconjunto dado de soluciones producidas por el Metodo de
generaci
on de subconjuntos en uno o mas vectores combinados.
Las diferencias entre las distintas implementaciones de Scatter Search se basan en
el nivel de sofisticacion con el que estan implementados los pasos, no en la presencia
o ausencia de otros pasos. En nuestra implementacion, llamada SSm (Scatter Search
para Matlab), se han a
nadido algunas caractersticas avanzadas:
El usuario puede elegir una distribucion logartmica para la generacion de soluciones iniciales con objeto de favorecer su presencia cerca de los lmites en
terminos de distancia eucldea, ya que en problemas de estimacion de parametros es bastante usual que el optimo global se encuentre cerca de los lmites
inferiores.
Se han a
nadido mecanismos para evitar zonas planas (tambien frecuentes en
problemas de estimacion de parametros) as como otros para no quedar atrapado en soluciones locales peque
nas.
Un nuevo metodo de combinacion permite explorar con mayor profundidad el
espacio de b
usqueda.
Cuando ya se han hecho todas las combinaciones entre las soluciones del RefSet, el algoritmo puede parar o continuar mediante la reconstruccion parcial
del conjunto de soluciones de elite. Se ha implementado una nueva estrategia
para reconstruir este conjunto, basada en direcciones de b
usqueda ortogonales.
El usuario puede elegir entre un amplio n
umero de metodos locales SQP como
fmincon (The MathWorks Inc.), solnp (Ye, 1987), npsol (Gill et al, 1998),
snopt (Gill et al, 2002), metodos directos como NOMADm (Abramson, 2002)
para casos con datos con mucho ruido, y otros especficamente dise
nados para
problemas de estimacion de parametros como n2fb/dn2fb de Dennis et al.
(1981).

Captulo 8
GOSBio: entorno para modelado e
identificaci
on
El desarrollo de modelos matematicos puede ser considerado como un ciclo y
debe comprender una serie de pasos. La omision de alguna de estas etapas puede dar lugar a modelos erroneos o de baja capacidad predictiva. Por este motivo,
en el presente estudio se ha acoplado el uso de metodos de optimizacion global
para la estimacion de parametros y el dise
no optimo de experimentos con otros
procedimientos computacionales para analizar la identificabilidad y otras medidas
asociadas. Todas estas tareas fueron implementadas en Matlab (The Mathworks
Inc.) creando pasarelas adecuadas para llamar a codigos Fortran externos cuando
resulto necesario. Estos codigos Fortran fueron implementados como libreras de enlace dinamicas (dynamic link libraries, .dll) dando lugar a un entorno integrado,
denominado GOSBio (Global Optimization for Systems Biology), capaz de llevar a
cabo la estimacion robusta de parametros, el analisis de identificabilidad y el dise
no optimo de experimentos dinamicos (Rodriguez-Fernandez y Balsa-Canto, 2006;
Balsa-Canto y Rodriguez-Fernandez, 2006).
Para utilizar estas herramientas, el usuario tiene que especificar el modelo y
otros datos (por ejemplo, los valores iniciales de los estados, los tiempos a los que
se efect
uan las medidas o las variables manipulables en el OED) en un fichero de
entrada.
GOSBio llevara a cabo entonces la estimacion de parametros y/o el dise
no optimo
de experimentos evaluando a su vez la identificabilidad y otras medidas del modo
que se detalla a continuacion.
Los resultados, ademas de presentarse por pantalla en tiempo real, se guardan
en un fichero de datos de salida y en una serie de ficheros graficos.
69

70

8.1.

Captulo 8. GOSBio: entorno para modelado e identificacion

Descripci
on de la metodologa

Las principales etapas del entorno GOSBio pueden esquematizarse del siguiente
modo (ver Figura 8.1):
Modificar modelo

Modelo
propuesto
Diseo
experimentos

Modelo
adecuado

Clculo
sensibilidades

Modelo no
adecuado

Rnking
parmetros
NO

NO

Anlisis identificabilidad
terica

Validacin del
modelo

NO
Clculo intervalos
de confianza

Obtencin datos
experimentales

S
Anlisis identificabilidad
prctica

Estimacin
parmetros
Cmputo
FIM

Figura 8.1: Esquema de GOSBio

Paso 1: Calculo de las sensibilidades parametricas (derivadas parciales de los estados con respecto a los parametros) para un valor dado del conjunto de parametros. En el caso de problemas sinteticos (aquellos en los que los datos son
pseudo-experimentales calculados mediante simulacion) las sensibilidades se
calcularan para los valores nominales. Sin embargo, en el caso de datos reales,
cuando este paso se realiza previo a cualquier estimacion de parametros, se
emplearan los valores de los parametros disponibles en la bibliografa u otras
fuentes. De no disponer de ninguna informacion previa sobre el valor de los
parametros, se considerara el punto medio entre los lmites definidos para la
estimacion.
Paso 2: Computo de las sensibilidades relativas a partir de las sensibilidades absolutas obtenidas en el paso anterior y del valor de los estados obtenido mediante
simulacion. Empleando las sensibilidades relativas se procede al calculo del valor de los cinco criterios msqr , mabs , mean , max y min explicados en la seccion
3.3 y a la clasificacion de los parametros en orden decreciente de msqr dando
lugar a un ranking de importancia.

8.1. Descripcion de la metodologa

71

Paso 3: Analisis de la identificabilidad a priori local mediante la construccion de la


matriz de correlacion a priori y eliminacion de los parametros no identificables
y/o redundantes a partir de la informacion proporcionada por este analisis y
el ranking de parametros.
Dado que esta eliminacion de parametros no identificables esta basada en un
analisis local (para un valor concreto de los parametros) este paso debe realizarse iterativamente. El analisis de identificabilidad local para distintos conjuntos
de parametros puede dar lugar a conclusiones diferentes sobre la identificabilidad de los mismos. Por ello, una vez realizada la estimacion, debe volverse al
Paso 1 para calcular las sensibilidades para los nuevos valores incluyendo de
nuevo los parametros descartados en etapas anteriores.
Paso 4: Estimacion de los parametros mediante metodos de optimizacion global a
partir de los datos experimentales disponibles. Los metodos empleados permiten manejar con robustez medidas con ruido y observaciones parciales.
Paso 5: Computo de las sensibilidades parametricas para los valores obtenidos de
la estimacion de modo analogo al paso 1 y construccion de la matriz de informacion de Fisher (FIM), la matriz de covarianza y la de correlacion.
Paso 6: Calculo del n
umero de condicion (rcond) de la FIM para determinar si
esta es singular en cuyo caso el modelo se considera practicamente no identificable debido probablemente a experimentos no informativos (asumiendo que
el modelo es estructuralmente identificable e identificable a priori).
Paso 7: Analisis de las posibles correlaciones entre pares de parametros mediante
la matriz de correlacion.
Paso 8: Computo de los intervalos de confianza del 95 % a partir de la FIM y
mediante el metodo de Monte Carlo ofreciendo una medida objetiva sobre la
precision de los parametros estimados.
Paso 9: Validacion del modelo: a pesar de que no existe ning
un metodo que pueda
garantizar la validez de un modelo con total certeza, es necesario investigar el
comportamiento del mismo de modo que, si supera todas las pruebas de invalidacion a las que es sometido, se pueda considerar satisfactorio. Este programa
permite realizar distintas pruebas de invalidacion:
observacion de las graficas correspondientes al ajuste de las predicciones
del modelo con respecto a los datos experimentales

72

Captulo 8. GOSBio: entorno para modelado e identificacion

metodos estadsticos basados en los errores de prediccion (los residuos


deben tener media cero, estar distribuidos de forma simetrica y ser independientes del tiempo y de las entradas)
estudio del comportamiento del modelo con conjuntos de datos independientes (datos no empleados para la calibracion)
analisis de la precision de los parametros estimados mediante los intervalos de confianza
Paso 10: Dise
no optimo de nuevos experimentos dinamicos mediante metodos de
optimizacion global con objeto de mejorar la identificabilidad y la precision
de los parametros estimados. El programa permite al usuario elegir la funcion
escalar de la matriz de informacion de Fisher que desea emplear como funcion
objetivo (criterio A, A-Modificado, D, E o E-modificado).

8.2.

Fichero de entrada

El fichero de entrada contiene toda la informacion necesaria para llevar a cabo la


estimacion de parametros y/o el dise
no optimo de experimentos. En el Apendice A
se da un ejemplo de un fichero de entrada que debe contener la siguiente informacion:

8.2.1.

Modelo matem
atico

El sistema de ODEs o DAEs que describe el modelo debe proporcionarse en


alguna de estas formas:
1. Fichero Fortran de nombre fcn.f con la siguiente estructura:
SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
YDOT=F(...) OR M*YDOT=F(...)
RETURN
END
Los sistemas de ODEs se resolveran mediante los integradores rkf45 (Shampine et al., 1976) o radau5 (Hairer y Wanner, 1996) y los de DAEs mediante
radau5.
2. Fichero Matlab, fcn.m, de estructura:
function yteor = fcn(t,y,par)

8.2. Fichero de entrada

73

El sistema se resolvera mediante el integrador de Matlab ode15s.m.


3. Vector problem input.ydot, tipo caracter, incluyendo las ecuaciones. A partir de este vector el programa generara un fichero Fortran y el sistema se
resolvera mediante los integradores rkf45 o radau5.

8.2.2.

Datos de entrada

problem input.n states: n


umero de variables de estado.
problem input.y0: vector de condiciones iniciales.
problem input.sens0: matriz de valores iniciales de las sensibilidades. Esta
matriz sera cero a menos que la condicion inicial para un estado en particular
dependa de un parametro.
problem input.n par: n
umero de parametros del modelo.
problem input.par: valores nominales de los parametros.
problem input.n theta par: n
umero de parametros a estimar.
problem input.index theta par: ndice de los parametros a estimar.
problem input.n exp: n
umero de experimentos.
problem input.n theta y0: n
umero de condiciones iniciales a estimar.
problem input.index theta y0: ndice de las condiciones iniciales a estimar.
problem input.n obs: n
umero de variables medidas.
problem input.ms: vector de estados medidos o funciones de observacion.
problem input.n m: n
umero de medidas por experimento.
problem input.t m: vector de tiempos de las medidas.
problem input.measurement type: tipo de medidas.
- real: el usuario debe proporcionar los datos experimentales
- sim: el codigo generara datos pseudo-experimentales
problem input.exp data: datos experimentales.
problem input.rel error: error relativo a
nadido a los datos simulados.

74

Captulo 8. GOSBio: entorno para modelado e identificacion

problem input.noise type: tipo de error de los datos pseudo-experimentales.


- 0: exp data = yteor*(1+rel error*rand)
- 1: exp data = yteor+rel error*rand
problem input.fobj type:
Para estimacion de parametros:
- 0: mnimos cuadrados sin normalizacion
- 1: normalizacion con max(exp data)
Para dise
no optimo de experimentos:
- A optimality = trace(inv(FIM))
- A modified = -trace(FIM)
- D optimality = -det(FIM)
- E optimality = max(abs(eig(inv(FIM))))
- E modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))
problem input.n u: n
umero de variables de control.
problem input.n con: n
umero de escalones de control.
problem input.u: valor de las variables de control.
problem input.t con: vector de tiempos para los cambios en el control.
ivp solver.name: nombre del integrador.
- ode15s: integrador de Matlab para ODEs y DAEs
- radau5: integrador Runge-Kutta en Fortran adecuado para DAEs
- rkf45: integrador Runge-Kutta-Fehlberg en Fortran para ODEs
ivp solver.sens: metodo de calculo de las sensibilidades parametricas.
- ODESSA: metodo BDF implementado en Fortran
- finite differences: metodo de diferencias finitas
opt solver.name:
- DE: Differential Evolution
- SRES: Stochastic Ranking Evolutionary Search

8.3. Ficheros de salida

75

- SSm: Scatter Search para Matlab 2.5


- only local: metodo local a elegir entre clssolve, fmincon, n2fb, dn2fb,
NOMADm, npsol, snopt y solnp
- multistart: multi-start de cualquiera de los metodos locales
- simulate: realiza solo la simulacion
opt solver.par guess/par min/par max: valores iniciales y lmites inferiores
y superiores para los parametros a estimar.
opt solver.y0 guess/y0 min/y0 max: valores iniciales y lmites inferiores y
superiores para las condiciones iniciales a estimar.
opt solver.u guess/u min/u max: valores iniciales y lmites inferiores y superiores para los controles en OED.
opt solver.t f/tf min/tf max: valor inicial y lmite inferior y superior para
el tiempo final en OED.
results.folder: nombre de la carpeta donde se guardaran los resultados.
results.report: nombre del fichero del informe de resultados.

8.3.

Ficheros de salida

8.3.1.

Datos

El programa GOSBio genera un fichero de texto con los datos mas relevantes y
una estructura de datos de Matlab (.mat) con todas las entradas proporcionadas
por el usuario y todos los resultados obtenidos. Estos dos archivos se guardan en la
carpeta results.folder.

8.3.2.

Figuras

Ademas se generan una serie de figuras que se detallan a continuacion. Estas


se
muestran en pantalla y son posteriormente almacenadas en la carpeta de resultados
como figuras de Matlab (.fig) y en formato PostScript encapsulado (.eps).
ranking parameters: representacion en el eje de ordenadas del valor de los
cinco criterios relativos al ranking de parametros. En el eje de abscisas se
representan los parametros ordenados por orden decreciente de msqr .

76

Captulo 8. GOSBio: entorno para modelado e identificacion

correlation a priori: representacion de la matriz de correlacion a priori.


Para facilitar su visualizacion, esta matriz se representa en una cuadrcula
donde el color de cada celda viene dado por el valor de cada uno de los elementos de la matriz. El color rojo corresponde a 1, el azul a -1 y el verde a 0
mientras que los valores intermedios se representaran por distintas tonalidades
de estos colores. Una barra representando la escala de colores adjunta a cada
grafica facilita la identificacion del valor correspondiente a cada color.
fit plot: representacion de los valores predichos por el modelo para cada
uno de los estados medidos (linea continua) y de los datos experimentales
correspondientes (marcador) a lo largo del tiempo.
residuals plot: representacion de los residuos (diferencia entre los valores
predichos por el modelo y los datos experimentales) en funcion del tiempo.
convergence curve PE: curva de convergencia (valor de la funcion objetivo en
funcion del tiempo) para el metodo de optimizacion elegido para la estimacion
de parametros.
convergence curve OED: curva de convergencia (valor de la funcion objetivo
en funcion del tiempo) para el metodo de optimizacion elegido para el OED.
histogram: histograma de frecuencia de las soluciones para el modo multistart.
correlation a posteriori: representacion de la matriz de correlacion a posteriori de forma analoga a la matriz de correlacion a priori.
experiment profile: representacion de los experimentos dinamicos dise
nados
mediante OED (tiempos de medida y variacion de los controles a lo largo del
tiempo).
confidence plots: representacion de los intervalos de confianza obtenidos
mediante el metodo de Monte Carlo.
least sq plots: representacion de las lneas de contorno de la funcion objetivo
en el plano parametrico.
Este programa puede ser empleado para la identificacion de un amplio rango
de modelos no lineales. En el presente estudio, su potencial se ilustra mediante la
resolucion de una serie de problemas de la ingeniera de bioprocesos. Los resultados
obtenidos se muestran en los siguientes captulos. Todos los calculos fueron realizados
en un PC/Pentium 4 (1.80 GHz) bajo Windows 2000 y Matlab 6.5.

Parte III
Aplicaciones

Captulo 9
Secado de alimentos
9.1.

Introducci
on

La creciente demanda de los consumidores con respecto a la calidad de los alimentos y el endurecimiento de las normas de seguridad, han motivado el desarrollo
de metodos de computacion basados en modelos para la simulacion, la optimizacion
y el control de tecnicas para su procesamiento (Datta, 1998; Banga et al., 2003).
El modelado de secado por aire de alimentos ha recibido una gran atencion
durante las u
ltimas decadas ya que es uno de los metodos de preservacion mas
importantes. Los primeros modelos matematicos simples de este proceso aparecieron
a finales de los a
nos 70. El desarrollo de nuevas tecnicas numericas y el incremento
de las capacidades computacionales han permitido el aumento de la complejidad
de modelos posteriores. Muchos autores han revisado los distintos avances, ver p.ej.
Bruin y Luyben (1980), Jayaraman y Das Gupta (1992) o Waananen et al. (1993) o,
mas recientemente, Ruiz-Lopez et al. (2004) en el contexto de modelado de procesos
y Banga y Singh (1994) y los trabajos all citados, en el contexto de optimizacion.
La combinacion de las leyes fsicas de transferencia de masa y de energa con las
propiedades fsicas del producto alimentario, permiten la prediccion de la variacion
a lo largo del tiempo de las variables de estado relevantes (contenido de humedad y
temperatura), sujetas a diferentes condiciones de secado. Aunque los modelos mas
simples asumen que la contraccion del alimento durante el proceso es despreciable y
que las propiedades de transporte son constantes, se ha ilustrado experimentalmente
que estas suposiciones no son realistas (Balaban, 1989; Park, 1998; Simal et al., 1998)
y que, por lo tanto, cualquier modelo riguroso debera considerar estos efectos (ver
una revison mas extensa en Mayor y Sereno (2004)).
En la bibliografa se han propuesto muchos modelos (la mayora empricos) para
diferentes tipos de alimentos. La mayor parte de ellos son muy no lineales, frecuen79

80

Captulo 9. Secado de alimentos

temente exponencialmente no lineales, con respecto al contenido de humedad y a


la temperatura y dependen de varios parametros. Por otro lado, normalmente se
asume que las propiedades de transporte varan linealmente con la temperatura y
que dependen tambien de uno o dos parametros. Notese que estos parametros no
son medibles directamente por lo que deben ser estimados mediante la resolucion de
un problema de estimacion (calibracion del modelo).
En este captulo se considero el analisis de identificabilidad y el problema de
estimacion de parametros en modelos de secado. Como se ha explicado en la parte
correspondiente a Metodologa, dada la estructura de un modelo para un producto alimentario en particular y un conjunto de datos experimentales, el objetivo de
la estimacion de parametros es calibrar el modelo de modo que reproduzca los resultados experimentales de la mejor forma posible. Aunque aparentemente simple,
la calibracion de modelos no lineales es normalmente una tarea compleja debido a
numerosas razones, entre las que destacan la presencia de problemas de no identificabilidad (es decir, la imposibilidad de encontrar una solucion u
nica para todos los
parametros) y la existencia de soluciones sub-optimas y valles muy estrechos o muy
planos donde es muy difcil progresar hacia la solucion (Rodriguez-Fernandez et al.,
2006; Schittkowski, 2002).
El caracter no lineal de los modelos considerados, tanto con respecto a los
parametros como a los estados, da lugar a menudo a este tipo de dificultades.
En Rodriguez-Fernandez et al. (2004), se considero el problema de estimacion de
parametros en modelos de transferencia de masa y energa para el procesamiento de
alimentos, ilustrando la necesidad de metodos de optimizacion globales con objeto
de evitar las soluciones esp
ureas encontradas a menudo por los metodos tradicionales
basados en gradiente. Ademas, este estudio revelo la presencia de problemas de identificabilidad en el modelo considerado que no haban sido presentados anteriormente.
Por lo tanto, en este captulo se propone una aproximacion para la identificacion en
dos pasos que permitira evitar estas dificultades. El primer paso consiste en analizar
la identificabilidad estructural del modelo y el segundo en resolver el problema de
estimacion de parametros utilizando metodos de optimizacion global.
El analisis de identificabilidad estructural se realizo utilizando la llamada aproximacion de Taylor (ver seccion 4.1). El analisis de la funcion de mnimos cuadrados
revelo tambien la presencia de soluciones locales proporcionando una clara motivacion para el empleo de tecnicas de optimizacion global.

9.2. Modelo matematico

9.2.

81

Modelo matem
atico

Como ejemplo de un modelo de secado de complejidad media, se considero el


secado por aire de una lamina compuesta por agua y celulosa en una bandeja de
secado (ver Figura 9.1). No obstante, los metodos empleados tambien pueden ser
aplicados a modelos de mayor complejidad. La formulacion matematica del modelo
dinamico, en la que estan implicados dos fenomenos acoplados de transferencia de
masa y energa, fue tomada de Banga y Singh (1994) y se resume a continuacion.

corriente de aire
Tdb
Ts , m
L3 = 0.2 cm
L2 = 3.5 cm
L1 = 3.4 cm
Figura 9.1: Secado por aire de una lamina de celulosa

9.2.1.

Transferencia de masa

Se asume que el transporte de agua dentro del solido es el mecanismo de control


y que la fuerza conductora es el gradiente del contenido de humedad. Por lo tanto,
la ecuacion de gobierno sera la ley de Fick para la difusion (segunda ley de Fick):
dm
= (Dm)
dt

(9.1)

Debido al peque
no grosor de la lamina en comparacion con las otras dimensiones,
esta puede ser considerada como un sistema semi-infinito en donde el contenido de
humedad depende solo de la posicion con respecto a la dimension menor. Ademas,
con objeto de tener en cuenta el efecto de la contraccion, se asume que la difusividad
D es una funcion no lineal de ambos, el contenido de humedad y la temperatura,
por lo que la ecuacion (9.1) resulta:
dm
=D
dt

2m
x2

D
+
m

m
x

2
(9.2)

82

Captulo 9. Secado de alimentos

con el valor de la difusividad calculado seg


un Luyben, Liou, y Bruin (1982):

ED 1
1
D = Dref exp
(9.3)

R Ts Tref
donde Dref y ED son funciones del contenido de humedad:

b1 + b2 m
Dref = exp
1 + b3 m

b4 + b5 m
ED =
1 + b6 m

(9.4)
(9.5)

El contenido medio de humedad de la lamina se calcula utilizando:


mavg

1
=
L

ms =

9.2.2.

m(x)dx

(9.6)

0 L1 L2 L3
mavg,0 + 1

(9.7)

Transferencia de energa

Se asume que la temperatura de la lamina es uniforme. Por lo tanto, un balance


de energa resulta (suposicion de lamina fina):
dTs
(ms Cps + ms mavg Cpw )
= hA (Tdb Ts ) + ms w
dt

dmavg
dt

(9.8)

donde el calor latente de vaporizacion w depende de la temperatura:


w = 1 2 Ts

(9.9)

El coeficiente de transferencia de calor y el area de la superficie son variables


durante el secado, por lo que hA se estima utilizando una funcion lineal emprica de
la humedad:
hA = A0 (p1 mavg + p2 )

(9.10)

A0 = 2 (L1 L2 + L1 L3 + L2 L3 )

(9.11)

donde:

El problema tpico de calibracion consistira en calcular los parametros relacionados con la contraccion y la transferencia de energa, en nuestro caso bi y pi , basandose
en medidas experimentales del contenido medio de humedad de la lamina mavg y

9.3. Analisis de identificabilidad estructural

83

de su temperatura Ts a lo largo del tiempo para un conjunto de condiciones experimentales dadas. El resto de los parametros estan disponibles en manuales estandar
(p.ej. aquellos para la vaporizacion de agua).
En un estudio preliminar (Rodriguez-Fernandez et al., 2004), este problema fue
resuelto utilizando metodos de optimizacion global obteniendo varias soluciones (diferentes valores para los parametros), todas ellas capaces de ajustar adecuadamente
los datos experimentales. El hecho de que estas soluciones sean equivalentes y obtenidas utilizando tecnicas de optimizacion global permite concluir que no son el
resultado de la convergencia a soluciones locales sino un claro signo de la falta de
identificabilidad del modelo.

9.3.

An
alisis de identificabilidad estructural

Con objeto de estudiar la identificabilidad estructural del modelo considerado,


se aplico el metodo de series de Taylor detallado en la seccion 4.1. Para ello, la
ecuacion diferencial parcial (9.2) se transformo primero en un conjunto de ecuaciones
diferenciales ordinarias (ODEs) utilizando el metodo numerico de las lneas (NMOL)
(Schiesser, 1991) que consiste en la discretizacion del dominio espacial. El secado
por aire de alimentos se describe entonces por:

m
1 = 0

m
avg
Ts

Di+1 Di1
mi+1 mi1
mi1 2mi + mi+1
+
2dx
2dx
2dx

mnx1 mnx
= Dnx
dx
nx
1X
=
m
i
L i=1

1
=
(A0 (p1 mavg + p2 ) (Tdb Ts )
ms Cps + ms Cpw mavg
+ms (1 2 Ts ) m
avg )

m
i = Di
m
nx

(9.12)
(9.13)
(9.14)
(9.15)
(9.16)

donde mi representa el contenido local de humedad en el punto xi = (nx i) dx, de


modo que x1 = L y Di = D (mi ); nx es el nivel de discretizacion y dx = L/ (nx 1).
A continuacion, la aproximacion de Taylor, implementada en un software de
manipulacion simbolica (MATHEMATICATM ), fue aplicada a las trayectorias de
las medidas en las ecuaciones (9.15-9.16) y se obtuvieron los siguientes coeficientes:

84

Captulo 9. Secado de alimentos

a01 = mavg,0
a02 = Ts,0
1
1
a11 = dxDm,0 m0 + dx2 (Dm,0 Dm1 ,0 ) m0
2
4
w,0 a11
A0 (a01 p1 + p2 ) (Tdb,0 a02 )
a12 =
+
Cps + Cpw a01
(Cps + Cpw a01 ) ms

2
m0 (b2 + b3 log (Dref,0 ))
dx m0 a12 (ED,0 b4 Dm1 ,0 ) Dm,0 dx

a11 1
a21 =
2
4Ra02
2
1 + b3 m0

m0 ED,0 a12
m0 (b5 + b6 ED,0 ) (log (Dref,0 ) log (Dm,0 ))
+
+
ED,0 (1 + b6 m0 )
Ra202

A0 (a01 p1 + p2 ) Tdb,0 a12 + A0 p1 a11 (Tdb,0 a02 ) + ms a21 w,0


a22 =
(Cps + Cpw a01 ) ms

a11 a12 (1 + Cpw ) 12 dxDm,0 w,0


+
Cps + Cpw a01
donde el sub-ndice ,0 se refiere al valor de la magnitud en t = 0, tal que Dm,0 =
D (m0 ) y Dm1 ,0 = D (m1 (t = 0)).
La complejidad del sistema hace imposible el estudio de la identificabilidad estructural global de todo el conjunto de parametros p = [b1 b2 b3 b4 b5 b6 p1 p2 ]T . Sin
embargo, el primer coeficiente de Taylor permite extraer algunas conclusiones sobre
la identificabilidad estructural local para algunos subconjuntos:
i. Fijando todos los bi y utilizando a12 y a21 se puede obtener una solucion
u
nica para los parametros relacionados con la transferencia de energa, p1 y
p2 , siempre que Tdb,0 sea diferente de Ts,0 .
Por lo tanto pk = [p1 p2 ]T son s.l.i.
ii. Para algunas parejas pk = [bi bj ]T y pk = [pi bj ]T tambien es posible conseguir
una solucion u
nica, siendo tambien s.l.i., pero no para todas ellas. A modo
ilustrativo, las Figuras 9.2 y 9.3 muestran las lneas de contorno correspondientes a la funcion de mnimos cuadrados empleando un u
nico experimento
perfecto con Tdb constante para la estimacion de b3 b6 y p1 b3 . Las graficas
confirman lo que predice la aproximacion de Taylor: es posible estimar b3 con
gran precision pero es imposible estimar b6 o p1 . Notese que utilizando un dise
no de experimentos adecuado puede mejorarse la identificabilidad de estos
parametros.

9.3. Analisis de identificabilidad estructural

85

18
6.755

16
6.75

14
6.745
b3

b6

12
10

6.74

6.735

6.73

4
6.725

6.4

6.5

6.6

6.7

6.8

6.9

b3

7.1

8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75


4
p1
x 10

Figura 9.2: Lneas de contorno para

Figura 9.3: Lneas de contorno para

los parametros b3 y b6

los parametros p1 y b3

iii. Las condiciones suficientes (ecuacion 4.6) aplicadas a a22 revelan que algunos
conjuntos de cuatro parametros son s.l.i. A modo ilustrativo, aqu se considero el caso pk = [b1 b4 p1 p2 ]T .
h
i
De la ecuacion a22 ([b1 b4 p1 p2 ]) = a22 b1b4 p1 p2 se concluye que:

p1 = p1

(9.17)

a01 p1 + p2 = a01 p1 + p2

1
1
1
1

b1 + b4
+
+
= b1 + b4
RTs,0 RTref
RTs,0 RTref

b1
b4
1
1
b1

+
+
=
1 + b3 m0 1 + b6 m0 RTs,0 RTref
1 + b3 m0

b4
1
1
+

+
1 + b6 m0
RTs,0 RTref

(9.18)
(9.19)
(9.20)

y estas ecuaciones son simultaneamente ciertas solo en el caso de que:


i
h
[b1 b4 p1 p2 ] = b1b4 p1 p2
Las Figuras 9.4 y 9.5 muestran las lneas de contorno correspondientes a la
funcion de mnimos cuadrados utilizando un u
nico experimento perfecto con Tdb
constante para la estimacion de b1 b4 y p1 p2 . Notese que aunque la identificabilidad
estructural esta garantizada, aparecen varias soluciones suboptimas, demostrando
la necesidad de emplear tecnicas de optimizacion global a la hora de afrontar la
resolucion del problema de estimacion de parametros.

86

Captulo 9. Secado de alimentos

100.25

0.01874

100.2
100.15

0.01872

100.1

0.01871

100.05
b4

p2

0.01873

0.01870

100
99.95

0.01869
0.01868

99.9

0.01867

99.85
99.8

0.01866
8.71 8.715 8.72 8.725 8.73 8.735 8.74 8.745 8.75
4
p1
x 10

99.75
34.12 34.14 34.16 34.18

34.2
b1

34.22 34.24 34.26 34.28

Figura 9.4: Lneas de contorno para

Figura 9.5: Lneas de contorno para

los parametros p1 y p2

los parametros b1 y b4

9.4.

Ranking de par
ametros

Mediante la evaluacion de la sensibilidad de los estados medidos con respecto


a los parametros para sus valores nominales tambien se pueden extraer algunas
conclusiones de como estos van a afectar a las predicciones del modelo y establecer
un ranking de los mismos. En la Tabla 9.1 se muestra el valor de los criterios descritos
en la seccion 3.3 para los ocho parametros del modelo. Los parametros aparecen en
orden decreciente con respecto al criterio msqr y se representan en la Figura 9.6.
4
dmsqr
d
mabs
dmean
dmax
dmin

Valor del criterio

2
1
0
1
2
3
4
b3

b2

b1

b6
p2
Parmetros

b4

b5

p1

Figura 9.6: Parametros ordenados por orden decreciente de msqr

9.5. Estimacion de parametros

87

Par
ametro

Valor nominal

msqr

mabs

mean

max

min

b3
b2
b1
b6
p2
b4
b5
p1

6.74e+0
1.38e+2
3.42e+1
1.00e+2
1.87e-2
1.00e+2
2.00e+2
8.73e-4

8.52e-1
7.30e-1
4.31e-1
4.34e-2
3.97e-2
3.49e-2
2.29e-2
1.29e-3

1.42e+0
1.23e+0
6.73e-1
5.60e-2
7.76e-2
4.21e-2
3.05e-2
2.36e-3

-1.37e+0
1.17e+0
6.70e-1
5.42e-2
5.92e-3
-4.13e-2
-2.91e-2
1.62e-4

1.26e-1
2.73e+0
1.91e+0
1.73e-1
2.15e-1
1.14e-2
1.54e-2
8.62e-3

-3.24e+0
-1.20e-1
-9.28e-3
-2.34e-2
-9.14e-2
-1.48e-1
-8.70e-2
-2.92e-3

Tabla 9.1: Valores para el ranking de parametros


Estos resultados reflejan grandes diferencias en los valores de msqr para los
distintos parametros lo que indica que la salida del modelo es considerablemente
sensible a algunos de ellos y muy poco sensible a otros. As se ve, por ejemplo, que
el parametro ante el cual el modelo presenta una mayor sensibilidad es b3 y el de
menor influencia es p1 . Las lneas de contorno representadas en la Figura 9.3 tambien
apuntan en esta direccion mostrando como un cambio en el valor de b3 produce una
gran variacion en el valor de la funcion objetivo mientras que un cambio en p1
produce un efecto mucho menor.
Las peque
nas diferencias entre msqr y mabs , indican que no existe una gran variabilidad en las sensibilidades (Sj ) ni valores alejados (outliers). Una comparacion
de max y min indica que todos los parametros presentan sensibilidades tanto positivas como negativas siendo el efecto global negativo para tres de los parametros y
positivo para los demas, como puede verse por el signo de mean .

9.5.

Estimaci
on de par
ametros

Para este problema se considero como funcion de coste la funcion de mnimos


cuadrados:
5 X
2 X
13
X
J(p) =
wij (
zijk zijk (p))2
(9.21)
i=1 j=1 k=1

donde wij corresponde a los diferentes pesos considerados con objeto de normalizar
la contribucion de cada termino:
wij = (1/max (
zijk ))2

(9.22)

88

Captulo 9. Secado de alimentos

Esta normalizacion se hace especialmente necesaria en problemas donde las variables medidas tienen valores de diferente orden de magnitud como sucede en el
caso que nos ocupa.
Para poder evaluar los metodos considerados mediante una medida objetiva de
la calidad de la solucion, se emplearon datos pseudo-experimentales. Las medidas
correspondientes al contenido de humedad medio de la lamina mavg y a su temperatura Ts a lo largo del tiempo, fueron generadas mediante simulacion considerando
los parametros publicados por Luyben et al. (1982) como los valores verdaderos
(ver Tabla 9.2 para examinar el valor nominal y los lmites de cada parametro).
Se realizo un conjunto de cinco experimentos (simulaciones) con diferentes valores
constantes para la temperatura de bulbo seco, Tdb (55, 65, 75, 85 y 100 o C).
Par
ametro

Valor nominal

Lmite inferior

Lmite superior

p1
p2
b1
b2
b3
b4
b5
b6

8.73e-4
1.87e-2
3.42e+1
1.38e+2
6.74e+0
1.00e+2
2.00e+2
1.00e+1

1.00e-4
1.00e-4
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0
1.00e+0

1.00e+0
1.00e+0
1.00e+3
1.00e+3
1.00e+3
1.00e+3
1.00e+3
1.00e+3

Tabla 9.2: Valores nominales y lmites para los 8 parametros

9.5.1.

Caso 1

Con objeto de ilustrar los problemas revelados por el analisis de identificabilidad


estructural, se intento estimar todos los parametros relacionados con la contraccion
y la transferencia de energa a la vez, p = [b1 b2 b3 b4 b5 b6 p1 p2 ]T , asumiendo ausencia de error en los datos pseudo-experimentales. Para este caso, incluso utilizando
metodos de optimizacion global, se encontraron distintos conjuntos de parametros
con capacidades predictivas equivalentes (p.ej., soluciones I y II en la Tabla 9.3). Sin
embargo, solo una (o ninguna) de estas soluciones sera capaz de predecir el comportamiento del proceso en condiciones experimentales diferentes lo cual confirma
la no identificabilidad estructural revelada por la aproximacion de Taylor.

9.5. Estimacion de parametros

89

Par
ametro

Soluci
on I

Soluci
on II

p1
p2
b1
b2
b3
b4
b5
b6

4.89e-3
1.45e-2
5.49e+2
9.85e+2
7.13e+1
9.96e+2
9.93e+2
1.24e+1

3.04e-2
4.92e-4
5.99e+1
5.79e+2
2.85e+1
6.47e+2
9.88e+2
8.51e+2

Tabla 9.3: Soluciones para el caso 1 correspondientes a J=0.33 y J=0.31

9.5.2.

Caso 2

Aqu se considero el problema de estimacion del conjunto pk = [b1 b4 p1 p2 ]T


que, como se ha demostrado, es estructuralmente identificable y multimodal. Para
acercarse mas a las condiciones experimentales reales, se considero un error relativo
gaussiano de un 5 % en las medidas pseudo-experimentales.
Con objeto de enfatizar la necesidad de metodos globales de optimizacion, en
primer lugar se intento resolver el problema utilizando un metodo de optimizacion
local de tipo SQP (solnp) en modo multi-start. El histograma de la Figura 9.7
representa la frecuencia de las soluciones mostrando que la mayora de ellas estan
lejos del optimo global (soluciones locales).
40
35

Frecuencia

30
25
20
15
10
5
0
0

0.5

1.5
2
Funcin Objetivo

2.5

3
4

x 10

Figura 9.7: Frecuencia de las soluciones de un SQP en modo multi-start

90

Captulo 9. Secado de alimentos

Por otra parte, el uso de metodos globales (SRES, DE y SSm) dio lugar soluciones optimas globales siendo el valor del vector de parametros encontrado proximo
al vector nominal. El algoritmo SSm convergio casi dos ordenes de magnitud mas
rapido que los demas como se ilustra en la Figura 9.8 con las curvas de convergencia
(evolucion del valor de la funcion objetivo con respecto al tiempo de computacion).
4

10

Funcin objetivo

DE
SRES
SSm

10

10

500

1000

1500

2000

2500

Tiempo CPU (s)

Figura 9.8: Curvas de convergencia de SRES, DE y SSm


Las Figuras 9.9 y 9.10 muestran una comparacion entre los valores predichos a
partir del mejor vector de decision y los datos pseudo-experimentales correspondientes a la temperatura de la lamina (Ts ) y al contenido medio de humedad (mavg ).
Los parametros estimados mediante los metodos de optimizacion global permiten
reproducir adecuadamente los datos pseudo-experimentales.
100

1
Tdb=100

0.9

90

0.8

70

T =75
db

0.7

60

Tdb=65

50

T =55
db

mavg

Ts (C)

T =85
db

80

0.6
0.5
0.4

Tdb=55
T =65

0.3

T =75
db
T =85

db

40

db

30
0

1000

2000

3000
4000
Tiempo (s)

5000

6000

7000

0.2
0

T =100
db

1000

2000

3000
4000
Tiempo (s)

5000

6000

7000

Figura 9.9: Valores predichos versus

Figura 9.10: Valores predichos versus

datos experimentales para Ts

datos experimentales para mavg

9.6. Identificabilidad a posteriori

9.6.

91

Identificabilidad a posteriori

La Figura 9.11 representa la matriz de correlacion a posteriori para el conjunto


de parametros pk = [b1 b4 p1 p2 ]T en el optimo. A pesar de que este conjunto de
parametros ha demostrado ser estructuralmente identificable, en la practica y debido
a las limitaciones experimentales, la matriz de Fisher esta bastante mal condicionada
(rcond(FIM)=1.1e-9). Como se puede ver en la Figura 9.11 donde se representa la
matriz de correlacion, los parametros del par p1 y p2 estan muy correlacionados con
un valor de R1,2 = 0.98 lo que explica las dificultades encontradas por algunos
metodos para alcanzar la solucion global.
1

0.8

b4

0.6

0.4

b1

0.2

0.2

p2

0.4

0.6

p1

0.8

p1

p2

b1

b4

Figura 9.11: Matriz de correlacion a posteriori

9.7.

Intervalos de confianza

Los valores de los parametros correspondientes a la mejor solucion y sus intervalos de confianza del 95 % obtenidos mediante la aproximacion de Cr`amer-Rao y
el metodo de Monte Carlo se presentan en la Tabla 9.4. Los intervalos obtenidos
por ambos metodos son bastante cercanos excepto para el parametro p2 para el cual
difieren en casi un orden de magnitud. El metodo de Monte Carlo, siendo el mas
robusto de los dos, predice un error de casi el 25 % para los parametros p1 y p2 lo
cual podra explicarse por la alta correlacion que existe entre ellos. Para los otros
dos parametros los intervalos son peque
nos en terminos relativos indicando que estos
fueron estimados con precision.
La forma elptica de la region de confianza para los parametros b1 y b4 confirma los

92

Captulo 9. Secado de alimentos

Par
ametro

Valor
optimo

Int conf (95 %)


Cr`
amer-Rao

Int conf (95 %)


Monte Carlo

p1
p2
b1
b4

7.05e-3
1.43e-2
3.43e+1
1.08e+2

1.51e-3
6.24e-4
3.45e-1
3.90e+0

1.76e-3
3.47e-3
7.34e-1
8.96+0

Tabla 9.4: Valores e intervalos de confianza de los parametros optimos

120

120

115

115

110

110
b4

b4

resultados del analisis de correlacion (R3,4 = 0.82). Sin embargo, la baja correlacion
entre los parametros p2 y b4 (R2,4 = 0.61) se traduce en una region de confianza mas
esferica.

105

105

100

100

95

95

90
0.0125 0.013 0.0135 0.014 0.0145 0.015 0.0155 0.016 0.0165
p2

90
33.8

9.8.

34

34.2

34.4

34.6

34.8

Figura 9.12: Region de confianza

Figura 9.13: Region de confianza

para los parametros p2 y b4

para los parametros b1 y b4

Conclusiones

En este captulo se presento un analisis detallado del problema de estimacion


de parametros relativo al secado por aire de alimentos que revela la necesidad de
llevar a cabo un procedimiento en dos pasos para garantizar que la solucion alcanzada sea capaz de reproducir el comportamiento del sistema en un amplio rango de
condiciones de operacion.
En una primera fase, se estudio la identificabilidad estructural del modelo por
medio de la aproximacion de Taylor lo cual permitio concluir que solo un subconjunto
de parametros relacionados con la contraccion y la transferencia de energa pueden

9.8. Conclusiones

93

ser estimados al mismo tiempo. Ademas, se detecto la presencia de m


ultiples optimos
locales motivando el uso de metodos de optimizacion global en el segundo paso de
la identificacion.
Varios metodos globales estocasticos fueron capaces de converger a la solucion
global mientras que, como era de esperar, las aproximaciones locales quedaron atrapadas en soluciones locales la mayora de las veces. Notese que una solucion suboptima puede dar lugar a conclusiones erroneas sobre la capacidad predictiva del modelo.
Ademas, con SSm la solucion global fue obtenida en un n
umero de evaluaciones
muy razonable lo que hace que este metodo sea especialmente atractivo para la
identificacion de modelos relacionados con el procesamiento de alimentos, que consisten normalmente en un conjunto de ecuaciones diferenciales parciales no lineales
acopladas.
El analisis de identificabilidad a posteriori reflejo que, a pesar de que la identificabilidad estructural este garantizada, en la practica pueden presentarse ciertas
dificultades a la hora de realizar la estimacion debido a la correlacion entre ciertos
pares de parametros ocasionada por las limitaciones experimentales.

Captulo 10
Procesamiento t
ermico de
alimentos
10.1.

Introducci
on

El procesamiento termico es una de las operaciones mas importantes para la


conservacion de alimentos. La idea subyacente es procesar el producto alimentario a
una temperatura elevada durante un cierto periodo de tiempo con objeto de reducir
los microorganismos da
ninos, garantizando la seguridad alimentaria y aumentando
su tiempo de conservacion. Sin embargo, los cambios que experimentan los alimentos
durante el procesamiento termico dan lugar, normalmente, a un empeoramiento de
su calidad. Resulta, por lo tanto, esencial procesar el alimento de manera que las
propiedades sensoriales y nutricionales se mantengan en los niveles mas altos posibles
garantizando siempre la seguridad.
A este respecto, en las u
ltimas decadas se han propuesto varias aproximaciones
para el dise
no y/o optimizacion de este tipo de procesos (ver revision por Banga
et al., 2003). Las metodologas mas satisfactorias son aquellas que utilizan tecnicas
computacionales basadas en modelos, especialmente aquellas que consisten en el
uso de modelos de principios fundamentales (Banga et al., 1991; Durance, 1997;
Ramaswamy et al., 1997; Balsa-Canto et al, 2002; Garcia et al. 2006).
Estos modelos matematicos combinan las leyes de conservacion con las propiedades fsicas de los productos, modelos de degradacion de la calidad y cineticas de
los microorganismos, permitiendo la prediccion de las propiedades organolepticas y
la seguridad del producto final, sujetas a diferentes condiciones de procesamiento.
La degradacion de la calidad se describe generalmente utilizando cineticas de
cero, primer y segundo orden, y normalmente se asume que la dependencia de la
velocidad de degradacion con la temperatura sigue la ecuacion de Arrhenius (Sa95

96

Captulo 10. Procesamiento termico de alimentos

guy y Karel, 1980) o el modelo basado en el concepto de tiempo de muerte termica


(Thermal Death Time, TDT) (Rasmaswamy et al., 1989). Por lo tanto, los modelos
resultantes consideran un n
umero de factores de calidad (lisina disponible, digestibilidad de la protena, contenido de tiamina o color de la superficie) que dependen
de una serie de parametros. En los modelos tipo Arrhenius estos parametros son,
entre otros, la energa de activacion, Ea , y la constante pre-exponencial y en el modelo TDT el tiempo de reduccion decimal, Dref , y el parametro que caracteriza la
sensibilidad a la temperatura, Zref . Dado que estos no pueden ser medidos directamente, la calibracion del modelo sera un paso crucial para garantizar la capacidad
predictiva del modelo.
Lenz y Lund (1980), propusieron un dise
no de experimentos factorial para la
determinacion de los parametros cineticos de la degradacion de alimentos durante
el procesamiento termico. En concreto, sugirieron dos tipos de aproximaciones experimentales, la estacionaria (isotermica) a realizar utilizando peque
nos tubos para
garantizar una temperatura constante en la muestra y la no estacionaria a llevar a
cabo utilizando cualquier tipo de contenedor y en la cual debe considerarse la variacion de la temperatura espacial y temporalmente dentro del producto alimentario.
En cualquiera de los dos casos proponen el uso de 10 a 18 experimentos (5-6 temperaturas de calentamiento y 2-3 tiempos de calentamiento) dependiendo del grado
de precision deseado para los parametros.
La calibracion del modelo, una vez que se dispone de datos experimentales, es
mucho mas sencilla para el caso estacionario que para el no estacionario, ya que este
no requiere la resolucion de la ecuacion de Fourier. Ademas, el dise
no es relativamente simple dado que el n
umero de temperaturas a considerar dentro de los lmites
practicos es limitado. Esto ha hecho bastante popular la aproximacion estacionaria. Por ejemplo, Banga et al. (1992) hicieron uso de 20 experimentos estacionarios
para calibrar la cinetica de degradacion de la digestibilidad de la protena y de la
lisina disponible durante el procesamiento termico de at
un. Van Loey et al. (1995),
emplearon 50 combinaciones de tiempo y temperatura para la calibracion de las
cineticas que describen el deterioro de la calidad de los guisantes verdes y las habas
blancas durante el procesamiento termico.
Sin embargo, notese que los parametros resultantes no son sensibles a las influencias practicas del proceso ya que el procesamiento isotermico se aleja bastante
de las condiciones de procesamiento practicas. Ademas, el uso de la aproximacion
estacionaria no proporciona mucha informacion sobre el comportamiento cinetico
ocasionando a menudo problemas de no identificabilidad y/o grandes errores en los
parametros estimados a no ser que se realice un gran n
umero de experimentos.

10.2. Modelo matematico

97

El uso de la aproximacion no estacionaria ha demostrado reducir estas dificultades. Banga et al. (1993) emplearon 10 experimentos dinamicos para calibrar un
modelo TDT para la disminucion de tiamina en el procesamiento termico de at
un
en lata obteniendo un error maximo para los parametros estimados de un 2.3 %.
Garote et al. (2001) utilizaron alrededor de 10 experimentos dinamicos para estimar los parametros cineticos que describen la inactivacion de la lipogenasa durante
el calentamiento de judas verdes, consiguiendo una buena concordancia entre la
prediccion del modelo y los datos experimentales.
Sin embargo, el uso de experimentos dinamicos no optimos puede dar lugar a
una carga experimental innecesariamente elevada, problemas de identificabilidad o
grandes intervalos de confianza para los parametros. Los trabajos de Versyck et
al. (1999) y Grijspeerdt y Vanrolleghem (1999) fueron los primeros en introducir el
dise
no optimo de experimentos para modelos de biologa predictiva y posteriormente,
Nahor et al. (2001, 2003) propusieron su utilizacion para la estimacion de parametros
termicos de alimentos.
En este captulo, se propone el uso de dise
no optimo de experimentos (OED)
para superar las dificultades antes mencionadas en la estimacion de los parametros
cineticos de retencion de tiamina en la esterilizacion termica de alimentos enlatados.

10.2.

Modelo matem
atico

La conduccion y la conveccion son las formas de trasferencia de energa mas


comunes en el procesamiento termico de alimentos, siendo la primera el mecanismo
relevante en alimentos solidos y lquidos muy viscosos y el segundo el caracterstico
en alimentos lquidos. Con objeto de proporcionar una explicacion detallada de estos procesos y de su efecto en la seguridad microbiologica y la calidad del producto
alimentario, se requiere un modelo matematico general basado en principios fundamentales. Ademas de la distribucion de la temperatura, este modelo debe considerar
la concentracion de las posibles esporas de microorganismos presentes en el alimento ya que estas determinan el grado de seguridad microbiologica. La concentracion
de sustancias responsables de la calidad del producto, como vitaminas o enzimas,
tambien debe ser incluida. Formalmente, la evolucion temporal y espacial de la temperatura para productos solidos homogeneos e isotropos puede describirse por la
ecuacion de Fourier (10.1):
Cp Tt = kT + q(T, T, , t)

(10.1)

que esta definida en un dominio limitado con coordenadas generalizadas y las

98

Captulo 10. Procesamiento termico de alimentos

adecuadas condiciones iniciales y de frontera. Los parametros y Cp corresponden a la densidad del alimento y su capacidad calorfica respectivamente y k es la
conductividad termica. Los procesos termicos inducidos mediante campos electromagneticos (microondas) o calentamiento ohmico tambien pueden ser introducidos
en esta formulacion mediante el termino de generacion q(T, , t).
Para el caso de productos solidos las especies de interes no se distribuyen mediante conveccion o difusion por lo que la ecuacion general que describe la disminucion
de la calidad como efecto de la temperatura es (Saguy y Karel, 1980):
dC
= f (T )
(10.2)
dt
donde C representa el factor de calidad considerado.
Con objeto de resolver las ecuaciones (10.1-10.2), deben imponerse condiciones
iniciales y frontera adecuadas en el dominio.

10.2.1.

Esterilizaci
on industrial de alimentos enlatados

En este captulo se considero el caso de la esterilizacion termica de at


un enlatado
como se formula en Banga et al. (1993). El sistema se modelo como un producto
calentado por conduccion en contenedores cilndricos de volumen VT (radio R y
altura 2L). Debido a la simetra, es suficiente modelizar la transferencia de energa
y los fenomenos cineticos en el plano medio del cilindro. El objetivo consistio en
dise
nar experimentos optimos (un conjunto de esterilizaciones realizadas mediante
el procesamiento de latas en un autoclave) que proporcionen datos experimentales
(retencion de tiamina en cada experimento) que permitan la mejor estimacion posible
de los parametros cineticos TDT para la degradacion termica de tiamina.
La ecuacion de Fourier (10.1) en coordenadas cilndricas para un producto alimentario homogeneo e isotropo resulta:
T
=
t

2T
1 T
2T
+
+
r2
r r
z 2

(10.3)

Se establecen los siguientes lmites y condiciones iniciales:


T (R, z, t) = Tautoclave (t)

(10.4)

T (r, L, t) = Tautoclave (t)

(10.5)

T
(0, z, t) = 0
r
T
(r, 0, t) = 0
z

(10.6)
(10.7)

10.3. Analisis de identificabilidad estructural

T (r, z, 0) = T0

99

(10.8)

Para este caso particular el estado medido corresponde a la retencion media de


nutrientes que se calcula asumiendo una cinetica de primer orden (10.2):
1
y=
VT

VT

exp
0

ln 10
DN,ref

tf

exp
0


T (r, z, t) TN,ref
ln 10 dt dV
ZN,ref

(10.9)

Notese que este valor se mide a tiempo final por lo que solo se dispone de una
medida por cada experimento.
Para transformar la ecuacion diferencial parcial original (10.3) en un conjunto
de ecuaciones diferenciales ordinarias, se empleo el metodo numerico de las lneas
(NMOL) (Schiesser, 1991). El sistema de ODEs resultante, combinado con las ecuaciones cineticas (una ecuacion por posicion espacial) se resolvio posteriormente con
ODESSA (Leis y Kramer, 1988) para permitir el calculo de las sensibilidades parametricas.

10.3.

An
alisis de identificabilidad estructural

Con objeto de analizar la identificabilidad estructural, se aplico el metodo de


Taylor para generar un sistema de ecuaciones no lineal en los parametros. Dado que
solo se van a estimar dos parametros, DN,ref y ZN,ref , se requieren solamente tres
coeficientes de Taylor. El primero es independiente de los parametros y el segundo
y el tercero dan lugar a combinaciones de terminos exponenciales dependientes de
ZN,ref y de la temperatura inicial del producto, la temperatura de la autoclave y
otros terminos relativos a la derivada temporal de la temperatura de la autoclave.
Desafortunadamente, debido a la complejidad de este sistema, no hay modo de
obtener soluciones analticas por lo que no es posible extraer conclusiones generales
sobre la identificabilidad estructural.

10.4.

Ranking de par
ametros

El ranking de parametros refleja que existe una diferencia de mas de un orden


de magnitud entre la importancia del ajuste para DN,ref y para ZN,ref (ver Tabla
10.1). Esto implica que un mal ajuste de DN,ref tendra mucha mas influencia en la
prediccion del modelo que un mal ajuste de ZN,ref .
Notese que para todos los calculos se emplearon los valores de los parametros normalizados por lo que su valor sera igual a la unidad. Para ello se consi

dero DN,ref
= 5428 s y ZN,ref
= 31.4o C como se establece en Banga et al (1993).

100

Captulo 10. Procesamiento termico de alimentos

2
d
msqr
d
mabs
dmean
dmax
d

1.5
Valor del criterio

min

0.5

0.5
p1

p2
Parmetros

Figura 10.1: Parametros ordenados por orden decreciente de msqr


Par
ametro

Val nom

msqr

mabs

mean

max

min

DN,ref /DN,ref

ZN,ref /ZN,ref

1
1

4.81e-1
4.66e-2

1.03e+0
9.99e-2

1.03e+0
7.28e-2

1.51e+0
1.71e-1

0.00e+0
-7.12e-2

Tabla 10.1: Valores para el ranking de parametros

10.5.

Dise
no
optimo de experimentos

Para este caso, el objetivo del dise


no optimo de experimentos puede ser formulado
de la siguiente manera:
Calcular las condiciones experimentales optimas, temperatura de procesamiento
Tautoclave (t) y duraci
on de un n
umero dado de experimentos, nexp , que permitan
estimar los par
ametros cineticos relacionados con la retenci
on de tiamina Dref y
Zref , con la maxima precisi
on posible.
Este problema se resolvio considerando las siguientes condiciones:
El n
umero de experimentos se fijo a un valor mnimo de cinco, considerando
que, como indica Sontag (2002), el mnimo n
umero de medidas perfectas
para la calibracion de Np parametros es 2Np + 1. Para evaluar su efecto en los
intervalos de confianza de los parametros, tambien se considero el OED para
el caso de seis y ocho experimentos.
Se asumio que la temperatura de la autoclave sigue el perfil tpico de procesamiento de calentamiento-enfriamiento. Por lo tanto, el vector de variables
de decision sera [Tc,iexp ; Te,iexp ; tc,iexp ] donde Tc,iexp representa la temperatura

10.5. Dise
no optimo de experimentos

101

de calentamiento, Te,iexp la temperatura de enfriamiento y tc,iexp el tiempo de


calentamiento del experimento iexp. Se considero que la duracion de la fase de
enfriamiento es el 60 % de la de calentamiento para garantizar que la degradacion de nutrientes no contin
ue despues del final del experimento, es decir, que
la temperatura del producto sea suficientemente baja.
Los lmites establecidos para las variables de decision son los siguientes:
110o C Tc,iexp 140o C

(10.10)

20o C Te,iexp 25o C

(10.11)

1800 s tc,iexp 9000 s

(10.12)

Se considero una sola medida por experimento a tiempo final y que estas estan
sujetas a un ruido gaussiano del 3 %.
El objetivo de la optimizacion consistio en la maximizacion del criterio D.
En primer lugar y con objeto de analizar la posible naturaleza multimodal del
problema, se resolvio el problema de dise
no de cinco experimentos empleando un
metodo local en modo multi-start. La Figura 10.2 representa el histograma de frecuencia de las soluciones mostrando la presencia de varias soluciones suboptimas y
confirmando la necesidad de emplear metodos de optimizacion global.
4

Frecuencia

0
0.8

1.2

1.4

1.6

Funcion Objetivo

1.8

2.2
x 10

Figura 10.2: Frecuencia de las soluciones de un SQP en


modo multi-start

102

Captulo 10. Procesamiento termico de alimentos

La solucion encontrada por los metodos globales SRES, DE y SSm es practicamente


la misma siendo este u
ltimo considerablemente mas rapido en terminos de convergencia como puede apreciarse en la Figura 10.3 para el caso de seis experimentos.
DE
SRES
SSm

10

Funcin objetivo

10

10

10

10

10

5000

10000
Tiempo CPU (s)

15000

Figura 10.3: Curvas de convergencia de SRES, DE y SSm


La Tabla 10.2 presenta los valores optimos obtenidos por SSm mediante la maximizacion del criterio D considerando cinco, seis y ocho experimentos as como los
valores del criterio E modificado para estos dise
nos.
nexp

Criterio D

Criterio E M od

5
6
8

2.63e + 5
3.95e + 5
7.01e + 5

1.46e+0
1.88e+0
1.86e+0

Tabla 10.2: Valor del criterio D y E modificado para cinco,


seis y ocho experimentos

Como era de esperar, cuando se emplea el criterio D, cuanto mayor es el n


umero
de experimentos mayor es la cantidad de informacion y por lo tanto mayor sera el
valor optimo para este criterio y menor sera el tama
no de los intervalos de confianza
como se vera a continuacion. Los valores de la tabla y la Figura 10.4 que muestra la
evolucion de los valores optimos obtenidos en funcion del n
umero de experimentos,
ilustran el hecho de que este tipo de experimentos fuerzan la decorrelacion entre los
parametros (el valor del criterio E modificado es cercano a la unidad en todos los
casos). Notese que empleando solo un experimento la FIM resulta singular por lo
que el valor del criterio D es cero y el criterio E modificado no esta definido.

10.5. Dise
no optimo de experimentos

103

4 x 10

4
3.5
3

2.5
2

E modificado

Criterio D

1
1.5
0

nexp

Figura 10.4: Evolucion de los criterios D y E modificado


con el n
umero de experimentos

Una propiedad del criterio D es su tendencia a repetir un n


umero peque
no de
condiciones experimentales diferentes (Walter y Pronzato, 1997). En este ejemplo,
el dise
no optimo consiste en la realizacion repetida de dos tipos de experimentos:
uno a alta temperatura durante un tiempo corto y otro a baja temperatura durante
un tiempo largo. En el caso de seis experimentos (nexp = 6) las condiciones optimas
consisten en realizar tres experimentos de cada tipo, como muestran los perfiles
optimos de calentamiento-enfriamiento representados en las Figuras 10.5-10.6.
140

140

Experimentos: 2, 4, 5

Experimentos: 1, 3, 6

120
Temperatura (C)

Temperatura (C)

120
100
80
60

80
60
40

40
20

100

2000

4000
6000
Tiempo (s)

8000

20

2000

4000
6000
Tiempo (s)

8000

Figura 10.5: Perfiles optimos para los

Figura 10.6: Perfiles optimos para los

experimentos 1, 3 y 6

experimentos 2, 4 y 5

104

Captulo 10. Procesamiento termico de alimentos

La evolucion de la temperatura en el punto crtico y la retencion de nutrientes


correspondientes a cada experimento se presentan en las Figuras 10.7-10.8.
1

140

140

Experimentos: 1, 3, 6

Experimentos: 2, 4, 5

120
0.8

ret N

80

T0 ( C)

ret N

0.6

100
0.6

80

T0

60

retN
0.4

60
0.4

40
20
2000

4000
6000
Tiempo (s)

8000

40

ret N
0.2
0

2000

4000
6000
Tiempo (s)

8000

20

Figura 10.7: Dinamica de la T0 y la

Figura 10.8: Dinamica de la T0 y la

retN para los experimentos 1, 3 y 6

retN para los experimentos 2, 4 y 5

10.6.

T0 ( C)

100
T0

0.2
0

120

0.8

Identificabilidad a posteriori

Con objeto de comprobar las propiedades de los esquemas experimentales optimos, se realizo el analisis de identificabilidad practica. Para ello se selecciono el caso
de seis experimentos ya que ofrece un buen compromiso entre la calidad de la solucion y el esfuerzo experimental. La Figura 10.9 muestra la matriz de correlacion a
0.8
0.6
Z N,ref

0.4
0.2
0
0.2
0.4

DN,ref

0.6
0.8
DN,ref

Z N,ref

Figura 10.9: Matriz de correlacion a posteriori

10.7. Intervalos de confianza

105

posteriori para los parametros DN,ref y ZN,ref considerando el dise


no experimental
optimo. Tal y como indicaba el valor del criterio E modificado, la correlacion entre
los mismos es muy baja con un valor de R1,2 =0.265 lo que da lugar a una matriz de
informacion de Fisher bien condicionada (rcond(FIM)=5.8e-1). Esto significa que los
parametros considerados son identificables a posteriori a partir del dise
no obtenido.

10.7.

Intervalos de confianza

A partir de los dise


nos optimos correspondientes a cinco, seis y ocho experimentos
se generaron datos pseudo-experimentales considerando los parametros nominales y
a
nadiendoles un 3 % de error gaussiano. A partir de estos datos, se estimaron los
parametros obteniendose en todos los casos valores muy cercanos a los nominales y
se calculo el valor de los intervalos de confianza del 95 % mediante la aproximacion
de Monte Carlo. Los resultados se muestran en la Tabla 10.3.

DN,ref /DN,ref
Valor
optimo Int conf (95 %)

nexp
5 exp.
6 exp.
8 exp.

1.0
1.0
1.0

1.95e-2
1.58e-2
1.42e-2

ZN,ref /ZN,ref
Valor
optimo Int conf (95 %)

1.0
1.0
1.0

2.02e-2
1.58e-2
1.44e-2

Tabla 10.3: Valores e intervalos de confianza de los parametros optimos

El mayor error, correspondiente al caso de cinco experimentos, es ligeramente


mejor al obtenido por Banga et al. (1993) empleando diez experimentos dinamicos
(2.3 %). Como ya se ha se
nalado, cuanto mayor es el n
umero de experimentos mayor
es la cantidad de informacion y por lo tanto menor sera el volumen de la elipse de
confianza asintotica. De este modo, el uso de seis u ocho experimentos reduce el
tama
no de los intervalos de confianza. Estos resultados confirman el hecho de que el
dise
no optimo de experimentos puede ayudar a reducir sustancialmente el esfuerzo
experimental, hasta un 50 % en este ejemplo.
La region de confianza para los parametros representada en la Figura 10.10,
confirma que los parametros son totalmente identificables y que ademas estan casi
completamente decorrelacionados ya que esta es practicamente redonda.
Ademas, el problema de calibracion resultante es convexo en la vecindad del
optimo global, como ilustra la representacion del valor de la funcion objetivo en las
proximidades de la solucion (ver Figura 10.11) por lo que, una vez alcanzada esa

106

Captulo 10. Procesamiento termico de alimentos

1.020
1.015
1.010

Zref/Z*ref

1.005
1.000
0.995
0.990
0.985
0.980
0.980 0.985

0.990 0.995

1.000 1.005

1.010

1.015

1.020

*
Dref /Dref

Figura 10.10: Region de confianza para el diseno optimo


de seis experimentos

zona mediante un metodo de optimizacion global, el problema podra ser resuelto


facilmente mediante un metodo local.

log(Jmc)

5
4
3
2
1
0
1.5

1
Zref /Z*

0.5 0.5

1.5
*
Dref /Dref

ref

Figura 10.11: Funcion objetivo para el diseno optimo


de seis experimentos

10.8. Conclusiones

10.8.

107

Conclusiones

En este captulo se considero el dise


no optimo de experimentos para la estimacion
de los parametros cineticos relativos al procesamiento termico de bioproductos. El
empleo de un metodo local en modo multi-start detecto la presencia de optimos locales por lo que varios metodos estocasticos de optimizacion global fueron empleados
para la resolucion del problema, siendo el metodo SSm el mas rapido en converger.
Ademas, se ilustro el efecto del n
umero de experimentos en el valor de distintos
criterios escalares de la FIM. De este modo, se ve como el valor del criterio D aumenta con la cantidad de informacion a la vez que disminuyen los intervalos de confianza
para los parametros. El empleo del criterio D dio lugar a dise
nos que consisten en
la repeticion de dos tipos de experimentos: uno caracterizado por un procesamiento de corta duracion a alta temperatura y otro por un procesamiento largo a baja
temperatura. Este resultado confirma la idea, ya apuntada por otros autores, de
que el criterio D tiende a repetir experimentos. Fisher (1935) ya se
nala las ventajas
de la repeticion de experimentos argumentando que, si todos los experimentos son
diferentes, un error en uno de ellos disminuira significativamente el rendimiento global mientras que, si el experimento se repite varias veces, podra probarse su validez
mediante la predominancia de las realizaciones con exito.
Los resultados obtenidos demuestran que mediante un esquema experimental
optimo no solo se reducen los problemas de identificabilidad sino que ademas se
reducen los intervalos de confianza de los parametros a la vez que disminuye el
esfuerzo experimental requerido, hasta un 50 % con respecto a las aproximaciones
tradicionales para el caso considerado.

Captulo 11
Isomerizaci
on del -pineno
11.1.

Introducci
on

Este problema consiste en estimar cinco constantes de reaccion (p1 , ..., p5 ) de


un sistema de reaccion complejo estudiado originalmente por Box et al. (1973), que
forma parte de COPS (Collection of large-scale Constrained Optimization ProblemS)
(Dolan et al., 2004). La Figura 11.1 representa el esquema de reaccion propuesto
para esta reaccion qumica homogenea que describe la isomerizacion termica del pineno (y1 ) a dipenteno (y2 ) y allo-ocimeno (y3 ) que a su vez se convierte en - y
-pironeno (y4 ) y en un dmero (y5 ).

Figura 11.1: Esquema de la isomerizacion del -pineno


Este proceso fue estudiado por Fuguitt y Hawkins (1947), que proporcionaron
las concentraciones del reactante y de los cuatro productos en ocho intervalos de
tiempo (
zji ). Si los ordenes de las reacciones qumicas son conocidos, se pueden
derivar modelos matematicos que den las concentraciones de las distintas especies
109

110

Captulo 11. Isomerizacion del -pineno

en funcion del tiempo. Hunter y MacGregor (1967) asumieron cineticas de primer


orden y derivaron un conjunto de ecuaciones diferenciales lineales para las cinco
respuestas.
Asumiendo que el modelo es adecuado y que se conocen las condiciones iniciales
para las cinco especies, se pueden estimar los coeficientes desconocidos p1 , ..., p5
minimizando una funcion de coste que corresponde a una medida de la distancia
entre los valores experimentales correspondientes a las variables medidas y los valores
predichos para estas variables.
Box et al. (1973) intentaron en un primer momento resolver este problema sin
analizar los datos de respuesta m
ultiple y encontraron valores de los parametros que
proporcionaban un mal ajuste de los datos experimentales. Dado que ignorar las
posibles dependencias entre las respuestas puede provocar dificultades a la hora de
estimar los parametros (m
ultiples mnimos locales, funcion objetivo muy plana,...),
Box et al. (1973) describieron un metodo para detectar y manejar estas relaciones
lineales. Con este estudio demostraron que existen dependencias entre los datos y
de las cinco respuestas utilizaron solamente tres combinaciones linealmente independientes para la identificacion, mejorando significativamente el ajuste de los datos.
Este analisis de los datos de respuesta m
ultiple, a pesar de su eficiencia, requiere
un esfuerzo considerable especialmente para detectar las causas de las dependencias
una vez que han sido localizadas, y se requiere un conocimiento en profundidad del
modelo (que ya no puede ser considerado como una caja negra). Ademas, esto deja
de ser asequible cuando se incrementa la complejidad del modelo.
Tjoa y Biegler (1991) tambien consideraron este problema y utilizaron un metodo
robusto de estimacion local para estimar los parametros desconocidos. Consideraron
todo el conjunto de datos experimentales con objeto de evaluar el comportamiento
del metodo con dependencias entre los datos. En el punto de convergencia, obtuvieron los mismos parametros optimos que los obtenidos por Box et al. (1973). No
obstante, el valor inicial considerado para los parametros estaba muy cerca de la
solucion optima, lo que explica que este metodo alcanzase el optimo global sin quedar atrapado en una solucion local. Como se
nala Averick et al. (1991), la solucion
de este problema no es difcil de obtener desde valores iniciales de p cercanos a la
solucion global, pero la dificultad se incrementa cuando se intenta resolver desde
puntos iniciales remotos.
Con objeto de evitar la convergencia a soluciones locales sin requerir unos buenos valores iniciales para los parametros y/o un analisis exhaustivo de los datos de
respuesta m
ultiple, en este captulo se propone la utilizacion de metodos de optimizacion global para la calibracion del modelo.

11.2. Modelo matematico

11.2.

111

Modelo matem
atico

Para la resolucion de este problema, se consideran las ecuaciones lineales derivadas por Hunter y MacGregor (1967) asumiendo cineticas de primer orden:
dy1
dt
dy2
dt
dy3
dt
dy4
dt
dy5
dt

11.3.

= (p1 + p2 )y1

(11.1)

= p1 y1

(11.2)

= p2 y1 (p3 + p4 )y3 + p5 y5

(11.3)

= p3 y3

(11.4)

= p4 y3 + p5 y5

(11.5)

An
alisis de identificabilidad estructural

Con objeto de estudiar la identificabilidad estructural del modelo considerado, se


aplico el metodo de series de Taylor (ver seccion 4.1) a las ecuaciones de los estados
medidos (11.1-11.5). De este modo se obtuvieron los siguientes coeficientes de cero
y primer orden:
a01 = y1,0
a02 = y2,0
a03 = y3,0
a04 = y4,0
a05 = y5,0
a11 = (p1 + p2 )y1
a12 = p1 y1
a13 = p2 y1 (p3 + p4 )y3 + p5 y5
a14 = p3 y3
a15 = p4 y3 + p5 y5
Del analisis de estos coeficientes pueden extraerse las siguientes conclusiones
sobre la identificabilidad estructural de los parametros del modelo:
i. De los coeficientes a11 y a12 se concluye que p1 y p2 son estructuralmente

112

Captulo 11. Isomerizacion del -pineno

globalmente identificables (s.g.i.) ya que:


a11 ([p1 , p2 ]) = a11 ([p1 , p2 ])

(p1 + p2 )y1 = (p1 + p2 )y1 (11.6)

a12 ([p1 ]) = a12 ([p1 ])

p1 y1 = p1 y1

(11.7)

y estas ecuaciones son simultaneamente ciertas solo en el caso de que p1 = p1


y p2 = p2
ii. De modo analogo, del coeficiente a14 se concluye que p3 es estructuralmente
globalmente identificable (s.g.i.) ya que:
a14 ([p3 ]) = a14 ([p3 ]) = p3 y3 = p3 y3

(11.8)

y esto es cierto solo en el caso de que p3 = p3


iii. Del coeficiente a15 se deduce que p4 y p5 son s.g.i. ya que:
a15 ([p4 , p5 ]) = a15 ([p4 , p5 ]) = p4 y3 + p5 y5 = p4 y3 + p5 y5

(11.9)

y esto es cierto solo en el caso de que p4 = p4 y p5 = p5 siempre que la relacion


entre y3 e y5 no sea constante, lo cual viene dado por el modelo de ODEs.
En este caso los coeficientes de Taylor de primer orden son suficientes para demostrar que todos los parametros del modelo son estructuralmente globalmente
identificables (s.g.i.).

11.4.

Ranking de par
ametros

Los resultados del analisis de sensibilidad se resumen mediante el valor de los


criterios descritos en la seccion 3.3 para los cinco parametros del modelo que se muestran en la Tabla 11.1. Los parametros aparecen en orden decreciente con respecto
al criterio msqr y se representan en la Figura 11.2.
Estos resultados no reflejan grandes diferencias en los valores de msqr para los
distintos parametros lo que indica que la salida del modelo es considerablemente
sensible a todos ellos. Las peque
nas diferencias entre msqr y mabs , indican que no
existe una gran variabilidad en las sensibilidades (Sj ) ni valores extremos (outliers).
Una comparacion de max y min indica que todos los parametros presentan sensibilidades tanto positivas como negativas aunque el efecto global es positivo para tres
de los parametros y negativo para los otros dos, como puede verse por el signo de
mean .

11.5. Estimacion de parametros

113

Par
ametro

Valor nominal

msqr

mabs

mean

max

min

p1
p2
p4
p3
p5

5.93e-5
2.96e-5
2.75e-4
2.05e-5
4.00e-5

0.7144
0.6978
0.4762
0.4242
0.2256

0.5712 -0.3169
0.6313 0.3415
0.3403 -0.1869
0.2206 0.1552
0.1303 0.0864

0.9946
0.9982
0.9834
0.9988
0.7189

-2.1582
-1.0793
-0.8533
-0.1593
-0.1641

Tabla 11.1: Valores para el ranking de parametros


2.5
dmsqr
d
mabs
dmean
dmax
dmin

2
1.5
Valor del criterio

1
0.5
0

0.5
1
1.5
2
2.5
p1

p2

p4
Parmetros

p3

p5

Figura 11.2: Parametros ordenados por orden decreciente de msqr

11.5.

Estimaci
on de par
ametros

Para este problema la funcion de coste puede formularse como:


5 X
8
X
(zj (p, ti ) zji )2
J(p) =

(11.10)

j=1 i=1

Los metodos utilizados requieren un lmite superior e inferior as como un punto


inicial para los parametros. El lmite inferior para los cinco parametros viene dado
por consideraciones fsicas, pi 0, y el lmite superior se considera pi 1, muy lejos
de la mejor solucion conocida p1 = 5.93e-5, p2 = 2.96e-5, p3 = 2.05e-5, p4 = 27.5e-5,
p5 = 4.00e-5). Como punto inicial se elige pi = 0.5.

114

Captulo 11. Isomerizacion del -pineno

En primer lugar se intento resolver el problema utilizando un metodo SQP en modo multi-start. El histograma de frecuencias representado en la Figura 11.3 muestra
que los metodos locales no son capaces de converger a la solucion global estando la
mayora de las soluciones muy alejadas de este punto. Por este motivo, el empleo de
herramientas de optimizacion global resulta imprescindible para resolver con exito
este problema.
90
80
70

Frecuencia

60
50
40
30
20
10
0
3

3.2

3.4

3.6
3.8
Funcin objetivo

4.2

4.4
4

x 10

Figura 11.3: Frecuencia de las soluciones de un SQP en


modo multi-start

La Figura 11.4 muestra claramente que SSm convergio siempre a la solucion global
en un tiempo de computacion corto mientras que otros metodos de optimizacion
global fallaron o convergieron en un tiempo computacional mucho mayor. Con objeto
de favorecer la visualizacion, la curva correspondiente a SSm se representa en ejes
diferentes, ya que SRES y DE quedaron atrapados en soluciones locales cerca del
punto inicial mientras que SSm convergio al optimo global lejos del primer valor.
Asimismo, la Figura 11.5 muestra una comparacion entre los valores predichos
a partir del mejor vector de parametros obtenido con SSm (linea continua) y los
datos experimentales para estas especies proporcionados por Fuguitt y Hawkins
(1947) (smbolos), correspondientes a la concentracion del reactante y de los cuatro
productos. Los parametros estimados permiten reproducir los datos experimentales
y, como puede verse en la Figura 11.6, no existe correlacion entre los residuos y el
tiempo lo que indica que el error de los datos experimentales es homocedastico.

11.6. Identificabilidad a posteriori

115

Funcin objetivo

50000
SRES
DE
40000

30000

10

10
10
Tiempo CPU (s)

10

10
Funcin objetivo

SSm
3

10

10

10

10
10
Tiempo CPU (s)

10

Figura 11.4: Curvas de convergencia de SRES, DE y SSm

100
y1: alfapineno
y2: dipenteno
y3: alloocimeno
y4: pironeno
y5: dimero

80

y1: alfapineno
y2: dipenteno
y3: alloocimeno
y4: pironeno
y5: dimero

1.5
1

70

0.5

60

Residuos

Concentracin (% peso)

90

50
40

0
0.5

30

1
20

1.5

10
0
0

0.5

1.5

2.5

3.5

Tiempo (min)

2
0

0.5

x 10

1.5
2
2.5
Tiempo (min)

3.5

Figura 11.5: Datos experimentales

Figura 11.6: Valores de los residuos en

versus valores predichos por el modelo

funcion del tiempo

11.6.

x 10

Identificabilidad a posteriori

La matriz de correlacion representada en la Figura 11.7 muestra una identificabilidad aceptable en el optimo, con un n
umero de condicion rcond(FIM)=2.2e-4.
Este hecho lleva a pensar que los problemas en la calibracion del modelo experimentados por la mayora de los metodos se deben fundamentalmente a la existencia de
m
ultiples mnimos locales.

116

Captulo 11. Isomerizacion del -pineno

1
p5

0.8
0.6

p4

0.4
0.2

p3

0
0.2

p2

0.4
0.6

p1

0.8
p1

p2

p3

p4

p5

Figura 11.7: Matriz de correlacion a posteriori

Las Figuras 11.8 y 11.9 muestran las lneas de contorno de la funcion objetivo
en el plano parametrico para el par (p1 , p2 ) que presenta un valor del coeficiente de
correlacion R1,2 = 0.13 y para el par mas correlacionado (p4 , p5 ) con R4,5 = 0.82.

x 10

x 10
5.5

5
3.5

p5

p2

4.5
4
3.5

2.5

3
2
2.5
1.5

x 10

1.5

2.5

3.5

Figura 11.8: Funcion objetivo en el

Figura 11.9: Funcion objetivo en el

plano (p1 , p2 )

plano (p4 , p5 )

4
4

x 10

11.7. Intervalos de confianza

11.7.

117

Intervalos de confianza

Por otra parte, los intervalos de confianza del 95 % que se muestran en la Tabla
11.2 para los valores optimos de los parametros (J = 19.87) son peque
nos lo que
indica que estos fueron estimados con precision. No obstante, el parametro que
presenta un mayor intervalo de confianza, en terminos relativos, es p5 . Este hecho
puede explicarse por la menor sensibilidad del modelo con respecto a este parametros
que resulto el u
ltimo en el ranking y por la correlacion entre p4 y p5 detectada en el
analisis de identificabilidad a posteriori.
Par
ametro

Valor
optimo

Int. conf. (95 %)


Cr`amer Rao

Int. conf. (95 %)


Monte Carlo

p1
p2
p3
p4
p5

5.926e-5
2.963e-5
2.047e-5
2.745e-4
3.998e-5

8.706e-7
8.431e-7
5.313e-6
3.984e-5
1.439e-5

3.732e-7
3.563e-7
1.725e-6
1.003e-5
4.579e-6

Tabla 11.2: Valores e intervalos de confianza de los parametros optimos


Las Figuras 11.10 y 11.11 muestran las regiones de confianza obtenidas por el
metodo de Monte Carlo. Como era de esperar, la correlacion existente entre el par
(p4 , p5 ) dio lugar a una forma elptica mientras que la correspondiente al par (p1 , p2 )
es practicamente circular.

x 10

x 10

4.6

3.02

4.4

4.2
p5

2.98
p2

2.96

4
3.8

2.94

3.6

2.92

3.4

2.9
5.86

5.88

5.9

5.92

5.94
p1

5.96

5.98

2.55
5

x 10

2.6

2.65

2.7

2.75
p4

2.8

2.85

2.9
4

x 10

Figura 11.10: Funcion objetivo en el

Figura 11.11: Funcion objetivo en el

plano (p1 , p2 )

plano (p4 , p5 )

118

11.8.

Captulo 11. Isomerizacion del -pineno

Conclusiones

En este captulo se considero la calibracion de un sistema de reaccion para la


isomerizacion termica del -pineno. Mediante el metodo de series de Taylor se demostro la identificabilidad estructural de los cinco parametros del modelo. A pesar de
que el modelo es aparentemente sencillo, el problema inverso asociado es multimodal
debido, entre otros factores, a dependencias entre los datos. Esto se debe a que las
concentraciones proporcionadas por Fuguitt y Hawkins (1947) para algunos de los
productos no fueron obtenidas experimentalmente sino calculadas matematicamente
a partir de las concentraciones de otros productos (Box et al., 1973).
Esta multimodalidad fue corroborada mediante un multi-start de un metodo
SQP motivando el uso de estrategias de optimizacion global para la estimacion de
los parametros del modelo. La consideracion de un rango muy amplio para los lmites
de los parametros y de un punto inicial muy alejado de la solucion global hace que,
incluso algunos metodos de optimizacion global de probada eficacia como SRES y DE,
presenten problemas de convergencia. Sin embargo, la metaheurstica SSm probo ser
muy robusta y alcanzo la solucion global muy rapidamente lo que la convierte en
una estrategia muy recomendable para la resolucion de esta clase de problemas.
El analisis de identificabilidad a posteriori no revela grandes correlaciones entre los parametros que pudieron ser estimados con precision como demuestran los
intervalos de confianza calculados.

Captulo 12
Inhibici
on de la proteasa del HIV
12.1.

Introducci
on

Este problema consiste en la estimacion de un n


umero de parametros de un
modelo que describe el mecanismo de reaccion para la inhibicion irreversible de la
proteasa del HIV originalmente estudiado por Kuzmic (1996) (ver Figura 12.1).

Figura 12.1: Esquema de reaccion para la inhibicion


irreversible de la proteasa del HIV

La enzima (M) solo es activa en forma de dmero (E), el producto (P) es un


inhibidor competitivo con el sustrato (S) y el inhibidor (I) es irreversible (Kuzmic,
1996). La proteasa del HIV (concentracion de ensayo 0.004 M) fue a
nadida a una
disolucion de un inhibidor irreversible y un sustrato fluorogenico (25 M). Los cambios de fluorescencia fueron monitorizados durante una hora en cada uno de los
119

120

Captulo 12. Inhibicion de la proteasa del HIV

cinco experimentos llevados a cabo a cuatro concentraciones diferentes de inhibidor


(0, 0.0015, 0.003 y 0.004 M en duplicado).
Mendes y Kell (1998) trataron de calibrar el modelo utilizando una serie de metodos de optimizacion y encontraron varios conjuntos de parametros que, a pesar de
presentar valores de la funcion objetivo cercanos, tenan valores considerablemente
diferentes. Estos investigadores apuntaron la posibilidad de que este hecho fuese debido a la convergencia a mnimos locales o a una funcion objetivo muy plana en la
region del espacio correspondiente al optimo global.
Con objeto de dilucidar las causas de estas dificultades, en este captulo se considero el mismo problema resuelto por Kuzmic (1996) y Mendes y Kell (1998) y
se analizo su identificabilidad a posteriori. Ademas se calibro el modelo utilizando
varios metodos de optimizacion global, confirmando la superioridad de SSm para la
resolucion de este tipo de problemas.

12.2.

Modelo matem
atico

El modelo matematico consiste en un conjunto de nueve ecuaciones diferenciales


ordinarias no lineales con diez parametros. Este sistema de ODEs puede describirse
de la siguiente forma:

d[M ]
dt
d[P ]
dt
d[S]
dt
d[I]
dt
d[ES]
dt
d[EP ]
dt
d[E]
dt

= 2k11 [M ][M ] + 2k12 [E]

(12.1)

= k22 [ES] k21 [P ][E] + k42 [EP ]

(12.2)

= k21 [S][E] + k22 [ES]

(12.3)

= k21 [I][E] + k52 [EI]

(12.4)

= k21 [S][E] k22 [ES] k3 [ES]

(12.5)

= k41 [P ][E] k42 [EP ]

(12.6)

= k11 [M ][M ] + k12 [E] k21 [S][E] + k22 [ES] + k3 [ES]

(12.7)

k41 [P ][E] + k42 [EP ] k51 [I][E] + k52 [EI]

d[EI]
= k51 [I][E] k52 [EI] k6 [EI]
dt
d[EJ]
= k6 [EI]
dt

(12.8)
(12.9)

12.3. Ranking de parametros

12.3.

121

Ranking de par
ametros

El valor de los criterios descritos en la seccion 3.3 para los cinco parametros a
estimar se muestran en la Tabla 12.1. Los parametros aparecen en orden decreciente
de acuerdo con el criterio msqr y se representan en la Figura 12.2.
Par
ametro

Valor nominal

msqr

mabs

mean

max

min

k42
k22
k3
k52
k6

5.00e+2
3.00e+2
1.00e+1
1.00e-1
1.00e-1

8.10e+1
4.85e+1
1.80e+0
6.49e-2
4.17e-2

1.62e+2
9.67e+1
3.60e+0
1.10e-1
6.59e-2

1.62e+2
9.68e+1
3.60e+0
1.10e-1
-4.97e-2

5.00e+2
3.00e+2
1.00e+1
1.63e-1
1.00e-1

1.26e+2
7.53e+1
2.81e+0
4.97e-2
-7.29e-2

Tabla 12.1: Valores para el ranking de parametros


500
dmsqr
d
mabs
dmean
dmax
dmin

Valor del criterio

400

300

200

100

100
k42

k22

k3
Parmetros

k52

k6

Figura 12.2: Parametros ordenados por orden decreciente de msqr


Estos resultados reflejan grandes diferencias en los valores de msqr para los distintos parametros lo que indica que la salida del modelo es muy sensible a unos y
poco sensible a otros. Las diferencias entre msqr y mabs , indican que existe cierta
variabilidad en las sensibilidades de los distintos estados con respecto a un mismo
parametro (Sj ). Una comparacion de max y min indica que solamente k6 presentan
sensibilidades tanto positivas como negativas mientras que para los demas parametros estas son siempre positivas.

122

12.4.

Captulo 12. Inhibicion de la proteasa del HIV

Estimaci
on de par
ametros

El problema de estimacion que se plantea consiste en la calibracion de cinco


constantes de reaccion. En este ajuste, se asumio tambien un cierto grado de incertidumbre en el valor de las concentraciones iniciales de sustrato y de enzima (
50 %) (errores de valoracion). Ademas, la lnea base del fluormetro (offset) se considero tambien como un grado de libertad. Dado que se dispone de cinco curvas de
datos experimentales, se tendra un total de veinte parametros ajustables: las cinco
constantes de reaccion, cinco concentraciones iniciales de la enzima, cinco concentraciones iniciales del sustrato y cinco valores para el offset. La se
nal medida es funcion
de la concentracion de producto tal que:
se
nal = p [P ] + of f set

(12.10)

Par
ametro

Valor inicial

Lmite inf.

Lmite sup.

k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)

1.00e+1
5.00e+2
3.00e+2
1.00e-1
1.00e-1
2.50e+1
2.50e+1
2.50e+1
2.50e+1
2.50e+1
4.00e-3
4.00e-3
4.00e-3
4.00e-3
4.00e-3
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1

0.00e+0
0.00e+0
0.00e+0
0.00e+0
0.00e+0
1.25e+1
1.25e+1
1.25e+1
1.25e+1
1.25e+1
2.00e-3
2.00e-3
2.00e-3
2.00e-3
2.00e-3
-2.00e-1
-2.00e-1
-2.00e-1
-2.00e-1
-2.00e-1

1.00e+5
1.00e+5
1.00e+5
1.00e+5
1.00e+5
3.75e+1
3.75e+1
3.75e+1
3.75e+1
3.75e+1
6.00e-3
6.00e-3
6.00e-3
6.00e-3
6.00e-3
4.00e-1
4.00e-1
4.00e-1
4.00e-1
4.00e-1

Tabla 12.2: Valores nominales y lmites para los 20 parametros

12.4. Estimacion de parametros

123

Para poder comparar los resultados se tomaron los lmites y valores iniciales para
los parametros empleados por Mendes y Kell (1998) (ver Tabla 12.2). Una de las
dificultades a
nadidas de este problema son los amplios lmites considerados para las
constantes cineticas.
Mediante la minimizacion de la suma de los cuadrados de los residuos entre
los datos medidos y los simulados, la mejor solucion conocida hasta este trabajo
fue obtenida por Mendes y Kell (1998) utilizando el metodo Simulated Annealing,
con un coste computacional de tres millones de simulaciones. La siguiente mejor
solucion fue obtenida utilizando un metodo Levenberg-Marquardt con un esfuerzo
computacional considerablemente menor (4000 simulaciones) aunque la convergencia
al optimo global con este metodo solo esta garantizada si se inicializa en su vecindad.
En este trabajo se trato de resolver el problema mediante un metodo local tipo
SQP en modo multi-start. El histograma de frecuencias (Figura 12.3) muestra que
este metodo se quedo atrapado en soluciones locales la mayora de las veces lo que
demuestra que este problema es multimodal por lo que se necesitaran metodos de
optimizacion global para poder asegurar la convergencia al optimo global.
35
30

Frecuencia

25
20
15
10
5
0
0

10

20
30
Funcin objetivo

40

50

Figura 12.3: Frecuencia de las soluciones de un SQP en


modo multi-start

El metodo SSm convergio a mejores soluciones que las encontradas por Mendes y
Kell (1998) en menos de 1500 simulaciones lo que confirma el buen comportamiento de este metodo incluso en problemas complejos de estimacion de parametros.
Ademas, cuando se compara con otros metodos estocasticos de demostrada eficacia

124

Captulo 12. Inhibicion de la proteasa del HIV

como SRES o DE, SSm alcanzo mejores soluciones con una aceleracion en el tiempo
de calculo de casi tres ordenes de magnitud (ver Figura 12.4).
2

10

SRES
DE
SSm
1

Funcin objetivo

10

10

10

10

10

10

10

10

Tiempo CPU (s)

Figura 12.4: Curvas de convergencia de SRES, DE y SSm


A pesar de que SSm convergio en todas las optimizaciones a valores muy buenos
de la funcion objetivo (siempre inferiores al mejor valor publicado hasta el momento), los valores de los parametros no siempre fueron los mismos lo que indica una
funcion objetivo muy plana en la region del espacio de parametros cerca del optimo.
En la Tabla 12.3 se ilustra este hecho mostrando el valor de los parametros correspondientes a dos soluciones cuyo valor de la funcion objetivo es muy proximo siendo
los valores de los parametros significativamente diferentes.
La Figura 12.5 muestra el buen ajuste de los datos experimentales a las predicciones del modelo obtenidas con el mejor vector encontrado por SSm (Solucion I). La
Figura 12.6 representa los residuos y en ella se puede apreciar la falta de correlacion
de los mismos con respecto al tiempo.

12.5.

Identificabilidad a posteriori

La matriz de correlacion (ver Figura 12.7) ayuda a explicar la existencia de


m
ultiples soluciones ya que existen valores de coeficientes de correlacion de R2,3 =
0.9999 entre algunos pares de parametros como k42 and k22 dando lugar a una matriz
casi singular (rcond(FIM) =1.7e-21). Esto da lugar a una funcion objetivo muy plana
y por lo tanto a la falta de identificabilidad del modelo.

12.5. Identificabilidad a posteriori

125

Par
ametro

Soluci
on I (J=1.99e-2)

Soluci
on II (J=2.03e-2)

k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)

6.23e+0
8.77e+4
4.73e+2
9.73e-2
1.42e-2
2.46e+1
2.33e+1
2.69e+1
1.33e+1
1.25e+1
5.52e-3
5.32e-3
6.00e-3
4.39e-3
3.98e-3
-4.34e-3
-1.58e-3
-1.12e-2
-1.66e-3
7.13e-3

5.66e+0
6.88e+2
1.21e+2
4.61e+0
3.53e+0
2.47e+1
2.34e+1
2.71e+1
1.71e+1
1.45e+1
5.40e-3
5.20e-3
6.00e-3
4.26e-3
3.97e-3
-5.61e-3
-4.25e-3
-1.52e-2
-9.65e-3
1.33e-3

Tabla 12.3: Valor de los parametros para dos resultados obtenidos con SSm

0.7
0.6
0.5

0.03

Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5

0.02

0.01
Residuos

0.4
Seal

Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5

0.3
0.2

0.01

0.1
0.02

0
0.1
0

500

1000

1500 2000 2500


Tiempo (s)

3000

3500

4000

0.03
0

500

1000

1500

2000 2500
Tiempo (s)

3000

3500

4000

Figura 12.5: Datos experimentales versus

Figura 12.6: Valores de los residuos en

valores predichos por el modelo

funcion del tiempo

126

Captulo 12. Inhibicion de la proteasa del HIV

offset(5)
E0(5)
S0(5)
offset(4)
E0(4)
S0(4)
offset(3)
E0(3)
S0(3)
offset(2)
E0(2)
S0(2)
offset(1)
E0(1)
S0(1)
k6
k52
k22
k42
k3

0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1

Figura 12.7: Matriz de correlacion a posteriori

12.6.

Intervalos de confianza

Los valores de los parametros correspondientes a la mejor solucion y sus intervalos de confianza del 95 % obtenidos mediante la aproximacion de Cr`amer-Rao se
presentan en la Tabla 12.4. Como era de esperar, los parametros que presentaron
altas correlaciones como k42 , k22 , k52 y k6 son los que tienen los mayores intervalos
de confianza. El elevado valor de estos intervalos, demuestra nuevamente la falta de
identificabilidad de estos parametros.

12.7.

Conclusiones

En este captulo se considero el problema de estimacion de parametros y concentraciones iniciales para un modelo de la inhibicion irreversible de la proteasa del HIV.
El metodo SSm demostro ser una estrategia muy eficaz para su resolucion alcanzando
valores muy buenos de la funcion objetivo en un tiempo de calculo muy razonable y
superando en mas de dos ordenes de magnitud los requerimientos computacionales
de otros metodo de optimizacion global como SRES, DE o Simulated Annealing.

12.7. Conclusiones

127

Par
ametro

Valor
optimo

Int conf (95 %)

k3
k42
k22
k52
k6
S0 (exp 1)
S0 (exp 2)
S0 (exp 3)
S0 (exp 4)
S0 (exp 5)
E0 (exp 1)
E0 (exp 2)
E0 (exp 3)
E0 (exp 4)
E0 (exp 5)
offset (exp 1)
offset (exp 2)
offset (exp 3)
offset (exp 4)
offset (exp 5)

6.23e+0
8.77e+3
4.73e+2
9.73e-2
1.42e-2
2.46e+1
2.33e+1
2.69e+1
1.33e+1
1.25e+1
5.52e-3
5.32e-3
6.00e-3
4.39e-3
3.98e-3
-4.34e-3
-1.58e-3
-1.12e-2
-1.66e-3
7.13e-3

3.25e+0
4.61e+4
6.25e+2
1.29e-1
1.03e-2
7.82e-2
1.35e+0
1.22e+0
1.82e+0
1.81e+0
1.97e-3
1.31e-3
1.11e-3
8.69e-5
8.84e-5
1.79e-3
2.97e-3
2.73e-3
1.88e-3
1.76e-3

Tabla 12.4: Valores e intervalos de confianza de los parametros optimos


Sin embargo, el analisis de identificabilidad a posteriori revelo altas correlaciones
entre ciertos pares de parametros. Esta falta de identificabilidad es el origen de las
m
ultiples soluciones con capacidades predictivas equivalentes encontradas por los
metodos de optimizacion empleados a
un siendo de naturaleza global. De este modo,
a pesar de que las predicciones del modelo se ajusten a los datos experimentales
empleados para su calibracion, los parametros as obtenidos carecen de robustez y
no seran validos para predecir el comportamiento del modelo en condiciones experimentales diferentes.
Por este motivo, resulta imprescindible la realizacion de nuevos experimentos
mas informativos para obtener un modelo capaz de reproducir resultados en un
amplio rango de condiciones experimentales.

Captulo 13
Funci
on de las caspasas en la
apoptosis
13.1.

Introducci
on

La apoptosis consiste en una cascada de reacciones enzimaticas que conduce a la


muerte celular programada o suicidio celular, un proceso que juega un importante
papel desde el desarrollo temprano hasta el envejecimiento. Las caspasas son unas
protenas pertenecientes al grupo de las cisten-proteasas, caracterizadas por presentar un residuo de cistena que media en la ruptura de otras protenas. En el caso de
las caspasas el corte se produce al nivel de un residuo de aspartato de donde deriva
su nombre (cisteinil-aspartato proteasas). Estas enzimas son mediadoras esenciales
de los procesos de muerte celular programada y, una vez activadas, desmantelan la
celula mediante la ruptura selectiva de protenas clave despues de residuos de aspartato. Los eventos que culminan en la activacion de las caspasas estan sujetos a un
intenso estudio debido a su papel en el cancer y en enfermedades neurodegenerativas
y autoinmunes.
Fussenegger et al. (2000) presentaron un modelo matematico mecanstico, describiendo los elementos clave de la activacion de las caspasas por medio de receptores
y mecanismos inducidos por estres (ver Figura 13.1). Este grupo utilizo principios
de conservacion de masa junto con leyes sobre las velocidades cineticas para formular un sistema de ecuaciones diferenciales que describe la evolucion temporal de
la activacion de las caspasas. El modelo consiste en 19 estados (concentraciones de
protenas) y 11 velocidades de reaccion. Se simularon varias estrategias cualitativas
para la prevencion de la activacion de las caspasas mostrando concordancia con la
informacion disponible.
Gadkar et al. (2005) consideraron la identificacion de este modelo y generaron
129

130

Captulo 13. Funcion de las caspasas en la apoptosis

FAS/FASL
Activacin inducida por el receptor
FADD

FADD

Procaspasa-8
FLIP

Procaspasa-8
Divisin proteoltica

Caspasa-8

Activacin inducida por estrs

Caspasa-8
Citocroma - c
p53

Bax, bik, bad

Bcl-2

ARC
Bcl-xL

Bcl-xL

Apaf-1

Mitocondria

Citocroma - c

Procaspasa-9

Procaspasa-9
IAPs
Divisin proteoltica

Caspasa-9

Ejecutor procaspasa
Caspasa-8
Ejecutor procaspasa Ejecutor caspasa

Caspasa-9
zVAD-fmk

Caspasa-9

Ejecutor caspasa

Ruptura de
protenas

Figura 13.1: Esquema apoptosis (Fussengger et al., 2000)

datos pseudo-experimentales a partir de simulaciones de este sistema corrompiendolos con un 10 % de error y suponiendo que solo un conjunto de siete protenas y
ninguna velocidad de reaccion poda ser medido directamente. Este grupo propuso
un algoritmo iterativo para la identificacion del modelo que incluye el estudio de la
identificabilidad, la eliminacion de los parametros no identificables y la estimacion
de los parametros identificables. En el trabajo citado, se emplea un algoritmo basado
en el problema del regulador de estado (State Regulator Problem, SRP) para estimar
todas las concentraciones no medidas y las velocidades de reaccion a partir de los
estados medidos. De este modo, la calibracion fue realizada mediante la division de
los parametros en varios grupos, correspondiendo cada uno de ellos a los parametros
relacionados con una de las velocidades de reaccion, y resolviendo as el problema de
estimacion de modo desacoplado con respecto a cada reaccion mediante un metodo
local basado en gradiente.
En este captulo, se considero este mismo modelo y se resolvio el problema de
estimacion de parametros asociado mediante tecnicas de optimizacion global ilustrando su superioridad frente a las tecnicas locales. El analisis de identificabilidad
practica permitira extraer conclusiones interesantes sobre el modelo.

13.2. Modelo matematico

13.2.

131

Modelo matem
atico

El modelo de la apoptosis activada por caspasas propuesto por Fussenegger et al.


(2000) consiste en 19 estados (concentraciones de protena) y 11 velocidades de reaccion con 27 parametros (11 constantes de reaccion y 16 constantes de saturacion).
Las ecuaciones del modelo pueden representarse como:

x 1 = 1 x1

(13.1)

x 2 = r1 x2

(13.2)

x 3 = 3 2r2 x3

(13.3)

x 4 = r2 x4

(13.4)

x 5 = r10 r3 x5

(13.5)

x 6 = 6 x6

(13.6)

x 7 = r3 x7

(13.7)

x 8 = 8 2r4 2r6 x8

(13.8)

x 9 = 9 2r5 2r7 x9

(13.9)

x 10 = 10 r8 r9 x10

(13.10)

x 11 = 2r4 + 2r6 x11

(13.11)

x 12 = 2r5 + 2r7 x12

(13.12)

x 13 = r8 + r9 r11 x13

(13.13)

x k = k xk

k = 14, 15, ..., 19

(13.14)

donde xi denota la concentracion de la protena i, rj denota la velocidad de reaccion


j, k denota la velocidad de sntesis de la protena k y denota la velocidad de
degradacion del complejo protenico. Las velocidades de reaccion se expresan del
siguiente modo:
kl (x1 x2 )L
KS1 + L

x3 x2
x4
= ka

(1 + KA x3 + KA KB x23 ) KA KB x3
"
#
x5 x6
x7
= kh

x19
1 + KH x5 + KI 1+K
KH
J x17

r1 =

(13.15)

r2

(13.16)

r3

r4 =

k8za1 x28 x4
1
1
1
1
KC1 KD
+ KD
x8 + x28 + KF KC1 KD
x15 + KG KD
x8 x15

(13.17)
(13.18)

132

Captulo 13. Funcion de las caspasas en la apoptosis

k9za1 x29 x7
(13.19)
1 1
1 1
KL x16 + KO KL1 x9 x16
KL + KL1 x9 + x29 + KN KK
KK
(13.20)
= k8za2 x28

r5 =
r6

r7 = k9za2 x29
k83a x10 x11
+ KR KP1 x14 + x10
k93a x10 x12
=
1
KP + KR KP1 x14 + x10
= CE [ (x13 , x18 ) + (X, x18 )]
[IAP s]
= ku x13
1 + KU [IAP s]

r8 =
r9
r10
r11

(13.21)
(13.22)

KP1

(13.23)
(13.24)
(13.25)

donde
L = concentracion de ligando libre (receptor)

1 xx13
>
0.25
18
(x13 , x18 ) =
0 xx13
0.25
18

1 xX18 > 0.025


(X, x18 ) =
0 xX18 0.025
X = factor qumico/nutricional (estres)
[IAP s]
= 0.1765
1 + KU [IAP s]

(13.27)
(13.28)
(13.29)
(13.30)

Ranking de par
ametros
1.5

dmsqr
d
mabs
dmean
dmax
dmin

Valor del criterio

13.3.

(13.26)

0.5

0.5

1.5
10 3 16 4 5 19 21 23 25 8 26 27 17 14 13 11 9 7 2 1 15 12 18 20 22 24 6

Parmetros

Figura 13.2: Parametros ordenados por orden decreciente de msqr

13.3. Ranking de parametros

133

En la Figura 13.2 se representa el valor de los criterios de los criterios descritos en


la seccion 3.3 para los 27 parametros del modelo. Los parametros aparecen en orden
decreciente de acuerdo con el criterio msqr y sus valores numericos se muestran en
la Tabla 13.1
Param

pn

Val nom

msqr

mabs

mean

max

min

CE
kh
KI
k8za1
k9za1
KS
KG
KL
KO
k83a
Kp
KR
KJ
KB
KA
ku
k93a
k9za2
ka
kI
KH
KS
KC
KF
KK
KN
k8za2

p10
p3
p16
p4
p5
p19
p21
p23
p25
p8
p26
p27
p17
p14
p13
p11
p9
p7
p2
p1
p15
p12
p18
p20
p22
p24
p6

1.00e-1
3.00e-1
1.00e+2
1.25e+0
1.25e+0
1.00e+2
2.00e+3
1.00e+2
2.00e+3
5.00e-1
1.50e+0
5.00e+0
5.00e+0
1.00e+2
1.00e-1
1.10e-1
5.00e-1
1.00e-5
2.00e+0
2.00e+0
1.00e+1
1.00e+1
1.00e+2
2.00e+3
1.00e+2
2.00e+3
1.00e-5

3.34e-1
2.23e-1
2.09e-1
2.07e-1
2.07e-1
2.02e-1
1.99e-1
1.98e-1
1.97e-1
1.87e-1
1.86e-1
1.42e-1
1.28e-1
9.25e-2
8.93e-2
5.21e-2
4.35e-2
3.60e-2
1.89e-2
1.69e-2
1.23e-2
1.02e-2
1.93e-3
1.93e-3
1.16e-3
1.16e-3
9.28e-5

1.40e-1
8.47e-2
7.98e-2
8.78e-2
6.12e-2
8.53e-2
8.45e-2
5.86e-2
5.82e-2
5.37e-2
5.33e-2
4.07e-2
4.80e-2
3.02e-2
2.92e-2
1.16e-2
1.04e-2
2.33e-3
7.07e-3
7.14e-3
3.82e-3
3.80e-3
8.20e-4
8.20e-4
3.45e-4
3.45e-4
3.83e-5

1.20e-1
5.81e-2
-5.44e-2
-8.44e-3
3.37-2
-8.23e-3
8.15e-3
3.22e-2
-3.20e-2
-2.19e-2
-2.38e-2
1.80e-2
3.32e-2
-1.73e-2
-1.67e-2
-1.16e-2
-5.87e-3
2.20e-3
-2.84e-3
6.49e-4
-1.77e-3
2.80e-4
-8.22e-5
8.22e-5
1.89e-4
-1.89e-4
-3.28e-6

1.04e+0
9.95e-1
1.34e-1
7.65e-1
9.68e-1
7.37e-1
5.42e-1
9.23e-1
2.10e-1
8.57e-1
6.23e-1
6.18e-1
6.81e-1
8.64e-2
8.33e-2
0.00e+0
5.84e-2
9.97e-1
1.49e-1
1.41e-1
3.51e-2
1.20e-1
6.46e-3
5.05e-3
5.30e-3
1.31e-3
5.06e-4

-1.56e-1
-1.37e-1
-9.48e-1
-5.65e-1
-2.20e-1
-5.47e-1
-7.30e-1
-2.11e-1
-9.18e-1
-8.79e-1
-8.13e-1
-4.97e-1
-7.49e-2
-3.97e-1
-3.83e-1
-2.76e-1
-2.70e-1
-9.18e-4
-7.73e-2
-5.88e-2
-6.98e-2
-5.00e-2
-5.05e-3
-6.46e-3
-1.31e-3
-5.29e-3
-2.87e-4

Tabla 13.1: Valores para el ranking de parametros


Estos resultados reflejan grandes diferencias en los valores de msqr para los
distintos parametros lo que indica que la salida del modelo es muy sensible a unos

134

Captulo 13. Funcion de las caspasas en la apoptosis

y poco sensible a otros. Entre msqr y mabs no hay grandes diferencias lo que indica
que no existe mucha variabilidad en las sensibilidades de los distintos estados con
respecto a un mismo parametro (Sj ). Una comparacion de max y min indica que
todos los parametros presentan sensibilidades tanto positivas como negativas.

13.4.

Estimaci
on de par
ametros

Para poder comparar nuestros resultados con los publicados anteriormente, se


consideraron las condiciones del caso 3 de Gadkar et al. (2005). De este modo, los
datos pseudo-experimentales fueron obtenidos mediante simulacion a partir de los
valores de los parametros nominales a los que se a
nadio un 10 % de error. Mediante el
computo de la matriz de correlacion a priori (ver seccion 4.2) se comprobo que el conjunto de los 27 parametros del modelo no es identificable por lo que se considero un
conjunto de 18 parametros identificables a priori cuyo valor nominal as como sus
lmites superior e inferior se muestran en la Tabla 13.2.
Param

pn

Val nom

Lim inf

Lim sup

kI
ka
kh

p1
p2
p3
p4
p5
p8
p9
p10
p11
p12
p13
p15
p16
p19
p21
p25
p26
p27

2.00e+0
2.00e+0
3.00e-1
1.25e+0
1.25e+0
5.00e-1
5.00e-1
1.00e-1
1.10e-1
1.00e+1
1.00e-1
1.00e+1
1.00e+2
1.00e+2
2.00e+3
2.00e+3
1.50e+0
5.00e+0

0.00e+0
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1
1.00e-1
0.00e+0
0.00e+0
1.00e-1
1.00e-2
1.00e-1
1.00e-1
1.00e-1
1.00e-2
1.00e-1
5.00e-2
1.00e-2

1.00e+1
1.00e+1
2.00e+0
1.00e+1
1.00e+1
1.00e+1
1.00e+1
1.00e+0
1.00e+0
1.00e+2
1.00e+1
1.00e+3
1.00e+3
1.00e+3
2.00e+6
1.00e+4
1.00e+2
2.00e+1

k8za1
k9za1
k83a
k93a
CE
ku
KS
KA
KH
KI
KS
KG
KO
Kp
KR

Tabla 13.2: Valores nominales y lmites para los 18 parametros

13.4. Estimacion de parametros

135

Se consideraron las mismas concentraciones iniciales de protenas que las nominales


(cero para x2 , x4 , x5 , x7 , x11 , x12 y x13 y uno para el resto) perturbadas con un error
del 25 %. Las medidas se tomaron cada cinco minutos durante un tiempo total de
simulacion de 100 minutos. Las protenas medidas son x2 , x3 , x4 , x5 , x7 , x10 y x12 .
En un primer momento el problema fue resuelto con un metodo de SQP en
modo multi-start. En la Figura 13.3 se representa el histograma de frecuencia de las
soluciones estando todas ellas lejos del optimo global. La convergencia a mnimos
locales de los metodos de esta naturaleza resulta una clara motivacion para el uso
de estrategias globales con mas garantas de convergencia a la solucion global.
18
16
14

Frecuencia

12
10
8
6
4
2
0
0

10
15
Funcin objetivo

20

25

Figura 13.3: Frecuencia de las soluciones de un SQP en


modo multi-start

Por este motivo, el problema de estimacion fue tambien resuelto con los metodos
globales SRES, DE y SSm. El metodo DE no alcanzo la solucion global mientras que
SRES y SSm convergieron a valores muy buenos de la funcion objetivo aunque el
tiempo de calculo requerido por SSm fue de menos de 10 segundos, mas de un orden
de magnitud inferior al requerido por SRES.
A pesar de que para la estimacion solamente se consideraron los datos pseudoexperimentales correspondientes a la concentracion de siete protenas, el ajuste de
todos los estados es bueno como muestra la Figura 13.6. El valor de las velocidades
de reaccion predicho por el modelo tambien se ajusta bien a los valores teoricos a
pesar de que estos no hayan sido empleados para la estimacion (ver Figura 13.5).

136

Captulo 13. Funcion de las caspasas en la apoptosis

10

Funcin objectivo

DE
SRES
SSm

10

10

10

10

10

10

Tiempo CPU (s)

Figura 13.4: Curvas de convergencia de SRES, DE y SSm

0.25

0.2

0.2

0.02
r4

0.005

0.01

0.05
0
0

100

50
Tiempo (min)

0
0

100

1.4

3.5

0.005
0.8
50
Tiempo (min)

100

0.03

50
Tiempo (min)

100

0.08

2.5

0.06

0.04

1.5

0.02
50
Tiempo (min)

100

50
Tiempo (min)

100

0
0

50
Tiempo (min)

100

0.04

0.15
r11

10

100

0.05

0.02
r

50
Tiempo (min)

0.1

1
0

0.2

r9

x 10

r7

r5

0.6
0

0
0

100

x 10

1.2

0.01

50
Tiempo (min)

r8

50
Tiempo (min)

0.015

0.1

0.03
0.02

0.01
0.05
0
0

0.01
r3

r1

0.1

0.1
0.05

0
0

0.03

0.15

0.15

0
0

0.015

50
Tiempo (min)

100

0.01

0
0

50
Tiempo (min)

100

0
0

Figura 13.5: Valores predichos versus datos pseudo-experimentales


para las 11 velocidades de reaccion

13.5. Identificabilidad a posteriori

2.5

137

2.5

2
2

0.8

0.6
0.4
0.4

50
Tiempo (min)

0
0

100

50
Tiempo (min)

0.2
0

100

2.5

0.2
50
Tiempo (min)

0
0

100

0.25

x8

x7

0.5
1
0

50
Tiempo (min)

0
0

100

1.5

1.5

50
Tiempo (min)

100

0.5

x12

x11

10

x9
1.4

50
Tiempo (min)

100

0.3
0.2

0.5

1.2

0.1

14

100

2.2

0.9

0.8

1.8

x13

50
Tiempo (min)

50
Tiempo (min)

0.7

1.6

0.6

1.4

0.5
0

100

2.5

0.6

2
18

0.8

0.4

50
Tiempo (min)

100

0
0

100

2.5

1.5

50
Tiempo (min)

100

50
Tiempo (min)

100

1
0

1.6
1.4
x19

0.5

50
Tiempo (min)

x16

100

0
0

x15

50
Tiempo (min)

0
0

1.5

x17

100

0.4

1.6

0
0

50
Tiempo (min)

0.5

1.8

1
0

100

1
0.8

0.05
100

50
Tiempo (min)

1.2

0.1

1.5

50
Tiempo (min)

100

0.15

50
Tiempo (min)

1.4

0.2

1.5
x5

0.6

1
0.5

0
0

x4

x3

x1

1.5

1.5

1
0

1
0.8

1.5

1.2
1

0.2
0
0

50
Tiempo (min)

100

0.5
0

0.8
50
Tiempo (min)

100

Figura 13.6: Valores predichos versus datos pseudo-experimentales


para las 19 concentraciones de protena

13.5.

Identificabilidad a posteriori

A pesar de que el ajuste es bastante bueno, a la hora de realizar el estudio de


identificabilidad a posteriori, la matriz de informacion de Fisher resulto ser singular

138

Captulo 13. Funcion de las caspasas en la apoptosis

lo que significa que los parametros considerados no son identificables a partir de


la informacion disponible. De hecho, al llevar a cabo m
ultiples optimizaciones con
los metodos globales, el valor de la funcion objetivo fue siempre muy parecido pero
los parametros correspondientes resultaron ser diferentes de cada vez. Esto significa
que hay m
ultiples combinaciones de parametros que proporcionan el mismo ajuste
de los datos experimentales. Sin embargo, solo uno o ninguno de estos conjuntos
de parametros seran capaces de reproducir los resultados del modelo en condiciones
experimentales diferentes.
Dado que la FIM es singular, no se puede realizar un dise
no optimo de experimentos ya que el punto inicial no es siquiera factible. Por lo tanto, con objeto de
disminuir los problemas de identificabilidad practica, se considero un experimento
similar al anterior pero en donde se midio la concentracion de todas las protenas.
Para ese caso los metodos de optimizacion global funcionaron de modo analogo
encontrando un conjunto de parametros que ajustan muy bien los datos pseudoexperimentales. La matriz de informacion de Fisher para este experimento ya no
es singular pero sigue estando muy mal condicionada (rcond = 7.7e-19) habiendo
pares de parametros muy correlacionados (R3,15 = 0.998, R3,16 = 0.999) como puede
verse representado en la Figura 13.7.

27
26
25
21
19
16
15
13
12
11
10
9
8
5
4
3
2
1

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

1 2 3 4 5 8 9 10 11 12 13 15 16 19 21 25 26 27

Figura 13.7: Matriz de correlacion a posteriori

13.6. Intervalos de confianza

13.6.

139

Intervalos de confianza

Para el caso de siete estados medidos, los intervalos de confianza de Cr`amer-Rao


no pueden ser calculados ya que la FIM es singular y estos requieren la inversion
de la misma.
Los parametros optimos y los intervalos de confianza del 95 % obtenidos mediante a aproximacion de Cr`amer-Rao para el experimento en el que se miden todos los
estados se muestran en la Tabla 13.3. Como puede apreciarse, los intervalos de confianza son muy elevados para todos los parametros que presentan altas correlaciones
con otros lo que significa que estos fueron estimados con muy poca precision.

Param

pn

Valor
optimo

Int conf (95 %)

kI
ka
kh

p1
p2
p3
p4
p5
p8
p9
p10
p11
p12
p13
p15
p16
p19
p21
p25
p26
p27

8.41e-1
1.54e+0
1.05e-1
9.95e+0
1.88e+0
5.54e+0
7.95e+0
9.71e-2
1.10e-1
6.08e+1
1.13e-1
3.78e+0
3.20e+1
1.87e+2
2.90e+4
3.19e+3
1.46e-1
7.91e+0

4.40e-1
5.70e-1
1.05e+1
7.01e+3
3.48e+2
1.37e+3
1.99e+3
4.13e-3
2.50e-2
8.23e+1
3.57e-2
4.54e+2
3.49e+3
2.58e+6
4.21e+8
6.09e+5
2.93e+1
5.13e+2

k8za1
k9za1
k83a
k93a
CE
ku
KS
KA
KH
KI
KS
KG
KO
Kp
KR

Tabla 13.3: Valores e intervalos de confianza de los


parametros optimos

140

13.7.

Captulo 13. Funcion de las caspasas en la apoptosis

Conclusiones

En este captulo se considero la estimacion de parametros en un modelo que


describe los elementos clave de la activacion de las caspasas. El empleo de metodos
globales permitio realizar un buen ajuste de los datos experimentales. El metodo
SSm resulto ser mucho mas rapido que otras tecnicas globales de probada eficacia.
Sin embargo, el analisis de la identificabilidad a posteriori, demostro la existencia de graves problemas de identificabilidad por lo que no se puede asegurar que los
parametros estimados puedan reproducir el comportamiento del sistema en condiciones experimentales diferentes.

Captulo 14
Ruta bioqumica en tres pasos
14.1.

Introducci
on

La construccion de modelos dinamicos de rutas bioqumicas es un punto clave para el desarrollo de modelos celulares y de organismos completos. Estas herramientas
pueden dar lugar, en u
ltima instancia, a medicina predictiva y/o preventiva basada
en modelos.
Los recientes trabajos de Sugimoto et al. (2005), Voit y Almeida (2004) y Polisetty et al. (2006) demuestran el interes creciente por llevar a cabo la identificacion
de modelos de rutas bioqumicas. En Moles et al. (2003b) se considera un conjunto seleccionado de metodos estocasticos y deterministas de optimizacion global que
pueden manejar modelos tipo caja negra para resolver el problema de estimacion de
parametros de una ruta bioqumica empleado como problema de referencia (ver Figura 14.1). Solamente un cierto tipo de metodos estocasticos de optimizacion global,
las estrategias evolutivas, fueron capaces de resolver con exito el problema inverso
asociado aunque con un esfuerzo de calculo muy elevado, especialmente cuando se
requiere una gran precision para la solucion.
Con objeto de acelerar los metodos de optimizacion global estocasticos manteniendo su robustez, las estrategias hbridas tratan de combinar ambas metodologas
de un modo adecuado (sinergico) para beneficiarse de sus ventajas reduciendo, o
eliminando, sus limitaciones. En este captulo se utilizo el metodo hbrido secuencial
en dos fases, estocastico-determinista presentado en la seccion 7.3. Con objeto de
incrementar todava mas la eficiencia computacional y de comparar ambas aproximaciones, tambien se empleo el metodo hbrido paralelo sincronico basado en Scatter
Search presentado en la seccion 7.4, SSm.
141

142

Captulo 14. Ruta bioqumica en tres pasos

G2

G1

G3

E2

E1
S

E3

M1

M2

Figura 14.1: Esquema de reaccion para la ruta bioqumica en tres pasos

14.2.

Modelo matem
atico

La formulacion matematica del modelo dinamico no lineal descrito por ocho


ODEs consta de 36 parametros y viene dada por (Moles et al., 2003b):
dG1
=
dt

1+

P
Ki1

V1
ni1

Ka na1 k1 G1
S

(14.1)

dG2
=
dt

V2
ni2
na2 k2 G2
Ka2
P
1 + Ki
+
M1
2

(14.2)

dG3
=
dt

V3
ni3
na3 k3 G3
Ka3
P
1 + Ki3
+ M2

(14.3)

dM1
=
dt

kcat1 E1

dM2
=
dt

kcat2 E2

1+

1
Km1

S
Km1

1+

(14.4)

dE2
V5 G2
k5 E 2
=
dt
K5 + G2

(14.5)

dE3
V6 G3
=
k6 E 3
dt
K6 + G3

(14.6)

(S M1 )

1
Km3

M1
Km3

dE1
V4 G1
=
k4 E 1
dt
K4 + G1

M1
Km2

kcat2 E2
1+

M1
Km3

(M1 M2 )

1
Km3

M2
Km4

kcat3 E3
1+

(M1 M2 )
+

1
Km5

M2
Km5

M2
Km4

(14.7)

(M2 P )
P
Km6

(14.8)

14.3. Ranking de parametros

143

donde M1 , M2 , E1 , E2 , E3 , G1 , G2 y G3 representan la concentracion de las 8 especies


implicadas en las diferentes reacciones bioqumicas. La concentracion del sustrato
S y del producto P act
uan como variables de control y se consideran constantes
para cada experimento (su concentracion inicial es lo suficientemente elevada como
para considerar despreciable su variacion en relacion con la variacion de las demas
especies). Las condiciones iniciales para cada estado (y para todos los experimentos)
aparecen en la Tabla 14.1.
Especie

Concentraci
on

G1
G2
G3
E1
E2
E3
M1
M2

6.6667e-1
5.7254e-1
4.1758e-1
4.0000e-1
3.6409e-1
2.9457e-1
1.4190e+0
9.3464e-1

Tabla 14.1: Valores iniciales para los 8 estados

14.3.

Ranking de par
ametros

El valor de los cinco criterios descritos en la seccion 3.3 se muestran en la Tabla


14.2 donde los parametros aparecen en orden decreciente de acuerdo con el criterio
msqr . Los valores de los cinco criterios para los 36 parametros se representan en la
Figura 14.2.
Estos resultados reflejan que, a pesar de diferencias de mas de dos ordenes de
magnitud en msqr , la salida del modelo es considerablemente sensible a todos los
parametros. Para algunos parametros existen diferencias bastante grandes entre
msqr y mabs lo que indica una variabilidad relativamente elevada y/o la existencia de valores extremos (outliers) en Sj . Una comparacion de max y min indica
que todos los parametros presentan sensibilidades tanto positivas como negativas
aunque, como puede verse por el signo de mean , el efecto global es positivo para 16
parametros y negativo para los otros 20.

144

Captulo 14. Ruta bioqumica en tres pasos

Par
ametro

pnumero

msqr

mabs

mean

max

min

na1
na2
na3
Ka1
Ka2
k4
Ka3
k1
V1
k2
V2
k6
k5
k3
V3
V4
V5
V6
kcat1
kcat3
K4
K6
K5
Km1
Km5
Ki2
Ki3
Ki1
kcat2
Km2
Km3
ni1
Km4
ni2
Km6
ni3

p5
p11
p17
p4
p10
p21
p16
p6
p1
p12
p7
p27
p24
p18
p13
p19
p22
p25
p28
p34
p20
p26
p23
p29
p35
p8
p14
p2
p31
p30
p32
p3
p33
p9
p36
p15

2.61e-1
1.80e-1
1.62e-1
1.42e-1
1.32e-1
1.21e-1
1.19e-1
1.11e-1
1.08e-1
1.07e-1
1.06e-1
9.68e-2
9.58e-2
9.37e-2
9.31e-2
8.88e-2
8.53e-2
8.31e-2
7.40e-2
7.18e-2
6.44e-2
6.39e-2
6.30e-2
6.00e-2
4.94e-2
4.02e-2
3.93e-2
3.75e-2
3.27e-2
2.22e-2
1.80e-2
8.41e-3
7.48e-3
7.46e-3
6.34e-3
4.97e-3

3.81e-1
2.38e-1
2.39e-1
2.52e-1
2.32e-1
3.00e-1
2.59e-1
2.74e-1
2.61e-1
2.43e-1
2.40e-1
2.29e-1
1.98e-1
2.23e-1
2.21e-1
2.10e-1
1.80e-1
1.99e-1
1.85e-1
1.74e-1
1.47e-1
1.52e-1
1.27e-1
1.31e-1
1.15e-1
4.95e-2
4.84e-2
4.34e-2
8.54e-2
5.37e-2
4.94e-2
1.06e-2
1.94e-2
9.28e-3
1.65e-2
6.24e-3

-2.42e-1
-1.89e-1
-1.45e-1
-1.99e-1
-2.17e-1
-1.21e-1
-1.50e-1
-2.27e-1
2.31e-1
-2.21e-1
2.19e-1
1.57e-2
-1.47e-1
-1.28e-1
1.29e-1
1.61e-1
1.34e-1
-1.50e-4
-1.04e-2
-1.52e-1
-1.04e-1
-3.66e-3
-9.63e-2
4.96e-2
9.86e-2
4.49e-2
3.92e-2
4.09e-2
2.18e-2
-8.38e-3
-1.19e-2
1.05e-2
5.25e-3
8.21e-3
-9.16e-3
3.15e-3

2.83e-1
1.73e-1
2.21e-1
1.16e-1
6.26e-2
3.30e-1
2.55e-1
8.32e-2
1.00e+0
9.66e-2
1.02e+0
5.65e-1
1.94e-1
2.57e-1
9.92e-1
9.99e-1
9.84e-1
8.10e-1
2.73e-1
3.09e-2
7.97e-2
3.21e-1
1.07e-1
4.20e-1
4.20e-1
2.41e-1
2.18e-1
1.74e-1
2.52e-1
7.36e-2
1.02e-1
4.13e-2
6.20e-2
5.41e-2
9.81e-3
3.79e-2

-1.44e+0
-1.08e+0
-1.05e+0
-9.67e-1
-1.09e+0
-1.39e+0
-1.20e+0
-1.47e+0
-6.39e-2
-1.07e+0
-9.61e-2
-9.96e-1
-1.22e+0
-1.03e+0
-2.47e-1
-9.08e-2
-1.65e-1
-4.49e-1
-4.61e-1
-6.72e-1
-7.47e-1
-6.44e-1
-7.39e-1
-1.22e-1
-2.30e-2
-2.07e-2
-3.52e-2
-4.05e-3
-1.86e-1
-1.72e-1
-1.45e-1
-3.00e-4
-4.38e-2
-5.29e-3
-5.53e-2
-1.04e-2

Tabla 14.2: Valores para el ranking de parametros

14.4. Estimacion de parametros

145

1.5
dmsqr
dmabs
dmean
dmax
dmin

Valor del criterio

0.5

0.5

1.5
5 11 17 4 10 21 16 6 1 12 7 27 24 18 13 19 22 25 28 34 20 26 23 29 35 8 14 2 31 30 32 3 33 9 36 15

Parmetros

Figura 14.2: Parametros ordenados por orden decreciente de msqr

14.4.

Estimaci
on de par
ametros

El problema de optimizacion consiste en ajustar los 36 parametros del modelo


matematico, que estan divididos en dos clases diferentes: seis que pueden variar en
el rango (0.1, 10), y todos los demas, que pueden variar en el rango (1012 , 103 ) (ver
Tabla 14.3).
Con el fin de estudiar el comportamiento de las diferentes tecnicas para la resolucion del problema inverso se generaron datos pseudo-experimentales mediante
simulacion a partir de un conjunto determinado de parametros considerados como
los verdaderos o valores nominales (ver Tabla 14.3). De este modo, las medidas
pseudo-experimentales de las concentraciones de las especies de metabolitos, protenas y RNA mensajero, correspondientes a las ocho especies implicadas en las
diferentes reacciones bioqumicas descritas, son el resultado de 16 experimentos diferentes (simulaciones) con distintas concentraciones iniciales de sustrato (S) y de
producto (P ). Los valores de S y P correspondientes a cada experimento para el
dise
no original y para el dise
no optimo se muestran en la Tabla 14.4.
En una primera etapa los datos simulados corresponden a resultados exactos,

146

Captulo 14. Ruta bioqumica en tres pasos

Par
ametros

pnumero

Val. nom.

Lmite inf.

Lmite sup.

V1
Ki1
ni1
Ka1
na1
k1
V2
Ki2
ni2
Ka2
na2
k2
V3
Ki3
ni3
Ka3
na3
k3
V4
K4
k4
V5
K5
k5
V6
K6
k6
kcat1
Km1
Km2
kcat2
Km3
Km4
kcat3
Km5
Km6

p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36

1
1
2
1
2
1
1
1
2
1
2
1
1
1
2
1
2
1
0.1
1
0.1
0.1
1
0.1
0.1
1
0.1
1
1
1
1
1
1
1
1
1

1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-1
1e-12
1e-1
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12
1e-12

1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+1
1e+3
1e+1
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3
1e+3

Tabla 14.3: Valores nominales y lmites para los 36 parametros

14.4. Estimacion de parametros

Experimento 1
Experimento 2
Experimento 3
Experimento 4
Experimento 5
Experimento 6
Experimento 7
Experimento 8
Experimento 9
Experimento 10
Experimento 11
Experimento 12
Experimento 13
Experimento 14
Experimento 15
Experimento 16

147

Concentraci
on de S

Concentraci
on de P

0.1
0.1
0.1
0.1
0.46416
0.46416
0.46416
0.46416
2.1544
2.1544
2.1544
2.1544
10
10
10
10

0.05
0.13572
0.36840
1.0
0.05
0.13572
0.36840
1.0
0.05
0.13572
0.36840
1.0
0.05
0.13572
0.3684
1.0

Tabla 14.4: Valores de S y P (10 experimentos)


es decir, medidas sin ruido (conjunto de datos pseudo-experimentales I). A continuacion, se a
nadieron errores relativos, normalmente distribuidos, de un 3 % y un
5 % a los datos resultantes de la simulacion dando lugar a los conjuntos de datos
pseudo-experimentales II y III, respectivamente:
z (i) = z (i)

(14.9)

donde representa la variable normalmente distribuida con media cero y desviacion


estandar igual a la unidad y son las desviaciones estandar de los errores a
nadidos a

z . El error relativo (r) se utiliza para definir estas desviaciones estandar = r


z (i).

Resultados de los m
etodos locales
En una primera aproximacion, se intento resolver el problema empleando varios
metodos locales (n2fb, NOMADm y solnp) llegando a la conclusion de que ninguno
de ellos es capaz de resolver el problema satisfactoriamente si no se inicializa en un
punto muy proximo al verdadero valor de los parametros. Ademas, la aproximacion
multi-start tradicional (es decir, elegir un gran n
umero de valores iniciales aleatorios

148

Captulo 14. Ruta bioqumica en tres pasos

dentro de los lmites de los parametros y realizar la b


usqueda local desde cada uno
de ellos) dio lugar a un gran n
umero de soluciones locales. En la Figura 14.3, se
puede observar el histograma de frecuencias para el metodo n2fb en modo multistart donde la mayor parte de las soluciones estan lejos del optimo global que no se
alcanzo en ninguna ocasion.
30

25

Frecuencia

20

15

10

0
0

200

400

600
800
Funcin Objetivo

1000

1200

Figura 14.3: Frecuencia de las soluciones de n2fb en modo multi-start

Esto lleva a confirmar la idea de que solo los metodos de optimizacion global son
adecuados para resolver esta clase de problemas.

Resultados del m
etodo hbrido SRES-n2fb
Los resultados obtenidos con el hbrido SRES-n2fb mejoraron significativamente
los resultados de Moles et al. (2003b) utilizando SRES solo. En concreto, el tiempo
computacional se redujo en un orden de magnitud (de un rango de 35-40 a 2-3
horas, empleando 5 optimizaciones con cada aproximacion) y, simultaneamente, se
obtuvo un valor de la funcion objetivo mucho mejor (en el caso de conjunto de datos
I, el valor final de la funcion objetivo se redujo de 103 a 107 ). Esto se muestra
claramente en la Figura 14.8, donde se comparan las curvas de convergencia (valor
de la funcion objetivo frente al tiempo computacional, en escala logartmica) del
metodo SRES y del hbrido SRES-n2fb (para este u
ltimo, la fase estocastica global y
la local se representan con distinto tipo de lnea). Notese que, para esta grafica, el
metodo hbrido fue inicializado a proposito en un punto peor (es decir, con un valor

14.4. Estimacion de parametros

149

mayor de la funcion objetivo) que el metodo SRES. A pesar de esta ventaja inicial,
puede verse como la fase local del hbrido proporciona una convergencia mucho mas
rapida a una solucion mejor, dando lugar a una aceleracion total de un orden de
magnitud.
Basandose en la observacion de la Figura 14.8, sera natural argumentar que un
cambio mas temprano de la b
usqueda estocastica a la fase local del hbrido podra
dar lugar a una aceleracion todava mayor. Sin embargo, como ya se discutio en
la seccion 7.3, si el cambio se realiza demasiado pronto, este podra dar lugar a la
convergencia a una solucion local, es decir, un punto de cambio anterior tiene mayor
probabilidad de estar fuera de la zona de atraccion de la solucion global. Este efecto
se ilustra en la Figura 14.4 donde se representan tres b
usquedas locales realizadas a
partir de diferentes puntos de la misma b
usqueda global. Las flechas indican el punto
de cambio a lo largo de la curva de convergencia de SRES (lnea contnua), mientras
que la convergencia de n2fb para cada punto se representa por lneas discontinuas.
Las dos primeras, se
naladas con (a), convergieron a soluciones locales, mientras que
la u
ltima, se
nalada con (b), alcanza la solucion optima global.
4

10

10

(a)
Funcin objetivo

10

10

(b)

10

10

10

2000

4000
6000
8000
Tiempo CPU (s)

10000

12000

Figura 14.4: Efecto del punto de cambio en la convergencia del hbrido

Obviamente, el tama
no de la zona de atraccion, o en general, la topologa del
espacio de b
usqueda, es dependiente del problema. Por lo tanto, encontrar un punto
de cambio adecuado que de lugar a la mejor relacion eficiencia/robustez requiere
unos cuantos ensayos preliminares. De todos modos, una vez que esto se ha llevado
a cabo (y el tiempo computacional no es prohibitivo), nuestra experiencia demuestra

150

Captulo 14. Ruta bioqumica en tres pasos

que el hbrido ajustado puede ser aplicado a otros conjuntos de datos, o incluso a
modelos ligeramente diferentes, sin ajuste adicional.
Para el conjunto de datos I, el mejor resultado (J=1.54e-7) se obtuvo despues de
un tiempo de calculo de 3.1 horas. Para el conjunto de datos pseudo-experimentales
II (3 % de error) el mejor resultado (J = 1.25) se obtuvo despues de un tiempo de
calculo de 3.4 horas y para el conjunto de datos pseudo-experimentales III (5 % de
error) se alcanzo un valor de la funcion objetivo J = 3.27 en un tiempo de calculo
total de 3.5 horas. En la Tabla 14.5 se muestran los valores del tiempo computacional
y de la funcion objetivo en cada una de las etapas del metodo hbrido (punto inicial,
punto de cambio y resultado final) para los tres conjuntos de datos.
Conjunto I
J
tCP U (h)

Conjunto II
J
tCP U (h)

Conjunto III
J
tCP U (h)

Punto inicial
Primera etapa
Segunda etapa

1180
48.2
1.54e-7

0
1.55
1.59

1116
34.9
1.25

0
2.50
0.93

1100
44.6
3.27

0
2.09
1.39

Final

1.54e-7

3.14

1.25

3.43

3.27

3.47

Tabla 14.5: Evolucion de SRES-n2fb para los conjunto de datos I y II


Este metodo hbrido converge siempre a la solucion global si la segunda fase
(metodo n2fb) se inicializa desde un punto lo suficientemente cercano a la solucion
global. En este caso (y como confirman los puntos de cambio para la mejor solucion
de cada uno de los tres conjuntos de datos) se puede considerar J < 35 como criterio
de parada para la primera etapa para asegurar la convergencia. Ademas, siempre
se puede asegurar la convergencia a resultados mejores que los de cualquier metodo local (incluso en modo multi-start) en un tiempo computacional relativamente
peque
no.
Para dar una medida cuantitativa de la calidad de las soluciones obtenidas con
el metodo hbrido para los tres conjuntos de datos, se calcularon los errores relativos
de los parametros estimados con respecto a los parametros nominales (verdaderos).
En el caso de los datos sin error (conjunto I), el hbrido recupera el valor de todos
los parametros con un error relativo muy bajo (practicamente se puede decir que
recupera los valores exactos de los parametros verdaderos). En el caso de datos con
ruido, que son mucho mas realistas, las Figuras 14.5 y 14.6 muestran como el error
puede ser de hasta un 20 % para ciertos parametros, pero que para la mayora de
ellos es bastante inferior al 10 %, que es un resultado muy satisfactorio. En cualquier
caso, como se discutira mas adelante, este problema (debido al dise
no experimental

14.4. Estimacion de parametros

151

25

25

20

20

15

15

10

10

error relativo (%)

error relativo (%)

considerado) presenta ciertas dificultades con respecto a su identificabilidad que


pueden explicar en parte esos errores.

5
0
5

5
0
5

10

10

15

15

20

20

25

10

15
20
Parmetro

25

30

35

25

10

15
20
Parmetro

25

30

35

Figura 14.5: Error relativo considerando

Figura 14.6: Error relativo considerando

el conjunto de datos II (3 % de error)

el conjunto de datos III (5 % de error)

La Figura 14.4 muestra los valores M1, M2, E1, E2, E3, G1, G2 y G3 teoricos
(lnea continua) frente a sus experimentales (marcador) considerando los mejores
parametros estimados por el metodo hbrido secuencial para el conjunto de datos
III en cada uno de los 16 experimentos. Notese que existe una muy buena correlacion
entre los datos experimentales y los predichos incluso para el conjunto de datos con
mas ruido. El comportamiento para los otros dos conjuntos de datos es similar por
lo que se omitio su representacion.

Resultados del m
etodo SSm
Como se puede apreciar en la Figura 14.8 el metodo hbrido paralelo sincronico,
SSm, fue capaz de mejorar el resultado del metodo hbrido secuencial SRES-n2fb en
un orden de magnitud con respecto al tiempo computacional. Ademas, SSm presenta
la ventaja de no requerir ning
un ensayo preliminar para el ajuste del metodo, lo que
hace que sea una estrategia muy facil de usar. En resumen, empleando SSm se redujo
el tiempo computacional de dos das (Moles et al., 2003b) a un par de minutos,
asegurando la robustez.

152

Captulo 14. Ruta bioqumica en tres pasos

2.5

M2

M1

1.5

0.5

0
0

20

40

60
80
Tiempo (min)

100

0
0

120

0.7

0.6

0.6

0.5

0.5

0.4

0.4

40

60
80
Tiempo (min)

100

120

20

40

60
80
Tiempo (min)

100

120

20

40

60
80
Tiempo (min)

100

120

20

40

60
80
Tiempo (min)

100

120

E2

E1

0.7

20

0.3

0.3

0.2

0.2

0.1

0.1

0
0

20

40

60
80
Tiempo (min)

100

0
0

120

0.45

1.4

0.4

1.2

0.35

1
0.3

0.8

E3

G1

0.25
0.2

0.6

0.15

0.4

0.1

0.2

0.05
0
0

20

40

60
80
Tiempo (min)

100

0
0

120

1.4

0.8

1.2

0.7
0.6

0.5
G3

G2

0.8
0.4

0.6
0.3
0.4

0.2

0.2

0.1

0
0

20

40

60
80
Tiempo (min)

100

120

0
0

Figura 14.7: Valores predichos versus datos pseudo-experimentales (conjunto III)

14.5. Identificabilidad a posteriori

153

10

SRES
SRES
n2fb
SSm

Funcin objetivo

10

10

10

10

Mtodo hbrido
6

10

10

10
10
Tiempo CPU (s)

10

Figura 14.8: Curvas de convergencia de SRES, hbrido SRES-n2fb y SSm

14.5.

Identificabilidad a posteriori

Un estudio sobre el condicionamiento de la FIM demuestra que esta no esta bien


condicionada (rcond(FIM) = 1.7e-7) pero que no es singular, lo que significa que los
parametros son practicamente identificables para el valor optimo encontrado a partir
de los datos experimentales considerados (conjunto II). La matriz de correlacion a
posteriori se representa en la Figura 14.9. Se puede percibir que, aunque ning
un
elemento fuera de la diagonal es igual a +1 o -1, los pares (p1 ,p6 ), (p7 ,p12 ) (p13 ,p18 )
tienen correlaciones muy elevadas (mayores que 0.99 en valor absoluto) lo que explica
en cierto modo las dificultades encontradas por algunos metodos para resolver el
problema.
Para ilustrar mejor esta situacion, la Figura 14.11 muestra las lneas de contorno
correspondientes a la funcion objetivo en el plano de los parametros para un par de
parametros poco correlacionados (p1 ,p4 ), mientras que la Figura 14.10 presenta la
grafica equivalente para un par de parametros altamente correlacionados (p1 ,p6 ).

En el primer caso, la falta de correlacion se refleja en un contorno bastante


redondeado de la funcion objetivo en la vecindad del mnimo. Sin embargo, la grafica
correspondiente al par (p1 ,p6 ) muestra un largo valle a lo largo de la diagonal de
estos dos parametros, donde todos los puntos de esta diagonal presentan valores muy

154

Captulo 14. Ruta bioqumica en tres pasos

35

0.8
30

0.6
0.4

25

0.2
20
0
15

0.2
0.4

10
0.6
5

0.8
5

10

15

20

25

30

35

Figura 14.9: Matriz de correlacion a posteriori


peque
nos y similares de la funcion de coste. Por lo tanto, aunque existe un mnimo
verdadero para los valores (1,1), existen muchas otras combinaciones de p1 y p6 que
dan practicamente el mismo valor de la funcion objetivo, es decir, que dan lugar al
mismo comportamiento del modelo para el dise
no de experimentos considerado.

14.6.

Intervalos de confianza

1.5

1.5

1.4

1.4

1.3

1.3

1.2

1.2

1.1

1.1
p4

Los intervalos de confianza del 95 % calculados a partir de la matriz de informacion de Fisher para los 36 parametros se representan en la Tabla 14.6. Como se

0.9

0.9

0.8

0.8

0.7

0.7

0.6

0.6

0.5
0.5

1
p

1.5

0.5
0.5

1
p

1.5

Figura 14.10: Lneas de contorno

Figura 14.11: Lneas de contorno

para los parametros p1 y p6

para los parametros p1 y p4

14.6. Intervalos de confianza

Par
ametro

pn

Int conf (95 %)


Conjunto I

V1
Ki1
ni1
Ka1
na1
k1
V2
Ki2
ni2
Ka2
na2
k2
V3
Ki3
ni3
Ka3
na3
k3
V4
K4
k4
V5
K5
k5
V6
K6
k6
kcat1
Km1
Km2
kcat2
Km3
Km4
kcat3
Km5
Km6

p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36

2.160e-5
2.056e-6
9.278e-6
2.036e-6
2.957e-6
2.157e-5
3.197e-5
2.228e-6
1.381e-5
2.282e-6
4.819e-6
3.210e-5
3.667e-5
7.752e-6
4.084e-5
7.689e-6
7.610e-6
3.644e-5
7.369e-7
1.228e-5
3.694e-7
9.714e-7
1.375e-5
9.298e-7
1.245e-6
1.809e-5
9.718e-7
1.067e-5
1.905e-5
5.175e-5
2.475e-5
3.781e-5
9.325e-5
2.376e-5
3.646e-5
2.456e-5

155

Int conf (95 %)


Conjunto II

Int conf (95 %)


Conjunto III

8.639e-2
1.148e-2
1.012e-1
1.149e-2
1.651e-2
8.558e-2
6.952e-2
1.335e-2
1.078e-1
1.396e-2
1.915e-2
7.001e-2
1.228e-1
2.135e-2
1.675e-1
2.337e-2
2.190e-2
1.236e-1
2.703e-3
3.805e-2
1.608e-3
3.307e-3
4.465e-2
2.561e-3
3.167e-3
4.707e-2
1.999e-3
3.198e-2
5.059e-2
1.913e-1
7.569e-2
9.858e-2
3.560e-1
6.890e-2
1.034e-1
9.928e-2

1.424e-1
1.953e-2
1.478e-1
1.869e-2
2.861e-2
1.409e-1
1.739e-1
2.063e-2
1.903e-1
2.164e-2
3.127e-2
1.717e-1
2.320e-1
3.307e-2
3.440e-1
3.858e-2
3.695e-2
2.360e-1
4.053e-3
5.344e-2
2.778e-3
4.883e-3
7.318e-2
3.112e-3
7.095e-3
1.002e-1
3.672e-3
5.926e-2
9.101e-2
2.727e-1
1.339e-1
1.510e-1
3.855e-1
1.079e-1
1.563e-1
1.317e-1

Tabla 14.6: Intervalos de confianza de los parametros optimos

156

Captulo 14. Ruta bioqumica en tres pasos

puede observar, el valor de los intervalos de confianza es peque


no para todos los
parametros y los tres conjuntos de datos lo que indica una buena estimacion de los
mismos. Como era de esperar, estos intervalos son mayores a medida que aumenta
el error de los datos experimentales.
Aunque en todos los casos los valores de confianza son aceptables, estos son
mayores para los parametros que presentan altas correlaciones. Vease, por ejemplo,
que los intervalos para el parametro p1 que presenta altas correlaciones con otros
parametros, estos son un orden de magnitud mayores que para el parametro p2 que
esta poco correlacionado. Esta situacion puede ser mejorada mediante un dise
no
experimental adecuado.

14.7.

Dise
no
optimo de experimentos

Una vez que las herramientas para la evaluacion de la identificabilidad y otras


medidas relacionadas han proporcionado informacion u
til sobre las propiedades del
problema, es importante darse cuenta de que estas corresponden al dise
no experimental concreto que se esta considerando. Sin embargo, como se ha explicado en
el captulo de Metodologa correspondiente al dise
no optimo de experimentos, este
dise
no puede ser mejorado mediante la formulacion y la resolucion de un problema
de optimizacion dinamica.
El dise
no experimental considerado hasta este momento (que se denotara como
original) consiste en 16 combinaciones diferentes de valores de S y P que se mantienen
constantes a lo largo de cada uno de los experimentos. Para un dise
no experimental
nuevo, se podra intentar dise
nar experimentos en los que S y P varen a lo largo
del tiempo. Aunque esto es factible numericamente, se asumio que, para este caso
particular y debido a limitaciones practicas, estos controles (es decir, los valores de
S y P), deben ser constantes durante cada uno de los experimentos. Por lo tanto, el
problema de OED puede ser formulado como:
Dado el n
umero de experimentos nuevos que se desean realizar N 2exp , encontrar
los valores de S y P para cada uno que maximicen o minimicen el valor de un cierto
criterio basado en la FIM sujeto a las siguientes restricciones:
dinamica del sistema
lmites para S y P
otras posibles restricciones (por ejemplo debidas a limitaciones practicas)

Este
es un problema de optimizacion no lineal (NLO) con restricciones diferenciales que puede resolverse como se detalla en seccion 6.2. Notese que, por supuesto,

14.7. Dise
no optimo de experimentos

157

tambien podra plantearse una formulacion mas (o menos) general del problema.
Por ejemplo, el n
umero de nuevos experimentos N 2exp podra ser considerado como
una variable de decision, dando lugar a un problema de optimizacion no lineal entero mixto (Mixed-Integer Non-Linear Programming, MINLP) con un problema de
valor inicial interno. El horizonte de tiempo y los tiempos de muestreo para cada
experimento tambien podran ser considerados como variables de decision. Obviamente, aumentar la generalidad de la formulacion implica resolver un problema de
optimizacion mas complejo.
Para los objetivos de este trabajo, se considero que el valor de N 2exp es fijo y
ademas:
el horizonte de tiempo y los tiempos de muestreo son los mismos que en el
dise
no original
los lmites para los valores de S y P se consideran como el maximo y el mnimo
valor de estas variables en el dise
no original
los valores de P y S son invariantes con el tiempo para cada uno de los experimentos
De este modo, se intento encontrar un dise
no experimental alternativo de igual
dificultad practica que el original (es decir, al emplear los mismos tiempos de muestreo significa que se podran utilizar los mismos sensores, etc.).
Este problema fue resuelto mediante la minimizacion del criterio E, considerando 10 y 16 experimentos. Para su resolucion se emplearon los metodos globales DE,
SRES y SSm alcanzando los tres la solucion optima global. No obstante, como muestra la Figura 14.12 para el caso de 16 experimentos, SSm resulto ser un orden de
magnitud mas rapido que los otros dos. Ademas se utilizaron dos metodos locales,
fmincon y NOMADm, que quedaron atrapados en soluciones locales confirmando la
multimodalidad del problema y la necesidad de emplear metodos de optimizacion
global.
Los resultados se resumen en la Tabla 14.7, donde se muestran los valores del
criterio E y de otros criterios para el dise
no original y para los dise
nos resultantes.
El nuevo dise
no de 16 experimentos mejora el criterio E (empleado para la optimizacion) en un orden de magnitud. Ademas, tambien reduce el criterio E modificado
y simultaneamente mejora los demas. Sin embargo, debe destacarse que el criterio E
modificado del nuevo dise
no es tambien muy grande, indicando que todava existen
problemas de identificabilidad aunque en menor grado.

158

Captulo 14. Ruta bioqumica en tres pasos

0.018
fmincon
NOMADm
DE
SRES
SSm

Funcion objetivo = criterio E

0.016
0.014
0.012
0.01
0.008
0.006
0.004
0.002
0 0
10

10

10
10
Tiempo CPU (s)

10

10

Figura 14.12: Curvas de convergencia para el OED con 16 experimentos


El nuevo dise
no optimo para 10 experimentos tambien mejora el criterio E del
dise
no original aunque en menor medida. Esto era de esperar ya que menos experimentos significa menos informacion. Sin embargo, cabe destacar que, a pesar de
la reduccion sustancial del trabajo experimental de este nuevo dise
no, el criterio E
todava pudo ser mejorado significativamente.
Criterio

Dise
no
Original

Dise
no Opt.
(16 exp.)

Dise
no Opt.
(10 exp.)

Criterio E
Criterio E modificado
Criterio A
Criterio A modificado
Criterio D

1.658e-2
1.682e+6
6.040e-2
2.670e+8
2.264e+161

1.404e-3
8.673e+5
6.162e-3
9.434e+8
8.799e+185

2.586e-3
1.443e+6
1.181e-2
7.887e+8
5.428e+177

Tabla 14.7: Diseno original y disenos optimos para 16 y 10 experimentos

A partir del dise


no optimo para 16 experimentos se generaron nuevos valores
pseudo-experimentales y se volvio a calibrar el modelo dando lugar a valores muy
similares para los parametros y disminuyendo los intervalos de confianza de los que
aparecan mas correlacionados en el dise
no original.

14.8. Conclusiones

14.8.

159

Conclusiones

En este captulo se considero la estimacion de parametros y el dise


no experimental optimo para un modelo de una ruta bioqumica. Empleando el hbrido
SRES+n2fb para el problema de estimacion de parametros se obtuvieron soluciones
mejores que con el metodo SRES a solas en un tiempo computacional mucho mas
reducido. Ademas, esta metodologa demostro ser robusta cuando se maneja ruido
en las medidas. Sin embargo, empleando el metodo SSm el tiempo computacional
se reduce todava mas pasando de un rango de 35-40 horas con SRES a un par de
minutos, conservando la robustez.
El analisis de identificabilidad revelo correlaciones elevadas entre ciertos pares
de parametros que estaban ocasionando un mal condicionamiento del problema.
Mediante el uso de nuevos dise
nos experimentales se demostro que esta situacion
puede ser mejorada. Los parametros estimados utilizando datos experimentales obtenidos a partir del dise
no optimo presentaron intervalos de confianza menores que
los estimados con el dise
no original.
Los resultados del dise
no optimo de experimentos confirman la utilidad de esta
metodologa mejorando la precision de los parametros estimados a la vez que se
reduce el esfuerzo experimental.

Captulo 15
Cin
etica de la glucosa en pacientes
diab
eticos
15.1.

Introducci
on

La diabetes mellitus se define como un grupo de enfermedades metabolicas que


se caracterizan por altos niveles de glucosa en sangre (hiperglucemia) (Expert Committee on the Diagnosis and Classification of Diabetes Mellitus, 2003). Esta hiperglucemia es el resultado de defectos en la secrecion de insulina, en la accion de la
insulina, o en ambas. En la diabetes de tipo 1 hay una deficiencia absoluta de secrecion de insulina debido a la destruccion de las celulas . Las personas con diabetes
de tipo 1 son propensas a la cetoacidosis y son totalmente dependiente de insulina
exogena. Se estima que en el a
no 2000 haba 17.1 millones de personas con diabetes
de tipo 1 en todo el mundo (Wild et al., 2004; Eiselein et al., 2004).
En diabetes, la hiperglucemia cronica se asocia con complicaciones a largo plazo
debido a da
nos, disfunciones e insuficiencias en varios organos, especialmente ojos,
ri
nones, nervios, corazon y vasos sanguneos. Las mayores complicaciones son enfermedades cardacas, ataques de apopleja, retinopatas, nefropatas y neuropatas.

Estas
pueden eventualmente producir fallos renales, ceguera, amputacion y otros
tipos de morbilidad. Los sujetos con diabetes tienen un alto riesgo de sufrir enfermedades cardiovasculares y se enfrentan a una mayor morbilidad y mortalidad
cuando son enfermos crticos.
La eficacia de un tratamiento intensivo para la prevencion de complicaciones
diabeticas ha sido demostrada por el Ensayo sobre el Control y las Complicaciones de la Diabetes (Diabetes Control and Complications Trial, 1993) y el Estudio
Prospectivo de Diabetes del Reino Unido (United Kingdom Prospective Diabetes
Study, 1998). En ambos ensayos los regmenes de tratamiento que redujeron la me161

162

Captulo 15. Cinetica de la glucosa en pacientes diabeticos

dia de la hemoglobina glicosilada A1C (medida clnica del control glucemico que
refleja los niveles medios de glucosa en sangre durante los 2-3 meses precedentes) a
un aproximadamente 7 % (el rango normal es de 4-6 %) fueron asociados con pocas
complicaciones microvasculares a largo plazo. A pesar de ello, evidencias recientes
sugieren que estos niveles objetivo no son suficientemente bajos (Khaw et al., 2001;
Muntner et al., 2005).
Los tratamientos intensivos requieren m
ultiples inyecciones diarias de insulina
(tres o mas), o un tratamiento con una bomba de infusion de insulina (ver Figura
15.1). En cualquier caso, este control estricto (lo mas cercano posible a la normalidad) debe mantenerse de por vida para aprovechar todos los beneficios que confiere.
Hay muchos factores que influyen en la dosis de insulina requerida a traves del tiempo, incluyendo el peso, la condicion fsica y los niveles de estres. Debido a esto, se
requiere una monitorizacion frecuente de la glucosa en sangre. Basandose en estas
medidas, se puede modificar la dosificacion de la insulina, implementar cambios en
la dieta (como alteraciones en los horarios, frecuencia y contenido de las comidas)
y variar las pautas de actividad y ejercicio.

Figura 15.1: Bomba de infusion de insulina


Esto ha fomentado el desarrollo de sistemas de control retroalimentados que
puedan ajustar automaticamente las dosis de insulina (Bellazzi et al., 2001; Parker
et al., 2001; Bequette, 2005). Un componente crtico de estos esfuerzos es el desarrollo
de un modelo matematico que pueda ser empleado para probar la eficacia del sistema.
Hay varios modelos en la literatura aunque todos ellos fueron obtenidos utilizando
datos de sujetos sin diabetes. Para el presente estudio ha sido elegido uno de los
modelos recientemente publicados por Hovorka et al. (2004), sustituyendo el modelo
para la infusion subcutanea de insulina por el descrito por Wilinska et al. (2005).
Cinco sujetos con diabetes de tipo 1 fueron sometidos a un ensayo clnico en condiciones de hiperinsulinemia (Defronzo et al., 1979) y euglucemia durante el cual les
fue administrada una comida y la dosis correspondiente de insulina subcutanea (Bevier et al., 2006). En este captulo, los datos recogidos fueron utilizados para ajustar
los parametros del modelo utilizando metodos de optimizacion global. Los resultados

15.2. Modelo matematico

163

muestran que el modelo es capaz de describir las dinamicas observadas para sujetos
de tipo 1 y por lo tanto puede ser empleado para simular el comportamiento del
paciente en estas condiciones.

15.2.

Modelo matem
atico

El protocolo experimental se encuentra detallado en Bevier et al. (2006). El


principal objetivo del protocolo es reunir los datos de la respuesta de la glucosa en
sangre a una comida mixta y la correspondiente dosis de insulina subcutanea; el
procedimiento de la prueba permite garantizar que el sujeto se encuentra en estado
estacionario euglucemico en el momento que comienza la ingestion de la comida.
Cada sujeto se somete a este procedimiento dos veces, de modo que se tiene un
conjunto de datos independientes para cada uno con el que validar el modelo.
La glucosa en sangre es medida cada cinco minutos durante todo el experimento.
Los niveles de insulina en plasma tambien son medidos: cada 30 minutos hasta el
comienzo de la comida, despues cada 10 minutos durante 90 minutos, a continuacion
cada 15 minutos durante 45 minutos, despues cada 20 minutos durante 40 minutos y
finalmente cada 30 minutos hasta el final del experimento. Los datos experimentales
fueron procesados con un filtro de Hampel para eliminar los datos anomalos (outliers)
(Pearson, 2002).
El modelo propuesto por Hovorka et al. (2004) es un modelo compartamental
(ver Figura 15.2). Dos estados describen la glucosa en plasma y tejidos, uno es para
la insulina en plasma y el resto describen tres efectos diferentes de la insulina en
la dinamica de la glucosa. En general, el modelo consiste en las ecuaciones de un
balance de masa que se detallan a continuacion:

dQ1 (t)
c
= F01
x1 (t)Q1 (t) + k12 Q2 (t) FR
dt
+UG (t) + EGP0 [1 x3 (t)]
dQ2 (t)
= x1 (t)Q1 (t) [k12 + x2 (t)] Q2 (t)
dt
dx1 (t)
= ka1 x1 (t) + SIT ka1 I(t)
dt
dx2 (t)
= ka2 x2 (t) + SID ka2 I(t)
dt
dx3 (t)
= ka3 x3 (t) + kb3 I(t)
dt
G(t) = Q2 (t)/VG

(15.1)

(15.2)
(15.3)
(15.4)
(15.5)
(15.6)

164

Captulo 15. Cinetica de la glucosa en pacientes diabeticos

absorcin
intestinal
UG

EGP0

G=Q1/VG

Q1

k 12

Q2

Fc 01Q1/(GVG)-FR

k a1

absorcin
insulina
UI /VI

k a2

x1

kb2
x2

ke
ka3

k b1

x3

k b3

Figura 15.2: Estructura del modelo de Hovorka et al. (2004)


donde

c
F01

FR =
UG =

F01
F01 G/4.5

si G 4.5 mmol/L
en otro caso

0.003(G 9)VG si G 9 mmol/L


0
en otro caso

DG AG tet/tmax,G
t2max,G

(15.7)
(15.8)
(15.9)

El modelo captura algunos aspectos de la fisiologa que otros modelos o bien


ignoran o bien agrupan con otros parametros. Estos son la variacion del efecto de
la concentracion de glucosa en el flujo de glucosa no dependiente de la insulina, la
depuracion renal de glucosa y la produccion endogena de glucosa hepatica. Este u
ltimo efecto no se observa en nuestras condiciones experimentales, ya que es suprimido
por la hiperinsulinemia, por lo tanto se eliminara este termino del modelo para la
estimacion de parametros, as como el correspondiente al estado x3 (t).
En una publicacion posterior, el mismo grupo realizo un modelado mas detallado
para la dinamica de la absorcion de insulina para una infusion subcutanea (Wilinska
et al., 2005). El modelo que destacan con mejores resultados (Modelo 10) divide la
absorcion de insulina en un canal lento y otro rapido, basandose en que la forma
monomerica de la insulina va a ser absorbida mas rapidamente que la forma dimerica.
El modelo tambien incluye la degradacion local de insulina en el espacio de los
tejidos. La estructura del modelo se muestra en la Figura 15.3.

15.3. Ranking de parametros

165

canal lento
ku

ka1

Q1a
1

Q2

LDa
ka1

canal rpido
(1-k)u

ka2
Q1a
1

insulina en
plasma

Q2

ke

Figura 15.3: Estructura del modelo de infusion de insulina (Wilinska et al., 2005)
Las ecuaciones que describen la cinetica de la insulina son:
dQI1a (t)
dt
dQI1b (t)
dt
dQI2 (t)
dt
dI(t)
dt

= ku(t) kia1 QI1a (t) LDa

(15.10)

= (1 k)u(t) kia2 QI1b (t) LDb

(15.11)

= kia1 QI1a (t) kia1 QI2

(15.12)

1
(kia1 QI2 + kia2 QI1b (t)) ke I(t)
VI

(15.13)

donde

15.3.

LDa =

Vmax,ld QI1a
km,ld +QI1a

(15.14)

LDb =

Vmax,ld QI1b
km,ld +QI1b

(15.15)

Ranking de par
ametros

En la Figura 15.4 se representa el valor de los criterios de los criterios descritos


en la seccion 3.3 para los 4 parametros a estimar. Los parametros aparecen en orden
decreciente de acuerdo con el criterio msqr y sus valores numericos se muestran en la
Tabla 15.1. Estos resultados no reflejan grandes diferencias en los valores de msqr
para los distintos parametros lo que indica que no hay mucha diferencia entre la
sensibilidad de la salida del modelo con respecto a variaciones en cada uno de ellos.
Entre msqr y mabs tampoco hay grandes diferencias indicando que no existe mucha

166

Captulo 15. Cinetica de la glucosa en pacientes diabeticos

1
d

msqr

0.8

dmabs

0.6

mean

dmax

Valor del criterio

0.4

dmin

0.2
0
0.2
0.4
0.6
0.8
1
SIT

SID

F01

tmaxG

Parmetros

Figura 15.4: Parametros ordenados por orden decreciente de msqr


Param

pn

Val nom

msqr

mabs

mean

max

min

SIT
SID

p1
p2
p4
p3

5.12e-3
8.20e-4
4.00e+1
9.70e-3

8.17e-1
3.96e-1
2.53e-1
1.86e-1

7.83e-1
3.62e-1
1.36e-1
1.68e-1

-7.83e-1
-3.62e-1
-9.81e-2
-1.68e-1

0.00e+0
0.00e+0
3.05e-1
0.00e+0

-9.65e-1
-5.12e-1
-6.61e-1
-3.00e-1

tmax,G
F01

Tabla 15.1: Valores para el ranking de parametros


variabilidad en las sensibilidades de los distintos estados con respecto a un mismo
parametro (Sj ). El efecto global de las sensibilidades para todos los parametros es
negativo tal y como indica el signo de mean .

15.4.

Estimaci
on de par
ametros

Es bien sabido que los parametros del sistema glucorregulatorio varan considerablemente entre sujetos, por lo tanto, la estimacion de parametros se realizo por
separado para cada uno de los pacientes. Utilizando varios metodos de optimizacion,
se estimaron los parametros correspondientes al sistema de glucosa (F01 , SIT , SID )
y tambien tmax,G considerada una constante del modelo por Hovorka et al. (2004).
Los parametros relacionados con el sistema de insulina se mantuvieron en sus valores nominales. Para los metodos que requieren un valor inicial para los parametros
se consideraron los valores de la bibliografa. Los lmites inferiores y superiores se
muestran en la Tabla 15.2.

15.4. Estimacion de parametros

167

Par
ametro

Val inicial

Lmite inf

Lmite sup

SIT
SID
F01

5.12e-3
8.20e-4
9.70e-3
4.00e+1

1.00e-5
1.00e-5
1.00e-5
2.00e+1

1.00e+0
1.00e+0
1.00e+0
1.00e+2

tmax,G

Tabla 15.2: Valores nominales y lmites para los cuatro parametros


En un primer momento se resolvio el problema empleando un metodo SQP en
modo multi-start. En la Figura 15.5 se muestra la frecuencia de las soluciones para
el primer paciente. Este metodo local convergio a soluciones que ajustan bastante
bien los datos experimentales pero, dado que se desconoce el valor de la funcion
objetivo en el optimo y debido a la naturaleza del metodo, no se puede saber si la
solucion obtenida corresponde al optimo global. Por ello, se hace necesario resolver
el problema empleando metodos de optimizacion global que proporciones mayores
garantas de convergencia a la solucion optima global.
80
70

Frecuencia

60
50
40
30
20
10
0
0

0.5

1.5
2
Funcin objetivo

2.5

3
5

x 10

Figura 15.5: Frecuencia de las soluciones de un SQP en


modo multi-start
Por este motivo, se emplearon los metodos globales SRES, DE y SSm. Los tres
metodos convergieron a la solucion optima global en un tiempo reducido siendo SSm
el mas rapido de los tres. En la Figura 15.6 se muestran las curvas de convergen-

168

Captulo 15. Cinetica de la glucosa en pacientes diabeticos

cia para los tres metodos durante la estimacion de parametros correspondientes al


primer paciente (para los demas pacientes los resultados obtenidos fueron similares).
4

x 10

SRES
DE
SSm

Funcin objetivo

6 8 10
Tiempo CPU (s)

20

40

60

Figura 15.6: Curvas de convergencia de SRES, DE y SSm


En la Tabla 15.3 se muestran los valores de los parametros obtenidos para cada
uno de los cinco pacientes.

SIT
SID
F01
tmax,G

Paciente 1

Paciente 2

Paciente 3

Paciente 4

Paciente 5

5.05e-3
1.49e-5
2.36e-2
3.82e+1

2.48e-3
9.94e-5
2.70e-2
5.58e+1

4.49e-3
2.18e-5
2.55e-2
5.63e+1

5.57e-4
1.00e-5
5.25e-2
8.92e+1

1.73e-3
1.00e-5
3.60e-2
8.75e+1

Tabla 15.3: Valores de los parametros optimos para cada paciente


La Figura 15.7 representa el error entre los datos experimentales y los datos
predichos por el modelo para la concentracion de glucosa como funcion del tiempo, mostrando buena concordancia para los cinco sujetos. Los valores medios de los
errores absolutos para la concentracion de glucosa se dan en la Tabla 15.4. Se observa que los parametros estimados son apropiados y que la dinamica del sistema es
capturada. Los errores medios son inferiores al 5 % para todos los sujetos a estudio.

15.4. Estimacion de parametros

169

Paciente 1
Paciente 2
Paciente 3
Paciente 4
Paciente 5

Error de Prediccin (%)

10

10
200

250

300
Tiempo (min)

350

400

Figura 15.7: Porcentaje de error entre los datos


experimentales y los predichos
Paciente 1

Paciente 2

Paciente 3

Paciente 4

Paciente 5

4.41 %

3.71 %

3.07 %

4.19 %

4.79 %

Tabla 15.4: Valor medio de los errores de prediccion para los niveles de glucosa

Los parametros ajustados para un sujeto a partir de los datos de un experimento


fueron validados con los datos de un segundo experimento. Para el sujeto 1, la Figura
15.8 muestra el ajuste del modelo basado en la primera prueba y la Figura 15.9, los
resultados de la segunda prueba comparados con la prediccion del modelo para esas
condiciones empleando el mejor conjunto de parametros encontrado utilizando los
datos experimentales de la primera.
Para los objetivos del estudio, el factor mas importante es la tendencia y esta es
capturada por el modelo cuando se utiliza para predecir los resultados de la prueba
de validacion. El error en si mismo no es malo, considerando que los dos experimentos
fueron realizados en un intervalo mas de tres meses, un periodo de tiempo suficiente
para que el peso del sujeto, su condicion fsica y otros factores que afectan estas
dinamicas hubiesen cambiado en cierta medida. Las diferencias observadas pueden
ser facilmente explicadas por un aumento en la sensibilidad a la insulina durante el
segundo experimento en comparacion con el primero.

170

Captulo 15. Cinetica de la glucosa en pacientes diabeticos

120

140

120

100

100
Glucosa (mg/dl)

Glucosa (mg/dl)

80

60

80

60

40
40
20

datos experimentales
data filtrados
prediccin del modelo
0

50

100

150
200
Tiempo (min)

250

300

datos experimentales
datos filtrados
prediccin del modelo

20

350

50

100

150

200
250
Tiempo (min)

300

350

Figura 15.8: Ajuste del modelo con los

Figura 15.9: Validacion del ajuste con

datos del experimento 1

los datos del experimento 2

15.5.

400

Identificabilidad a posteriori

Para asegurar que el problema de estimacion de parametros esta bien planteado,


deben realizarse pruebas sobre la identificabilidad de los parametros. La identificabilidad practica fue evaluada mediante la matriz de correlacion, calculada a partir
de la matriz de informacion de Fisher como se detalla en 4.3.
La matriz de correlacion (ver Figura 15.10) no presenta elementos iguales a +1
o -1 fuera de la diagonal (la mayor correlacion se encuentra entre SID y SIT con
un valor de R1,2 = 0.77), lo que significa que todos los parametros son localmente
identificables en la practica.
1
0.8

tmaxG

0.6
0.4
F01

0.2
0
0.2

SID

0.4
0.6
SIT

0.8
SIT

SID

F01

tmaxG

Figura 15.10: Matriz de correlacion a posteriori

15.6. Intervalos de confianza

15.6.

171

Intervalos de confianza

El valor medio de los parametros estimados para los 5 pacientes y su desviacion


estandar, se muestran en la Tabla 15.5 junto con los valores publicados por Hovorka
et al. (2004).
Par
ametro

Hovorka et al. (2004)

Valor
optimo

Desv estd

SIT
SID
F01

5.12e-3
8.20e-4
9.70e-3
4.00e+1

2.86e-3
3.12e-5
3.29e-2
6.54e+1

1.88e-3
3.84e-5
1.19e-2
2.22e+1

tmax,G

Tabla 15.5: Valores y desviacion estandar de los parametros optimos


Cabe destacar que, a pesar de que los parametros del sistema glucorregulatorio
varan entre sujetos y por eso su estimacion se realiza por separado, la desviacion
estandar de algunos de ellos es relativamente peque
na.

15.7.

Conclusiones

En este captulo se considero la calibracion de un modelo para la cinetica de


la glucosa en pacientes con diabetes de tipo I. El metodo SSm demostro converger
en un tiempo computacional reducido al optimo global proporcionando un buen
ajuste de los datos experimentales. La validacion del modelo con otros conjuntos de
datos experimentales fue satisfactoria demostrando que el modelo evaluado es capaz
de describir las dinamicas observadas bajo el protocolo experimental del ensayo
hiperinulinmico-euglucemico incluyendo una comida.
Esto sugiere que el modelo considerado puede servir como punto de partida para
la incorporacion de otros efectos que ning
un otro modelo describe actualmente. Estas
otras dinamicas estan relacionadas con la variacion circadiana en la sensibilidad
a la insulina, cambios en el ritmo de flujo (debidos y no debidos a la insulina)
dependiendo de los niveles de actividad fsica, y respuestas contra-regulatorias a
hipoglucemia, estres y otros.

Parte IV
Conclusiones

Conclusiones
En esta tesis se abordo el modelado y la identificacion de procesos relacionados con la industria alimentaria y biotecnologica. Debido a la compleja estructura
de estos modelos, descritos en su mayora por sistemas de ecuaciones algebraicas y
diferenciales ordinarias y/o en derivadas parciales de naturaleza no lineal, se desarrollo una metodologa en varios pasos para la adecuada resolucion del problema
inverso asociado.
La primera parte de este trabajo se centro en el problema de estimacion de
parametros. Como conclusiones y resultados mas relevantes cabe destacar:
Los metodos locales basados en el gradiente, empleados habitualmente para
el ajuste de sistemas dinamicos no lineales, presentan a menudo problemas de
convergencia local dando lugar a conclusiones erroneas sobre la validez de los
modelos.
La mayora de los metodos de optimizacion global capaces de resolver este tipo
de problemas dan lugar a tiempos de calculo excesivos, especialmente cuando
se requiere una gran precision para la solucion.
Con objeto de superar estas dificultades se desarrollo un metodo hbrido estocastico-determinista (SRES+n2fb) y se emplearon otras metaheursticas alternativas (SSm) para la calibracion de los modelos considerados. Mediante
la resolucion de una serie de problemas de complejidad media-alta, estas estrategias han demostrado mejorar la eficiencia sin perder robustez, manejando
adecuadamente medidas con ruido y observaciones parciales. En todos los problemas considerados, SSm resulto ser al menos dos ordenes de magnitud mas
rapido que metodos estocasticos de probada eficacia como SRES y DE.
El valor de los parametros estimados siempre debe ir acompa
nado de una medida objetiva de su precision. Para ello se calcularon los intervalos de confianza
mediante la aproximacion de Cr`amer-Rao y mediante el metodo de Monte
Carlo resultando esta u
ltima aproximacion mas robusta.
175

176

Conclusiones

En una segunda parte se realizo un estudio sobre de los diferentes metodos para el
calculo de sensibilidades y el analisis de identificabilidad obteniendose las siguientes
conclusiones:
El estudio de la identificabilidad estructural global es muy complejo para modelos no lineales. Para algunos de los modelos considerados (el relativo al secado de alimentos y el correspondiente a la isomerizacion termica del -pineno)
se pudo estudiar la identificabilidad estructural mediante el metodo de series
de Taylor. A pesar de que las tecnicas basadas en algebra diferencial hayan
demostrado resultados prometedores, la aplicabilidad de las tecnicas existentes
en la actualidad es limitada (Dokos y Lovell, 2004; Baker et al., 2005) por lo
que para otros de los modelos considerados no fue posible realizar este analisis.
El analisis de sensibilidades permitio establecer un ranking en funcion de la
importancia de los parametros de modo que los que demostraron tener poco
efecto pudieron ser simplificados o incluso ignorados. Dado el caracter local
de este procedimiento, este debe realizarse con especial cautela y siempre de
modo iterativo para evitar descartar parametros poco importantes en fases
intermedias que afecten significativamente a las predicciones del modelo una
vez encontrado el optimo global. Por este motivo, siempre que fue posible, se
intento llevar a cabo la estimacion del conjunto completo de los parametros
del modelo.
Se realizo el chequeo de la identificabilidad practica de todos los modelos
considerados. En algunos casos, como en el modelo de la ruta bioqumica
en tres pasos, al llevar a cabo el estudio de identificabilidad a posteriori se
vieron algunos pares de parametros altamente correlacionados. A pesar de estos
resultados, al realizar la identificacion con metodos globales, se comprobo que
los parametros s pueden ser determinados de forma u
nica. Esto lleva a pensar
que, como ya han indicado otros autores como Petersen et al. (2001), en algunos
casos la matriz de informacion de Fisher resulta inadecuada para evaluar la
identificabilidad practica. Debido a la linealizacion de primer orden del modelo
con respecto a los parametros en la que se basa la FIM, se podra estar
perdiendo alguna informacion sobre los parametros lo que hace que en algunas
ocasiones estos sean identificables a
un cuando la FIM sea singular.
En la tercera parte de este trabajo se considero e problema de dise
no optimo de
experimentos. Basandose en los resultados obtenidos se puede concluir que:

Conclusiones

177

El dise
no optimo de experimentos mediante tecnicas de optimizacion dinamica
consiguio reducir los problemas de identificabilidad practica de algunos modelos a la vez que se aumento la precision de los parametros estimados.
Esta tecnica permite ademas reducir el esfuerzo experimental con el consiguiente beneficio economico que esto supone a nivel industrial.
Debido a la multimodalidad de este tipo de problemas, el uso de metodos
globales permitio asegurar que los nuevos experimentos dise
nados son globalmente optimos y evitar la convergencia a soluciones esp
ureas experimentada
por los metodos locales.
Los resultados obtenidos con los distintos criterios sugieren el uso de otras formulaciones alternativas a ser estudiadas en trabajos futuros como, por ejemplo,
formulaciones multi-objetivo para considerar simultaneamente varios criterios
basados en la matriz de informacion de Fisher.
La cuarta parte de este trabajo consistio en el desarrollo de un entorno de trabajo
(GOSBio) para la automatizacion de estas tareas dando lugar a una herramienta de
las siguientes caractersticas:
El entorno principal se logro empleando codigo Matlab y creando pasarelas
para llamar a codigos Fortran externos para la simulacion, el computo de las
sensibilidades parametricas y algunos metodos de optimizacion como n2fb.
Esto permitio reducir considerablemente el esfuerzo de calculo con respecto
a una implementacion completa en Matlab, manteniendose todas las ventajas
de este lenguaje en cuanto a facilidad de implementacion y visualizacion de
los resultados.
La simplicidad de uso del codigo desarrollado, su versatilidad y su rapidez lo
convierten en una herramienta practica y eficaz que puede ser empleada para
el modelado e identificacion de un amplio rango de modelos no lineales.
Por u
ltimo, la utilidad y potencial de esta metodologa se ilustro mediante el modelado e identificacion de una serie de procesos de complejidad media-alta tomados
del area de ingeniera de bioprocesos. Las principales conclusiones fueron:
Secado de alimentos: mediante la aproximacion de Taylor se detectaron problemas de identificabilidad estructural en este modelo. La eliminacion de los
parametros no identificables y el empleo de metodos de optimizacion global
para la calibracion de los parametros identificables a priori permitio estimarlos
con gran precision como muestran los intervalos de confianza calculados.

178

Conclusiones

Procesamiento termico de alimentos: los resultados obtenidos del dise


no optimo de experimentos para un esquema de esterilizacion termica de alimentos
enlatados permitio no solo reducir los problemas de identificabilidad del modelo y aumentar la precision de los parametros estimados sino tambien disminuir
el esfuerzo experimental requerido con el consiguiente ahorro economico.
Isomerizacion del -pineno: mediante la aproximacion de Taylor se demostro la
identificabilidad estructural de todos los parametros de este modelo. Sin embargo, la multimodalidad del problema inverso asociado hizo que solo la metaheurstica SSm fuese capaz de alcanzar la solucion global en un tiempo de
calculo reducido lo que la convierte en una estrategia muy recomendable para
la resolucion de esta clase de problemas.
Inhibicion de la proteasa del HIV: el metodo SSm resulto ser una estrategia
muy eficaz para la resolucion del problema de estimacion de parametros asociado a este modelo. Sin embargo, el analisis de identificabilidad a posteriori
y los intervalos de confianza calculados demostraron que el buen ajuste de
los datos experimentales no es siempre garanta de una buena calibracion del
modelo. De hecho, cuando los modelos presentan problemas de identificabilidad, los parametros estimados para un conjunto de datos no seran capaces
de reproducir el comportamiento del modelo en condiciones experimentales
diferentes.
Funcion de las caspasas en la apoptosis: como en el caso del modelo anterior, el metodos SSm encontro un conjunto de parametros que ajustan bien los
datos experimentales en un tiempo de calculo reducido. Sin embargo, los problemas de identificabilidad a posteriori detectados no permiten asegurar que
estos parametros sean capaces de reproducir el comportamiento del sistema
en condiciones experimentales diferentes.
Ruta bioqumica en tres pasos: este problema, especialmente costoso desde
el punto de vista computacional, permitio comparar la eficacia de distintas
metodologas demostrando la eficacia de las estrategias hbridas frente a los
metodos estocasticos puros. Ademas, el dise
no optimo de nuevos experimentos
permitio mejorar la precision de los parametros estimados a la vez que se redujo
el esfuerzo experimental.
Cinetica de la glucosa en pacientes diabeticos: el metodo SSm permitio obtener un buen ajuste de los datos experimentales para todos los pacientes a
estudio. La validacion del modelo con otros conjuntos de datos experimentales

Conclusiones

179

no empleados para la calibracion confirmo que el modelo evaluado es capaz de


describir las dinamicas observadas bajo el protocolo experimental considerado.

Parte V
Ap
endices

Ap
endice A
Ejemplo de fichero de entrada
para el entorno GOSBio
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
USER MUST INTRODUCE HERE PROBLEM RELATED DATA:
%
%
--> SIMULATION DATA
%
%
--> OPTIMIZATION RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% User may change the name of the function according to his/her necessities
% Please, remember to save the file as name_function.m
function[problem_input,ivp_solver,opt_solver,results]=mendes_input_data;
% problem_input.folder: folder to keep problem related files.
problem_input.folder=Mendes;
% Folder to keep all output files:
%
General input report for a particular run.
%
Optimizer report.
%
Plots: Best fit and Convergence curve when available
results.folder=results_SSm_noise_5_run_1;
% problem_input.report: file to keep input/output information for each different run
results.report=results.m;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
ANALYSIS TO BE PERFORMED
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% PE
Parameter estimation
% OED
Optimal experimental design
% prior_analysis
Performs: Ranking of parameters and local a priori identifiability analysis
% post_analysis
Performs practical identifiability analysis
% all
Performs a priori analysis, OED and a posteriori analysis
problem_input.task=PE;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
MODEL RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% results.n_states: number of state variables.
problem_input.n_states=8;

183

184

Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio

% ODES/DAES describing the system may be supplied in the following manners:


%
1: fcn.f: Fortran file, as follows
%
SUBROUTINE FCN(N,X,Y,YDOT,PAR,IPAR,U)
%
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
%
DIMENSION Y(N),YDOT(N),PAR(*),IPAR(*),U(*)
%
YDOT=F(...) OR M*YDOT=F(...)
%
RETURN
%
END
%
DAE solution may be approached using RKF45 or RADAU5.
%
Note that fcn.f will vary with the solver
%
2: fcn.m: Matlab file as follows,
%
function yteor = fcn(t,y,par)
%
DAE system will be solved using ode15s
%
3: problem_input.ydot: a "char" type vector including the equations.
%
Code will generate fortran files DAE solution may be
%
approached using RKF45 or RADAU5
%
4: function yteor = fcn(t,y,par,u)
problem_input.model_type=3;
problem_input.ydot=char(...
ydot(1)=par(28)*y(3)*(1.0d0/par(29))*(u(1)-y(1))/(1.0d0+(u(1)/par(29))+(y(1)/par(30))),...
-par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33))),...
ydot(2)=par(31)*y(4)*(1.0d0/par(32))*(y(1)-y(2))/(1.0d0+(y(1)/par(32))+(y(2)/par(33))),...
-par(34)*y(5)*(1.0d0/par(35))*(y(2)-u(2))/(1.0d0+(y(2)/par(35))+(u(2)/par(36))),...
ydot(3)=par(19)*y(6)/(par(20)+y(6))-par(21)*y(3),...
ydot(4)=par(22)*y(7)/(par(23)+y(7))-par(24)*y(4),...
ydot(5)=par(25)*y(8)/(par(26)+y(8))-par(27)*y(5),...
ydot(6)=par(1)/(1.0d0+(u(2)/par(2))**par(3)+(par(4)/u(1))**par(5))-par(6)*y(6),...
ydot(7)=par(7)/(1.0d0+(u(2)/par(8))**par(9)+(par(10)/y(1))**par(11))-par(12)*y(7),...
ydot(8)=par(13)/(1.0d0+(u(2)/par(14))**par(15)+(par(16)/y(2))**par(17))-par(18)*y(8));
% problem_input.y0: fixed initial conditions
problem_input.y0= [1.4190 9.3464e-1 4.0e-1 3.6409e-1 2.9457e-1 6.6667e-1 5.7254e-1 4.1758e-1];
% Initial conditions for the parametric sensitivities. This matrix will be zero unless the
%
initial condition for a particular state depends on any parameter
problem_input.sens0=zeros(problem_input.n_states,problem_input.n_par);
% problem_input.n_par: number of model parameters (initial conditions not included here)
problem_input.n_par=36;
% problem_input.par: vector of parameters (nominal values)
problem_input.par=[1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0 1.0 1.0 1.0 2.0 1.0 2.0,...
1.0 0.1 1.0 0.1 0.1 1.0 0.1 0.1 1.0 0.1 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0];
% problem_input.n_theta_par: number of parameters to be considered
problem_input.n_theta_par= 36;
% problem_input.index_theta_par: index of parameters to be considered within vector par
problem_input.index_theta_par=[1 : 1 : 36];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
INPUT DATA TO CALCULATE THE OBJECTIVE FUNCTION. EXPERIMENTAL DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_exp: number of experiments
problem_input.n_exp=16;
for iexp=1:problem_input.n_exp

Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio

% Measured states for experiment


%
n_obs{iexp}: number of measured states for each experiment
problem_input.n_obs{iexp}=8;
% problem_input.ms includes the vector of states, or functions of states,
% to be measured. Note the brackets { } used.
problem_input.ms{iexp}=char(ms(:,1)=y(:,1),...
ms(:,2)=y(:,2),...
ms(:,3)=y(:,3),...
ms(:,4)=y(:,4),...
ms(:,5)=y(:,5),...
ms(:,6)=y(:,6),...
ms(:,7)=y(:,7),...
ms(:,8)=y(:,8));
% problem_input.n_theta_y0: number of initial conditions to be estimated
problem_input.n_theta_y0{iexp}=0;
% problem_input.index_theta_y0: index of initial conditions to be estimated
problem_input.index_theta_y0{iexp}=[];
% problem_input.y0{i}: vector of fixed initial conditions
problem_input.exp_y0{iexp}=problem_input.y0;
% n_m: Number of measurements
problem_input.n_m{iexp}=21;
% problem_input.t_in{i}: initial process time
problem_input.t_in{iexp}=0;
% problem_input.t_f{i}: final process time
problem_input.t_f{iexp}=120;
% problem_input.t_m{iexp}: Sampling times, for non equidistant measurements
% problem_input.t0{iexp}: initial sampling time >= t_in{iexp}
problem_input.t0{iexp}=problem_input.t_in{iexp};
% Equidistant measurements
problem_input.t_m{iexp}=[0:6:120];
% measurement_type:
%
sim: the code will generate a pseudo_data, using par0, rel_error, and tm
%
real: the code will use real data, rel_error must be fixed to 1 in this case
%
problem_input.measurement_type=sim;
% problem_input.noise_type: for simulated experimental data
%
1: exp_data= yteor*(1+rel_error*rand)
%
0: exp_data= yteor+rel_error*rand (suitable for normalized values)
%
problem_input.noise_type=1;
% exp_data{i}: to be defined only in case measurement_type=real, is a matrix N_m x n_m_states,
%
where the different columns correspond to the state measurements
% problem_input.rel_error: relative error introduced to pseudo-measurements.

185

186

Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio

%
For the case experimental data is provided this value should be fixed to 1.0
problem_input.rel_error{iexp}=0.05;
% problem_input.fobj_norm:
%
1: to normalize objective function with max experimental data.
%
0: no normalization is applied problem_input.
problem_input.fobj_norm=1;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
OBJECTIVE FUNCTION FOR OPTIMAL EXPERIMENTAL DESIGN
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.fobj_type: Function of the FIM to be minimized
% A_optimality = trace(inv(FIM))
% A_modified = -trace(FIM)
(maximize trace(FIM))
% D_optimality = -det(FIM)
(maximize det(FIM))
% E_optimality = -min(abs(eig(FIM))) (maximize min(eig(FIM)))
% E_modified = max(abs(eig(FIM)))/min(abs(eig(FIM)))
problem_input.fobj_type=D_optimality;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
CONTROL RELATED DATA FOR EACH EXPERIMENT {i}
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% problem_input.n_u: number of control variables >=1 for experiment {i}:1-n_exp
problem_input.n_u=2;
% problem_input.n_con: number of control steps >=1 for experiment {i}:1-n_exp
problem_input.n_con{iexp}=1;
% problem_input.u: control variable for experiment {i}:1-n_exp
S_list = [0.1 0.1 0.1 0.1 0.46416 0.46416 0.46416 0.46416 2.1544 2.1544 2.1544 2.1544 10 10 10 10];
P_list = [0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1 0.05 0.13572 0.3684 1];
problem_input.u{iexp}(1,:)=S_list(iexp);
problem_input.u{iexp}(2,:)=P_list(iexp);
% t_con: temporal control switching points for experiment {i}:1-n_exp
% t_con(n_con)=tf
% problem_input.t_con=[];
problem_input.t_con{iexp}=[120.0];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
ODE SOLVER RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Select the solver to be used from the following alternatives
%
radau5: BDF based method suitable also for DAEs
%
rkf45 : Runge-Kutta-Fehlberg ODE Solver
%
ode15s: MATLAB code to be used when fcn.m is provided
%
odessa: BDF based method suitable for parametric sensitivity analysis
ivp_solver.name= radau5;
% rtol/atol: integration tolerances
ivp_solver.rtol = 1.0D-6;
ivp_solver.atol = 1.0D-6;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
NLP SOLVER RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

Apendice A. Ejemplo de fichero de entrada para el entorno GOSBio

187

% Select the solver to be used from the following alternatives


%
simulate: will perform a simulation for the initial guess provided by user
%
DE: Differential Evolution (Rainer and Storm, 1997)
%
SRES: Stochastic Ranking Evolutionary Search (Runarsson and Yao, 2000)
%
SSm: Scatter Search, Matlab version, J. Egeas - SSm beta 2.5
%
only_local
%
multistart
opt_solver.name=SSm;
opt_solver.n_starts=100;
% To be used in multistart
opt_solver.local_solver=n2fb; % To be used in multistart or only_local
% opt_solver.par_guess/par_min/par_max: Initial guess/lower/upper bounds for the parameters
opt_solver.par_guess=[500 500 5 500 5 500 500 500 5 500 5 500 500 500 5 500 5 500 500 500,...
500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 500 ];
opt_solver.par_min=[1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12,...
1.e-12 0.1 1.e-12 0.1 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 ,...
1.e-12 1.e-12 1.e-12 1.e-12 1.e-12 1e-12 1.e-12 1.e-12 1.e-12 1.e-12 1.e-12];
opt_solver.par_max=[1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3 10. 1.e3 10. 1.e3 1.e3 1.e3,...
10. 1.e3 10. 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3,...
1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3 1.e3];
% opt_solver.y0_guess/y0_in/y0_max:
%
initial guess/lower/upper bounds for the initial conditions to be estimated
opt_solver.y0_guess{iexp}=[];
opt_solver.y0_min{iexp}=[];
opt_solver.y0_max{iexp}=[] ;
% opt_solver.u_guess/u_min/u_max: Initial guess/lower/upper bounds for the controls
opt_solver.u_guess{iexp}(1,:)=S_list(iexp);
opt_solver.u_guess{iexp}(2,:)=P_list(iexp);
opt_solver.u_min{iexp}(1,:)=ones(1,problem_input.n_con{iexp})*0.05;
opt_solver.u_min{iexp}(2,:)=ones(1,problem_input.n_con{iexp})*0.05;
opt_solver.u_max{iexp}(1,:)=ones(1,problem_input.n_con{iexp})*10.0;
opt_solver.u_max{iexp}(2,:)=ones(1,problem_input.n_con{iexp})*10.0;
% opt_solver.t_f{iexp}/tf_min/tf_max
opt_solver.tf_guess{iexp}=[120];
opt_solver.tf_min{iexp}=[120];
opt_solver.tf_max{iexp}=[120];
end %iexp
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%
OUTPUT RELATED DATA
%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Names for the figures. The name of opt and ivp solvers will be added to the names provided here
results.fit_plot=fit_plot;
results.convergence_curve=conv_curve;
results.histogram=histogram; results.residuals_plot=residuals;
results.correlation=correlation_matrix;
return

Parte VI
Bibliografa

Bibliografa
[1] J. Abadie y J. Carpentier. Optimization, captulo: Generalization of the
Wolfe Reduced Gradient Method to the case of Nonlinear Constraints. Academic Press, New York, 1969.
[2] M. A. Abramson. Pattern Search Algorithms for Mixed Variable General Constrained Optimization Problems. Tesis doctoral, Houston, Texas, Rice
University, 2002.
orn. Application of stochastic global optimiza[3] M.M. Ali, C. Storey y A. T
tion algorithms to practical problems. J. of Opt. Th. and Appl., 95(3):545563,
1997.
[4] S. P. Asprey y S. Macchietto. Designing robust optimal dynamic experiments. J. of Biotechnology, 12(4):545556, 2002.
[5] A. C. Atkinson y W. G. Hunter. The design of experiments for parameter
estimation. Technometrics, 10:271289, 1968.
[6] S. Audoly, G. Bellu, L. DAngio, M.P. Saccomani y C. Cobelli. Global
identifiability of nonlinear models of biological systems. IEEE Trans Biomedical Engineering., 48(1):5565, 2001.
[7] B. M. Averick, R. G. Carter y J. J. More. The minpack-2 test problem
collection. Technical Report ANL/MCS-TM-273, Argonne National Laboratory., 1991.
[8] C. T. H. Baker, G. A. Bocharov, C. A. H. Paul y F. A. Rihan.
Computational modelling with functional differential equations: Identification,
selection, and sensitivity. Applied Numerical Mathematics, 53:107129, 2005.
[9] M. Balaban. Effect of volume change in foods on the temperature and moisture content predictions of simultaneous heat and moisture transfer models.
Journal of Food Process Engineering, 12:6788, 1989.
191

192

Bibliografa

[10] E. Balsa-Canto. Algoritmos Eficientes para la Optimizacion Dinamica de


Procesos Distribuidos. Tesis doctoral, Universidad de Vigo, 2001.
[11] E. Balsa-Canto, A. A. Alonso y J. R. Banga. Microwave heating of
foods: Model predictive control using reduced order models. En ACoFoP IV
(Automatic Control of Food and Biological Processes), Goteborg, Sweden, Septiembre 1998.
[12] E. Balsa-Canto, J. R. Banga y A. A. Alonso. A novel, efficient and reliable method for thermal process design and optimization. Part II: applications.
J. of Food Engineering, 52:225247, 2002.
[13] E. Balsa-Canto y M. Rodriguez-Fernandez. GOSBio- Part II: Optimal
experimental design for nonlinear dynamic systems, with applications in Systems Biology. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.
[14] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martn. Degradation
kinetics of protein digestibility and available lysine during thermal processing
of tuna. Journal of Food Science, 57(4):913915, 1992.
[15] J. R. Banga, A. A. Alonso, J. M. Gallardo y R. P. Martn. Kinetics of
thermal degradation of thiamine and surface color in canned tuna. Zeitschrift
fur lebensmittel-untersuchung und-forchung, 197(2):127131, 1993.
[16] J. R. Banga, A. A. Alonso y R. P. Singh. Stochastic dynamic optimization of batch and semicontinuous bioprocesses. Biotechnology Progress,
13(3):326335, 1997.
[17] J. R. Banga, E. Balsa-Canto, Moles C.G. y A. A. Alonso. Dynamic
optimization of bioprocesses: Efficient and robust numerical strategies. J. of
Biotechnology, 117:407419, 2005.
[18] J. R. Banga, R. P. Martn, J. M. Gallardo y J. J. Casares. Optimization of thermal processing of conduction-heated canned foods: Study of
several objective functions. J. Food Engineering, 14(1):2551, 1991.
[19] J. R. Banga y W. D. Seider. Global optimization of chemical processes
using stochastic algorithms, paginas 563583. Kluwer Academic Pub., Dordrecht, The Netherlands, 1996.
[20] J. R. Banga y R. P. Singh. Optimization of the air drying of foods. J.
Food Eng., 23:189211, 1994.

Bibliografa

193

[21] J.R. Banga, E. Balsa-Canto, C.G. Moles y A.A. Alonso. Improving


food processing using modern optimization methods. Trends Food Sci. Tech.,
14:131144, 2003.
[22] J.R. Banga, C.G. Moles y A.A. Alonso. Frontiers In Global Optimization., captulo: Global optimization of bioprocesses using stochastic and hybrid
methods., paginas 4570. Nonconvex Optimization and Its Applications, vol.
74. Kluwer Academic Publishers, 2003.
[23] J.R. Banga, K.J. Versyck y J. F. Van Impe. Computation of optimal identification experiments for nonlinear dynamic process models: an stochastic global optimization approach. Industrial and Engineering Chemistry
Research., 41:24252430, 2002.
[24] D. M. Bates y D. G. Watts. Nonlinear Regression Analysis and its Applications. Wiley, 1988.
[25] M.S. Bazaraa, H. D. Sherali y C.M. Shetty. Nonlinear Programming:
Theory and Algorithms. John Wiley & Sons, Inc., New York, 1993.

[26] R. Bellazzi, G.Nucci


y C. Cobelli. The subcutaneous route to insulin
dependent diabetes therapy. IEEE Engineering in Medicine and Biology Magazine, 20(1):5464, 2001.
[27] R. Bellman. Dynamic Programming. Princeton University Press, Princeton,
New Jersey, 1959.
[28] B.W. Bequette. A critical assessment of algorithms and challenges in the
development of a closedloop artificial pancreas. Diabetes Technology & Therapeutics, 7(1):2847, 2005.
[29] W. C. Bevier, H. Zisser, C. Palerm, D. A. Finan, D. E. Seborg,
F.J. Doyle, III, A. Wollitzer y L. Jovanovic. Calculating the insulin to
carbohydrate ratio using the hyperinsulinemic euglycemic clamp a novel
use for a proven technique. Diabetes Care, enviado, 2006.
[30] H. G. Beyer y H. P. Schwefel. Evolution strategies - a comprehensive
introduction. Natural Computing, 1:352, 2002.
[31] H.G. Beyer. Toward a theory of evolution strategies: Self-adaptation. Evolutionary Computation, 3 (3):311347, 1996.

194

Bibliografa

[32] L.T. Biegler. Solution of dynamic optimization problems by succesive quadratic programming and orthogonal collocation. Comp. and Chem. Eng.,
8(3/4):243248, 1984.
[33] H. Bock. Progress in Scientific Computing, vol. 2, captulo: Recent advances
in parameter identification for ordinary differential equations., paginas 95121.
Deuflhard, P., Hairer, E. (Eds.) Birkhauser, Boston, 1983.
[34] H. Bock. Randwertproblemmethoden zur Parameteridentifizierung in Systemen Nichtlinearer Differentialgleichungen. Tesis doctoral, Universitat Bonn,
1987.
[35] E. Bonabeau, M. Dorigo y G. Theraulaz. Swarm intelligence: from
natural to artificial systems. Oxford University Press, New York, 1999.
[36] E. Bonabeau, M. Dorigo y G. Theraulaz. Inspiration for optimization
from social insect behaviour. Nature, 406:3942, 2000.
[37] G. E. P. Box, W. G. Hunter, J. F. MacGregor y J. Erjavec. Some
problems associated with the analysis of multiresponse data. Technometrics,
15:3351, 1973.
[38] M.J. Box. The occurrence of replications in optimal designs of experiments
to estimate parameters in non-linear models. Journal of the Royal Statistical
Society, Series B, 30:290302, 1968.
[39] M.J. Box. Some experiences with a non-linear experimental design criterion.
Technometrics, 12:569589, 1970.
[40] S. Brooks. A discussion of random methods for seeking maxima. Operations
Research, 6:244251, 1958.
[41] S. Bruin y K.C.A.M. Luyben. Advances in drying, Vol. I, captulo: Drying
of food materials: A review of recent developments. New York: Hemisphere
Publishing Corp., 1980.
[42] R. Brun, P. Reichert y H.R. Kunsch. Practical identifiability analysis of
large environmental simulation models. Water Resources Research., 37:1015
1030, 2001.
[43] A. E. Bryson y Y. C. Ho. Applied optimal control. Hemisphere Publishing
Corporation, New York, 1975.

Bibliografa

195

[44] M. J. Chappell, K. R. Godfrey y S. Vajda. Global identifiability of


the parameters of nonlinear-systems with specified inputs: A comparison of
methods. Mathematical Biosciences., 102(1):4173, 1990.
[45] D. Corne, M. Dorigo y F. Glover. Adaptation in Natural and Artificial
Systems. The University of Michigan Press, 1975.
[46] D. Corne, M. Dorigo y F. Glover. New Ideas in Optimization. McGrawHill, New York, 1999.
[47] G. B. Dantzig. Linear Programming and Extensions. Princeton University
Press, 1963.
[48] A.K. Datta. Computer-aided engineering in food process and product design.
Food Technology, 52:44, 1998.
[49] R. A. DeFronzo, J. D. Tobin y R. Andres. Glucose clamp technique: a
method for quantifying insulin secretion and resistance. American journal of
physiology: Endocrinology and metabolism, 237(3):1423, Septiembre 1979.
[50] D. Degenring, C. Froemel, G. Dikta y R. Takors. Sensitivity analysis
for the reduction of complex metabolism models. Journal of Process Control.,
14:729745, 2004.
[51] J.E. Dennis, D.M. Gay y R.E. Welsch. Algorithm 573, NL2SOL - an
adaptive nonlinear least-squares algorithm. ACM Trans. Math. Software,
7:369383, 1981.
[52] Diabetes Control and Complications Trials Research Group. The
effect of intensive treatment of diabetes on the development and progression
of longterm complications in insulindependent diabetes mellitus. The New
England Journal of Medicine, 329:977986, 1993.
[53] T. J. DiCiccio y J. P. Romano. A review of bootstrap confidence intervals
(with discussion). Journal of Royal Statistics Society, Series B, 50(3):338370,
1988.
[54] D. Dochain y P. A. Vanrolleghem. Dynamical Modelling and Estimation
in Wastewater Treatment Processes. IWA Publishing, London, 2001.
[55] S. Dokos y N. H. Lovell. Parameter estimation in cardiac ionic models.
Progress in Biophysics and Molecular Biology, 85:407431, 2004.

196

Bibliografa

[56] E. D. Dolan, J. J. More y T. S. Munson. Benchmarking optimization


problems with COPS 3.0. Technical Report ANL/MCS-TM-273, Argonne National Laboratory., 2004.
[57] J. Donaldson y R. Schnabel. Computational experience with confidence
regions and confidence intervals for non-linear least squares. Technometrics,
29(1):6782, 1987.
[58] M. Dorigo, V. Maniezzo y A. Colorni. The ant system: Optimization by a
colony cooperaing agents. IEEE Transactions on Systems, Man & Cybenetics
B, 26(2):2941, 1996.
[59] G. T. Dunkan. An empirical study of jackknife constructed confidence regions in nonlinear regression. Technometrics, 20:123129, 1978.
[60] A.M. Dunker. The decoupled direct method for calculating sensitivity coefficients in chemical kinetics. Journal of Chemical Physics, 81:23852393, September 1984.
[61] T. D. Durance. Improving canned food quality with variable retort temperature processes. Trends in Food Sci. & Technol., 8(4):113118, 1997.
[62] T. F. Edgar y D. M. Himmelblau. Optimization of Chemical Processes.
1988.
[63] B Efron. The jackknife, the bootstrap, and other resampling plans. Series
in Applied Mathematics, SIAM, 38:91, 1982.
[64] J. A. Egea, M. Rodriguez-Fernandez, J. R. Banga y R. Marti. Scatter
Search for chemical and bio-process optimization. Journal of Global Optimization, 2006. En publicacion.
[65] L. Eiselein, H.J. Schwartz y J.C. Rutledge. The challenge of type 1
diabetes mellitus. ILAR Journal, 45(3):231236, 2004.
[66] W. R. Esposito y C. A. Floudas. Global optimization of nonconvex problems with differential-algebraic constraints. En S. Pierucci, editor, Proceedings ESCAPE-10, paginas 7378. Elsevier Science, 2000.
[67] R. Fisher. Design of experiments. Oliver and Boyd Ldt., Edinburgh, 1935.
[68] R. Fletcher. Nonlinear Optimization, captulo: Methods for Nonlinear Constraints. Academic Press, 1982.

Bibliografa

197

[69] C.A. Floudas. Deterministic Global Optimization: Theory, Methods and Applications. Kluwer Academics, The Netherlands, 2000.
[70] L.J. Fogel, A.J. Owens y M.J. Walsh. Artificial intelligence through
simulated evolution. Wiley, New York, 1966.
[71] R.E. Fuguitt y J. E. Hawkins. Rate of thermal isomerization of -pinene
in the liquid phase. J. A. C. S., 69:461, 1947.
[72] M. Fussenegger, J. E. Bailey y J. Varner. A mathematical model of
caspase function in apoptosis. Nat. Biotechnol., 18:768774, 2000.
[73] K.G. Gadkar, R. Gunawan y F.J. Doyle III. Iterative approach to model
identification of biological networks. BMC Bioinformatics, 6:155, 2005.
[74] M.S.G. Garcia, E. Balsa-Canto, A.A. Alonso y J.R. Banga. Computing optimal operating policies for the food industry. J. Food Eng., 74(1):1323,
2006.
[75] R. L. Garote, E. R. Silva y R. A. Bertone. Kinetic parameters for thermal
inactivation of cut green beans lipoxygenase calculated using unsteady-state
methods. International Journal of Food Science and Technology, 36:377385,
2001.
[76] P. E. Gill, W. Murray y M. A. Saunders. SNOPT: An SQP algorithm for large-scale constrained optimization. Siam Journal on Optimization.,
12(4):9791006, 2002.
[77] P. E. Gill, W. Murray, M. A. Saunders y M. H. Wight. Users guide for
npsol 5.0: a FORTRAN package for nonlinear programming. Informe Tecnico
SOL 86-1, Systems Optimization Laboratory, Standford University, 1998.
[78] P. E. Gill, W. Murray y M. H. Wright. Practical Optimization. Academic
Press, New York, 1981.
[79] F. Glover. Heuristics for integer programming using surrogate constraints.
Decision Sciences, 8-1:156166, 1977.
umen
[80] F. Glover. Artificial Evolution, Lecture Notes in Computer Science, vol
1363, captulo: A Template for Scatter Search and Path Relinking, paginas
1354. Springer-Verlag, 1998.
[81] F. Glover y M. Laguna. Tabu Search. Kluwer, MA, 1997.

198

Bibliografa

[82] K. R. Godfrey y J. J. DiStefano III. Identification and System Parameter Estimation, captulo: Identifiability of model parameters, paginas 89114.
Pergamon Press, Oxford, 1985.
[83] D.E. Goldberg. Genetic Algorithms in Search, Optimization & Machine
Learning. Addison Wesley Longman, 1989.
[84] G.C. Goodwin y R.L. Payne. Dynamic system identification: Experiment
design and data analysis. Acadamic Press, New York, 1977.
[85] F. H. Grant III y J.J. Solberg. Variance reduction techniques in stochastic
shortes route analysis: Application procedures and results. Mathematics and
Computers in Simulation, 25:366375, 1983.
[86] K. Grijspeerdt y P. Vanrolleghem. Estimating the parameters of the
baranyi model for bacterial growth. Food. Microbiol., 16(6):593605, 1999.
[87] C. Guus, E. Boender y H.E. Romeijn. Handbook of Global Optimization,
captulo: Stochastic Methods. Kluwer, 1995.
[88] E. Hairer y G. Wanne. Solvind Ordinary Differential Equations II: Stiff
and Differential Algebraic Problems. Springer-Verlag, 1996.
[89] D. V. Hinkley. Bootstrap methods. Journal of Royal Statistics Society,
Series B, 50(3):321337, 1988.
[90] K. Holmstr
om y M.M. Edvall. Modeling Languages in Mathematical Optimization, captulo: The Tomlab Optimization Environment, paginas 369378.
Kluwer Academic Publishers, 2004.
[91] R. Hooke y T. A. Jeeves. An automatic method for finding the greatest
or least value of a function. The Computer Journal, 3(3):175184, 1960.
[92] R. Hooke y T. A. Jeeves. Direct Search solution of numerical and statistical problems. J. Assoc. Comput. Mach., 8:212229, 1961.
[93] W. Horbelt, J. Timmer y W. Melzer. Differential equations and applications, captulo: Estimating parameters in Nonlinear Differential Equations
with Application to Physiological Data. G. Osipenko, ed., 1998.
[94] R. Horst y P.M. Pardalos. Handbook of Global Optimization. Kluwer
Academic, 1995.

Bibliografa

199

[95] R. Hovorka, V. Canonico, L.J. Chassin, U. Haueter, M. MassiBenedetti, M.O. Federici, T.R. Pieber, H.C. Schaller, L. Schaupp,
T. Vering y M.E. Wilinska. Nonlinear model predictive control of glucose
concentration in subjects with type 1 diabetes. Physiological Measurement,
25(4):90520, Agosto 2004.
[96] W. G. Hunter y J. F. McGregor. The estimation of common parameters from several responses: Some actual examples. Department of Statistics,
University of Winsconsin, 1967.
[97] J. A. Jacquez y P. Greif. Numerical parameter identifiability and estimability: Integrating identifiability, estimability, and optimal sampling desing.
Mathematical Biosciences., 77:201227, 1985.
[98] K. S. Jayaraman y D. K. Das Gupta. Dehydration of fruits and
vegetablesrecent developments in principles and techniques. Drying Technology, 10(1):150, 1992.
[99] U. Jeppsson. Modelling Aspects of Wastewater Treatment Processes. Tesis
doctoral, Lund Institute of Technology, 1996.
[100] W.J. Karnavas, P. Sanchez y A.T. Bahill. Sensitivity analyses of continuous and discrete systems in the time and frequency domains. IEEE Trans.
Syst. Man. Cybernetics., SCM-23:488501, 1993.
[101] K. Khaw, N. Wareham, R. Luben, S. Bingham, S. Oakes, A. Welch
y N. Day. Glycated haemoglobin, diabetes, and mortality in men in Norfolk
cohort of European Prospective Investigation of Cancer and Nutrition (EPICNorfolk). British Medical Journal, 322(7277):1518, 2001.
[102] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. Optimization by simulated
annealing. Science, 220:671680, 1983.
[103] P. Kuzmic. Program dynafit for the analysis of enzyme kinetic data: application to hiv proteinase. Analytical Biochemistry, 237:260273, 1996.
[104] P.J.M. Laarhoven y E.H.L. Aarts. Simulated annealing: theory and applications. Reidel Publishing Company, Dordrecht, 1987.
[105] M. Laguna y Marti R. Scatter Search: Methodology and Implementations
in C. Kluwer Academic Publishers, The Netherlands, 2003.

200

Bibliografa

[106] J. R. Leis y M. A. Kramer. Sensitivity analysis of systems of differential


and algebraic equations. Comp. & Chem. Eng., 9(3):9396, 1985.
[107] J.R. Leis y M.A. Kramer. ODESSA - an ordinary differential-equation
solver with explicit simultaneous sensitivity analysis. ACM Transactions on
Mathematical Software., 14(1):6167, 1988.
[108] M. K. Lenz y D. B. Lund. Experimental procedures for determining destruction kinetics of food components. Food Technology, 34(2):5155, 1980.
[109] L. Ljung. System Identification: Theory for the User. Prentice Hall, Englewood Cliffs, New Jersey, 1999.
[110] L. Ljung y T. Glad. On global identifiability for arbitrary model parametrizations. Automatica, 30 (2):265276, 1994.
[111] R. Luus. Application of dynamic programming to high-dimensional nonlinear optimal control problems. Int. J. Control, 52(1):239250, 1990.
[112] R. Luus. Optimization of fed-batch fermentors by iterative dynamic programming. Biotechnol. Bioeng., 41:599602, 1993.
[113] K. Ch. A. M. Luyben, J. K. Liou y Bruin S. Enzyme degradation during
drying. Biotechnol. Bioeng., 24:533552, 1982.
[114] S. Marsili-Libelli, S. Guerrizio y N. Checchi. Confidence regions of
estimated parameters for ecological systems. Ecological Modelling., 165:127
146, 2003.
[115] J. Matyas. Random optimization. Automation Remote Control, 26:246253,
1965.
[116] L. Mayor y A. M. Sereno. Modelling shrinkage during convective drying
of food materials: a review. Journal of Food Engineering, 61(3):373386, 2004.
[117] P. Mendes y D.B. Kell. Non-linear optimization of biochemical pathways:
Applications to metabolic engineering and parameter estimation. Bioinformatics, 14 (10):869883, 1998.
[118] Z. Michalewicz y D.B. Fogel. How to Solve it: Modern Heuristics. SpringerVerlag, Berlin, 2000.

Bibliografa

201

[119] C. G. Moles, A. S. Lieber, J. R. Banga y K. Keller. Advances in Soft


Computing: Engineering Design and Manufacturing, captulo: Global Optimization of Climate Control Problems Using Evolutionary and Stochastic Algorithms. Springer-Verlag, Heidelber, 2003a.
[120] C.G. Moles. Optimizacion global de procesos de la industria alimentaria y
biotecnol
ogica. Tesis doctoral, Universidade de Vigo, 2003.
[121] C.G. Moles, P. Mendes y J.R. Banga. Parameter estimation in biochemical pathways: a comparison of global optimization methods. Genome
Research., 13:24672474, 2003b.
[122] A. Munack. Biotechnology, a Multi-volume Comprehensive Treatise, Vol. 4,
captulo: Optimization of Sampling, paginas 251264. K. Sch
ugerl, 1991.
[123] P. Muntner, R.P. Wildman, K. Reynolds, K. B. Desalvo, J. Chen
y V. Fonseca. Relationship between HbA1c level and peripheral arterial
disease. Diabetes Care, 28(8):19811987, Agosto 2005.
[124] H. B. Nahor, N. Scheerlinck, R. Verniest, J. De Baerdemaeker y
B. M. Nicola. Optimal experimental desing for the parameter estimation
of conduction heated foods. Journal of Food Engineering., 48:109119, 2001.
[125] H.B. Nahor, N. Scheerlinck, J.F. Van Impe y B.M. Nicola. Optimization of the temperature sensor position in a hot wire probe set up for
estimation of the thermal properties of foods using optimal experimental design. J. Food Eng., 57(1):103110, 2003.
[126] J. A. Nelder y R. Mead. A simplex method for function minimization.
The Computer Journal, 7:308313, 1965.
[127] A. Neumaier, O. Shcherbina, W. Huyer y T. Vinko. A comparison of
complete global optimization solvers. Mathematical Programming, 103(2):335
356, 2005.
[128] F. Ollivier. Le probl`eme de lidentifiabilite structurelle globale: etude theori
que, methodes effectives et bornes de complexite. Tesis doctoral, Ecole
Polytechnique, Paris, France, Junio 1990.
[129] Expert Committee on the Diagnosis y Classification of Diabetes Mellitus. Report of the expert committee on the diagnosis and classification of
diabetes mellitus. Diabetes Care, 26(1):520, 2003.

202

Bibliografa

[130] I. H. Osman y G. Laporte. Metaheuristics: A bibliography. Annals of


Operations Research, 63:513623, 1996.
[131] C. C. Pantelides, D. Gritsis, K. R. Morison y R. W. H. Sargent.
The mathematical modelling of transient systems using differential-algebraic
equations. Comp. & Chem. Eng., 12(5):449454, 1988.
[132] I. Papamichail y C.S. Adjiman. A rigorous global optimization algorithm
for problems with ordinary differential equations. Journal of Global Optimization, 24:122, 2002.
[133] K. J. Park. Diffusional model with and without shrinkage during salted fish
muscle drying. Drying Technology, 16(3-5):889905, 1998.
[134] R.S. Parker, F.J. Doyle III y N.A. Peppas. The intravenous route to
blood glucose control. IEEE Engineering in Medicine and Biology Magazine,
20(1):6573, 2001.
[135] R.K. Pearson. Outliers in process modeling and identification. IEEE Transactions on Control Systems Technology, 10(1):5563, 2002.
[136] B. Petersen. Calibration, Identifiability and Optimal Experimental Design of
Activated Sludge Models. Tesis doctoral, Universiteit Gent, 2000.
[137] B. Petersen, K. Gernaey y P.A. Vanrolleghem. Practical identifiability of model parameters by combined respirometric-titrimetric measurements.
Water Science and Technology., 43:347355, 2001.
[138] J. Pinter. Global Optimization in Action. Continuous and Lipschitz Optimization: Algorithms, Implementations and Applications. Kluwer Academics,
Netherlands, 1996.
[139] H. Pohjanpalo. System identifiability based on the power series expansion
of the solution. Mathematical Biosciences., 41:2133, 1978.
[140] E. Polak. Computational Methods in Optimization. Academic Press, New
York, 1971.
[141] P. K. Polisetty, E. O. Voit y E. P. Gatzke. Identification of metabolic
system parameters using global optimization methods. Theoretical Biology
and Medical Modelling, 3:4, 2006.

Bibliografa

203

[142] L. S. Pontryagin, V. G. Boltyanskii, R. V. Gamkrelidze y E. F.


Mishchenko. The Mathematical Theory of Optimal Processes. John Wiley
& Sons, Inc., New York, 1962.
[143] M. J. D. Powell. An efficient method for finding the minimum of a function
of several variables without calculating derivatives. Computer Journal, 7:155
162, 1964.
[144] Ph. Preux y E.-G. Talbi. Towards hybrid evolutionary algorithms. Intl.
Trans. in Op. Res., 6:557570, 1999.
[145] M Quenouille. Approximate tests for correlation in time series. Journal of
Royal Statistics Society, Series B, 11:1884, 1949.
[146] H.S. Ramaswamy, G.B. Awuah y B.K. Simpson. Heat transfer and
lethality considerations in aseptic processing of liquid/particle mixtures: A
review. Crit. Rev. in Food Sci. Nutr., 37(3):253286, 1997.
[147] H. S. Rasmaswamy, F. R. van de Boort y S. Ghazala. An analysis of
TDT and Arrhenius methods for handling process and kinetic data. Journal
of Food Science, 54, 1989.
[148] L.A. Rastrigin y Y. Rubinstein. The comparison of random search and
stochastic approximation while solving the problem of optimization. Automatic Control, 2:2329, 1969.
[149] G. V. Reklaitis, A. Ravindran y K. M. Ragsdel. Engineering Optimization: Methods and Applications. John Wiley & Sons, Inc., New York,
1983.
[150] A. H. G. Rinnooy-Kan y G. T. Timmer. Stochastic global optimization
methods. Part I: Clustering methods. Mathematical Programming, 39:27, 1987.
[151] M. Rodriguez-Fernandez, A. A. Alonso y J. R. Banga. Robust parameter estimation in heat and mass transfer models of food processing. International Conference on Engineering and Food 9 (ICEF 9), 2004.
[152] M. Rodriguez-Fernandez y E. Balsa-Canto. GOSBio- Part I: Parameter
estimation in nonlinear dynamic systems, with applications in Systems Biology. Matlab toolbox, Process Engineering Group, IIM-CSIC, 2006.

204

Bibliografa

[153] M. Rodriguez-Fernandez, P. Mendes y J.R. Banga. A hybrid approach


for efficient and robust parameter estimation in biochemical pathways. BioSystems, 83:248265, 2006.
[154] W. C. Rooney y L. T. Biegler. Incorporating joint confidence regions into
design under uncertainty. Computers and Chemical Engineering, 23:1563
1575, 1999.
[155] I.I. Ruiz-Lopez, A.V. Cordova, G.C. Rodriguez-Jimenes y M.A.
Garcia-Alvarado. Moisture and temperature evolution during food drying:
effect of variable properties. Journal of Food Engineering, 63(1):117124, 2004.
[156] T.P. Runarsson y X. Yao. Search biases in constrained evolutionary optimization. IEEE Transactions on Systems, Man and Cybernetics, 35:233243,
2005.
[157] T.P. Runarsson y Xin Yao. Stochastic ranking for constrained evolutionary
optimization. IEEE Transactions on Evolutionary Computation, 4:284294,
2000.
[158] I. Saguy y M. Karel. Modeling of quality deterioration during food processing and storage. Food Technology, 34:7885, 1980.
[159] A. Saltelli, K. Chan y E.M. Scott. Sensitivity Analysis. John Wiley &
Sons, Inc., New York, 2000.
[160] W.E. Schiesser. The Numerical Method of Lines. Academic Press, New
York, 1991.
[161] K. Schittkowski. Numerical Data Fitting in Dynamical Systems - A Practical
Introduction with Applications and Software. Kluwer Academic Publishers,
2002.
[162] H. P. Schwefel. Evolution and optimum seeking. Wiley, New York, 1995.
[163] G. A. F. Seber. Multivariate Observations. Wiley, New York, 1984.
[164] G.A.F. Seber y C.J. Wild. Non Linear Regression. Wiley, New York, 1989.
[165] L. F. Shampine, H. A. Watts y S. M. Davenport. Solving non-stiff
ordinary differential equations-the state of the art. SIAM Review, 18:376411,
1976.

Bibliografa

205

[166] S. Simal, C. Rossello, A. Berna y A. Mulet. Drying of shrinking cylindershaped bodies. Journal of Food Engineering, 37:423435, 1998.
[167] R. Smith, G. Dullerud, S. Rangan y K. Poolla. Model validation for
dynamically uncertain systems. Mathematical Modeling of Systems, 3:4358,
1997.
[168] E. D. Sontag. For differential equations with r parameters, 2r+1 experiments
are enough for identification. Nonlinear Science, 12:553583, 2002.
[169] S. M. Stigler. Gauss and the invention of the least-squares. Annals of
Statistics, 9(4):465474, 1981.
[170] R. Storn y K. Price. Differential evolution - a simple and efficient heuristic
for global optimization over continuous spaces. J. Global. Optim., 11:341359,
1997.
[171] M. Sugimoto, S. Kikuchi y M. Tomita. Reverse engineering of biochemical equations from time-course data by means of genetic programming.
BioSystems, 80:155164, 2005.
[172] E.-G. Talbi. A taxonomy of hybrid metaheuristics. Journal of Heuristics,
8:541564, 2002.
[173] J. Timmer. Modeling noisy time series: physiological tremor. Int. J. Bifurcation Chaos, 8(7):15051516, 1998.
[174] J. Timmer, W. Horbelt, M. B
unner, M. Ciofini y R. Meucci. Stochaos: Stochastic and Chaotic Dynamics in the Lakes, captulo: Estimating
Parameters in Differential Equations with Application to Laser Data. American Institute of Physics, Melvilley, NY, USA, 2000.
[175] I. B. Tjoa y L. T. Biegler. Simultaneous solution and optimization strategies for parameter estimation of differential-algebraic equation systems. Industrial and Engineering Chemistry Research, 30(2):376, 1991.
orn, M. Ali y S. Viitanen. Stochastic global optimization: Problem
[176] A. T
classes and solution techniques. Journal of Global Optimization, 14:437, 1999.
orn. Global optimization as a combination of global and local search.
[177] A. A. T
En Proceedings of Computer Simulation Versus Analytical Solutions for Business and Economic Models, 1973.

206

Bibliografa

[178] UK Prospective Diabetes Study Group. Intensive bloodglucose control with sulphonylureas or insulin compared with conventional treatment and
risk of complications in patients with type 2 diabetes (UKPDS 33). Lancet,
352:837853, 1998.
[179] S. Vajda, K. R. Godfrey y H Rabitz. Similarity transformation approach
to structural identifiability of nonlinear models. Mathematical Biosciences.,
93:217248, 1989.
[180] A. Van Loey, A. Fransis, M. Hendrickx, G. Maesmans y P. Tobback. Kinetics quality changes of green peas and white beans during thermal
processing. Journal of Food Engineering, 24:361377, 1995.
[181] P. A. Vanrolleghem y K. J. Keesman. Identification of biodegradation models under model and data uncertainty. Water Science Technology,
33(2):91105, 1996.
[182] P.A. Vanrolleghem y D. Dochain. Advanced Instrumentation, data interpretation, and control of biotechnological process., captulo: Bioprocess Model
Identification, paginas 251318. Kluwer Academic Publishers, 1998.
[183] G. C. Vansteenkiste y J. A. Spriet. Progress in Modelling and Simulation, captulo: Modelling ill-defined systems, paginas 1138. Academic Press,
London, 1982.
[184] V. S. Vassiliadis. Computational Solution of Dynamic Optimization Problems with General Differential-Algebraic Constraints. Tesis doctoral, Imperial
College, University of London, London, U.K., Julio 1993.
[185] K. Versyck. Dynamic Input Design for Optimal Estimation of Kinetic Parameters in Bioprocess Models. Tesis doctoral, Katholieke Universiteit Leuven,
Mayo 2000.
[186] K. Versyck, K. Bernaerts, Geeraerd A.H. y J. Van Impe. Introducing
optimal experimental desing in predictive modeling: A motivating example.
Int. J. Food. Microbiol., 51:3951, 1999.
[187] E. O. Voit y J. Almeida. Decoupling dynamical systems for pathway identification from metabolic profiles. Bioinformatics, 20:16701681, 2004.
[188] K. M. Waananen, J. B. Litchfield y M. R. Okos. Classification of drying
models for porous solids. Drying Technology, 11(1):140, 1993.

Bibliografa

207

[189] E. Walter y L. Pronzato. Identification of Parametric Models from Experimental Data. Springer, 1997.
[190] F.S. Wang y J.P. Chiou. Optimal control and optimal time location problems of differential-algebraic systems by differential evolution. Ind. Eng.
Chem. Res., 36(12):53485357, 1997.
[191] S. Wild, G. Roglic, A. Green, R. Sicree y H. King. Global prevalence
of diabetes: estimates for the year 2000 and projections for 2030. Diabetes
Care, 27(5):10471053, 2004.
[192] M.E. Wilinska, L.J. Chassin, H.C. Schaller, L. Schaupp, T.R. Pieber
y R. Hovorka. Insulin kinetics in type1 diabetes: continuous and bolus delivery of rapid acting insulin. IEEE Transactions on Biomedical Engineering,
52(1):312, 2005.
[193] D.H. Wolpert y W.G. Macready. No free lunch theorems for optimization.
IEEE Transactions on Evolutionary Computation, 1:6782, 1997.
[194] Y. Ye. Interior algorithms for linear, quadratic and linearly constrained nonlinear programming. Tesis doctoral, Department of ESS, Stanford University,
1987.
[195] D. E. Zak, G. E. Gonye, J. S. Schwaber y F. J. Doyle III. Importance of
input perturbations and stochastic gene expression in the reverse engineering
of genetic regulatory networks: Insights from an identifiability analysis of an
in silico network. Genome Research., 13:23962405, 2003.

Parte VII
Publicaciones

Publicaciones

211

Publicaciones en revistas internacionales


Rodriguez-Fernandez, M., Mendes, P. y Banga, J. R. A hybrid approach for efficient and robust parameter estimation in biochemical pathways.
BioSystems, 83:248-265, 2006.
Banga, J. R., Balsa-Canto, E., Rodriguez-Fernandez, M. y Alonso,
A. A. Model calibration in Systems Biology. BioForum Europe, 9:42-43, 2005.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheuristic for parameter identification in nonlinear dynamic biological systems. BMC
Bioinformatics, 7:483, 2006.
Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.
Scatter Search for chemical and bio-process optimization. Journal of Global
Optimization, 2006. En imprenta, disponible en formato electronico.
Rodriguez-Fernandez, M., Balsa-Canto, E., Egea, J. A. y Banga, J.
R. Identifiability and robust parameter estimation in food process modeling:
application to a drying model. Journal of Food Engineering, 2006. Enviado.
Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Optimal
design of dynamic experiments for improved estimation of kinetic parameters
of thermal degradation. Journal of Food Engineering, 2006. Enviado.

Contribuciones a congresos
Balsa-Canto, E., Rodriguez-Fernandez, M., Alonso, A. A. y Banga,
J. R. Optimal Identification in Systems Biology. Applications in Cell Signaling. AIChE Annual Meeting, 12-17 Noviembre, 2006, San Francisco, Estados
Unidos.
Palerm, C. C., Rodriguez-Fernandez, M., Bevier, W. C., Zisser, H.,
Banga, J.R., Jovanovic, L. y Doyle III, F. J. Robust Parameter Estimation in a Model for Glucose Kinetics in Type 1 Diabetes Subjects. Engineering
in Medicine and Biology Conference, 30 Agosto - 3 Septiembre, 2006, Nueva
York, Estados Unidos.
Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Identification in Nonlinear Dynamic Process Models. Second CTS Workshop, 10-12
Julio, 2006, Paris, Francia.

212

Publicaciones

Rodriguez-Fernandez, M., Palerm, C. C., Bevier, W. C., Zisser, H.,


Jovanovic, L. y Doyle III, F. J Robust Parameter Estimation in a Model for
Glucose Kinetics in Type 1 Diabetes Patients. American Diabetes Association
66th Scientific Sessions, 9-13 Junio, 2006, Washington DC, Estados Unidos.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel metaheuristics for parameter estimation and optimal experimental design in Systems
Biology. First International Symposium on Systems Biology, 1-2 Junio, 2006,
Murcia, Espa
na.
Balsa-Canto, E., Rodriguez-Fernandez, M. y Banga, J. R. Computational Design of Optimal Dynamic Experiments in Systems Biology: a Case
Study in Cell Signaling. First International Symposium on Systems Biology,
1-2 Junio, 2006, Murcia, Espa
na.
Egea, J. A., Rodriguez-Fernandez, M., Banga, J. R. y Marti, R.
Optimizacion de procesos qumicos y biotecnologicos mediante b
usqueda dispersa. IV Congreso Espa
nol sobre Metaheursticas, Algoritmos Evolutivos y
Bioinspirados (MAEB 05), 13-16 Septiembre, 2005, Granada, Espa
na.
Rodriguez-Fernandez, M., Egea, J. A. y Banga, J. R. Novel Metaheuristics for Parameter Estimation in Nonlinear Dynamic Biological Systems.
European Conference on Mathematical and Theoretical Biology - ECMTB05,
18-22 Julio, 2005, Dresden, Alemania.
Rodriguez-Fernandez, M., Alonso, A. A. y Banga, J. R. Robust Parameter Estimation in Nonlinear Dynamic Process Models. European Symposium on Computer Aided Process Engineering: ESCAPE-15, 29 Mayo - 1
Junio, 2005, Barcelona, Espa
na.
Rodriguez-Fernandez, M., Moles, C.G., Mendes, P. y Banga, J. R.
A Hybrid Approach for Efficient and Robust Parameter Estimation in Biochemical Pathways. 5th International Conference on Systems Biology (ICSB
2004), 9-13 Octubre, 2004, Heidelberg, Alemania.
Rodriguez-Fernandez, M., Banga, J. R. y Alonso, A. A. Parameter
Estimation in Heat and Mass Transfer Models. First CTS Workshop, 1-3 Julio,
2004, Coimbra, Portugal.
Banga, J.R., Balsa-Canto, E., Moles, C. G., Garcia, S., Sendin, O. H.,
Rodriguez-Fernandez, M. y Alonso, A. A. Advances in the Optimization

Publicaciones

213

of Industrial Food Processing. FOODSIM2004, 16-18 Junio, 2004, WICCWIR, Wageningen, Holanda.
Fernandez, C.V., Garcia, M.R., Rodriguez-Fernandez, M., BalsaCanto, E., Banga, J.R. y Alonso, A.A. On Systematic Model Reduction
Techniques for Dynamic Optimization and Robust Control of Distributed Process Systems. European Symposium on Computer Aided Process Engineering
(ESCAPE-14), 16-19 Mayo, 2004, Lisboa, Portugal.
Rodriguez-Fernandez, M., Alonso, A. A y Banga, J. R. Robust Parameter Estimation in Heat and Mass Transfer Models of Food Processing.
International Conference on Engineering and Food 9 (ICEF 9), 7-11 Marzo,
2004, Montpellier, Francia.

También podría gustarte