Está en la página 1de 14

Ajuste de ecuaciones a curvas

Ajuste de ecuaciones a curvas:


introduccin a la regresin lineal y no lineal
(F.J. Burguillo, Facultad de Farmacia, Universidad de Salamanca)

1) Si hay alguna tcnica que con mayor


frecuencia utilizan los investigadores
sta es la regresin, incluso muchos de
ellos usan casi exclusivamente la
regresin no lineal. Conviene pues
estudiar los fundamentos de esta
tcnica.
En esta sesin se analizarn los
distintos tipos de modelos matemticos
que se suelen emplear en el ajuste de
curvas, se revisarn los fundamentos de
la regresin lineal y no lineal por
mnimos cuadrados y se pondrn varios
ejemplos sobre el ajuste de modelos a
datos experimentales.

Introduccin al ajuste de
ecuaciones a curvas
Tipos de Modelizacin Matemtica
Fundamentos tericos de la regresin
lineal y no lineal
Ejemplos en Ciencias Experimentales

Diapositiva 1
Cmo interpretar los datos de un experimento?
[S] : 1.2
Reaccin Enzimtica

v:

5.2 6.3 7.2

4.3 5.4 7.2

8.4

9.4
9.5

Describir el sistema
Cuantitativa (ecuacin)
Cualitativa (palabras)

y = f(x)

(S)
(S)
Modelizacin Emprica

v = a + b[S] + c[S]2

Modelizacin Terica

E + S ES P + E
v=

Diapositiva 2

Vmax [S]
KM + [S]

2)

El ajuste de curvas surge cuando el


investigador trata de interpretar los
datos de un experimento. Pensemos por
ejemplo en una reaccin enzimtica
(diapositiva 2). Los resultados se
describen mejor cuando se encuentra
una ecuacin que se ajusta a los datos.
Ese es el objetivo de la Modelizacin
Matemtica: obtener ecuaciones que
describan el comportamiento de los
sistemas. Estas ecuaciones pueden ser
de dos tipos: empricas (Modelizacin
Emprica) o deducidas en base a una
teora fsica (Modelizacin Terica).

Ajuste de ecuaciones a curvas

Modelizacin Emprica
Situacin:

Sistema

Estmulo

Respuesta

(Mecanismo
desconocido)

Ecuacin emprica
Inters:

Supone una cuantificacin


Permite: calibracin, prediccin

Ecuaciones : Polinomios :

y = a + bx + cx 2
y = (a + bx + cx 2 + dx 3 )i

Cubic splines :

Trampas : Diferentes ecuaciones ajustan datos (no significado fisico)


Aumento de parmetros mejora ajuste (hiperajuste)

Diapositiva 3

3) La Modelizacin Emprica trata de


encuentrar una ecuacin cualquiera que
cierre con los datos del sistema,
independientemente de que esa
ecuacin tenga o no significado fsico
sobre lo que est ocurriendo en el
sistema. Supone ya una cierta
cuantificacin y permite aspectos
operacionales como la calibracin,
prediccin y simulacin. Por otra parte,
unos mismos datos se pueden
interpretar igualmente bien con
diferentes ecuaciones, pero conviene
elegir siempre aquellas que tenga menor
nmero de parmetros.
4)

Modelos empricos habituales


Polinomios

y n = a + bx + cx 2 + ...nx n

Adecuados para curvas suaves en calibracin


Adecuados para datos sin mucho ruido
Cuidado porque son demasiado flexibles (hiperajuste)

Los modelos empricos ms


habituales son los polinomios de
distinto grado y los tramos de cbicas
(cubil splines). Algunas de sus ventajas
e inconvenientes aparecen recogidos en
la diapositiva 4.

Cubic splines y = (a + bx + cx2 + dx 3 )i


Nudo 2
Nudo 1

Adecuados para datos con ruido (por ej. en calibracin)


Subjetividad al elegir el n de nudos (hiperajuste)

Diapositiva 4

5)

Modelizacin Terica
En ecuaciones algebricas

+L
M0

K1

[M1]
K1 =
[M0] [L]
y=

En ecuaciones diferenciales

+L
M1

K2

E*S

E* + S
M2

[M2]
K2 =
[M1] [L]

K1[L] + 2K1K2[L]2
2(1 + K1[L] + K1K2[L]2 )

d[ES*]
= k1[S][E*] - (k - 1 + kcat)[ES*]
dt
d[P]
= kcat [ES*]
dt
........... etc

fraccin de sitios ocupados

Diapositiva 5

La Modelizacin Terica se hace


normalmente en base a dos estrategias:
modelos en ecuaciones algebricas para
los sistemas estticos y modelos en
ecuaciones diferenciales para los
dinmicos. Primero abordaremos los
modelos en ecuaciones algebricas, que
es el caso ms sencillo, y ms tarde los
modelos en ecuaciones diferenciales.
En la diapositiva 5 puede verse un
ejemplo de cada tipo.

Ajuste de ecuaciones a curvas

6)
Ecuaciones algebricas habituales
De una variable y varios parmetros :

u ( x ) = f ( x, p1, p2, .....pn )


Ejemplos :

[A] = [A] 0e -kt

Decaimiento exponencial:

v=

Suma de Michaelis-Menten:

Unin Ligandos: y =

En cuanto a las ecuaciones


algebricas habituales en Ciencias
Experimentales, stas son normalmente
de una variable independiente y uno o
varios parmetros. Algunos ejemplos de
esas ecuaciones aparecen en la
diapositiva 6.

V max(1) [S]
V max(2) [S]
+
K m(1) + [S] K m(2) + [S]

K 1 [L] + 2K 1 K 2 [L] 2 + ..... + nK 1 K 2..... K n[L] n


n(1 + K 1[L] + K 1 K 2 [L] 2 + ..... + K 1 K 2..... K n[L] n )

Diapositiva 6
Otras ecuaciones algebricas
De dos variables y varios parmetros :

u ( x, y ) = f ( x, y, p1, p2, .....pn )


Ejemplos :

Inhibicin competitiva : v =

Ping Pong Bi Bi :

v=

Vmax [S]
[I]

Km 1 +
+ [S]
KI

7) Tambin suelen darse en Ciencia las


ecuaciones algebricas de dos variables
y varios parmetros. Algunos de estas
ecuaciones son clsicas en Bioqumica
y se muestran en la diapositiva 7. Por
ejemplo, en la Inhibicin Competitiva,
las dos variables independientes seran
[S] y [I] y los parmetros seran Vmax,
Km y KI .

Vmax [A][B]
K B ([ A] ) + K A ([ A] ) + [A][B]

Diapositiva 7
Linealidad de una ecuacin
Linealidad en las vaariables
Ecuacin lineal

Ecuacin no lineal
y

y
x

x
Linealidad en los parmetros

Ecuacin lineal

y = a + bx + cx

Ecuacin no lineal

y = Ae - k x

Ejemplos

y = a + bx

y = a + bx + cx 2

y = Ae -kx

(Lineal en variables,

(No lineal en variables,


lineal en parmetros)

(No lineal en variables,


no lineal en parmetros)

lineal en parmetros)

Diapositiva 8

8) En el caso de una ecuacin


algebrica
con
una
variable
independiente y otra dependiente, los
conceptos de linealidad y no linealidad
de la ecuacin se pueden referir bien a
las variables o a los parmetros. Una
ecuacin se dice que es lineal en las
variables cuando su representacin y
frente a x es una recta y lineal en los
parmetros cuando, considerada la x
como una constante, la dependencia de
y con los parmetros es combinacin de
sumas y restas. Los respectivos
conceptos de no lineal es justo lo
contrario de lo anteriormente expuesto
(ver diapositiva 8).

Ajuste de ecuaciones a curvas

Comparacin cualitativa entre la forma de los


datos el tipo de curva a ajustar
y = bx + cx 2
(mal)
y = a + bx + cx 2
(bien)

1) Ordenada en el origen
Y=f(x)+C

Y=f(x)

a
(0,0)

(0,0)

(Correccin por lnea base)

2) Maximos, mnimos, puntos de inflexin y asntotas


Asntota

v=

v=

Vmax [S]
KM + [S]

(mal)

ap
Vmax
[S]
ap
KM
+ [S] + K -SI1 [S]2

(bien)

(Mximos, mnimos)

Diapositiva 9

10) El paso siguiente sera el ajuste de

Ajuste de ecuaciones a datos


Ecuacin lineal

Datos
x y

y= a+bx+cx

1
2
3
...

Procedimiento:
encontrar los valores
de los parmetros
que mejor ajustan
la ecuacin a los datos

Ecuacin no lineal

Datos
[L] y

8.4
5.6
3.4
.. .

y=

K1 [L] + 2 K1 K2 [L]
2

n ( 1+ K1 [L] +2 K1 K2 [L]
Procedimiento:

0.1 0.9
0.2 0.6
0.5 0.4
... ...

Optimizar iterativamente los parmetros que


mejor ajustan la ecuacin a los datos

Regresin no lineal

Regresin lineal

[L]

9) Un aspecto a tener en cuenta a la


hora de elegir una ecuacin como
modelo, es comprobar que el tipo de
curva que predice nuestra ecuacin
concuerda con el comportamiento
cualitativo de los datos experimentales:
Pasa la curva de la ecuacin por el
origen est desplazada un cierto factor
constante?, Esa curva es montona
creciente o decreciente?, Puede tener
un mximo, un mnimo o un punto de
inflexin?, La curva tiende a cero,
tiende a algn otro tipo de asntota?,
Cierran todas esas singularidades de la
curva predicha por nuestra ecuacin con
la tendencia de los datos?.
la ecuacin elegida a los datos
experimentales. Este procedimiento
consiste en encontrar los valores de los
parmetros que mejor ajustan la
ecuacin a los datos (Diap. 10).
Estrictamente hablando, debiera decirse
ajuste de la ecuacin a los datos y
no ajuste de los datos a la ecuacin,
ya que lo que se trata de "amoldar"
(ajustar) es la ecuacin (moviendo los
valores de los parmetros) y no los
datos, que son invariables. Con este
sentido tambin se habla de ajuste de
curvas a datos (curve fitting).

Diapositiva 10
Criterios de Ajuste
1) Minimizar residuales al cuadrados (Mnimos Cuadrados)

SSQ = (yi f (p, x i )) 2

(Norma L2)

residual

residual

y
residual
residual
residual

Curva suave debida a la


ecuacin con los parmetros
optimizados

Diapositiva 11

11) Como definicin de ajuste se


utiliza normalmente el criterio de los
mnimos cuadrados, que consiste en
obtener aquellos valores de los
parmetros que minimizan el sumatorio
de residuales al cuadrado (ver
diapositiva 11). Siendo los residuales
las distancias verticales de los puntos a
la curva de ajuste.
Este criterio es muy sensible a los
datos atpicos, por lo que se han
desarrollado otros criterios ms
robustos: a) minimizar las distancias
verticales absolutas y b) minimizar la
distancia absoluta ms grande. Pero
estos criterios son menos utilizados.

Ajuste de ecuaciones a curvas

Regresin lineal y no lineal por mnimos cuadrados


Encontrar las mejores estimas de los parmetros

Objetivos

Cuantificar precisin parmetros usando lmites de confianza

Regresin lineal

Regresin no lineal

(Ecuaciones lineales en los parmetros)

(Ecuaciones no lineales en parmetros)

SSQ = (y i ( a + bx i )) 2

SSQ = (y i Ae -kx i )) 2
(SSQ)
= ............... = 0 A = ?
A
(SSQ)
= ............... = 0 k = ?
k

(SSQ)
= .......... ..... = 0 a = .........
a
(SSQ)
= .......... ..... = 0 b = ..........
b

No se pueden explicitar los parmetros,


solucin aproximada
Mtodos iterativos tipo:
Bsqueda (Random Search)
Gradiente (Gauss-Newton)

Se puede explicitar cada parmetro,


solucin nica, mtodo exacto

Regresin lineal mltiple

f = C + B 1 x 1 + B 2 x 2 + B 3x 3

Diapositiva 12

12) Se denomina Regresin al proceso


general de ajustar una ecuacin a unos
datos. Y cuando esto se hace mediante
el criterio de los mnimos cuadrados se
habla de regresin lineal y no lineal
por mnimos cuadrados, segn que la
ecuacin a ajustar sea lineal o no lineal
en los parmetros (Diap. 12). En ambos
casos el objetivo es el mismo: encontrar
las mejores estimas de los parmetros y
cuantificar la precisin de los mismos.
En el caso de la regresin lineal la
solucin es nica y el mtodo es exacto,
mientras que en la regresin no lineal la
solucin es aproximada y el mtodo es
iterativo (de bsqueda, de gradiente, ...).
13) El procedimiento matemtico de la

Notacin matricial en regresin lineal


y = p1 x 1 + p 2 x 2 + p 3 x 3 ......... pnxn + u
Y = X P +U

YXP=R

( Y X P )( Y X P ) = SSQ
(SSQ)

= 0 ( X)T ( Y X P ) + ( Y X P )T ( X ) = 0

2 X ( Y X P ) = 0 ( X X ) P = X Y
T

P = ( X X ) 1 X Y
T

Solucin nica, mtodo exacto

regresin lineal es directo. Se basa en


aplicar la condicin de mnimo, es decir
que la derivada del sumatorio de
residuales al cuadrado (SSQ) respecto a
cada parmetro ha de valer cero, lo que
permite despejar el valor de cada
parmetro y obtener un valor nico y
exacto. Cuando hay varias variables y
varios parmetros, el problema se
maneja mejor en notacin matricial,
cuyo desarrollo se muestra en la
diapositiva 13.

Diapositiva 13

WSSQ

Mtodos iterativos en regresin no lineal:


mnimo global y mnimos locales

Mnimo local

Mnimo
global

Pa
rm
etr
o

tro
me
Par

1.

No existe una solucin nica,


no son mtodos exactos

2.

Ningn algoritmo garantiza el


encontrar el mnimo global. Se
puede caer en mnimos locales

3.

Lo recomendable es alcanzar
un mismo mnimo a partir de
diferentes estimas iniciales de
los parmetros

Diapositiva 14

14) En la regresin no lineal el


problema de encontrar los parmetros
ptimos ya no tiene una solucin nica
de tipo explcito. En su lugar, hay que
utilizar mtodos iterativos, que tratan de
buscar con diferentes estrategias el
mnimo de SSQ. Un problema adicional
es que ninguno de estos mtodos
garantiza el que se haya encontrado el
mnimo global, existiendo la posibilidad
de que se haya caido en un mnimo
local (diap. 14). La nica alternativa es
probar con distintas estimas iniciales de
los parmetros y ver que se llega a un
mismo mnimo que podemos presumir
como global.

Ajuste de ecuaciones a curvas

15)
Algoritmos iterativos en regresin no lineal
Gradiente (Gauss-Newton, Marquardt)

De bsqueda (Random Search)

p1

x
x

x
x

x x

x
x

pi +1 = pi + i ui

x
x

x
x

W SSQ

Importancia de las estimas iniciales de los parmetros:


lmite inferior, valor inicial, lmite superior
(1, 100, 10000)

Diapositiva 15
Bondad de un ajuste en regresin lineal
(Respecto a los residuales)
Sumatorio de residuales al cuadrado :
SSQ = (y i f (p, x i )) 2
Varianza y desviacin estandar del ajuste :
SSQ
S2 =
y S = S2
nm

( ( y - y )(y - y ))
(y - y ) (y - y )
2

coef. correlacin cuadrado:

R2 =

i, c

i, c

=1-

SSQreg
SSQtotal

Representacin de los residuales:


Residual

+1
0
-1

Test de las rachas (p>0.05)


Test de los signos (p>0.05)

Acabamos de ver que la regresin


no lineal opera siempre con mtodos
iterativos a la hora de encontrar el
mnimo del sumatorio de residuales
(SSQ). Estos mtodos son de bsqueda
directa y de gradiente. Entre los
primeros destaca el mtodo de
bsqueda al azar (random search), que
consiste en ir probando en los distintos
puntos de una rejilla de los parmetros
hasta encontrar el mejor. Por su parte
los mtodos de gradiente se basan en las
derivadas de SSQ respecto a los
parmetros, y las diferencias entre ellos
radica en la forma en que calculan la
direccin de bsqueda u y la longitud
del paso (ver Diap. 15).
16) Para discernir acerca de la bondad
de un ajuste se utilizan diferentes
criterios en la regresin lineal. Unos se
refieren a los residuales: como son el
valor del sumatorio de residuales al
cuadrado, la varianza y la desviacin
estndar del ajuste, el coeficiente de
correlacin al cuadrado, la distribucin
grfica de los residuales (al azar, con
rachas), el test estadstico de las rachas,
el test de los signos... etc (ver Diap. 16).

Diapositiva 16

17)

Bondad de un ajuste en regresin lineal


(Respecto a los parmetros)

En notacin matricial los parmetros : P = ( X X ) -1 X Y


Matriz de varianza - covarianza : VAR(P) = (X T X) -1 S 2

Matriz de correlacin
p p = Cov [ pi , p j ]

var(p1)

cov(p(1), p(2)) var(p2)

..
..
..

cov(p(1),
p(n))
..
..
var(pn)

Lmites de confianza :
Coeficient e de variacin :

1 .0
0 .98

0 .56

0 .98
1 .0
0 .17

var p i var p j
0 .56
0 .17

1 .0

pi t (n - m, ) var( pi )
CV%(p i ) =

( VAR(p ) p ) 100

Test de redundancia de un parmetro :

Diapositiva 17

t=

0 - pi
var( pi )

(p<0.05)

Otros criterios de bondad de un


ajuste se refieren a los parmetros:
como son las varianzas de los
parmetros (dadas por la matriz de
varianza-covarianza) y las correlaciones
de los parmetros (matriz de
correlacin), los lmites de confianza de
los parmetros, los coeficientes de
variacin de los parmetros, el test de
redundancia de un parmetro (su valor
es tan prximo a cero que puede
despreciarse)....etc (ver diapositiva 17).

Ajuste de ecuaciones a curvas

Bondad de un ajuste en regresin no lineal


Los parmetros se obtienen por mtodos aproximados (iterativos)
Las propiedades estadsticas de los parmetros se ven
afectadas por:
- Carcter no lineal de la ecuacin
- Nmero de puntos
- Valores de x
Se toma como vlida la estadstica de la regresin lineal
( slo cierto en condiciones asintticas de n )
Hincapi: la estadstica asociada a la regresin no lineal se
suele interpretar de una manera ms flexible (por ejemplo se
admiten coeficientes de variacin de los parmetros de hasta el 50%)

18) En la regresin no lineal, la


estadstica asociada no es exacta y, por
defecto, se acepta como aproximada la
estadstica de la regresin lineal
expuesta ms arriba, lo cual solo sera
cierto en condiciones asintticas de
infinito nmero de puntos. En este
sentido, se suele ser ms flexible a la
hora de interpretar los indicadores
acerca de la bondad del ajuste. As, por
ejemplo, en regresin no lineal se
suelen admitir coeficientes de variacin
de los parmetros de hasta un 50%.

Diapositiva 18
19) El criterio de los mnimos cuadrados
Regresin con pesos estadsticos
El criterio de mnimos cuadrados asume que:
La variable x no tiene error

El error en la respuesta es aditivo : yi = f ( p , xi ) + u i


Los errores u i y u j son independientes

Todos los errores (ui, u j , ... ) siguen una distribucin normal de media
cero y varianza constante (todas las medidas tienen la misma precisin )

ltima suposicin no se suele cumplir y hay que normalizar los


residuales con un factor llamado peso estadstico:

w i = 1 si2

(weight)

(estas varianzas si se determinan


a partir de rplicas)

El criterio de optimizacin es ahora :

WSSQ = (1 si2 )(yi f (p, x i ))2


(weighted sum of squares)

Diapositiva 19

Ajustar siempre ecuaciones directas y nunca


transformaciones lineales
Ecuacin Michaelis-Menten
V
[S]
v = max
K M + [S]
wi =

1
VAR (v i )

Linealizacin Lineweaver -Burk


K
1
1
1
=
+ M
v Vmax Vmax [ S ]
wi =

1
VAR (1 v i )

pero VAR ( 1 v i ) =

wi =

v i4
VAR (v i )

Conclusin: Lo ortodoxo para determinar parmetros es la


regresin no lineal con pesos estadsticos a la ecuacin directa

Diapositiva 20

VAR (v i)
v i4

asume que el error al medir la variable


dependiente
es
aditivo,
que
son
independientes unos errores de otros y que
en conjunto siguen una distribucin de
media cero y varianza constante. A este tipo
de regresin se la denomina regresin sin
pesos estadsticos. Cuando esta suposicin
no es cierta (que es la mayora de las veces),
se hace necesario dar ms "importancia"
(ms peso) a los datos de menor error,
frente a los de mayor error (menos peso).
Para ello se corrigen los residuales con un
factor llamado peso estadstico que se
define como el inverso de la varianza
(Diap.13) y que viene a ser un factor de
normalizacin de residuales muy dispares.
Estos valores de varianza se suelen obtener
a partir de rplicas de cada dato
experimental.

20) Para ajustar ecuaciones no lineales


en los parmetros, se han utilizado
mucho las transformaciones lineales
(dobles inversos, logaritmos..), seguidas
de regresin lineal sin pesos estadsticos
(calculadoras).
Esta
prctica
es
desaconsejable, ya que no considera la
propagacin del error en la ecuacin
transformada, por lo que la estima de
los parmetros y sus lmites de
confianza son errneos. Para ajustar
ecuaciones no lineales, lo ms correcto
es la regresin no lineal con pesos
estadsticos a la ecuacin directa
(y=f(x)), sin transformacin alguna (ver
diapositiva 20).

Ajuste de ecuaciones a curvas

21)

Discriminacin entre modelos


Lo habitual es que se dude entre modelos alternativos dentro
de una secuencia, por ejemplo en una mezcla de isoenzimas :

v=

(n)[ S ]
V
Vmax (1)[ S ] Vmax (2)[ S ]
+
+ ......... + max
K M (n) + [ S ]
K M (1) + [ S ] K M (2) + [ S ]

1) Conviene comparar la bondad de los 2 ajustes rivales:


WSSQ, residuales, test de las rachas,
lmites de confianza de los parmetrosetc
2) Se debe aplicar el test F (modelos jerarquizados) :
F=

[(SSQ1 SSQ2 ) (m2 m1 )]


SSQ 2 (n - m 2 )

Si F > F(95%) se acepta modelo 2


Si F < F(95%) se acepta modelo 1

3) Otros criterios para modelos jerarquizados y no jerarquizados son:


Criterio AIC de Akaike, Mallows Cp

Diapositiva 21
Discriminacin por superposicin de ajustes

Diapositiva 22
Ajuste a ecuaciones de 2 variables
Ecuacin:

Inhibicin competitiva : v =
Datos:

Vmax [S]
[I ]

Km 1 +
+ [S]
I
K

Inhibidor :

2 .......

Sustrato :

8 ......

6.3

7.1

9.1

3.2

5.2

6.4

7.5 ........

velocidad : 5.2

Diapositiva 23

Cuando se analiza un sistema


bioqumico, lo normal es que se dude
entre modelos alternativos dentro de
una secuencia jerrquica (1 isoenzima,
2 isoenzimas...), se impone pues alguna
estrategia para discriminar entre
modelos rivales. Esta discriminacin
suele hacerse comparando la bondad de
los distintos ajustes y en base al test
estadstico "F", que valora si es o no
estadsticamente significativa la mejora
que experimenta habitualmente el
sumatorio de residuales al cuadrado al
pasar de una ecuacin de menos
parmetros a otra de ms parmetros
(Diapositiva 21).

22) Otro criterio para la discriminacin


entre modelos es la superposicin de los
ajustes respectivos, con el fin de observar
si los puntos se distribuyen al azar a ambos
lados de la curva ajustada (buen ajuste) o si
presentan tendencia a las rachas (mal
ajuste). Esta discriminacin visual se puede
hacer tanto en la representacin directa de
la ecuacin (diapositiva 22), como en otro
tipo de transformaciones de la misma,
principalmente transformaciones lineales
que son muy intuitivas. Pero esta estrategia
de transformaciones lineales slo es vlida
a efectos grficos de discriminacin o de
presentacin final de resultados, ya que el
ajuste y la determinacin de los parmetros
se deben hacer en el espacio directo.

23) Hasta ahora nos hemos referido al


caso de slo una variable independiente. Pero ocurre en Ciencia que es muy
frecuente el estudio de sistemas con 2
variables independientes o ms, como
ocurre por ejemplo con la inhibicin
competitiva en Bioqumica, en la que la
velocidad de reaccin depende de la
concentracin del sustrato y del
inhibidor (Diap. 23).

Ajuste de ecuaciones a curvas

24)

Estas ecuaciones en dos variables


independientes tambin se pueden
ajustar por tcnicas de regresin no
lineal. En este caso lo que se ajusta no
es una curva sino una superficie, como
puede observarse en la diapositiva 24
para la inhibicin competitiva, donde se
ha representado la velocidad en el eje
z, la concentracin de sustrato en el
eje x y la del inhibidor en el eje y.

Superficie ajustada

v=

Vmax [S]
[I ]

Km 1 +
+ [S]
KI

Diapositiva 24
Modelizacin en ecuaciones diferenciales
Ecuacin diferencial simple
Ejemplo : Cintica de orden uno

Sistema de ecuaciones diferenciales


Ejemplo : Modelo de Michaelis-Menten
k

d [E]

d [A]
= k [A]
dt

d [S]

-1

= - k1[E][S] + k-1[ES] + k2 [ES]

dt

Tiene solucin analtica sencilla:


[A] = [A]0 . e

1 X ES
2 E + P
ZZZZZ
E + S YZZZZ
Z
k

k
A

-kt

= - k1[E][S] + k-1[ES]
dt
d [ES]
= k1[E][S] - k-1[ES] - k2 [ES]
dt
d [P]
= k2 [ES]
dt
Integran numricamente (Adams, Gear...)

Diapositiva 25
Ajuste de ecuaciones diferenciales
Modelo de Michaelis-Menten reversible
k
k
1 ES ZZZZZZ
2 XE + P
ZZZZZX
E + S YZZZZZ
YZZZZZ
Z
k
k
-1

d [E]
=
dt
d [S]
=
dt
d [ES]
=
dt
d [P]
=
dt

Datos

[S]

[P]

[ES]

[E]

-2

8.7

0.1

- k1[E][S] + k-1[ES]

7.7
7.1

0.8
1.2

0.02
0.04

0.07
0.03

k1[E][S] - k-1[ES] - k2 [ES] +k-2[P][E]

6.5
6.1

1.8
2.3

0.07
0.08

0.02
0.01

..

..

..

- k1[E][S] + k-1[ES] + k2 [ES] - k2 [P][E]

k2 [ES]- k-2[P][E]

Diapositiva 26

..

25) La modelizacin en ecuaciones


diferenciales puede presentar diferentes formas.
Si se trata de una ecuacin diferencial simple, lo
usual es que sea de una variable independiente,
una variable dependiente y varios parmetros.
Este caso se suele integrar la ecuacin
diferencial analticamente y realizar el ajuste en
base a la ecuacin integrada correspondiente.
Cuando se trata de varias ecuaciones
simultneas, el caso mas frecuente es el de un
sistema de ecuaciones diferenciales ordinarias,
en el que solo hay una variable independiente
(normalmente el tiempo), varias variables
dependientes y diferentes parmetros (Diap. 25).
Su ajuste a los datos experimentales se aborda
por tcnicas de integracin numrica y
optimizacin. Los sistemas de ecuaciones con
ms de una variable independiente (por ejemplo
tiempo y distancia), llamados en ecuaciones
diferenciales en derivadas parciales, son menos
frecuentes y ms difciles de tratar.

26) Un ejemplo de ecuaciones


diferenciales ordinarias para el modelo
de Michaelis-Menten reversible se
muestra en la diapositiva 26.
Si quisiramos ajustar ese sistema de
ecuaciones a los datos empricos de
todas o algunas de las variables,
necesitaramos un programa que hiciera
simultneamente
una
integracin
numrica de las ecuaciones diferenciales seguida de una comparacin con
los puntos experimentales. Y as
iterativamente hasta que el ajuste
alcanzara la convergencia.

Ajuste de ecuaciones a curvas

10

Integracin y ajuste de Michaelis-Menten

Sustrato

Producto

27)

En la diapositiva 27 puede
observarse el ajuste de las ecuaciones
diferenciales comentadas en el punto
anterior a unos datos experimentales
simulados. Estas integraciones y ajustes
con ecuaciones diferenciales ordinarias
se pueden hacer en SIMFIT con el
programa DEQSOL.

Enzima.Sustrato
Enzima

Diapositiva 2
Ejemplo de regresin no lineal con SIMFIT
Con una preparacin enzimtica de dos isoenzimas se realiz el siguiente estudio:
8 puntos experimentales, en el margen de concentraciones de 0.05 a 50 mM,
espaciados logartmicamente y realizndose 5 rplicas por punto (40 datos en total).

[S]

0.050

0.0530

0.0006

0.050

0.0531

0.0006

0.050

0.0523

0.0006

0.050

0.0522

0.0006

0.050

0.0520

0.0006

..

..

..

50.0

1.73

0.06

50.0

1.86

0.06

50.0

1.86

0.06

50.0

1.77

0.06

50.0

1.76

0.06

Tienen las 2 isoenzimas la misma Vmax y Km?

v=

Vmax ( 1)[S ] Vmax ( 2 )[S ]


+
K m ( 1) + [S ] K m ( 2 ) + [S ]

w i = 1 si2
WSSQ = (1 si2 )(v i f ( p , [S ]i ) 2

28) A modo de caso prctico veamos


como abordar con SIMFIT algn ajuste
por regresin no lineal. Imaginemos
una preparacin enzimtica de dos
isoenzimas, con la que se hace un
estudio cintico con el objetivo de ver si
las 2 isoenzimas tienen la misma Vmax y
Km y en su caso determinar estos
valores. En esencia se trata de
discriminar si la ecuacin de velocidad
requiere 1 o 2 trminos de MichaelisMenten (ver Diap. 28), para lo cual
vamos a hacer un ajuste de regresin no
lineal con pesos estadsticos a los dos
modelos alternativos.

Diapositiva 28
Ajuste a 1 Funcin de Michaelis-Menten
Iteracin
WSSQ (1:1)
Algoritmo Bsqueda al azar
0
3.627E+04
1
7.945E+03
14
1.308E+03
Bsqueda 1 terminada (Sigma = 1.00)
43
1.131E+03
46
6.811E+02
61
6.444E+02
Bsqueda local terminada (Sigma = 0.10, 0.20)
WSSQ antes de la bsqueda = 3.627E+04
WSSQ despus de la bsqueda = 6.444E+02
Estimas iniciales de los parmetros
Vmax(1) = 1.609E+00
Km(1) = 1.669E+00
WSSQ antes del ajuste
= 6.444E+02
WSSQ despus del ajuste = 2.428E+02

Algoritmo Cuasi-Newton

redundancia : t =

N Parmetro
Valor
Err. estnd.
...Lm.conf.95%..
1
Vmax(1)
1.617E+00
2.90E-02
1.56E+00
1.68E+00
2
Km(1)
1.525E+00
3.68E-02
1.45E+00
1.60E+00

Diapositiva 29

p
0.000
0.000

0 - pi
var( pi )

(p<0.05)

29) Primero el programa ajusta a los


datos la funcin con slo 1 trmino de
Michaelis-Menten. Comienza con un
algoritmo de bsqueda al azar que va
probando diferentes valores de los
parmetros y se va quedando con los
que dan un menor valor de WSSQ. Esos
valores entran como estimas iniciales a
un algoritmo de gradiente CuasiNewton, que sigue optimizando el
WSSQ hasta que se alcanza la
convergencia. Hecho esto el programa
muestra los valores de los parmetros,
su error estndar, sus lmites de
confianza y el valor de p de
redundancia de cada parmetro (Diap.
29).

Ajuste de ecuaciones a curvas

Matriz de correlacin de
1.000
0.876 1.000
si
Var.indep. Err.estnd.
5.000E-02
6.381E-04
5.000E-02
6.381E-04
5.000E-02
6.381E-04
5.000E-02
6.381E-04
5.000E-02
6.381E-04

los parmetros

yexp.

yajus.

yexp.- yajus.

Var.dep.
5.295E-02
5.309E-02
5.226E-02
5.219E-02
5.151E-02

Teora
5.133E-02
5.133E-02
5.133E-02
5.133E-02
5.133E-02

Residuales
1.618E-03
1.759E-03
9.279E-04
8.599E-04
1.809E-04

Resids.pond.
2.536E+00
2.757E+00
1.454E+00
1.348E+00
2.836E-01

.........
.........

.........
.........

.........
.........

.........
.........

.........
.........

.........
.........

5.000E+01
5.000E+01
5.000E+01
5.000E+01
5.000E+01

5.995E-02
5.995E-02
5.995E-02
5.995E-02
5.995E-02

1.729E+00
1.865E+00
1.855E+00
1.773E+00
1.763E+00

1.569E+00
1.569E+00
1.569E+00
1.569E+00
1.569E+00

1.600E-01
2.958E-01
2.865E-01
2.041E-01
1.937E-01

2.669E+00*
4.934E+00**
4.779E+00**
3.404E+00**
3.231E+00**

(Err.rel.resid.: ****** >160%,***** >80%,**** >40%,*** >20%,** >10%,* >5%)

11

30) Sigue despus mostrando la matriz


de correlacin de los parmetros y una
tabla completa con los valores de
yexperimental, yajustada y los residuales
(yexperimental-yajustada). Si el error relativo
del residual es grande, se levanta un
asterisco o ms de uno a la derecha del
residual, indicando que el error relativo
es > del 5 %, > del 10 % ....etc (ver
Diap. 30).

Diapositiva 30
Anlisis global de los residuales (importante)
Anlisis de Residuales
Anlisis de residuales: WSSQ
P(Ji-cuadrado >= WSSQ)
R-cuadrado, cc(teora-datos)^2
Mayor err. rel. en residuales
Menor err. rel. en residuales
Media de err.rel. en residuales
Residuales con err.rel. 10-20 %
Residuales con err.rel. 20-40 %
Residuales con err.rel. 40-80 %
Residuales con err.rel. > 80 %
Nmero residuales < 0 (m)
Nmero residuales > 0 (n)
Nmero de rachas observadas (r)
P(rachas =< r , dados m y n)
Valor en cola inferior al 5%
Valor en cola inferior al 1%
P(rachas =< r , asumiendo m+n)
P(signos =< menor n observado)
Estadstico de Durbin-Watson
W de Shapiro-Wilks (resid.pond.)
Nivel de significancia de W
Test AIC de Akaike (SC Schwarz)
Veredicto sobre bondad ajuste:

weighted sum of squares


= 2.428E+02
= 0.000
Rechazar al 1% significancia
= 0.982
Test 2 (p < 0.01)
=
17.23 %
=
0.35 %
=
5.66 %
=
15.00 %
=
0.00 %
=
0.00 %
=
0.00 %
=
21
=
19
=
7
= 0.000
Rechazar al 1% significancia
=
15
Test rachas (p < 0.01)
=
13
= 0.000
= 0.875
= 0.250 <1.5 (correlacin valores +)
= 0.974
= 0.476
= 2.237E+02 ( 2.234E+02)
bueno
cualitativo (poco valor)

Diapositiva 31

Hay 7 rachas (pocas para 40


residuales), eso significa un ajuste
sesgado (los residuales debieran
estar al azar y no en racimos)

Diapositiva 32

31)

A continuacin se muestra un
anlisis global de los residuales. Se da
el valor de WSSQ, que si el ajuste es
bueno debiera seguir una distribucin
Ji-cuadrado con n-par. grados de
libertad, extremo que se encarga de
analizar la p correspondiente, que en
este caso vale 0.000 (p < 0.05) y hace
que se levante una bandera a la
derecha con un Rechazar al 1 % de
significancia. Luego sigue el valor de
R2, la media de los errores relativos de
los residuales, el n de residuales
positivos y negativos, el n de rachas, la
p del test de las rachas, que en este
caso vale 0.000 (p < 0.05) y hace que se
levante la bandera correspondiente.
(Ver Diap. 31).
32) El programa permite hacer
tambin una grfica de los residuales,
en este caso de residuales ponderados
(considerando sus pesos) en ordenadas
frente a los valores tericos ajustados
(Diap. 32). Para este ajuste se observan
7 rachas, que son pocas para 40
residuales, donde cabra esperar una
distribucin ms al azar y por tanto
mayor nmero de rachas. Esto significa
un ajuste sesgado, lo que unido al
anlisis hecho en el punto anterior (31),
nos va llevando a la conclusin de que
la bondad de este ajuste es escasa.

12

Ajuste de ecuaciones a curvas

33) La mejor confirmacin de que el


ajuste no es bueno, como venimos
apuntando, es representar los puntos
experimentales junto a la funcin
ajustada (Diap. 33). A la vista de esta
grfica se comprueba que el ajuste est
sesgado, ya que los ltimos puntos los
ha dejado claramente por encima de la
curva.

Diapositiva 33
Ajuste a 2 Michaelis-Menten
Iteracin
WSSQ (2:2)
0
3.627E+04
Algoritmo
1
1.045E+04
7
3.393E+03
21
1.262E+03
30
8.976E+02
143
5.505E+02
Bsqueda 1 terminada (Sigma = 1.00)
185
5.462E+02
195
4.145E+02
202
3.354E+02
222
2.044E+02
Bsqueda local terminada (Sigma = 0.10, 0.20)

bsqueda al azar

Para la bsqueda al azar 2:2


N de mejoras en
320 ciclos =
9
WSSQ antes de la bsqueda = 3.627E+04
WSSQ despus de la bsqueda = 2.044E+02
Estimas iniciales de los parmetros
Vmax(1) = 1.530E+00
Vmax(2) = 6.222E-01
Km(1) = 1.500E+00
Km(2) = 1.091E+02
WSSQ antes del ajuste
= 2.044E+02
WSSQ despus del ajuste = 3.442E+01

Algoritmo Cuasi-Newton

Ajuste 2:2 Funcin de Michaelis-Menten


N
1
2
3
4

Parmetro
Vmax(1)
Vmax(2)
Km(1)
Km(2)

Valor
Err. estnd.
9.317E-01
6.70E-02
1.033E+00
8.81E-02
9.823E+00
2.39E+00
1.033E+00
6.43E-02

...Lm.conf.95%..
7.96E-01
1.07E+00
8.55E-01
1.21E+00
4.97E+00
1.47E+01
9.03E-01
1.16E+00

p
0.000
0.000
0.000
0.000

Las 4 p
son < 0.05 ,
parmetros
distintos 0

34) Automticamente, el programa


comienza a ajustar la funcin con 2
trminos de Michaelis-Menten (Diap.
34). Entra primero el algoritmo de
bsqueda y despus el de gradiente
Cuasi-Newton, mostrando finalmente la
tabla con los 4 parmetros de esta
funcin (2 Vmax y 2 Km), as como sus
lmites de confianza y sus valores de
p de redundancia del parmetro. Las
p son todas < 0.05 y los lmites de
confianza parecen razonables. Luego la
bondad de los parmetros parece
adecuada.

Diapositiva 34

35)

Matriz de correlacin de los parmetros


1.000
-0.834 1.000
0.990-0.869 1.000
0.930-0.593 0.882 1.000
Var.indep.
5.000E-02
5.000E-02
5.000E-02
5.000E-02
5.000E-02
.......
.......
5.000E+01
5.000E+01
5.000E+01
5.000E+01
5.000E+01

Err.estnd.
6.381E-04
6.381E-04
6.381E-04
6.381E-04
6.381E-04
......
......
5.995E-02
5.995E-02
5.995E-02
5.995E-02
5.995E-02

Var.dep.
5.295E-02
5.309E-02
5.226E-02
5.219E-02
5.151E-02
.......
.......
1.729E+00
1.865E+00
1.855E+00
1.773E+00
1.763E+00

Teora
5.242E-02
5.242E-02
5.242E-02
5.242E-02
5.242E-02
......
......
1.791E+00
1.791E+00
1.791E+00
1.791E+00
1.791E+00

Residuales
5.310E-04
6.720E-04
-1.590E-04
-2.270E-04
-9.060E-04
.......
.......
-6.235E-02
7.345E-02
6.415E-02
-1.825E-02
-2.865E-02

Resids.pond.
8.322E-01
1.053E+00
-2.491E-01
-3.557E-01
-1.420E+00
......
......
-1.040E+00
1.225E+00
1.070E+00
-3.044E-01
-4.779E-01

(Err.rel.resid.: ****** >160%,***** >80%,**** >40%,*** >20%,** >10%,* >5%)

Diapositiva 35

A continuacin se muestra para


este ajuste la matriz de correlacin de
los parmetros y la tabla con los valores
de Var. dep. (yexp.), Teora (yajust.) y
los residuales (yexp.-yajus.). En esta
ocasin
los
residuales
parecen
pequeos, ya que no se levantan
asteriscos a la derecha de los mismos,
indicando que el error relativo no es >
del 5 %, > del 10 % ....etc (ver
diapositiva 30).

Ajuste de ecuaciones a curvas

Anlisis global de los residuales para 2 MM


Anlisis de Residuales
Anlisis de residuales: WSSQ
P(Ji-cuadrado >= WSSQ)
R-cuadrado, cc(teora-datos)^2
Mayor err. rel. en residuales
Menor err. rel. en residuales
Media de err.rel. en residuales
Residuales con err.rel. 10-20 %
Residuales con err.rel. 20-40 %
Residuales con err.rel. 40-80 %
Residuales con err.rel. > 80 %
Nmero residuales < 0 (m)
Nmero residuales > 0 (n)
Nmero de rachas observadas (r)
P(rachas =< r , dados m y n)
Valor en cola inferior al 5%
Valor en cola inferior al 1%
P(rachas =< r , asumiendo m+n)
P(signos =< menor n observado)
Estadstico de Durbin-Watson
W de Shapiro-Wilks (resid.pond.)
Nivel de significancia de W
Test AIC de Akaike (SC Schwarz)
Veredicto sobre bondad ajuste:

= 3.442E+01
(disminuy (antes 2.43E+02))
= 0.544
Test 2 (buen ajuste p > 0.05)
= 0.998
=
6.64 %
=
0.21 %
=
1.96 % (disminuy (antes 5.66 %))
=
0.00 %
=
0.00 %
=
0.00 %
=
0.00 %
=
21
=
19
(aument (antes 7 ))
=
18
= 0.217 (test rachas (buen ajuste ( p > 0.05 ))
=
15
=
13
= 0.261
= 0.875
= 2.019
= 0.982
= 0.776
= 1.495E+02 ( 1.489E+02)
increible

Diapositiva 36

Los residuales estn ms al azar (18 rachas frente a 7 de antes).


El ajuste no est sesgado (es mejor ajuste)

13

36) A continuacin se muestra el


anlisis de los residuales de este ajuste.
El valor de WSSQ ha disminuido
apreciablemente respecto al del modelo
previo. La p del test ji-cuadrado para
WSSQ vale ahora 0.544 (p > 0.05) lo
que indica un buen ajuste. El valor de
R2 vale ahora 0.998 (frete al 0.982 del
modelo previo). La media de los errores
relativos de los residuales ha bajado de
5.66 % en el modelo previo ha 1.96 %
del actual. El n de rachas ha subido de
7 en el modelo anterior a 18 en el
actual, con un p en el test de las
rachas de 0.217 (p > 0.05), lo que
significa una distribucin ms al azar de
los residuales, mejor ajuste (Diap. 36).
37) En este ajuste (diapositiva 37), la
representacin de los residuales
ponderados (con pesos) frente a los
valores tericos ajustados presenta una
distribucin mucho ms al azar que en
el ajusto al modelo previo. Esto
significa un ajuste mucho menos
sesgado, lo que unido al anlisis hecho
en el punto anterior (36), nos va
llevando a la conclusin de que la
bondad del ajuste actual es mayor que
la del ajuste previo.

Diapositiva 37

38) Otra confirmacin de que el ajuste


actual a 2 MM es mejor que el ajuste
previo a 1 MM, nos lo brinda la
superposicin de los dos ajustes a los
puntos experimentales (Diap. 38). A la
vista de esta grfica se comprueba que
el ajuste a 2 MM se adapta mejor a los
puntos que el ajuste a 1 MM. Esta
confirmacin visual es muy valiosa para
un investigador, pero parece que hace
falta algn criterio estadstico que lo
sancione cuantitativamente. Entro estos
criterios se encuentra el test F, el
criterio de Akaike y otros.
Diapositiva 38

14

Ajuste de ecuaciones a curvas

39)
Resultados del test F
WSSQ previo
WSSQ actual
N parmetros previos
N parmetros actuales
N de valores x
Akaike AIC previo
Akaike AIC actual
Schwarz SC previo
Schwarz SC actual
Mallows Cp (Cp/M1)
Grad. lib. numerador
Grad. lib. denominador
Estadstico F (EF)
P(F >= EF)
P(F =< EF)
Cola superior al 5%
Cola superior al 1%

=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=

(disminuye, pero hay que


2.428E+02
probar que es significativo )
3.442E+01
2
4
40
2.237E+02
(disminuye AIC, rechazar modelo previo)
1.495E+02
2.234E+02
1.489E+02
2.180E+02 ( 1.090E+02) (Cp/M > 1 rechazar modelo previo )
1
2
36
1.090E+02
0.0000
(p < 0.05, la disminucin en WSSQ es significativa )
1.0000
3.259E+00
5.248E+00

Conclusin basada en el test F


Rechace el modelo previo al 1% de significancia.
Existe un gran fundamento para los parmetros extra.
Acepte tentativamente el modelo actual de ajuste.

El propio programa se encarga de


aplicar el test F a los dos WSSQ
obtenidos, el del modelo previo (242.8)
y el del actual (34.42). No hay duda de
que el WSSQ se ha reducido en ocho
veces, pero tambin se ha incrementado
el n de parmetros de 2 a 4. Es
significativa esta disminucin del
WSSQ?. De eso se encarga el test F,
proporcionndonos en esta caso una
p=0.0000 (p < 0.01), por lo que
podemos rechazar el modelo previo al 1
% de significancia y quedarnos con el
modelo actual, porque aunque tiene ms
parmetros stos estaran justificados.

Diapositiva 39

40)

Una ltima prueba, acerca de si 2


trminos de MM estaran justificados
para ajustar los datos experimentales,
sera el hacer una deconvolucin de la
funcin a los dos trminos que la
forman y comprobar si su participacin
es suficientemente relevante. En este
caso (ver Diap. 40) se puede apreciar
que los dos trminos contribuyen casi
por igual a la funcin total. Parece
razonable suponer que cada una de las 2
isoenzimas tiene una cintica diferente,
pero globalmente se solapan para dar
una nica curva v-[S] que es la que se
observa experimentalmente.

Diapositiva 40

Bibliografa
1) William G. Bardsley, SIMFIT: Reference manual (2004), http://www. simfit. man. ac.uk.
2) H. J. Motulsky and A. Christopoulos, Fitting models to biological data using linear
and nonlinear regression. A practical guide to curve fitting (2003), http://www.
graphpad.com.
3) Leah Edelstein-Keshet, Mathematical Models in Biology (1988) , McGraw-Hill.
4) Paul Doucet and Peter B. Sloep, Mathematical Modeling in the Life Sciences (1992) ,
Ellis Horword.
5) Laszlo Endrenyi (Ed.), Kinetic Data Analysis. Design and Analysis of Enzyme and
Pharmacokinetic Experiments (1981), Plenum Press.

También podría gustarte