Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Alejandro C. Olivieri
2
La estadística es un método sistemático para llegar
a la conclusión incorrecta con un 95% de confianza.
Clase 1
Regresión lineal
3
documento, pero se recomienda consultar paralelamente el ejemplo concreto que se analiza en
la sección Ejercicio Resuelto.
El análisis mediante recta de calibración puede hacerse cuando sólo el analito de interés
presenta señal analítica o respuesta (absorbancia, fluorescencia, potencial eléctrico, corriente,
etc.), o cuando la señal del blanco es constante.
Las etapas que deben seguirse en un análisis mediante recta de calibración son:
• Determinación del extremo superior del rango lineal
• Preparación de patrones
• Medición de la respuesta de los patrones
• Estimación de los parámetros de la regresión
• Cálculo de las cifras de mérito del método
• Predicción en muestras incógnita
Las expresiones matemáticas que se presentarán a continuación y su empleo en el análisis
univariado están tomadas, en general, del trabajo de referencia clásico de Danzer y Currie,
preparado para la Unión Internacional de Química Pura y Aplicada (IUPAC).1 De la amplia
literatura que existe en este campo, recomendamos también los libros de Gardiner2 y Miller y
Miller.3
Preparación de patrones
Una vez estimado el extremo superior del rango lineal de la técnica, deben prepararse
patrones de concentración conocida dentro de dicho rango, e incluyendo el valor cero de
concentración del analito (blanco). Usualmente, se preparan varios patrones (como mínimo
cinco) con concentraciones igualmente espaciadas entre cero y el extremo superior del rango
lineal, y cada patrón se analiza por triplicado.
Debe ponerse especial cuidado en la preparación de los patrones del analito para la
calibración, de manera que las concentraciones de calibrado se conozcan con la máxima
precisión posible. Este requisito se relaciona con el hecho de que la recta de regresión se
ajusta mediante ecuaciones que suponen que los valores del eje x (concentraciones) tienen una
incertidumbre considerablemente menor que los del eje y (respuestas).
Sólo a modo de ejemplo, si se realizan mediciones de absorbancia como respuesta,
podemos suponer que el nivel de incertidumbre en la respuesta puede ser de alrededor de
0,005 unidades de absorbancia. Si los valores de las respuestas son, en promedio, de 1 unidad
de absorbancia, esto implica un nivel relativo de incertidumbre de aproximadamente 0,5% en
la respuesta. Por lo tanto, se deben preparar patrones de calibrado cuyas concentraciones se
conozcan con un error menor al 0,5%. Preparar soluciones de calibrado, por ejemplo, con
incertidumbres del orden del 0,1% en promedio, requiere pesar más de 100 mg de reactivo,
preparar soluciones en matraces calibrados de al menos 100 mL, tomar alícuotas con pipetas
aforadas calibradas, etc.
4
Medición de la respuesta de los patrones
Una vez preparados los patrones de concentración conocida, se miden sus respuestas
analíticas, incluyendo réplicas de cada medición. Usualmente cada patrón se mide por
triplicado. Es importante establecer la siguiente nomenclatura: si se emplean 6 patrones, cada
uno por triplicado, entonces el número de niveles diferentes de concentración (p) es 6, y el
número total de puntos de la recta de calibrado (m) es 18.
Qxy ∑ ( xi − x )( yi − y )
i =1
A= = m
(1)
Qxx
∑ ( xi − x)2
i =1
B = y − Ax (2)
donde xi es la concentración de cada uno de los m patrones de calibrado, x es el promedio de
las concentraciones de calibrado, yi es la respuesta en cada punto e y es el promedio de las
respuestas de los patrones de calibrado.
Además de los valores individuales de A y B, es importante tener una idea de su
incertidumbre asociada, ya que los datos instrumentales llevan asociados un error que
depende del ruido instrumental, y el ajuste por cuadrados mínimos sólo provee estimaciones
de la pendiente y ordenada al origen. Los desvíos estándar en los parámetros A y B se calculan
con las siguientes ecuaciones:
sy/ x
sA = (3)
Qxx
1 x2
sB = s y / x + (4)
m Qxx
En las ecuaciones precedentes, el parámetro sy/x es el desvío estándar de los residuos de la
regresión y está dado por:
m
∑ ( yi − yˆ i ) 2
i =1
sy/x = (5)
m−2
donde yi es la respuesta experimental de cada patrón de calibrado e ŷi representa la respuesta
estimada en cada punto, esto es, ŷi = A xi + B. En la ecuación (5) se emplean m – 2 grados de
libertad, ya que hay m datos disponibles, y 2 parámetros estimados en la regresión (A y B).
Estos parámetros estadísticos dan también una idea de la bondad de la regresión. Es
deseable que sy/x sea lo más pequeña posible; no obstante su valor está limitado por el ruido
instrumental. La distribución de los residuos, es decir, el modo en que los valores de (yi – ŷi )
varían con la respuesta, cumple también un papel importante en el análisis de la adecuación
de los datos al modelo lineal, como veremos más adelante.
5
Predicción en muestras incógnita
Los valores de A y B se requieren para realizar predicciones en muestras incógnitas, a
través de la ecuación yinc = A xinc + B, de donde puede obtenerse la concentración estimada del
analito en la muestra:
xinc = (yinc – B) / A (6)
donde yinc es, en general, un promedio de las respuestas obtenidas para un determinado
número de réplicas de la incógnita (habitualmente tres).
Un resultado no es tal, sin embargo, si no está acompañado por su correspondiente nivel
de incertidumbre. Para informar xinc con su incertidumbre asociada, y establecer su número
correcto de cifras significativas, es necesario calcular el error estándar en la concentración
predicha s(xinc), lo cual se lleva a cabo mediante la siguiente expresión:
s y / x 1 1 ( yinc − y ) 2 s y / x 1 1 ( xinc − x ) 2
s(xinc) = + + = + + (7)
A n m A 2Qxx A n m Qxx
donde sy/x es el desvío estándar de los residuos de la regresión dado por la ecuación (5), A es
la pendiente de la recta de regresión, n es el número de réplicas de la muestra incógnita, m es
el número total de patrones de calibrado, yinc es el promedio de las respuestas de las réplicas
de la incógnita, y es el promedio de las respuestas de los patrones de calibrado, y Qxx fue
definido en la ecuación (1).
La ecuación (7) es responsable de que la incertidumbre en la predicción dependa de cada
muestra y no de la calibración en forma global, ya que para cada muestra incógnita hay un
valor predicho de la concentración (xinc) y por lo tanto un valor asociado del desvío estándar
s(xinc). La forma de la ecuación (7) proviene de un análisis de la propagación de las distintas
fuentes de error a la concentración predicha. Puede demostrarse que hay dos fuentes
principales de incertidumbre: 1) la señal medida para la muestra incógnita y 2) las señales
medidas para las muestras de calibrado. La primera contribuye con el término (1/n) dentro de
⎛ 1 (x − x)2 ⎞
la raíz cuadrada de la ecuación (7), y la segunda con los términos ⎜⎜ + inc ⎟⎟ , que
⎝m Qxx ⎠
colectivamente reciben el nombre de leva (del inglés leverage). La leva mide, de algún modo,
la "distancia" de la muestra incógnita al centro de la calibración. Dado que la leva es mínima
cuando la concentración de la incógnita es igual al promedio de las concentraciones de
calibrado (esto es, cuando xinc = x ), se concluye que el método posee su máxima precisión en
este último caso. De ahí que se recomiende analizar muestras cuya concentración de analito
sea cercana al centro de las concentraciones de calibrado. La extrapolación a concentraciones
mucho mayores o menores que el promedio de la calibración aumenta la leva y con ello el
error en la predicción.
Otra conclusión que puede extraerse de la ecuación (7) es que el efecto de la calibración
sobre el error de predicción será también menor si m > n, es decir, cuando el número de
patrones de calibrado es superior al de réplicas empleadas para predecir.
En todo caso, el análisis de la ecuación (7) muestra que, para muestras no demasiado
alejadas del centro de la calibración, y dado que en general se cumple que m > n, el error
estándar en la concentración se puede aproximar por s(xinc) = sy/x / (A n1/2).
Debe notarse finalmente que el intervalo de confianza para la concentración predicha
puede calcularse multiplicando el valor del desvío estándar dado por la ecuación (7) por el
correspondiente coeficiente de student para un dado nivel de confianza (usualmente 95%) y
un número de grados de libertad igual a (m – 2).
6
Cifras de mérito del método
Las cifras de mérito de un método analítico se utilizan regularmente con el propósito de
calificar un determinado método y comparar sus propiedades analíticas con las provistas por
otras técnicas. Incluyen, entre otras, las siguientes:
• Sensibilidad de calibración
• Sensibilidad analítica
• Límite de detección
• Límite de cuantificación
• Rango dinámico
• Rango lineal
Debe notarse que la expresión "cifras de mérito" es la traducción correcta del inglés
figures of merit. Esta última no debe traducirse como "figuras de mérito".
Sensibilidad de calibración
La sensibilidad de calibración es igual a la pendiente de la recta de calibrado:
SEN = A (8)
Indica la variación de respuesta producida por una unidad de variación de concentración
del analito, y sus unidades son de señal × concentración–1.
Sensibilidad analítica
La sensibilidad de calibración no es adecuada para comparar dos métodos analíticos
cuando estos están basados en respuestas de diferente naturaleza (por ejemplo, absorbancia y
fluorescencia, o absorbancia y medidas electroquímicas, etc.). Para ello es preferible utilizar
la llamada sensibilidad analítica γ, definida por la relación entre la sensibilidad y el ruido
instrumental:
γ = SEN / sy (9)
donde sy es una medida conveniente del nivel de ruido en la respuesta. Para estimar el nivel de
ruido pueden usarse dos procedimientos, que en teoría deberían coincidir. En el primero, se
estima el ruido instrumental (sy) a través de los desvíos de las réplicas de las mediciones de
calibrado respecto de sus promedios:
p r
∑∑ ( yij − yi ) 2
i =1 j =1
sy = (10)
m− p
donde p es el número de niveles de concentración estudiados en la recta, r es el número de
réplicas de cada punto, yij es el valor de la respuesta correspondiente a cada nivel y réplica, e
yi es el promedio de las respuestas de las réplicas para cada nivel de concentración. En la
ecuación (10), el número de grados de libertad es m – p, ya que de los m datos disponibles, p
grados de libertad se reservan para el cálculo de las p medias y i . Este cálculo se ilustra en
forma detallada en el ejercicio resuelto que acompaña al presente documento.
En el segundo método de estimación del nivel de ruido, se lo estima como el desvío
estándar de los residuos de la regresión lineal, el parámetro ya definido sy/x [véase la ecuación
(5)].
Si los datos estudiados cumplen la relación lineal entre respuesta y concentración, los dos
métodos anteriormente descritos deben proveer resultados similares en cuanto a la estimación
del ruido instrumental.
7
Límite de detección
Es la mínima concentración detectable de manera confiable por la técnica. En la
definición moderna, el límite de detección (LOD) se calcula en función del desvío estándar de
la concentración predicha para una muestra blanco (s0).4 Para estimar s0 se recurre a la
ecuación (7), escrita del modo siguiente:
s y / x 1 1 ( xinc − x ) 2
s(xinc) = + + (11)
A n m Qxx
Si suponemos que se analiza una muestra por triplicado (lo más usual es n = 3) en la que
el analito no está presente (xinc = 0), la ecuación (11) se reduce a:
sy/ x 1 1 x 2
s0 = + + (12)
A 3 m Q xx
aunque s0 será diferente si se emplea un número diferente de réplicas. En todo caso, es
importante informar qué valor de n se considera en el cálculo de s0 y por lo tanto del LOD.
Como se muestra en la Figura 1, el LOD se calcula mediante una prueba de hipótesis
estadística. En primer lugar se fija una concentración llamada nivel crítico (LC en la Figura 1),
a partir de la cual se toman decisiones respecto de la detección del analito. Para
concentraciones superiores a LC, existe una probabilidad α de cometer el llamado error de
tipo I o falso positivo. Este último consiste en aceptar erróneamente la hipótesis alternativa,
admitiendo que el analito está presente cuando en realidad está ausente. Como se aprecia en la
Figura 1, la probabilidad de cometer este error de tipo I está dada por la zona sombreada de
azul (área α), siendo la "distancia" de LC al cero de la escala igual al producto de s0 por el
coeficiente tα,ν. Si α se toma igual a 0,05, entonces una concentración superior a LC tendrá
sólo un 5% de probabilidad de constituir un falso positivo.
Del mismo modo, existe una probabilidad β de cometer un error de tipo II o falso
negativo, en el que se acepta erróneamente la hipótesis nula, admitiendo que el analito está
ausente cuando en realidad está presente (zona sombreada de rojo en la Figura 1, con
probabilidad igual a β). Si β se toma también como 0,05, la probabilidad de obtener un falso
negativo será del 5%. En este caso la distancia de LC a la concentración correspondiente a
dicho valor de β es el producto del coeficiente tβ,ν por s0, considerando que este último
parámetro es muy cercano al desvío estándar en la concentración de una muestra blanco.
Puede notarse entonces que el valor de LOD depende de α y β, y de los desvíos estándar
de las dos curvas gaussianas de la Figura 1. En general, ambas probabilidades se toman como
iguales 0,05, mientras que los desvíos estándar se suponen ambos iguales a s0. De este modo,
el LOD está dado por:5
LOD = 2 × t0,05,m–2 × s0 (13)
6 7
definición que ha sido adoptada también por IUPAC e ISO. En la práctica, dado que m es un
número relativamente grande, el valor de (2×t0,05,m–2) tiende a 3,3, por lo que una ecuación
aproximada para el límite de detección es LOD = 3,3 s0.
Nótese que antiguamente se definía el LOD contemplando únicamente errores de tipo I,
como la concentración correspondiente a una relación señal/ruido igual a 3, lo que equivale a
fijar el límite de detección como LOD = 3sbl / A, donde sbl es el desvío estándar en la señal
del blanco. En esta aproximación, la probabilidad de cometer errores de tipo I era de 0,1%,
que corresponde a t0,001,ν = 3 (para un número muy grande de grados de libertad). Esta
definición, ya abandonada por la IUPAC, no contempla los errores de tipo II.
8
(tα,ν + tβ,ν) s0
Límite de cuantificación
Es la mínima concentración cuantificable en forma confiable. Este parámetro (LOQ) se
toma como la concentración correspondiente a 10 veces el desvío estándar (en unidades de
concentración) del blanco, con lo cual:
LOQ = 10 s0 (14)
De este modo, el desvío estándar relativo (DSR) para una concentración igual al LOQ es
del 10%, nivel que se toma convencionalmente como el máximo DSR aceptable para
cuantificar el analito en una muestra.
Rango dinámico
Se considera que va desde la menor concentración detectable (el LOD) hasta la pérdida de
relación entre respuesta y concentración; véase la Figura 2, adaptada de la excelente obra de
Valcárcel.8 El rango dinámico es también el rango de aplicabilidad de la técnica. En la zona
de pérdida de la linealidad, podría aplicarse, en principio, un método de regresión polinómica
para la calibración (o algún otro de naturaleza no lineal), de modo que nada impide que dicha
zona sea utilizada con propósitos predictivos.
Rango lineal
Se considera que el rango lineal comprende desde la menor concentración que puede
medirse (el LOQ) hasta la pérdida de la linealidad (Figura 2). Una manera conveniente de
medir el cumplimiento de la linealidad es a través de la relación que existe entre la variancia
de la regresión, medida por (sy/x)2 [ecuación (5)], y la del ruido instrumental, medida por (sy)2
[ecuación (10)]. Si la primera es significativamente mayor que la segunda, se supone que hay
causas de desvío de la ley lineal que son estadísticamente superiores al ruido en la respuesta.
Para emplear esta prueba es esencial que se cumpla el supuesto bajo el cual se realiza el ajuste
lineal, esto es, que los errores en concentración de calibrado sean menores que en respuesta.
De lo contrario, se acumularían en (sy/x)2 incertidumbres derivadas de la imprecisión en las
concentraciones de los patrones, que nada tienen que ver con el ruido instrumental o las
pérdidas de la linealidad.
La prueba estadística que se utiliza para determinar si los datos se ajustan a la ley lineal es
la F: en primer lugar se calcula un valor "experimental" de F, dado por:
9
Fexp =
(s y / x )2
(15)
(s y )2
Luego se compara este valor con el crítico que se encuentra en tablas de F (de una cola)
para m – 2 y m – p grados de libertad, y un determinado nivel de confianza, por ejemplo 95%.
Si Fexp < F, se acepta que los datos se comportan linealmente. Alternativamente, se calcula la
probabilidad pF asociada a este valor de Fexp, y se considera que la prueba de linealidad es
aceptada si pF > 0,05. Esta prueba se describe en detalle en el trabajo de Danzer y Currie.1
Rango dinámico
Respuesta
Rango lineal
Pérdida de la relación
respuesta-concentración
Extremo superior
del rango lineal
Concentración
LOD
LOQ
10
A
Residuos 0
B
Residuos
C
Residuos
Concentración
Figura 3. Residuos de la regresión. A) Comportamiento
lineal. B) Comportamiento no lineal. C) Comportamiento
lineal con alta incertidumbre en la concentración de los
patrones.
También es útil, como en todo ajuste por cuadrados mínimos, examinar visualmente la
distribución de los residuos de la regresión. Un gráfico de residuos (yi – A xi + B) en función
de xi puede ser muy informativo respecto de la presencia de no linealidades, ya que el valor de
Fexp puede resultar significativo no solamente porque la relación entre las variables no sea
lineal, sino por incertidumbres en la preparación de los patrones. La Figura 3 ilustra casos
representativos al respecto. En el caso A), el comportamiento es lineal: se espera que la
11
distribución de los residuos sea al azar, y que la variabilidad interna de las réplicas a cada
nivel de concentración sea comparable a la variabilidad global (precisamente este es el sentido
de la prueba estadística F antes comentada). En el caso B) se aprecia visualmente que los
residuos poseen un comportamiento parabólico, caso típico de desvíos de la ley lineal.
Finalmente, en el caso C), los residuos muestran una variabilidad global significativamente
mayor que la que presentan las réplicas a cada nivel. Esta situación es típica de la presencia de
mayor incertidumbre en las concentraciones nominales de los patrones de calibrado que en la
señal instrumental, aunque el sistema se comporte linealmente. De ahí que se haya puesto
hincapié en la necesidad de contar con patrones cuya concentración se conozca con mayor
precisión que el ruido instrumental. En general, sin embargo, la distribución de los residuos
no es tan clara como los casos presentados en la Figura 3, por lo que es importante aplicar el
criterio estadístico F.
Debe notarse que no hemos empleado, en todo este documento, al parámetro r, el
coeficiente de correlación, aún cuando popularmente se recurre a él como prueba de
linealidad o de bondad del ajuste. En este sentido, vale la pena repetir textualmente el
siguiente pasaje del trabajo de Danzer y Currie: "el coeficiente de correlación, que es una
medida de la relación de dos variables azarosas, no tiene ningún significado en la calibración
analítica, debido a que los valores de x no están distribuidos al azar".1 El coeficiente de
correlación se emplea para responder preguntas tales como: ¿está correlacionada la
concentración de antimonio con la de plomo en muestras de agua de una zona productora de
metales?. En este caso se trata de analizar si existe correlación entre variables sobre las que el
operador tiene muy poco control.
Programas de computación
Los métodos descritos en esta clase pueden aplicarse con cualquier programa comercial
que sea capaz de efectuar una regresión por cuadrados mínimos. Los parámetros faltantes
pueden calcularse luego "a mano" con las ecuaciones provistas en este documento. En este
sentido, la obra de Gardiner2 hace una excelente descripción del uso de la planilla de cálculo
EXCEL para propósitos analíticos en general, y para estudios mediante regresión univariada
en particular.
Para quienes deseen introducirse al mundo del entorno matricial MATLAB, esencial para
cálculos avanzados en quimiometía, se proveen dos rutinas que calculan todos los parámetros
aquí descritos, y permiten calibrar y predecir a partir de datos univariados. Confiamos que la
discusión del ejercicio resuelto que se acompaña, el contenido del documento 'COMO
OPERAR CON MATLAB.PDF', así como las rutinas 'LR_CAL.M' y 'LR_PRED.M',
proveerán la información requerida para organizar los datos e implementar las rutinas.
También se proveen programas independientes ejecutables en QB, como alternativa para
quienes no puedan acceder a MATLAB: 'LR_CAL.EXE' y 'LR_PRED.EXE'. Para operarlos
puede consultarse el documento 'COMO OPERAR CON QB.PDF'.
Ejercicio resuelto
1) La Tabla 1 proporciona un ejemplo de datos de respuesta-concentración para su análisis,
incluyendo respuestas medidas por triplicado. Grafique los datos de respuesta en función de la
concentración y compruebe en forma visual que se desvían de la linealidad. Establezca un
límite superior del rango lineal en forma cualitativa, para luego compararlo con el calculado
mediante una prueba estadística apropiada.
12
Tabla 1. Concentraciones y respuestas para un rango en el que se sospecha
que existen desvíos de la linealidad.
Concentración Respuesta 1 Respuesta 2 Respuesta 3
del patrón
0,00 0,06 0,08 –0,06
1,00 1,44 1,56 1,41
2,00 2,82 2,76 2,90
3,00 4,15 4,20 4,08
4,00 5,29 5,46 5,52
5,00 6,61 6,54 6,69
6,00 7,79 7,70 7,69
7,00 8,89 8,97 8,83
8,00 10,03 9,88 9,77
9,00 10,84 10,91 10,65
10,00 11,87 11,81 11,90
Note que los valores de concentración están dados con una precisión de ±0,01, lo cual
implica un error relativo porcentual promedio de 0,01×100/5 = 0,2% (Tomamos 5 como el
valor promedio de las concentraciones de calibrado). Los valores de respuesta también están
informados con una incertidumbre de ±0,01 unidades, si bien un análisis cualitativo de la
variabilidad de los replicados indica que la incertidumbre en esta medición es mayor que lo
informado en la Tabla 1. Posteriormente haremos un análisis más detallado, pero en principio
es importante verificar que la incertidumbre relativa es mayor en la respuesta que en la
concentración.
Usuarios de MATLAB: los datos de la Tabla 1 están contenidos, en el formato apropiado
para ser estudiados por la rutina 'LR_CAL.M' de Matlab, en el archivo de texto
'DATOS_EJ_RES_COMPLETOS.TXT'.
Usuarios de QB: los datos están en el archivo de texto 'D_E_R_C.TXT', para ser
estudiados por el programa 'LR_CAL.EXE'.
2) La Tabla 2 muestra los mismos datos que la Tabla 1, restringidos hasta un límite
superior de concentración para el cual se cumple la linealidad (más adelante se muestra cómo
se llegó a esta conclusión).
13
Calcule los valores de la pendiente y ordenada al origen para la recta ajustada con los
datos de la Tabla 2.
3) Estime los desvíos estándar en la pendiente y ordenada al origen, e informe los valores
de A y B con el número correcto de cifras significativas.
4) La Tabla 3 muestra los valores de la respuesta para cuatro muestras incógnita, todos por
triplicado.
Los datos de la Tabla 3 están contenidos, en el formato apropiado para ser estudiados por
la rutina 'LR_PRED.M' de Matlab, en el archivo de texto 'DATOS_EJ_RES_TEST.TXT'.
Estime la concentración del analito en las cuatro muestras de la Tabla 3, calcule sus
desvíos estándar e informe el resultado con el número apropiado de cifras significativas.
Respuesta detallada
1) El análisis de estos datos mediante los programas LR_CAL.M (Matlab) o
LR_CAL.EXE (QB) indica que los datos no se comportan en forma lineal. En particular, se
obtiene un valor de Fexp de 8,88, con una probabilidad asociada pF de 0,001. La gráfica de los
residuos es informativa al respecto:
14
2) Los valores estimados, dados por las ecuaciones (1) y (2) son, para el ejemplo de la
Tabla 2, A = 1,3174 y B = 0,1237. Estos últimos números tienen, probablemente, más cifras
significativas que lo permitido por sus desvíos estándar. Para acotarlos al número correcto de
cifras es necesario estimar sus incertidumbres.
3) Los desvíos estándar calculados son sy/x = 0,1, sA = 0,01 y sB = 0,04. Lo correcto es
informar la pendiente y ordenada al origen de la recta ajustada del modo que sigue:
A = 1,32(1)
B = 0,12(4)
15
Puede notarse que la concentración predicha se acotó a dos cifras decimales significativas,
teniendo en cuenta que los desvíos estándar son todos aproximadamente de 0,05 unidades.
Nótese que los valores de s(xinc) son iguales en la Tabla 4 porque se informan con una sola
cifra significativa, aunque su cálculo detallado demuestra que difieren entre sí, de la manera
prevista por el efecto de la leva.
Es importante destacar también que el desvío estándar relativo (DSR) dado en la Tabla 4
es alto para la primera muestra, y razonablemente bajo para las otras. En el primer caso, la
concentración predicha es también baja. Estas consideraciones se relacionan con la mínima
concentración detectable por la técnica, que se considerará a continuación.
También pueden fijarse los intervalos de confianza alrededor de una predicción,
empleando los coeficientes de student de dos colas para un 95% de confianza y (m – 2) grados
de libertad. Por ejemplo, para la muestra No. 4 en la Tabla 4:
xinc = 3,51 ± t(p = 0,05; 16 GL) × s(xinc) = 3,51 ± 2,1 × 0,05 = 3,5 ± 0,1
Como puede verse en la figura anterior, la distribución de los residuos conserva aún
rastros de la falta de linealidad de los datos, pero la prueba F dice que esta impresión no es
estadísticamente relevante: Fexp = 1,58, pF = 0,21. La Tabla 5 ilustra el cálculo detallado de sy
para esta prueba.
En el presente ejemplo, la sensibilidad está dada por SEN = 1,32 (Unidades de
respuesta)×(Unidades de concentración)–1
Para el cálculo de la sensibilidad analítica se requiere una estimación del nivel de ruido
instrumental. Para los datos de la Tabla 2, p = 6, r = 3, sy = 0,08 (véase la Tabla 5 para el
detalle del cálculo).
16
Tabla 5. Parámetros requeridos para el cálculo de sy.
i j yij yi (yij – yi )2
1 0,06 0,0009
1 2 0,08 0,03 0,0025
3 –0,06 0,0081
1 1,44 0,0009
2 2 1,56 1,47 0,0081
3 1,41 0,0036
1 2,82 0,0001
3 2 2,76 2,83 0,0049
3 2,90 0,0049
1 4,15 0,0001
4 2 4,20 4,14 0,0036
3 4,08 0,0036
1 5,29 0,0169
5 2 5,46 5,42 0,0016
3 5,52 0,0100
1 6,61 0,0000
6 2 6,54 6,61 0,0049
3 6,69 0,0064
p r
17
Tabla 6. Rangos de concentración y estudio de la linealidad mediante la prueba F.
Rango de concentración Fexp pF
0-10 8,88 0,001
0-9 6,69 0,001
0-8 4,62 0,001
0-7 3,50 0,007
0-6 2,73 0,031
0-5 1,58 0,214
Estos resultados indican que a partir de una concentración de analito igual a 6 unidades se
pierde la linealidad. En realidad, la no-linealidad se mantiene. Debería decirse que a partir de
6 unidades de concentración no es posible distinguir la incertidumbre por falta la linealidad de
la incertidumbre intrínseca de la respuesta analítica.
La Tabla 7 resume las cifras de mérito calculadas.
Ejercicios propuestos
1) Se analiza una serie de muestras patrones mediante dos métodos analíticos, uno basado
en medidas de absorbancia y otro basado en medidas de fluorescencia. Los resultados se
muestran en la siguiente tabla:
Calcule las cifras de mérito para cada método. ¿Cuál de estos métodos puede considerarse
más sensible? ¿Qué parámetro(s) emplea para justificar la mayor sensibilidad de un método
sobre el otro?.
2) Se mide por triplicado una muestra incógnita, usando ambos métodos descriptos en el
problema anterior. Los resultados se presentan en la siguiente tabla:
18
Método A Método B
Respuesta Respuesta Respuesta Respuesta Respuesta Respuesta
1 2 3 1 2 3
0,25 0,26 0,25 25,2 25,1 25,3
Calcular la concentración del analito por ambos métodos, y estimar su desvío estándar.
¿Qué comentarios pueden hacerse respecto de estos resultados?
Caso A
Muestra Concentración Respuesta 1 Respuesta 2 Respuesta 3
1 0,000 0,78 0,80 0,82
2 0,198 3,38 3,44 3,51
3 0,392 5,75 6,16 6,01
4 0,583 8,53 8,51 8,68
5 0,769 10,97 11,04 10,89
6 0,950 13,40 13,08 13,37
Caso B
Muestra Concentración Respuesta 1 Respuesta 2 Respuesta 3
1 0,000 0,01 0,03 0,04
2 0,198 1,96 1,88 1,90
3 0,392 3,75 3,75 3,80
4 0,583 5,59 5,52 5,56
5 0,769 7,30 7,35 7,27
6 0,950 9,07 8,95 9,03
7 1,130 10,83 10,71 10,46
8 1,310 12,08 12,11 12,21
19
El 42,57 % de toda la estadística está equivocado.
Clase 2
Regresión lineal
20
Por otro lado, cuando se desean comparar dos métodos analíticos, se determina, por
ambos métodos, el contenido de un analito en una serie de muestras en las que su
concentración es variable (dentro del rango lineal de cada uno de ellos).
En ambos casos se trata de comparar parejas de valores que idealmente serían iguales, y
estudiar el posible desvío de esta situación ideal, en un contexto estadístico y con un cierto
nivel de confianza. Es por esta razón que ambos procedimientos se incluyen en la presente
clase.
21
max[s ( yi ) 2 ]
Fexp = (2)
min[s ( yi ) 2 ]
Este valor se compara luego con el valor crítico de tablas para n – 1 y n – 1 grados de
libertad (usualmente con el 95% de confianza). Si Fexp > Fcrit entonces se recomienda calcular
los parámetros A y B de la regresión con el método WLS que se describe más adelante.
22
son variables estadísticamente independientes, y que siempre existe un cierto grado de
correlación entre ellas.
El procedimiento correcto debe considerar el intervalo de confianza conjunto entre la
pendiente y la ordenada al origen. Este intervalo es una región en el plano de las dos variables
(pendiente y ordenada al origen) que tiene forma elíptica. Por este motivo, la prueba
estadística correcta consiste en investigar si el punto (1,0) está contenido en la región elíptica
de confianza conjunta de la pendiente y la ordenada al origen. La prueba se conoce como
EJCR (por elliptical joint confidence region). Específicamente, la región elíptica está
descripta por la siguiente ecuación:9
q q
q(β − B) 2 + 2(α − A)(β − B)∑ xi + (α − A) 2 ∑ xi2 = 2 s 2y / x F2,q −2 (3)
i =1 i =1
En la ecuación precedente, α y β son las variables que corresponden a las dos dimensiones
del plano en que se representa la región elíptica, y F2,q–2 es el valor del parámetro estadístico
F con 2 y q – 2 grados de libertad para un dado nivel de confianza (usualmente 95%).
Por lo tanto, debe dibujarse en un gráfico bidimensional la región anterior y verificar si
contiene al punto (1,0). Detalles de cómo se dibuja esta elipse en un caso particular se dan en
el ejercicio resuelto del documento que se acompaña. La Figura 2 ilustra este tipo de región
para un caso típico: si el punto (1,0) no está contenido dentro de la elipse, esto implica que el
método no es exacto.
Es importante remarcar que el tamaño de la elipse, que está controlado, entre otros
parámetros, por el desvío estándar de la regresión sy/x, da una idea de la precisión del método
analítico que se está probando. En este sentido, es importante utilizar un número significativo
de niveles de concentración para la prueba de exactitud, de manera que sy/x sea representativo
de la regresión. De lo contrario, si se emplean sólo unos pocos niveles de concentración, se
corre el riesgo de que la elipse abarque un área considerable, e incluya al punto ideal (1,0)
sólo por azar. Véase la Figura 3 para aclarar este punto.
Nótese que el valor de sy/x en este caso es similar al parámetro usualmente empleado en la
comparación de concentraciones predichas y nominales, llamado RMSE (por root mean
square error):
∑ ( y predicho − y nominal ) 2
RMSE = (4)
q
Se divide el numerador por q (y no por q – 1) debido a que RMSE no es un desvío
estándar, sino la raíz cuadrada de una media de desvíos.
23
0.2 0.2
Ordenada al origen
Ordenada al origen
0.0 0.0
-0.2 -0.2
1.0 1.1 1.0 1.1
Pendiente Pendiente
■
Ordenada al origen
Pendiente
Figura 3. Distintos tipos de elipses, de acuerdo con la exactitud y precisión: verde, exacta
y precisa; celeste, exacta e imprecisa; amarilla, inexacta e imprecisa; naranja, inexacta y
precisa. El cuadrado negro marca el punto ideal (1,0).
Regresión ponderada
Si los datos no cumplen con la prueba de homoscedasticidad, el análisis de los datos de
validación debe hacerse mediante regresión lineal ponderada. En este caso se calculan la
pendiente (A) y ordenada al origen (B) de la recta ajustada a la ecuación y = A x + B,
minimizando la siguiente suma ponderada de cuadrados (SC):
q
SC = ∑ wi ( yi − yˆ i ) 2 (5)
i =1
24
donde wi es el "peso" o "ponderación" aplicado a cada punto de la regresión, q el número de
puntos, yi el valor de la variable y en cada punto (los promedios yi de las réplicas) e y es el
promedio de los valores de la variable y. En el método OLS utilizado en calibración, la suma
de cuadrados no incluye peso o ponderación alguna.
Cuando los datos son heteroscedásticos, el peso wi se define como inversamente
proporcional a la variancia de la variable en el punto i:
1
wi = (6)
s ( yi ) 2
El efecto concreto del pesado de los datos en forma inversamente proporcional a su
variancia es dar mayor contribución, en la regresión, a los datos más precisos, y
comparativamente menor peso a los menos precisos.
Los valores estimados de A y B de una regresión lineal ponderada se calculan mediante las
siguientes ecuaciones:
q
∑ wi ( xi − x w )( yi − y w )
i =1
A= q
(7)
∑ wi ( xi − xw ) 2
i =1
B = y w – A xw (8)
donde xi es la concentración de cada uno de los q patrones de validación, y los parámetros xw
e y w son las coordenadas del centro de gravedad pesado por donde pasa la recta ajustada, que
están dadas por:
q
∑ wi xi
i =1
xw = q
(9)
∑ wi
i =1
q
∑ wi yi
i =1
yw = q
(10)
∑ wi
i =1
En el método WLS el parámetro sy/x (el desvío estándar de los residuos de la regresión)
está dado por:
q
∑ wi ( yi − yˆ i ) 2
i =1
sy/x = (11)
q−2
donde yi es la respuesta experimental, e ŷi representa la respuesta estimada en cada punto,
esto es, ŷi = A xi + B.
El lector podrá comprobar que si todos los wi son idénticos entre sí (homoscedasticidad
perfecta), las ecuaciones anteriores se reducen al caso OLS tratado en la Clase 1.
25
q q q
(β − B) 2 ∑ wi + 2(α − A)(β − B)∑ wi xi + (α − A) 2 ∑ wi xi2 = 2s 2y / x F2,q−2 (12)
i =1 i =1 i =1
26
Programas de computación
Usuarios de MATLAB: se provee acceso a la rutina EJCR.M que puede usarse para
aplicar los métodos OLS, WLS y BLS, y generar la elipse correspondiente.
Usuarios de QB: se provee acceso al programa EJCR.EXE, que realiza las operaciones
necesarias pero no grafica la elipse. Esta última puede obtenerse importando los datos
generados por el programa en un entorno gráfico apropiado.
Véase también el ejercicio resuelto detalladamente que se acompaña.
Ejercicio resuelto
1) La Tabla 1 muestra datos para analizar la exactitud de un método analítico. Determine si
el método es exacto mediante regresión lineal y estudio de la región elíptica de confianza
conjunta para A y B.
Tabla 2. Concentraciones halladas por dos métodos analíticos con sus desvíos
estándar.
Muestra Método 1 Desvío Método 2 Desvío
estándar estándar
1 0,05 0,03 0,06 0,06
2 5,16 0,02 5,02 0,05
3 9,91 0,02 10,00 0,04
4 14,90 0,01 15,20 0,02
5 19,80 0,02 19,90 0,03
6 24,90 0,01 25,00 0,04
7 30,00 0,03 30,00 0,06
Respuesta detallada
1) En primer lugar debemos determinar si los datos de la Tabla 1 son homoscedásticos.
Para ello calculamos el cociente:
max[s ( yi ) 2 ] (0,06) 2
Fexp = = =9
min[s ( yi ) 2 ] (0,02) 2
27
Dado que este último valor es mayor que el de tabla [Fcrit (95%,4,4) = 6,5] concluimos
que los datos son heteroscedásticos, y que debemos emplear el método WLS para el análisis
por regresión lineal. Calculamos entonces los pesos wi de cada dato, los que se reúnen en la
Tabla 3. El cálculo de cada peso se realiza mediante la ecuación:
qs ( yi ) −2
wi = q
∑ s( yi ) −2
i =1
De esta manera, se consigue que la suma de los pesos sea igual a q, lo que facilita los
cálculos.
Note que los pesos son mayores para datos con menor desvío estándar.
Para la muestra número 1, por ejemplo, tendremos:
7
(0,06) 2
w1 = = 0,33
1 1 1 1 1 1 1
+ + + + + +
(0,06) 2 (0,05) 2 (0,04) 2 (0,02) 2 (0,03) 2 (0,04) 2 (0,06) 2
Luego debemos calcular los valores de los diferentes productos de variables y pesos, que
se muestran en la Tabla 4.
28
q
∑ wi ( xi − x w )( yi − y w )
i =1
A= q
=
∑ wi ( xi − xw ) 2
i =1
q
∑ wi xi yi − vx w y w 2.064,3327 − 7 × 15,72 × 15,88
i =1
= = = 1,0022
q
2.046,0405 − 7 × (15,72) 2
∑ wi xi2 − vx w2
i =1
B = y w – A xw = 15,88 – 1,0022 × 15,72 = 0,12
Estos valores deben acotarse al número correcto de cifras significativas conociendo los
desvíos estándar correspondientes. Los desvíos estándar en la pendiente y la ordenada al
origen, estimadas por el método WLS de regresión lineal, están dados por ecuaciones
análogas a las empleadas en el método OLS, pero con los valores de x e y pesados
convenientemente:
sy/ x
sA =
Qxx
1 x w2
sB = s y / x +
m Qxx
donde sy/x se determina mediante la ecuación apropiada para datos pesados (WLS), tal como
se describió en la parte teórica:
q
∑ wi ( yi − yˆ i ) 2
i =1
sy/x = = 0,16
q−2
Por su parte, Qxx está dado por:
q
Qxx = ∑ wi xi2 − qx w2 = 316,2
i =1
A partir de estos parámetros, se obtiene (redondeando a una cifra significativa):
sA = 0,01
sB = 0,2
Por lo tanto, la pendiente y la ordenada al origen se informan como A = 1,00(1) y B =
0,1(2).
Para el estudio de la región elíptica, necesitamos los siguientes parámetros:
q=7
q
∑ wi xi = 110,0153
i =1
q
∑ wi xi2 = 2.046,0405
i =1
s 2y / x = 0,026
F2,q −2 = 8,6
Por lo tanto, la ecuación de la elipse estará dada por:
7(β − 0,1) 2 + 220,0306(α − 1)(β − 0,1) + 2.046,0405(α − 1) 2 = 0,44
29
La ecuación anterior tiene la siguiente forma:
a1 (α − A) 2 + a 2 (α − A)(β − B) + a3 (β − B) 2 = a 4
donde a1, a2, a3, a4, A y B son constantes y α y β son las variables. Los valores de las
constantes son:
a1 = 2,046×103
a2 = 220,03
a3 = 7
a4 = 0,44
A=1
B = 0,1
La ecuación describe una elipse en el plano (α,β). Para dibujar esta elipse es necesario
conocer sus límites en el eje de las abscisas (α). Estos límites se pueden calcular a partir de
las siguientes consideraciones. En primer lugar re-escribimos la ecuación anterior como de
segundo grado en (β – B):
a3 (β − B) 2 + a 2 (α − A)(β − B) + [a1 (α − A) 2 − a 4 ] = 0
Luego calculamos los valores de (β – B) a partir de la resolvente de segundo grado:
− a 2 (α − A) ± a 2 (α − A) 2 − 4a3 [a1 (α − A) 2 − a 4 ]
2
(β – B) =
2a 3
Observamos que sólo se obtendrán valores reales de (β – B) si se cumple que la expresión
dentro de la raíz cuadrada es positiva; los límites se encuentran cuando esta expresión se
iguala a cero:
a 2 2 (α − A) 2 − 4a3 [a1 (α − A) 2 − a 4 ] = 0
de donde se pueden calcular los límites superior e inferior de (α – A) como:
4a 3 a 4
LIM(α – A) = ± = ± 0,0373
− a 2 2 + 4a3 a1
Para construir una tabla de valores de α y β, y graficar la elipse se calculan los
correspondientes valores de β dentro de estos límites de α mediante la ecuación:
− a 2 (α − A) ± a 2 (α − A) 2 − 4a3 [a1 (α − A) 2 − a 4 )]
2
β=B+
2a 3
Ejemplos de pares de valores de α y β calculados con la ecuación anterior son:
α–A α β
–0,0373 0,9627 0,7110 0,6520
–0,0273 0,9727 0,6971 0,3516
–0,0173 0,9827 0,5903 0,1441
–0,0073 0,9927 0,4563 –0,0362
0,0027 1,0027 0,3027 –0,1970
0,0127 1,0127 0,1306 –0,3393
0,0227 1,0227 –0,0642 –0,4587
0,0327 1,0327 –0,3022 –0,5350
30
1
-1
0.96 0.98 1.00 1.02 1.04 1.06
Pendiente (α)
Se aprecia claramente que el punto ideal (1,0) está contenido en la elipse, por lo que el
método analizado es exacto.
Usuarios de MATLAB: los datos de la tabla están contenidos en el archivo de texto
'DATOS_EXACT_WLS.TXT', y organizados de tal modo que pueden estudiarse mediante la
rutina de MATLAB 'EJCR.M', de la manera descrita en la Clase 1. Esta rutina proporciona los
valores ajustados de pendiente y ordenada al origen, produce una figura con la
correspondiente elipse, y genera un archivo de texto que contiene los valores numéricos
necesarios para graficar la región elíptica mediante programas gráficos: la primera columna
de este archivo contiene los valores de pendiente y la segunda y tercera los valores de
ordenada al origen que corresponden a las dos mitades de la elipse.
Usuarios de QB: los datos están en el archivo 'D_E_WLS.TXT' para ser estudiados por
EJCR.EXE.
2) En este caso se trata de comparar dos métodos analíticos. Los resultados del análisis
mediante WLS son idénticos a los discutidos para la parte 1) (¿porqué?).
Cuando se realiza un análisis BLS se calculan los siguientes valores de pendiente y
ordenada al origen:
A = 1.00(1)
B = 0,1(2)
Nótese que son idénticos a los hallados mediante la técnica WLS. La explicación es que
los valores de la variable x (las concentraciones estimadas mediante el método analítico 1)
tienen desvíos estándar menores que los de y (las concentraciones estimadas mediante el
método analítico 2). Como consecuencia, es prácticamente lo mismo realizar el análisis
mediante WLS o mediante BLS.
Usuarios de MATLAB: los datos de la tabla están contenidos en el archivo de texto
'DATOS_COMPAR_BLS.TXT', y organizados de tal modo que pueden estudiarse mediante
la rutina de MATLAB 'EJCR.M', de la manera descrita en la Clase 1. Esta rutina proporciona
31
los valores ajustados de pendiente y ordenada al origen, produce una figura con la
correspondiente elipse, y genera un archivo de texto que contiene los valores numéricos
necesarios para graficar la región elíptica mediante programas gráficos: la primera columna
de este archivo contiene los valores de pendiente y la segunda y tercera los valores de
ordenada al origen que corresponden a las dos mitades de la elipse.
Usuarios de QB: los datos están en D_C_BLS.TXT.
Ejercicios propuestos
1) Los valores siguientes corresponden a la comparación entre las predicciones efectuadas
para la determinación de teofilina en sangre mediante un método espectrofotométrico,
comparado con un método de inmunofluorescencia polarizada (FPIA). No se determinaron las
muestras por triplicado debido a la cantidad insuficiente de muestra (sueros de pacientes
pediátricos). Sin embargo, se estima que los desvíos estándar promedio para cada método son:
0.4 μg ml−1 para el método FPIA y 0.9 μg ml−1 para el espectrofotométrico. Llevar a cabo el
análisis de comparación de métodos mediante la construcción de la elipse apropiada,
suponiendo que los desvíos estándar anteriores son constantes para todos los datos.
32
Muestra Nominal Método 1 Método 2 Método 3
1 190 173 214 208
2 87 80 86 107
3 23 26 29 46
4 13 6 14 28
5 38 19 28 50
6 150 142 145 160
7 26 33 16 47
8 58 67 60 80
9 125 146 126 146
10 65 63 67 75
11 90 89 92 120
12 160 158 172 174
13 48 41 52 61
14 75 64 68 92
15 0 10 11 26
16 0 5 8 21
17 0 3 7 30
18 0 11 7 27
33
Un estadístico tenía sus pies sobre hielo
y su cabeza en un horno encendido.
Al preguntársele cómo se sentía, respondió:
"en promedio, me siento bien".
Clase 3
Calibración bivariada
34
longitudes de onda. Sin embargo, las técnicas de calibración multivariada no están
restringidas al uso de datos espectrales de un tipo determinado, sino que pueden extenderse a
otros datos tales como fluorescencia, absorción en el infrarrojo o infrarrojo cercano, y aún
datos no espectroscópicos, como voltamperogramas.
El caso más simple del uso de más de un sensor para la determinación de más de un
analito es el estudio de mezclas binarias de compuestos absorbentes a dos longitudes de onda,
o calibración bivariada. Si bien la técnica ha caído un tanto en desuso para aplicaciones
prácticas, conserva no obstante un importante valor pedagógico, ya que permite una
introducción sencilla y gradual al tema más complejo de determinaciones de multianalitos
utilizando un alto número de sensores.13,14
La teoría se expone en este documento, pero se recomienda consultar paralelamente el
ejemplo concreto que se analiza en la sección Ejercicio Resuelto. A medida que se discutan
los conceptos teóricos asociados con el uso de dos sensores, se establecerán las analogías
correspondientes con la calibración multivariada utilizando múltiples sensores.
La etapa de calibración
Análogamente al caso univariado, la metodología bivariada consta de dos etapas:
calibración y predicción. En la etapa de calibración, se requiere establecer la relación
existente entre concentración y señal para cada analito calibrado, del mismo modo que cuando
se estima la pendiente de una recta univariada. En el presente caso, la diferencia estriba en
que las señales multivariadas son intrínsecamente menos selectivas, y es necesario un
procedimiento que distinga, de algún modo, las señales que le corresponden a cada analito.
Una etapa de calibración típica en análisis bivariado consiste en preparar soluciones de
concentración conocida de ambos analitos, y estimar, a partir de las señales medidas a dos
longitudes de onda (o, en general, a dos sensores diferentes), las respectivas relaciones señal-
concentración. Las soluciones de calibrado pueden ser mezclas de ambos analitos, o más
simplemente soluciones conteniendo los analitos en forma pura (si estos es
experimentalmente posible).
En la sección siguiente se describirá en detalle el proceso de calibración empleando la
notación matricial, lo que preparará en cierta forma el camino para el uso de este tipo de
herramientas matemáticas en el análisis multivariado.
35
⎡X X 12 ⎤
X = ⎢ 11 ⎥ (2)
⎣ X 21 X 22 ⎦
La etapa de calibración, o sea, la determinación de las llamadas sensibilidades
individuales a cada longitud de onda, se lleva a cabo suponiendo que se cumple la ley de Beer
que relaciona absorbancia con concentración. La señal de la mezcla número 1 a la longitud de
onda 1, por ejemplo, se obtiene a partir de la suma de las contribuciones de ambos analitos:
Y11 = X11 S11 + X12 S12 (3)
donde S11 y S21 son las sensibilidades del analito 1 y 2 respectivamente a la longitud de onda
1. Los restantes elementos de Y se obtienen mediante ecuaciones similares a (3). En general Y
podrá escribirse entonces mediante el siguiente producto matricial:
Y = X ST (4)
donde S es una matriz (2×2) cuyo elemento genérico Sjn es la sensibilidad a la longitud de
onda j del analito n.
La ecuación (4) puede representarse en forma gráfica mediante la Figura 1, útil para
analizar los requerimientos de tamaño de las distintas matrices (se ilustra un caso general, en
que el número de analitos es N, el número de muestras de calibrado es I y el número de
longitudes de onda es J).
Y X ST
36
es análoga al cálculo de la pendiente de la recta de regresión en calibración univariada, en
forma previa a la medición de la señal analítica de muestras incógnita.
En el procedimiento bivariado más simple que se pueda concebir, las soluciones de
calibración no son mezclas binarias, sino que contienen sólo analitos puros, de manera que la
matriz X tiene en este caso el siguiente aspecto:
⎡X X 12 ⎤ ⎡ x1,cal 0 ⎤
X = ⎢ 11 =⎢ (6)
⎥
⎣ X 21 X 22 ⎦ ⎣ 0 x2,cal ⎥⎦
donde se han empleado las cantidades escalares x1,cal y x2,cal para denotar las concentraciones
de los analitos 1 y 2 respectivamente en las soluciones de calibrado.
Sin embargo, en un caso más general, podrían utilizarse mezclas binarias para calibración.
En tal caso, es importante recalcar que las concentraciones de los patrones empleados en estas
mezclas binarias deben ser tales que la matriz X pueda invertirse. Este requisito es
fundamental, ya que de lo contrario será imposible calcular la matriz S a través de la ecuación
(5). Matemáticamente hablando, X podrá invertirse si su determinante es distinto de cero, y
esto sucederá si sus líneas (filas o columnas) no son combinaciones lineales. Desde el punto
de vista químico, esto se traduce en que las concentraciones de un analito no deben ser
proporcionales a las del otro analito en las mezclas empleadas para calibrar. Este concepto
cobrará mayor importancia en el campo del análisis de múltiples analitos empleando espectros
completos.
Nótese que, en el caso más simple, si se cumple la ecuación (6), X es diagonal y por lo
tanto la matriz inversa X–1 adopta una forma sencilla, de manera que S está dada por:
⎡ 1 ⎤ ⎡ Y11 Y21 ⎤
0 ⎥ ⎢x
⎡Y Y21 ⎤ ⎢ x1,cal x2,cal ⎥
S = YT (X–1)T = ⎢ 11 ⎥ ⎢ ⎥ = ⎢ 1,cal ⎥ (7)
⎣ 12
Y Y22 ⎦ ⎢ 1 ⎥ ⎢ Y12 Y22 ⎥
0
⎢
⎣ x2,cal ⎥⎦ ⎢⎣ x1,cal x2,cal ⎥⎦
donde puede reconocerse cada elemento de S como la absortividad molar de cada analito a
cada longitud de onda (multiplicada por el paso óptico), obtenida dividiendo la
correspondiente absorbancia de la solución de calibración por su concentración.
Etapa de predicción
En la etapa de predicción, se miden las señales instrumentales para una muestra incógnita,
por ejemplo, dos absorbancias a las longitudes de onda a las que se realizó la calibración.
Dichas señales, denominadas y1 e y2, se agrupan en el vector columna (2×1) y:
⎡y ⎤
y = ⎢ 1⎥ (8)
⎣ y2 ⎦
La predicción se logra recurriendo a la ley de Beer aplicada a la muestra incógnita, en
forma análoga a la ecuación (4):
y=Sx (9)
donde x es un vector columna que contiene los elementos buscados en el análisis: las
concentraciones (desconocidas) de ambos analitos en la incógnita. Despejando x de la
ecuación (9):
x = S–1 y (10)
El vector x (2×1) contiene dos elementos: las concentraciones de ambos analitos en la
muestra incógnita estimadas por el modelo bivariado. Estos cálculos completan, por lo tanto,
la etapa de predicción.
37
Coeficientes de regresión
La ecuación (10) puede interpretarse en forma gráfica mediante el siguiente esquema:
x1
1ra. fila de S–1
y
x2
2da. fila de S–1
x = S–1 × y
2×1 2×2 2×1
Este esquema nos ayuda a establecer que la concentración de cada analito en la muestra
incógnita se predice mediante el siguiente producto escalar:
xn = (nava fila de S–1) × y (11)
La nava fila de S–1, una vez traspuesta (o sea, convertida en un vector columna) cumple un
papel importante en el análisis multivariado, donde corrientemente se denomina βn:
βn = (nava fila de S–1)T (12)
La trasposicion de la nava fila de S–1 para obtener el vector columna βn es una cuestión
puramente formal. Con esta última definición, la ecuación (11) se transforma en:
xn = βnT y = β1n y1 + β2n y2 (13)
lo cual significa que la concentración predicha es el producto escalar del vector βn por el
vector de respuestas instrumentales. En el terreno multivariado βn se llama vector de los
coeficientes de regresión. Este concepto es sumamente importante, ya que los coeficientes de
regresión actúan de manera análoga a la inversa de la sensibilidad (o pendiente de la recta de
regresión univariada), permitiendo definir cifras de mérito para modelos que emplean más de
un sensor.
Cuando se emplean múltiples sensores para la determinación de multianalitos, las
ecuaciones serán similares a las arriba descritas. Los respectivos tamaños de las matrices se
comparan en la Tabla 1, en la que I es el número de muestras de calibrado, J el número de
longitudes de onda analizadas y N el número de componentes presentes en las mezclas.
Colinealidad
Un examen cuidadoso de la ecuación (10) revela que el paso crítico en la estimación de la
concentración de los analitos en la muestra incógnita es la inversión de la matriz S. Una
38
matriz es invertible si su determinante es distinto de cero, de lo contrario se dice que la matriz
en cuestión es singular o no invertible, y su inversa no existe. De esto se desprende que si por
alguna razón el determinante de la matriz S, aunque no sea exactamente cero, es pequeño (en
comparación con el nivel de ruido instrumental), S será difícilmente invertible, en el sentido
que los elementos de S–1 estarán pobremente definidos. El proceso puede ilustrarse con la
inversión de un número cercano a cero; si bien el cociente existe, su valor se vuelve más y
más impreciso a medida que el número decrece.
La singularidad de la matriz S, y su consiguiente dificultad de inversión, están
directamente relacionadas con el concepto de paralelismo o colinealidad espectral. En
términos matemáticos, el determinante de S será cercano a cero si sus filas son combinaciones
lineales. Podemos traducir este concepto al campo de la espectroscopía bivariada si
graficamos la sensibilidad para cada analito a cada una de las dos longitudes de onda de
trabajo (Figura 2). Uniendo los puntos correspondientes a cada analito se obtienen dos líneas
rectas: cuanto más paralelas sean estas líneas rectas, más difícil será la inversión de S, y más
cercano a cero su determinante. Véase la Figura 2, en la que se muestra una situación deseable
(izquierda) y una indeseable (derecha) para el análisis a dos longitudes de onda.
Sensibilidad
Sensibilidad
λ1 λ2 λ1 λ2
Cifras de mérito
Análogamente al caso univariado, pueden definirse cifras de mérito correspondientes a
determinaciones usando múltiples sensores.
Respecto de la sensibilidad, nótese que la ecuación (13) puede interpretarse como una
forma particular de la ley de Beer, en la que la concentración es proporcional a la señal. Dado
que la constante de proporcionalidad en este caso es la inversa de la sensibilidad (en el caso
univariado c = (εb)–1 A], es natural pensar en el vector de coeficientes de regresión como
midiendo la "sensibilidad inversa" para una determinación a múltiples longitudes de onda. De
hecho, la definición de sensibilidad SENn para el analito n en una determinación de dos
analitos en mezclas binarias a dos longitudes de onda es:
1
SENn = (14)
β1n + β 22 n
2
39
donde β1n y β2n son los elementos del vector βn. Esta definición es análoga a la sensibilidad de
calibración, que fuera definida en el contexto de la calibración univariada. Dado que la
cantidad β12n + β 22 n es la "longitud" del vector βn, también conocida como su norma, la
ecuación para la sensibilidad adopta la siguiente forma:
SENn = 1 / || βn || (15)
donde || · || simboliza el cálculo de la norma de un vector.
En la calibración para el análisis de varios componentes debe considerarse como cifra de
mérito adicional la selectividad. En el caso univariado este parámetro no se toma en cuenta
debido a que aquél no contempla la existencia de señales interferentes. Se puede definir la
selectividad para el analito n, en presencia de otros componentes, como el cociente entre la
sensibilidad dada por la ecuación (15), y el valor que tendría dicha sensibilidad si el analito en
cuestión estuviese presente en su forma pura:
SELn = SENn / || nava. columna de S || (16)
Puede demostrarse que SENn es un número adimensional que varía entre 0 y 1; el cero
corresponde a un sistema totalmente no selectivo para el analito n, mientras que 1 corresponde
al caso totalmente específico, para el que se puede aplicar la calibración univariada.
También puede definirse la sensibilidad analítica, como el cociente entre el valor de SENn
y el ruido instrumental sR, obtenido a partir de replicados de una muestra blanco:
γn = SENn / sy (17)
Existen también ecuaciones para la estimación de los errores estándar en la concentración
predicha de cada analito, que son una extensión de la estudiada en el caso univariado. Una
aproximación sencilla a la estimación de s(xn) se puede obtener ignorando el efecto de la leva,
y tomando sólo en consideración el efecto de la incertidumbre en la respuesta analítica. En ese
caso:
s(xn) = sy / SENn (18)
En relación con el límite de detección, el cálculo se complica por el hecho de que este
parámetro no puede definirse para un analito sin conocer la concentración de otros analitos en
una muestra dada. El lector interesado en una lectura avanzada respecto de la estimación de
errores estándar y límite de detección en este caso puede consultar el documento adjunto
"LECTURA ADICIONAL CLASE 3.PDF", que dará una idea de la complejidad matemática
del problema, aún en el caso simple de calibración bivariada.
De todas maneras, si los efectos de la leva no son relevantes, en otras palabras, si la
muestra incógnita no está lejos del centro de la calibración, una ecuación aproximada para el
límite de detección puede obtenerse por analogía con la calibración univariada:
LOD = 3,3 sy / SENn (19)
Ejercicio resuelto
1) Se desean analizar mezclas acuosas de permanganto y dicromato mediante mediciones a
dos longitudes de onda. En la etapa de calibración, se preparan dos soluciones patrón
conteniendo, respectivamente, permanganato de potasio 4,075×10–4 M y dicromato de potasio
3,030×10–3 M. Determinar la matriz de sensibilidades S para esta calibración. Las
absorbancias medidas a 440 y 545 nm de estas soluciones se muestran en la siguiente tabla:
2) Se miden las absorbancias de cuatro muestras incógnita a las mismas longitudes de onda
de calibración, resultando los siguientes valores:
40
Muestra Absorbancia a 440 nm Absorbancia a 545 nm
1 0,364 0,220
2 0,722 0,258
3 0,153 0,915
4 0,607 0,937
3) Estimar las cifras de mérito del método para cada analito. Suponga que la incertidumbre
típica en la señal es de 0,003 unidades de absorbancia.
Respuesta detallada
1) Para calcular la matriz S se requiere conocer las matrices Y y X. Con los datos del
ejercicio es sencillo escribir estas dos últimas matrices:
⎡0,028 0,915⎤
Y= ⎢ ⎥
⎣1,073 0,026⎦
⎡4,075 0 ⎤
X= ⎢ ⎥ ×10–4
⎣ 0 30,30⎦
Luego debemos aplicar la ecuación para el cálculo de S:
S = YT (X–1)T
Para ello, es necesario en primer lugar invertir la matriz X. Esto es sencillo, puesto que X
es diagonal, de manera que:
−1
–1⎡4,075 0 ⎤ ⎡2.454 0 ⎤
X = ⎢ ⎥ ×104 = ⎢
⎣ 0 30,30⎦ ⎣ 0 330⎥⎦
Luego se multiplican las traspuestas de Y y X–1:
T T
T –1 T ⎡0,028 0,915⎤ ⎡2.454 0 ⎤ ⎡0,028 1,073 ⎤ ⎡2.454 0 ⎤
S = Y (X ) = ⎢ ⎥ ⎢ ⎥ = ⎢ ⎥⎢ =
⎣1,073 0,026⎦ ⎣ 0 330⎦ ⎣0,915 0,026⎦ ⎣ 0 330⎥⎦
⎡ 69 354⎤
= ⎢ ⎥
⎣2.245 9 ⎦
1
Recuerde que la inversa de una matriz se obtiene mediante la ecuación S–1 = det(S)–1 Cof(S)T, donde det(S) es
el determinante de S, y Cof(S) es la matriz cofactor, cuyo elemento i,j se obtiene multiplicando (–1)i+j por el
determinante de la matriz menor que resulta de eliminar, de la matriz original S, la fila i y la columna j. En el
T
⎡ 9 − 2.245⎤ ⎡ 9 − 354⎤
caso estudiado, det(S) = –7,95×105, Cof(S)T = =
⎢⎣− 354 69 ⎥⎦ ⎢⎣− 2.245 69 ⎥⎦ , y por lo tanto,
⎡ 9 − 354⎤ ⎡− 0,11 4,46 ⎤
S–1 = (–7,95×105)–1 × –4
⎢⎣− 2.245 69 ⎥⎦ = ⎢⎣ 28,27 − 0,87 ⎥⎦ ×10 .
41
⎡− 0,11 4,46 ⎤
S–1 = ⎢ ⎥ × 10–4
⎣ 28,27 − 0,87⎦
Las concentraciones de ambos analitos en las cuatro muestras incógnita son, por lo tanto,
las siguientes:
Muestra 1:
⎡− 0,11 4,46 ⎤ ⎡0,364⎤ ⎡0,94⎤
x = S–1 y = ⎢ ⎥ × 10–4 × ⎢ ⎥ = ⎢ ⎥ × 104
⎣ 28,27 − 0,87⎦ ⎣0,220⎦ ⎣ 10,1 ⎦
Muestra 2:
⎡− 0,11 4,46 ⎤ ⎡0.722⎤ ⎡1,07 ⎤
x = S–1 y = ⎢ –4
⎥ ×10 × ⎢0.258⎥ = ⎢20,2⎥ × 10
4
⎣ 28, 27 − 0,87 ⎦ ⎣ ⎦ ⎣ ⎦
Muestra 3:
⎡− 0,11 4,46 ⎤ ⎡0.153⎤ ⎡4,06⎤
x = S–1 y = ⎢ –4
⎥ ×10 × ⎢0.915⎥ = ⎢ 3,5 ⎥ × 10
4
⎣ 28, 27 − 0,87 ⎦ ⎣ ⎦ ⎣ ⎦
Muestra 4:
⎡− 0,11 4,46 ⎤ ⎡0.607⎤ ⎡ 4,11⎤
x = S–1 y = ⎢ –4
⎥ ×10 × ⎢0.937⎥ = ⎢16,3⎥ × 10
4
⎣ 28, 27 − 0,87 ⎦ ⎣ ⎦ ⎣ ⎦
1 ⎡0,364⎤ x1 = 0,94(1)
y= ⎢ ⎥
⎣0,220⎦ x2 = 10,1(1)
2 ⎡0,722⎤ x1 = 1,07(1)
y= ⎢ ⎥
⎣0,258⎦ x2 = 20,2(1)
3 ⎡ 0,153 ⎤ x1 = 4,06(1)
y= ⎢ ⎥
⎣0,915⎦ x2 = 3,5(1)
4 ⎡0,607⎤ x1 = 4,11(1)
y= ⎢ ⎥
⎣0,937 ⎦ x2 = 16,3(1)
42
Los errores estándar en las concentraciones se calcularon con el modelo aproximado
citado en la teoría, esto es s(xn) = sR / SENn, con sR = 0,003 (para el cálculo de SENn ver el
punto 3). Nótese que, debido a la diferencia en sensibilidades, los errores estándar para el
analito 1 son un orden de magnitud menores que para el analito 2.
Ejercicio propuesto
Se desea realizar un análisis cuantitativo de una mezcla binaria realizando medidas de
absorbancia a dos longitudes de onda. Se dispone de datos de absorbancia para soluciones
patrón de cada analito a varias longitudes de onda, según se muestra en la siguiente tabla:
Solución λ1 λ2 λ3 λ4 λ5
patrón
Analito 1 0,550 0,610 0,720 0,850 0,910
1,00×10–4 M
Analito 2 0,510 0,505 0,710 0,800 0,800
1,00×10–4 M
Se requiere seleccionar dos longitudes de onda para realizar el análisis, y un criterio para
ello es utilizar aquellas que provean la máxima selectividad para cada analito. ¿A qué dos
longitudes de onda se obtiene la mayor selectividad?
43
Celebrar cumpleaños es saludable.
La estadística demuestra que la gente
que más cumpleaños celebra vive más.
Clase 4
Calibración multivariada
44
Material suministrado con la clase 4
Para esta clase se proveen los siguientes archivos:
• MATRICES PARTE 2. PDF, documento de Adobe conteniendo conceptos básicos
sobre álgebra matricial.
• LECTURA ADICIONAL CLASE 4.PDF, documento de Adobe con un trabajo
educativo para lectura adicional.
• Archivos de texto (*.TXT) conteniendo datos típicos.
• Archivos (*.M) con rutinas para el entorno de programación MATLAB.
• Archivos (*.EXE) con programas ejecutables en QB.
45
calibración (I×N) X, cuyo elemento genérico Xin es la concentración en la mezcla i del analito
n:
⎡ X 11 X 12 ... X 1N ⎤
⎢X X 22 ... X 2 N ⎥⎥
X=⎢
21
(21)
⎢ ... ... ... ... ⎥
⎢ ⎥
⎣ X I 1 X I 2 ... X IN ⎦
Para dos analitos, la ecuación anterior se transforma en:
⎡ X 11 X 12 ⎤
⎢X X 22 ⎥⎥
X = ⎢ 21 (22)
⎢ ... ... ⎥
⎢ ⎥
⎣ X I1 X I 2 ⎦
o sea, una matriz de I×2.
La etapa de calibración, o sea, la determinación de las llamadas sensibilidades
individuales a cada longitud de onda, se realiza suponiendo que se cumple la ley de Beer que
relaciona absorbancia con concentración, análogamente al caso de dos longitudes de onda. Sin
embargo, debe tenerse en cuenta en este caso el problema está sobredimensionado. Esto
significa que el problema puede plantearse como un conjunto de ecuaciones simultáneas en el
que el número de ecuaciones disponible es superior al de incógnitas. En nuestro caso, se desea
relacionar la concentración con la señal a través de la sensibilidad Sjn a la longitud de onda j
del analito n. Si se trata de dos analitos, hay J×2 parámetros a determinar (los valores de todos
los coeficientes Sjn), y un total de I×J ecuaciones; dado que en general I > 2, el problema está
sobredimensionado. En estos casos el criterio que se aplica es el de obtener la solución de
cuadrados mínimos, esto es, aquella que minimice el error E del siguiente modelo:
Y = X ST + E (23)
donde S es una matriz (J×N) cuyo elemento genérico Sjn es la sensibilidad a la longitud de
onda j del analito n. Nótese que se requiere la trasposición de la matriz S en la ecuación (4)
para mantener la consistencia del producto matricial. Las relaciones de tamaño entre las
matrices de la ecuación (4) se muestran en la Figura 1.
La solución de cuadrados mínimos de la ecuación (4) corresponde a la obtención de la
matriz S a partir de esta última, fijando E = 0 (una matriz de ceros del mismo tamaño que Y).
La obtención de S a partir de la ecuación (4) no puede hacerse simplemente pre-
multiplicando por X–1, dado que X no es, en general, una matriz cuadrada, y matrices no
cuadradas no pueden invertirse. Para despejar S se recurre, en primer lugar, a pre-multiplicar
ambos miembros de la ecuación (4) por la matriz traspuesta de X:
XT Y = XT X ST (24)
46
ST E
Y X
Nótese que hemos fijado E = 0 en la ecuación (4) antes de realizar esta operación. El
producto (XT X) es una matriz cuadrada (tamaño N×N), y pre-multiplicando por su inversa
ambos miembros de la ecuación (5):
ST = (XT X)–1 XT Y (25)
Trasponiendo la ecuación anterior para obtener S:
S = [(XT X)–1 XT Y]T = YT X (XT X)–1 (26)
La ecuación (7) merece varios comentarios. En primer lugar, es necesario recalcar que
para que esta ecuación tenga sentido, debe poder invertirse la matriz cuadrada (XT X). La
inversión de una matriz requiere que sus líneas (filas o columnas) no sean linealmente
dependientes, esto es, combinaciones lineales unas de otras. En el ejemplo que estamos
analizando, esto implica, desde el punto de vista químico, que las concentraciones del analito
1 y el analito 2 en las mezclas no estén correlacionadas (por ejemplo, que no aumenten
linealmente de una mezcla a otra). Diseñar un conjunto de mezclas con mínima correlación es
también parte de la teoría del diseño experimental.
El segundo comentario proviene de comparar la ecuación (7) con su análogo de la Clase 3,
en que X era cuadrada y podía invertirse directamente. Esta comparación sugiere que en la
ecuación (7), la matriz [X (XT X)–1] funciona como "una especie de inversa" de X (traspuesta,
para ser más exactos). En la literatura se la ha llamado "inversa generalizada de X" o
simplemente "seudoinversa de X", simbolizándola por X+.† Con esta nomenclatura, la
ecuación (7) puede escribirse en forma más compacta:
S = YT (X+)T (27)
Esta última ecuación completa la calibración, lo que provee una matriz de calibración S
para predicciones en muestras futuras. La obtención de S es análoga al cálculo de la
absortividad molar en calibración univariada, en forma previa a la medición de la señal
analítica de muestras incógnita.
Como resumen de la etapa de calibrado podemos consignar los siguientes requerimientos:
• El modelo CLS necesita un diseño de calibrado apropiado.
• La calibración del modelo requiere conocer las concentraciones de los componentes
de las mezclas de calibración.
†
El nombre "seudoinversa" tiene mayores implicancias en quimiometría que las discutidas aquí. En el caso de
que (XT X) sea imposible o difícil de invertir, por ejemplo, porque su determinante es cero o cercano a cero, la
seudoinversa aún existe, aunque la inversa generalizada no.
47
Quienes deseen revisar algunos conceptos sobre matrices y sus operaciones, que son
necesarios para seguir en detalle la presente clase, pueden consultar el documento adjunto
'MATRICES PARTE 2.PDF'.
xn nava fila de S+ y
x = S+ × y
N×1 N×J J×1
El esquema superior muestra que la ecuación (13) puede interpretarse diciendo que la
concentración de cada analito se predice mediante el siguiente producto escalar:
xn = (nava fila de S+) × y (33)
+
La nava fila de S , una vez traspuesta (convertida en un vector columna) se conoce como
el vector de los coeficientes de regresión para el componente n, βn:
βn = (nava fila de S+)T (34)
Con esta última definición, la ecuación (14) se transforma en:
xn = βnT y = β1n y1 + β2n y2 + ... + βJn yJ (35)
lo cual significa que la concentración es el producto escalar del vector de coeficientes de
regresión por el vector de respuestas instrumentales.
48
Cifras de mérito
Análogamente al caso univariado, pueden definirse cifras de mérito correspondientes a
determinaciones usando múltiples sensores. Respecto de la sensibilidad, nótese que la
ecuación (16) puede interpretarse como una forma particular de la ley de Beer, en la que la
concentración es proporcional a la señal. Dado que la constante de proporcionalidad en este
caso es la inversa de la sensibilidad (en el caso univariado c = (εb)–1 A], es natural pensar en
el vector de coeficientes de regresión como midiendo la "sensibilidad inversa" para una
determinación a dos longitudes de onda. De hecho, la definición de sensibilidad para cada
analito en una determinación de dos analitos en mezclas binarias a dos longitudes de onda es:
1
SENn = (36)
β1n + β 2 n + ... + β 2Jn
2 2
49
J
∑ (e j ) 2
j =1
sres = (42)
J −N
donde ej representa cada uno de los elementos del vector e. Nótese el empleo de J – N grados
de libertad en la ecuación (23), en atención a que la señal de la muestra proporciona J datos
(las señales medidas a las J longitudes de onda), y se estiman N parámetros (las
concentraciones de los N analitos en la muestra).
Finalmente, es importante llevar a cabo una validación del modelo de calibrado,
preparando un juego de muestras independientes, en el que los analitos estén presentes en
concentraciones distintas de las empleadas para calibrar el modelo, pero dentro de sus
respectivos rangos lineales. La comparación de las concentraciones estimadas para este juego
de validación con las nominales se lleva a cabo convenientemente mediante la prueba de la
elipse discutida en la Clase 2. El ejercicio resuelto que acompaña este documento ilustrará el
uso de los parámetros comentados en esta sección.
Colinealidad espectral
Análogamente al análisis de dos analitos a dos longitudes de onda, la presencia de
colinealidad espectral en el modelo CLS se manifiesta a través de la dificultad en encontrar la
seudoinversa S+. Específicamente, si los espectros de los analitos son colineales en un grado
significativo, será difícil encontrar la inversa (ST S)–1, y las concentraciones de los analitos
estarán pobremente definidas. El resultado será una disminución en la sensibilidad, y a través
de la ecuación (21), un aumento considerable del error de predicción.
Interferentes no modelados
Hemos supuesto, hasta el momento, que una muestra incógnita no debe poseer
componentes que no estén presentes en la calibración, y que produzcan señal a las longitudes
de onda de trabajo. En efecto, la suposición básica del método univariado es su especificidad
completa. Análogamente, en el análisis multisensorial se requiere que la muestra incógnita
esté compuesta por los mismos componentes que se utilizaron para calibrar.
En el modelo CLS podemos sin embargo plantearnos, por primera vez, qué sucedería si
una muestra incógnita estuviese compuesta por sustancias no presentes en la calibración. La
respuesta es que se produciría un error significativo en la predicción, básicamente porque la
ecuación (10) no sería correcta. En esta última ecuación, se supone que sólo existen los
analitos calibrados en la muestra incógnita.
Si bien es cierto que no es posible pretender que CLS estime las concentraciones
correctamente en un caso como este, no es menos cierto que el modelo es capaz de "avisar" al
analista que esto está ocurriendo. En un caso de interferencias no modeladas, los elementos
del vector e de la ecuación (10) serán anormalmente grandes en relación con el nivel de ruido
instrumental. De esta manera, los modelos que operan con múltiples sensores y ajustes por
cuadrados mínimos son capaces de proveer información acerca de la presencia de
interferentes no modelados, y a pesar de que son incapaces de corregirlos, al menos pueden
informar al operador de estas anomalías.
50
muestra a analizar no presenta interferencias serias de componentes desconocidos, o no se
encuentran colinealidades espectrales significativas entre los analitos, el análisis CLS provee
una manera rápida, simple y confiable de estimar las concentraciones en muestras de
multicomponentes en forma simultánea.
Las desventajas del modelo son fácilmente imaginables: es sensible a la presencia de
colinealidad espectral, de manera que analitos con espectros severamente solapados no
pueden estudiarse mediante esta técnica. Además, es necesario conocer los componentes
químicos presentes en las mezclas incógnitas, de lo contrario, la presencia de interferentes no
modelados producirá un error serio en la determinación.
Comparación de métodos
Vale la pena en este punto detenerse a reflexionar sobre las diferentes técnicas de
calibración que hemos estudiado, y efectuar un análisis comparativo. Las propiedades
analíticas que nos interesa comparar son:
• Habilidad para analizar más de un analito en forma simultánea.
• Conocimiento de las concentraciones de los componentes de la calibración.
• Efectos de la colinealidad espectral.
• Presencia de interferencias no modeladas en la calibración.
51
En la Tabla 1 hemos resumido estas propiedades para los tres métodos analizados hasta el
momento: univariado, bivariado y multivariado CLS. Hemos incluido, además, las
definiciones de cifras de mérito más usadas en cada caso.
Como puede verse, el pasaje del análisis univariado al multivariado CLS representa el
logro de beneficios progresivos, respecto del número de analitos que pueden estudiarse
simultáneamente, y de la detección de la presencia de interferentes.
En relación con el conocimiento de las concentraciones de los componentes de las
mezclas de calibración el comportamiento de los tres métodos es similar, al igual que la
respuesta al efecto de la colinealidad (no aplicable al caso univariado). En la Clase 5
analizaremos un método capaz de superar estas dificultades y describiremos sus propiedades
en perspectiva con las de la Tabla 1.
Ejercicio resuelto
1) Se miden las señales instrumentales de cuatro soluciones de calibrado para dos analitos,
a seis longitudes de onda distintas. La matriz de calibrado tiene la siguiente forma:
Muestra de λ1 λ2 λ3 λ4 λ5 λ6
calibrado
1 1,52 2,78 3,32 3,26 2,48 1,94
2 2,94 5,42 6,33 5,48 3,35 2,78
3 1,47 2,94 3,81 4,21 4,08 3,15
4 3,01 5,63 6,80 6,35 5,10 4,03
Las concentraciones de los dos analitos en las muestras son las siguientes:
2) Se estudia un conjunto de cuatro muestras de validación, para las que se conocen las
concentraciones nominales de ambos analitos. Las señales obtenidas a las mismas longitudes
de onda que el calibrado, y las respectivas concentraciones se muestran en las tablas
siguientes:
Muestra de λ1 λ2 λ3 λ4 λ5 λ6
validación
1 1,32 2,59 3,36 3,62 3,55 2,72
2 2,73 5,10 5,95 5,23 3,35 2,72
3 1,38 2,54 2,92 2,47 1,48 1,24
4 1,25 2,42 3,06 3,18 2,90 2,29
52
Muestra de x1val x2val
validación
1 0,89 1,69
2 1,86 1,05
3 0,93 0,40
4 0,83 1,34
3) Analizar mediante el modelo CLS anterior tres muestras de prueba, para las cuales se
han medido las siguientes señales a las mismas seis longitudes de onda que la calibración.
Prestar atención a los residuos espectrales, ya que se sospecha que en una de estas tres
muestras está presente una especie no modelada en la matriz de calibración.
Muestra de λ1 λ2 λ3 λ4 λ5 λ6
prueba
1 1,11 2,20 2,77 2,81 2,56 2,02
2 5,54 6,71 7,02 5,83 3,66 2,77
3 2,56 4,76 5,81 5,56 4,39 3,50
Respuesta detallada
1) Para calcular la matriz S se requiere conocer las matrices Y y X. Con los datos del
ejercicio es sencillo escribir estas dos últimas matrices:
⎡1,52 2,78 3,32 3,26 2,48 1,94 ⎤
⎢2,94 5,42 6,33 5,48 3,35 2,78⎥
Y= ⎢ ⎥
⎢1,47 2,94 3,81 4,21 4,08 3,15 ⎥
⎢ ⎥
⎣ 3,01 5,63 6,80 6,35 5,10 4,03⎦
⎡1 1⎤
⎢2 1 ⎥⎥
X= ⎢
⎢1 2⎥
⎢ ⎥
⎣2 2⎦
Luego debemos aplicar la ecuación para el cálculo de S:
S = YT X (XT X)–1
Estas operaciones son sumamente tediosas, aún para unas pocas longitudes de onda, y es
preferible realizarlas con la ayuda de un programa. Para ello, los datos de calibración están
organizados en los archivos de texto XCAL_E_R.TXT (concentraciones) e YCAL_E_R.TXT
(señales), y pueden ser analizados convenientemente por los programas CLS_CAL.M
(MATLAB) o CLS_CAL.EXE (QB). Ambos graban un archivo de texto conteniendo la
matriz S.
Los coeficientes de regresión pueden obtenerse a partir de las filas de la matriz S+ = (ST
S) ST. Tanto el programa en MATLAB como en QB generan un archivo de texto
–1
53
Figura 1: Espectros de calibrado.
54
Las cifras de mérito calculadas mediante los programas para este modelo son las
siguientes:
Nótese que la selectividad es idéntica para ambos analitos. En el caso de mezclas de más
componentes esto no es necesariamente así. Puede apreciarse que el modelo es más sensible al
analito 1 que al 2, hecho que también se ilustra en forma gráfica en la Figura 2.
2) Las concentraciones de ambos analitos en las cuatro muestras de validación están dadas
por:
x = S+ y
Estos cálculos pueden realizarse con ayuda de los programas CLS_PRED.M (MATLAB)
o CLS_PRED.EXE (QB), organizando los datos de manera apropiada. El archivos de texto
YVAL_E_R.TXT contiene la matriz de las señales de estas muestras de validación en la
forma apropiada.
Los resultados de la validación son los siguientes:
0,89 0,88
1,86 1,87
0,93 0,93
0,83 0,84
1,69 1,70
1,05 1,05
0,40 0,40
1,34 1,34
55
Dado que no se tienen resultados de réplicas de cada muestra, lo que proveería una
estimación del desvío estándar de cada valor predicho, realizaremos un análisis mediante el
método OLS. Se recomienda organizar los datos apropiadamente y someterlos a los
programas EJCR.M (MATLAB) o EJCR.EXE (QB). El resultado se muestra en la figura
siguiente, donde puede apreciarse la exactitud del método.
3) Los datos para las muestras de prueba están contenidos en el archivo de texto
YPRU_E_R.TXT. Los resultados para las muestras de prueba son los siguientes:
Ejercicio propuesto
1) Se han recogido espectros de absorción electrónica de mezclas de dos colorantes a 281
longitudes de onda diferentes, para un conjunto de calibración compuesto por 9 muestras de
calibración. Estos datos se proveen en el archivo de texto RESP_CAL.TXT, en forma de una
matriz de 281×9. Las respectivas concentraciones (en ppm) están contenidas, en forma de
matriz de 9×2, en el archivo de texto CONC_CAL.TXT. Los detalles experimentales de este
trabajo están informados en el documento 'LECTURA ADICIONAL CLASE 4.PDF'.
56
Lleve a cabo la calibración mediante el modelo CLS con el programa adecuado e informe
las cifras de mérito. Suponga un nivel de ruido instrumental de 0,005 unidades de
absorbancia.
2) También se midieron las señales de tres muestras de prueba, cuyos espectros están
contenidos, en forma de matriz de 281×3, en el archivo de texto RESP_TST.TXT. Estimar las
concentraciones de los dos analitos en estas muestras, y sus respectivos desvíos estándar.
57
¿Cuántos estadísticos hacen falta para
cambiar una lamparita?
Uno ± dos
Clase 5
Calibración multivariada
El monte Nipals, ubicado en el norte de Suecia, homónimo del algoritmo desarrollado por H.
Wold para el cálculo de componentes principales.
58
Los métodos de calibración inversa reciben este nombre porque se basan en el uso de la
ley de linealidad respuesta-concentración escrita en forma inversa a los métodos clásicos tales
como CLS. Como se verá a continuación, los métodos inversos permiten estudiar mezclas de
componentes en las que uno o más analitos son de interés, pero de los restantes componentes
pueden desconocerse concentraciones, espectros e identidades químicas. De este modo,
permiten superar una de las grandes desventajas de CLS: la necesidad del conocimiento de las
concentraciones de todos los componentes presentes en las mezclas de calibrado.
Tal como se discutió para CLS, la calibración directa implica la medida de espectros de
muestras de calibración, conteniendo analitos con concentraciones conocidas, y obtención de
la matriz de sensibilidades a partir de la ley "directa" por ajuste mediante cuadrados mínimos:
Señal = Concentración × Sensibilidad (1)
En cambio, en la calibración inversa se utiliza la ley de linealidad escrita en forma
"inversa":
Concentración = Señal × Coeficiente de regresión (2)
donde se supone la existencia de una proporcionalidad entre la concentración de componentes
calibrados y la correspondiente respuesta, a través de coeficientes de regresión que deberán
mediante un modelo apropiado.
Si bien el modelo CLS puede en principio interpretarse mediante una ecuación similar a la
(2), en los métodos inversos la ecuación (2) se aplica cuando sólo se conoce la concentración
de algunos analitos en las muestras de calibrado, pero se desconocen los restantes
componentes. Este importantísimo concepto será detallado en la presente clase, y constituye
la base sobre la que se afirman los métodos quimiométricos más provechosos para calibración
multivariada.
La bibliografía sobre el tema, particularmente en lo que concierne a PCR, es muy
abundante. Recomendamos especialmente el texto clásico de Massart y colaboradores,19 y el
artículo de Haaland y Thomas.15
Calibración
Debemos notar que, en el campo de la calibración inversa, la literatura utiliza una
notación para señales y concentraciones que es la inversa a la empleada en la discusión del
modelo CLS. Dado que la concentración se considera ahora la variable dependiente y la señal
la variable independiente, X identificará la señal e Y la concentración.
El método ILS es el más simple de los métodos inversos, y está basado en la ley de Beer
inversa:
Y= XB +E (3)
donde la matriz (de tamaño I×J) X reúne las señales instrumentales para I mezclas de
calibrado, recogidas a J longitudes de onda. La matriz Y, por su parte, contiene las
concentraciones de calibración en cada una de las I mezclas, de cada uno de los N analitos
calibrados, y su tamaño es de I×N. En la ecuación (3), B es una matriz de J×N que relaciona
las concentraciones con las respuestas de manera inversa a la ley de Beer, también llamada
matriz de los coeficientes de regresión. Finalmente, E es una matriz de errores no modelados
por la ecuación (3), siendo su tamaño idéntico al de Y.
Para obtener la matriz B, se debe despejar ésta de la ecuación (3), empleando el criterio de
cuadrados mínimos en el que E se considera nula. Para despejar B, se deben pre-multiplicar
ambos miembros de (3) por XT:
XT Y = (XT X) B (4)
Aquí se presenta un importante inconveniente del método ILS. Para continuar el proceso a
partir de la ecuación (4), es preciso invertir la matriz (XT X). Esto implica que si se han
realizado mediciones a un número de sensores J que es mayor que el de mezclas I, (XT X) no
puede invertirse, ya que el determinante de (XT X) será en este caso nulo. Un ejemplo
59
numérico aclarará el problema: supongamos que X es una matriz de 2×4 como la que se
muestra en la Figura 1.
⎡16 12 4 0⎤
⎢12 10 5 1⎥
⎡0 1 2 1 ⎤
X=⎢ ⎥ XT X = ⎢ ⎥
⎣ 4 3 1 0⎦ ⎢ 4 5 5 2⎥
⎢ ⎥
⎣ 0 1 2 1⎦
Figura 1. Producto de una matriz por su traspuesta, generando una matriz singular.
60
B Y
T –1 T
(X X) X
βn = × yn
J×I
J×1 I×1
Figura 2. Esquema que muestra cómo es posible calcular el vector de regresión conociendo
sólo la información de la concentración del analito de interés. El vector βn es el producto de la
matriz gris oscura por el vector yn.
Predicción
Durante la etapa de predicción se tendrá una ecuación similar a la de calibrado, la ley
inversa de Beer aplicada a la muestra incógnita:
yn = (βn)T x (7)
La ecuación (7) permite observar que βn se comporta como el vector de coeficientes de
regresión para el componente n, tal como fuera discutido en el caso de CLS.
Si existiera más de un analito de interés, la ecuación (7) se aplicaría tantas veces como
fuese necesario, utilizando cada vez el vector βn asociado al analito n.
61
Ventajas y desventajas de ILS
La posibilidad de desacoplar componentes origina la principal ventaja de este método,
pudiéndose estudiar mezclas complejas mediante un proceso de calibración en el que se
conoce sólo la concentración del componente de interés. Su desventaja radica en que ILS
sigue siendo sensible a las colinealidades espectrales discutidas en las clases anteriores, y que
se debe usar un número reducido de sensores, con la consecuente pérdida de información y
por ende de sensibilidad.
Como muestra de la potencialidad de ILS, téngase en cuenta que la técnica fue
originalmente desarrollada para el análisis de propiedades de polímeros o determinaciones del
contenido de proteínas en semillas a partir de espectros de absorción de infrarrojo cercano
(NIR). Los espectros NIR presentan bandas debidas a un enorme conjunto de especies
presentes en estos materiales. En la calibración de una propiedad específica o del contenido de
proteínas, sin embargo, la información acerca de las concentraciones de los componentes de
estos sistemas complejos es extremadamente limitada. Aún así, ILS es capaz de proveer una
respuesta inteligente a este tipo de problemas analíticos. Debido a sus desventajas, sin
embargo, la práctica moderna lo ha desplazado por métodos más poderosos.
Compresión de la información
La compresión de la información contenida en la matriz de señales de calibración es el
paso crítico para el modelo PCR. Una técnica muy empleada en quimiometría para la eficiente
compresión de datos es su "proyección" sobre los autovectores de la matriz (XTX). Existen
varios algoritmos capaces de obtener dichos autovectores, entre los cuales uno muy eficiente
se basa en un tipo de descomposición matricial conocido como descomposición en valores
singulares, que consiste en descomponer a la matriz XT (tamaño J×I) en el producto de otras
tres matrices:
XT = U W VT (8)
Podemos apreciar los requerimientos de tamaño matricial en esta última ecuación a través
del esquema presentado en la Figura 3.
62
XT U
W VT
Estos números
deben coincidir (I)
Estos números Estos números
deben coincidir (J) deben coincidir (I)
Estos números
deben coincidir (I)
Las matrices U (J×I), W (I×I) y V (I×I) cumplen con las siguientes condiciones:
• Las columnas de U son ortogonales, de modo que UT×U = I, así como las de V, de modo
que VT×V = I (I representa una matriz identidad de tamaño apropiado).
• La matriz W es diagonal y sus elementos diagonales son no negativos (los no diagonales
son iguales a cero).
Los elementos diagonales de W se llaman valores singulares de la matriz XT.
Matemáticamente, son las raíces cuadradas de los autovalores no negativos de (XTX); desde el
punto de vista químico miden la contribución a la variación espectral que puede ser explicada
por cada uno de los componentes principales de X.
Las columnas de U son los autovectores de (XTX), mientras que las columnas de V son
los autovectores de (XXT). En la literatura inglesa las columnas de U se llaman
corrientemente loadings; en castellano se suelen llamar factores, o también variables latentes,
en oposición a las variables manifiestas, que son las experimentalmente accesibles (las
latentes deben ser halladas mediante operaciones matemáticas).
Reuniendo el producto (W VT)T en una única matriz T, la ecuación de descomposición
singular (8) se puede también escribir como:
XT = U TT (9)
que es la base para la regresión en componentes principales, donde T es la matriz de scores
antes mencionada.
Para obtener T a partir de los datos instrumentales, esto es, despejar T de la ecuación (9),
se requiere pre-multiplicar por UT, y luego por la inversa de (UT U), pero esta última matriz es
igual a la matriz identidad I, por lo que se obtiene, directamente:
T = (UT XT)T = X U (10)
63
Los tamaños de las tres matrices involucradas en la ecuación (10) son, respectivamente,
I×I, I×J y J×I. Dicha ecuación puede interpretarse diciendo que los scores constituyen la
proyección de la matriz original de datos en el espacio de los factores. Esta proyección es la
etapa fundamental de compresión de datos, ya que logra reducir la dimensionalidad de la
matriz original (de I×J) a una matriz de scores más pequeña (de I×I). El análisis criterioso de
los scores, no obstante, permitirá discernir que estos están ordenados de un modo coherente,
en orden decreciente de su contribución a la variación espectral en X. Por lo tanto, la
selección de los scores significativos (estadísticamente hablando) permitirá reducir aún más el
tamaño de T.
Un comentario final acerca de las propiedades de la matriz de scores: ésta presenta la
ventaja de estar construida con columnas que son ortogonales entre sí. La propiedad de
ortogonalidad implica que el producto escalar de cualquier columna de T por cualquier otra
columna es nulo:
(ti )T × ti' = 0 (si i ≠ i') (11)
La consecuencia más importante de la ecuación (11) es que el modelo PCR está libre de
los efectos de las colinealidades espectrales. Esto es así porque en PCR se correlacionan las
concentraciones con los scores, que pueden considerarse como un tipo especial de
"espectros". Estos espectros no muestran ningún paralelismo entre sí, debido a la propiedad
estipulada en la ecuación (11).
En la literatura existe cierta confusión respecto de a qué se llama componente principal, o
simplemente componente: a veces se emplea el término refiriéndose a las columnas de U,
otras veces a las columnas de T. Para evitar la confusión adicional con los componentes
químicos de cada sistema, llamaremos factores a las columnas de U y scores a las de T,
dejando la expresión "componente principal" para identificar a la unidad factor/score.
Finalmente, es preciso mencionar que la descomposición aquí presentada no es el único
método para calcular componentes principales. El más célebre, quizás, es el NIPALS (por
non-linear linear iterative partial least-squares), desarrollado por H. Wold.20
64
Dado que cada componente principal contribuye con una porción cada vez menor de la
variancia total, lo usual es tomar el número de los primeros componentes principales que,
colectivamente, aportan un determinado porcentaje de la variancia total. La Figura 4 ilustra el
comportamiento típico de un conjunto de componentes principales: mientras los valores
singulares disminuyen, su contribución a la variancia total también disminuye. En el caso de
la Figura 4, por ejemplo, los tres primeros componentes principales explican más del 99% de
la variancia espectral, lo que llevaría a la conclusión de que hay tres fuentes de variación
espectral en los espectros contenidos en la matriz X.
65
básicamente, ruido instrumental. El primero tiene forma "espectral"; el segundo, de ruido al
azar.
66
Imagen total
Calibración
En este punto reuniremos las ventajas de ILS y CLS, que era el objetivo primordial al
comenzar este capítulo de calibración multivariada. Plantearemos un modelo de calibración
inversa, en el que las concentraciones del analito calibrado en las muestras de calibración (yn,
tamaño I×1) se correlacionan linealmente con los scores contenidos en TA:
yn = TA vn + e (14)
donde vn (tamaño A×1) es el vector de coeficientes de regresión correspondiente, y e un
vector que recoge los errores de modelado.
Se puede obtener el vector vn despejando de la ecuación anterior. Pre-multipicando ambos
miembros por TAT se obtiene:
TAT yn = TAT TA vn + e (15)
Luego será necesario multiplicar por la inversa de (TAT TA), o sea, por (TAT TA)–1. Esta
última operación de inversión es trivial, ya que (TAT TA) es una matriz diagonal (en atención a
la ortogonalidad de las columnas de T), y la inversión de una matriz diagonal se remite a la
inversión de cada uno de sus elementos diagonales. Finalmente se obtiene, entonces:
vn = (TAT TA)–1 TA yn (16)
La inversión de (TAT TA) en la ecuación (16) no presenta problemas asociados a la
colinealidad, por los motivos anteriormente expuestos: las columnas de TA son ortogonales.
Por analogía con el criterio empleado en el modelo CLS, podemos llamar a la matriz [(TAT
TA) TA] la seudoinversa de TA y denominarla TA+, con lo cual la ecuación (16) adopta su
–1
forma final:
vn = TA+ yn (17)
Este último paso completa la calibración. La obtención de los coeficientes de regresión vn
es completamente análoga al proceso realizado en CLS, y su empleo en la predicción de la
concentración del analito en muestras incógnitas es también similar.
Predicción
En la etapa de predicción, se registra el espectro de una muestra incógnita, y se almacenan
las señales instrumentales en el vector columna x (tamaño J×1). Antes de aplicar el modelo de
predicción es necesario proyectar dicho vector en el espacio de los A factores de la matriz UA,
dado que no podemos emplear los datos originales para estimar concentraciones "mezclando"
el vector espectral real con los coeficientes de regresión "comprimidos" contenidos en vn.
67
Análogamente a la ecuación (13), entonces, se obtiene el vector tA (A×1) correspondiente
a la muestra incógnita:
tA = UAT x (18)
Este vector tA contiene los scores de la muestra, que actuarán en calidad de "espectros" en
la etapa predictiva del modelo. Esta última no es sino la repetición del modelo inverso de la
ley lineal expresado anteriormente en ILS, esto es:
yn = (vn)T tA (19)
en el que vn reemplaza a βn y tA reemplaza a x. A partir de esta última ecuación se estima la
concentración del analito en la incógnita.
Validación cruzada
La posibilidad de calibrar y predecir mediante un modelo inverso del tipo PCR ofrece la
alternativa de seleccionar el número apropiado de factores (A) mediante una combinación de
información espectral y de concentraciones, que se conoce como validación cruzada.
Consiste en calibrar el modelo con todas las muestras de calibración excepto una, predecir
la concentración de la muestra dejada de lado, y calcular el error cometido (diferencia entre el
valor nominal y el predicho). Este cálculo se realiza utilizando un número creciente de
factores, desde uno hasta un cierto máximo. El máximo puede establecerse a voluntad (debe
ser menor al número de mezclas de calibrado). Luego se repite el procedimiento hasta que
todas las muestras hayan sido dejadas de lado una vez. En cada caso, se predicen las
concentraciones del analito en cada una de las muestras dejadas de lado. Para cada número de
factores, se calcula la suma de los cuadrados de los errores de predicción, que se acostumbra a
llamar PRESS (por predicted error sum of squares). Luego se procede a estudiar cómo varía
el PRESS así obtenido en función del número de factores mediante un procedimiento
estadístico.
A modo de ejemplo, supóngase que se durante un procedimiento típico de validación
cruzada se ha obtenido la siguiente tabla de valores de PRESS en función del número de
factores (véase la Figura 7):
Factores PRESS
1 0,92
2 0,0217
3 4,3×10–3
4 4,1×10–3
5 3,7×10–3
6 5,1×10–3
68
Figura 7. Variación del PRESS en función del número de factores para un modelo
PCR típico.
Se observa que, a medida que se agregan factores, el PRESS disminuye: esto se debe a
que la compresión de los datos se va haciendo progresivamente más eficientes, puesto que los
primeros factores contienen información relevante respecto de la variación espectral en la
calibración. Si se emplean menos factores que los necesarios se obtiene una situación poco
deseable llamada subajuste de los datos.
Al seguir aumentando el número de factores, el PRESS parece estabilizarse y finalmente
aumenta ligeramente. Esto es una fuerte indicación de que los últimos factores no están
aportando información relevante sino esencialmente ruido. Emplear más factores de lo debido
puede llevar a una situación también indeseable llamada sobreajuste.
Intuitivamente, podría plantearse que el número óptimo de factores es aquel que lleve al
mínimo PRESS. Sin embargo, estudios estadísticos cuidadosos indican que este no es el caso.
Una técnica conveniente para estimar A es la descripta por Haaland.¡Error! Marcador no definido.
Consiste en ampliar la tabla anterior, calculando los cocientes entre los distintos PRESS y el
mínimo (sólo para un número de factores inferior a aquel que produce el mínimo PRESS).
Estos cocientes de PRESS cumplen el papel de un cociente de variancias, de manera que
tienen asociada una probabilidad, que se estima estadísticamente con un número de grados de
libertad igual al número de mezclas de calibrado I tanto para el numerador como para el
denominador.
69
La tabla completa sería como sigue:
Residuos espectrales
Como todo método que emplea espectros completos, PCR es capaz de proveer residuos
espectrales para la muestra incógnita, como la diferencia entre el espectro experimental de la
muestra y el espectro estimado por el modelo. El espectro calculado por el modelo, x̂ ,
también llamado espectro "reconstruido", se obtiene simplemente a partir de una ecuación
análoga a la ecuación (9), pero empleando el vector de scores de la muestra y la matriz de
factores reducida UA:
x̂ = UA tA (20)
Luego puede definirse el residuo espectral en forma análoga a CLS:
J
∑ ( x j − xˆ j ) 2
j =1
sres = (21)
J−A
Cifras de mérito
Las cifras de mérito se pueden calcular con ecuaciones similares a las empleadas en el
modelo CLS. Para ello, se requiere el análogo de los coeficientes de regresión espectrales βn,
que puede obtenerse mediante una ecuación análoga a la (20), esto es, "reconstruyendo" el
vector espectral βn a partir del vector reducido vn:
βn = UA vn (22)
Lo que no existe en el ámbito de PCR es la estimación del espectro del analito puro, que
en CLS eran las columnas de la matriz S. Esto impide el cálculo de la selectividad en PCR
mediante la aproximación discutida en la Clase 4. No obstante, la selectividad puede
calcularse en PCR recurriendo a conceptos que están más allá del alcance de este curso. Los
programas suministrados con esta clase permiten estimar todas las cifras de mérito.
70
analizadas de CLS con dos adicionales: 1) calibración directa, que permite ignorar las
concentraciones de compuestos químicos desconocidos durante el calibrado, y 2) uso de
"espectros" abstractos llamados scores, que eliminan los problemas asociados con la
colinealidad espectral.
En referencia a la tabla de propiedades analíticas presentada en la Clase 4, se mantiene,
sin embargo el problema de las interferencias no modeladas. Este problema es común a la
mayoría de los métodos multivariados basados en información espectral: si aparece en una
muestra incógnita un compuesto no contenido en la calibración, el análisis no será exacto.
Aún así, la falta de exactitud tiene su estilo en el mundo multivariado, ya que los modelos son
capaces de detectarla, aunque no de corregirla.
Ejercicio resuelto
1) Los datos del presente ejercicio están tomados del trabajo que acompaña la presente
clase (LECTURA ADICIONAL CLASE 5.PDF). Se desea determinar el contenido de un
fármaco, la bromhexina, presente en muestras de jarabe para la tos. Los componentes del
jarabe se conocen en forma incompleta, de manera que se preparan muestras para construir un
modelo PCR. Para ello, se agregan cantidades conocidas de bromhexina a doce diferentes
muestras de jarabe “blanco” (esto es, el fondo de la matriz del jarabe, sin bromhexina), y se
utilizan para calibrar el modelo.
Las concentraciones del analito en las muestras de calibrado son:
Muestra de Concentración
calibrado ×104 M
1 1.55
2 2.06
3 2.58
4 1.55
5 2.06
6 2.58
7 1.55
8 2.06
9 2.58
10 1.68
11 2.10
12 2.66
71
Estas concentraciones se recogen en forma de un vector de 12×1 en el archivo de texto
BR_CON_C.TXT
Los espectros de absorción de estas 12 muestras se registran a 64 diferentes longitudes de
onda. Estos espectros están contenidos, en forma de matriz de 64×12, en el archivo de texto
BR_RES_C.TXT.
Informar las correspondientes cifras de mérito para el modelo. Suponga que el nivel de
ruido instrumental es igual a 0,003 unidades de señal.
Respuesta detallada
1) El primer paso en el análisis PCR debe ser el estudio del número óptimo de factores
presentes en la matriz de calibrado, que luego se emplearán para la predicción. El método más
recomendado para esto es la validación cruzada, que puede implementarse mediante la rutina
PCR_CV.M de Matlab o el programa PCR_CV.EXE de QB.
Para ejecutar estos algoritmos, se requiere introducir un número máximo de factores de
prueba. Este puede ser, como máximo, igual al número de mezclas de calibrado menos una
(ya que el procedimiento consiste en calibrar con las muestras menos una), en el presente caso
11 = 12 – 1. No obstante, se supone que se han preparado más mezclas de calibración que
fuentes de variación espectral, por lo que se recomienda introducir, como número máximo, un
valor menor. Los resultados obtenidos para un número máximo de factores igual a ocho son
los siguientes:
72
Tanto los resultados correspondientes al PRESS como la variancia explicada se observan
gráficamente en la figura generada por MATLAB, figura que también puede construirse
mediante los valores provistos por el programa QB correspondiente (PCR_CV.EXE).
73
Una vez establecido el número óptimo de factores para la compresión de la información,
se procede a calibrar el modelo, empleando los programas PCR_CAL.M (Matlab) o
PCR_CAL.EXE (QB).
Las cifras de mérito calculadas mediante los programas para este modelo son las
siguientes:
2) Para predecir las concentraciones de las muestras incógnitas, empleamos los programas
PCR_PRED.M (Matlab) o PCR_PRED.EXE (QB), con los siguientes resultados:
Se informan también, en la última columna de esta tabla, los residuos espectrales para
cada muestra incógnita, que, como puede apreciarse, se encuentran dentro del nivel del ruido
instrumental. Esto confirma que el ajuste por cuadrados mínimos para estas muestras es
adecuado. Dos excepciones a esta situación son las muestras número 3 y 4, cuyo residuo
espectral es superior al resto. Una explicación posible para esto es que estas muestras fueron
preparadas con una concentración nominal inferior a las de calibrado. En este sentido, no se
trata de verdaderos outliers, que contengan interferencias no modeladas, pero se trata de
muestras para las que le estamos exigiendo al modelo que realice una extrapolación hacia un
ambiente para el que no está entrenado. De todas maneras, nótese que las concentraciones
predichas para estas muestras son muy cercanas al valor nominal.
Para establecer la exactitud del método, lo recomendado es analizar los datos de la tabla
precedente mediante la prueba de la elipse, tal como se discutiera en la Clase 2. De este modo,
la tabla de datos a suministrar a los programas de cálculo de la elipse será como sigue:
74
1,96 1,97
2,16 2,19
0,00 –0,01
0,82 0,84
1,02 1,04
1,33 1,37
1,84 1,93
2,35 2,43
1,94 2,00
2,14 2,19
2,24 2,25
Dado que no se tienen resultados de réplicas de cada muestra, lo que proveería una
estimación del desvío estándar de cada valor predicho, realizaremos un análisis mediante el
método OLS. Se recomienda organizar los datos apropiadamente y someterlos a los
programas EJCR.M (MATLAB) o EJCR.EXE (QB). El resultado se muestra en las figuras
siguientes. La primera de ellas muestra los valores predichos en función de los nominales, y la
segunda la elipse.
75
El análisis de esta figura revela que el punto ideal (1,0) no está contenido dentro de la
elipse, por lo que la validación del modelo no pasa la prueba de exactitud. Nótese que los
resultados del análisis EJCR indican que los valores de la pendiente y ordenada al origen,
individualmente consideradas, pasan la prueba de exactitud, ya que sus valores e intervalos de
confianza son:
Pendiente = 1,02 ± 0,025
Ordenada = 0,002 ± 0,004
Se observa que ambos intervalos de confianza contienen a los respectivos valores ideales
(1 y 0). Sin embargo, el modelo no aprueba el test más estricto del intervalo conjunto de
confianza.
¿Qué puede hacerse en un caso como el presente? Una alternativa es estudiar un número
mayor de muestras de validación, incluyendo réplicas, para realizar un análisis WLS que es
más cercano al real. Repetir los análisis de muestras con mayor residuo espectral, o mayor
desviación del valor nominal es otro recurso. Finalmente podemos utilizar otros modelos
multivariados alternativos a PCR, que no están contemplados en este curso.
Si luego de estos intentos, la gráfica EJCR es similar, quizás debamos conformarnos con
la falta de exactitud del modelo, y aceptar que para un problema de la complejidad del
presente esta es la mejor respuesta que se puede dar, valorando que el RMSE de predicción
obtenido es satisfactorio. En nuestro caso, RMSE = 0,015, que puede considerarse
satisfactorio en vista de que las concentraciones nominales de calibrado y validación llevan
una incertidumbre de alrededor de 0,01 unidades.
76
Aquí el residuo es significativamente mayor que el ruido espectral, lo que haría sospechar
la presencia de un interferente no modelado.
Ejercicio propuesto
Se desea modelar, mediante PCR, la determinación del antibiótico tetraciclina en suero
humano. La matriz de espectros de calibración es de 101×50 y consiste de 50 espectros de
fluorescencia registrados a 101 longitudes de onda. Esta matriz está contenida en el archivo
TE_RES_C.TXT. Las concentraciones del analito en los 50 sueros empleados para calibrar
están, en forma de vector de 50×1, en el archivo TE_CON_C.TXT.
Calibrar el modelo con el número óptimo de factores, y validarlo frente a las 57 muestras
de validación contenidas en el archivo TE_RES_T.TXT (espectros, matriz de 101×57) y
TE_CON_T.TXT (concentraciones, vector de 57×1).
Analizar la exactitud mediante el método EJCR.
Considerar que el nivel de ruido instrumental es igual a 3 unidades de fluorescencia.
77
Un estadístico cometió un delito
y fue encarcelado.
Ahora tiene cero grados de libertad.
Clase 6
Calibración multivariada
78
condiciones de trabajo para cada analito independientemente. En general, hoy en día se
prefiere utilizar PLS-1 para la mayoría de las aplicaciones, y de aquí en más nos referiremos a
PLS-1 simplemente como PLS.
79
w1 = X yn / (ynT yn), seguido de normalización.
2) Se obtiene el primer score:
t1 = XT w1
3) Se obtiene el primer coeficiente de regresión v1:
v1 = t1 yn / (t1T t1)
4) Se obtiene el primer loading p1:
p1 = XT t1 / (t1T t1)
5) Se calculan los residuos espectrales y de concentración:
eXT = XT – t1 p1T
ey = yn – v1 t1
6) Se sustituyen eX y ey por X e yn respectivamente en el paso 1) y se continúa hasta
llegar al número de factores deseado A.
A continuación describimos los pasos anteriores de manera cualitativa, en relación con
los del algoritmo correspondiente a PCR:
Paso 1). En este paso del algoritmo, se supone que sólo se conocen las concentraciones
de un único componente, en este caso el analito 1, en las mezclas de calibración. Se efectúa
un análisis similar al de CLS, pero en este caso suponiendo que sólo está presente el analito 1.
En otras palabras, w1 es una aproximación por cuadrados mínimos al espectro puro del analito
1, similar a la que se hubiese realizado en CLS suponiendo la presencia de un único
componente en la calibración. A diferencia de PCR, en este paso se aprecia la introducción de
información concerniente a las concentraciones contenidas en yn en el cálculo del primer
factor. Recuérdese que en PCR el primer factor se calcula a partir únicamente de la matriz X,
con prescindencia de las concentraciones del analito.
Paso 2). Se continúa con la suposición de que únicamente está presente el analito 1, y
se calcula qué contribución del primer factor w1 está presente en las mezclas de calibración.
Estas "concentraciones" forman el vector t1. Nótese que si efectivamente hubiese un único
componente en la calibración, los pasos 1-2 serían idénticos a los realizados mediante un
método CLS. En presencia de más de un componente, PLS se desvía del método clásico de
análisis.
Paso 3). Este paso es similar al realizado en PCR. Se calcula el coeficiente de
regresión que relaciona el score t1 calculado en el paso 2) con las concentraciones de
calibración.
Pasos 4 y 5). Estos pasos aseguran que los vectores ta y wa subsiguientes serán
ortogonales entre sí. Para ello se calculan los vectores pa, llamados loadings. Estos vectores, a
diferencia de PCR, no explican la varianza espectral en la matriz X, sino que representan un
intento de explicar dicha varianza, mientras simultáneamente se correlacionan los scores ta
con las concentraciones yn.
Calibración
La etapa de calibración requiere estimar en primer lugar el número óptimo de factores
A, lo que usualmente se lleva a cabo mediante la técnica de validación cruzada, tal como se
describió para PCR. El resultado de la calibración es la obtención del vector de coeficientes
de regresión vn, cuyos elementos (v1,..., vA) se obtienen en cada uno de los A pasos del
algoritmo cíclico anterior.
Predicción
En la etapa de predicción se emplean los coeficientes de regresión para estimar la
concentración del analito en la muestra. El paso previo, tal como en PCR, es la obtención de
los scores de la muestra, lo que se realiza con ayuda de las matrices W y P:
tA = (WTP)–1 WT x (1)
80
yn = (vn)T tA (2)
81
cuantificar analitos calibrados en presencia de interferencias no calibradas. Esta propiedad
está ausente en los datos de primer orden, y presenta inmensas posibilidades en el análisis de
mezclas complejas, en particular las de origen biológico. Una descripción detallada acerca de
los métodos de orden superior puede encontrarse en la tesis de R. Bro.28
Ejercicio resuelto
1) Los datos del presente ejercicio están tomados del trabajo que acompaña la clase 5
(LECTURA ADICIONAL CLASE 5.PDF). Se desea determinar el contenido de un fármaco,
la bromhexina, presente en muestras de jarabe para la tos. Los componentes del jarabe se
conocen en forma incompleta, de manera que se preparan muestras para construir un modelo
PLS. Para ello, se agregan cantidades conocidas de bromhexina a doce diferentes muestras de
jarabe “blanco” (esto es, el fondo de la matriz del jarabe, sin bromhexina), y se utilizan para
calibrar el modelo.
Las concentraciones del analito en las muestras de calibrado son:
Muestra de Concentración
calibrado ×104 M
1 1.55
2 2.06
3 2.58
4 1.55
5 2.06
6 2.58
7 1.55
8 2.06
9 2.58
10 1.68
11 2.10
12 2.66
82
Respuesta detallada
1) El primer paso en el análisis PLS debe ser el estudio del número óptimo de factores
presentes en la matriz de calibrado, que luego se emplearán para la predicción. El método más
recomendado para esto es la validación cruzada, que puede implementarse mediante la rutina
PLS_CV.M de Matlab o el programa PLS_CV.EXE de QB.
Para ejecutar estos algoritmos, se requiere introducir un número máximo de factores de
prueba. Este puede ser, como máximo, igual al número de mezclas de calibrado menos una
(ya que el procedimiento consiste en calibrar con las muestras menos una), en el presente caso
11 = 12 – 1. No obstante, se supone que se han preparado más mezclas de calibración que
fuentes de variación espectral, por lo que se recomienda introducir, como número máximo, un
valor menor. Los resultados obtenidos para un número máximo de factores igual a ocho son
los siguientes:
83
Una vez establecido el número óptimo de factores para la compresión de la información,
se procede a calibrar el modelo, empleando los programas PLS_CAL.M (Matlab) o
PLS_CAL.EXE (QB).
Las cifras de mérito calculadas mediante los programas para este modelo son las
siguientes:
84
2) Para predecir las concentraciones de las muestras incógnitas, empleamos los programas
PLS_PRED.M (Matlab) o PLS_PRED.EXE (QB), con los siguientes resultados:
Se informan también, en la última columna de esta tabla, los residuos espectrales para
cada muestra incógnita, que, como puede apreciarse, se encuentran dentro del nivel del ruido
instrumental. Esto confirma que el ajuste por cuadrados mínimos para estas muestras es
adecuado. Dos excepciones a esta situación son las muestras número 3 y 4, cuyo residuo
espectral es superior al resto. Una explicación posible para esto es que estas muestras fueron
preparadas con una concentración nominal inferior a las de calibrado. En este sentido, no se
trata de verdaderos outliers, que contengan interferencias no modeladas, pero se trata de
muestras para las que le estamos exigiendo al modelo que realice una extrapolación hacia un
ambiente para el que no está entrenado. De todas maneras, nótese que las concentraciones
predichas para estas muestras son muy cercanas al valor nominal.
Para establecer la exactitud del método, lo recomendado es analizar los datos de la tabla
precedente mediante la prueba de la elipse, tal como se discutiera en la Clase 2. De este modo,
la tabla de datos a suministrar a los programas de cálculo de la elipse será como sigue:
1,96 1,97
2,16 2,19
0,00 –0,01
0,82 0,84
1,02 1,04
1,33 1,37
1,84 1,93
2,35 2,43
1,94 1,99
2,14 2,19
2,24 2,25
85
Dado que no se tienen resultados de réplicas de cada muestra, lo que proveería una
estimación del desvío estándar de cada valor predicho, realizaremos un análisis mediante el
método OLS. Se recomienda organizar los datos apropiadamente y someterlos a los
programas EJCR.M (MATLAB) o EJCR.EXE (QB). El resultado se muestra en las figuras
siguientes. La primera de ellas muestra los valores predichos en función de los nominales, y la
segunda la elipse.
Ejercicio propuesto
Se desea modelar, mediante PLS, la determinación del antibiótico tetraciclina en suero
humano. La matriz de espectros de calibración es de 101×50 y consiste de 50 espectros de
fluorescencia registrados a 101 longitudes de onda. Esta matriz está contenida en el archivo
TE_RES_C.TXT. Las concentraciones del analito en los 50 sueros empleados para calibrar
están, en forma de vector de 50×1, en el archivo TE_CON_C.TXT.
Calibrar el modelo con el número óptimo de factores, y validarlo frente a las 57 muestras
de validación contenidas en el archivo TE_RES_T.TXT (espectros, matriz de 101×57) y
TE_CON_T.TXT (concentraciones, vector de 57×1).
Analizar la exactitud mediante el método EJCR.
Considerar que el nivel de ruido instrumental es igual a 3 unidades de fluorescencia.
86
Resoluciones a los ejercicios propuestos
Respuestas a los ejercicios propuestos en la clase 1
1) Empleando las ecuaciones de regresión lineal y cálculo de cifras de mérito expuestas en
la teoría de la clase 1, se obtienen los siguientes resultados respecto de la sensibilidad:
2) Las concentraciones predichas para la incógnita y sus desvíos estándar, usando ambos
métodos, son:
Método Concentración (desvío
estándar)
A 0,153(1)
B 0,1517(4)
87
La elección entre estos dos casos es un ejemplo de que no se puede tener todo en la vida:
habría que decidir qué es más importante para aplicaciones concretas, si el rango lineal
extendido o la mayor sensibilidad.
Vale la pena destacar el resultado que se obtendría mediante un análisis BLS, esto es,
considerando que tanto la variable x como la y están sujetas a incertidumbre:
Pendiente: 0.996
Ordenada al origen: 1.16
sy/x: 2.39
88
Como puede apreciarse en la figura siguiente, el resultado final en cuanto al estudio de la
comparación de los métodos es similar al hallado mediante el análisis OLS sencillo.
2) Se requiere graficar tres elipses, calculadas por OLS, que proporcionan visualmente
una buena impresión de la exactitud y precisión relativas de los tres métodos probados:
30
3
Ordenada al origen
20
10 1
2
0
-10
0.8 0.9 1.0 1.1
89
Pendiente
La conclusión es que el método más preciso es el 3 (menor tamaño de elipse), pero es muy
poco exacto (alejado del punto ideal). El método 2 es el más exacto, y además es más preciso
que el método 1.
⎡− 15,14 15,29 ⎤
S–1 = ⎢ ⎥ × 10
–4
⎣ 18, 29 − 16 , 49 ⎦
Sensibilidades y selectividades:
⎡− 1,514 × 10 −3 ⎤
β1 = ⎢ ⎥
⎣ 1,529 × 10 −3 ⎦
SEN1 = || β1 ||–1 = 464
SEL1 = 464 / (5.5002 + 6.1002) = 0,056
⎡ 1,829 × 10 −3 ⎤
β2 = ⎢ ⎥
⎣− 1,649 × 10 −3 ⎦
SEN2 = || β2 ||–1 = 406
SEL2 = 406 / (5.1002 + 5.0502) = 0,056
Realizando este mismo análisis a todas las posibles combinaciones de dos longitudes de
onda se obtienen los siguientes resultados:
Combinación SEL1 SEL2
1y2 0,056 0,056
1y3 0,029 0,029
1y4 0,007 0,007
1y5 0,028 0,028
2y3 0,084 0,084
2y4 0,059 0,059
2y5 0,027 0,027
3y4 0,022 0,022
3y5 0,056 0,056
4y5 0,034 0,034
90
Respuesta al ejercicio propuesto en la clase 4
1) Los resultados provistos por el programa son los siguientes:
91
Estas figuras son provistas automáticamente por la rutina de MATLAB; los usuarios de
QB pueden producirlas con cualquier programa gráfico, leyendo los datos de los
correspondientes archivos de texto 'RESP_CAL.TXT' (espectros de calibración), 'S_.TXT'
(sensibilidades) y 'B_.TXT' (coeficientes de regresión).
92
Respuesta al ejercicio propuesto en la clase 5
1) Los resultados provistos por el programa son los siguientes:
Con estos datos se puede utilizar el programa EJCR.M para evaluar la exactitud, usando
el método OLS:
93
94
Referencias
1. K. Danzer y L. A. Currie, Guidelines for calibration in analytical chemistry. Part 1.
Fundamentals and single component calibration, Pure & Appl. Chem. 1998, 70, 993-
1014.
2. W. P. Gardiner, Statistical analysis methods for chemists. A software-based approach,
The Royal Society of Chemistry, Cambridge, 1997.
3. J. N. Miller y J. C. Miller, Estadística y quimiometría para química analítica, 4ta.
Edición, Prentice Hall, Madrid, 2002.
4. C. A. Clayton, J. W. Hines y P. D. Elkins, Detection limits with specified assurance
probabilities, Anal. Chem. 1987, 59, 2506-2514.
5. L. A. Currie, Detection and quantification limits: origins and historical perspective, Anal.
Chim. Acta 1999, 391, 127-134.
6. L. A. Currie, Recommendations in Evaluation of Analytical Methods including
Detection and Quantification Capabilities, Pure Appl. Chem. 1995, 67, 1699-1723.
7. P. Wilrich, ISO/DIS 11843-1,2 (1995), Capability of Detection, ISO/TC69/SC6, ISO
Standard, 11843-1, 1977.
8. M. Valcárcel, Principios de química analítica, Springer-Verlag Ibérica, Barcelona, 1999,
p. 81.
9. A. G. González, M. A. Herrador y A. G. Asuero, Intra-laboratory testing of method
accuracy from recovery assays, Talanta 1999, 48, 729-736.
10. D. L. Massart, B. G. M. Vandeginste, L. M. C. Buydens, S. De Jong, P. J. Lewi y J.
Smeyers-Verbeke, Handbook of Chemometrics and Qualimetrics, Elsevier, Amsterdam,
1997, Capítulo 8.
11. Los términos homoscedástico/a y homoscedasticidad existen en el contexto del
"Diccionario Estadístico" que puede consultarse en http://www.estadistico.com/dic.html.
También se usan, en forma equivalente, homocedástico/a y homocedasticidad.
12. J. Riu y F. X. Rius, Assessing the accuracy of analyical methods using linear regression
with errors in both axes, Anal. Chem. 1996, 68, 1851-1857.
13. G. D. Christian, Analytical Chemistry, 6a. Edición, Wiley, New York, 2003, Capítulo
16.
14. D. A. Skoog, D. M. West y F. J. Holler, Fundamentals of Analytical Chemistry, 7a.
Edición, Saunders College Publishing, New York, 1996, Capítulo 20.
15. E. V. Thomas y D. M. Haaland, Partial least-squares methods for spectral analyses. 1.
Relation to other quantitative calibration methods and the extraction of qualitative
information, Anal. Chem. 1988, 60, 1193-1202
16. D. L. Massart, B. G. M. Vandeginste, L. M. C. Buydens, S. De Jong, P. J. Lewi y J.
Smeyers-Verbeke, Handbook of Chemometrics and Qualimetrics, Elsevier, Amsterdam,
1997, Capítulo 10.
17. R. G. Brereton, Chemometrics. Data Analysis for the Laboratory and Chemical Plant,
Wiley, Chichester, 2003, Capítulo 5.
18. http://www.chm.bris.ac.uk/org/chemometrics/pubs/chemweb.html
19. D. L. Massart, B. G. M. Vandeginste, L. M. C. Buydens, S. De Jong, P. J. Lewi y J.
Smeyers-Verbeke, Handbook of Chemometrics and Qualimetrics, Elsevier, Amsterdam,
1997, Capítulos 17 y 36.
20. H. Wold, Estimation of principal components and related models by iterative least
squares, en Multivariate Analysis (Ed., P.R. Krishnaiah), Academic Press, NY, 1966, pp.
391-420.
95
21. Las imágenes están tomadas de la página web www.cc.gatech.edu/
people/home/adjacent/.
22. H. C. Goicoechea y A. C. Olivieri, A comparison of orthogonal signal correction and net
analyte preprocessing methods. Theoretical and experimental study, Chemom. Intell. Lab.
Syst. 2001, 56, 73.
23. O. Svensson, T. Kourti y J. F. MacGregor, An investigation of orthogonal signal
correction algorithms and their characteristics, J. Chemometrics, 2002, 16, 176.
24. S. Wold, H. Antti, F. Lindgren y J. Öhman, Orthogonal signal correction of near-infrared
spectra, Chemom. Intell. Lab. Syst. 1998, 44, 175.
25. T. Fearn, On orthogonal signal correction, Chemom. Intell. Lab. Syst. 2000, 50, 47.
26. L. Xu e I. Schechter, A calibration method free of optimum factor number selection for
automated multivariate analysis. Experimental and theoretical study, Anal. Chem. 1997,
69, 3722.
27. El programa MVC1 (Multivariate Calibration 1) puede obtenerse libremente en
www.chemometry.com
28. R. Bro, Multiway Analysis in the Food Industry. Models, Algorithms, and Applications,
Royal Veterinary and Agricultural University Denmark, 1998, disponible en internet en
www.models.kvl.dk.
96