Documentos de Académico
Documentos de Profesional
Documentos de Cultura
á1039ñ QUIMIOMETRÍA
1. INTRODUCCIÓN
1.1 Alcance y Propósito
1.2 Resumen del Documento
1.3 Audiencia
2. CONCEPTOS DE QUIMIOMETRÍA
3. CICLO DE VIDA DEL MODELO
3.1 Desarrollo del Modelo: Calibración
3.2 Validación del Método
3.3 Monitoreo del Modelo
3.4 Actualización del Modelo y Transferencia del Método
3.5 Revalidación
4. APLICACIONES DE LA QUIMIOMETRÍA
4.1 Cualitativas
4.2 Cuantitativas
GLOSARIO
APÉNDICE
REFERENCIAS
l
1. INTRODUCCIÓN
ia
1.1 Alcance y Propósito
Este capítulo provee guías con respecto a las prácticas científicas adecuadas para el análisis quimiométrico y la interpretación
fic
de datos multivariantes para aplicaciones farmacopeicas e industriales. Las prácticas quimiométricas establecidas, que incluyen
calibración y validación, para aplicaciones que emplean distintas tecnologías analíticas (p .ej., espectroscópicas,
cromatográficas, entre otras) y para diferentes propósitos (p. ej., identificación por huella dactilar, identificación, clasificación,
predicción de propiedades, entre otros) se tratan mediante un enfoque de ciclo de vida. Se describen aplicaciones cualitativas y
cuantitativas.
Este capítulo trata la forma en que se asegura la calidad y el desempeño del método mediante la gestión apropiada del ciclo
de vida de un modelo basado en quimiometría, que incluye selección de algoritmos apropiados, calibración, validación,
verificación, transferencia y etapas de mantenimiento continuas.
O
Este capítulo puede considerarse suplementario a otros capítulos de guías, tales como Datos Analíticos—Interpretación y
Tratamiento á1010ñ, los cuales tratan principalmente el análisis y la interpretación de datos univariantes.
[NOTA—No se debe inferir que las herramientas de análisis multivariante mencionadas en este capítulo constituyen una lista
exhaustiva. Se pueden usar otros modelos igualmente válidos a discreción del fabricante y de los demás usuarios de este
capítulo.]
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 1/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
2
l
ia
Figura 1. Resumen del documento.
1.3 Audiencia
Este capítulo provee instrucciones para el técnico en quimiometría que desarrolla modelos para una aplicación dada usando
fic
técnicas quimiométricas y para el analista que opera el modelo dentro de un procedimiento analítico. El técnico en quimiometría
encontrará apoyo con respecto a la selección de algoritmos para una aplicación dada y guías para asegurar el desempeño del
modelo durante todo su ciclo de vida. El analista obtendrá información relacionada con las fortalezas y limitaciones de las
técnicas quimiométricas con respecto al uso para sustentar sus aplicaciones.
2. CONCEPTOS DE QUIMIOMETRÍA
O
La quimiometría se definió originalmente como la disciplina química que usa métodos matemáticos, estadísticos, entre otros,
que emplean la lógica formal para lograr dos objetivos: 1) diseñar o seleccionar experimentos y procedimientos de medición
óptimos; y 2) proveer la máxima cantidad de información química pertinente mediante el análisis de datos químicos. (1,2) Más
específicamente, la “quimiometría” se ha convertido en la aplicación de métodos multivariantes para el análisis de datos
químicos o relacionados, aunque los algoritmos en cuestión se pueden usar para extraer información casi de cualquier dato
medido, independientemente del origen—químico, físico, biológico, farmacéutico, entre otros. Este capítulo no se enfoca en
el desarrollo de procedimientos o métodos óptimos ni en la aplicación de diseño de experimentos, sino en el análisis de datos
multidimensionales recolectados a partir de un instrumento analítico, tal como datos espectroscópicos y cromatográficos. Un
conjunto de datos multivariantes (es decir, datos multivariantes obtenidos a partir de un número de muestras u objetos) forma
una tabla o matriz de datos m × n. La matriz se representa mediante X, siendo m el número de muestras u objetos y n el número
de variables medidas para cada muestra (Figura 2).
Por consiguiente, las técnicas de análisis de datos consideradas en este capítulo serán de naturaleza multivariante.
Dependiendo del propósito del tratamiento de los datos, se aplicarán diferentes herramientas. Inicialmente, las técnicas de
manipulación de datos pueden dividirse en dos categorías: no supervisadas y supervisadas. Las herramientas no supervisadas
usan únicamente la matriz X para extraer información, pero en el análisis de datos supervisado las muestras también se describen
mediante un vector y, además de la matriz X. Esta es una tabla m × 1 que contiene información de propiedades para cada
muestra (p. ej., concentración, actividad de inhibición de enzimas). Las técnicas de análisis de datos supervisadas se usan para
construir un modelo entre la matriz X y el vector y. En las ecuaciones que se usan en los modelos quimiométricos, los datos
describen empíricamente sus varianzas subyacentes, tanto para propósitos supervisados como no supervisados. Las diferentes
técnicas o herramientas aplicadas para los distintos propósitos se tratan con más detalle en 4. Aplicaciones de la Quimiometría.
La técnica no supervisada de uso más común es el análisis de componentes principales o PCA, por sus siglas en inglés, y la
supervisada más común es la regresión de mínimos cuadrados parciales o PLS, por sus siglas en inglés. Por su naturaleza, estas
técnicas son proyecciones latentes (ver la Figura 2) que transforman un gran número de variables X potencialmente
correlacionadas, tales como intensidades a diferentes tiempos de retención o a distintas longitudes de onda, en un número más
pequeño de variables no correlacionadas (componentes principales o variables latentes), dentro de lo posible. Tal como se
observa en la Figura 2, el espacio multi dimensional de n variables original se transforma en un espacio de dos componentes
principales. Cuando las muestras del espacio original de datos se proyectan en este espacio de menores dimensiones, las
coordenadas resultantes de la muestra se denominan puntuaciones (scores) (T). La visualización de las puntuaciones junto con
dos o más componentes principales forma una gráfica de puntos que contiene información sobre las relaciones entre distintas
muestras. Las cargas (P) son una combinación lineal de las variables originales y de los coeficientes o pesos usados en esta
combinación lineal. Las cargas para variables latentes específicas también pueden graficarse en lo que se denomina una gráfica
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 2/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
3
de cargas. La gráfica de cargas contiene información sobre la importancia relativa de las variables originales. Tanto las gráficas
de puntos como las gráficas de cargas permiten comprender y visualizar la estructura subyacente de los datos (es decir, la
presencia de grupos/agrupamientos y/o exclusiones) dentro de un espacio dimensional reducido. La matriz de variables (E)
producida por el modelo se define como el error residual. La información de la muestra a lo largo de los ejes de la varianza
común es capturada por los componentes principales del modelo. La varianza que no es tenida en cuenta por dichos
componentes principales (error residual) se deja en cada variable para cada muestra, formando la matriz residual (E).
l
ia
fic
O
Los modelos quimiométricos que forman parte de procedimientos analíticos se desarrollan para cumplir un propósito
predefinido. Por lo general, el propósito previsto es una declaración que describe lo que se va a medir, el formato de los
resultados y el nivel de desempeño requerido con el resultado, y debe estar de acuerdo con el perfil analítico esperado. El perfil
analítico esperado puede especificar los criterios de desempeño para las características claves de los resultados del procedimiento
analítico y/o las probabilidades de riesgo en las decisiones que se esperan al usar el procedimiento analítico rutinariamente.
La calibración del modelo abarca un proceso iterativo que implica la selección del conjunto de muestras para uso en el
desarrollo del modelo quimiométrico, la selección de un algoritmo quimiométrico apropiado con el algoritmo de pre
procesamiento necesario, y la evaluación del desempeño del modelo de acuerdo con los parámetros predefinidos para el perfil
analítico esperado. Durante la etapa de validación, se demuestra el desempeño del método para cumplir con el propósito
previsto y el perfil analítico esperado. El conocimiento adquirido durante la calibración y evaluación de los parámetros
específicos y sus correspondientes límites se usa para evaluar el desempeño y definir un protocolo de mantenimiento del método
que se usará para la etapa de monitoreo, antes de la implementación para uso rutinario. Los cambios que afecten el desempeño
del modelo deberían resultar en un conjunto definido de actividades para actualizarlo. Durante el ciclo de vida, también se
podría necesitar una actualización del modelo al realizar una transferencia del método a otro sitio de fabricación, o de un
equipo a otro. El grado de la revalidación será definido por la magnitud de la actualización del modelo. La Figura 3 muestra un
diagrama de flujo de lo expuesto.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 3/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
4
l
ia
fic
O
SELECCIÓN DE LA MUESTRA
La selección de muestras para el modelo de calibración es una etapa crítica para el desarrollo del modelo. Se deben usar
fundamentos científicos sólidos para seleccionar las muestras representativas de calibración con respecto a dos criterios: el tipo/
intervalo de variabilidad, y el número de muestras. Las muestras se deben seleccionar de modo que el intervalo de sus valores
de respuesta abarquen todo el intervalo esperado de variación de respuesta para la aplicación prevista. El intervalo y tipo de
variación en los predictores pueden incluir la variabilidad relevante de factores distintos a la propiedad que se está prediciendo,
tales como el tamaño de partícula, el uso de diferentes lotes de ingredientes para la preparación de la muestra, la variación
entre analistas y días, y otras fuentes de variación. En el entorno de fabricación, se deben usar de muestras que representen
partidas dentro y fuera de la especificación. Se recomienda decidir los factores y la variabilidad que serán incluidos en las
muestras de calibración considerando los riesgos. Uno de los métodos más comunes consiste en realizar un análisis de los efectos
l
en modo de falla (FMEA, por sus siglas en inglés) o un estudio de viabilidad para evaluar los efectos de dichos factores.
A medida que aumenta la complejidad del modelo de calibración (es decir, el tipo y el intervalo de variabilidad en las variables
ia
predictoras y de respuesta), también se incrementa el número de muestras que se requieren. En general, cuanto mayor sea el
número de muestras, mayor será la probabilidad de lograr los resultados correctos en todo el intervalo de calibración. Asimismo,
la distribución de las muestras de calibración también merece atención. Se prefiere una distribución uniforme de las muestras,
aunque no se requiere para todos los casos, dependiendo de los aspectos específicos de la aplicación. Se debe justificar el
número y la distribución de las muestras de calibración con fundamentos científicos sólidos. Cuando la obtención de nuevas
fic
muestras de calibración se vuelve costosa, se usan comúnmente enfoques de diseño experimental o bases de datos históricas
como alternativas para construir modelos de calibración.
Los datos obtenidos a partir de muestras seleccionadas (es decir, un número seleccionado de filas de la matriz X de la Figura
2) deben someterse a clasificación adicional. Los análisis de datos exploratorios (ver Ejemplos de Aplicación Cualitativa) pueden
ser valiosos para entender la estructura de los datos, detectar potenciales conjuntos o grupos de muestras, identificar
exclusiones y seleccionar muestras representativas. Las exclusiones pueden detectarse usando parámetros que describan qué
tan bien se ajusta un modelo de observación dado dentro del espacio del modelo (p. ej., T2 de Hotelling para métodos de
variables latentes) y la distancia al subespacio del modelo (p. ej., residual para métodos de variables latentes).
O
PROCESAMIENTO PREVIO
El objetivo del procesamiento previo es implementar transformaciones matemáticas en las columnas de la matriz X (Figura
2) para amplificar la variación de interés dentro del conjunto de datos y atenuar la variación no pertinente tanto para las variables
como para las observaciones. El procesamiento previo es un paso inicial importante para la mayoría de los análisis de datos y
se puede aplicar de manera iterativa con la selección de variables. La comprensión de los datos de la muestra y/o de la técnica
analítica subyacente debe guiar la selección inicial de opciones de procesamiento previo. También se puede obtener información
que sirva para guiar el procesamiento previo a través de un análisis preliminar de los datos multivariantes (ver Ejemplos de
Aplicación Cualitativa). Las selecciones iniciales pueden modificarse o perfeccionarse dentro del contexto de la subsiguiente
optimización del desempeño del modelo. Este proceso es casi siempre cíclico en la práctica; la comparación entre diversas
estrategias de procesamiento previo lleva a una mejor comprensión de los datos, lo que puede mejorar aún más el
procesamiento previo para maximizar la relación señal-ruido.
Sin embargo, existen dos puntos en los que hay que tener cuidado. El procesamiento previo debe usarse de forma cuidadosa
debido a lo siguiente: 1) un procesamiento previo excesivo puede atenuar la señal y aumentar variaciones indeseadas; y 2)
muchos métodos quimiométricos pueden admitir datos con ruido y visualmente poco atractivos. Además, en algunos casos
donde el mismo instrumento realiza el procesamiento previo, puede ser imposible saber exactamente qué modificaciones han
sufrido los datos, debido a que muchos algoritmos usados por proveedores de instrumentos están patentados. El técnico en
quimiometría debe ser cuidadoso y estar informado de cualquier procesamiento previo aplicado a los datos que se van a utilizar.
El procesamiento previo puede ser un tratamiento matemático de los datos tales como transformación, normalización o
algún otro. El procesamiento previo de muestras (filas de matriz de datos) puede incluir centrado alrededor de la media o la
mediana, ajustes de escala y otros procedimientos. Las variables (columnas de la matriz de datos) también pueden ser
transformadas, alineadas (p. ej., recorte de tiempo de corrida (time warping)) o ajuste de escala (p. ej., ajuste automático de
escala). El centrado alrededor de la media es probablemente el método de procesamiento previo más común. Por ejemplo, el
uso de datos centrados alrededor de la media en el modelo de regresión elimina el término de ordenada al origen, lo que resulta
en un modelo potencialmente simplificado. Asimismo, es común eliminar la contribución lineal o polinomial de la línea base
(p. ej., corrección de sesgo/deriva), o aplicar técnicas de filtración digital, tales como derivadas, transformada de ondícula, filtro
de Fourier o filtro de Savitzky-Golay para eliminar o atenuar las desviaciones lineales y la contribución del ruido. Normalización
es el ajuste de la escala de las observaciones, lo que da a los objetos un impacto similar sobre la creación del modelo al: 1) tener
en cuenta factores que tienen impacto sobre la medición y que son distintos del analito de interés (p. ej., la variabilidad de
longitud de paso de la muestra ocasionada por el tamaño de partícula, el volumen de la muestra, o el espesor de la tableta);
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 5/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
6
2) corregir por variación en la concentración o masa de un analito para modelos cualitativos; y 3) atenuar artefactos de la
medición (p. ej., deriva del desempeño del instrumento). Cuando las variables están altamente correlacionadas, como en las
mediciones espectroscópicas, la normalización se realiza mediante variación normal estándar (SNV, por sus siglas en inglés) y
corrección multiplicativa de la dispersión (multiplicative scatter correction MSC, por sus siglas en inglés). A menudo, estas
normalizaciones se llevan a cabo en cada una de las muestras (filas).
Para los casos en los que las variables tienen unidades, sensibilidades o relaciones señal-ruido diferentes, por lo general se
aplica un ajuste de escala de las variables para corregir dichos factores; por lo general se usa el ajuste automático de la escala,
pero el analista puede considerar otras alternativas, tales como usar las desviaciones estándar combinadas de determinaciones
repetidas de mediciones como parámetros de ajuste de escala/ponderación. Estas normalizaciones por lo general se llevan a
cabo en cada una de las variables (columna). No existen guías para decidir qué enfoque de procesamiento previo es el mejor
para un conjunto de datos dado. A menudo se trata de un proceso de ensayo y error a medida que el analista aplica diversas
técnicas de procesamiento para encontrar la mejor. También se pueden aplicar combinaciones de técnicas de procesamiento
previo a un conjunto de datos dado.
SELECCIÓN DE ALGORITMOS
Se han probado muchos algoritmos diferentes en las aplicaciones quimiométricas, con distintos grados de éxito. Los métodos
incluyen algoritmos relativamente simples, tales como regresión lineal multivariante y sus modificaciones (regresión
ponderada o robusta); los ampliamente usados enfoques de variables latentes, tales como regresión de componentes
principales y regresión de mínimos cuadrados parciales; métodos locales, tales como método de k-vecinos más cercanos
(k-nearest neighbors o kNN); y los métodos más sofisticados, tales como máquinas de vector de soporte (SVM, por sus siglas
en inglés) y redes neuronales artificiales. Se pueden encontrar más detalles sobre las herramientas algorítmicas de uso más
común en 4. Aplicaciones de Quimiometría. En general, es difícil predecir qué algoritmo producirá los mejores resultados para
un conjunto de datos particular. La multitud de elecciones para la selección de la muestra, la selección de variables y la
l
normalización y el procesamiento previo de datos—así como la combinación de parámetros de ajuste para cada algoritmo—
ia
pueden afectar significativamente el desempeño del modelo de calibración. En ocasiones, la elección del algoritmo se repite
incluso con las etapas de selección de muestra, la selección de variables y el procesamiento previo. Por ende, la elección del
algoritmo puede depender de la tarea en curso, de la disponibilidad de software y de la familiaridad del experto con el método.
Otro aspecto a considerar es que algunos algoritmos proveen herramientas útiles para diagnósticos e interpretación—tales
como gráficas de regresión de mínimos cuadrados parciales de puntuaciones, cargas y coeficientes, mientras que en ocasiones
se hace referencia a otros como “cajas negras”, debido a que sus funcionamientos internos pueden ser difíciles de interpretar
fic
(p. ej., redes neuronales).
Es importante tener en cuenta que muchos algoritmos son de naturaleza empírica. Casi siempre, se puede desarrollar algún
tipo de modelo. Por ende, los resultados deben evaluarse de forma crítica para asegurar que los resultados generados por el
modelo son pertinentes y correctos, y que el desempeño del modelo cumple con los requisitos del perfil analítico esperado.
Esto se puede lograr mediante validación cruzada y, en última instancia, mediante validación con el conjunto de datos de prueba
independientes que no se usó para desarrollar el modelo.
O
SELECCIÓN DE VARIABLES
El propósito previsto de la selección de variables es identificar un subconjunto de variables predictoras (es decir, la columna
de la matriz X en la Figura 2) que puede mejorar el desempeño del modelo. La justificación subyacente de la selección de
variables en quimiometría se basa en dos aspectos. Primero, algunas variables predictoras pueden ser irrelevantes para el
propósito esperado e, idealmente, estas variables deben minimizarse o eliminarse del modelo. Por ejemplo, solo longitudes de
onda específicas del intervalo total generado por el espectrómetro pueden contener información relevante para la variación en
los niveles de la variable de respuesta. La selección de variables para este propósito debe basarse primeramente en principios y
experiencia. La inclusión de predictores no relacionados, tales como regiones espectrales irrelevantes, podría degradar
potencialmente el desempeño del modelo. Se puede usar un número menor de variables a partir de los datos procesados
previamente para lograr un desempeño superior, tales como exactitud, precisión y robustez.
La segunda parte de la justificación para la selección de variables es evitar el sobreajuste. El sobreajuste es la situación en la
que el modelo no solo describe la variabilidad pretendida en los datos, sino también incluye el ruido en el modelado. Esto último
tiene un efecto negativo sobre las propiedades predictivas del modelo. Por lo general, en quimiometría el número de variables
predictoras (cientos o miles) es mayor que el número de observaciones (docenas a cientos). A continuación, se presentan dos
estrategias generales para manejar el problema del sobreajuste. Una estrategia es seleccionar de forma manual o computacional
solamente un subconjunto de variables predictoras y usarlas para el desarrollo del modelo. Las variables predictoras pueden
seleccionarse de forma manual (p. ej., seleccionando ciertas longitudes de onda espectrales características de un compuesto
dado) o usando una variedad de métodos estadísticos de selección, tales como regresión paso a paso (o escalonada), y usando
mediciones estadísticas univariantes simples, tales como la prueba F, la prueba t, el coeficiente de correlación, las relaciones
señal-ruido, los umbrales de intensidad, la importancia de las variables en la medida de proyección o los algoritmos genéticos.
Los enfoques multivariantes pueden usar cargas de variables de componentes principales, discriminantes lineales o coeficientes
de regresión para definir las características claves.
En la segunda estrategia para evitar el sobreajuste, no se seleccionan variables. Los métodos de variables latentes—regresión
de mínimos cuadrados parciales y regresión de componentes principales— por su naturaleza son capaces de dar selectivamente
un peso mayor a las variables predictoras importantes y quitar peso a las menos importantes. Estas nuevas variables latentes, o
componentes, se representan como combinaciones lineales de las variables observadas. Si se combinan con la selección de
variables, el desempeño de los modelos de variables latentes podría potencialmente mejorarse, debido a que algunas variables
predictoras solo contienen ruido, lo cual perturba el proceso de construcción del modelo.
Seleccionar un subconjunto de las variables predictoras que son informativas reducirá el tamaño del conjunto de datos,
proveerá eficiencia computacional y obtendrá mejores modelos para el procesamiento posterior. Una advertencia sobre dichas
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 6/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
7
aplicaciones, tales como autentificación consiste en que la eliminación de las variables predictoras que están desprovistas de
información puede impedir el reconocimiento de adulterantes u objetos novedosos que tienen características de estas variables
predictoras excluidas.
VALIDACIÓN CRUZADA
En la práctica, la validación cruzada se usa para obtener un estimado del desempeño del modelo y para ajustar los parámetros
de un algoritmo (p. ej., el número de componentes para la regresión de mínimos cuadrados parciales). Esto se logra mediante
la división repetitiva de los datos (es decir, el número de filas de la matriz X en la Figura 2) en un conjunto de calibración, el
cual se usa para desarrollar el modelo, y un conjunto de análisis (o conjunto de validación interna), que se usa para hacer
predicciones y comparar los valores reales y predichos.
El enfoque de validación cruzada n-iteraciones se usa comúnmente para dividir los datos en n subconjuntos para realizar la
validación cruzada. En cada una de las n iteraciones, se usan n−1 subconjuntos para desarrollar el modelo, el cual se usa para
predecir la nma división de datos remanente. El procedimiento se repite hasta que se predicen todos los subconjuntos.
Posteriormente, el error entre los valores de referencia y los predichos durante la validación cruzada se registra como la raíz
cuadrada del error cuadrático medio de la validación cruzada (RMSECV, por sus siglas en inglés). Existen múltiples enfoques
para la división de datos en n segmentos. Independientemente de la forma en que se decida dividir los datos de calibración
originales, un aspecto que merece atención es que cualquier partida usada en la calibración y en la validación cruzada no debe
considerarse o reusarse como un conjunto de datos independiente para el método de validación. La forma más sencilla se
denomina validación cruzada dejando uno fuera (LOOCV, por sus siglas en inglés), donde las muestras se eliminan una por vez.
La validación cruzada dejando uno fuera puede implicar cálculos computacionales intensos; sus resultados pueden verse
afectados en gran medida por valores aberrantes y son menos uniformes que los resultados de otras formas de validación
cruzada. También es posible dividir los datos de acuerdo con la información previa, tal como un subconjunto por partida dado
el conjunto de datos históricos disponibles para múltiples partidas. Otra opción para validación cruzada es el método de
l
muestreo con reemplazamiento (bootstrapping), en el que en cada iteración se muestrea de forma aleatoria cierta proporción
ia
de datos para crear un conjunto de calibración, mientras que los datos remanentes se usan como conjunto de análisis. El
procedimiento se repite muchas veces (por lo regular 100 o más ciclos) para obtener un estimado estable del error de predicción.
La medición de error es el factor de mérito de uso más común para caracterizar el desempeño del modelo durante la validación
cruzada. El propósito previsto del método determina la naturaleza de los errores, tal como la tasa de clasificación errónea
(misclassification rate) para métodos cualitativos y el error de predicción para métodos cuantitativos. Independientemente de
las aplicaciones cualitativas o cuantitativas, comúnmente se usan dos medidas para caracterizar el error dentro de la validación
fic
cruzada: la raíz cuadrada del error cuadrático medio de calibración (RMSEC, por sus siglas en inglés) y la raíz cuadrada del error
cuadrático medio de la validación cruzada (RMSECV, por sus siglas en inglés). La raíz cuadrada del error cuadrático medio de
calibración se calcula para las muestras cuando se dejan en la calibración, el cual se reduce monótonamente con cada factor
adicional (es decir, componente principal) agregado al modelo. En comparación, la raíz cuadrada del error cuadrático medio
de la validación cruzada que se calcula durante la validación cruzada se reducirá hasta que se agregue el último factor
significativo (es decir, que contenga una señal relevante). Posteriormente, a medida que se incorpora cada factor adicional en
el modelo, la raíz cuadrada del error cuadrático medio de la validación cruzada aumentará, lo que indica que los datos de
O
calibración están siendo sobre ajustados. Se hace referencia a la gráfica de la raíz cuadrada del error cuadrático medio de
calibración y/o la raíz cuadrada del error cuadrático medio de la validación cruzada versus el número de factores en el modelo
como gráfica de la suma de los cuadrados de los errores residuales de predicción. En general, la mejor práctica es evitar la
inclusión de factores más allá del mínimo de la línea de la gráfica de la raíz cuadrada del error cuadrático medio de la validación
cruzada. Además, la correlación entre los valores predichos y observados (p. ej., R2) también se usa comúnmente para evaluar
el desempeño de los métodos cuantitativos. Finalmente, los resultados de la validación cruzada son significativos únicamente
cuando los conjuntos de calibración y análisis son comparables (es decir, se trazan a partir de la misma población). De otro
modo, la extrapolación puede llevar a predicciones incorrectas.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 7/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
8
l
compuestos diferentes a los analitos presentes en la muestra) a afectar de manera adversa la capacidad del método
quimiométrico para informar resultados con exactitud o precisión. El nivel de especificidad puede evaluarse por medio de la
ia
precisión y exactitud en presencia de cantidades variables de sustancias potencialmente interferentes. Las sustancias a analizar
pueden identificarse considerando la metodología física/química subyacente y el enfoque de generación de modelo.
La especificidad puede evaluarse incluyendo muestras adulteradas, subestándar o no auténticas. Las muestras auténticas,
que están tanto dentro como por fuera de los criterios esperados, pueden no estar disponibles por razones prácticas o
económicas. Por ejemplo, puede no ser posible, debido a los costos, obtener muestras que no cumplan con el criterio esperado
fic
para un proceso controlado a gran escala. Siempre que sea posible, se debe considerar un panel de exclusión con muestras que
no cumplan con el criterio esperado para incrementar la confianza de la especificidad de la medición. Se pueden usar muestras
fuera del criterio esperado simuladas (tales como muestras de experimentos a pequeña escala) para validar la aptitud del
procedimiento para el propósito e intervalo previsto. En todos los casos, la idoneidad de las muestras de validación debe
justificarse con criterios de inclusión y exclusión apropiados.
Para métodos cualitativos, el método debe demostrar capacidad para identificar o clasificar las muestras de forma correcta.
La curva de la característica operativa del receptor (ROC, por sus siglas en inglés) o la probabilidad de identificación (POI, por
sus siglas en inglés) son parámetros de uso común (se puede encontrar información detallada sobre curvas de la característica
O
operativa del receptor en 4.1 Cualitativas y en la Figura 6). El enfoque de la característica operativa del receptor pretende ilustrar
la tasa de verdaderos positivos (TPR, por sus siglas en inglés) y la tasa de falsos positivos (FPR, por sus siglas en inglés) a lo largo
de un intervalo de umbrales de decisión. Un buen método de identificación debe generar una curva de característica operativa
del receptor con el área bajo la curva (AUC, por sus siglas en inglés) cercana a 1. Para la mayoría de los métodos de identificación
bien diseñados, la probabilidad de una identificación positiva es casi cero cuando el analito no está presente, y la probabilidad
debe acercarse a 1 a medida que crece la cantidad o la concentración del analito.
Linealidad: El algoritmo usado para la construcción del método quimiométrico puede ser lineal o no lineal, siempre que sea
apropiado para el modelado de la relación entre la señal analítica y el analito. Las medidas comúnmente usadas para evaluar
el ajuste del modelo o sus propiedades predictivas son el coeficiente de correlación, la pendiente, la ordenada al origen y, y la
suma de cuadrados residuales de la gráfica entre los resultados predictivos versus los observados. Tener en cuenta que se espera
que la gráfica de resultados residuales versus los resultados observados en todo el intervalo analítico no presente patrón alguno.
Intervalo: El intervalo de un método debe ser apropiado para el uso previsto (p. ej., especificación).
Robustez: Los factores típicos a considerar incluyen la variabilidad normal de materiales (p. ej., variabilidad entre lotes),
variabilidad del entorno operativo, variabilidad del instrumento, tal como el mantenimiento menor de instrumentos, y la
variabilidad de los parámetros del método, tal como el número de espectros promediados en un espectrómetro. En conjunto
con los resultados de validación, la estrategia de desarrollo del método—tal como el diseño del conjunto o biblioteca de
calibración y la elección de los parámetros del modelo—se puede tener en cuenta para demostrar la robustez del método.
MUESTRAS DE VALIDACIÓN
Otros aspectos generales que se deben considerar para la validación del método quimiométrico incluyen las muestras de
validación. Las muestras de validación deben ser independientes de las muestras de calibración a fin de demostrar la capacidad
predictiva del modelo. Ser independientes significa que las muestras de validación no fueron usadas en el conjunto de
calibración o para la optimización del modelo. Por lo general, se usa validación interna o validación cruzada durante la
calibración del modelo para la optimización de parámetros, pero no se considera suficiente para la validación final del método.
Las muestras de validación deben seleccionarse basándose en el perfil analítico esperado y en las características de desempeño
deseadas del modelo. La robustez del método se basa en la evaluación de muestras auténticas con fuentes típicas de varianza.
Para productos farmacéuticos o suplementos dietéticos, pueden incluirse muestras de validación de escala de producción
nominal, tales como las producidas de forma rutinaria para las pruebas de estabilidad, de liberación o de proceso. Para artículos
botánicos, pueden incluirse la identidad taxonómica, el origen geográfico, la temporada de recolección, entre otras variantes.
Para materiales obtenidos de fuentes naturales, tales como muchos ingredientes y excipientes alimenticios, las variables, tales
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 8/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
9
como el origen geográfico o microbiológico del material, las condiciones de procesamiento, la composición de impurezas y
otros atributos pertinentes, pueden incluirse en el conjunto de muestras de validación.
l
ia
3.3 Monitoreo del Modelo
Durante todo el ciclo de vida del modelo, pueden ocurrir cambios que pueden afectar el desempeño del modelo. Se debe
contar con procedimientos para la verificación continua del desempeño del modelo y su actualización, y la revalidación del
procedimiento en caso necesario. No existe un orden específico entre el monitoreo del modelo, la actualización del modelo y
fic
la transferencia del modelo. Se deben aplicar fundamentos científicos sólidos para determinar una secuencia apropiada para la
aplicación prevista.
Se debe desarrollar una estrategia de control para verificar el desempeño del modelo durante su ciclo de vida y documentarla
como parte del desarrollo del modelo y de la validación del procedimiento. La estrategia debe identificar los elementos
necesarios para el monitoreo y la evaluación continua del desempeño del modelo. Además, se debe contar con un plan para
monitorear, analizar y ajustar el modelo, con una frecuencia de medición que permita la identificación de desviaciones
relacionadas con aspectos críticos del modelo. El nivel de mantenimiento debe considerarse parte de las actividades de
evaluación de riesgos y debe ser adecuado para la criticidad del modelo. Cuando aplique, se debe calificar el instrumental
O
analítico usado para generar los datos para el modelo, además de someterlo a un plan de verificación continuo (para obtener
guías pertinentes, ver los capítulos generales relacionados con el instrumental analítico aplicable).
La garantía continua del desempeño del modelo durante todo su ciclo de vida debe incluir lo siguiente:
• Monitoreo y revisión continuos del modelo
• Análisis de la Evaluación de riesgos
• Evaluación de los cambios posteriores a la implementación y mantenimiento predefinido del modelo
• Actualización del modelo y revalidación del procedimiento, según se requiera
La revisión continua de un modelo debe suceder en intervalos predefinidos y también debe ser iniciada por eventos que
pudieran tener un impacto sobre el desempeño del modelo. Ejemplos de dichos eventos incluyen cambios en el fabricante o
la variabilidad de materias primas; cambios en los procesos previos que pudieran alterar la matriz de la muestras (p. ej.,
configuración de equipo u operación del proceso); derivas en la predicción del modelo; y resultados fuera de la especificación
(OOS, por sus siglas en inglés) o fuera de tendencia (OOT, por sus siglas en inglés) dados por el modelo (depende de la causa
de origen de los resultados que están fuera de la especificación o fuera de la tendencia). Además de los detonantes que se basan
en el resultado de la predicción del modelo, se deben incluir los detonantes basados en parámetros de diagnóstico del modelo
y en las reglas de acción correspondientes. Los modelos multivariantes pueden verse afectados de forma más significativa por
los datos aberrantes característicos que los modelos univariantes. Se requiere especial cuidado para lo siguiente: 1) justificar
estadísticamente el diagnóstico de modelos multivariantes; 2) verificar con datos derivados del desarrollo del modelo y del
proceso de validación del procedimiento; y 3) implementar diagnósticos multivariantes para el monitoreo como parte de la
estrategia de control. La comparación de las predicciones del modelo y de los procedimientos de referencia u ortogonales debe
llevarse a cabo de forma periódica o como parte de la investigación iniciada por el proceso de revisión.
El uso de diagnósticos del modelo, al aplicarlo a una muestra nueva, asegura que la predicción del modelo sea válida con
respecto a los conjuntos de calibración y validación usados durante el desarrollo del modelo y la validación del procedimiento,
además de que asegura que el resultado no constituya un valor aberrante. La observación de un valor aberrante significa que
el resultado es inválido, pero no es una indicación confiable de un resultado fuera de la especificación; un resultado fuera de la
especificación es una observación producida por un modelo cuando la predicción cae fuera de los criterios de aceptación y los
diagnósticos del modelo están dentro de los umbrales. En el caso de modelos cualitativos, los resultados que están por fuera
del cumplimiento deben tratarse como valores aberrantes y generar una investigación; el resultado de dicha investigación
indicará si el resultado está fuera de la especificación.
El proceso de revisión para un modelo debe generar una decisión con respecto a la necesidad de una extensión del
mantenimiento del modelo; dicha decisión puede ser el resultado de una evaluación de riesgos o el resultado de un flujo de
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 9/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
10
trabajo para decisiones ya predefinido. La criticidad y el uso del modelo definirán la extensión del mantenimiento del modelo,
lo cual puede incluir la acción de restringir las condiciones del modelo; ajustar el conjunto de calibración (se pueden agregar,
reemplazar o retirar muestras); o incluso reconstruir completamente el modelo. La decisión y la justificación correspondientes
deben basarse en fundamentos científicos sólidos y documentarse.
l
del modelo. Algunas técnicas de actualización son relativamente sencillas y simples de implementar, mientras que otras son
técnicamente complejas. La selección de un enfoque apropiado de actualización del modelo debe basarse en un entendimiento
ia
cabal del factor causal subyacente. Como regla general, se deben considerar primero los métodos simples de actualización (p.
ej., ajuste de pendiente y sesgo, según se describe a continuación).
Antes de iniciar cualquier trabajo de mantenimiento del modelo, una buena práctica es confirmar que la construcción básica
del modelo original—tal como el procesamiento previo de datos y la selección de variables—sigue siendo apropiada. Para las
actualizaciones de modelos basados en aplicaciones tanto cualitativas como cuantitativas, se recomienda un enfoque de
fic
procesamiento previo sencillo y un enfoque de selección de variables con fundamentos científicos en el modelo original para
tratar los desafíos relacionados con la actualización del modelo. Estos enfoques son igualmente aplicables a las diferencias
ocasionadas por instrumentos, condiciones de medición o matrices de la muestra.
aplicaciones cualitativas, este enfoque también puede ser útil, dependiendo de la naturaleza del método. Se espera que los
ajustes de sesgo/pendiente funcionen en un conjunto limitado de circunstancias. Por ejemplo, si la matriz de las muestras que
se están prediciendo fuese sistemáticamente distinta del conjunto de muestras de calibración/validación, las predicciones del
modelo serían erróneas por un valor constante. Sin embargo, los ajustes de sesgo/pendiente no corregirían variaciones nuevas
en los datos, tales como variaciones derivadas de una matriz diferente (p. ej., nuevos analitos/sustancias interferentes). Por lo
tanto, no se recomienda aplicar ajustes de pendiente/sesgo si no se cuenta con un entendimiento cabal del factor causal
subyacente. Se puede obtener una orientación mediante la inspección de los residuales correspondientes a los nuevos datos
obtenidos mediante el uso del modelo existente o, como alternativa, realizar un análisis exploratorio suplementario con técnicas
tales como el análisis de componentes principales (ver 4. Aplicaciones de la Quimiometría).
EXPANSIÓN DE LA CALIBRACIÓN
Al expandir el conjunto de calibración original, se debe considerar el número de muestras nuevas que se van a agregar, el
impacto (utilidad) de las muestras agregadas sobre la composición general del nuevo conjunto de calibración, y cómo distribuir
las nuevas muestras entre los conjuntos de calibración y validación. Puede ser apropiado simplemente aumentar los conjuntos
de calibración y de validación originales con todas las muestras nuevas, o puede ser recomendable usar un subconjunto de las
muestras nuevas y las originales. Múltiples enfoques, tales como el enfoque de algoritmo Kennard-Stone y de vecino más
cercano, están disponibles para ayudar en la selección de muestras nuevas para agregarlas a un conjunto de calibración
existente, aunque en general todos los enfoques usan métodos para identificar muestras nuevas basándose en una alta utilidad
(es decir, influencia sobre el modelo). Las gráficas de puntuaciones multivariantes T2 de Hotelling, y sus límites correspondientes
también son enfoques eficaces para lograr dicho objetivo.
TRANSFERENCIA DE CALIBRACIÓN
Los métodos de estandarización del instrumento y de transferencia de calibración se usan para transformar la función de
respuesta de un sistema de medición de manera tal que corresponda con el de un sistema de medición de referencia. El sistema
de medición de referencia puede constar de un analizador completamente distinto, o puede ser el mismo analizador antes de
que experimente un cambio en la respuesta de la función. La gran mayoría de estos métodos por lo general requieren el uso
de muestras de transferencia estables que se miden en el instrumento original y requieren la estandarización del instrumento
al mismo tiempo. Además, los enfoques comúnmente usados para la estandarización del instrumento también podrían aplicarse
para tratar de forma efectiva los desafíos que resultan de cambios en la matriz de muestras y las condiciones de medición.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 10/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
11
3.5 Revalidación
Antes de la re implementación de un modelo multivariante, se debe establecer un procedimiento apropiado de revalidación
usando criterios equivalentes a los usados en el protocolo de validación original. Esta revalidación es necesaria para documentar
la validez del modelo como parte de la verificación del procedimiento analítico. La naturaleza y el grado del procedimiento de
revalidación, incluyendo aspectos, tales como la justificación científica y los enfoques experimentales, deben basarse en la causa
de la actualización y la naturaleza de la acción correctiva requerida para establecer el desempeño adecuado. La revalidación
debe documentarse como parte del ciclo de vida del procedimiento analítico.
4. APLICACIONES DE LA QUIMIOMETRÍA
Según se trata en 2. Conceptos de Quimiometría, los análisis quimiométricos pueden realizarse de manera supervisada o no
supervisada, dependiendo de la disponibilidad de los datos y de las particularidades de una aplicación dada. Esta sección provee
una explicación de estos distintos escenarios de análisis, así como de las herramientas quimiométricas (es decir, algoritmos) que
se usan comúnmente. Adicionalmente, se describirán en detalle varias aplicaciones específicas.
Cambio en la redacción:
4.1 Cualitativas
ASPECTOS GENERALES
l
Los análisis quimiométricos cualitativos pueden realizarse mediante enfoques supervisados o no supervisados. No obstante,
para poder incorporarlos en los procedimientos analíticos que son alternativas a los métodos farmacopeicos, se debe verificar
ia
el desempeño de cualquier modelo quimiométrico, según se describe en 3. Ciclo de Vida del Modelo. Esto podría no ser posible
si se conoce muy poco sobre las muestras que se están analizando. Sin embargo, los análisis no supervisados desempeñan un
papel de apoyo importante durante el desarrollo de alternativas quimiométricas para los procedimientos farmacopeicos dentro
del marco del ciclo de vida, y se recomienda su uso antes del desarrollo de los enfoques supervisados subsiguientes (se proveen
ejemplos en Ejemplos de Aplicación Cualitativa).
fic
Los procedimientos farmacopeicos cualitativos son aquellos que buscan proveer el valor de algún descriptor categórico para
una muestra desconocida. Ejemplos de propiedades categóricas incluyen los siguientes (entre otros):
• Identidad química: celulosa microcristalina versus ingrediente activo farmacéutico
• Morfología: polimorfo A versus B; monoclínico versus triclínico
• Autenticidad de la muestra: auténtico versus no auténtico o adulterado
• Origen de la muestra: fábrica A versus B; lote ABC-001 versus lote XYZ-002
Se puede crear un modelo efectivo de las propiedades categóricas usando algoritmos quimiométricos supervisados que
O
aprovechen ya sea la proximidad o la distancia en espacios multivariantes, lo que resulta en una asignación cualitativa de
muestras a una o más clases, dependiendo de la aplicación y técnica usada. De acuerdo con el capítulo á1225ñ, los
procedimientos basados en modelos de este tipo son adecuados para su incorporación en los métodos de Categoría IV para
identificación, y deben validarse para demostrar la especificidad adecuada para el uso previsto. La “identificación” es un término
que, por lo general se usa para describir un rango de escenarios de análisis; se describen algunos comunes en Herramientas
Cualitativas.
Las técnicas supervisadas usadas para propósitos de clasificación, además de la información analítica del sensor, emplean
información discreta relacionada con las muestras en el conjunto de datos (p. ej., etiquetas de clase). Se pretende definir los
límites de los agrupamientos (o clases), proveyendo criterios estadísticos, además de las técnicas de visualización (p. ej., gráfica
de puntuaciones de componentes principales a partir de un análisis de componentes principales). Posteriormente, los límites
pueden usarse como criterios de aceptación para la inclusión o exclusión de nuevas muestras en una clase dada. Se encuentran
disponibles diversas herramientas útiles para el analista para la construcción del modelo, tales como el análisis discriminante
lineal (LDA, por sus siglas en inglés), el análisis discriminante cuadrático (QDA, por sus siglas en inglés), el modelado
independiente suave de analogía de clase (SIMCA, por sus siglas en inglés), el método de K-vecinos más cercanos, y el análisis
discriminante de regresión de mínimos cuadrados parciales. También se pueden usar técnicas más complejas siempre que se
justifiquen. Cada tipo de modelo tiene sus fortalezas y debilidades propias. Si un algoritmo particular no provee el nivel deseado
de desempeño, se puede seleccionar un algoritmo distinto. Estos aspectos se tratan con mayor detalle en Herramientas
Cualitativas.
Para el desarrollo, la optimización y la validación del modelo, las técnicas de clasificación y discriminación siguen los mismos
procesos descritos en 3. Ciclo de Vida del Modelo. Estas técnicas desarrollan un umbral o límites para realizar las asignaciones de
clases. La forma más simple de clasificación es un sistema de dos clases (p. ej., bueno/malo o A/B). Cuando el modelo clasifica
una muestra nueva como buena o mala (A o B), se denomina técnica de discriminación. La clasificación es la técnica para asignar
una muestra nueva como A, B, ya sea A o B o ni A ni B. La tasa de error del modelo es el número total de clasificaciones incorrectas
divididas por el número total de muestras. Dependiendo de los requisitos de la aplicación y de los niveles de riesgo asociados,
las tasas de error pueden ser específicas para una clase o combinadas entre clases. Los detalles específicos de la aplicación
determinarán si la asignación de una muestra a más de una clase sería un resultado aceptable. Para casos en los que esto deba
evitarse, se deben establecer apropiadamente los umbrales de clasificación durante el desarrollo del modelo para garantizar
resultados de una sola clase.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 11/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
12
HERRAMIENTAS CUALITATIVAS
Análisis de componentes principales: El análisis de componentes principales es una herramienta de análisis exploratorio de
uso común brevemente descrita en 2. Conceptos de Quimiometría. El análisis de componentes principales es una técnica de
reducción de variables y actúa sobre los datos definiendo nuevas variables, los denominados componentes principales (ver la
Figura 2). Los componentes principales son ortogonales y se definen en la dirección de la varianza más grande (remanente) de
los datos. Los resultados del análisis de componentes principales se tratan en términos de puntuaciones y cargas de
componentes principales, los cuales pueden graficarse de forma bidimensional (y en ocasiones tridimensional) para visualizar
agrupamientos de muestras o exclusiones (gráficas de puntuaciones, ver la Figura 4), mientras que las gráficas de cargas proveen
información sobre las variables originales. Las puntuaciones son las proyecciones de las muestras sobre los componentes
principales, mientras que las cargas proveen los pesos (coeficientes) por los que se multiplican los valores de las variables
originales para generar la puntuación del componente para una muestra particular. Las cargas presentan una gran cantidad de
información con respecto a las variables en la matriz que son prominentes y que se pueden usar para “entender” la información
capturada por las variables latentes que proveen los fundamentos para la distribución de la muestra observada en la gráfica de
puntuaciones (Figura 4). Los componentes principales también pueden usarse como base para los modelos cuantitativos por
regresión de componentes principales (ver 4.2 Cuantitativas).
l
ia
fic
O
Figura 4. Gráfica de puntuaciones del análisis de componentes principales: proyección de PC1 versus PC2.
Algoritmos de Agrupamiento: El objetivo de los análisis de agrupamiento (clustering) es la repartición de datos en diferentes
grupos. Algunos métodos, tales como el análisis de agrupamiento jerárquico (HCA, por sus siglas en inglés), resulta en
estructuras con forma de árbol denominadas dendrogramas (Figura 5) que proveen información sobre grupos de muestras u
objetos excluyentes que se presentan en el conjunto de datos. Los dendrogramas pueden construirse de muchas formas distintas
y, por ende, pueden presentar distintos aspectos del conjunto de datos. Una primera posibilidad, que se denomina métodos
divisivos o descendentes (top-down), inicia a partir de un conjunto de datos completo, el cual se divide en pasos consecutivos
hasta que cada objeto es un agrupamiento individual o todos los elementos de un agrupamiento cumplen con un criterio de
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 12/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
13
similitud dado. En el segundo escenario, que se denomina métodos aglomerativos o ascendentes (bottom-up), se realiza lo
opuesto. Comenzando a partir de objetos/agrupamientos individuales, aquellos que son más similares se fusionan hasta que
todo conforma un agrupamiento. De las dos opciones, los enfoques ascendentes tienden a ser menos intensos desde la
perspectiva computacional, son parte de la mayoría de los paquetes de computación, y se usan con mayor frecuencia.
Los parámetros usados para expresar la (falta de) similitud entre objetos o agrupamientos (ver el eje y en la Figura 5) pueden
ser mediciones basadas en la correlación (p. ej., coeficiente de correlación, r para similitud o 1−|r| para falta de similitud),
mediciones basadas en la distancia (p. ej., distancia euclidiana), o una combinación de ambas (p. ej., distancia de Mahalanobis).
Los dos agrupamientos se vinculan en el dendrograma a la altura relacionada con esta medición de (falta de) similitud. El
parámetro aplicado se expresa de tal manera que los agrupamientos/objetos vinculados en la parte baja (es decir, cercanos al
eje x) son similares, mientras que aquellos vinculados en la parte alta son distintos. Existen muchos métodos o criterios distintos
que se usan para decidir qué objetos/agrupamientos se fusionan consecutivamente [p. ej., vinculación (o enlace) simple,
vinculación completa, vinculación promedio (ponderada), y vinculación centroide]. Dependiendo del criterio aplicado, los
dendrogramas pueden lucir muy diferentes. Trazar líneas horizontales de forma arbitraria (ver la Figura 5) divide el conjunto de
datos en diferentes grupos, lo cual ocasionalmente puede vincularse con las propiedades de la muestra. Las muestras aberrantes
están vinculadas muy arriba en los dendrogramas, más a menudo como agrupamientos de un solo objeto. La estabilidad de
los resultados del agrupamiento puede verse afectada por muchos factores, tales como el ruido en los datos, el tamaño de la
muestra, la elección del algoritmo, la medición de distancia, entre otros. Los métodos divisivos tienden a producir resultados
más estables que los métodos aglomerativos, aunque casi nunca se usan.
l
ia
fic
O
Figura 5. Dendrograma basado en agrupamiento jerárquico para 27 objetos. Abscisa: números de objetos.
Modelado paramétrico: La autentificación de un material o producto formulado con propósitos de garantía de calidad puede
lograrse mediante el modelado paramétrico multivariante del perfil químico (p. ej., espectro o cromatograma). Estos métodos,
en ocasiones, se denominan como “clasificadores de una clase”. Básicamente, se desarrolla un modelo paramétrico de forma
estadística o empírica con un límite de confianza alrededor de los datos derivados de muestras auténticas conocidas. Los
modelos paramétricos describen el comportamiento o la estructura de la mayoría de los datos a partir de una clase individual,
asumiendo que existe una distribución (por lo general, una normal multivariante) en dichos datos. Las predicciones contra un
modelo paramétrico identifican puntos de desviación fuera de los límites significativos de dicha distribución. Mientras que los
enfoques de clasificación o discriminación proveen identificación (según se describió anteriormente) de la muestra desconocida,
los modelos paramétricos designarán la muestra desconocida ya sea como perteneciente a la clase auténtica o como un valor
aberrante, o presentando características distintas a las definidas por la distribución. Algunas técnicas de discriminación también
optimizarán la separación de clases y pueden tener una selectividad mayor, pero tendrán una tendencia a fallar cuando se
enfrenten con un objeto que no pertenezca a alguna de las clases. Por el contrario, los métodos del modelado paramétrico
rechazarán cualquier muestra que no caiga dentro del límite de confianza establecido para el modelo. Quizás el algoritmo de
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 13/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
14
modelado paramétrico de uso más común es SIMCA, el cual usa el análisis de componentes principales para modelar los datos y
T2 de Hotelling y residuales Q (DmodX) para definir los límites. En algunas instancias, los enfoques de modelado paramétrico
resultarán en “clasificaciones suaves” en las que una muestra puede ser asignada a más de una clase. Para satisfacer los requisitos
de uso farmacopeico, se debe definir previamente la acción apropiada para casos de asignación de clases ambiguas, o se deben
establecer y justificar las tasas de error α y β error de acuerdo con el riesgo.
l
la espectroscopía IR por transformada de Fourier. Por lo general, el análisis de identificación implica comparar el espectro de la
ia
muestra con el espectro de una muestra de referencia y evaluar el nivel de concordancia entre ambos. Se pueden aplicar diversos
algoritmos quimiométricos para la identificación, y el desarrollo y el mantenimiento generales del modelo deben seguir las
pautas provistas en 3. Ciclo de Vida del Modelo. Todos los métodos para el análisis de identidad son métodos de clasificación
supervisados debido a que estos algoritmos utilizan ya sea un espectro de referencia individual o un conjunto de espectros de
referencia a partir de materiales con identidad conocida. Los algoritmos pueden aplicarse en un espacio de variables originales o
en un espacio de variables transformadas (tal como un espacio de variables latentes) después del procesamiento previo de los
fic
datos.
De acuerdo con el capítulo á1225ñ, los modelos de este tipo son adecuados para la incorporación en los métodos de Categoría
IV para la identificación y deben, como mínimo, validarse para demostrar su especificidad adecuada para el uso previsto. Un
ejemplo de enfoque para la verificación del desempeño es la documentación de la tasa de verdaderos positivos y la tasa de
falsos positivos. La tasa de verdaderos positivos es el porcentaje de muestras que se identifican de forma correcta, mientras que
la tasa de falsos positivos es el porcentaje de muestras que se identifican de manera incorrecta. La tasa de verdaderos positivos
también es referida como sensibilidad, y la tasa de falsos positivos o FPR, por sus siglas en inglés, es referida como especificidad.
O
Independientemente del enfoque usado, siempre hay una compensación entre la tasa de verdaderos positivos y la tasa de falsos
positivos, y dicho comportamiento de compensación y desempeño general del procedimiento se visualizan de mejor manera
en una gráfica de curva de la característica operativa del receptor (ver la Figura 6).
Una curva clásica de la característica operativa del receptor se genera graficando la tasa de verdaderos positivos sobre la
ordenada y la tasa de falsos positivos sobre la abscisa. Cada punto de la curva de la característica operativa del receptor
representa un par de la tasa de verdaderos positivos y de la tasa de falsos positivos obtenido a un umbral específico. El umbral
es por lo general un número generado por el algoritmo, y cuando se excede, este corresponde a una identificación positiva. El
valor del umbral se determina durante el proceso de desarrollo del procedimiento. El umbral puede ser el valor P del contraste
de hipótesis (o prueba de significación), el umbral del índice de calidad de impacto (hit quality index o HQI), el umbral de la
distancia de Mahalanobis, el umbral de puntuación discriminante de regresión de mínimos cuadrados parciales, u otro umbral.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 14/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
15
l
ia
fic
Figura 6. Gráfica de una curva de la característica operativa del receptor que muestra el área bajo la curva (3).
Durante el desarrollo del procedimiento, se examina un número conocido de muestras positivas y negativas, y se registra el
resultado del algoritmo para cada muestra. El desempeño del método cuando opera en un umbral particular t se caracteriza
mediante un par único de tasa de verdaderos positivos/tasa de falsos positivos, y se puede producir la curva completa de
características operativas graficando los pares de tasa de verdaderos positivos/tasa de falsos positivos en un intervalo de umbrales
de decisión. Una identificación falsa positiva corresponde a un umbral de decisión que es demasiado bajo. Los falsos positivos
pueden minimizarse elevando el umbral de decisión. Sin embargo, los umbrales de decisión excesivamente altos pueden
O
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 15/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
16
un modelado supervisado y la verificación subsiguiente del desempeño del modelo. Se debe procurar asegurar la inclusión de
fuentes y niveles apropiados de variabilidad en el desarrollo del modelo, así como pruebas de verificación del desempeño
basadas en el uso que se le pretende dar a la prueba.
Se encuentran disponibles diversas herramientas útiles para el analista para la construcción del modelo, tales como LDA,
QDA, SIMCA, kNN, y PLS-DA. También se pueden usar técnicas más complejas siempre que se justifique (p. ej., máquinas de
vector de soporte).
Los métodos quimiométricos para la autentificación de muestras con componentes múltiples se corresponden con el capítulo
Validación de Procedimientos Farmacopeicos á1225ñ, Validación, Datos Requeridos para la Validación, Categoría IV. Se pueden usar
diversos métodos numéricos para verificar el desempeño predictivo. Según se trató en Herramientas Cualitativas para la
identificación de materiales puros, el desempeño predictivo puede verificarse mediante comparación de la tasa de verdaderos
positivos y la tasa de falsos positivos una vez que se ha establecido un umbral de clasificación apropiado para la aplicación. Es
crucial finalizar este umbral antes de la validación formal del método analítico general.
Clasificación: Esta es una técnica de aprendizaje supervisada. El objetivo de la calibración es construir una regla de clasificación
basada en un conjunto de calibración en el que se conocen tanto X como Y (etiquetas de clase). Una vez obtenida, la regla de
clasificación puede entonces ser usada para la predicción de nuevos objetos cuyos datos X están disponibles.
Los modelos de clasificación pueden dividirse en dos grupos principales: duras y suaves. La clasificación dura se enfoca
directamente en el límite de decisión sobre clasificación sin producir un estimado de probabilidad. Los ejemplos de técnicas de
clasificación dura son el método de K-vecinos más cercanos y los sistemas expertos. La clasificación suave estima la probabilidad
condicional de las clases y luego realiza la asignación de clases basándose en la probabilidad estimada más grande. SIMCA es
una técnica de clasificación suave de uso común. En cualquiera de los escenarios, los umbrales para determinar los límites de
clase son importantes y deben establecerse durante el desarrollo del método basándose en la tasa de verdaderos positivos y
tasa de falsos positivos resultantes, cuyos requisitos son determinados por el perfil analítico esperado. Estas tasas también deben
verificarse como parte de la validación del procedimiento.
En muchas aplicaciones, es inaceptable tener una muestra clasificada en dos clases. Además, si una muestra no está clasificada
l
bajo ninguna clase, la muestra se considera como excluida con respecto al conjunto de calibración. Por ejemplo, un modelo
ia
de clasificación construido a partir de los espectros en el infrarrojo cercano de cuatro materiales (A, B, C, D) tiene cuatro clases.
Cualquier material que tenga una fuente de varianza (p. ej., contenido de agua distinto) que no haya sido observada
previamente y que se incluya en la calibración del modelo puede no estar clasificado y, por ende, debe identificarse como una
exclusión y debe investigarse. De forma similar, cuando un espectro de otro material (E) se aplica al modelo, el modelo no debe
ser capaz de clasificarlo en una clase dada. Si se esperan ejemplos similares en el futuro, entonces el modelo debe revisarse para
incluir las muestras aberrantes en el conjunto de calibración, ya sea para suplementar los datos de calibración para clases
fic
existentes o para crear una clase completamente nueva, dependiendo de la naturaleza de los valores aberrantes y de los
requisitos específicos de la aplicación.
4.2 Cuantitativas
ASPECTOS GENERALES
O
Cuando un procedimiento analítico se quiere usar para determinar uno o más componentes o propiedades de la muestra
que tienen valores que pueden variar continuamente en lugar de categóricamente, entonces se requiere un modelo cuantitativo.
De manera similar al proceso de modelado cualitativo, los modelos quimiométricos cuantitativos se generan de manera
supervisada usando el bloque independiente X y las variables dependientes y para asegurar el desempeño predictivo óptimo.
La diferencia surge con respecto a la naturaleza de y, que en las aplicaciones cuantitativas son valores continuos/numéricos (en
lugar de clases o categorías). De acuerdo con el capítulo á1225ñ, los modelos quimiométricos cuantitativos son adecuados para
incorporarlos en los métodos de las Categorías I, II o III para la determinación del contenido de fármaco o medicamento
terminado, niveles de impureza o características de desempeño, respectivamente. Las pruebas que se usan durante el
procesamiento, ya sea aplicadas de una manera fuera de línea o de una manera en-línea que producen el valor para una variable
continua, también representarían usos apropiados de los modelos quimiométricos cuantitativos. Se deben usar los requisitos
específicos de los análisis de acuerdo con el perfil analítico esperado (ver 3. Ciclo de vida del modelo) para guiar los parámetros
de validación que demuestren el desempeño.
HERRAMIENTAS CUANTITATIVAS
Existe un amplio rango de herramientas algorítmicas necesarias para aplicaciones cuantitativas; para descripciones más
completas, ver el Apéndice, Fuentes Adicionales de Información. En este capítulo se describen brevemente las herramientas de
uso común. Como en el caso de cualquier modelo quimiométrico, la herramienta debe corresponderse con el perfil analítico
esperado, y viceversa. Ciertas ventajas y desventajas son características de cada herramienta, y el técnico en quimiometría debe
considerarlas todas al justificar su uso.
Regresión Lineal Múltiple (MLR, por sus siglas en inglés): Esta herramienta establece una correlación entre una variable
dependiente (o y, variable de respuesta) y múltiples variables independientes (o x, variables explicativas) ajustando una ecuación
lineal a los datos observados. La regresión lineal múltiple tiene dos amplias aplicaciones, según se indica a continuación.
La primera aplicación amplia de la regresión lineal múltiple es establecer un modelo que explique la importancia o la magnitud
del efecto sobre la variable de respuesta, y esto por lo general se usa en la exploración de diseños experimentales o en el análisis
de la respuesta. Por lo general, las variables de ingreso son mutuamente independientes y, por diseño, representan magnitudes
grandes. A menudo, se incluyen términos de alto orden tales como términos al cuadrado y términos de interacción, y se usa
un procedimiento paso a paso para excluir aquellos términos que menos contribuyan al modelo. Se recomienda tener cuidado
de evitar tener muchas variables en el modelo, debido a que incluir muchos términos producirá un sobreajuste del modelo. El
parámetro estadístico R2 ajustado se usa a menudo para estimar si existen demasiados factores en el modelo, aunque otros
parámetros también pueden ser apropiados. El R2 ajustado es una modificación del coeficiente estándar de determinación que
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 16/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
17
tiene en cuenta el número de términos del modelo y el número de muestras, lo que resulta en una gráfica de R2 (ajustada) que
tiene un valor máximo más allá del cual cualquier término adicional resultará en un sobreajuste.
La segunda aplicación amplia de la regresión lineal múltiple es establecer un modelo de predicción para propósitos analíticos.
La regresión lineal múltiple puede usarse para ajustar un modelo predictivo a un conjunto de datos observado de valores y y
x. El modelo establecido puede usarse para predecir el valor y a partir del valor x en muestras nuevas. El modelo de predicción
creado a partir de los datos x correlacionados es adecuado para explorar la relación entre y y x individuales.
El modelo de predicción por regresión lineal múltiple puede usarse en un procedimiento o método para una prueba
farmacéutica oficial. Por ejemplo, un filtro de infrarrojo cercano, el cual tiene un uso específico tal como análisis de agua en el
producto, produce un “espectro” de tan solo unos pocos datos.
El desarrollo y la validación pueden seguir los mismos procedimientos que se usan con modelos de variables latentes tales
como PLS. Durante el desarrollo y la validación de un modelo de regresión lineal múltiple: 1) se requiere usar un procesamiento
previo de datos apropiado; 2) se usa validación cruzada para estimar el desempeño del modelo; y 3) se usa un conjunto de
datos independiente para evaluar el modelo.
Una limitación de la regresión lineal múltiple es que el desempeño predictivo del modelo puede verse negativamente
impactado cuando las variables modeladas son colineales. El problema de la colinealidad no es exclusivo de la regresión lineal
múltiple. Se mitiga en el modelado por PLS mediante la generación de un nuevo conjunto base de variables latentes ortogonales
(no colineales) que son combinaciones lineales de las variables originales. Sin embargo, esto no es pertinente para los modelos
de regresión lineal múltiple. En los modelos de regresión lineal múltiple, la selección o transformación de variables (p. ej.,
centrado de la media) puede ser necesaria para evitar o reducir la colinealidad en el conjunto de calibración. Aunque los modelos
de regresión lineal múltiple tienen algunos parámetros de diagnóstico para identificar valores aberrantes y muestras altamente
utilizadas en la calibración, no cuentan con los parámetros de diagnóstico (tales como T2 de Hotelling y prueba de residuales
X) que ofrecen la PLS durante la predicción de muestras nuevas.
Regresión de componentes principales (PCR, por sus siglas en inglés): Este es un enfoque de modelado de dos etapas en
el que primero se realiza un análisis de componentes principales en los datos del bloque X para obtener un conjunto base de
l
componentes principales. Los componentes principales se usan posteriormente en combinación con los datos y para desarrollar
un modelo de regresión para predecir los valores y.
ia
Mínimos cuadrados parciales (PLS, por sus siglas en inglés): Este es uno de los algoritmos quimiométricos de uso más común
para los escenarios de modelado cuantitativo y cualitativo (PLS-DA, ver Herramientas Cualitativas). La ventaja computacional
que ofrece la PLS sobre la regresión lineal múltiple y la PCR es que los componentes principales se derivan en el algoritmo de
mínimos cuadrados parciales usando los datos X y y de manera simultánea. Esto a menudo resulta en modelos predictivos que
requieren menos variables latentes en comparación con la regresión de componentes principales, con lo que se mejora la
fic
robustez. La regresión de mínimos cuadrados parciales es capaz de manipular relaciones moderadamente no lineales, mientras
que la regresión de componentes principales y la regresión lineal múltiple son técnicas de modelado lineal. Además, se puede
modelar más de una variable y usando los mismos datos del bloque X mediante diferentes enfoques algorítmicos. La regresión
de PLS-1 resulta en un modelo independiente para cada variable y. La regresión de PLS-2 producirá un solo modelo capaz de
predecir de manera simultánea los valores de dos o más variables y. Las ventajas relativas de cada enfoque pueden variar entre
aplicaciones. Por ejemplo, si se requiere un procesamiento previo matemático diferente para resolver cada componente que se
va a predecir, modelos separados de PLS-1 pueden proveer un desempeño mejorado en comparación con un modelo PLS-2
O
individual .
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 17/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
18
sencillo analizar un conjunto dado de muestras usando una de estas técnicas y, posteriormente, analizar de manera subsiguiente
el mismo conjunto de muestras mediante espectroscopía con HPLC o RMN para obtener los valores de contenido de referencia.
Este enfoque es típico para valoraciones de formas farmacéuticas sólidas, no obstante, vale la pena tener en cuenta que los
valores de referencia para valoraciones de algunas formas farmacéuticas, ingredientes activos farmacéuticos, polimorfos o
excipientes pueden derivarse de otras técnicas tales como datos gravimétricos registrados durante la preparación de la muestra
de calibración. Los modelos quimiométricos se desarrollan mediante una calibración multivariante usando datos espectrales del
infrarrojo cercano o Raman y los valores de contenido a partir de la técnica de referencia. La exactitud se determina usando la
diferencia absoluta entre las predicciones del modelo y los valores de referencia. La precisión se determina usando la desviación
estándar de los resultados del procedimiento por sí solos, tales como análisis de determinaciones repetidas de la misma muestra.
Por ende, la precisión es una medida del desempeño para el procedimiento analítico en su totalidad. El modelo mismo será
absolutamente preciso. Esto significa que, dados los mismos datos espectrales, siempre se generará el mismo resultado
numérico. Teniendo en cuenta lo anterior, la precisión puede verse influenciada por los aspectos específicos de la estrategia del
modelado quimiométrico (p. ej., pre procesamiento, algoritmo de modelado, número de variables latentes) y, por ende, se
debe evaluar la precisión durante el desarrollo del modelo, así como durante la validación. Es importante tener en cuenta que
la exactitud de los modelos quimiométricos no será capaz de exceder la exactitud de la técnica analítica de referencia usada
para calibrar el modelo. Sin embargo, en algunos casos puede ser posible exceder la precisión de la técnica de referencia.
El intervalo del método será determinado por las muestras de calibración que se usan para el desarrollar del modelo
multivariante. De acuerdo con el capítulo á1225ñ, se recomienda que las muestras de calibración de valoración tengan
contenidos de analitos en el intervalo de 80%–120% de la cantidad esperada. Para evaluar la uniformidad del contenido, el
intervalo recomendado es 70%–130% de la cantidad esperada. En algunos casos, tanto los resultados de la valoración como
los de uniformidad pueden obtenerse a partir del mismo conjunto de mediciones de las muestras. Promediar un número
requerido de resultados de valoración de unidades de dosificación individuales proveerá un valor equivalente al parámetro
“contenido promedio”. El cálculo del “valor de aceptación” (ver Uniformidad de Unidades de Dosificación á905ñ) usando este
resultado medio combinado con la desviación estándar para el mismo conjunto de resultados de unidades de dosificación
l
individuales proveerá uniformidad en los resultados de contenido. En este caso, se debe usar un conjunto de calibración
ia
individual que abarque el intervalo más amplio de los dos intervalos recomendados (70%–130%).
Cuando no resulta práctico obtener un intervalo lo suficientemente amplio de valores de contenido en las muestras de
calibración producidas a escala de fabricación comercial, las muestras de calibración también pueden producirse a una escala
menor o en el laboratorio. En este escenario, se deben extremar las condiciones para replicar las propiedades físicas
representativas de la escala comercial. Asimismo, se debe tener cuidado de verificar que exista una mínima influencia de las
diferentes escalas de producción en los resultados de las muestras. Pueden requerirse la incorporación de muestras a escala
fic
comercial en el proceso de validación del modelo (y/o procedimiento) para verificar la exactitud y precisión de los resultados
del modelo (y/o procedimiento) contra cualquier diferencia y/o variabilidad en las propiedades físicas. Los algoritmos de
procesamiento matemático (p. ej., normalización, segundas derivadas) deben optimizarse tanto como sea posible durante el
análisis de los datos exploratorios iniciales (ver Ejemplos de Aplicación Cualitativa) para mitigar la influencia que pudieran tener
dichos factores en la predicción. Por ejemplo, se sabe que el espesor, el tamaño de partícula y las diferencias en la densidad
pueden llevar a cambios en la pendiente espectral y a desviaciones de la línea base de los espectros del infrarrojo cercano.
Dependiendo del efecto específico que esté presente, una selección inapropiada del procesamiento previo puede no corregir
O
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 18/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
19
sensibilidad adecuada para una prueba de límite basada en espectroscopía, se deben emplear cuidadosos estudios de
desarrollo y viabilidad.
Para una prueba de límite de los procedimientos de Categoría II, a menudo se usa un conjunto de calibración que contiene
concentraciones variadas del analito de interés usado para caracterizar el desempeño de dicho procedimiento analítico. Aunque
no se requiere, estos parámetros de desempeño podrían incluir exactitud, intervalo, linealidad, entre otros. El uso de los
parámetros de desempeño depende de la naturaleza de la prueba de límite.
Por el contrario, se considera crítico ilustrar la especificidad y el límite de detección durante la validación de una prueba de
límite de acuerdo con el capítulo á1225ñ. Para la especificidad, a menudo se usa una comparación entre el vector de regresión/
carga y un espectro representativo del componente puro de interés. Además, medir los efectos de la matriz sobre la
determinación del analito dentro del intervalo especificado es otro enfoque útil para demostrar que el procedimiento analítico
es específico para el analito de interés sin el impacto de otras variables introducidas en el conjunto de calibración. Asimismo,
se puede demostrar evidencia de la especificidad del método mediante el cálculo de un cociente de selectividad derivada del
conjunto de datos de calibración, definido como la varianza de los espectros reconstruidos del modelo dividida por aquélla de
los espectros residuales. Se espera que el cociente de selectividad en la banda de absorción del analito sea mayor con respecto a
otras regiones espectrales.
Con respecto al límite de detección, no existe un estimador generalmente aceptado para modelos de regresión de mínimos
cuadrados parciales. Una práctica común para determinar el límite de detección implica calcular una relación señal-ruido
espectral. Para representar el ruido se pueden usar los resultados del modelo para análisis de determinaciones repetidas de una
muestra blanco. Como alternativa, se puede obtener una aproximación del ruido usando el error estándar de un modelo
multivariante. Se han sugerido otros enfoques más elaborados para tratar la naturaleza multivariante de los modelos de regresión
de mínimos cuadrados parciales. (7) Con cualquier enfoque, se debe verificar experimentalmente el límite de detección
estimado usando muestras con niveles de analito en o cercanos a dicha concentración. Debido a que el límite de detección
obtenible a través del método espectroscópico será probablemente mayor que el obtenible mediante un enfoque
cromatográfico, se vuelve crucial demostrar que el límite de detección basado en el modelo quimiométrico cumple con los
l
requisitos del perfil analítico esperado.
ia
Prueba de disolución: La disolución in vitro es una prueba de desempeño crucial para formas farmacéuticas sólidas que se usa
para predecir los perfiles de liberación de fármacos in vivo durante el desarrollo del medicamento y para evaluar la uniformidad
entre lotes para propósitos de control de calidad. Se pueden usar modelos quimiométricos para predecir la disolución de
medicamentos a partir de propiedades medidas relevantes del producto, y el método que emplee dicho modelo puede
establecerse como un procedimiento alternativo. Como alternativa, el perfil de disolución puede modelarse mediante varias
respuestas a partir de distintos tiempos de muestreo en la curva de disolución usando modelos individuales.
fic
Se pueden recopilar datos de disolución como un perfil (es decir, una serie de valores obtenidos a diversos tiempos de
muestreo), aunque los criterios de aceptación pueden depender de un tiempo de muestreo individual. Al construir un modelo
quimiométrico, es esencial que el modelo sea capaz de predecir el perfil completo. El número y el lapso de tiempo transcurrido
entre los tiempos de disolución en el perfil de disolución variarán dependiendo del tipo de producto (p. ej., liberación inmediata
versus modificada/prolongada). Un enfoque común es transformar el perfil en un valor individual, el cual posteriormente
funciona como una variable dependiente (o y, variable de respuesta). Esta variable, en combinación con otra variable medida,
se puede usar para restablecer el perfil de disolución. La transformación puede lograrse ajustando los datos del perfil de
O
disolución a un modelo mecanístico (tal como una ecuación de velocidad de primer orden o sus variantes) o un modelo empírico
(tal como una función Weibull). Después de la transformación, se pueden usar unas pocas variables (por lo general, dos o tres
variables) para representar el perfil de disolución. Por lo general, las dos variables son un factor de velocidad de disolución y un
factor de meseta; puede ser necesaria una tercera variable tal como un tiempo de latencia o demora. El factor de velocidad de
disolución, que representa la velocidad de disolución, será la variable dependiente para el modelado. El factor de meseta
representa la cantidad final de fármaco en la solución, la cual debe ser igual al contenido de fármaco para la mayoría de los
productos. Estos dos factores se usan para restablecer el perfil. Por lo tanto, el modelo para predicción de la disolución se usa
para predecir la velocidad de disolución.
La clave para diseñar un modelo exitoso es definir las variables de ingreso. El factor de meseta puede obtenerse a partir de
datos de contenido de fármaco, mientras que el factor de velocidad de disolución puede modelarse a partir de un conjunto de
datos de atributos químicos y físicos del producto o del producto intermedio. Se deben usar los conocimientos necesarios sobre
las propiedades fisicoquímicas así como conceptos de ingeniería para identificar y justificar los datos de entrada pertinentes que
tienen un impacto potencial sobre la disolución del producto. Esto por lo general implica la evaluación de riesgos y una etapa
adicional de recolección de datos tal como un estudio de diseño de experimento a pequeña escala. Los datos de entrada por
lo general incluyen los atributos medidos de los materiales en diversas etapas de procesamiento (tal como datos del tamaño
de partícula para gránulos o mezclas; mediciones en el infrarrojo cercano para mezclas o tabletas; y propiedades físicas de las
tabletas).
Existen dos enfoques para definir las muestras en la calibración del modelo: muestras-partida y muestras individuales de
unidades de dosificación. Para el enfoque de muestra-partida, cada partida de producto se trata como una muestra y las variables
de datos de entrada son los atributos medios de la partida. El enfoque de unidades de dosificación individuales consiste en
medir los atributos de las unidades de dosificación individuales (tales como la medición en el infrarrojo cercano de cada tableta).
Las variables de entrada de ambos enfoques pueden suplementarse con otras propiedades de la materia prima según lo
justifiquen los atributos de calidad críticos.
La validación del método de predicción de disolución basado en modelo puede ser diferente de la validación típica del
método de disolución y HPLC, dependiendo del enfoque específico usado. El método de disolución y HPLC pone más énfasis
en la precisión, puesto que la disolución se trata como un método de Categoría III en el capítulo á1225ñ.
En el enfoque de muestra-partida, el método basado en el modelo trata la disolución como una propiedad de la partida más
que como una propiedad de las tabletas individuales, y la exactitud es el punto central de la validación o verificación del método.
Por ejemplo, cada partida forma una muestra, por lo que no se considera realista tener un conjunto de muestras de validación
grande. Este enfoque genera un perfil para cada partida, y el resultado a cierto tiempo de muestreo puede usarse para evaluar
la calidad de la partida de producto. La evaluación de la variabilidad debe estar alineada con los criterios de Disolución á711ñ.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 19/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
20
La variabilidad del resultado de disolución final puede evaluarse mediante el análisis de las variaciones de los datos de entrada.
Las posibles formas de evaluar la variación de la muestra (partida) incluyen el análisis de la variación de los datos de entrada,
simulaciones, así como dividir una partida en múltiples subpartidas.
En la estrategia de unidades de dosificación individuales, el método basado en el modelo evalúa unidades individuales de
dosificación. Si se analiza una gran cantidad de tabletas, se obtiene un n grande, en esta situación se deben usar con precaución
los criterios de aceptación del capítulo á711ñ. El técnico en quimiometría puede proponer criterios de aceptación siempre que
se demuestre que dichos criterios (mediante simulación u otros medios) son criterios de aprobación equivalentes o más estrictos
que los del capítulo á711ñ. En la validación o verificación del método, es deseable contar con al menos una muestra que presente
una disolución baja (cercana o por debajo de la especificación), y el método basado en el modelo quimiométrico debe demostrar
su capacidad de distinguir dicha muestra de baja disolución de las muestras normales.
GLOSARIO
Una gran cantidad de términos comunes de quimiometría han sido definidos dentro del texto de este capítulo. En esta sección
se proveen definiciones de algunos términos adicionales que sirven como referencia para su uso dentro del texto. Para una
descripción más completa, consulte los textos listados en el Apéndice, Fuentes Adicionales de Información.
Modelo de calibración: Expresión matemática usada para relacionar la respuesta de un instrumento analítico con las
propiedades de las muestras o para capturar la estructura subyacente de un conjunto de datos de calibración.
Conjunto de calibración: Recopilación de datos usada para desarrollar una clasificación o modelo quimiométrico.
Derivadas: El cambio en la intensidad con respecto a la variable de medición (es decir, la abscisa). Las derivadas son útiles
para eliminar desviaciones de la línea base (constantes o lineales) debidas a propiedades de la muestra, o para resaltar pequeños
cambios en una señal, ayudando a mejorar la selectividad y la sensibilidad (p. ej., un pico espectroscópico o cromatográfico
con un hombro adyacente).
Validación interna: Aplicación de estadística de re muestreo tales como validación cruzada. Los subconjuntos del conjunto
l
de datos de calibración se someten a una variedad de procesos estadísticos para identificar el modelo de calibración que mejor
se ajusta a los datos disponibles. Cada modelo se caracteriza mediante un parámetro estadístico. Para la validación cruzada, el
ia
conjunto entero de datos de muestras se divide en muestras individuales o grupos de muestras, los cuales se eliminan de forma
individual del resto de las muestras y se analizan como elementos desconocidos contra un modelo de calibración que se
construye usando el resto de las muestras. El indicador estadístico característico es el error estándar de validación cruzada (SECV,
por sus siglas en inglés).
Matriz: Estructura de datos bidimensionales que consta de columnas y filas usadas para organizar datos de entrada o
fic
resultados durante análisis quimiométricos. La práctica común consiste en que cada fila corresponda con una muestra
individual y que cada columna corresponda con una variable individual.
Conjunto de validación: Conjunto de datos que desafía los atributos de desempeño del modelo. El conjunto de datos de
validación es independiente del conjunto de datos de capacitación, aunque el análisis de los datos de capacitación provee una
visión positiva del desempeño y, por ende, permite ajustar iterativamente el procesamiento previo y el modelo hasta que dicha
visión positiva cumpla con las expectativas. Entonces, es necesaria una validación o validación cruzada para calibrar de manera
adecuada el desempeño del modelo. El desempeño del modelo con el conjunto de datos de validación será siempre igual o
peor que su desempeño con el conjunto de datos de capacitación. Si no se cumplen los atributos de desempeño, entonces el
O
técnico en quimiometría debe evaluar si el modelo se sobreajusta o tiene un ajuste insuficiente a los datos y si son necesarias
iteraciones del modelo para cumplir con la tasa de error aceptable. Si estos esfuerzos fallan, se recomienda volver un paso atrás,
modificar las condiciones de procesamiento previo y llevar a cabo la misma tarea nuevamente.
APÉNDICE
REFERENCIAS
1. Massart DL, Vandeginste BGM, Buydens LMC, De Jong P, Lewi PJ, Smeyers-Verbeke J, eds. Handbook of Chemometrics
and Qualimetrics: Part A. 1st ed. Amsterdam: Elsevier Science B.V.; 1997.
2. Massart DL, Vandeginste BGM, Deming SM, Michotte Y, Kaufman L. Chemometrics: A Textbook. 1st ed. Amsterdam:
Elsevier Science B.V.; 1988.
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 20/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
21
3. Brown CD, Davis HT. Receiver operating characteristics curves and related decision measures: a tutorial. Chemometr Intell
Lab Syst. 2006;80:24–38.
4. World Health Organization. General guidelines for methodologies on research and evaluation of traditional medicine.
Geneva, Switzerland: World Health Organization; April 2000. http://apps.who.int/iris/bitstream/10665/66783/1/
WHO_EDM_TRM_2000.1.pdf. Ingresado el 25 de mayo de 2016.
5. Food and Drug Administration. Guidance for industry: botanical drug products. Rockville, MD: Food and Drug
Administration; June 2004. http://www.fda.gov/downloads/drugs/guidancecomplianceregulatoryinformation/
guidances/ucm070491.pdf. Ingresado el 25 de mayo de 2016.
6. Lambertus G, Shi Z, Forbes R, Kramer TT, Doherty S, Hermiller J, et al. On-line application of near-infrared spectroscopy
for monitoring water levels in parts per million in a manufacturing-scale distillation process. Appl Spectrosc. 2014;68(4):
445–457.
7. Allegrini F, Olivieri AC. IUPAC-consistent approach to the limit of detection in partial least-squares calibration. Anal Chem.
2014;86:7858–7866.
l
ia
fic
O
https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 21/21