33-USP 1039-NF - pdf11
33-USP 1039-NF - pdf11
1. INTRODUCCIÓN
2. ¿Qué es la quimiometría?
3. MODELO DE VIDA ÚTIL
4. APLICACIONES DE QUIMOMETRÍA
4.1 Cualitativa
4.2 Cuantitativo
GLOSARIO
APÉNDICE
Referencias
1. INTRODUCCIÓN
Este capítulo proporciona orientación sobre prácticas cientí camente sólidas para el análisis quimiométrico y la interpretación de datos multivariados típicos para
aplicaciones industriales y compendiales. Las prácticas quimiométricas establecidas, que incluyen calibración y validación, para aplicaciones que utilizan diferentes
tecnologías analíticas (p. Ej., Espectroscópica, cromatográ ca y otras) y para diferentes propósitos (p. Ej., Huellas dactilares, identi cación, clasi cación, predicción
de propiedades y otras) se analizan bajo un enfoque de ciclo de vida. . Se describen aplicaciones tanto cualitativas como cuantitativas.
El capítulo analiza cómo se garantiza la calidad y el rendimiento del método a través de la gestión adecuada del ciclo de vida de un modelo basado en la
quimiometría, incluida la selección de algoritmos apropiados, calibración, validación, veri cación, transferencia y pasos continuos de mantenimiento.
Este capítulo puede verse como un complemento de otros capítulos de orientación como Datos analíticos - Interpretación y tratamiento 〈 1010 〉 , que se ocupan
principalmente del análisis e interpretación de datos univariantes.
[ NOTA - No debe inferirse que las herramientas de análisis multivariadas mencionadas en este capítulo forman una lista exhaustiva. Se pueden utilizar otros modelos
igualmente válidos a discreción del fabricante y otros usuarios de este capítulo. ]
1.2 Resumen del contenido del documento
El mapa mental a continuación ( Figura 1 ) proporciona una representación visual del contenido de este capítulo. Este diagrama está destinado a ayudar al lector
al mostrar cómo se relacionan entre sí los diversos conceptos y prácticas de la quimiometría.
1.3 audiencia
[Link] 1/15
24/9/2019 USP-NF
Este capítulo proporciona instrucciones tanto para el quimiométrico que aplica técnicas quimiométricas para desarrollar un modelo para una aplicación dada
como para el analista que ejecuta el modelo dentro de un procedimiento analítico. El quimiométrico encontrará apoyo con respecto a la selección de algoritmos para
una aplicación determinada y orientación para garantizar el rendimiento del modelo durante todo su ciclo de vida. El analista obtendrá información sobre las
fortalezas y limitaciones de las técnicas de quimiometría aplicadas para respaldar sus aplicaciones.
2. ¿QUÉ ES LA QUIMIOMETRÍA?
La quimiometría se de nió originalmente como la disciplina química que utiliza métodos matemáticos, estadísticos y de otro tipo que emplean lógica formal para
lograr dos objetivos: 1) diseñar o seleccionar procedimientos y experimentos de medición óptimos, y 2) proporcionar la cantidad máxima de información química
relevante mediante el análisis de datos químicos. ( 1 , 2 ) Más especí camente, "quimiometría" ha llegado a signi car la aplicación de métodos multivariados para el
análisis de datos químicos o relacionados, aunque los algoritmos en cuestión pueden usarse para extraer información de casi cualquier dato medido,
independientemente del origen -químicos, físicos, biológicos, farmacéuticos u otros. Este capítulo no se centra en el desarrollo de procedimientos o métodos
óptimos y el diseño aplicado de experimentos (DoE), sino más bien en el análisis de datos multidimensionales recopilados de un instrumento analítico, como datos
espectroscópicos y cromatográ cos. Un conjunto de datos multivariados (es decir, datos multivariados obtenidos para varias muestras u objetos) forma una tabla o
matriz de datos m × n . La matriz está representada por X , con m como el número de muestras u objetos yn como el número de variables medidas para cada
muestra ( Figura 2 ).
En consecuencia, las técnicas de análisis de datos consideradas en este capítulo serán de naturaleza multivariante. Dependiendo del propósito del tratamiento de
datos, se aplicarán diferentes herramientas. Inicialmente, las técnicas de manejo de datos se pueden dividir en dos categorías: no supervisadas y supervisadas. Las
herramientas no supervisadas utilizan solo la matriz X para extraer información, pero en el análisis de datos supervisados, además de la matriz X , las muestras
también se describen mediante un vector y . Esta es una tabla m × 1 que contiene información de propiedades para cada muestra (p. Ej., Concentración, actividad de
inhibición enzimática). Las técnicas de análisis de datos supervisados se utilizan para construir un modelo entreMatriz X y el vector y . En el modelado
quimiométrico, las ecuaciones proporcionadas son datos impulsados para describir empíricamente la varianza subyacente en los datos, ya sea para nes no
supervisados o supervisados. Las diferentes técnicas o herramientas aplicadas para los diferentes propósitos se analizan con más detalle en 4. Aplicaciones de la
quimiometría .
La técnica no supervisada más utilizada (análisis de componentes principales o PCA) y la técnica supervisada (regresión de mínimos cuadrados parciales o PLS)
son, por naturaleza, enfoques de proyección latente (ver Figura 2 ), que transforman una gran cantidad de variables X potencialmente correlacionadas , como como
intensidades en diferentes tiempos de retención o longitudes de onda, en un número posiblemente menor de variables no correlacionadas (componentes principales
o PC; variables latentes). Como se puede ver en la Figura 2 , el original nespacio tridimensional se transformó en un espacio de dos PC. Cuando las muestras del
espacio de datos original se proyectan en este espacio de menor dimensión, las coordenadas de muestra resultantes se denominan puntuaciones ( T ). La
visualización de los puntajes a lo largo de dos o más PC forma un grá co de puntaje que contiene información sobre las relaciones entre diferentes muestras. Las
cargas ( P) son una combinación lineal de las variables originales y los coe cientes o pesos utilizados en esta combinación lineal. Las cargas para variables latentes
especí cas también se pueden trazar en lo que se llama una grá ca de carga. El grá co de carga contiene información sobre la importancia relativa entre las
variables originales. Tanto las puntuaciones como los grá cos de carga permiten la visualización y la comprensión de la estructura de datos subyacente (es decir, la
presencia de grupos / grupos y / o valores atípicos) dentro de un espacio dimensional reducido. La matriz variable ( E) producido por el modelo se de ne como el
error residual. La información de la muestra a lo largo de ejes de varianza común es capturada por las PC del modelo. La variación no explicada por estas PC (error
residual) se deja para cada muestra en cada variable, formando la matriz residual ( E ).
[Link] 2/15
24/9/2019 USP-NF
puede ser provocada por la necesidad de realizar una transferencia de método, en el transcurso de su ciclo de vida, a diferentes equipos u otro sitio. El alcance de la
revalidación estará de nido por la magnitud de la actualización del modelo. a diferentes equipos u otro sitio. El alcance de la revalidación estará de nido por la
magnitud de la actualización del modelo. a diferentes equipos u otro sitio. El alcance de la revalidación estará de nido por la magnitud de la actualización del
[Link] Figura 3 muestra una representación esquemática del ujo de trabajo descrito.
Figura 3. Representación esquemática del ujo de trabajo del ciclo de vida de un modelo quimiométrico.
[Link] 3/15
24/9/2019 USP-NF
El objetivo de la calibración multivariada es desarrollar un modelo que vincule las variables predictoras (p. Ej., Valores de absorbancia para el rango de longitudes
de onda espectrales) con variables de respuesta como las concentraciones de ciertos compuestos químicos. Las variables de respuesta suelen ser más difíciles o
costosas de obtener que las variables predictoras. La calibración es un paso crítico porque los detalles del modelo nal están in uenciados por muchos factores,
incluida la selección de muestras, variables, un algoritmo y opciones de preprocesamiento, así como la calidad del método de referencia utilizado inicialmente
(cuando corresponda) para medir la respuesta variable (s) Así, El orden de los componentes individuales de la calibración del modelo presentado en esta sección no
siempre representa el orden de operación, y los pasos individuales pueden repetirse de manera iterativa dependiendo del resultado de los pasos posteriores. Para un
buen desempeño, el modelo de calibración debe ser robusto a las variaciones previstas.
SELECCIÓN DE MUESTRAS
La selección de muestras para el modelo de calibración es un paso crítico en el desarrollo del modelo. Se deben usar razones cientí camente sólidas para
seleccionar muestras de calibración representativas con respecto a dos criterios: el tipo / rango de variabilidad y el número de muestras. El rango de valores de
respuesta en muestras seleccionadas debe cubrir todo el rango esperado de variación de respuesta para la aplicación prevista. El rango y el tipo de variación en los
predictores pueden incluir una variabilidad relevante en factores distintos de la propiedad que se predice, como el tamaño de partícula, diferentes lotes de
ingredientes utilizados para la preparación de muestras, de analista a analista y la variación del día a día, y otras fuentes de variación. En la con guración de
fabricación, se deben incluir lotes de muestras que representan dentro y fuera de la especi cación. Se recomienda un enfoque basado en el riesgo para decidir qué
factores y variabilidad se incluirán en las muestras de calibración. Realizar un modo de falla y un análisis de efectos (FMEA) o un estudio de viabilidad para evaluar
los efectos de tales factores es uno de los enfoques más utilizados. Se recomienda un enfoque basado en el riesgo para decidir qué factores y variabilidad se
incluirán en las muestras de calibración. Realizar un modo de falla y un análisis de efectos (FMEA) o un estudio de viabilidad para evaluar los efectos de tales
factores es uno de los enfoques más utilizados. Se recomienda un enfoque basado en el riesgo para decidir qué factores y variabilidad se incluirán en las muestras
de calibración. Realizar un modo de falla y un análisis de efectos (FMEA) o un estudio de viabilidad para evaluar los efectos de tales factores es uno de los
enfoques más utilizados.
El número requerido de muestras aumenta a medida que aumenta la complejidad del modelo de calibración (es decir, el tipo y el rango de variabilidad en las
variables de respuesta y predictoras). En general, cuanto mayor es el número de muestras, mayor es la probabilidad de que se puedan lograr resultados correctos
en todo el rango de calibración. Mientras tanto, la distribución de las muestras de calibración también merece atención. Se pre ere una distribución uniforme de
las muestras, aunque no se requiere en todos los casos, dependiendo de los detalles de la aplicación. Deben existir razones cientí camente sólidas para justi car
el número y la distribución de las muestras de calibración.
Los datos obtenidos de las muestras seleccionadas (es decir, un número seleccionado de las de la matriz X en la Figura 2 ) deben someterse a un nuevo triaje.
El análisis exploratorio de datos (ver ejemplos de aplicaciones cualitativas ) puede ser valioso para comprender la estructura de datos, detectar posibles grupos o
grupos de muestras, identi car valores atípicos y seleccionar muestras representativas. Los valores atípicos pueden detectarse utilizando métricas que describen
qué tan bien se ajusta una observación dada dentro del espacio modelo (por ejemplo, el T 2 de Hotelling para métodos de variable latente) y la distancia al
subespacio del modelo (por ejemplo, residual para métodos de variable latente).
PREPROCESAMIENTO
El objetivo del preprocesamiento es implementar transformaciones matemáticas en la columna de la matriz X ( Figura 2 ) para ampli car la variación de interés
dentro del conjunto de datos y atenuar la variación extraña tanto para las variables como para las observaciones. El preprocesamiento es un paso inicial
importante para la mayoría de los análisis de datos, y se puede aplicar de forma iterativa con la selección de variables. La selección inicial de las opciones de
preprocesamiento debe guiarse por una comprensión de los datos de la muestra y / o la técnica analítica subyacente. También se puede obtener orientación a
través de análisis exploratorios de datos multivariados (ver ejemplos de aplicación cualitativa) Las selecciones iniciales se pueden modi car o re nar en el contexto
de la optimización del rendimiento del modelo posterior. Este proceso es casi siempre cíclico en la práctica; La comparación entre diferentes estrategias de
preprocesamiento conduce a una mejor comprensión de los datos, lo que puede re nar aún más el preprocesamiento para maximizar la relación señal / ruido.
Sin embargo, hay dos puntos de precaución. El preprocesamiento debe usarse con prudencia porque: 1) el sobreprocesamiento puede atenuar la señal e in ar
variaciones indeseables; y 2) muchos métodos quimiométricos pueden acomodar datos ruidosos y visualmente poco atractivos. Además, en algunos casos, el
preprocesamiento se ha realizado en el instrumento; Muchos algoritmos utilizados por los proveedores de instrumentos son propietarios, y puede ser imposible
saber exactamente qué modi caciones se han realizado a los datos. El quimiométrico debe conocer y tener cuidado con cualquier preprocesamiento ya aplicado
en los datos brutos informados.
El preprocesamiento puede consistir en transformación, normalización y / u otro tratamiento matemático de datos. El preprocesamiento de las muestras ( las
de la matriz de datos) puede incluir el centrado medio o mediano, el escalado y otros procedimientos. Las variables (columnas de matriz de datos) también se
pueden transformar, alinear (p. Ej., Deformación de tiempo) o escalar (p. Ej., Autoescalado). El centrado medio es probablemente el método de preprocesamiento
más común. Por ejemplo, el uso de datos centrados en la media en el modelo de regresión elimina el término de intercepción, lo que resulta en un modelo
potencialmente parsimonioso. También es común eliminar la línea base lineal (p. Ej., sesgo / corrección de desplazamiento) o interferencias polinómicas o para
aplicar técnicas de ltrado digital como derivados, wavelets, ltro de Fourier o un ltro Savitzky-Golay para eliminar o atenuar los desplazamientos lineales y la
contribución del ruido. La normalización es el escalado de las observaciones, dando a los objetos un impacto similar en la creación del modelo al: 1) tener en
cuenta factores distintos del analito de interés que afectan la medición (por ejemplo, la variabilidad de la longitud de la ruta de muestra causada por el tamaño de
partícula, el volumen de muestra o el grosor de la tableta); 2) corregir la variación en la concentración o masa de un analito para modelos cualitativos; y 3) atenuar
los artefactos de medición (p. ej., deriva del rendimiento del instrumento). Cuando las variables están altamente correlacionadas, como en las mediciones
espectroscópicas, la normalización generalmente se realiza a través de la variante normal estándar (SNV) y la corrección de dispersión multiplicativa (MSC). Estas
normalizaciones se realizan típicamente en cada muestra ( la).
En los casos en que las variables tienen diferentes unidades, sensibilidades o relaciones de señal a ruido, la escala variable generalmente se aplica para corregir
eso; La escala automática se usa típicamente, pero el analista puede considerar otras alternativas, como el uso de las desviaciones estándar agrupadas de las
réplicas de medición como parámetros de escala / peso. Estas normalizaciones se realizan típicamente en cada variable (columna). No existen pautas para decidir
qué enfoque de preprocesamiento es el mejor para un conjunto de datos dado. A menudo es un proceso de prueba y error, ya que el analista aplica diferentes
técnicas de preprocesamiento para encontrar la mejor.
SELECCIÓN DE ALGORITMO
Se han probado muchos algoritmos diferentes con diversos grados de éxito en aplicaciones de quimiometría. Los métodos incluyen métodos relativamente
simples como la regresión lineal multivariante y sus modi caciones (regresión robusta o ponderada); los enfoques ampliamente utilizados de variables latentes,
como la regresión de componentes principales (PCR) y PLS; métodos locales como k-vecinos más cercanos (kNN); y los métodos más so sticados como
máquinas de vectores de soporte (SVM) y redes neuronales arti ciales. Se pueden encontrar más detalles sobre las herramientas algorítmicas de uso común en 4.
Aplicaciones de la quimiometría. En general, es difícil predecir qué algoritmo producirá los mejores resultados para un conjunto de datos en particular. La multitud
de opciones para la selección de muestras, la selección de variables y la normalización y preprocesamiento de datos , así como la combinación de parámetros de
ajuste para cada algoritmo , podrían afectar signi cativamente el rendimiento del modelo de calibración. A veces, la elección del algoritmo incluso itera con los
pasos de selección de muestra, selección de variables y preprocesamiento. Por lo tanto, la elección del algoritmo puede depender de la tarea en cuestión, la
[Link] 4/15
24/9/2019 USP-NF
disponibilidad del software y la familiaridad del experto en la materia con el método. Otra consideración es que algunos algoritmos proporcionan herramientas
útiles para el diagnóstico y la interpretación :tales como los puntajes de PLS, las grá cas de cargas y coe cientes, mientras que otros a veces se denominan "cajas
negras" porque su funcionamiento interno puede ser difícil de interpretar (por ejemplo, redes neuronales).
Es importante tener en cuenta que muchos algoritmos son de naturaleza empírica. Casi siempre, se puede desarrollar algún tipo de modelo. Por lo tanto, los
resultados deben evaluarse críticamente para garantizar que los resultados generados por el modelo sean relevantes y correctos, y que el rendimiento del modelo
cumpla con los requisitos del ATP. Esto se puede lograr mediante validación cruzada y, en última instancia, mediante validación con el conjunto de datos de prueba
independiente que no se utilizó para desarrollar el modelo.
SELECCIÓN VARIABLE
El propósito de la selección de variables es identi car un subconjunto de variables predictoras (es decir, la columna de la matriz X en la Figura 2) que pueden
mejorar el rendimiento del modelo. La razón subyacente para la selección variable en la quimiometría es doble. Primero, ciertas variables predictoras podrían ser
irrelevantes para el propósito previsto, e idealmente, estas variables deberían minimizarse o eliminarse del modelo. Por ejemplo, solo las longitudes de onda
especí cas de todo el rango generado por el espectrómetro pueden contener información relevante para la variación en los niveles de la variable de respuesta. La
selección de variables para este propósito debe basarse en los primeros principios y la experiencia. La inclusión de predictores no relacionados, como las regiones
espectrales irrelevantes, podría degradar el rendimiento del modelo.
La segunda parte de la justi cación de la selección de variables es evitar el sobreajuste. El sobreajuste es la situación en la que el modelo no solo describe la
variabilidad prevista en los datos, sino que también incluye el modelado del ruido. Este último tiene una in uencia negativa en las propiedades predictivas del
modelo. Típicamente en quimiometría, el número de variables predictoras (cientos o miles) es mayor que el número de observaciones (decenas a cientos). Hay dos
estrategias generales para manejar el problema del sobreajuste. Una estrategia es seleccionar manual o computacionalmente solo un subconjunto de variables
predictoras y usarlas para el desarrollo del [Link] F , prueba t , coe ciente de correlación, relaciones señal / ruido, umbrales de intensidad, importancia
variable en la métrica de proyección o algoritmos genéticos. Los enfoques multivariados pueden usar cargas variables de PC, discriminantes lineales o
coe cientes de regresión para de nir las características clave.
En la segunda estrategia para evitar el sobreajuste, las variables no se seleccionan en absoluto. Los métodos de variables latentes ( PLS y PCR) , por su
naturaleza, tienen la capacidad de dar selectivamente más peso a las variables predictoras importantes y desestimar las menos importantes. Estas nuevas
variables latentes, o componentes, se construyen como combinaciones lineales de las variables observadas. Si se combina con la selección de variables, el
rendimiento de los modelos de variables latentes podría mejorarse, porque algunas variables predictoras solo contienen ruido, lo que perturba el proceso de
construcción del modelo.
La selección de un subconjunto de las variables predictoras que son informativas reducirá el tamaño del conjunto de datos, proporcionará e ciencia
computacional y obtendrá mejores modelos para el posprocesamiento. Una advertencia para aplicaciones como la autenticación es que eliminar las variables
predictoras que carecen de información puede evitar el reconocimiento de adulterantes u objetos novedosos que tienen características en estas variables
predictoras excluidas.
VALIDACIÓN CRUZADA
En la práctica, la validación cruzada se utiliza para obtener una estimación del rendimiento del modelo y para ajustar los parámetros de un algoritmo (por
ejemplo, el número de componentes para PLS). Esto se logra mediante la división repetitiva de los datos (es decir, el número de las de la matriz X en la Figura 2 )
en un conjunto de calibración, que se utiliza para desarrollar el modelo, y un conjunto de prueba (o conjunto de validación interna), que es Se utiliza para hacer
predicciones y comparar valores reales y pronosticados.
El enfoque de la validación cruzada n -pliegue se usa comúnmente para dividir los datos en n subconjuntos para realizar la validación cruzada. En cada una de
las n iteraciones, n -1 subconjuntos se utilizan para desarrollar el modelo, que se utiliza para predecir el restante n º división de datos. El procedimiento se repite
hasta que se predigan todos los subconjuntos. El error entre los valores de referencia y los valores pronosticados durante la validación cruzada se registra como
error de validación cruzada de raíz cuadrada media (RMSECV). Existen múltiples enfoques para dividir los datos en nsegmentos Independientemente de cómo se
decida dividir los datos de calibración originales, un aspecto que merece atención es que los lotes utilizados en la calibración y la validación cruzada no deben
considerarse o reutilizarse como un conjunto de datos independiente para la validación del método. La forma más directa se llama validación cruzada de dejar uno
fuera (LOOCV), donde las muestras se eliminan de una en una. El LOOCV puede involucrar cálculos intensivos; sus resultados pueden verse muy afectados por los
valores atípicos y son menos consistentes que los resultados de otras formas de validación cruzada. También es posible dividir los datos de acuerdo con
información previa, como un subconjunto por lote dado el conjunto de datos históricos disponibles en varios lotes. Otra opción para la validación cruzada es el
arranque, donde en cada iteración se muestrea una cierta proporción de datos al azar para crear un conjunto de calibración, mientras que el resto de los datos se
usan como un conjunto de prueba. El procedimiento se repite muchas veces (típicamente 100 o más ciclos) para obtener una estimación estable del error de
predicción. mientras que el resto de los datos se utilizan como un conjunto de pruebas. El procedimiento se repite muchas veces (típicamente 100 o más ciclos)
para obtener una estimación estable del error de predicción. mientras que el resto de los datos se utilizan como un conjunto de pruebas. El procedimiento se repite
muchas veces (típicamente 100 o más ciclos) para obtener una estimación estable del error de predicción.
La medida de error es la gura de mérito más común utilizada para caracterizar el rendimiento del modelo durante la validación cruzada. El propósito previsto del
método determina la naturaleza de los errores, como la tasa de clasi cación errónea para los métodos cualitativos y el error de predicción para los métodos
cuantitativos. Independientemente de las aplicaciones cualitativas o cuantitativas, se utilizan comúnmente dos métricas para caracterizar el error dentro de la
validación cruzada: error de calibración cuadrático medio (RMSEC) y RMSECV. El RMSEC se calcula para las muestras cuando se deja en la calibración, que
disminuye monotónicamente con cada factor adicional (es decir, PC) agregado al modelo. En comparación, el RMSECV que se calcula durante la validación
cruzada disminuirá hasta que se agregue el último factor signi cativo (es decir, que contiene la señal relevante). Luego, a medida que se incorpore cada factor
adicional al modelo, el RMSECV aumentará, lo que indica que los datos de calibración se están sobreajustando. La grá ca de RMSEC y / o RMSECV versus el
número de factores en el modelo se conoce como grá ca de suma de cuadrados de error residual pronosticada. En general, la mejor práctica es evitar la inclusión
de factores más allá de donde se produce el mínimo de la línea de trama RMSECV. Además, la correlación entre los valores observados y los pronosticados (p. Ej.,
e., se agrega el factor relevante que contiene la señal). Luego, a medida que se incorpore cada factor adicional al modelo, el RMSECV aumentará, lo que indica que
los datos de calibración se están sobreajustando. La grá ca de RMSEC y / o RMSECV versus el número de factores en el modelo se conoce como grá ca de suma
de cuadrados de error residual pronosticada. En general, la mejor práctica es evitar la inclusión de factores más allá de donde se produce el mínimo de la línea de
trama RMSECV. Además, la correlación entre los valores observados y los pronosticados (p. Ej., e., se agrega el factor relevante que contiene la señal). Luego, a
medida que se incorpore cada factor adicional al modelo, el RMSECV aumentará, lo que indica que los datos de calibración se están sobreajustando. La grá ca de
RMSEC y / o RMSECV versus el número de factores en el modelo se conoce como grá ca de suma de cuadrados de error residual pronosticada. En general, la
mejor práctica es evitar la inclusión de factores más allá de donde se produce el mínimo de la línea de trama RMSECV. Además, la correlación entre los valores
observados y los pronosticados (p. Ej., el RMSECV aumentará, lo que indica que los datos de calibración están siendo sobreajustados. La grá ca de RMSEC y / o
RMSECV versus el número de factores en el modelo se conoce como grá ca de suma de cuadrados de error residual pronosticada. En general, la mejor práctica es
evitar la inclusión de factores más allá de donde se produce el mínimo de la línea de trama RMSECV. Además, la correlación entre los valores observados y los
pronosticados (p. Ej., el RMSECV aumentará, lo que indica que los datos de calibración están siendo sobreajustados. La grá ca de RMSEC y / o RMSECV versus el
[Link] 5/15
24/9/2019 USP-NF
número de factores en el modelo se conoce como grá ca de suma de cuadrados de error residual pronosticada. En general, la mejor práctica es evitar la inclusión
de factores más allá de donde se produce el mínimo de la línea de trama RMSECV. Además, la correlación entre los valores observados y los pronosticados (p. Ej.,
la mejor práctica es evitar la inclusión de factores más allá de donde ocurre el mínimo de la línea de trama RMSECV. Además, la correlación entre los valores
observados y los pronosticados (p. Ej., la mejor práctica es evitar la inclusión de factores más allá de donde ocurre el mínimo de la línea de trama RMSECV.
Además, la correlación entre los valores observados y los pronosticados (p. Ej.,R 2 ) también se usa comúnmente para evaluar el rendimiento de los métodos
cuantitativos. Finalmente, los resultados de validación cruzada solo son signi cativos cuando los conjuntos de calibración y prueba son comparables (es decir,
extraídos de la misma población). De lo contrario, la extrapolación puede conducir a predicciones incorrectas.
3.2 Validación del método
El objetivo de la validación es demostrar que el rendimiento de un método es adecuado para su propósito previsto. La validación de un modelo y la validación de
un método son dos actividades diferentes. La validación del modelo implica habitualmente el uso de un conjunto de validación interna o validación cruzada para
evaluar los parámetros apropiados de un modelo a través de la identi cación o error de cuanti cación e incertidumbre. Los parámetros a menudo incluyen el rango
de variables, el tipo de preprocesamiento, el rango del modelo, la elección del algoritmo y otros. Estas actividades se han abordado en detalle en 3.1 Desarrollo del
modelo: Calibración. En comparación, la validación del método debe basarse en un conjunto de validación externa completamente independiente y debe seguir el
requisito de validación descrito en Validación de procedimientos complementarios 〈 1225 〉 , de acuerdo con la categoría de tipo de método. Los criterios de
aceptación deben justi carse para el n previsto. Durante el ciclo de vida, la revalidación del método es necesaria después de una transferencia o actualización del
modelo. La estrategia de validación y revalidación del método debe estar basada en el riesgo y en la ciencia y ser adecuada a su nivel de impacto.
Las características de rendimiento típicas para la validación de métodos son especi cidad, precisión, precisión, linealidad, rango y robustez para modelos
cuantitativos, y especi cidad y robustez para modelos cualitativos. Las métricas y sus descripciones se analizan a continuación. Además de las métricas de
rendimiento típicas, las métricas como el límite de detección (LOD), el límite de cuanti cación (LOQ), la sensibilidad, la sensibilidad analítica y la resolución efectiva
pueden no ser necesarias para nes de validación, pero podrían ser útiles para comprender el límite de la rendimiento del método para una aplicación analítica
especí ca y la técnica analítica con la que se asocia un modelo.
MUESTRAS DE VALIDACIÓN
Otros aspectos generales a considerar para la validación del método quimiométrico incluyen las muestras de validación. Las muestras de validación deben ser
independientes de las muestras de calibración para demostrar la capacidad del modelo para predecir. Ser independiente signi ca que las muestras de validación
no se usaron en el conjunto de calibración ni se usaron para la optimización del modelo. La validación interna o validación cruzada generalmente se usa durante la
calibración para la optimización de parámetros del modelo, pero no se considera su ciente para la validación nal del método. Las muestras de validación deben
seleccionarse en función del ATP y las características de rendimiento deseadas del modelo. La robustez del método se basa en la evaluación de muestras
auténticas con fuentes típicas de variación. Para productos farmacéuticos o suplementos dietéticos, se pueden incluir muestras de validación de escala de
producción nominal, como las que se fabrican habitualmente para pruebas de estabilidad, liberación y / o en proceso. Para artículos botánicos, se puede incluir
[Link] 6/15
24/9/2019 USP-NF
identidad taxonómica, origen geográ co, temporada de recolección y otras variantes. Para materiales de origen natural como muchos ingredientes alimenticios y
excipientes,
Como con cualquier otro procedimiento analítico, los criterios de aceptación para un método quimiométrico deben de nirse antes de la ejecución del protocolo
de validación. Si el modelo quimiométrico se desarrolló utilizando datos de una técnica secundaria [p. Ej., Infrarrojo cercano (NIR) o Raman] con valores de
referencia de un procedimiento analítico primario [p. Ej., Espectroscopía gravimétrica, de resonancia magnética nuclear (RMN) o líquido de alto rendimiento
cromatografía (HPLC)], el ATP para la validación no puede exceder lo que se puede obtener por el método primario. Pueden ocurrir algunas excepciones, por
ejemplo, puede ser posible lograr una precisión superior utilizando un procedimiento secundario,
Además de los atributos abordados en Características de rendimiento para la validación de métodos, la validación del método también debe tener en cuenta el
establecimiento de límites de diagnóstico para un modelo multivariante antes de la implementación para uso rutinario. Las muestras que están fuera del espacio
modelo se consideran atípicas y no son adecuadas para obtener una predicción de modelo reportable. El diagnóstico del modelo debe tener una capacidad
demostrada para marcar cualquiera de las muestras fuera del espacio modelo. Para con gurar los límites de diagnóstico, se deben considerar dos casos. El
primero es determinar la distribución estadística del apalancamiento y el conjunto de datos residuales dentro de la calibración. El segundo es preparar muestras de
validación previstas dentro y fuera del espacio modelo para probar el límite. Por ejemplo, para un método de uniformidad de contenido basado en espectroscopía
NIR, las muestras dentro del espacio del modelo fuera del modelo podrían ser muestras en el reclamo de la etiqueta objetivo versus muestras que contienen
concentraciones de ingredientes farmacéuticos activos (API) fuera del rango previsto para el método .
3.3 Monitoreo del modelo
A lo largo del ciclo de vida del modelo, pueden ocurrir cambios que pueden afectar el rendimiento del modelo. Deben existir procedimientos para la veri cación
continua del rendimiento del modelo y para la actualización del modelo y la revalidación del procedimiento si es necesario. No existe un orden especí co entre el
monitoreo del modelo, la actualización del modelo y la transferencia del modelo. Se deben aplicar razones cientí camente sólidas para determinar una secuencia
apropiada para la aplicación prevista.
Se debe desarrollar y documentar una estrategia de control para veri car el rendimiento del modelo durante su ciclo de vida como parte del desarrollo del modelo
y la validación del procedimiento. La estrategia debe identi car los elementos necesarios para el monitoreo y evaluación continuos del desempeño del modelo.
Además, debe existir un plan para monitorear, analizar y ajustar el modelo con una frecuencia de medición que permita la identi cación de excursiones relacionadas
con aspectos críticos del modelo. El nivel de mantenimiento debe considerarse parte de las actividades de evaluación de riesgos y debe ser adecuado para la
criticidad del modelo. Si es aplicable,
La garantía continua del rendimiento del modelo a lo largo de su ciclo de vida debe incluir:
Monitoreo y revisión continua del modelo.
Evaluación de la evaluación de riesgos.
Evaluación de los cambios posteriores a la implementación y el mantenimiento del modelo prede nido.
Actualización del modelo y revalidación del procedimiento según sea necesario
La revisión continua de un modelo debe ocurrir a intervalos prede nidos y también debe ser activada por eventos que pueden tener un impacto en el rendimiento
del modelo. Ejemplos de tales eventos incluyen cambios en la variabilidad de las materias primas o el fabricante; cambios en el proceso ascendente que pueden
alterar la matriz de la muestra (por ejemplo, equipos de proceso o con guraciones de operación); desviaciones en la predicción del modelo; y resultados fuera de
especi cación (OOS) o fuera de tendencia (OOT) dados por el modelo (dependiendo de la causa raíz del OOS o OOT). Además de los desencadenantes que se basan
en la salida de predicción del modelo, se deben incluir los desencadenantes basados en las métricas de diagnóstico del modelo y las reglas de acción
correspondientes. Los modelos multivariados pueden verse más afectados por las rmas de datos aberrantes que los modelos univariados. Se necesita un cuidado
especial para: 1) justi car estadísticamente los diagnósticos del modelo multivariado, 2) veri car con datos del proceso de desarrollo del modelo y validación del
procedimiento, y 3) implementar diagnósticos multivariados para el monitoreo como parte de la estrategia de control. La comparación de las predicciones del
modelo y los procedimientos de referencia u ortogonales deben realizarse periódicamente o como parte de la investigación iniciada por el proceso de revisión. 1)
justi car estadísticamente los diagnósticos del modelo multivariado, 2) veri car con datos del proceso de desarrollo del modelo y validación del procedimiento, y 3)
implementar diagnósticos multivariados para el monitoreo como parte de la estrategia de control. La comparación de las predicciones del modelo y los
procedimientos de referencia u ortogonales deben realizarse periódicamente o como parte de la investigación iniciada por el proceso de revisión. 1) justi car
estadísticamente los diagnósticos del modelo multivariado, 2) veri car con datos del proceso de desarrollo del modelo y validación del procedimiento, y 3)
implementar diagnósticos multivariados para el monitoreo como parte de la estrategia de control. La comparación de las predicciones del modelo y los
procedimientos de referencia u ortogonales deben realizarse periódicamente o como parte de la investigación iniciada por el proceso de revisión.
El uso de diagnósticos del modelo cuando se aplica a una nueva muestra asegura que la predicción del modelo sea válida con respecto a los conjuntos de
calibración y validación utilizados durante el desarrollo del modelo y la validación del procedimiento, y también asegura que el resultado no constituya un valor
atípico. La observación de un valor atípico signi ca que el resultado no es válido, pero no es una indicación con able de un resultado OOS; Un resultado OOS es una
observación producida por un modelo cuando la predicción cae fuera de los criterios de aceptación y los diagnósticos del modelo están dentro de los umbrales. En
el caso de los modelos cualitativos, los resultados no conformes deben tratarse como valores atípicos y desencadenar una investigación;
El proceso de revisión de un modelo debe producir una decisión con respecto a la necesidad de una extensión del mantenimiento del modelo; Dicha decisión
puede ser el resultado de un ejercicio de evaluación de riesgos o el resultado de un ujo de trabajo de decisión prede nido. La criticidad y el uso del modelo de nirán
la extensión del mantenimiento del modelo, que puede incluir restringir las condiciones del modelo; ajustar el conjunto de calibración (se pueden agregar, reemplazar
o eliminar muestras); o incluso reconstruir completamente el modelo. La decisión y la justi cación correspondiente deben ser cientí camente sólidas y
documentadas.
3.4 Actualización del modelo y transferencia del método
La actualización del modelo debe considerarse parte de la veri cación del procedimiento analítico, y tanto la justi cación como las actividades deben
documentarse como parte del ciclo de vida del procedimiento analítico. Antes de realizar una actualización del modelo, es fundamental comprender el factor causal
subyacente que ha provocado la actualización. Las razones para la actualización del modelo se pueden dividir aproximadamente en dos categorías.
La primera categoría es cuando el conjunto de calibración simplemente necesita expandirse. En este caso, nada ha cambiado realmente en términos de la
respuesta del instrumento a analitos especí cos. En cambio, el modelo original ya no es válido debido al rango ampliado de calibración original, la adición de nuevos
analitos o la aparición de otras variaciones nunca antes vistas (por ejemplo, cambios en la distribución del tamaño de partícula o la deriva de un proceso químico a
Un nuevo estado estacionario). Por lo tanto, el espacio de calibración debe expandirse con muestras que exhiban esta variación.
La segunda categoría es cuando las muestras son iguales pero la función de respuesta del sistema de medición ha cambiado. Esto a menudo se debe a cambios
en los componentes de medición (nueva fuente de luz, opacidad de la óptica, cambio de registro de longitud de onda) o puede deberse a la transferencia del método
a través de diferentes instrumentos. Esto, en esencia, es un problema de estandarización de instrumentos. Los cambios en el instrumento o los procedimientos de
[Link] 7/15
24/9/2019 USP-NF
medición a lo largo del tiempo pueden hacer que un modelo de calibración sea inutilizable, en cuyo caso una actualización del modelo se hace necesaria o se debe
desarrollar un nuevo modelo.
En la práctica, existen múltiples técnicas de actualización del modelo que podrían aplicarse a cada categoría de actualización del modelo. Algunas técnicas de
actualización son relativamente sencillas y simples de implementar, mientras que otras son técnicamente complejas. La selección de un enfoque de actualización
del modelo apropiado debe basarse en una comprensión completa del factor causal subyacente. Como regla general, primero se deben considerar los métodos de
actualización simples (p. Ej., Ajuste de pendiente y sesgo, como se describe a continuación).
Antes de iniciar cualquier trabajo de mantenimiento modelo, es una buena práctica para con rmar que la construcción fundamental del modelo original - como
pre-procesamiento de datos y la selección de variables - se mantiene sólido. Tanto para las actualizaciones de modelos basadas en aplicaciones cualitativas como
cuantitativas, se recomienda un enfoque de preprocesamiento directo y un enfoque de selección variable cientí camente sólido como el intento inicial de abordar
los desafíos asociados con la actualización del modelo. Estos enfoques son igualmente aplicables a las diferencias causadas por instrumentos, condiciones de
medición o matrices de muestra.
Uno de los métodos más simples de actualización del modelo es procesar las predicciones con un ajuste de sesgo, un ajuste de pendiente o ambos. Este
enfoque se usa a menudo para aplicaciones cuantitativas. Para algunas aplicaciones cualitativas, este enfoque también puede ser útil, dependiendo de la
naturaleza del método. En un conjunto limitado de circunstancias, se espera que los ajustes de sesgo / pendiente funcionen. Por ejemplo, si la matriz de las
muestras que se predicen fuera sistemáticamente diferente del conjunto de muestras de calibración / validación, las predicciones del modelo estarían en error por
un valor constante. Sin embargo, los ajustes de sesgo / pendiente no corregirían ninguna variación nueva en los datos, como la variación que resultaría de una
matriz diferente (p. ej., nuevos analitos / interferentes). Por lo tanto, no se recomienda aplicar ajustes de pendiente / sesgo sin una comprensión completa del
factor causal subyacente. Se puede obtener orientación a través de la inspección de los residuos correspondientes a los nuevos datos obtenidos utilizando el
modelo existente o, alternativamente, a partir de análisis de datos exploratorios complementarios utilizando técnicas como el PCA (ver4. Aplicaciones de la
quimiometría ).
EXPANSIÓN DE CALIBRACIÓN
Al expandir el conjunto de calibración original, se debe considerar el número de muestras nuevas que se agregarán, el impacto (apalancamiento) de las muestras
agregadas en la composición general del nuevo conjunto de calibración y cómo dividir las muestras nuevas entre la calibración y la validación conjuntos. Puede ser
apropiado simplemente aumentar los conjuntos de calibración y validación originales con todas las muestras nuevas, o puede ser aconsejable usar un subconjunto
de las muestras nuevas y originales. Múltiples enfoques, como el algoritmo de Kennard-Stone y el enfoque de vecino más cercano, están disponibles para ayudar
en la selección de nuevas muestras para agregar a un conjunto de calibración existente, pero en general, todos los enfoques utilizan métodos para identi car
nuevas muestras sobre la base de alto apalancamiento (es decir, in uencia del modelo). Hotelling's T 2, las grá cas de puntaje multivariante y sus límites
correspondientes también son enfoques efectivos para lograr este objetivo.
TRANSFERENCIA DE CALIBRACIÓN
Los métodos de transferencia de calibración y estandarización de instrumentos se utilizan para transformar la función de respuesta de un sistema de medición
para que coincida con la de un sistema de medición de referencia. El sistema de medición de referencia podría consistir en un analizador completamente diferente,
o podría ser el mismo analizador antes de experimentar un cambio en la función de respuesta. La gran mayoría de estos métodos generalmente requieren el uso
de muestras de transferencia estables que se miden en el instrumento original y requieren que el instrumento esté estandarizado al mismo tiempo.
Adicionalmente,
3.5 Revalidación
Antes de la redistribución de un modelo multivariante, la revalidación del procedimiento apropiado debe establecerse utilizando criterios equivalentes a los
utilizados en el protocolo de validación original. Esta revalidación es necesaria para documentar la validez del modelo como parte de la veri cación del
procedimiento analítico. La naturaleza y el alcance del procedimiento de revalidación, incluidos aspectos como la justi cación cientí ca y los enfoques
experimentales, deben basarse en la causa de la actualización y la naturaleza de la acción correctiva requerida para establecer un desempeño adecuado. La
revalidación debe documentarse como parte del ciclo de vida del procedimiento analítico.
4. APLICACIONES DE QUIMOMETRÍA
Como se discutió en 2. ¿Qué es la quimiometría? , los análisis quimiométricos se pueden realizar de forma supervisada o no supervisada, dependiendo de la
disponibilidad de datos y de los detalles de una aplicación determinada. Esta sección proporciona una explicación de estos diferentes escenarios de análisis, así
como las herramientas quimiométricas (es decir, algoritmos) que se usan comúnmente. Además, se describirán en detalle varias aplicaciones especí cas.
4.1 Cualitativa
ASPECTOS GENERALES
Los análisis quimiométricos cualitativos se pueden realizar utilizando enfoques supervisados y / o no supervisados. Sin embargo, para incorporarse a los
procedimientos analíticos que son alternativas a los métodos competitivos, el rendimiento de cualquier modelo quimiométrico debe veri carse como se describe
en 3. Ciclo de vida del modelo. Esto puede no ser posible si se sabe muy poco acerca de las muestras que se analizan. Sin embargo, los análisis no supervisados
desempeñan un importante papel de apoyo durante el desarrollo de alternativas quimiométricas a los procedimientos obligatorios dentro del marco del ciclo de
vida, y se recomienda su uso antes del desarrollo de enfoques supervisados posteriores (se proporcionan ejemplos en Ejemplos de aplicación cualitativa ).
Los procedimientos de competencia cualitativa son aquellos que buscan proporcionar el valor de algún descriptor categórico para una muestra desconocida.
Los ejemplos de propiedades categóricas incluyen (entre otros):
Identidad química: celulosa microcristalina versus API
Morfología: polimorfo A versus B; monoclínico versus triclínico
Muestra de autenticidad: auténtica versus no auténtica y / o adulterada
Origen de la muestra: instalación A versus B; lote ABC-001 versus lote XYZ-002
Las propiedades categóricas se pueden modelar de manera efectiva utilizando algoritmos quimiométricos supervisados que aprovechan la proximidad o la
distancia en un espacio multivariado, lo que resulta en una asignación cualitativa de muestras a una o más clases dependiendo de la aplicación y la técnica
utilizada. Según 〈 1225 〉 , los procedimientos basados en modelos de este tipo son adecuados para su incorporación en los métodos de la Categoría IV para la
identi cación y deben validarse para demostrar la especi cidad adecuada para el uso previsto. "Identi cación" es un término que generalmente se usa para
describir una variedad de escenarios de análisis; Varios de los más comunes se describen en Herramientas cualitativas .
Las técnicas supervisadas utilizadas para nes de clasi cación, además de la información analítica del sensor, hacen uso de información discreta relacionada
con las muestras en el conjunto de datos (por ejemplo, etiquetas de clase). Se pretende de nir los límites de los grupos (o clases), proporcionando criterios
estadísticos, además de las técnicas de visualización (p. Ej., Grá co de puntajes de PC de un PCA). Los bordes se pueden usar como criterios de aceptación para
la inclusión o exclusión de nuevas muestras en una clase determinada. El analista dispone de varias herramientas útiles para construir el modelo, como el análisis
[Link] 8/15
24/9/2019 USP-NF
discriminante lineal (LDA) y el análisis discriminante cuadrático (QDA), modelado independiente suave de analogía de clase (SIMCA), kNN y PLS-DA. También se
pueden utilizar técnicas más complejas con justi cación. Cada tipo de modelo tiene sus propias fortalezas y debilidades. Si un algoritmo particular no proporciona
el nivel de rendimiento deseado, se puede seleccionar un algoritmo diferente. Estos aspectos se discuten más adelante enHerramientas cualitativas .
Para el desarrollo, la optimización y la validación del modelo, las técnicas de clasi cación y discriminación siguen el mismo proceso descrito en 3. Ciclo de vida
del modelo. Estas técnicas desarrollan un umbral o límites para hacer tareas de clase. La forma más simple de clasi cación es un sistema de dos clases (por
ejemplo, bueno / malo o A / B). Cuando el modelo clasi ca una nueva muestra como buena o mala (A o B), esto resulta de lo que se llama una técnica de
discriminación. La clasi cación es la técnica de asignar una nueva muestra como A, B, A o B, o ni A ni B. La tasa de error del modelo es el número total de
clasi caciones incorrectas dividido por el número total de muestras. Dependiendo de los requisitos de la aplicación y los niveles de riesgo asociados, las tasas de
error pueden ser especí cas de la clase o agrupadas entre clases. Los detalles especí cos de la aplicación determinarán si la asignación de una muestra a más de
una clase sería un resultado aceptable. Cuando esto debe evitarse, los umbrales de clasi cación deben establecerse adecuadamente durante el desarrollo del
modelo para garantizar resultados de clase única.
HERRAMIENTAS CUALITATIVAS
PCA: PCA es una herramienta de análisis exploratorio de uso común que se introdujo brevemente en 2. ¿Qué es la quimiometría? . PCA es una técnica de reducción
de variables y actúa sobre los datos al de nir nuevas variables, los llamados componentes principales (PC, ver Figura 2 ). Las PC son ortogonales y se de nen en la
dirección de la mayor variación (restante) en los datos. Los resultados de PCA se discuten en términos de puntajes y cargas de PC, que se pueden representar
grá camente en dos (y a veces tres) dimensiones para visualizar grupos de muestras o muestras periféricas (grá cos de puntaje, verFigura 4 ), mientras que las
grá cas de cargas proporcionan información sobre las variables originales. Los puntajes son las proyecciones de las muestras en las PC, mientras que las cargas
proporcionan los pesos (coe cientes) por los cuales los valores de las variables originales se multiplican para generar el puntaje del componente para una muestra
en particular. Las cargas son ricas en información sobre qué variables en la matriz son prominentes y se pueden usar para "comprender" la información capturada
por las variables latentes que proporcionan la base para la distribución de la muestra observada en la grá ca de puntajes ( Figura 4 ). Las PC también pueden
usarse como base para modelos cuantitativos mediante PCR (ver 4.2 Cuantitativo).
Algoritmos de agrupamiento: El objetivo de los análisis de agrupamiento es dividir los datos en diferentes grupos. Algunos métodos, como el análisis jerárquico
de conglomerados (HCA), dan como resultado estructuras en forma de árbol llamadas dendrogramas ( Figura 5) que proporcionan información sobre grupos de
muestras u objetos periféricos que se encuentran en el conjunto de datos. Los dendrogramas se pueden construir de muchas maneras diferentes y, por lo tanto,
pueden mostrar diferentes aspectos del conjunto de datos. Una primera posibilidad, llamada métodos divisivos o de arriba hacia abajo, comienza desde el
conjunto de datos completo, que se divide en pasos consecutivos hasta que cada objeto esté en un grupo individual o todos los elementos de un grupo cumplan
un criterio de similitud dado. En el segundo escenario, llamado métodos aglomerativos o ascendentes, se hace lo contrario. A partir de objetos / grupos
individuales, los más similares se fusionan hasta que todo esté en un grupo. De las dos opciones,
Los parámetros utilizados para expresar (dis) similitud entre objetos o grupos (ver eje y en la Figura 5 ) pueden estar basados en correlación (por ejemplo,
coe ciente de correlación, r para similitud o 1− | r | para disimilitud), basados en distancia (p. ej., distancia euclidiana) o una combinación de ambas (p. ej.,
distancia de Mahalanobis). Dos grupos están vinculados en el dendrograma a la altura relacionada con esta medida de (des) similitud. El parámetro aplicado se
expresa de tal manera que los grupos / objetos se vinculan bajo (es decir, cerca deleje x ) son similares, mientras que los vinculados alto son diferentes. Existen
muchos métodos o criterios diferentes para usar al decidir qué objetos / grupos se fusionan consecutivamente [por ejemplo, enlace único, enlace completo, enlace
promedio (ponderado) y enlace centroide]. Dependiendo del criterio aplicado, los dendrogramas pueden verse muy diferentes. Dibujar líneas horizontales
arbitrarias (ver Figura 5) divide el conjunto de datos en diferentes grupos, que ocasionalmente pueden estar vinculados a propiedades de muestra. Las muestras
periféricas se vinculan muy alto en los dendrogramas, con mayor frecuencia como grupos de un solo objeto. La estabilidad de los resultados de la agrupación
puede verse afectada por muchos factores, como el ruido en los datos, el tamaño de la muestra, la elección del algoritmo, la medición de la distancia y otros. Los
métodos divisivos tienden a producir resultados más estables que los métodos aglomerativos, aunque casi nunca se usan.
[Link] 9/15
24/9/2019 USP-NF
Figura 5. Dendrograma basado en agrupamiento jerárquico para 27 objetos. Abscisa: números de objeto.
Modelado paramétrico: La autenticación de un material o producto formulado para nes de garantía de calidad se puede lograr a través del modelado paramétrico
multivariado del per l químico (p. Ej., Espectro o cromatograma). Estos métodos a veces se denominan "clasi cadores de una clase". Básicamente, un modelo
paramétrico se desarrolla estadísticamente o empíricamente con un límite de con anza alrededor de los datos de muestras auténticas conocidas. Los modelos
paramétricos describen el comportamiento o la estructura de la mayoría de los datos de una sola clase, suponiendo que existe una distribución (normalmente, una
multivariada normal) en esos datos. Las predicciones contra un modelo paramétrico identi can puntos desviados fuera de los límites signi cativos de esa
distribución. Considerando que los enfoques de clasi cación o discriminación proporcionan identi cación (como se describió anteriormente) de la muestra
desconocida, los modelos paramétricos designarán la muestra desconocida como perteneciente a la clase auténtica o como un valor atípico, o exhibiendo
características diferentes a las de nidas por la distribución. Algunas técnicas de discriminación también optimizarán la separación de clases y pueden tener una
mayor selectividad, pero tenderán a fallar cuando se les presente un objeto de ninguna de las clases. Por el contrario, los métodos de modelado paramétrico
rechazarán cualquier muestra que no se encuentre dentro del límite de con anza establecido para el modelo. Quizás el algoritmo de modelado paramétrico más
utilizado es SIMCA, donde se usa PCA para modelar los datos y el de Hotelling Algunas técnicas de discriminación también optimizarán la separación de clases y
pueden tener una mayor selectividad, pero tenderán a fallar cuando se les presente un objeto de ninguna de las clases. Por el contrario, los métodos de modelado
paramétrico rechazarán cualquier muestra que no se encuentre dentro del límite de con anza establecido para el modelo. Quizás el algoritmo de modelado
paramétrico más utilizado es SIMCA, donde se usa PCA para modelar los datos y el de Hotelling Algunas técnicas de discriminación también optimizarán la
separación de clases y pueden tener una mayor selectividad, pero tenderán a fallar cuando se les presente un objeto de ninguna de las clases. Por el contrario, los
métodos de modelado paramétrico rechazarán cualquier muestra que no se encuentre dentro del límite de con anza establecido para el modelo. Quizás el
algoritmo de modelado paramétrico más utilizado es SIMCA, donde se usa PCA para modelar los datos y el de HotellingLos residuos T 2 y Q (DmodX) se utilizan
para de nir los límites. En algunos casos, los enfoques de modelado paramétrico darán como resultado "clasi caciones suaves" en las que se puede asignar una
muestra a más de una clase. Para satisfacer los requisitos de uso obligatorio, se debe prede nir la acción apropiada para casos de asignación de clase ambigua, y
/ o las tasas de error α y β deben establecerse y justi carse de acuerdo con el riesgo.
Análisis exploratorio: Los algoritmos no supervisados se usan de manera rutinaria para los análisis iniciales de datos exploratorios, que preceden a los ejercicios
formales de calibración y validación. La exploración de datos sin supervisión puede indicar rápidamente, en ausencia de cualquier conocimiento previo, si existen
distintas clases o valores atípicos dentro del conjunto de datos disponibles. Por ejemplo, en la Figura 4Se muestra un ejemplo grá co en el que PCA aplicado a
datos espectroscópicos se utilizó para diferenciar entre muestras de diferentes proveedores. Los modelos exploratorios producen variables latentes que pueden
inspeccionarse para identi car las variables originales con la mayor cantidad de señal de analito relevante para llevar a los modelos posteriores o para guiar y / o
veri car los resultados de los enfoques de selección de variables. Esto puede ocurrir durante la fase de análisis de un estudio DoE para evaluar qué factores incluir
en diseños y / o calibraciones posteriores. Promover, adicional,
Prueba de identidad del material: Las pruebas de identi cación se realizan de manera rutinaria para todos los ingredientes farmacéuticos activos, excipientes,
productos farmacéuticos y materiales de embalaje para autenticarlos y veri car que se utilizan los materiales correctos en las operaciones de fabricación, prueba
de liberación y embalaje. Pruebas de identi cación espectrofotométrica 〈 197 〉ilustra una de las técnicas analíticas más utilizadas para la identi cación, la
espectroscopía IR de transformada de Fourier. Por lo general, las pruebas de identi cación implican comparar el espectro de la muestra con el espectro de una
muestra de referencia y evaluar el nivel de acuerdo entre los dos. Se pueden aplicar diferentes algoritmos quimiométricos para la identi cación, y el desarrollo y
mantenimiento general del modelo debe seguir la guía en 3. Ciclo de vida del modelo. Todos los métodos para la prueba de identidad son métodos de clasi cación
supervisados porque estos algoritmos utilizan un espectro de referencia único o un conjunto de espectros de referencia de material (es) con identidad conocida.
Los algoritmos se pueden aplicar en el espacio variable original o en el espacio variable transformado (como el espacio variable latente) después del
preprocesamiento de datos.
De acuerdo con 〈 1225 〉, los modelos de este tipo son adecuados para su incorporación en los métodos de identi cación de la Categoría IV y, como mínimo,
deben validarse para demostrar la especi cidad adecuada para el uso previsto. Un enfoque de ejemplo para la veri cación del rendimiento es la documentación de
TPR y FPR. TPR es el porcentaje de muestras que se identi can correctamente, mientras que FPR es el porcentaje de muestras que se identi can incorrectamente.
TPR también se conoce como sensibilidad, y FPR se conoce como especi cidad. Independientemente del enfoque que se adopte, siempre existe una
compensación entre FPR y TPR,Figura 6 ).
Se genera una curva ROC clásica trazando el TPR en la ordenada y el FPR en la abscisa. Cada punto en una curva ROC representa un par especí co de TPR y
FPR obtenido en un umbral especí co. El umbral es típicamente un número generado por el algoritmo, y cuando se excede, esto corresponde a una identi cación
[Link] 10/15
24/9/2019 USP-NF
positiva. Este valor umbral se determina durante el proceso de desarrollo del procedimiento. El umbral podría ser el valor P de las pruebas de hipótesis, el umbral
del índice de calidad de impacto (HQI), el umbral de distancia de Mahalanobis, el umbral de puntuación discriminante PLS o algún otro umbral.
Durante el desarrollo del procedimiento, se examinan varias muestras positivas y negativas conocidas, y se registra la salida del algoritmo para cada muestra. El
rendimiento del método cuando se opera en un umbral t particular se caracteriza por un solo par TPR / FPR, y la curva característica operativa completa se puede
producir trazando pares TPR / FPR en un rango de umbrales de decisión. Una identi cación de falso positivo corresponde a un umbral de decisión que es
demasiado bajo. Los falsos positivos se pueden minimizar elevando el umbral de decisión. Sin embargo, los umbrales de decisión excesivamente altos pueden
producir una identi cación falsamente negativa.
Un buen método de identi cación debería generar una curva ROC que produzca uno o más pares TPR / FPR en la esquina superior izquierda de la grá ca, como
se muestra en la Figura 6 . Esta característica es mejor captada por las AUC. Un método de decisión aleatorio está representado por la línea diagonal con un AUC
de 0.5, mientras que un buen método de identi cación debería tener un AUC más cercano a 1. La forma de la curva ROC depende de una combinación de
propiedades espectrales de la muestra y el algoritmo quimiométrico utilizado para identi cación. La caracterización de la curva ROC es una tarea fundamental
asociada con el desarrollo y validación de métodos.
Para un modelo de dos clases, los falsos positivos y los falsos negativos son las muestras asignadas incorrectamente. Junto con los verdaderos positivos y
verdaderos negativos, proporcionan la base para la sensibilidad y especi cidad del modelo. El analista puede desear preocuparse por un tipo de error ( α o β ) más
que otro y, por lo tanto, podría cambiar el modelo para que sea más conservador al elegir un umbral. Los umbrales se pueden usar como criterios de acción o
criterios de evaluación.
Pruebas de autenticación de materiales complejos: Los nutracéuticos y las muestras de origen herbal pueden ser mezclas complejas de numerosos
componentes. La autenticación se basa en la evaluación de la presencia de múltiples analitos y sus concentraciones relativas, además de demostrar
potencialmente la ausencia de adulterantes y / o materiales relacionados. Por lo tanto, la autenticación en este escenario es un proceso de decisión multivariante
que es apropiado para los enfoques quimiométricos. Típicamente, se obtiene un patrón característico de "huella digital" que incorpora información de los diversos
analitos (y potencialmente adulterantes) que están presentes en la muestra mediante la aplicación de una combinación de técnicas de separación y
caracterización o mediciones espectroscópicas. La información de composición química en la huella dactilar de la muestra proporciona una base para el
reconocimiento de patrones multivariados. En particular, Las técnicas con una selectividad analítica excepcional, como la espectrometría de masas y la
espectroscopía de RMN, han surgido como poderosas herramientas de huellas dactilares, especialmente cuando se utilizan como detectores para separaciones
cromatográ cas de muestras multicomponentes. La huella digital cromatográ ca es reconocida como un procedimiento de identi cación viable para las hierbas
medicinales por la Organización Mundial de la Salud y la Administración de Drogas y Alimentos de los Estados Unidos. (4 , 5 )
Dependiendo del origen y la pureza de la muestra, puede ser apropiado desarrollar un modelo de clasi cación multivariante usando la huella digital completa o
un subconjunto seleccionado de picos. Los enfoques de selección variable pueden ser útiles para determinar el enfoque óptimo, dependiendo de la naturaleza de
las muestras y / o el ATP. Es crucial que las muestras tengan una etiqueta de clase asociada o una propiedad cuantitativa (actividad) obtenida por una técnica de
referencia objetiva (separada de la utilizada para generar la huella digital) para permitir el modelado supervisado y la posterior veri cación del rendimiento del
modelo.
El analista dispone de varias herramientas útiles para construir el modelo, como LDA y QDA, SIMCA, kNN y PLS-DA. También se pueden usar técnicas más
complejas con justi cación (por ejemplo, SVM).
Los métodos quimiométricos para la autenticación de muestras multicomponentes son consistentes con la Validación de los Procedimientos Compendiales 〈
1225 〉 , Validación, Elementos de datos requeridos para la Validación, Categoría IV . Se pueden usar varios métodos numéricos para veri car el rendimiento
predictivo. Como se discutió en Herramientas cualitativas para la identi cación de material puro, el rendimiento predictivo puede veri carse mediante la
comparación de TPR y FPR una vez que se ha establecido un umbral de clasi cación apropiado para la aplicación. Es crucial nalizar este umbral antes de la
validación formal del método analítico general.
Clasi cación: Esta es una técnica de aprendizaje supervisado. El objetivo de la calibración es construir una regla de clasi cación basada en un conjunto de
calibración donde se conocen X e Y (etiquetas de clase). Una vez obtenida, la regla de clasi cación se puede usar para la predicción de nuevos objetos cuyos
datos X están disponibles.
Los modelos de clasi cación pueden dividirse en dos grupos principales: duros y blandos. La clasi cación rígida se dirige directamente al límite de decisión de
clasi cación sin producir una estimación de probabilidad. Ejemplos de técnicas de clasi cación dura son kNN y sistemas expertos. La clasi cación suave estima
explícitamente la probabilidad condicional de la clase y luego realiza la asignación de clase en función de la mayor probabilidad estimada. SIMCA es una técnica
de clasi cación suave comúnmente utilizada. En cualquiera de los escenarios, los umbrales para determinar los límites de clase son importantes y deben
establecerse durante el desarrollo del método en función de los resultados TPR y FPR, los requisitos para los cuales son determinados por la ATP. Estas tasas
también deben veri carse como parte de la validación completa del procedimiento.
[Link] 11/15
24/9/2019 USP-NF
En muchas aplicaciones, es inaceptable tener una muestra clasi cada en dos clases. Además, si una muestra no se clasi ca en ninguna clase, la muestra se
considera un valor atípico para el conjunto de calibración. Por ejemplo, un modelo de clasi cación construido a partir de espectros NIR de cuatro materiales (A, B,
C, D) tiene cuatro clases. Cualquier material que tenga una fuente de variación (p. Ej., Diferente contenido de agua) no visto previamente e incluido en la calibración
del modelo puede no clasi carse y, por lo tanto, debe identi carse como un valor atípico e investigado. De manera similar, cuando se aplica un espectro de otro
material (E) al modelo, el modelo no debería poder clasi carlo en una clase dada.
4.2 Cuantitativo
ASPECTOS GENERALES
Cuando el uso previsto de un procedimiento analítico es la determinación de uno o más componentes o propiedades de la muestra que tienen valores que
pueden variar continuamente en lugar de categóricamente, entonces se requiere un modelo cuantitativo. De manera similar al proceso de modelado cualitativo, los
modelos quimiométricos cuantitativos se producen de manera supervisada utilizando tanto el bloque X independiente como las variables dependientes y para
garantizar un rendimiento predictivo óptimo. La diferencia surge en la naturaleza de los valores y , que son continuos / numéricos (en lugar de categóricos) para
aplicaciones cuantitativas. Por 〈 1225〉 , Los modelos quimiométricos cuantitativos son adecuados para su incorporación a los métodos de las Categorías I, II o
III para la determinación del contenido de la sustancia farmacológica o producto farmacológico terminado, niveles de impurezas o características de rendimiento,
respectivamente. Las pruebas en proceso aplicadas de manera fuera de línea o en línea / en línea que producen el valor de una variable continua también
representarían usos apropiados de modelos quimiométricos cuantitativos. Los requisitos especí cos del análisis según el ATP (consulte3. Ciclo de vida del
modelo) se deben utilizar para guiar las métricas de validación utilizadas para demostrar el rendimiento.
HERRAMIENTAS CUANTITATIVAS
Las herramientas algorítmicas necesarias para aplicaciones cuantitativas son muy variadas; Para obtener descripciones más completas, consulte el Apéndice,
Fuentes de información adicionales . Las herramientas que se usan comúnmente se describen brevemente aquí. Como es el caso con cualquier modelo
quimiométrico, la herramienta debe coincidir con el ATP, y viceversa. Ciertas ventajas y desventajas son características de cada herramienta, y el quimiométrico
debe tenerlas en cuenta al justi car su uso.
Multiple Linear Regression (MLR): Esta herramienta establece una correlación entre una variable dependiente (o y , variable de respuesta) y múltiples variables
independientes (o x , variables explicativas) ajustando una ecuación lineal a los datos observados. MLR tiene dos aplicaciones amplias, como sigue.
La primera aplicación amplia de MLR es establecer un modelo que explique la importancia o la magnitud del efecto sobre la variable de respuesta, y esto se usa
típicamente en la detección de DoE o el análisis de respuesta. Típicamente, las variables de entrada son mutuamente independientes y, por diseño, representan
grandes magnitudes. A menudo, se incluye el orden superior de los términos, como los términos cuadrados y los términos de interacción, y se utiliza un
procedimiento paso a paso para excluir aquellos que hacen una contribución menor al modelo. Se recomienda precaución para evitar tener demasiadas variables
en el modelo, ya que incluir demasiados términos sobreajustará el modelo. El R 2 ajustadoLa estadística generalmente se usa para estimar si hay demasiados
factores en el modelo, aunque otras métricas también pueden ser apropiadas. El R 2 ajustado es una modi cación del coe ciente de determinación estándar que
tiene en cuenta el número de términos del modelo y el número de muestras, lo que da como resultado un grá co de R 2 (ajustado) que tiene un valor máximo más
allá del cual los términos adicionales dan como resultado un sobreajuste.
La segunda aplicación amplia de MLR es establecer un modelo de predicción para nes analíticos. MLR se puede utilizar para ajustar un modelo predictivo a un
conjunto de datos observados de valores y y x . El modelo establecido puede usarse para predecir el valor y a partir de la x de nuevas muestras. El modelo para
nes de predicción creado a partir de entradas x correlacionadas es adecuado para explorar la relación entre yy x individuales .
El modelo de predicción de MLR se puede utilizar en un procedimiento o método para una prueba de competencia farmacéutica. Por ejemplo, un ltro NIR, que
está diseñado para un uso especí co, como las pruebas de agua en el producto, produce un "espectro" de solo unos pocos puntos de datos.
El desarrollo y la validación pueden seguir los mismos procedimientos que se utilizan con los modelos de variables latentes, como un PLS. Durante el desarrollo
y la validación de un modelo MLR: 1) se debe utilizar el procesamiento previo de datos apropiado; 2) la validación cruzada se utiliza para estimar el rendimiento del
modelo; y 3) se utiliza un conjunto de datos independiente para evaluar el modelo.
Una limitación de MLR es que el rendimiento predictivo del modelo puede verse afectado negativamente cuando las variables modeladas son colineales. El
problema de la colinealidad no es exclusivo de MLR. Se mitiga en el modelado PLS mediante la generación de un nuevo conjunto básico de variables latentes
ortogonales (no colineales) que son combinaciones lineales de las variables originales. Sin embargo, esto no es relevante para los modelos MLR. En los modelos
MLR, puede ser necesaria la selección o transformación de variables (p. Ej., Centrado medio) para evitar o reducir la colinealidad en el conjunto de calibración.
Aunque los modelos MLR tienen algunas métricas de diagnóstico para identi car valores atípicos y muestras altamente apalancadas en la calibración,Prueba
residual T 2 y X ) que ofrecen los modelos PLS durante la predicción de nuevas muestras.
PCR: Este es un enfoque de modelado de dos pasos en el que primero se realiza una PCA en los datos del bloque X para obtener un conjunto básico de PC. Las PC
se usan luego en combinación con los datos y para desarrollar un modelo de regresión para predecir los valores y .
PLS: Este es uno de los algoritmos quimiométricos más utilizados para escenarios de modelado tanto cuantitativos como cualitativos (PLS-DA, ver Herramientas
cualitativas ). La ventaja computacional que ofrece PLS sobre MLR y PCR es que las PC se derivan en el algoritmo PLS utilizando los datos X e y simultáneamente.
Esto a menudo da como resultado modelos predictivos que requieren menos variables latentes en comparación con la PCR, lo que mejora la robustez. PLS es
capaz de manejar relaciones ligeramente no lineales, mientras que PCR y MLR son técnicas de modelado lineal. Además, se puede modelar más de una variable y
utilizando la mismaDatos de bloque X a través de diferentes enfoques algorítmicos. PLS-1 da como resultado un modelo separado para cada variable y . PLS-2
producirá un modelo único capaz de predecir simultáneamente los valores de dos o más variables y . Las ventajas relativas de cada enfoque pueden variar de una
aplicación a otra. Por ejemplo, si es necesario un preprocesamiento matemático diferente para resolver cada componente que se va a predecir, los modelos PLS-1
separados pueden proporcionar un rendimiento mejorado en un solo modelo PLS-2.
Ensayo de forma de dosi cación farmacéutica y / o uniformidad de contenido: El análisis del contenido de API en la forma de dosi cación nal se realiza
comúnmente mediante la medición de una muestra extraída de un compuesto homogéneo de varias unidades de dosi cación individuales (por ejemplo, tabletas o
cápsulas). El resultado cuantitativo se informa como un "contenido promedio" (expresado como porcentaje de la cantidad objetivo de API) para el lote probado. La
uniformidad del contenido puede probarse utilizando un método similar al ensayo, pero las mediciones se realizan en muestras individuales. El resultado
informado se basa principalmente en la variabilidad en los resultados del ensayo entre las unidades de dosi cación individuales analizadas. Ensayo y la
uniformidad de los métodos de contenido están destinados para caracterizar el componente de “mayor” en la muestra (s) en cuestión y se consideran pruebas de
Categoría I por las de niciones establecidas en < 1225 >. En la mayoría de los casos, el analito objetivo será el ingrediente activo en la muestra, aunque también
existen ensayos cuantitativos para otros componentes en todos los compendios.
Para las formas farmacéuticas sólidas de dosi cación, la mayoría de los procedimientos de ensayo se basan en HPLC. El análisis por HPLC lleva mucho tiempo
y, a menudo, implica el uso de grandes volúmenes de disolvente para la fase móvil. Sin embargo, la HPLC es altamente lineal y normalmente se calibra utilizando
matemáticas univariadas (es decir, una variable medida es directa y exclusivamente proporcional a la concentración de la muestra).
[Link] 12/15
24/9/2019 USP-NF
Por el contrario, los métodos alternativos para el ensayo que se basan en la espectroscopía (p. Ej., NIR y espectroscopias Raman de transmisión) ofrecen la
ventaja de una mayor velocidad de análisis y no son destructivos. Sin embargo, en muchos casos, la señal de analito puede no mostrar el mismo grado de
linealidad o señal a ruido que con el método HPLC correspondiente. Además, ninguna variable individual está directa y exclusivamente relacionada con la
concentración de interés. Por esta razón, los modelos multivariados, a menudo basados en la regresión de PLS, se usan comúnmente en procedimientos
espectroscópicos para el ensayo y la uniformidad del contenido.
Para las pruebas de Categoría I, es crucial demostrar la precisión, precisión, especi cidad, linealidad y rango de resultados durante la validación del
procedimiento analítico general. Cada uno de estos aspectos de rendimiento implica consideraciones durante el desarrollo o validación de modelos multivariados
que son distintos de los relacionados con las técnicas univariadas.
La mayoría de los métodos espectroscópicos no son cuantitativos en sentido absoluto. Por ejemplo, los modelos desarrollados utilizando datos NIR o Raman
deben calibrarse en relación con una técnica de referencia primaria (a menudo, espectroscopía HPLC o NMR). Dada la naturaleza no destructiva de NIR y Raman,
es sencillo analizar un conjunto dado de muestras utilizando una de estas técnicas y luego analizar el mismo conjunto de muestras mediante espectroscopía
HPLC o NMR para obtener los valores de contenido de referencia. Este enfoque es típico para los ensayos de formas de dosi cación sólidas, sin embargo, vale la
pena señalar que los valores de referencia para los ensayos de algunas formas de dosi cación, API, polimorfos, o los excipientes pueden derivarse de otras
técnicas, como los datos gravimétricos registrados durante la preparación de la muestra de calibración. Los modelos quimiométricos se desarrollan mediante una
calibración multivariada utilizando los datos espectrales NIR o Raman y los valores de contenido de la técnica de referencia. La precisión se determina utilizando la
diferencia absoluta entre las predicciones del modelo y los valores de referencia. La precisión se determina utilizando solo la desviación estándar de los resultados
del procedimiento, como los análisis replicados de la misma muestra. Por lo tanto, la precisión es una medida de rendimiento para el procedimiento analítico en su
conjunto. El modelo en sí será absolutamente preciso. Es decir, dada la misma entrada espectral, siempre se generará la misma salida numérica. Dicho esto, la
precisión puede verse in uenciada por los detalles del enfoque de modelado quimiométrico (p. Ej., Preprocesamiento, algoritmo de modelado, número de variables
latentes) y, por lo tanto, la precisión debe evaluarse durante el desarrollo del modelo y durante la validación. Es importante tener en cuenta que la precisión de los
modelos quimiométricos no podrá superar la precisión de la técnica analítica de referencia utilizada para calibrar el modelo. Sin embargo,
El rango del método estará determinado por las muestras de calibración que se utilizan para desarrollar el modelo multivariado. De acuerdo con 〈 1225 〉 , se
recomienda que las muestras de calibración de ensayo tengan contenidos de analito que oscilen entre 80% y 120% de la cantidad objetivo. Para evaluar la
uniformidad del contenido, el rango recomendado es del 70% al 130% de la cantidad objetivo. En algunos casos, tanto los resultados del ensayo como los
resultados de uniformidad se pueden obtener del mismo conjunto de mediciones de muestra. El promedio de un número requerido de resultados de análisis de
unidades de dosi cación individuales proporcionará un valor equivalente al parámetro de "contenido promedio". Cálculo del "valor de aceptación" (ver Uniformidad
de las unidades de dosi cación 〈 905 〉) el uso de este resultado medio combinado con la desviación estándar para el mismo conjunto de resultados de
unidades de dosi cación individuales proporcionará una uniformidad del resultado del contenido. En este escenario, se debe utilizar un único conjunto de
calibración que abarque el más amplio de los dos rangos recomendados (70% –130%).
Si no es práctico obtener un rango su cientemente amplio de valores de contenido en muestras de calibración producidas a escala de fabricación comercial, las
muestras de calibración también pueden producirse en una escala más pequeña o en el laboratorio. En este escenario, todos los intentos deben hacerse para
replicar las propiedades físicas representativas de la escala comercial. Además, se debe tener cuidado para veri car que exista un sesgo mínimo entre muestras
de diferentes escalas. Es posible que sea necesario incorporar muestras a escala comercial en el proceso de validación del modelo (y / o procedimiento) para
veri car la exactitud y precisión de los resultados del modelo (y / o procedimiento) frente a cualquier diferencia y / o variabilidad en las propiedades físicas. Los
algoritmos de procesamiento matemático (p. Ej., Normalización, segundas derivadas) deben optimizarse tanto como sea posible durante el análisis exploratorio
de datos inicial (verEjemplos de aplicación cualitativa ) para mitigar el sesgo de predicción resultante de estos factores. Por ejemplo, se sabe que el grosor, el
tamaño de partícula y las diferencias de densidad pueden conducir a cambios de pendiente espectral y compensaciones de línea de base en los espectros NIR.
Dependiendo de qué efecto especí co esté presente, el preprocesamiento seleccionado incorrectamente puede no corregir completamente las diferencias
espectrales, lo que lleva a errores en la predicción.
El ajuste y el rendimiento predictivo de los modelos quimiométricos deben demostrarse mediante la linealidad de un grá co de los resultados del modelo frente
a los valores de referencia o nominales de los analitos objetivo, idealmente utilizando los resultados de un conjunto de muestras de prueba independientes. La
señal analítica sin procesar puede demostrar una relación no lineal con las concentraciones de analito de referencia. Asimismo, se pueden utilizar múltiples
variables latentes para la construcción del modelo quimiométrico. Sin embargo, el aspecto clave del modelo que debe demostrarse que varía linealmente con la
concentración de analito son las salidas del modelo, no las entradas. Una grá ca de los residuos de predicción versus la concentración puede ayudar a revelar
cualquier falta sistemática de ajuste. Cualquier observación de patrones en este grá co de residuos puede indicar la necesidad de revisar 1) el número de
variables latentes incluidas en el modelo, 2) las matemáticas de preprocesamiento, o 3) el tipo de algoritmo utilizado para el modelado.
La demostración de la especi cidad del procedimiento para el ensayo puede basarse en fuentes probables de interferencia o sustitución de material en función
de la comprensión de las propiedades del material de los componentes de la muestra y del proceso de fabricación y / o cadena de suministro. Un enfoque podría
ser veri car que los resultados de análisis bajos que son OOS se obtengan consistentemente para una versión placebo de la unidad de dosi cación. Otro enfoque
podría ser veri car que las unidades de dosi cación de un producto diferente (especialmente uno fabricado en la misma instalación y / o probado en el mismo
laboratorio) den como resultado valores de ensayo que son consistentemente OOS.
Pruebas de límite de impurezas: Se requieren pruebas de rutina para la determinación de impurezas y / o degradantes en productos intermedios, sustancias
farmacológicas a granel y productos farmacéuticos terminados. Las pruebas para este propósito pueden tomar la forma de una prueba de límite (Categoría II, 〈
1225 〉 ).
Típicamente, estas pruebas de impurezas se basan en HPLC u otros métodos (por ejemplo, valoración de Karl Fischer para agua). Estos procedimientos
analíticos son altamente lineales y típicamente se calibran usando matemáticas univariadas. Sin embargo, estos métodos a menudo requieren mucho tiempo e
implican un muestreo manual, lo cual es desventajoso, especialmente para productos que tienen alta potencia o para aquellos con intermedios tóxicos producidos
durante la síntesis API.
Por el contrario, los métodos alternativos para el análisis basado en la espectroscopía (p. Ej., Espectroscopía NIR y Raman) ofrecen la ventaja de una mayor
velocidad de análisis y, lo que es más importante, la eliminación total del muestreo humano debido a la naturaleza no invasiva de la medición. Sin embargo, estas
ventajas generalmente se ven compensadas por una menor sensibilidad (LOD) y una respuesta del sensor potencialmente no lineal en todo el rango de
concentración de analito requerido como el método de referencia correspondiente. Por esta razón, los enfoques multivariados que combinan preprocesamiento
espectral y modelos variables latentes a menudo se emplean en métodos espectroscópicos para estas pruebas de límite. ( 6) Sin embargo, debido a los desafíos
potenciales involucrados en lograr la sensibilidad adecuada para una prueba de límite basada en espectroscopía, se deben emplear estudios cuidadosos de
desarrollo y factibilidad.
Para una prueba de límite en procedimientos de Categoría II, a menudo se usa un conjunto de calibración que contiene concentraciones variadas del analito de
interés para caracterizar el desempeño de dicho procedimiento analítico. Aunque no es obligatorio, estas métricas de rendimiento podrían incluir precisión, rango,
linealidad y otros. El uso de las métricas de rendimiento depende de la naturaleza de la prueba de límite.
Por el contrario, es crítico ilustrar la especi cidad y la LOD durante la validación de una prueba de límite de acuerdo con 〈 1225 〉. Por especi cidad, a menudo
se usa una comparación entre el vector de carga / regresión y un espectro representativo del componente puro de interés. Además, la medición de los efectos de
[Link] 13/15
24/9/2019 USP-NF
la matriz en la determinación del analito dentro del rango especi cado es otro enfoque útil para demostrar que el procedimiento analítico es especí co para el
analito de interés sin impactos de otras variables introducidas en el conjunto de calibración. Además, la evidencia de la especi cidad del método puede
demostrarse mediante el cálculo de una relación de selectividad a partir del conjunto de datos de calibración, de nida como la varianza de los espectros
reconstruidos por el modelo dividida por la de los espectros residuales.
Con respecto a LOD, no existe un estimador generalmente aceptado para los modelos PLS. Una práctica común para determinar LOD implica calcular una
relación señal / ruido espectral. Los resultados del modelo para los análisis replicados de una muestra en blanco pueden usarse para representar el ruido.
Alternativamente, el ruido puede aproximarse utilizando el error estándar de un modelo multivariado. Se sugirieron otros enfoques más elaborados para abordar la
naturaleza multivariante de los modelos PLS. ( 7) Con cualquier enfoque, la LOD estimada debe veri carse experimentalmente utilizando muestras con niveles de
analito en esa concentración o cerca de esa concentración. Debido a que el LOD que se puede obtener mediante un método espectroscópico probablemente sea
más alto que el que se puede obtener mediante un enfoque cromatográ co, es crucial demostrar que el LOD basado en el modelo quimiométrico cumple con los
requisitos del ATP.
Prueba de disolución: La disolución in vitro es una prueba de rendimiento crucial para las formas de dosi cación sólidas que se utiliza para predecir los per les de
liberación de fármaco in vivo durante el desarrollo del fármaco y para evaluar la consistencia lote a lote para nes de control de calidad. Los modelos
quimométricos se pueden usar para predecir la disolución del producto farmacológico a partir de las propiedades relevantes del producto medido, y el método que
utiliza dicho modelo puede establecerse como un procedimiento alternativo. Alternativamente, el per l de disolución se puede modelar a través de varias
respuestas desde diferentes puntos de tiempo en la curva de disolución utilizando modelos individuales.
Los datos de disolución pueden recopilarse como un per l (es decir, una serie de valores obtenidos en varios puntos de tiempo), aunque los criterios de
aceptación pueden basarse en un solo punto de tiempo. Al construir un modelo quimiométrico, es esencial que el modelo pueda predecir todo el per l. El número y
el espacio en el tiempo de los puntos en el per l de disolución variarán según el tipo de producto (por ejemplo, liberación inmediata versus liberación modi cada /
extendida). Un enfoque común es transformar el per l en un valor único, que luego sirve como una variable dependiente (o y, variable de respuesta). Esta variable,
combinada con otra variable medida, se puede utilizar para restaurar el per l de disolución. La transformación se puede lograr ajustando los datos del per l de
disolución en un modelo mecanicista (como una ecuación de velocidad de primer orden o sus variantes) o un modelo empírico (como una función de Weibull).
Después de la transformación, se pueden usar algunas variables (típicamente, dos o tres variables) para representar el per l de disolución. Generalmente, las dos
variables son un factor de velocidad de disolución y un factor de meseta; Puede ser necesaria una tercera variable, como el tiempo de retraso. El factor de
velocidad de disolución, que representa la velocidad de disolución, será la variable dependiente para el modelado. El factor de meseta representa la cantidad nal
del medicamento en la solución, que debería ser igual al contenido del medicamento para la mayoría de los productos. Estos dos factores se utilizan para restaurar
el per l. Por lo tanto, el modelo de predicción de disolución se usa para predecir la velocidad de disolución.
La clave para diseñar un modelo exitoso es de nir las variables de entrada. El factor de meseta se puede obtener a partir de los datos del contenido del fármaco,
mientras que el factor de velocidad de disolución se puede modelar a partir de un conjunto de datos de atributos químicos y físicos del producto o producto
intermedio. El conocimiento necesario de las propiedades sicoquímicas y los conceptos de ingeniería se deben utilizar para identi car y justi car las entradas
relevantes que tienen un impacto potencial en la disolución del producto. Esto generalmente implica una evaluación de riesgos y un paso adicional de recopilación
de datos, como un estudio DoE a pequeña escala.
Existen dos enfoques para de nir muestras en la calibración del modelo: muestras por lotes y muestras de dosis unitarias individuales. Para el enfoque de lote
de muestra, un lote de producto se trata como una muestra, y las variables de entrada son los medios de atributo del lote. El enfoque de la dosis unitaria individual
es medir los atributos de las dosis unitarias individuales (como la medición de NIR en las tabletas individuales). Las variables de entrada de ambos enfoques
pueden complementarse con otras propiedades de la materia prima según lo justi quen los atributos críticos de calidad.
La validación del método de predicción de disolución basado en el modelo podría ser diferente de la validación típica del método de disolución de HPLC,
dependiendo del enfoque especí co utilizado. El método de disolución de HPLC pone más énfasis en la precisión, ya que la disolución se trata como un método de
Categoría III en 〈 1225 〉 .
En el enfoque de muestreo por lotes, el método basado en el modelo trata la disolución como una propiedad del lote en lugar de una propiedad de tabletas
individuales, y la precisión es el foco de la validación o veri cación del método. Por ejemplo, cada lote forma una muestra, y no es realista tener un gran conjunto
de muestras de validación. Este enfoque genera un per l único para un lote, y el resultado en un determinado momento puede usarse para evaluar la calidad del
lote del producto. La evaluación de la variabilidad debe estar alineada con los criterios de Disolución 〈 711 〉. La variabilidad del resultado de disolución nal
puede evaluarse analizando las variaciones de los insumos. Las posibles formas de evaluar la variación de la muestra (lote) incluyen el análisis de la variación de
entradas, simulaciones y dividir un lote en múltiples subgrupos.
En el enfoque de dosis unitarias individuales, el método basado en el modelo evalúa las unidades de dosi cación individuales. Si se prueban muchas tabletas,
esto se convierte en un gran n situación en la que los criterios de aceptación en < 711 > se deben usar con precaución. El quimiométrico puede proponer criterios
de aceptación siempre que se demuestre que estos criterios (por simulación u otros medios) tienen criterios de aprobación equivalentes o más estrictos que los
de 〈 711 〉. En la validación o veri cación del método, es deseable tener al menos una muestra que muestre baja disolución (cerca o por debajo de la
especi cación), y el método basado en el modelo quimiométrico debe demostrar la capacidad de distinguir esta muestra de baja disolución de las muestras
normales.
GLOSARIO
Muchos términos quimiométricos comunes se han de nido en el texto de este capítulo. Aquí se de nen algunos términos adicionales y sirven como referencia
para su uso en el texto. Para obtener una descripción más completa, consulte los textos que guran en el Apéndice, Fuentes de información adicionales .
Modelo de calibración: una expresión matemática utilizada para relacionar la respuesta de un instrumento analítico con las propiedades de las muestras, o para
capturar la estructura subyacente de un conjunto de datos de calibración.
Conjunto de calibración: recopilación de datos utilizados para desarrollar una clasi cación o modelo quimiométrico.
Derivados: el cambio de intensidad con respecto a la variable de medición (es decir, abscisa). Los derivados son útiles para eliminar las compensaciones de la línea
de base (constante o lineal) debido a las propiedades de la muestra, o para resaltar pequeños cambios en una señal, ayudando a mejorar la selectividad y la
sensibilidad (por ejemplo, una espectroscopía y un pico cromatográ co con un pico de hombro adyacente).
Validación interna: la aplicación de estadísticas de muestreo como la validación cruzada. Los subconjuntos del conjunto de datos de calibración están sujetos a una
variedad de procesos estadísticos para identi car qué modelo de calibración se ajusta mejor a los datos disponibles. Cada modelo se caracteriza por un parámetro
estadístico. Para la validación cruzada, todo el conjunto de datos de las muestras se divide en muestras individuales o grupos de muestras, que se eliminan
individualmente del resto de las muestras y se prueban como incógnitas contra un modelo de calibración construido utilizando el resto de las muestras. La estadística
característica es el error estándar de validación cruzada (SECV).
Matriz: una estructura de datos bidimensional compuesta de columnas y las utilizadas para organizar entradas o salidas durante los análisis quimiométricos. La
práctica común es que cada la corresponda a una muestra individual y que cada columna corresponda a una variable individual.
Conjunto de validación: El conjunto de datos que desafía los atributos de rendimiento del modelo. El conjunto de datos de validación es independiente del conjunto de
datos de entrenamiento, aunque las pruebas en el conjunto de datos de entrenamiento brindan una visión optimista del rendimiento y, por lo tanto, permiten la iteración
[Link] 14/15
24/9/2019 USP-NF
del preprocesamiento y el ajuste del modelo hasta que esta vista optimista cumpla con las expectativas. La validación o validación cruzada es necesaria para medir
adecuadamente el rendimiento del modelo. El rendimiento del modelo con el conjunto de datos de validación siempre será igual o peor que su rendimiento con el
conjunto de datos de entrenamiento. Si no se cumplen los atributos de rendimiento, entonces el quimiométrico debe evaluar si el modelo ajusta o sobreajusta los
datos y si se necesitan iteraciones del modelo para cumplir con la tasa de error aceptable. Si estos esfuerzos fallan, se recomienda realizar una copia de seguridad de
un paso, alterar las condiciones de preprocesamiento y volver a realizar la misma tarea.
APÉNDICE
Se han escrito muchos libros sobre el tema de la quimiometría y el análisis multivariado. Pueden encontrarse varios términos que no se encuentran en el glosario
en esta breve lista de fuentes de información adicionales.
Massart DL, Vandeginste BGM, Buydens LMC, De Jong P, Lewi PJ, Smeyers-Verbeke J, eds. Handbook of Quimiometría y Qualimetrics: Parte A . 1ª ed.
Amsterdam: Elsevier Science BV; 1997.
Vandeginste BGM, Rutan SC, eds. Handbook of Quimiometría y Qualimetrics: Parte B . 1ª ed. Amsterdam: Elsevier Science BV; 1998.
Mocak J. Chemometrics en medicina y farmacia. Nova Biotechnologica et Chimica . 2012; 11 (1): 11-25.
Singh I, Juneja P, Kaur B, Kumar P. Aplicaciones farmacéuticas de técnicas quimiométricas. ISRN Anal Chem . 2013; ID del artículo 795178.
[Link] . Consultado el 25 de mayo de 2016.
Marrón S, Tauler R, Walczak B, eds. Quimiometría integral: análisis de datos químicos y bioquímicos. 1ª ed. Amsterdam: Elsevier Science BV; 2009
Varmuza K, Filzmoser P. Introducción al análisis estadístico multivariante en quimiometría. Boca Ratón, FL: CRC Press (Taylor & Francis Group); 2009
REFERENCIAS
1. Massart DL, Vandeginste BGM, Buydens LMC, De Jong P, Lewi PJ, Smeyers-Verbeke J, eds. Handbook of Quimiometría y Qualimetrics: Parte A . 1ª ed.
Amsterdam: Elsevier Science BV; 1997.
2. Massart DL, Vandeginste BGM, Deming SM, Michotte Y, Kaufman L. Chemometrics: A Textbook . 1ª ed. Amsterdam: Elsevier Science BV; 1988.
3. CD marrón, Davis HT. Curvas de características operativas del receptor y medidas de decisión relacionadas: un tutorial. Chemometr Intell Lab Syst . 2006; 80:
24–38.
4. Organización Mundial de la Salud. Pautas generales para metodologías de investigación y evaluación de la medicina tradicional. Ginebra, Suiza: Organización
Mundial de la Salud; Abril de 2000. [Link] . Consultado el 25 de mayo de 2016.
5. Administración de Alimentos y Medicamentos. Orientación para la industria: productos farmacéuticos botánicos. Rockville, MD: Administración de Alimentos
y Medicamentos; Junio de 2004. [Link] . Consultado el
25 de mayo de 2016.
6. Lambertus G, Shi Z, Forbes R, Kramer TT, Doherty S, Hermiller J, et al. Aplicación en línea de espectroscopía de infrarrojo cercano para controlar los niveles de
agua en partes por millón en un proceso de destilación a escala de fabricación. Appl Spectrosc . 2014; 68 (4): 445–457.
7. Allegrini F, Olivieri AC. Enfoque consistente con IUPAC al límite de detección en la calibración de mínimos cuadrados parciales. Anal Chem . 2014; 86: 7858–
7866.
Información Auxiliar - Por favor, compruebe si su pregunta en las FAQ antes de contactar con la USP.
Información de la página:
USP42-NF37 - 7249
USP41-NF36 - 6831
USP40-NF35 - 963
[Link] 15/15