Está en la página 1de 21

Impreso el: vie. sept. 16 2022, 02:20:35 p. m.

(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES


Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
1

á1039ñ QUIMIOMETRÍA
1. INTRODUCCIÓN
1.1 Alcance y Propósito
1.2 Resumen del Documento
1.3 Audiencia
2. CONCEPTOS DE QUIMIOMETRÍA
3. CICLO DE VIDA DEL MODELO
3.1 Desarrollo del Modelo: Calibración
3.2 Validación del Método
3.3 Monitoreo del Modelo
3.4 Actualización del Modelo y Transferencia del Método
3.5 Revalidación
4. APLICACIONES DE LA QUIMIOMETRÍA
4.1 Cualitativas
4.2 Cuantitativas
GLOSARIO
APÉNDICE
REFERENCIAS

l
1. INTRODUCCIÓN

ia
1.1 Alcance y Propósito
Este capítulo provee guías con respecto a las prácticas científicas adecuadas para el análisis quimiométrico y la interpretación
fic
de datos multivariantes para aplicaciones farmacopeicas e industriales. Las prácticas quimiométricas establecidas, que incluyen
calibración y validación, para aplicaciones que emplean distintas tecnologías analíticas (p .ej., espectroscópicas,
cromatográficas, entre otras) y para diferentes propósitos (p. ej., identificación por huella dactilar, identificación, clasificación,
predicción de propiedades, entre otros) se tratan mediante un enfoque de ciclo de vida. Se describen aplicaciones cualitativas y
cuantitativas.
Este capítulo trata la forma en que se asegura la calidad y el desempeño del método mediante la gestión apropiada del ciclo
de vida de un modelo basado en quimiometría, que incluye selección de algoritmos apropiados, calibración, validación,
verificación, transferencia y etapas de mantenimiento continuas.
O

Este capítulo puede considerarse suplementario a otros capítulos de guías, tales como Datos Analíticos—Interpretación y
Tratamiento á1010ñ, los cuales tratan principalmente el análisis y la interpretación de datos univariantes.
[NOTA—No se debe inferir que las herramientas de análisis multivariante mencionadas en este capítulo constituyen una lista
exhaustiva. Se pueden usar otros modelos igualmente válidos a discreción del fabricante y de los demás usuarios de este
capítulo.]

1.2 Resumen del Documento


El siguiente mapa conceptual (Figura 1) provee una representación visual del contenido de este capítulo. Este diagrama tiene
el propósito de ayudar al lector mostrando la forma en que se relacionan entre sí los diversos conceptos y las prácticas de
quimiometría.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 1/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
2

l
ia
Figura 1. Resumen del documento.

1.3 Audiencia
Este capítulo provee instrucciones para el técnico en quimiometría que desarrolla modelos para una aplicación dada usando
fic
técnicas quimiométricas y para el analista que opera el modelo dentro de un procedimiento analítico. El técnico en quimiometría
encontrará apoyo con respecto a la selección de algoritmos para una aplicación dada y guías para asegurar el desempeño del
modelo durante todo su ciclo de vida. El analista obtendrá información relacionada con las fortalezas y limitaciones de las
técnicas quimiométricas con respecto al uso para sustentar sus aplicaciones.

2. CONCEPTOS DE QUIMIOMETRÍA
O

La quimiometría se definió originalmente como la disciplina química que usa métodos matemáticos, estadísticos, entre otros,
que emplean la lógica formal para lograr dos objetivos: 1) diseñar o seleccionar experimentos y procedimientos de medición
óptimos; y 2) proveer la máxima cantidad de información química pertinente mediante el análisis de datos químicos. (1,2) Más
específicamente, la “quimiometría” se ha convertido en la aplicación de métodos multivariantes para el análisis de datos
químicos o relacionados, aunque los algoritmos en cuestión se pueden usar para extraer información casi de cualquier dato
medido, independientemente del origen—químico, físico, biológico, farmacéutico, entre otros. Este capítulo no se enfoca en
el desarrollo de procedimientos o métodos óptimos ni en la aplicación de diseño de experimentos, sino en el análisis de datos
multidimensionales recolectados a partir de un instrumento analítico, tal como datos espectroscópicos y cromatográficos. Un
conjunto de datos multivariantes (es decir, datos multivariantes obtenidos a partir de un número de muestras u objetos) forma
una tabla o matriz de datos m × n. La matriz se representa mediante X, siendo m el número de muestras u objetos y n el número
de variables medidas para cada muestra (Figura 2).
Por consiguiente, las técnicas de análisis de datos consideradas en este capítulo serán de naturaleza multivariante.
Dependiendo del propósito del tratamiento de los datos, se aplicarán diferentes herramientas. Inicialmente, las técnicas de
manipulación de datos pueden dividirse en dos categorías: no supervisadas y supervisadas. Las herramientas no supervisadas
usan únicamente la matriz X para extraer información, pero en el análisis de datos supervisado las muestras también se describen
mediante un vector y, además de la matriz X. Esta es una tabla m × 1 que contiene información de propiedades para cada
muestra (p. ej., concentración, actividad de inhibición de enzimas). Las técnicas de análisis de datos supervisadas se usan para
construir un modelo entre la matriz X y el vector y. En las ecuaciones que se usan en los modelos quimiométricos, los datos
describen empíricamente sus varianzas subyacentes, tanto para propósitos supervisados como no supervisados. Las diferentes
técnicas o herramientas aplicadas para los distintos propósitos se tratan con más detalle en 4. Aplicaciones de la Quimiometría.
La técnica no supervisada de uso más común es el análisis de componentes principales o PCA, por sus siglas en inglés, y la
supervisada más común es la regresión de mínimos cuadrados parciales o PLS, por sus siglas en inglés. Por su naturaleza, estas
técnicas son proyecciones latentes (ver la Figura 2) que transforman un gran número de variables X potencialmente
correlacionadas, tales como intensidades a diferentes tiempos de retención o a distintas longitudes de onda, en un número más
pequeño de variables no correlacionadas (componentes principales o variables latentes), dentro de lo posible. Tal como se
observa en la Figura 2, el espacio multi dimensional de n variables original se transforma en un espacio de dos componentes
principales. Cuando las muestras del espacio original de datos se proyectan en este espacio de menores dimensiones, las
coordenadas resultantes de la muestra se denominan puntuaciones (scores) (T). La visualización de las puntuaciones junto con
dos o más componentes principales forma una gráfica de puntos que contiene información sobre las relaciones entre distintas
muestras. Las cargas (P) son una combinación lineal de las variables originales y de los coeficientes o pesos usados en esta
combinación lineal. Las cargas para variables latentes específicas también pueden graficarse en lo que se denomina una gráfica

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 2/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
3

de cargas. La gráfica de cargas contiene información sobre la importancia relativa de las variables originales. Tanto las gráficas
de puntos como las gráficas de cargas permiten comprender y visualizar la estructura subyacente de los datos (es decir, la
presencia de grupos/agrupamientos y/o exclusiones) dentro de un espacio dimensional reducido. La matriz de variables (E)
producida por el modelo se define como el error residual. La información de la muestra a lo largo de los ejes de la varianza
común es capturada por los componentes principales del modelo. La varianza que no es tenida en cuenta por dichos
componentes principales (error residual) se deja en cada variable para cada muestra, formando la matriz residual (E).

l
ia
fic
O

Figura 2. Representación esquemática de técnicas de proyección latente.

3. CICLO DE VIDA DEL MODELO

Los modelos quimiométricos que forman parte de procedimientos analíticos se desarrollan para cumplir un propósito
predefinido. Por lo general, el propósito previsto es una declaración que describe lo que se va a medir, el formato de los
resultados y el nivel de desempeño requerido con el resultado, y debe estar de acuerdo con el perfil analítico esperado. El perfil
analítico esperado puede especificar los criterios de desempeño para las características claves de los resultados del procedimiento
analítico y/o las probabilidades de riesgo en las decisiones que se esperan al usar el procedimiento analítico rutinariamente.
La calibración del modelo abarca un proceso iterativo que implica la selección del conjunto de muestras para uso en el
desarrollo del modelo quimiométrico, la selección de un algoritmo quimiométrico apropiado con el algoritmo de pre
procesamiento necesario, y la evaluación del desempeño del modelo de acuerdo con los parámetros predefinidos para el perfil
analítico esperado. Durante la etapa de validación, se demuestra el desempeño del método para cumplir con el propósito
previsto y el perfil analítico esperado. El conocimiento adquirido durante la calibración y evaluación de los parámetros
específicos y sus correspondientes límites se usa para evaluar el desempeño y definir un protocolo de mantenimiento del método
que se usará para la etapa de monitoreo, antes de la implementación para uso rutinario. Los cambios que afecten el desempeño
del modelo deberían resultar en un conjunto definido de actividades para actualizarlo. Durante el ciclo de vida, también se
podría necesitar una actualización del modelo al realizar una transferencia del método a otro sitio de fabricación, o de un
equipo a otro. El grado de la revalidación será definido por la magnitud de la actualización del modelo. La Figura 3 muestra un
diagrama de flujo de lo expuesto.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 3/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
4

l
ia
fic
O

Figura 3. Diagrama de flujo del ciclo de vida de un modelo quimiométrico.


https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 4/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
5

3.1 Desarrollo del Modelo: Calibración


El objetivo de la calibración multivariante es desarrollar un modelo que vincule variables predictoras (p. ej., valores de
absorbancia para el intervalo de longitudes de onda espectrales) con variables de respuesta, tales como concentraciones de
ciertos compuestos químicos. Por lo general, las variables de respuesta son más difíciles o costosas de obtener que las variables
predictoras. La calibración es una etapa crítica, debido a que los detalles del modelo final se ven influenciados por muchos
factores, que incluyen la selección de muestras, las variables, un algoritmo y las opciones de pre procesamiento, así como la
calidad del método de referencia inicialmente usado (cuando sea aplicable) para medir las variables de respuesta. Por ende, no
siempre se sigue el orden aquí descripto para los componentes individuales de la calibración del modelo, y podrían repetirse
etapas individuales de forma iterativa dependiendo de los resultados obtenidos en las etapas subsiguientes. Para lograr un buen
desempeño, el modelo de calibración debe ser robusto frente a las variaciones esperadas.

SELECCIÓN DE LA MUESTRA
La selección de muestras para el modelo de calibración es una etapa crítica para el desarrollo del modelo. Se deben usar
fundamentos científicos sólidos para seleccionar las muestras representativas de calibración con respecto a dos criterios: el tipo/
intervalo de variabilidad, y el número de muestras. Las muestras se deben seleccionar de modo que el intervalo de sus valores
de respuesta abarquen todo el intervalo esperado de variación de respuesta para la aplicación prevista. El intervalo y tipo de
variación en los predictores pueden incluir la variabilidad relevante de factores distintos a la propiedad que se está prediciendo,
tales como el tamaño de partícula, el uso de diferentes lotes de ingredientes para la preparación de la muestra, la variación
entre analistas y días, y otras fuentes de variación. En el entorno de fabricación, se deben usar de muestras que representen
partidas dentro y fuera de la especificación. Se recomienda decidir los factores y la variabilidad que serán incluidos en las
muestras de calibración considerando los riesgos. Uno de los métodos más comunes consiste en realizar un análisis de los efectos

l
en modo de falla (FMEA, por sus siglas en inglés) o un estudio de viabilidad para evaluar los efectos de dichos factores.
A medida que aumenta la complejidad del modelo de calibración (es decir, el tipo y el intervalo de variabilidad en las variables

ia
predictoras y de respuesta), también se incrementa el número de muestras que se requieren. En general, cuanto mayor sea el
número de muestras, mayor será la probabilidad de lograr los resultados correctos en todo el intervalo de calibración. Asimismo,
la distribución de las muestras de calibración también merece atención. Se prefiere una distribución uniforme de las muestras,
aunque no se requiere para todos los casos, dependiendo de los aspectos específicos de la aplicación. Se debe justificar el
número y la distribución de las muestras de calibración con fundamentos científicos sólidos. Cuando la obtención de nuevas
fic
muestras de calibración se vuelve costosa, se usan comúnmente enfoques de diseño experimental o bases de datos históricas
como alternativas para construir modelos de calibración.
Los datos obtenidos a partir de muestras seleccionadas (es decir, un número seleccionado de filas de la matriz X de la Figura
2) deben someterse a clasificación adicional. Los análisis de datos exploratorios (ver Ejemplos de Aplicación Cualitativa) pueden
ser valiosos para entender la estructura de los datos, detectar potenciales conjuntos o grupos de muestras, identificar
exclusiones y seleccionar muestras representativas. Las exclusiones pueden detectarse usando parámetros que describan qué
tan bien se ajusta un modelo de observación dado dentro del espacio del modelo (p. ej., T2 de Hotelling para métodos de
variables latentes) y la distancia al subespacio del modelo (p. ej., residual para métodos de variables latentes).
O

PROCESAMIENTO PREVIO
El objetivo del procesamiento previo es implementar transformaciones matemáticas en las columnas de la matriz X (Figura
2) para amplificar la variación de interés dentro del conjunto de datos y atenuar la variación no pertinente tanto para las variables
como para las observaciones. El procesamiento previo es un paso inicial importante para la mayoría de los análisis de datos y
se puede aplicar de manera iterativa con la selección de variables. La comprensión de los datos de la muestra y/o de la técnica
analítica subyacente debe guiar la selección inicial de opciones de procesamiento previo. También se puede obtener información
que sirva para guiar el procesamiento previo a través de un análisis preliminar de los datos multivariantes (ver Ejemplos de
Aplicación Cualitativa). Las selecciones iniciales pueden modificarse o perfeccionarse dentro del contexto de la subsiguiente
optimización del desempeño del modelo. Este proceso es casi siempre cíclico en la práctica; la comparación entre diversas
estrategias de procesamiento previo lleva a una mejor comprensión de los datos, lo que puede mejorar aún más el
procesamiento previo para maximizar la relación señal-ruido.
Sin embargo, existen dos puntos en los que hay que tener cuidado. El procesamiento previo debe usarse de forma cuidadosa
debido a lo siguiente: 1) un procesamiento previo excesivo puede atenuar la señal y aumentar variaciones indeseadas; y 2)
muchos métodos quimiométricos pueden admitir datos con ruido y visualmente poco atractivos. Además, en algunos casos
donde el mismo instrumento realiza el procesamiento previo, puede ser imposible saber exactamente qué modificaciones han
sufrido los datos, debido a que muchos algoritmos usados por proveedores de instrumentos están patentados. El técnico en
quimiometría debe ser cuidadoso y estar informado de cualquier procesamiento previo aplicado a los datos que se van a utilizar.
El procesamiento previo puede ser un tratamiento matemático de los datos tales como transformación, normalización o
algún otro. El procesamiento previo de muestras (filas de matriz de datos) puede incluir centrado alrededor de la media o la
mediana, ajustes de escala y otros procedimientos. Las variables (columnas de la matriz de datos) también pueden ser
transformadas, alineadas (p. ej., recorte de tiempo de corrida (time warping)) o ajuste de escala (p. ej., ajuste automático de
escala). El centrado alrededor de la media es probablemente el método de procesamiento previo más común. Por ejemplo, el
uso de datos centrados alrededor de la media en el modelo de regresión elimina el término de ordenada al origen, lo que resulta
en un modelo potencialmente simplificado. Asimismo, es común eliminar la contribución lineal o polinomial de la línea base
(p. ej., corrección de sesgo/deriva), o aplicar técnicas de filtración digital, tales como derivadas, transformada de ondícula, filtro
de Fourier o filtro de Savitzky-Golay para eliminar o atenuar las desviaciones lineales y la contribución del ruido. Normalización
es el ajuste de la escala de las observaciones, lo que da a los objetos un impacto similar sobre la creación del modelo al: 1) tener
en cuenta factores que tienen impacto sobre la medición y que son distintos del analito de interés (p. ej., la variabilidad de
longitud de paso de la muestra ocasionada por el tamaño de partícula, el volumen de la muestra, o el espesor de la tableta);

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 5/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
6

2) corregir por variación en la concentración o masa de un analito para modelos cualitativos; y 3) atenuar artefactos de la
medición (p. ej., deriva del desempeño del instrumento). Cuando las variables están altamente correlacionadas, como en las
mediciones espectroscópicas, la normalización se realiza mediante variación normal estándar (SNV, por sus siglas en inglés) y
corrección multiplicativa de la dispersión (multiplicative scatter correction MSC, por sus siglas en inglés). A menudo, estas
normalizaciones se llevan a cabo en cada una de las muestras (filas).
Para los casos en los que las variables tienen unidades, sensibilidades o relaciones señal-ruido diferentes, por lo general se
aplica un ajuste de escala de las variables para corregir dichos factores; por lo general se usa el ajuste automático de la escala,
pero el analista puede considerar otras alternativas, tales como usar las desviaciones estándar combinadas de determinaciones
repetidas de mediciones como parámetros de ajuste de escala/ponderación. Estas normalizaciones por lo general se llevan a
cabo en cada una de las variables (columna). No existen guías para decidir qué enfoque de procesamiento previo es el mejor
para un conjunto de datos dado. A menudo se trata de un proceso de ensayo y error a medida que el analista aplica diversas
técnicas de procesamiento para encontrar la mejor. También se pueden aplicar combinaciones de técnicas de procesamiento
previo a un conjunto de datos dado.

SELECCIÓN DE ALGORITMOS
Se han probado muchos algoritmos diferentes en las aplicaciones quimiométricas, con distintos grados de éxito. Los métodos
incluyen algoritmos relativamente simples, tales como regresión lineal multivariante y sus modificaciones (regresión
ponderada o robusta); los ampliamente usados enfoques de variables latentes, tales como regresión de componentes
principales y regresión de mínimos cuadrados parciales; métodos locales, tales como método de k-vecinos más cercanos
(k-nearest neighbors o kNN); y los métodos más sofisticados, tales como máquinas de vector de soporte (SVM, por sus siglas
en inglés) y redes neuronales artificiales. Se pueden encontrar más detalles sobre las herramientas algorítmicas de uso más
común en 4. Aplicaciones de Quimiometría. En general, es difícil predecir qué algoritmo producirá los mejores resultados para
un conjunto de datos particular. La multitud de elecciones para la selección de la muestra, la selección de variables y la

l
normalización y el procesamiento previo de datos—así como la combinación de parámetros de ajuste para cada algoritmo—

ia
pueden afectar significativamente el desempeño del modelo de calibración. En ocasiones, la elección del algoritmo se repite
incluso con las etapas de selección de muestra, la selección de variables y el procesamiento previo. Por ende, la elección del
algoritmo puede depender de la tarea en curso, de la disponibilidad de software y de la familiaridad del experto con el método.
Otro aspecto a considerar es que algunos algoritmos proveen herramientas útiles para diagnósticos e interpretación—tales
como gráficas de regresión de mínimos cuadrados parciales de puntuaciones, cargas y coeficientes, mientras que en ocasiones
se hace referencia a otros como “cajas negras”, debido a que sus funcionamientos internos pueden ser difíciles de interpretar
fic
(p. ej., redes neuronales).
Es importante tener en cuenta que muchos algoritmos son de naturaleza empírica. Casi siempre, se puede desarrollar algún
tipo de modelo. Por ende, los resultados deben evaluarse de forma crítica para asegurar que los resultados generados por el
modelo son pertinentes y correctos, y que el desempeño del modelo cumple con los requisitos del perfil analítico esperado.
Esto se puede lograr mediante validación cruzada y, en última instancia, mediante validación con el conjunto de datos de prueba
independientes que no se usó para desarrollar el modelo.
O

SELECCIÓN DE VARIABLES
El propósito previsto de la selección de variables es identificar un subconjunto de variables predictoras (es decir, la columna
de la matriz X en la Figura 2) que puede mejorar el desempeño del modelo. La justificación subyacente de la selección de
variables en quimiometría se basa en dos aspectos. Primero, algunas variables predictoras pueden ser irrelevantes para el
propósito esperado e, idealmente, estas variables deben minimizarse o eliminarse del modelo. Por ejemplo, solo longitudes de
onda específicas del intervalo total generado por el espectrómetro pueden contener información relevante para la variación en
los niveles de la variable de respuesta. La selección de variables para este propósito debe basarse primeramente en principios y
experiencia. La inclusión de predictores no relacionados, tales como regiones espectrales irrelevantes, podría degradar
potencialmente el desempeño del modelo. Se puede usar un número menor de variables a partir de los datos procesados
previamente para lograr un desempeño superior, tales como exactitud, precisión y robustez.
La segunda parte de la justificación para la selección de variables es evitar el sobreajuste. El sobreajuste es la situación en la
que el modelo no solo describe la variabilidad pretendida en los datos, sino también incluye el ruido en el modelado. Esto último
tiene un efecto negativo sobre las propiedades predictivas del modelo. Por lo general, en quimiometría el número de variables
predictoras (cientos o miles) es mayor que el número de observaciones (docenas a cientos). A continuación, se presentan dos
estrategias generales para manejar el problema del sobreajuste. Una estrategia es seleccionar de forma manual o computacional
solamente un subconjunto de variables predictoras y usarlas para el desarrollo del modelo. Las variables predictoras pueden
seleccionarse de forma manual (p. ej., seleccionando ciertas longitudes de onda espectrales características de un compuesto
dado) o usando una variedad de métodos estadísticos de selección, tales como regresión paso a paso (o escalonada), y usando
mediciones estadísticas univariantes simples, tales como la prueba F, la prueba t, el coeficiente de correlación, las relaciones
señal-ruido, los umbrales de intensidad, la importancia de las variables en la medida de proyección o los algoritmos genéticos.
Los enfoques multivariantes pueden usar cargas de variables de componentes principales, discriminantes lineales o coeficientes
de regresión para definir las características claves.
En la segunda estrategia para evitar el sobreajuste, no se seleccionan variables. Los métodos de variables latentes—regresión
de mínimos cuadrados parciales y regresión de componentes principales— por su naturaleza son capaces de dar selectivamente
un peso mayor a las variables predictoras importantes y quitar peso a las menos importantes. Estas nuevas variables latentes, o
componentes, se representan como combinaciones lineales de las variables observadas. Si se combinan con la selección de
variables, el desempeño de los modelos de variables latentes podría potencialmente mejorarse, debido a que algunas variables
predictoras solo contienen ruido, lo cual perturba el proceso de construcción del modelo.
Seleccionar un subconjunto de las variables predictoras que son informativas reducirá el tamaño del conjunto de datos,
proveerá eficiencia computacional y obtendrá mejores modelos para el procesamiento posterior. Una advertencia sobre dichas

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 6/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
7

aplicaciones, tales como autentificación consiste en que la eliminación de las variables predictoras que están desprovistas de
información puede impedir el reconocimiento de adulterantes u objetos novedosos que tienen características de estas variables
predictoras excluidas.

VALIDACIÓN CRUZADA
En la práctica, la validación cruzada se usa para obtener un estimado del desempeño del modelo y para ajustar los parámetros
de un algoritmo (p. ej., el número de componentes para la regresión de mínimos cuadrados parciales). Esto se logra mediante
la división repetitiva de los datos (es decir, el número de filas de la matriz X en la Figura 2) en un conjunto de calibración, el
cual se usa para desarrollar el modelo, y un conjunto de análisis (o conjunto de validación interna), que se usa para hacer
predicciones y comparar los valores reales y predichos.
El enfoque de validación cruzada n-iteraciones se usa comúnmente para dividir los datos en n subconjuntos para realizar la
validación cruzada. En cada una de las n iteraciones, se usan n−1 subconjuntos para desarrollar el modelo, el cual se usa para
predecir la nma división de datos remanente. El procedimiento se repite hasta que se predicen todos los subconjuntos.
Posteriormente, el error entre los valores de referencia y los predichos durante la validación cruzada se registra como la raíz
cuadrada del error cuadrático medio de la validación cruzada (RMSECV, por sus siglas en inglés). Existen múltiples enfoques
para la división de datos en n segmentos. Independientemente de la forma en que se decida dividir los datos de calibración
originales, un aspecto que merece atención es que cualquier partida usada en la calibración y en la validación cruzada no debe
considerarse o reusarse como un conjunto de datos independiente para el método de validación. La forma más sencilla se
denomina validación cruzada dejando uno fuera (LOOCV, por sus siglas en inglés), donde las muestras se eliminan una por vez.
La validación cruzada dejando uno fuera puede implicar cálculos computacionales intensos; sus resultados pueden verse
afectados en gran medida por valores aberrantes y son menos uniformes que los resultados de otras formas de validación
cruzada. También es posible dividir los datos de acuerdo con la información previa, tal como un subconjunto por partida dado
el conjunto de datos históricos disponibles para múltiples partidas. Otra opción para validación cruzada es el método de

l
muestreo con reemplazamiento (bootstrapping), en el que en cada iteración se muestrea de forma aleatoria cierta proporción

ia
de datos para crear un conjunto de calibración, mientras que los datos remanentes se usan como conjunto de análisis. El
procedimiento se repite muchas veces (por lo regular 100 o más ciclos) para obtener un estimado estable del error de predicción.
La medición de error es el factor de mérito de uso más común para caracterizar el desempeño del modelo durante la validación
cruzada. El propósito previsto del método determina la naturaleza de los errores, tal como la tasa de clasificación errónea
(misclassification rate) para métodos cualitativos y el error de predicción para métodos cuantitativos. Independientemente de
las aplicaciones cualitativas o cuantitativas, comúnmente se usan dos medidas para caracterizar el error dentro de la validación
fic
cruzada: la raíz cuadrada del error cuadrático medio de calibración (RMSEC, por sus siglas en inglés) y la raíz cuadrada del error
cuadrático medio de la validación cruzada (RMSECV, por sus siglas en inglés). La raíz cuadrada del error cuadrático medio de
calibración se calcula para las muestras cuando se dejan en la calibración, el cual se reduce monótonamente con cada factor
adicional (es decir, componente principal) agregado al modelo. En comparación, la raíz cuadrada del error cuadrático medio
de la validación cruzada que se calcula durante la validación cruzada se reducirá hasta que se agregue el último factor
significativo (es decir, que contenga una señal relevante). Posteriormente, a medida que se incorpora cada factor adicional en
el modelo, la raíz cuadrada del error cuadrático medio de la validación cruzada aumentará, lo que indica que los datos de
O

calibración están siendo sobre ajustados. Se hace referencia a la gráfica de la raíz cuadrada del error cuadrático medio de
calibración y/o la raíz cuadrada del error cuadrático medio de la validación cruzada versus el número de factores en el modelo
como gráfica de la suma de los cuadrados de los errores residuales de predicción. En general, la mejor práctica es evitar la
inclusión de factores más allá del mínimo de la línea de la gráfica de la raíz cuadrada del error cuadrático medio de la validación
cruzada. Además, la correlación entre los valores predichos y observados (p. ej., R2) también se usa comúnmente para evaluar
el desempeño de los métodos cuantitativos. Finalmente, los resultados de la validación cruzada son significativos únicamente
cuando los conjuntos de calibración y análisis son comparables (es decir, se trazan a partir de la misma población). De otro
modo, la extrapolación puede llevar a predicciones incorrectas.

3.2 Validación del Método


El objetivo de la validación es demostrar que el desempeño de un método es adecuado para el propósito previsto. La
validación de un modelo y la validación de un método son dos actividades distintas. La validación del modelo por lo regular
implica el uso de un conjunto de validación interna o validación cruzada para evaluar los parámetros apropiados de un modelo
mediante el error e incertidumbre de la identificación o la cuantificación. Los parámetros a menudo incluyen el intervalo de las
variables, el tipo de procesamiento previo, la clasificación del modelo, y la elección del algoritmo, entre otros. Estas actividades
han sido tratadas en detalle en 3.1 Desarrollo del Modelo: Calibración. En comparación, la validación del método debe basarse
en un conjunto de validación externa totalmente independiente y debe seguir los requisitos de validación descritos en Validación
de Procedimientos Farmacopeicos á1225ñ, de acuerdo con la categoría del tipo de método. El criterio de aceptación debe
justificarse para el propósito previsto. Durante el ciclo de vida, es necesaria la revalidación del método después de la
transferencia o actualización del modelo. La estrategia de validación y revalidación del método debe estar basada en riesgos y
en conceptos científicos y debe ser apropiada para su nivel de impacto.
Las características típicas de desempeño para validación de métodos son especificidad, exactitud, precisión, linealidad,
intervalo y robustez para modelos cuantitativos, y especificidad y robustez para modelos cualitativos. Los parámetros y sus
descripciones se tratan a continuación. Además de los parámetros típicos de desempeño, los parámetros tales como límite de
detección (LOD, por sus siglas en inglés), límite de cuantificación (LOQ, por sus siglas en inglés), sensibilidad, sensibilidad
analítica y resolución efectiva podrían no requerirse para propósitos de validación, aunque podrían ser útiles para entender el
límite del desempeño del método para una aplicación analítica específica y la técnica analítica con la que se asocia un modelo.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 7/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
8

CARACTERÍSTICAS DE DESEMPEÑO PARA VALIDACIÓN DEL MÉTODO


Las secciones siguientes proveen descripciones y parámetros de los atributos de la validación del método.
Exactitud: Se recomienda la comparación estadística entre valores predictivos y valores de referencia. Para aplicaciones
cuantitativas, la raíz cuadrada del error cuadrático medio de predicción (RMSEP, por sus siglas en inglés), el error cuadrático de
predicción (SEP, por sus siglas en inglés) y el sesgo son las medidas típicas de exactitud del método. Para aplicaciones cualitativas,
tal como la clasificación, en ocasiones la tasa de clasificación errónea o la tasa de predicción correcta pueden usarse para
caracterizar la exactitud del método. Para asegurar que un modelo es lo suficientemente exacto al analizarlo con un conjunto
de prueba independiente, la raíz cuadrada del error cuadrático medio de predicción es a menudo comparable con la raíz
cuadrada del error cuadrático medio de calibración y la raíz cuadrada del error cuadrático medio de la validación cruzada, y se
cumple con los requisitos para el perfil analítico esperado.
Precisión: Las medidas de rutina de la raíz cuadrada del error cuadrático medio de predicción y error cuadrático de predicción
abarcan tanto exactitud como precisión. La evaluación de la precisión puede implicar una determinación de la incertidumbre
asociada con el resultado a informar y un análisis de varianza de los componentes que determina un “presupuesto de error”
que a su vez cuantifica las fuentes de variación que contribuyen a la incertidumbre. Para estimar solamente la precisión, se
puede usar la desviación estándar a través de los varios resultados para determinaciones repetidas y análisis independientes
sobre la misma muestra dentro del método, a través de varios días, varios analistas, varios instrumentos y varios laboratorios.
Especificidad: Para métodos cualitativos y cuantitativos, siempre que sea posible se debe demostrar y validar el significado
químico o físico subyacente del modelo quimiométrico. Por ejemplo, se debe demostrar el significado científico de las variables
(tal como intervalo espectral) usado para la construcción del modelo, el procesamiento previo de los datos, los vectores de
regresión y los vectores de carga [para regresión de mínimos cuadrados parciales, regresión de componentes principales, análisis
discriminante de regresión de mínimos cuadrados parciales (PLS-DA, por sus siglas en inglés) y análisis de componentes
principales]. La especificidad también podría validarse por la tendencia de componentes de la muestra (matriz y otros

l
compuestos diferentes a los analitos presentes en la muestra) a afectar de manera adversa la capacidad del método
quimiométrico para informar resultados con exactitud o precisión. El nivel de especificidad puede evaluarse por medio de la

ia
precisión y exactitud en presencia de cantidades variables de sustancias potencialmente interferentes. Las sustancias a analizar
pueden identificarse considerando la metodología física/química subyacente y el enfoque de generación de modelo.
La especificidad puede evaluarse incluyendo muestras adulteradas, subestándar o no auténticas. Las muestras auténticas,
que están tanto dentro como por fuera de los criterios esperados, pueden no estar disponibles por razones prácticas o
económicas. Por ejemplo, puede no ser posible, debido a los costos, obtener muestras que no cumplan con el criterio esperado
fic
para un proceso controlado a gran escala. Siempre que sea posible, se debe considerar un panel de exclusión con muestras que
no cumplan con el criterio esperado para incrementar la confianza de la especificidad de la medición. Se pueden usar muestras
fuera del criterio esperado simuladas (tales como muestras de experimentos a pequeña escala) para validar la aptitud del
procedimiento para el propósito e intervalo previsto. En todos los casos, la idoneidad de las muestras de validación debe
justificarse con criterios de inclusión y exclusión apropiados.
Para métodos cualitativos, el método debe demostrar capacidad para identificar o clasificar las muestras de forma correcta.
La curva de la característica operativa del receptor (ROC, por sus siglas en inglés) o la probabilidad de identificación (POI, por
sus siglas en inglés) son parámetros de uso común (se puede encontrar información detallada sobre curvas de la característica
O

operativa del receptor en 4.1 Cualitativas y en la Figura 6). El enfoque de la característica operativa del receptor pretende ilustrar
la tasa de verdaderos positivos (TPR, por sus siglas en inglés) y la tasa de falsos positivos (FPR, por sus siglas en inglés) a lo largo
de un intervalo de umbrales de decisión. Un buen método de identificación debe generar una curva de característica operativa
del receptor con el área bajo la curva (AUC, por sus siglas en inglés) cercana a 1. Para la mayoría de los métodos de identificación
bien diseñados, la probabilidad de una identificación positiva es casi cero cuando el analito no está presente, y la probabilidad
debe acercarse a 1 a medida que crece la cantidad o la concentración del analito.
Linealidad: El algoritmo usado para la construcción del método quimiométrico puede ser lineal o no lineal, siempre que sea
apropiado para el modelado de la relación entre la señal analítica y el analito. Las medidas comúnmente usadas para evaluar
el ajuste del modelo o sus propiedades predictivas son el coeficiente de correlación, la pendiente, la ordenada al origen y, y la
suma de cuadrados residuales de la gráfica entre los resultados predictivos versus los observados. Tener en cuenta que se espera
que la gráfica de resultados residuales versus los resultados observados en todo el intervalo analítico no presente patrón alguno.
Intervalo: El intervalo de un método debe ser apropiado para el uso previsto (p. ej., especificación).
Robustez: Los factores típicos a considerar incluyen la variabilidad normal de materiales (p. ej., variabilidad entre lotes),
variabilidad del entorno operativo, variabilidad del instrumento, tal como el mantenimiento menor de instrumentos, y la
variabilidad de los parámetros del método, tal como el número de espectros promediados en un espectrómetro. En conjunto
con los resultados de validación, la estrategia de desarrollo del método—tal como el diseño del conjunto o biblioteca de
calibración y la elección de los parámetros del modelo—se puede tener en cuenta para demostrar la robustez del método.

MUESTRAS DE VALIDACIÓN
Otros aspectos generales que se deben considerar para la validación del método quimiométrico incluyen las muestras de
validación. Las muestras de validación deben ser independientes de las muestras de calibración a fin de demostrar la capacidad
predictiva del modelo. Ser independientes significa que las muestras de validación no fueron usadas en el conjunto de
calibración o para la optimización del modelo. Por lo general, se usa validación interna o validación cruzada durante la
calibración del modelo para la optimización de parámetros, pero no se considera suficiente para la validación final del método.
Las muestras de validación deben seleccionarse basándose en el perfil analítico esperado y en las características de desempeño
deseadas del modelo. La robustez del método se basa en la evaluación de muestras auténticas con fuentes típicas de varianza.
Para productos farmacéuticos o suplementos dietéticos, pueden incluirse muestras de validación de escala de producción
nominal, tales como las producidas de forma rutinaria para las pruebas de estabilidad, de liberación o de proceso. Para artículos
botánicos, pueden incluirse la identidad taxonómica, el origen geográfico, la temporada de recolección, entre otras variantes.
Para materiales obtenidos de fuentes naturales, tales como muchos ingredientes y excipientes alimenticios, las variables, tales

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 8/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
9

como el origen geográfico o microbiológico del material, las condiciones de procesamiento, la composición de impurezas y
otros atributos pertinentes, pueden incluirse en el conjunto de muestras de validación.

CRITERIOS DE ACEPTACIÓN Y DE DIAGNÓSTICO


Al igual que con cualquier otro procedimiento analítico, los criterios de aceptación para un método quimiométrico deben
ser definidos antes de la ejecución del protocolo de validación. Si el modelo quimiométrico fue desarrollado usando datos
derivados de una técnica secundaria [p. ej., infrarrojo cercano (NIR, por sus siglas en inglés) o Raman] con valores de referencia
derivados de un procedimiento analítico primario [p. ej., gravimétrico, espectroscopía de resonancia magnética nuclear (NMR,
por sus siglas en inglés) o cromatografía de líquidos de alta resolución (HPLC, por sus siglas en inglés)], el perfil analítico esperado
para la validación no puede exceder de aquél obtenible mediante el método primario. Pueden ocurrir algunas excepciones, por
ejemplo, puede ser posible lograr una precisión superior usando un procedimiento secundario, aunque la exactitud se vería
limitada a la de la técnica de referencia.
Además de aquellos atributos tratados en Características de Desempeño para Validación del Método, la validación del método
también debe tener en cuenta la configuración de límites de diagnóstico para un modelo multivariante antes de la
implementación para uso rutinario. Las muestras que están fuera del espacio del modelo se consideran valores aberrantes y no
son adecuados para obtener una predicción del modelo que sea posible informar. El diagnóstico del modelo debe tener una
capacidad demostrada de señalar a cualquiera de las muestras que esté fuera del espacio del modelo. Para configurar los límites
de diagnóstico, se deben considerar dos casos. El primero es determinar la distribución estadística del apalancamiento (leverage)
y de los residuales dentro del conjunto de datos para la calibración. El segundo es preparar muestras de validación que estén
dentro y fuera del espacio del modelo para evaluar el límite. Por ejemplo, para un método de uniformidad de contenido basado
en espectroscopía del infrarrojo cercano, las muestras que estén dentro del espacio del modelo y las que estén fuera del espacio
del modelo podrían ser muestras que contengan concentraciones de ingrediente farmacéutico activo (API, por sus siglas en
inglés) que estén a nivel de la cantidad declarada pretendida y muestras fuera del intervalo previsto del método respectivamente.

l
ia
3.3 Monitoreo del Modelo
Durante todo el ciclo de vida del modelo, pueden ocurrir cambios que pueden afectar el desempeño del modelo. Se debe
contar con procedimientos para la verificación continua del desempeño del modelo y su actualización, y la revalidación del
procedimiento en caso necesario. No existe un orden específico entre el monitoreo del modelo, la actualización del modelo y
fic
la transferencia del modelo. Se deben aplicar fundamentos científicos sólidos para determinar una secuencia apropiada para la
aplicación prevista.
Se debe desarrollar una estrategia de control para verificar el desempeño del modelo durante su ciclo de vida y documentarla
como parte del desarrollo del modelo y de la validación del procedimiento. La estrategia debe identificar los elementos
necesarios para el monitoreo y la evaluación continua del desempeño del modelo. Además, se debe contar con un plan para
monitorear, analizar y ajustar el modelo, con una frecuencia de medición que permita la identificación de desviaciones
relacionadas con aspectos críticos del modelo. El nivel de mantenimiento debe considerarse parte de las actividades de
evaluación de riesgos y debe ser adecuado para la criticidad del modelo. Cuando aplique, se debe calificar el instrumental
O

analítico usado para generar los datos para el modelo, además de someterlo a un plan de verificación continuo (para obtener
guías pertinentes, ver los capítulos generales relacionados con el instrumental analítico aplicable).
La garantía continua del desempeño del modelo durante todo su ciclo de vida debe incluir lo siguiente:
• Monitoreo y revisión continuos del modelo
• Análisis de la Evaluación de riesgos
• Evaluación de los cambios posteriores a la implementación y mantenimiento predefinido del modelo
• Actualización del modelo y revalidación del procedimiento, según se requiera
La revisión continua de un modelo debe suceder en intervalos predefinidos y también debe ser iniciada por eventos que
pudieran tener un impacto sobre el desempeño del modelo. Ejemplos de dichos eventos incluyen cambios en el fabricante o
la variabilidad de materias primas; cambios en los procesos previos que pudieran alterar la matriz de la muestras (p. ej.,
configuración de equipo u operación del proceso); derivas en la predicción del modelo; y resultados fuera de la especificación
(OOS, por sus siglas en inglés) o fuera de tendencia (OOT, por sus siglas en inglés) dados por el modelo (depende de la causa
de origen de los resultados que están fuera de la especificación o fuera de la tendencia). Además de los detonantes que se basan
en el resultado de la predicción del modelo, se deben incluir los detonantes basados en parámetros de diagnóstico del modelo
y en las reglas de acción correspondientes. Los modelos multivariantes pueden verse afectados de forma más significativa por
los datos aberrantes característicos que los modelos univariantes. Se requiere especial cuidado para lo siguiente: 1) justificar
estadísticamente el diagnóstico de modelos multivariantes; 2) verificar con datos derivados del desarrollo del modelo y del
proceso de validación del procedimiento; y 3) implementar diagnósticos multivariantes para el monitoreo como parte de la
estrategia de control. La comparación de las predicciones del modelo y de los procedimientos de referencia u ortogonales debe
llevarse a cabo de forma periódica o como parte de la investigación iniciada por el proceso de revisión.
El uso de diagnósticos del modelo, al aplicarlo a una muestra nueva, asegura que la predicción del modelo sea válida con
respecto a los conjuntos de calibración y validación usados durante el desarrollo del modelo y la validación del procedimiento,
además de que asegura que el resultado no constituya un valor aberrante. La observación de un valor aberrante significa que
el resultado es inválido, pero no es una indicación confiable de un resultado fuera de la especificación; un resultado fuera de la
especificación es una observación producida por un modelo cuando la predicción cae fuera de los criterios de aceptación y los
diagnósticos del modelo están dentro de los umbrales. En el caso de modelos cualitativos, los resultados que están por fuera
del cumplimiento deben tratarse como valores aberrantes y generar una investigación; el resultado de dicha investigación
indicará si el resultado está fuera de la especificación.
El proceso de revisión para un modelo debe generar una decisión con respecto a la necesidad de una extensión del
mantenimiento del modelo; dicha decisión puede ser el resultado de una evaluación de riesgos o el resultado de un flujo de

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 9/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
10

trabajo para decisiones ya predefinido. La criticidad y el uso del modelo definirán la extensión del mantenimiento del modelo,
lo cual puede incluir la acción de restringir las condiciones del modelo; ajustar el conjunto de calibración (se pueden agregar,
reemplazar o retirar muestras); o incluso reconstruir completamente el modelo. La decisión y la justificación correspondientes
deben basarse en fundamentos científicos sólidos y documentarse.

3.4 Actualización del Modelo y Transferencia del Método


La actualización del modelo debe considerarse parte de la verificación del procedimiento analítico y tanto la justificación
como las actividades deben documentarse como parte del ciclo de vida del procedimiento analítico. Antes de realizar una
actualización del modelo, es crítico entender el factor causal subyacente que ha dado pie a la actualización. Las razones para
la actualización del modelo pueden dividirse en dos categorías generales.
La primera categoría es cuando el conjunto de calibración simplemente requiere una expansión. En este caso, nada ha
cambiado realmente en términos de la respuesta del instrumento a analitos específicos. En su lugar, el modelo original ya no
es válido debido a la expansión del intervalo de la calibración original, a la adición de nuevos analitos o a la ocurrencia de otras
variaciones imprevistas (p. ej., cambios en la distribución del tamaño de partícula o la derivación de un proceso químico a un
nuevo estado estacionario). Por ende, el rango de calibración debe expandirse con muestras que presentan dicha variación.
La segunda categoría es cuando las muestras son las mismas, pero la función de respuesta del sistema de medición ha
cambiado. Esto a menudo se debe a cambios en los componentes de medición (nueva fuente de luz, opacidad en los elementos
ópticos, cambio de registro de longitud de onda) o puede deberse a la transferencia del método entre instrumentos diferentes.
Esto, en esencia, es un problema de estandarización del instrumento. Los cambios en instrumentos o procedimientos de
medición con el paso del tiempo pueden resultar en un modelo de calibración inutilizable, en cuyo caso sería necesaria una
actualización del modelo o se debe desarrollar un modelo nuevo.
En la práctica, existen múltiples técnicas de actualización del modelo que podrían aplicarse a cada categoría de actualización

l
del modelo. Algunas técnicas de actualización son relativamente sencillas y simples de implementar, mientras que otras son
técnicamente complejas. La selección de un enfoque apropiado de actualización del modelo debe basarse en un entendimiento

ia
cabal del factor causal subyacente. Como regla general, se deben considerar primero los métodos simples de actualización (p.
ej., ajuste de pendiente y sesgo, según se describe a continuación).
Antes de iniciar cualquier trabajo de mantenimiento del modelo, una buena práctica es confirmar que la construcción básica
del modelo original—tal como el procesamiento previo de datos y la selección de variables—sigue siendo apropiada. Para las
actualizaciones de modelos basados en aplicaciones tanto cualitativas como cuantitativas, se recomienda un enfoque de
fic
procesamiento previo sencillo y un enfoque de selección de variables con fundamentos científicos en el modelo original para
tratar los desafíos relacionados con la actualización del modelo. Estos enfoques son igualmente aplicables a las diferencias
ocasionadas por instrumentos, condiciones de medición o matrices de la muestra.

AJUSTE DE PENDIENTE Y SESGO


Uno de los métodos de actualización de modelo más simples es el procesamiento posterior de las predicciones con un ajuste
de sesgo, un ajuste de pendiente, o ambos. Este enfoque se a menudo usa para aplicaciones cuantitativas. Para algunas
O

aplicaciones cualitativas, este enfoque también puede ser útil, dependiendo de la naturaleza del método. Se espera que los
ajustes de sesgo/pendiente funcionen en un conjunto limitado de circunstancias. Por ejemplo, si la matriz de las muestras que
se están prediciendo fuese sistemáticamente distinta del conjunto de muestras de calibración/validación, las predicciones del
modelo serían erróneas por un valor constante. Sin embargo, los ajustes de sesgo/pendiente no corregirían variaciones nuevas
en los datos, tales como variaciones derivadas de una matriz diferente (p. ej., nuevos analitos/sustancias interferentes). Por lo
tanto, no se recomienda aplicar ajustes de pendiente/sesgo si no se cuenta con un entendimiento cabal del factor causal
subyacente. Se puede obtener una orientación mediante la inspección de los residuales correspondientes a los nuevos datos
obtenidos mediante el uso del modelo existente o, como alternativa, realizar un análisis exploratorio suplementario con técnicas
tales como el análisis de componentes principales (ver 4. Aplicaciones de la Quimiometría).

EXPANSIÓN DE LA CALIBRACIÓN
Al expandir el conjunto de calibración original, se debe considerar el número de muestras nuevas que se van a agregar, el
impacto (utilidad) de las muestras agregadas sobre la composición general del nuevo conjunto de calibración, y cómo distribuir
las nuevas muestras entre los conjuntos de calibración y validación. Puede ser apropiado simplemente aumentar los conjuntos
de calibración y de validación originales con todas las muestras nuevas, o puede ser recomendable usar un subconjunto de las
muestras nuevas y las originales. Múltiples enfoques, tales como el enfoque de algoritmo Kennard-Stone y de vecino más
cercano, están disponibles para ayudar en la selección de muestras nuevas para agregarlas a un conjunto de calibración
existente, aunque en general todos los enfoques usan métodos para identificar muestras nuevas basándose en una alta utilidad
(es decir, influencia sobre el modelo). Las gráficas de puntuaciones multivariantes T2 de Hotelling, y sus límites correspondientes
también son enfoques eficaces para lograr dicho objetivo.

TRANSFERENCIA DE CALIBRACIÓN
Los métodos de estandarización del instrumento y de transferencia de calibración se usan para transformar la función de
respuesta de un sistema de medición de manera tal que corresponda con el de un sistema de medición de referencia. El sistema
de medición de referencia puede constar de un analizador completamente distinto, o puede ser el mismo analizador antes de
que experimente un cambio en la respuesta de la función. La gran mayoría de estos métodos por lo general requieren el uso
de muestras de transferencia estables que se miden en el instrumento original y requieren la estandarización del instrumento
al mismo tiempo. Además, los enfoques comúnmente usados para la estandarización del instrumento también podrían aplicarse
para tratar de forma efectiva los desafíos que resultan de cambios en la matriz de muestras y las condiciones de medición.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 10/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
11

3.5 Revalidación
Antes de la re implementación de un modelo multivariante, se debe establecer un procedimiento apropiado de revalidación
usando criterios equivalentes a los usados en el protocolo de validación original. Esta revalidación es necesaria para documentar
la validez del modelo como parte de la verificación del procedimiento analítico. La naturaleza y el grado del procedimiento de
revalidación, incluyendo aspectos, tales como la justificación científica y los enfoques experimentales, deben basarse en la causa
de la actualización y la naturaleza de la acción correctiva requerida para establecer el desempeño adecuado. La revalidación
debe documentarse como parte del ciclo de vida del procedimiento analítico.

4. APLICACIONES DE LA QUIMIOMETRÍA

Según se trata en 2. Conceptos de Quimiometría, los análisis quimiométricos pueden realizarse de manera supervisada o no
supervisada, dependiendo de la disponibilidad de los datos y de las particularidades de una aplicación dada. Esta sección provee
una explicación de estos distintos escenarios de análisis, así como de las herramientas quimiométricas (es decir, algoritmos) que
se usan comúnmente. Adicionalmente, se describirán en detalle varias aplicaciones específicas.

Cambio en la redacción:
4.1 Cualitativas
ASPECTOS GENERALES

l
Los análisis quimiométricos cualitativos pueden realizarse mediante enfoques supervisados o no supervisados. No obstante,
para poder incorporarlos en los procedimientos analíticos que son alternativas a los métodos farmacopeicos, se debe verificar

ia
el desempeño de cualquier modelo quimiométrico, según se describe en 3. Ciclo de Vida del Modelo. Esto podría no ser posible
si se conoce muy poco sobre las muestras que se están analizando. Sin embargo, los análisis no supervisados desempeñan un
papel de apoyo importante durante el desarrollo de alternativas quimiométricas para los procedimientos farmacopeicos dentro
del marco del ciclo de vida, y se recomienda su uso antes del desarrollo de los enfoques supervisados subsiguientes (se proveen
ejemplos en Ejemplos de Aplicación Cualitativa).
fic
Los procedimientos farmacopeicos cualitativos son aquellos que buscan proveer el valor de algún descriptor categórico para
una muestra desconocida. Ejemplos de propiedades categóricas incluyen los siguientes (entre otros):
• Identidad química: celulosa microcristalina versus ingrediente activo farmacéutico
• Morfología: polimorfo A versus B; monoclínico versus triclínico
• Autenticidad de la muestra: auténtico versus no auténtico o adulterado
• Origen de la muestra: fábrica A versus B; lote ABC-001 versus lote XYZ-002
Se puede crear un modelo efectivo de las propiedades categóricas usando algoritmos quimiométricos supervisados que
O

aprovechen ya sea la proximidad o la distancia en espacios multivariantes, lo que resulta en una asignación cualitativa de
muestras a una o más clases, dependiendo de la aplicación y técnica usada. De acuerdo con el capítulo á1225ñ, los
procedimientos basados en modelos de este tipo son adecuados para su incorporación en los métodos de Categoría IV para
identificación, y deben validarse para demostrar la especificidad adecuada para el uso previsto. La “identificación” es un término
que, por lo general se usa para describir un rango de escenarios de análisis; se describen algunos comunes en Herramientas
Cualitativas.
Las técnicas supervisadas usadas para propósitos de clasificación, además de la información analítica del sensor, emplean
información discreta relacionada con las muestras en el conjunto de datos (p. ej., etiquetas de clase). Se pretende definir los
límites de los agrupamientos (o clases), proveyendo criterios estadísticos, además de las técnicas de visualización (p. ej., gráfica
de puntuaciones de componentes principales a partir de un análisis de componentes principales). Posteriormente, los límites
pueden usarse como criterios de aceptación para la inclusión o exclusión de nuevas muestras en una clase dada. Se encuentran
disponibles diversas herramientas útiles para el analista para la construcción del modelo, tales como el análisis discriminante
lineal (LDA, por sus siglas en inglés), el análisis discriminante cuadrático (QDA, por sus siglas en inglés), el modelado
independiente suave de analogía de clase (SIMCA, por sus siglas en inglés), el método de K-vecinos más cercanos, y el análisis
discriminante de regresión de mínimos cuadrados parciales. También se pueden usar técnicas más complejas siempre que se
justifiquen. Cada tipo de modelo tiene sus fortalezas y debilidades propias. Si un algoritmo particular no provee el nivel deseado
de desempeño, se puede seleccionar un algoritmo distinto. Estos aspectos se tratan con mayor detalle en Herramientas
Cualitativas.
Para el desarrollo, la optimización y la validación del modelo, las técnicas de clasificación y discriminación siguen los mismos
procesos descritos en 3. Ciclo de Vida del Modelo. Estas técnicas desarrollan un umbral o límites para realizar las asignaciones de
clases. La forma más simple de clasificación es un sistema de dos clases (p. ej., bueno/malo o A/B). Cuando el modelo clasifica
una muestra nueva como buena o mala (A o B), se denomina técnica de discriminación. La clasificación es la técnica para asignar
una muestra nueva como A, B, ya sea A o B o ni A ni B. La tasa de error del modelo es el número total de clasificaciones incorrectas
divididas por el número total de muestras. Dependiendo de los requisitos de la aplicación y de los niveles de riesgo asociados,
las tasas de error pueden ser específicas para una clase o combinadas entre clases. Los detalles específicos de la aplicación
determinarán si la asignación de una muestra a más de una clase sería un resultado aceptable. Para casos en los que esto deba
evitarse, se deben establecer apropiadamente los umbrales de clasificación durante el desarrollo del modelo para garantizar
resultados de una sola clase.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 11/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
12

HERRAMIENTAS CUALITATIVAS
Análisis de componentes principales: El análisis de componentes principales es una herramienta de análisis exploratorio de
uso común brevemente descrita en 2. Conceptos de Quimiometría. El análisis de componentes principales es una técnica de
reducción de variables y actúa sobre los datos definiendo nuevas variables, los denominados componentes principales (ver la
Figura 2). Los componentes principales son ortogonales y se definen en la dirección de la varianza más grande (remanente) de
los datos. Los resultados del análisis de componentes principales se tratan en términos de puntuaciones y cargas de
componentes principales, los cuales pueden graficarse de forma bidimensional (y en ocasiones tridimensional) para visualizar
agrupamientos de muestras o exclusiones (gráficas de puntuaciones, ver la Figura 4), mientras que las gráficas de cargas proveen
información sobre las variables originales. Las puntuaciones son las proyecciones de las muestras sobre los componentes
principales, mientras que las cargas proveen los pesos (coeficientes) por los que se multiplican los valores de las variables
originales para generar la puntuación del componente para una muestra particular. Las cargas presentan una gran cantidad de
información con respecto a las variables en la matriz que son prominentes y que se pueden usar para “entender” la información
capturada por las variables latentes que proveen los fundamentos para la distribución de la muestra observada en la gráfica de
puntuaciones (Figura 4). Los componentes principales también pueden usarse como base para los modelos cuantitativos por
regresión de componentes principales (ver 4.2 Cuantitativas).

l
ia
fic
O

Figura 4. Gráfica de puntuaciones del análisis de componentes principales: proyección de PC1 versus PC2.

Algoritmos de Agrupamiento: El objetivo de los análisis de agrupamiento (clustering) es la repartición de datos en diferentes
grupos. Algunos métodos, tales como el análisis de agrupamiento jerárquico (HCA, por sus siglas en inglés), resulta en
estructuras con forma de árbol denominadas dendrogramas (Figura 5) que proveen información sobre grupos de muestras u
objetos excluyentes que se presentan en el conjunto de datos. Los dendrogramas pueden construirse de muchas formas distintas
y, por ende, pueden presentar distintos aspectos del conjunto de datos. Una primera posibilidad, que se denomina métodos
divisivos o descendentes (top-down), inicia a partir de un conjunto de datos completo, el cual se divide en pasos consecutivos
hasta que cada objeto es un agrupamiento individual o todos los elementos de un agrupamiento cumplen con un criterio de

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 12/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
13

similitud dado. En el segundo escenario, que se denomina métodos aglomerativos o ascendentes (bottom-up), se realiza lo
opuesto. Comenzando a partir de objetos/agrupamientos individuales, aquellos que son más similares se fusionan hasta que
todo conforma un agrupamiento. De las dos opciones, los enfoques ascendentes tienden a ser menos intensos desde la
perspectiva computacional, son parte de la mayoría de los paquetes de computación, y se usan con mayor frecuencia.
Los parámetros usados para expresar la (falta de) similitud entre objetos o agrupamientos (ver el eje y en la Figura 5) pueden
ser mediciones basadas en la correlación (p. ej., coeficiente de correlación, r para similitud o 1−|r| para falta de similitud),
mediciones basadas en la distancia (p. ej., distancia euclidiana), o una combinación de ambas (p. ej., distancia de Mahalanobis).
Los dos agrupamientos se vinculan en el dendrograma a la altura relacionada con esta medición de (falta de) similitud. El
parámetro aplicado se expresa de tal manera que los agrupamientos/objetos vinculados en la parte baja (es decir, cercanos al
eje x) son similares, mientras que aquellos vinculados en la parte alta son distintos. Existen muchos métodos o criterios distintos
que se usan para decidir qué objetos/agrupamientos se fusionan consecutivamente [p. ej., vinculación (o enlace) simple,
vinculación completa, vinculación promedio (ponderada), y vinculación centroide]. Dependiendo del criterio aplicado, los
dendrogramas pueden lucir muy diferentes. Trazar líneas horizontales de forma arbitraria (ver la Figura 5) divide el conjunto de
datos en diferentes grupos, lo cual ocasionalmente puede vincularse con las propiedades de la muestra. Las muestras aberrantes
están vinculadas muy arriba en los dendrogramas, más a menudo como agrupamientos de un solo objeto. La estabilidad de
los resultados del agrupamiento puede verse afectada por muchos factores, tales como el ruido en los datos, el tamaño de la
muestra, la elección del algoritmo, la medición de distancia, entre otros. Los métodos divisivos tienden a producir resultados
más estables que los métodos aglomerativos, aunque casi nunca se usan.

l
ia
fic
O

Figura 5. Dendrograma basado en agrupamiento jerárquico para 27 objetos. Abscisa: números de objetos.

Modelado paramétrico: La autentificación de un material o producto formulado con propósitos de garantía de calidad puede
lograrse mediante el modelado paramétrico multivariante del perfil químico (p. ej., espectro o cromatograma). Estos métodos,
en ocasiones, se denominan como “clasificadores de una clase”. Básicamente, se desarrolla un modelo paramétrico de forma
estadística o empírica con un límite de confianza alrededor de los datos derivados de muestras auténticas conocidas. Los
modelos paramétricos describen el comportamiento o la estructura de la mayoría de los datos a partir de una clase individual,
asumiendo que existe una distribución (por lo general, una normal multivariante) en dichos datos. Las predicciones contra un
modelo paramétrico identifican puntos de desviación fuera de los límites significativos de dicha distribución. Mientras que los
enfoques de clasificación o discriminación proveen identificación (según se describió anteriormente) de la muestra desconocida,
los modelos paramétricos designarán la muestra desconocida ya sea como perteneciente a la clase auténtica o como un valor
aberrante, o presentando características distintas a las definidas por la distribución. Algunas técnicas de discriminación también
optimizarán la separación de clases y pueden tener una selectividad mayor, pero tendrán una tendencia a fallar cuando se
enfrenten con un objeto que no pertenezca a alguna de las clases. Por el contrario, los métodos del modelado paramétrico
rechazarán cualquier muestra que no caiga dentro del límite de confianza establecido para el modelo. Quizás el algoritmo de

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 13/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
14

modelado paramétrico de uso más común es SIMCA, el cual usa el análisis de componentes principales para modelar los datos y
T2 de Hotelling y residuales Q (DmodX) para definir los límites. En algunas instancias, los enfoques de modelado paramétrico
resultarán en “clasificaciones suaves” en las que una muestra puede ser asignada a más de una clase. Para satisfacer los requisitos
de uso farmacopeico, se debe definir previamente la acción apropiada para casos de asignación de clases ambiguas, o se deben
establecer y justificar las tasas de error α y β error de acuerdo con el riesgo.

EJEMPLOS DE APLICACIÓN CUALITATIVA


Análisis exploratorio: Se usan algoritmos no supervisados de forma rutinaria para los análisis de datos exploratorios iniciales,
los cuales preceden los ejercicios formales de calibración y validación. La exploración no supervisada de datos puede indicar
rápidamente, ante la ausencia de cualquier conocimiento previo, si existen clases distintas o valores aberrantes dentro de la
combinación de datos disponibles. Por ejemplo, en la Figura 4 se muestra un ejemplo gráfico en el que un análisis de
componentes principales aplicado a datos espectroscópicos fue usado para diferenciar entre muestras de distintos proveedores.
Los modelos exploratorios generan variables latentes que pueden ser inspeccionados para identificar las variables originales con
las cantidades más grandes de señales de analitos relevantes para transportar a modelos subsiguientes o para guiar y/o verificar
los resultados de los enfoques de selección de variables. Esto puede ocurrir durante la fase de análisis de un estudio de diseño
de experimentos para evaluar qué factores se van a incluir en los diseños y/o en las calibraciones subsiguientes. Además, los
análisis exploratorios pueden usarse para probar y optimizar empíricamente diversas opciones de pre procesamiento de señales
para maximizar la contribución relativa de la señal deseada del analito en función de señales de fuentes de interferencia (p. ej.,
efectos de dispersión, diferencias en la longitud de paso óptico, propiedades físicas de la muestra, y deriva del instrumento).
Pruebas de identidad de materiales: El análisis de identificación se realiza de manera rutinaria para todos los ingredientes
activos farmacéuticos, excipientes, medicamentos y materiales de envasado para autentificarlos y verificar el uso de los
materiales correctos en la fabricación, en el análisis de liberación, y en las operaciones de envasado. El capítulo ▲Pruebas
Espectroscópicas de Identificación á197ñ▲ (AF 1-may-2020) ilustra una de las técnicas analíticas de uso más amplia para la identificación,

l
la espectroscopía IR por transformada de Fourier. Por lo general, el análisis de identificación implica comparar el espectro de la

ia
muestra con el espectro de una muestra de referencia y evaluar el nivel de concordancia entre ambos. Se pueden aplicar diversos
algoritmos quimiométricos para la identificación, y el desarrollo y el mantenimiento generales del modelo deben seguir las
pautas provistas en 3. Ciclo de Vida del Modelo. Todos los métodos para el análisis de identidad son métodos de clasificación
supervisados debido a que estos algoritmos utilizan ya sea un espectro de referencia individual o un conjunto de espectros de
referencia a partir de materiales con identidad conocida. Los algoritmos pueden aplicarse en un espacio de variables originales o
en un espacio de variables transformadas (tal como un espacio de variables latentes) después del procesamiento previo de los
fic
datos.
De acuerdo con el capítulo á1225ñ, los modelos de este tipo son adecuados para la incorporación en los métodos de Categoría
IV para la identificación y deben, como mínimo, validarse para demostrar su especificidad adecuada para el uso previsto. Un
ejemplo de enfoque para la verificación del desempeño es la documentación de la tasa de verdaderos positivos y la tasa de
falsos positivos. La tasa de verdaderos positivos es el porcentaje de muestras que se identifican de forma correcta, mientras que
la tasa de falsos positivos es el porcentaje de muestras que se identifican de manera incorrecta. La tasa de verdaderos positivos
también es referida como sensibilidad, y la tasa de falsos positivos o FPR, por sus siglas en inglés, es referida como especificidad.
O

Independientemente del enfoque usado, siempre hay una compensación entre la tasa de verdaderos positivos y la tasa de falsos
positivos, y dicho comportamiento de compensación y desempeño general del procedimiento se visualizan de mejor manera
en una gráfica de curva de la característica operativa del receptor (ver la Figura 6).
Una curva clásica de la característica operativa del receptor se genera graficando la tasa de verdaderos positivos sobre la
ordenada y la tasa de falsos positivos sobre la abscisa. Cada punto de la curva de la característica operativa del receptor
representa un par de la tasa de verdaderos positivos y de la tasa de falsos positivos obtenido a un umbral específico. El umbral
es por lo general un número generado por el algoritmo, y cuando se excede, este corresponde a una identificación positiva. El
valor del umbral se determina durante el proceso de desarrollo del procedimiento. El umbral puede ser el valor P del contraste
de hipótesis (o prueba de significación), el umbral del índice de calidad de impacto (hit quality index o HQI), el umbral de la
distancia de Mahalanobis, el umbral de puntuación discriminante de regresión de mínimos cuadrados parciales, u otro umbral.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 14/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
15

l
ia
fic
Figura 6. Gráfica de una curva de la característica operativa del receptor que muestra el área bajo la curva (3).

Durante el desarrollo del procedimiento, se examina un número conocido de muestras positivas y negativas, y se registra el
resultado del algoritmo para cada muestra. El desempeño del método cuando opera en un umbral particular t se caracteriza
mediante un par único de tasa de verdaderos positivos/tasa de falsos positivos, y se puede producir la curva completa de
características operativas graficando los pares de tasa de verdaderos positivos/tasa de falsos positivos en un intervalo de umbrales
de decisión. Una identificación falsa positiva corresponde a un umbral de decisión que es demasiado bajo. Los falsos positivos
pueden minimizarse elevando el umbral de decisión. Sin embargo, los umbrales de decisión excesivamente altos pueden
O

producir una identificación falsa negativa.


Un buen método de identificación debe generar una curva de característica operativa del receptor que produzca uno o más
pares de tasa de verdaderos positivos/tasa de falsos positivos en la esquina superior izquierda de la gráfica, según se muestra
en la Figura 6. Esta característica se captura de mejor manera mediante el área bajo la curva. Un método de decisión aleatorio
es representado por la línea diagonal con un área bajo la curva de 0,5, mientras que un buen método de identificación debe
tener un área bajo la curva más cerca de 1. La forma de la curva de característica operativa del receptor depende de una
combinación de las propiedades espectrales de la muestra y del algoritmo quimiométrico usado para la identificación. La
caracterización de la curva de la característica operativa del receptor es una tarea fundamental relacionada con el desarrollo y
la validación del método.
Para un modelo de dos clases, los falsos positivos y los falsos negativos son las muestras asignadas de forma incorrecta. Junto
con los verdaderos positivos y verdaderos negativos, proveen el fundamento para la sensibilidad y la especificidad del modelo.
El analista puede desear enfocarse en un tipo de error (α o β) más que en el otro y, por ende, podría cambiar el modelo para
ser más conservador al seleccionar un umbral. Los umbrales pueden usarse como criterios de acción o criterios de evaluación.
Análisis de autentificación de materiales complejos: Los nutracéuticos y muestras de origen botánico pueden tener mezclas
complejas de numerosos componentes. La autenticación se basa en la evaluación de la presencia de múltiples analitos y sus
concentraciones relativas, así como la demostración potencial de la ausencia de adulterantes y/o materiales relacionados. Por
ende, la autenticación en este escenario es un proceso de decisión multivariante que es apropiado para los enfoques
quimiométricos. Por lo regular, un patrón tipo “huella dactilar” característico que incorpora información derivada de varios
analitos (y adulterantes, potencialmente) que están presentes en la muestra se obtiene aplicando una combinación de técnicas
de separación y caracterización o mediciones espectroscópicas. La información sobre composición química en la huella dactilar
provee la base para el reconocimiento de un patrón multivariante. En particular, las técnicas con selectividad analítica
excepcional, tales como espectrometría de masas y espectroscopía de resonancia magnética nuclear, han surgido como
herramientas poderosas de generación de huellas dactilares, en especial cuando se usan como detectores en separaciones
cromatográficas de muestras de componentes múltiples. La identificación tipo huella dactilar cromatográfica está reconocida
como un procedimiento de identificación viable para medicamentos herbolarios por la Organización Mundial de la Salud y la
Administración de Alimentos y Medicamentos de los EE.UU. (4,5)
Dependiendo del origen y la pureza de la muestra, puede ser apropiado desarrollar un modelo de clasificación multivariante
usando la identificación tipo huella dactilar completa o un subconjunto seleccionado de picos. Los enfoques de selección de
variables pueden ser útiles para determinar el enfoque óptimo, dependiendo de la naturaleza de las muestras y/o del perfil
analítico esperado. Es crucial que las muestras tengan una etiqueta de clase asociada o propiedad cuantitativa (actividad)
obtenida mediante una técnica de referencia objetiva (independiente de la usada para generar la huella dactilar) para permitir

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 15/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
16

un modelado supervisado y la verificación subsiguiente del desempeño del modelo. Se debe procurar asegurar la inclusión de
fuentes y niveles apropiados de variabilidad en el desarrollo del modelo, así como pruebas de verificación del desempeño
basadas en el uso que se le pretende dar a la prueba.
Se encuentran disponibles diversas herramientas útiles para el analista para la construcción del modelo, tales como LDA,
QDA, SIMCA, kNN, y PLS-DA. También se pueden usar técnicas más complejas siempre que se justifique (p. ej., máquinas de
vector de soporte).
Los métodos quimiométricos para la autentificación de muestras con componentes múltiples se corresponden con el capítulo
Validación de Procedimientos Farmacopeicos á1225ñ, Validación, Datos Requeridos para la Validación, Categoría IV. Se pueden usar
diversos métodos numéricos para verificar el desempeño predictivo. Según se trató en Herramientas Cualitativas para la
identificación de materiales puros, el desempeño predictivo puede verificarse mediante comparación de la tasa de verdaderos
positivos y la tasa de falsos positivos una vez que se ha establecido un umbral de clasificación apropiado para la aplicación. Es
crucial finalizar este umbral antes de la validación formal del método analítico general.
Clasificación: Esta es una técnica de aprendizaje supervisada. El objetivo de la calibración es construir una regla de clasificación
basada en un conjunto de calibración en el que se conocen tanto X como Y (etiquetas de clase). Una vez obtenida, la regla de
clasificación puede entonces ser usada para la predicción de nuevos objetos cuyos datos X están disponibles.
Los modelos de clasificación pueden dividirse en dos grupos principales: duras y suaves. La clasificación dura se enfoca
directamente en el límite de decisión sobre clasificación sin producir un estimado de probabilidad. Los ejemplos de técnicas de
clasificación dura son el método de K-vecinos más cercanos y los sistemas expertos. La clasificación suave estima la probabilidad
condicional de las clases y luego realiza la asignación de clases basándose en la probabilidad estimada más grande. SIMCA es
una técnica de clasificación suave de uso común. En cualquiera de los escenarios, los umbrales para determinar los límites de
clase son importantes y deben establecerse durante el desarrollo del método basándose en la tasa de verdaderos positivos y
tasa de falsos positivos resultantes, cuyos requisitos son determinados por el perfil analítico esperado. Estas tasas también deben
verificarse como parte de la validación del procedimiento.
En muchas aplicaciones, es inaceptable tener una muestra clasificada en dos clases. Además, si una muestra no está clasificada

l
bajo ninguna clase, la muestra se considera como excluida con respecto al conjunto de calibración. Por ejemplo, un modelo

ia
de clasificación construido a partir de los espectros en el infrarrojo cercano de cuatro materiales (A, B, C, D) tiene cuatro clases.
Cualquier material que tenga una fuente de varianza (p. ej., contenido de agua distinto) que no haya sido observada
previamente y que se incluya en la calibración del modelo puede no estar clasificado y, por ende, debe identificarse como una
exclusión y debe investigarse. De forma similar, cuando un espectro de otro material (E) se aplica al modelo, el modelo no debe
ser capaz de clasificarlo en una clase dada. Si se esperan ejemplos similares en el futuro, entonces el modelo debe revisarse para
incluir las muestras aberrantes en el conjunto de calibración, ya sea para suplementar los datos de calibración para clases
fic
existentes o para crear una clase completamente nueva, dependiendo de la naturaleza de los valores aberrantes y de los
requisitos específicos de la aplicación.

4.2 Cuantitativas
ASPECTOS GENERALES
O

Cuando un procedimiento analítico se quiere usar para determinar uno o más componentes o propiedades de la muestra
que tienen valores que pueden variar continuamente en lugar de categóricamente, entonces se requiere un modelo cuantitativo.
De manera similar al proceso de modelado cualitativo, los modelos quimiométricos cuantitativos se generan de manera
supervisada usando el bloque independiente X y las variables dependientes y para asegurar el desempeño predictivo óptimo.
La diferencia surge con respecto a la naturaleza de y, que en las aplicaciones cuantitativas son valores continuos/numéricos (en
lugar de clases o categorías). De acuerdo con el capítulo á1225ñ, los modelos quimiométricos cuantitativos son adecuados para
incorporarlos en los métodos de las Categorías I, II o III para la determinación del contenido de fármaco o medicamento
terminado, niveles de impureza o características de desempeño, respectivamente. Las pruebas que se usan durante el
procesamiento, ya sea aplicadas de una manera fuera de línea o de una manera en-línea que producen el valor para una variable
continua, también representarían usos apropiados de los modelos quimiométricos cuantitativos. Se deben usar los requisitos
específicos de los análisis de acuerdo con el perfil analítico esperado (ver 3. Ciclo de vida del modelo) para guiar los parámetros
de validación que demuestren el desempeño.

HERRAMIENTAS CUANTITATIVAS
Existe un amplio rango de herramientas algorítmicas necesarias para aplicaciones cuantitativas; para descripciones más
completas, ver el Apéndice, Fuentes Adicionales de Información. En este capítulo se describen brevemente las herramientas de
uso común. Como en el caso de cualquier modelo quimiométrico, la herramienta debe corresponderse con el perfil analítico
esperado, y viceversa. Ciertas ventajas y desventajas son características de cada herramienta, y el técnico en quimiometría debe
considerarlas todas al justificar su uso.
Regresión Lineal Múltiple (MLR, por sus siglas en inglés): Esta herramienta establece una correlación entre una variable
dependiente (o y, variable de respuesta) y múltiples variables independientes (o x, variables explicativas) ajustando una ecuación
lineal a los datos observados. La regresión lineal múltiple tiene dos amplias aplicaciones, según se indica a continuación.
La primera aplicación amplia de la regresión lineal múltiple es establecer un modelo que explique la importancia o la magnitud
del efecto sobre la variable de respuesta, y esto por lo general se usa en la exploración de diseños experimentales o en el análisis
de la respuesta. Por lo general, las variables de ingreso son mutuamente independientes y, por diseño, representan magnitudes
grandes. A menudo, se incluyen términos de alto orden tales como términos al cuadrado y términos de interacción, y se usa
un procedimiento paso a paso para excluir aquellos términos que menos contribuyan al modelo. Se recomienda tener cuidado
de evitar tener muchas variables en el modelo, debido a que incluir muchos términos producirá un sobreajuste del modelo. El
parámetro estadístico R2 ajustado se usa a menudo para estimar si existen demasiados factores en el modelo, aunque otros
parámetros también pueden ser apropiados. El R2 ajustado es una modificación del coeficiente estándar de determinación que

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 16/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
17

tiene en cuenta el número de términos del modelo y el número de muestras, lo que resulta en una gráfica de R2 (ajustada) que
tiene un valor máximo más allá del cual cualquier término adicional resultará en un sobreajuste.
La segunda aplicación amplia de la regresión lineal múltiple es establecer un modelo de predicción para propósitos analíticos.
La regresión lineal múltiple puede usarse para ajustar un modelo predictivo a un conjunto de datos observado de valores y y
x. El modelo establecido puede usarse para predecir el valor y a partir del valor x en muestras nuevas. El modelo de predicción
creado a partir de los datos x correlacionados es adecuado para explorar la relación entre y y x individuales.
El modelo de predicción por regresión lineal múltiple puede usarse en un procedimiento o método para una prueba
farmacéutica oficial. Por ejemplo, un filtro de infrarrojo cercano, el cual tiene un uso específico tal como análisis de agua en el
producto, produce un “espectro” de tan solo unos pocos datos.
El desarrollo y la validación pueden seguir los mismos procedimientos que se usan con modelos de variables latentes tales
como PLS. Durante el desarrollo y la validación de un modelo de regresión lineal múltiple: 1) se requiere usar un procesamiento
previo de datos apropiado; 2) se usa validación cruzada para estimar el desempeño del modelo; y 3) se usa un conjunto de
datos independiente para evaluar el modelo.
Una limitación de la regresión lineal múltiple es que el desempeño predictivo del modelo puede verse negativamente
impactado cuando las variables modeladas son colineales. El problema de la colinealidad no es exclusivo de la regresión lineal
múltiple. Se mitiga en el modelado por PLS mediante la generación de un nuevo conjunto base de variables latentes ortogonales
(no colineales) que son combinaciones lineales de las variables originales. Sin embargo, esto no es pertinente para los modelos
de regresión lineal múltiple. En los modelos de regresión lineal múltiple, la selección o transformación de variables (p. ej.,
centrado de la media) puede ser necesaria para evitar o reducir la colinealidad en el conjunto de calibración. Aunque los modelos
de regresión lineal múltiple tienen algunos parámetros de diagnóstico para identificar valores aberrantes y muestras altamente
utilizadas en la calibración, no cuentan con los parámetros de diagnóstico (tales como T2 de Hotelling y prueba de residuales
X) que ofrecen la PLS durante la predicción de muestras nuevas.
Regresión de componentes principales (PCR, por sus siglas en inglés): Este es un enfoque de modelado de dos etapas en
el que primero se realiza un análisis de componentes principales en los datos del bloque X para obtener un conjunto base de

l
componentes principales. Los componentes principales se usan posteriormente en combinación con los datos y para desarrollar
un modelo de regresión para predecir los valores y.

ia
Mínimos cuadrados parciales (PLS, por sus siglas en inglés): Este es uno de los algoritmos quimiométricos de uso más común
para los escenarios de modelado cuantitativo y cualitativo (PLS-DA, ver Herramientas Cualitativas). La ventaja computacional
que ofrece la PLS sobre la regresión lineal múltiple y la PCR es que los componentes principales se derivan en el algoritmo de
mínimos cuadrados parciales usando los datos X y y de manera simultánea. Esto a menudo resulta en modelos predictivos que
requieren menos variables latentes en comparación con la regresión de componentes principales, con lo que se mejora la
fic
robustez. La regresión de mínimos cuadrados parciales es capaz de manipular relaciones moderadamente no lineales, mientras
que la regresión de componentes principales y la regresión lineal múltiple son técnicas de modelado lineal. Además, se puede
modelar más de una variable y usando los mismos datos del bloque X mediante diferentes enfoques algorítmicos. La regresión
de PLS-1 resulta en un modelo independiente para cada variable y. La regresión de PLS-2 producirá un solo modelo capaz de
predecir de manera simultánea los valores de dos o más variables y. Las ventajas relativas de cada enfoque pueden variar entre
aplicaciones. Por ejemplo, si se requiere un procesamiento previo matemático diferente para resolver cada componente que se
va a predecir, modelos separados de PLS-1 pueden proveer un desempeño mejorado en comparación con un modelo PLS-2
O

individual .

EJEMPLOS DE APLICACIÓN CUANTITATIVA


Valoración de la forma farmacéutica y/o uniformidad del contenido: La valoración del contenido de ingrediente
farmacéutico activo en la forma farmacéutica final comúnmente se realiza mediante la medición de una muestra retirada a partir
de un compuesto homogéneo de un número de unidades de dosificación individuales (p. ej., tabletas o cápsulas). El resultado
cuantitativo posteriormente se informa como un “contenido promedio” (expresado como porcentaje de la cantidad de
ingrediente farmacéutico activo) para la partida analizada. La uniformidad del contenido puede analizarse usando un método
similar a la valoración, pero las mediciones se llevan a cabo en muestras individuales. El resultado informado se basa
principalmente en la variabilidad de los resultados de valoración entre las unidades de dosificación individuales analizadas. Los
métodos de valoración y la uniformidad de contenido tienen el propósito de caracterizar el componente “principal” en la
muestra en cuestión y se consideran pruebas de Categoría I de acuerdo con las definiciones establecidas en el capítulo á1225ñ.
En la mayoría de los casos, el analito esperado será el ingrediente activo en la muestra, aunque también existen valoraciones
cuantitativas para otros componentes en el compendio.
Para formas farmacéuticas sólidas, la mayoría de los procedimientos de valoración se basan en HPLC. El análisis con HPLC
toma mucho tiempo y a menudo implica el uso de grandes volúmenes de disolvente para la fase móvil. Sin embargo, la HPLC
es altamente lineal y a menudo se calibra usando matemática univariante (es decir, una variable medida es directa y únicamente
proporcional a la concentración de la muestra).
Por el contrario, los métodos alternativos para la valoración que se basan en espectroscopía (p. ej., espectroscopía en el
infrarrojo cercano y Raman) a menudo ofrecen la ventaja de rápidas velocidades de análisis y no son destructivos. Sin embargo,
en muchos casos la señal de analito puede no presentar el mismo grado de linealidad o señal-ruido que con el método de HPLC
correspondiente. Además, ninguna variable está directa y únicamente relacionada con la concentración de interés. Por esta
razón, los modelos multivariantes, a menudo basados en PLS, comúnmente se usan en procedimientos espectroscópicos para
valoración y uniformidad de contenido.
Para las pruebas de Categoría I, es crucial demostrar la exactitud, precisión, especificidad, linealidad e intervalo de resultados
durante la validación del procedimiento analítico general. Cada uno de estos aspectos de desempeño implica consideraciones
durante el desarrollo o la validación del modelo multivariante que son distintas a las relacionadas con las técnicas univariantes.
La mayoría de los métodos espectroscópicos no son cuantitativos en un sentido absoluto. Por ejemplo, los modelos
desarrollados usando datos del infrarrojo cercano o Raman deben calibrarse con respecto a una técnica de referencia primaria
(a menudo espectroscopía con HPLC o RMN). Debido a la naturaleza no destructiva del infrarrojo cercano y de Raman, es

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 17/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
18

sencillo analizar un conjunto dado de muestras usando una de estas técnicas y, posteriormente, analizar de manera subsiguiente
el mismo conjunto de muestras mediante espectroscopía con HPLC o RMN para obtener los valores de contenido de referencia.
Este enfoque es típico para valoraciones de formas farmacéuticas sólidas, no obstante, vale la pena tener en cuenta que los
valores de referencia para valoraciones de algunas formas farmacéuticas, ingredientes activos farmacéuticos, polimorfos o
excipientes pueden derivarse de otras técnicas tales como datos gravimétricos registrados durante la preparación de la muestra
de calibración. Los modelos quimiométricos se desarrollan mediante una calibración multivariante usando datos espectrales del
infrarrojo cercano o Raman y los valores de contenido a partir de la técnica de referencia. La exactitud se determina usando la
diferencia absoluta entre las predicciones del modelo y los valores de referencia. La precisión se determina usando la desviación
estándar de los resultados del procedimiento por sí solos, tales como análisis de determinaciones repetidas de la misma muestra.
Por ende, la precisión es una medida del desempeño para el procedimiento analítico en su totalidad. El modelo mismo será
absolutamente preciso. Esto significa que, dados los mismos datos espectrales, siempre se generará el mismo resultado
numérico. Teniendo en cuenta lo anterior, la precisión puede verse influenciada por los aspectos específicos de la estrategia del
modelado quimiométrico (p. ej., pre procesamiento, algoritmo de modelado, número de variables latentes) y, por ende, se
debe evaluar la precisión durante el desarrollo del modelo, así como durante la validación. Es importante tener en cuenta que
la exactitud de los modelos quimiométricos no será capaz de exceder la exactitud de la técnica analítica de referencia usada
para calibrar el modelo. Sin embargo, en algunos casos puede ser posible exceder la precisión de la técnica de referencia.
El intervalo del método será determinado por las muestras de calibración que se usan para el desarrollar del modelo
multivariante. De acuerdo con el capítulo á1225ñ, se recomienda que las muestras de calibración de valoración tengan
contenidos de analitos en el intervalo de 80%–120% de la cantidad esperada. Para evaluar la uniformidad del contenido, el
intervalo recomendado es 70%–130% de la cantidad esperada. En algunos casos, tanto los resultados de la valoración como
los de uniformidad pueden obtenerse a partir del mismo conjunto de mediciones de las muestras. Promediar un número
requerido de resultados de valoración de unidades de dosificación individuales proveerá un valor equivalente al parámetro
“contenido promedio”. El cálculo del “valor de aceptación” (ver Uniformidad de Unidades de Dosificación á905ñ) usando este
resultado medio combinado con la desviación estándar para el mismo conjunto de resultados de unidades de dosificación

l
individuales proveerá uniformidad en los resultados de contenido. En este caso, se debe usar un conjunto de calibración

ia
individual que abarque el intervalo más amplio de los dos intervalos recomendados (70%–130%).
Cuando no resulta práctico obtener un intervalo lo suficientemente amplio de valores de contenido en las muestras de
calibración producidas a escala de fabricación comercial, las muestras de calibración también pueden producirse a una escala
menor o en el laboratorio. En este escenario, se deben extremar las condiciones para replicar las propiedades físicas
representativas de la escala comercial. Asimismo, se debe tener cuidado de verificar que exista una mínima influencia de las
diferentes escalas de producción en los resultados de las muestras. Pueden requerirse la incorporación de muestras a escala
fic
comercial en el proceso de validación del modelo (y/o procedimiento) para verificar la exactitud y precisión de los resultados
del modelo (y/o procedimiento) contra cualquier diferencia y/o variabilidad en las propiedades físicas. Los algoritmos de
procesamiento matemático (p. ej., normalización, segundas derivadas) deben optimizarse tanto como sea posible durante el
análisis de los datos exploratorios iniciales (ver Ejemplos de Aplicación Cualitativa) para mitigar la influencia que pudieran tener
dichos factores en la predicción. Por ejemplo, se sabe que el espesor, el tamaño de partícula y las diferencias en la densidad
pueden llevar a cambios en la pendiente espectral y a desviaciones de la línea base de los espectros del infrarrojo cercano.
Dependiendo del efecto específico que esté presente, una selección inapropiada del procesamiento previo puede no corregir
O

totalmente las diferencias espectrales, lo que lleva a errores en la predicción.


El desempeño predictivo y el ajuste de los modelos quimiométricos debe demostrarse mediante la linealidad de una gráfica
de los resultados del modelo en función de los valores de referencia o nominales del analito esperado, idealmente usando los
resultados a partir de un conjunto de muestras independientes. La señal analítica sin procesar puede demostrar una relación
no lineal con las concentraciones de analito de referencia. Asimismo, se pueden usar múltiples variables latentes para la
construcción del modelo quimiométrico. Sin embargo, el aspecto clave del modelo que debe demostrarse que varía linealmente
con la concentración de analito es el resultado del modelo, no los datos. Una gráfica de la predicción de residuales en función
de la concentración puede ayudar a revelar cualquier falta de ajuste sistemática. Cualquier observación de patrones en esta
gráfica de residuales puede indicar la necesidad de realizar una revisión de: 1) el número de variables latentes incluidas en el
modelo, 2) la matemática del procesamiento previo o 3) el tipo de algoritmo usado para el modelado.
La demostración de la especificidad del procedimiento para la valoración puede basarse en fuentes probables de
interferencia o en la sustitución del material basada en un entendimiento de las propiedades materiales de los componentes
de la muestra y del proceso de fabricación y/o la cadena de suministro. Una manera de hacerlo sería verificar que un placebo
de la unidad de dosificación produce constantemente resultados bajos de la valoración que están fuera de la especificación.
Otra estrategia puede ser verificar que unidades de dosificación de un producto distinto (en especial uno fabricado en la misma
instalación y/o analizado en el mismo laboratorio) resultan en valores de valoración que están siempre fuera de la especificación.
Pruebas de límite de impurezas: Análisis de rutina son necesarios para la determinación de impurezas y/o productos de
degradación en productos intermedios, fármacos a granel y productos farmacéuticos terminados. El análisis para este propósito
puede tomar la forma de una prueba de límite (Categoría II, á1225ñ).
Por lo regular, estas pruebas de impurezas se basan en HPLC u otros métodos (p. ej., valoración volumétrica Karl Fischer para
agua). Estos procedimientos analíticos son altamente lineales y por lo regular se calibran usando matemática univariante. No
obstante, estos métodos a menudo llevan tiempo e implican el muestreo manual, que presenta desventajas, en especial para
productos de alta potencia o para aquellos con productos intermedios tóxicos producidos durante la síntesis del ingrediente
activo farmacéutico.
Por el contrario, los métodos alternativos para valoración basados en espectroscopía (p. ej., en el infrarrojo cercano o Raman)
ofrecen la ventaja de una mayor velocidad de análisis y, de mayor importancia, la eliminación total de muestreo humano
debido a la naturaleza no invasiva de la medición. Sin embargo, estas ventajas por lo regular se compensan por una sensibilidad
reducida (límite de detección) y una respuesta del sensor potencialmente no lineal a lo largo del intervalo requerido de
concentración del analito como el método de referencia correspondiente. Por esta razón, los enfoques multivariantes que
combinan pre procesamiento espectral y modelos de variables latentes a menudo se emplean en los métodos espectroscópicos
para dichas pruebas de límite. (6) No obstante, debido a los desafíos potenciales relacionados con la obtención de una

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 18/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
19

sensibilidad adecuada para una prueba de límite basada en espectroscopía, se deben emplear cuidadosos estudios de
desarrollo y viabilidad.
Para una prueba de límite de los procedimientos de Categoría II, a menudo se usa un conjunto de calibración que contiene
concentraciones variadas del analito de interés usado para caracterizar el desempeño de dicho procedimiento analítico. Aunque
no se requiere, estos parámetros de desempeño podrían incluir exactitud, intervalo, linealidad, entre otros. El uso de los
parámetros de desempeño depende de la naturaleza de la prueba de límite.
Por el contrario, se considera crítico ilustrar la especificidad y el límite de detección durante la validación de una prueba de
límite de acuerdo con el capítulo á1225ñ. Para la especificidad, a menudo se usa una comparación entre el vector de regresión/
carga y un espectro representativo del componente puro de interés. Además, medir los efectos de la matriz sobre la
determinación del analito dentro del intervalo especificado es otro enfoque útil para demostrar que el procedimiento analítico
es específico para el analito de interés sin el impacto de otras variables introducidas en el conjunto de calibración. Asimismo,
se puede demostrar evidencia de la especificidad del método mediante el cálculo de un cociente de selectividad derivada del
conjunto de datos de calibración, definido como la varianza de los espectros reconstruidos del modelo dividida por aquélla de
los espectros residuales. Se espera que el cociente de selectividad en la banda de absorción del analito sea mayor con respecto a
otras regiones espectrales.
Con respecto al límite de detección, no existe un estimador generalmente aceptado para modelos de regresión de mínimos
cuadrados parciales. Una práctica común para determinar el límite de detección implica calcular una relación señal-ruido
espectral. Para representar el ruido se pueden usar los resultados del modelo para análisis de determinaciones repetidas de una
muestra blanco. Como alternativa, se puede obtener una aproximación del ruido usando el error estándar de un modelo
multivariante. Se han sugerido otros enfoques más elaborados para tratar la naturaleza multivariante de los modelos de regresión
de mínimos cuadrados parciales. (7) Con cualquier enfoque, se debe verificar experimentalmente el límite de detección
estimado usando muestras con niveles de analito en o cercanos a dicha concentración. Debido a que el límite de detección
obtenible a través del método espectroscópico será probablemente mayor que el obtenible mediante un enfoque
cromatográfico, se vuelve crucial demostrar que el límite de detección basado en el modelo quimiométrico cumple con los

l
requisitos del perfil analítico esperado.

ia
Prueba de disolución: La disolución in vitro es una prueba de desempeño crucial para formas farmacéuticas sólidas que se usa
para predecir los perfiles de liberación de fármacos in vivo durante el desarrollo del medicamento y para evaluar la uniformidad
entre lotes para propósitos de control de calidad. Se pueden usar modelos quimiométricos para predecir la disolución de
medicamentos a partir de propiedades medidas relevantes del producto, y el método que emplee dicho modelo puede
establecerse como un procedimiento alternativo. Como alternativa, el perfil de disolución puede modelarse mediante varias
respuestas a partir de distintos tiempos de muestreo en la curva de disolución usando modelos individuales.
fic
Se pueden recopilar datos de disolución como un perfil (es decir, una serie de valores obtenidos a diversos tiempos de
muestreo), aunque los criterios de aceptación pueden depender de un tiempo de muestreo individual. Al construir un modelo
quimiométrico, es esencial que el modelo sea capaz de predecir el perfil completo. El número y el lapso de tiempo transcurrido
entre los tiempos de disolución en el perfil de disolución variarán dependiendo del tipo de producto (p. ej., liberación inmediata
versus modificada/prolongada). Un enfoque común es transformar el perfil en un valor individual, el cual posteriormente
funciona como una variable dependiente (o y, variable de respuesta). Esta variable, en combinación con otra variable medida,
se puede usar para restablecer el perfil de disolución. La transformación puede lograrse ajustando los datos del perfil de
O

disolución a un modelo mecanístico (tal como una ecuación de velocidad de primer orden o sus variantes) o un modelo empírico
(tal como una función Weibull). Después de la transformación, se pueden usar unas pocas variables (por lo general, dos o tres
variables) para representar el perfil de disolución. Por lo general, las dos variables son un factor de velocidad de disolución y un
factor de meseta; puede ser necesaria una tercera variable tal como un tiempo de latencia o demora. El factor de velocidad de
disolución, que representa la velocidad de disolución, será la variable dependiente para el modelado. El factor de meseta
representa la cantidad final de fármaco en la solución, la cual debe ser igual al contenido de fármaco para la mayoría de los
productos. Estos dos factores se usan para restablecer el perfil. Por lo tanto, el modelo para predicción de la disolución se usa
para predecir la velocidad de disolución.
La clave para diseñar un modelo exitoso es definir las variables de ingreso. El factor de meseta puede obtenerse a partir de
datos de contenido de fármaco, mientras que el factor de velocidad de disolución puede modelarse a partir de un conjunto de
datos de atributos químicos y físicos del producto o del producto intermedio. Se deben usar los conocimientos necesarios sobre
las propiedades fisicoquímicas así como conceptos de ingeniería para identificar y justificar los datos de entrada pertinentes que
tienen un impacto potencial sobre la disolución del producto. Esto por lo general implica la evaluación de riesgos y una etapa
adicional de recolección de datos tal como un estudio de diseño de experimento a pequeña escala. Los datos de entrada por
lo general incluyen los atributos medidos de los materiales en diversas etapas de procesamiento (tal como datos del tamaño
de partícula para gránulos o mezclas; mediciones en el infrarrojo cercano para mezclas o tabletas; y propiedades físicas de las
tabletas).
Existen dos enfoques para definir las muestras en la calibración del modelo: muestras-partida y muestras individuales de
unidades de dosificación. Para el enfoque de muestra-partida, cada partida de producto se trata como una muestra y las variables
de datos de entrada son los atributos medios de la partida. El enfoque de unidades de dosificación individuales consiste en
medir los atributos de las unidades de dosificación individuales (tales como la medición en el infrarrojo cercano de cada tableta).
Las variables de entrada de ambos enfoques pueden suplementarse con otras propiedades de la materia prima según lo
justifiquen los atributos de calidad críticos.
La validación del método de predicción de disolución basado en modelo puede ser diferente de la validación típica del
método de disolución y HPLC, dependiendo del enfoque específico usado. El método de disolución y HPLC pone más énfasis
en la precisión, puesto que la disolución se trata como un método de Categoría III en el capítulo á1225ñ.
En el enfoque de muestra-partida, el método basado en el modelo trata la disolución como una propiedad de la partida más
que como una propiedad de las tabletas individuales, y la exactitud es el punto central de la validación o verificación del método.
Por ejemplo, cada partida forma una muestra, por lo que no se considera realista tener un conjunto de muestras de validación
grande. Este enfoque genera un perfil para cada partida, y el resultado a cierto tiempo de muestreo puede usarse para evaluar
la calidad de la partida de producto. La evaluación de la variabilidad debe estar alineada con los criterios de Disolución á711ñ.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 19/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
20

La variabilidad del resultado de disolución final puede evaluarse mediante el análisis de las variaciones de los datos de entrada.
Las posibles formas de evaluar la variación de la muestra (partida) incluyen el análisis de la variación de los datos de entrada,
simulaciones, así como dividir una partida en múltiples subpartidas.
En la estrategia de unidades de dosificación individuales, el método basado en el modelo evalúa unidades individuales de
dosificación. Si se analiza una gran cantidad de tabletas, se obtiene un n grande, en esta situación se deben usar con precaución
los criterios de aceptación del capítulo á711ñ. El técnico en quimiometría puede proponer criterios de aceptación siempre que
se demuestre que dichos criterios (mediante simulación u otros medios) son criterios de aprobación equivalentes o más estrictos
que los del capítulo á711ñ. En la validación o verificación del método, es deseable contar con al menos una muestra que presente
una disolución baja (cercana o por debajo de la especificación), y el método basado en el modelo quimiométrico debe demostrar
su capacidad de distinguir dicha muestra de baja disolución de las muestras normales.

GLOSARIO
Una gran cantidad de términos comunes de quimiometría han sido definidos dentro del texto de este capítulo. En esta sección
se proveen definiciones de algunos términos adicionales que sirven como referencia para su uso dentro del texto. Para una
descripción más completa, consulte los textos listados en el Apéndice, Fuentes Adicionales de Información.
Modelo de calibración: Expresión matemática usada para relacionar la respuesta de un instrumento analítico con las
propiedades de las muestras o para capturar la estructura subyacente de un conjunto de datos de calibración.
Conjunto de calibración: Recopilación de datos usada para desarrollar una clasificación o modelo quimiométrico.
Derivadas: El cambio en la intensidad con respecto a la variable de medición (es decir, la abscisa). Las derivadas son útiles
para eliminar desviaciones de la línea base (constantes o lineales) debidas a propiedades de la muestra, o para resaltar pequeños
cambios en una señal, ayudando a mejorar la selectividad y la sensibilidad (p. ej., un pico espectroscópico o cromatográfico
con un hombro adyacente).
Validación interna: Aplicación de estadística de re muestreo tales como validación cruzada. Los subconjuntos del conjunto

l
de datos de calibración se someten a una variedad de procesos estadísticos para identificar el modelo de calibración que mejor
se ajusta a los datos disponibles. Cada modelo se caracteriza mediante un parámetro estadístico. Para la validación cruzada, el

ia
conjunto entero de datos de muestras se divide en muestras individuales o grupos de muestras, los cuales se eliminan de forma
individual del resto de las muestras y se analizan como elementos desconocidos contra un modelo de calibración que se
construye usando el resto de las muestras. El indicador estadístico característico es el error estándar de validación cruzada (SECV,
por sus siglas en inglés).
Matriz: Estructura de datos bidimensionales que consta de columnas y filas usadas para organizar datos de entrada o
fic
resultados durante análisis quimiométricos. La práctica común consiste en que cada fila corresponda con una muestra
individual y que cada columna corresponda con una variable individual.
Conjunto de validación: Conjunto de datos que desafía los atributos de desempeño del modelo. El conjunto de datos de
validación es independiente del conjunto de datos de capacitación, aunque el análisis de los datos de capacitación provee una
visión positiva del desempeño y, por ende, permite ajustar iterativamente el procesamiento previo y el modelo hasta que dicha
visión positiva cumpla con las expectativas. Entonces, es necesaria una validación o validación cruzada para calibrar de manera
adecuada el desempeño del modelo. El desempeño del modelo con el conjunto de datos de validación será siempre igual o
peor que su desempeño con el conjunto de datos de capacitación. Si no se cumplen los atributos de desempeño, entonces el
O

técnico en quimiometría debe evaluar si el modelo se sobreajusta o tiene un ajuste insuficiente a los datos y si son necesarias
iteraciones del modelo para cumplir con la tasa de error aceptable. Si estos esfuerzos fallan, se recomienda volver un paso atrás,
modificar las condiciones de procesamiento previo y llevar a cabo la misma tarea nuevamente.

APÉNDICE

Fuentes Adicionales de Información


Se han escrito muchos libros sobre la quimiometría y el análisis de multivariantes. Varios términos que no se encuentran en
el glosario podrían estar disponibles en la siguiente lista breve de fuentes adicionales de información.
• Massart DL, Vandeginste BGM, Buydens LMC, De Jong P, Lewi PJ, Smeyers-Verbeke J, eds. Handbook of Chemometrics and
Qualimetrics: Part A. 1st ed. Amsterdam: Elsevier Science B.V.; 1997.
• Vandeginste BGM, Rutan SC, eds. Handbook of Chemometrics and Qualimetrics: Part B. 1st ed. Amsterdam: Elsevier Science
B.V.; 1998.
• Mocak J. Chemometrics in medicine and pharmacy. Nova Biotechnologica et Chimica. 2012;11(1):11–25.
• Singh I, Juneja P, Kaur B, Kumar P. Pharmaceutical applications of chemometric techniques. ISRN Anal Chem. 2013; article
ID 795178. http://www.hindawi.com/journals/isrn/2013/795178/. Ingresado el 25 de mayo de 2016.
• Brown S, Tauler R, Walczak B, eds. Comprehensive Chemometrics: Chemical and Biochemical Data Analysis. 1st ed.
Amsterdam: Elsevier Science B.V.; 2009.
• Varmuza K, Filzmoser P. Introduction to Multivariate Statistical Analysis in Chemometrics. Boca Raton, FL: CRC Press (Taylor
& Francis Group); 2009.

REFERENCIAS

1. Massart DL, Vandeginste BGM, Buydens LMC, De Jong P, Lewi PJ, Smeyers-Verbeke J, eds. Handbook of Chemometrics
and Qualimetrics: Part A. 1st ed. Amsterdam: Elsevier Science B.V.; 1997.
2. Massart DL, Vandeginste BGM, Deming SM, Michotte Y, Kaufman L. Chemometrics: A Textbook. 1st ed. Amsterdam:
Elsevier Science B.V.; 1988.

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 20/21
Impreso el: vie. sept. 16 2022, 02:20:35 p. m.(EST) Estado: Oficial Vigente al 16-sept-2022 DocId: GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES
Impreso por: Calidad Suanca Fecha Oficial: Oficial desde 01-may-2020 Tipo de Documento: Capítulos Generales @2022 USPC
DOI Ref: 5g073 DOI: https://doi.org/10.31003/USPNF_M2345_02_02
21

3. Brown CD, Davis HT. Receiver operating characteristics curves and related decision measures: a tutorial. Chemometr Intell
Lab Syst. 2006;80:24–38.
4. World Health Organization. General guidelines for methodologies on research and evaluation of traditional medicine.
Geneva, Switzerland: World Health Organization; April 2000. http://apps.who.int/iris/bitstream/10665/66783/1/
WHO_EDM_TRM_2000.1.pdf. Ingresado el 25 de mayo de 2016.
5. Food and Drug Administration. Guidance for industry: botanical drug products. Rockville, MD: Food and Drug
Administration; June 2004. http://www.fda.gov/downloads/drugs/guidancecomplianceregulatoryinformation/
guidances/ucm070491.pdf. Ingresado el 25 de mayo de 2016.
6. Lambertus G, Shi Z, Forbes R, Kramer TT, Doherty S, Hermiller J, et al. On-line application of near-infrared spectroscopy
for monitoring water levels in parts per million in a manufacturing-scale distillation process. Appl Spectrosc. 2014;68(4):
445–457.
7. Allegrini F, Olivieri AC. IUPAC-consistent approach to the limit of detection in partial least-squares calibration. Anal Chem.
2014;86:7858–7866.

l
ia
fic
O

https://online.uspnf.com/uspnf/document/4_GUID-9E862365-D262-4D50-8CA9-CFF0D4577262_2_es-ES 21/21

También podría gustarte