Está en la página 1de 18

Resumenes-ampliacion-parte-anali...

Solstickan

Ampliación de Química

4º Grado en Química

Facultad de Ciencias
Universidad de Córdoba

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
AUTOMATIZACIÓN DEL PROCESO ANALÍTICO
Denominamos automatización a la sustitución parcial o total de la participación humana en
una operación o secuencia de operaciones. Los objetivos de la automatización son:

- Procesar un gran número de muestras en un tiempo reducido

- Evitar errores y disminuir costes

- Reducir el consumo de muestra y reactivos.

La mecanización es el uso de dispositivos mecánicos para reemplazar, mejorar, expandir o


complementar el esfuerzo humano.

La instrumentación es el sistema utilizado para observar y comunicar una magnitud que


reemplaza, mejora, expande o complementa los sentidos humanos.

Se denomina sistema de retroalimentación al dispositivo que combina elementos de


recepción y envío de señales que pueden modificar el funcionamiento de un proceso de
intervención humana, es decir, provee a un sistema automático la capacidad de tomar
decisiones de forma similar a como lo haría un humano.

Un sistema automático es aquel que puede realizar acciones previamente programadas por el
operador para realizarlas sin la intervención humana. No toma decisiones, sigue una secuencia
de operaciones determinada y no incluye sistema de retroalimentación.

Un sistema automatizado puede tomar decisiones porque contiene un sistema de


retroalimentación o inteligencia artificial. Se autoajusta y modifica la secuencia de
operaciones.

Los analizadores son procesadores analíticos que reciben la muestra o muestras sin medir ni
tratar y suministran los resultados analíticos de forma requerida. Realiza casi todas las
operaciones del proceso analítico. Separa las muestras brutas de los resultados. Se componen
de:

- Instrumento: materialización de una técnica analítica. Su objetivo es generar datos


primarios relacionables con el analito. Puede estar compuesto se aparatos y dispositivos.

- Aparato: sistema que realiza una función, pero no genera información.

Los analizadores pueden ser:

- Modulares o compactos: formados por diferentes instrumentos conectados.


- Automáticos, semiautomáticos o automatizados

- Dar medidas cualitativas o cuantitativas

- Monoparamétricos o multiparamétricos.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Los métodos automáticos se pueden clasificar:

1) Según el tipo de transporte de muestra y reactivos

- Discontinuos: cada muestra está en un recipiente donde tienen lugar las etapas
analíticas y pasan secuencialmente por el detector. Permiten procesar un elevado número de
muestras, reducen la contaminación entre muestras y permiten el uso de reactivos corrosivos.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
- Continuos: la muestra se introduce en un canal por el que fluye un líquido en el que,
normalmente, está disuelto el reactivo. El flujo pasa por el reactor dando una señal que se
relaciona con la concentración. Son más baratos y versátiles.

- Robotizados: Utilizan un robot controlado por un microprocesador que mimetiza las


funciones de un operador. Puede trabajar de forma autónoma durante más tiempo y permite
el uso de reactivos peligrosos.

2) Según la versatilidad
- Diseños específicos: diseñados para llevar a cabo una determinada función. Pueden
ser discontinuos o continuos (dentro de continuos pueden ser segmentados y no
segmentados).
3) Según el número de parámetros

- Diseños monoparamétricos: determinan un parámetro en una muestra, pero pueden


modificarse para determinar otro parámetro en otro tipo de muestra. Pueden ser continuos y
discontinuos.

- Diseños multiparamétricos: determinan parámetros en una muestra. Pueden ser


continuos y discontinuos.

Los analizadores continuos se caracterizan porque las muestras se introducen en una


corriente de líquido o en un gas portador. Ejemplos de estos son las bombas peristálticas o las
de jeringa. Estos analizadores se dividen en:

- Analizadores continuos de flujo segmentado: las muestras se aspiran


secuencialmente y entre ellas se sitúan burbujas de aire que separan el flujo, incluyendo un
ciclo de lavado entre muestras. Estas burbujas evitan la contaminación entre muestras
sucesivas, la dilución o dispersión del bolo de muestra y facilita la mezcla entre muestra y
reactivos. Las burbujas se eliminan antes de llegar al detector.
Estos analizadores se componen de unidad de toma de muestra, unidad de propulsión, de
separación, reacción, eliminación de burbujas, detección y unidad de toma y tratamiento de
datos.

- Analizadores continuos de flujo no segmentado: se caracterizan por la ausencia de


burbujas. La muestra se introduce de forma secuencial en el analizador. En el momento de
llevar a cabo la detección, no se ha alcanzado ni el equilibrio físico ni el químico. En función de
como se introduzca la muestra se distinguen el análisis por inyección de flujo (FIA), análisis
por inyección secuencial (SIA) y analizadores en flujo completamente continuo.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


Ampliación de Química
Banco de apuntes de la
- Analizadores de flujo detenido: inyección simultanea de la muestra y los reactivos
impulsados a gran velocidad hacia la cámara de mezcla conectada con la celda de flujo, donde
se mide la formación de los productos de reacción.

En el Análisis por inyección en flujo (FIA) la configuración es bastante similar a la de los

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
analizadores continuos de flujo segmentado, no hay desburbujeador y hay válvula de
inyección. El sistema de detección se basa en cubetas no abiertas con dos canales, uno que se
conecta al FIA y otro a los desechos.

Los parámetros característicos de la señal FIA son la altura de pico, tiempo de residencia,
tiempo de arranque, de retorno y el ancho de banda en la línea base.

Las modalidades del sistema FIA son la normal, que implica la inyección de un volumen
controlado de muestra en una corriente de portador con o sin reactivo; y la invertida, que se
usa cuando el reactivo es escaso o caro y este se inyecta de forma controlada. También esta la
FIA con zonas de confluencia, que se usa cuando es necesario minimizar el consumo de
reactivo y de muestra, usando un sistema de doble inyección. Por último, la FIA para medidas
cinéticas, que se usa para monitorear la evolución de la señal con el tiempo, mediante la
parada del flujo a distintos tiempos.

En el Análisis de inyección secuencial (SIA), una corriente de líquido portador se manipula


dentro del colector por medio de una bomba bidireccional. El SIA tiene una válvula de
selección multiposicional. Un reactor se coloca entre la válvula y el puerto común. Los distintos
puertos de la válvula están conectados a la muestra, los depósitos de los reactivos y al
detector.

Primero, se selecciona el canal donde está la muestra y una cantidad de muestra se extrae y se
lleva al reactor de retención. Luego, una cantidad de reactivo se extrae y se lleva al reactor de
retención. Finalmente, la bomba cambia de dirección y lleva la muestra y los reactivos hacia
del reactor al detector.

Las ventajas del SIA frente al FIA son:

- En el SIA se usa un único canal más simple y robusto. En el FIA hace falta un flujo
adicional para el reactivo.

- Las bombas peristálticas multicanal del FIA se reemplazan por bombas de jeringa
precisas y robustas en el SIA.

- En el SIA el consumo de muestras y reactivo se reduce drásticamente.

- En el SIA, la válvula de selección proporciona un medio para calibraciones


automáticas.

- En SIA, la manipulación de la muestra y reactivos requiere el control por ordenador,


dando lugar a automatización.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


Dentro de los analizadores de flujo detenido podemos incluir los Sistemas FIA de flujo
detenido, donde la muestra y los reactivos no se mezclan a alta presión. No se pueden
monitorear reacciones rápidas y el análisis es a tiempo real.

También existen los métodos analíticos por cinética catalítica, que son simples y muy

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
sensibles. Se han implementado para la cuantificación de un gran número de especies
químicas. Las técnicas de flujo sirven como herramienta para superar los límites que presentan
los métodos por cinética catalítica.

Los Analizadores continuos presentan como característica común que cada muestra conserva
su identidad durante todo el proceso, y cada muestra está en un recipiente que se transporta
mecánicamente a las distintas etapas de tratamiento. Finalmente, se registran las señales
puntuales. Ejemplos de estos analizadores son:

- Analizador centrífugo: para procesar muestras clínicas a alta velocidad, realizando


medidas en paralelo. La detección es mediante fotometría, nefelometría o fluorometría.
Pueden desarrollar metodologías de punto final o cinéticas. Utiliza la fuerza centrífuga para la
mezcla de muestras y reactivos.

- Analizador clínico: usa sistemas de detección fotométricos y potenciométricos.


Pueden determinar unos 100 parámetros por muestra. Usan una gran variedad de métodos
analíticos. Pueden preconcentrar y diluir de forma automática, interpretar los resultados y
repetir el análisis si es necesario. Permite introducir muestras de urgencia, realizar controles
de calidad. Se limpia de forma automática y trata los datos de forma automática también.

- Analizador elemental: para determinar uno o varios elementos en muestras de


metales, cerámicas, etc. Consta de blanca analítica con pesada automática, horno para la
fusión de la mezcla y una unidad analítica en la que se sitúa el detector.

- Analizador genético: determina fragmentos del ADN mediante electroforesis capilar


acoplada a un detector de fluorescencia por láser. Las muestras marcadas se sitúan en un
automuestrador, la inyección es electrocinética y la separación se realiza en capilar relleno de
un polímero

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


Los Analizadores robotizados permiten incorporar de forma automática etapas del proceso
analítico. El robot toma la muestra y los productos de las distintas operaciones y los transfiere
de un módulo a otro. Los robots se clasifican en:

- Robots de primera generación: trabajan con programas fijos, diseñados para realizar
una tarea concreta.

- Robots de segunda generación: Tienen elementos sensores que proporcionan


información sobre cambios en las condiciones externas. Le permiten adaptarse a pequeños
cambios en el entorno.

- Robots de tercera generación: dotados de inteligencia artificial, son capaces de


modificar sus movimientos en función de los cambios exteriores.

Las ventajas del uso de robots es el aumento de la precisión, mayor productividad y menor
riesgo para el operador. Las desventajas son su alto coste y gran tamaño.

La automatización de la toma de muestra tiene como principal ventaja la reducción en la


manipulación de la misma. Primero, se introduce la muestra usando tubos conectados a una
bomba peristáltica. A continuación, se inyecta y el líquido succionado se hace pasar por un
bucle mientras que la válvula succiona. Posteriormente, el brazo muestreador conectado a la
bomba de jeringa succiona y despensa la muestra. Si es necesario, se extraen los analitos
volátiles utilizando el espacio de cabeza estático.

La preparación de toma de muestra es el cuello de botella en varias metodologías analíticas.


Por eso, este proceso se ha automatizado específicamente para cada metodología:

- Automatización de la extracción líquido-líquido: técnica de separación y/o


preconcentración. Etapa lenta donde son necesarios varios pasos para lograr rendimiento. Se
utilizan volúmenes considerables de disolventes. Esta limitación se minimiza incluyéndolo en
un sistema FIA, donde se inyecta un volumen fijo de muestra a una corriente de reactivo para
convertir el analito a una forma extraíble. La fase orgánica se impulsa y se mezcla con la acuosa
en un segmentador. La extracción se da al pasar la mezcla a través de un serpentín de
extracción y las fases se separan con un separador en línea antes de la detección.

- Automatización de la extracción en fase sólida: los pasos manuales a seguir son la


activación de la columna, carga de la muestra en la columna, lavado para eliminar
componentes interferentes y elución del analito. Para automatizarlo, se puede colocar una
mini-columna entre la válvula de inyección y el detector en el bucle de la válvula de inyección.

- Acoplamiento en línea de un sistema basado en el uso de membranas: las


membranas son elementos esenciales para el muestreo y la limpieza de muestras en sistemas
de inyección de flujo. Algunos de estos procesos de separación son la diálisis, difusión de un
gas. Cuando tenemos una muestra estancada, los analitos se extraen a través de la membrana
y pasan a la corriente antes de la válvula, después de la válvula o a través del bucle. Si los
analitos se encuentran en una muestra en flujo, se pueden introducir también directamente al
detector usando la membrana.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
- Dilución de muestra: una de las operaciones más fáciles y sencillas para ser
implementadas en SIA. La dilución sirve para realizar un patrón único de calibración o para
disminuir la concentración de analito en la muestra.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


SENSORES QUÍMICOS Y BIOQUÍMICOS
Un sensor es un dispositivo capaz de transformar magnitudes físicas, químicas o biológicas
llamadas variables de instrumentación, en magnitudes eléctricas. Estos sensores pueden ser
físicos, químicos o biológicos.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Dado que los análisis son costosos y requieren mucho tiempo, se necesitan sensores que
permitan mediciones in situ. Los sensores electroquímicos para la medición de analitos de
interés en química clínica son ideales para esto debido a su alta sensibilidad y selectividad,
tamaño portátil, tiempo de respuesta rápido y bajo costo.

Un sensor químico ideal debe ser selectivo, sensible, estable y robusto, debe dar una
respuesta en un corto intervalo de tiempo y debe poder realizar todo el proceso analítico.

Las partes de un sensor son los elementos de reconocimiento, sustancias que dan selectividad
al sensor; método de inmovilización, debe ser selectivo; y transductores, es el detector.

Entre las propiedades generales destacan la seguridad, precisión, sensibilidad, asi como la
rapidez, reusabilidad o la portabilidad.

Los sensores se pueden clasificar según su principio de funcionamiento en:

- Sensor químico: transforma información química en información analítica útil.

- Biosensor: sensor químico que incorpora un elemento biológico como elemento de


reconocimiento.

En los Sensores Químicos se distinguen dos partes:

1) Receptor: es la región donde tiene lugar el reconocimiento selectivo del analito. Puede ser
físico (sin reacción química), químico (con reacción, basados en una reacción de equilibrio) o
bioquímico (reacción química con elemento de reconocimiento de naturaleza biológica, ya
sean catalíticos o de afinidad con ligandos)

2) Transductor: convierte información química del analito en una propiedad medible. Los
elementos transductores pueden ser:

- Electroquímicos (transforman la interacción electroquímica entre el analito y el


electrodo en una señal eléctrica), que a su vez se clasifican en potenciómetros, voltamétricos,
conductimétricos o de capacitancia
- Transductores ópticos (transforman cambios en un fenómeno óptico originado por la
interacción de una señal eléctrica con el analito), que pueden ser de absorbancia, reflectancia,
luminiscencia, light scattering o de índice de refracción. Se conocen como Optodos a los
módulos usados en la interfase entre la fibra óptica y la solución de la muestra.

- Transductores sensibles a la masa: transforman un cambio de masa en una superficie


especialmente modificada en un cambio de una propiedad del material de soporte. El cambio
en la masa es causado por la acumulación del analito. Incluye los sensores piezoeléctricos. La
vibración de los cristales piezoeléctricos produce un campo eléctrico oscilante en el que la
frecuencia de resonancia del cristal depende de su naturaleza química, tamaño, forma y masa.
Al colocar el cristal, la frecuencia se puede medir en función de la masa.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


- Transductores térmicos: medición del calor de una reacción química especifica o
adsorción que involucre a un analito. Pueden ser de contacto o sin contacto directo con el
objeto.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Las ventajas de los Biosensores son la posibilidad de portabilidad, de miniaturización y trabajo
in situ, y la capacidad de medir contaminantes en matrices complejas con preparación mínima
de la muestra. No pueden competir con los métodos analíticos convencionales en términos de
precisión y reproductibilidad. Se pueden clasificar según la transducción de la señal o según el
principio de biorreconocimiento.

Los elementos de reconocimiento más utilizados son los

- Inmunoquímicos, muy sensibles, selectivos y versátiles. Funcionan por interacciones


inmunoquímicas anticuerpo-antígeno. Combina los principios del inmunoensayo hecho en un
soporte sólido con elementos de transducción fisicoquímica.

- Enzimáticos, se basan en la inhibición selectiva de enzimas específicas.

Los elementos de un biosensor son:

- Bio-receptor: se une específicamente al analito.

- Soporte: donde tiene lugar la reacción, dando una señal

- Elemento transductor: la señal se convierte en una señal electrónica y se amplifica


mediante un detector.

- Software: para convertir el parámetro que estamos midiendo

- Datos o gráficas.

Para construir un buen biosensor se necesita:

- Biocatalizador muy específico, estable, almacenable y que muestre baja variación


entre ensayos.

- La reacción debe ser independiente de parámetros físicos.

- Respuesta precisa, reproducible y lineal

- Monitorización invasiva en situaciones clínicas. Sensor pequeño y biocompatible, sin


efectos tóxicos ni antigénicos.

- Mediciones rápidas de los analitos y resultados in situ.

- Barato, portátil, pequeño y fácil de usar.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


Los biosensores electroquímicos se basan en la monitorización de especies reactivas. Puede
realizar medidas potenciométricas y amperométricas. La mayoría de los avances que se han
hecho en estos biosensores se basan en la biotecnología.

- Un biosensor amperométrico se basa en la aplicación de un potencial constante


entre un electrodo de trabajo y uno de referencia. La magnitud de la corriente es proporcional
a la concentración de especies electroactivas. Varios se basan en el seguimiento del consumo
de oxígeno o generación de peróxido de hidrógeno. Sin embargo, el sensor amperométrico
puede incluir pequeñas interferencias.

- Los biosensores potenciométricos se basan en la monitorización del potencial en un


electrodo de trabajo respecto a uno de referencia.

Los biosensores enzimáticos se pueden clasificar en aquellos que miden la inhibición de una
enzima especifica debido a la presencia de analitos diana, y aquellos que miden la
transformación catalítica de analitos diana por una enzima especifica.

Las enzimas normalmente utilizadas son oxidasas. Como ventaja está su bajo coste, alto grado
de reproductibilidad y que los electrodos son desechables. Las enzimas se inmovilizan en el
sensor mediante adsorción, unión covalente, reticulación o atrapamiento en matrices.

Una Nariz Electrónica es un dispositivo diseñado para imitar el olfato y es capaz de detectar
compuestos volátiles. Este instrumento incluye un conjunto de sensores químicos electrónicos
con especificidad parcial y un sistema de reconocimiento de patrones adecuado, capaz de
reconocer olores simples o complejos. Consta de sistema de introducción de muestra,
analizador y un sistema informático capaz de tratar y convertir en información útil las señales
originadas en el analizador.

La detección de olores selectiva es mediante sensores de diversos tipos o espectrómetro de


masas. Los sensores contienen un material activo cuya propiedades eléctricas o mecánicas
cambian transitoriamente en presencia de ciertos compuestos volátiles.

La espectrometría de movilidad iónica es un sensor para detectar compuestos en fase gas


cuyo principio físico esta basado en la distinta movilidad de los iones en un gas, bajo la
influencia de un campo eléctrico a presión atmosférica. Se distinguen tres partes, cámara de
ionización, tubería de deriva y detector.

Primero, la muestra entra en estado gaseoso y sus moléculas se ionizan. Los iones son
separados según su tamaño y forma en el tubo de deriva y se aplica un campo eléctrico. Los
iones se detectan en la placa de Faraday y, en contracorriente, entra un gas para ayudar a
separar a los iones y eliminar las moléculas neutras.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
MÉTODOS QUIMIOMÉTRICOS
Se define quimiometría como la disciplina que utiliza métodos matemáticos y estadísticos para
diseñar o seleccionar procedimientos de medida y experimentos óptimos y para proporcionar
la máxima información química mediante el análisis de datos químicos.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tambien se puede definir como la disciplina química que utiliza las matemáticas, estadística y
la lógica formal para diseñar o seleccionar procedimientos experimentales óptimos,
proporcionar la máxima información química relevante a partir del análisis de datos químicos,
y obtener conocimiento a partir de sistemas químicos.

La quimiometría permite diseñar y analizar experimentos mas eficaces, ayudando a mejorar el


rendimiento del proceso analítico. Se puede usar para diseñar el muestreo, filtrar señales,
ensayos de significación, optimización de un método, calibración uni y multivariante, análisis
clasificatorio y simulación de procesos.

Se denomina población al conjunto de todos los casos y muestra al subconjunto tomado


aleatoriamente de la población.

Un modelo de distribución es la función matemática que describe la distribución de la


población en términos de frecuencia de los resultados frente a su valor numérico. Un modelo
de distribución normal se puede describir en función de la media, tendencia central de la
población; y la desviación estándar, típica o normal, que mide la dispersión. La desviación
estándar es una medida del grado de proximidad de los datos en torno al valor de la media,
pero no indica la forma de la distribución. El cuadrado de la desviación estándar es la varianza.

Se conoce como intervalo de confianza al intervalo dentro del cual se puede suponer de
manera razonable que se encuentra el valor verdadero. Los valores extremos de dicho
extremo son los límites de confianza. Cuanto mayor sea la certeza, más grande será el
intervalo. Para muestras pequeñas, los límites de confianza vienen dados por el estadístico
t-student. Los grados de libertad son el numero de desviaciones independientes que se
utilizan para calcular la desviación estándar absoluta.

Una de las propiedades más importantes de un método analítico es que debe estar libre de
errores sistemáticos. Los errores aleatorios hacen poco probable que la cantidad medida sea
igual al valor verdadero. Si la diferencia entre estos valores se puede atribuir a errores
aleatorios, se puede aplicar una prueba estadística denominada Contraste de significación.

Esta aproximación contrasta si son significativas las diferencias entre los resultados o si se
pueden justificar solo por variaciones aleatorias. La comparación de una medida experimental
con un valor conocido se realiza formulando una hipótesis nula (H 0 ), que establece que los
parámetros son todos iguales.

Esta hipótesis se rechaza cuando la probabilidad de que dicha diferencia observada ocurra por
azar es menor del 5%. Supone un riesgo del 5% de que se rechazara una hipótesis nula aunque
sea verdadera. A este tipo de error se le denomina error tipo I.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


Si se acepta la hipótesis nula no significa que se haya probado que sea verdadera, solo que no
se ha demostrado que sea falsa. Mantener la hipótesis nula aun cuando es falsa es un error de
tipo II. Para calcular la probabilidad de este tipo de errores es necesario postular una hipótesis
alternativa (H1 ), que se aceptará en el caso de que la primera resulte rechazada.

Para contrastar la hipótesis nula se calcula es estadístico t.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Para comparar dos medias y contrastar si se diferencian significativamente se realizan los
ensayos de hipótesis.

El Análisis de Varianza (ANOVA) es un técnica que se utiliza para separar y estimar las
diferentes causas de variación. Se puede diferenciar la variación debido a un error aleatorio o
debido a otros factores. Se puede contrastar si una alteración del factor de control conduce a
diferencias significativas entre los valores medios obtenidos. Tambien se puede emplear
ANOVA en situaciones donde hay más de una fuente de variación aleatoria.

En la comparación de medias muestrales mediante ANOVA de entrada, las medias se


comparan para establecer si son todas iguales (H 0 ) o si una de ellas es distinta de las demás
(H1 ). El cálculo y la comparación de más de dos medias se realiza mediante el cálculo y la
comparación de dos o mas varianzas, pero el objetivo de ANOVA es comparar medias, no
varianzas. El método ANOVA contrasta si la diferencia entre las medias muestrales es
demasiado grande para explicarse mediante errores aleatorios.

Para comprobar la homogeneidad de varianzas se prepara una matriz con los datos y se usan
softwares estadísticos para realizar ANOVA.

Las condiciones previas para aplicar un ANOVA son:

- Independencia: cada serie de datos debe ser independiente de las demás.

- Normalidad: la distribución interna de cada serie debe ser normal.

- Homogeneidad: las varianzas de las series deben ser iguales.

Los gráficos de cajas y bigotes son muy útiles para comparar la variabilidad entre series
pequeñas de datos. Los lados inferior y superior coinciden con los cuartiles. La caja se parte
por la mediana. Los bigotes son los valores extremos que pueden considerarse normales y los
valores más allá de ellos son anómalos o atípicos.

-----------------------------|

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


En situaciones en las que se miden varias variables para cada muestra, proporcionan datos
multivariantes, y, por ende, se debe de usar Análisis Multivariante. El objetivo de estos
métodos es poder visualizar datos de más de tres variables. Otra razón para usar este método
es poder separar grupos de datos en base a las características de sus variables.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Los datos obtenidos en un experimento se pueden mostrar en forma de matriz de
objetos-variables. Las técnicas de exploración de datos se utilizan para poner de manifiesto y
resaltar la información contenida en una matriz de datos multidimensional constituida por n
objetos (filas) y m variables (columnas). Los objetos vienen caracterizados por una o mas
variables. La quimiometría sirve para extraer información significante sobre los objetos y las
variables de las matrices de datos.

Existen tres tipos de variables según su orden:

- Variables manifiestas: forman la matriz de datos, se miden experimentalmente.

- Variables latentes: describen tendencias de los datos. Son combinaciones lineales de


las variables manifiestas en función de criterios racionales.

- Variables fundamentales: describen factores subyacentes que expliquen la


configuración de los grupos y las correlaciones observadas. Son las direcciones del espacio
correlacionadas con causas objetivas de varianza.

Existen dos tipos de datos:

- Cualitativos o categóricos: los resultados posibles NO son valores numéricos.

- Cuantitativos: resultados numéricos. Pueden ser discretos (valores aislados) o


continuos (toman todos los valores de un determinado intervalo).

En el preprocesado de datos se transforman los datos originales, preparando la matriz para


aplicar otras herramientas estadísticas. Las técnicas de preprocesado hacen posible el
procesado, mejoran los resultados y evitan conclusiones incorrectas. Un buen preprocesado
no cambia ni afecta la matriz original. Sirve para distinguir entre señal y ruido, eliminar el
ruido, corregir la línea de base y los efectos de fondo y eliminar interferencias.

Antes de preprocesar, se normalizan las variables que tengan distinta escala, antes del análisis
estadístico o multivariante. Las técnicas de preprocesado son:

- Relleno de huecos: una vez se revisen los datos, si se observan que faltan datos, no
se rellena con 0, si no con valores medios o un dato aleatorio dentro del intervalo.
- Cambio de escala o escalado: diferentes características pueden representar
propiedades muy diferentes, por lo que los valores también pueden ser muy diferentes. Para
eliminar estas diferencias, se realiza un escalado de los datos. Los datos mayores pueden
impedir observar las variables con datos de bajo valor numérico.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


- Centrado o translación del origen de coordenadas al centroide: para eliminar la
tendencia de los datos. El procedimiento más común es el “mean centering”, donde cada valor
se centra al restarle el valor medio de todos los datos.

- Eliminación del ruido asociado a la señal analítica: en muchas ocasiones es necesario


procesar la señal obtenida para separar o minimizar el efecto de los componentes ajenos a la
información buscada. Mejora la exactitud y precisión de los resultados y facilita la
interpretación. Las operaciones de reducción del ruido asociado se conocen como filtrado.
- Alineamiento: cuando se analiza la misma muestra n veces en un mismo aparato,
puede que cambie la señal. Antes de realizar un tratamiento quimiométrico hay que realizar el
alineamiento.

--------------------|

Los modelos de Análisis NO Supervisado son aquellos en los que se aumenta el conocimiento
estructural de los datos disponibles mediante una agrupación de los datos según su similaridad
(clustering) o simplificando las estructuras de los mismos manteniendo sus características
fundamentales (PCA). NO son métodos de clasificación.

Un problema en el análisis multivariante es que el volumen bruto de los datos puede dificultar
el reconocimiento de pautas y relaciones. La proyección sobre el plano de una nube de puntos
multidimensional ofrece visiones muy ilustrativas de las estructuras que contiene. Mediante la
rotación se construyen modelos de la nube de puntos, buscando las direcciones del espacio
que ofrecen la mejor visión posible de las mismas. Los nuevos ejes de coordenadas, llamados
Componentes Principales, se construyen como combinaciones lineales de las variables
manifiestas. Los componentes principales son variables latentes, modelan las principales
tendencias en la nube de datos.

El Análisis de componentes principales (PCA) es una técnica para reducir la dimensionalidad


de un conjunto de datos, permite encontrar la estructura relevante en una tabla de datos cuya
lectura directa lo impide. La idea detrás del PCA es encontrar componentes principales que
sean combinaciones lineales de las variables originales que describen cada muestra. La primera
componente principal recoge la mayor parte de la información que hay en el conjunto de
datos, la segunda PC recoge la siguiente mayor parte, etc.

La correlación entre variables está descrita por el coseno del ángulo entre sus vectores, menor
ángulo, mayor correlación entre las variables. El tamaño de los vectores en relación a los PC es
una medida de la importancia de una variable para el modelo.

El objetivo del PCA es simplificar y reducir el número de variables, preservando la máxima


información, detectar la existencia de patrones y relaciones intrínsecas, visualizar datos
formados por muchas variables y detectar posibles outliers. Permite utilizar la información
disponible para cada muestra de forma simultánea.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Antes de realizar un PCA hay que ver si se pueden emplear los datos originales o si hay que
estandarizar cada variable a media cero y varianza unidad. Si las variables no se estandarizan y
una variable tiene una varianza mucho más grande, esta variable contará como el PC1. A cada
PC le corresponde un autovalor, que proporciona la cantidad de varianza en el conjunto de
datos que se encuentra explicada por esa PC.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
En el Análisis no supervisado se realiza el análisis de componentes principales, técnica de
exploración de datos, donde los componentes se buscan ignorando la posible presencia de
categorías.

Un tipo de Análisis supervisado es el análisis clasificatorio, donde se construyen modelos


capaces de pronosticar la pertenencia de un objeto a una categoría sobre la base de las
características del objeto. Es necesario disponer de una muestra de objetos cuya categoría sea
conocida.

En el análisis discriminante lineal (LDA) hay una serie de muestras (objetos) cuya pertenencia
al grupo es conocida. El objetivo de los métodos de reconocimiento de pautas supervisado es
utilizar estos objetos para encontrar una regla para asignar un nuevo objeto de grupo
desconocido al grupo correcto.
El punto de partida de un LDA es encontrar una función discriminante lineal que sea una
combinación lineal de las variables originales y proporcione un medio de discriminación entre
los dos grupos. Se busca maximizando la varianza entre clase y minimizándola entre los
objetos o muestras de una misma clase. La clasificación de un objeto o muestra desconocida se
realiza introduciendo ese objeto en cada una de las funciones discriminantes calculadas y el
objeto se asigna a la clase cuyo centroide tenga la menor distancia euclidiana.

El modelo puede ser lineal o no lineal dependiendo de la forma matemática que se use para
establecer el límite de decisión.

El método de los k vecinos más cercanos (KNN) sirve para decidir como clasificar un objeto
desconocido cuando hay dos o más grupos de objetos de clase conocida. No hace ninguna
suposición sobre la distribución de las clases y se puede utilizar cuando los grupos no puedan
ser separados por un plano. Para clasificar un punto, vemos sus vecinos más cercanos (los más
similares) y clasificamos el punto como la clase mayoritaria en esos vecinos.

Para construir un buen modelo de clasificación se debe cumplir que:

- El conjunto de entrenamiento debe estar constituido por un número mínimo de


objetos independientes de cada categoría. La dispersión interna en cada categoría queda bien
representada.

- Variables predictoras deben contener información discriminante.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito


La Validación es la única forma de asegurar que los datos tienen la calidad requerida, las
referencias son de calidad y que el modelo funciona adecuadamente. La validación consiste en
un modelo de clasificación consiste en establecer su capacidad de reconocimiento y predicción
y su estabilidad o robustez.

La capacidad de reconocimiento se evalúa como el % de objetos del conjunto de

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
entrenamiento que son clasificados correctamente.

La capacidad de predicción es el % de objetos del conjunto de evaluación que son clasificados


correctamente por el modelo. Para establecerla, hay que definir previamente un conjunto de
prueba o evaluación, formando por objetos de los que se conoce su pertenencia a las
categorías, pero que no se incluyeron en el conjunto de entrenamiento.

El % de clasificación es el éxito del modelo para dar clases correctas de las muestras con las
que es construido.

El % de validación es el éxito del modelo para dar las clases correctas de muestras no
introducidas para construir el modelo.

La optimización de un procedimiento experimental es el proceso de búsqueda y localización


del conjunto de valores de las variables independientes que producen el mejor posible
resultado en nuestro proceso de síntesis, medición o determinación analítica. En la mayoría de
las ocasiones se realizan métodos de optimización univariante de forma manual. Los métodos
univariante se usan cuando se varia un factor o variable, manteniendo constante la influencia
de los demás. Las variables deben ser independientes, si la respuesta depende de dos o más
variables que interaccionan no puede usarse el método.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-7036331

si lees esto me debes un besito

También podría gustarte