Está en la página 1de 11

ANTECEDENTES PRÁCTICA 1:

DETERMINACIÓN DEL CONTENIDO DE HUMEDAD EN UNA MUESTRA


COMERCIAL. QUÍMICA ANALÍTICA EXPERIMENTAL I
MUESTRA: FÉCULA DE MAÍZ MARCA MAIZENA
1. Definir el término “humedad” en un producto.
El contenido de humedad en un alimento es frecuentemente un índice de estabilidad del
producto, ya que el control de la humedad es un factor decisivo en muchos procesos
industriales tales como la molienda de cereales, el mezclado de productos sólidos finos, en
la elaboración de pan, etc. Así mismo, en la evaluación de muchos procesos industriales es
de gran importancia conocer el contenido de agua de los productos o materias primas para
formular el producto y evaluar las pérdidas durante el procesado.
Es un proceso crucial para implementar la mejora en la conservación del alimento. Al
mismo tiempo, es una forma de optimizar al máximo su uso y la calidad de su estado.
Dicha humedad está presente en todos los alimentos precisamente por estar compuestos de
bioelementos que interaccionan con el agua.
Se entiende por humedad, la pérdida en peso que sufre un alimento al someterlo a las
condiciones de tiempo y temperatura prescritos.
Humedad es la pérdida en peso por evaporación que sufre el producto al someterlo a las
condiciones prescritas, expresada en por ciento.
2. Investigar técnicas empleadas para determinar la humedad.
Desecación en estufa
Los métodos de secado son los más comunes para valorar el contenido de humedad en los
alimentos; se calcula el porcentaje en agua por la perdida en peso debida a su eliminación
por calentamiento bajo condiciones normalizadas.
Aunque estos métodos dan buenos resultados que pueden interpretarse sobre bases de
comparación, es preciso tener presente que:
a) algunas veces es difícil eliminar por secado toda la humedad presente,
b) a cierta temperatura el alimento es susceptible de descomponerse, con lo que se
volatilizan otras sustancias además de agua,
c) también pueden perderse otras materias volátiles aparte de agua. El principio operacional
del método de determinación de humedad utilizando estufa con o sin utilización
complementaria de vacío, incluye la preparación de la muestra, pesado, secado, enfriado y
pesado nuevamente de la muestra. No obstante, antes de utilizar este procedimiento deben
estimarse las posibilidades de error y tener en cuenta una serie de precauciones:
1. Los productos con un elevado contenido en azúcares y las carnes con un contenido alto
de grasa deben deshidratarse en estufa de vacío a temperaturas que no excedan de 70°C.
2. Los métodos de deshidratación en estufa son inadecuados para productos, como las
especias, ricas en sustancias volátiles distintas del agua.
3. La eliminación del agua de una muestra requiere que la presión parcial de agua en la fase
de vapor sea inferior a la que alcanza en la muestra; de ahí que sea necesario cierto
movimiento del aire; en una estufa de aire se logra abriendo parcialmente la ventilación y
en las estufas de vacío dando entrada a una lenta corriente de aire seco.
4. Muchos productos son, tras su deshidratación, bastante higroscópicos; es preciso por ello
colocar la tapa del pesa-sustancias o de la cápsula que contiene la muestra inmediatamente
después de abrir la estufa e introducirla en un desecador. Es necesario también pesar tan
pronto como la muestra alcance la temperatura ambiente.
5. La reacción de pardeamiento que se produce por interacción entre los aminoácidos y los
azúcares reductores (reacción de Maillard) libera agua durante la deshidratación y se
acelera a temperaturas elevadas. Los alimentos ricos en proteínas y azúcares reductores
deben, por ello, desecarse con precaución, de preferencia en una estufa de vacío a 60°C.

Refractometría
El índice de refracción de un aceite, un jarabe u otro líquido es una constante adimensional
que se puede utilizar para describir la naturaleza del alimento. Cuando un haz de luz pasa
de un medio a otro, y la densidad de ambos es distinta, entonces el haz de luz se desvía o se
refracta.
El índice de refracción varía con la concentración del compuesto, la temperatura y la
longitud de onda de la luz. Los instrumentos están diseñados para proporcionar una lectura
al pasar un haz de luz de una longitud de onda específica a través de un prisma de vidrio
hasta el interior de un líquido, la muestra. Siempre que se presenten los índices de
refracción de fluidos normales, estos vienen precedidos por de luz que normalmente es 590
nm, la línea de emisión del sodio.
El hecho de que el IR de una disolución aumente con la concentración ha sido explotado en
el análisis del contenido total de sólidos solubles en los alimentos basados en hidratos de
carbono tales como jarabes de azúcar, los productos de frutas y los productos de tomate.
Debido a esta aplicación los refractómetros se calibran en oBrix (g de sacarosa/100 g de
muestra). La humedad en los productos de azúcar líquidos y las leches condensadas se
puede determinar utilizando un refractómetro y calculándola por diferencia respecto a la
concentración de sólidos solubles.
Mientras que algunos refractómetros están diseñados sólo para proporcionar sus resultados
en forma de índices de refracción, otros, están equipados con escalas calibradas para la
lectura del porcentaje de sólidos, para el porcentaje de azúcares y otras similares,
dependiendo de para que producto estén destinados. Con los instrumentos se suelen
proporcionar tablas para la conversión de los valores y para compensar las diferencias de
temperatura.

Radiación Infrarroja
El secado por infrarrojos supone la irradiación de calor hacia el interior de la muestra que
está siendo secada. Tal penetración de energía para evaporar la humedad de la muestra
puede acotar significativamente el tiempo de secado necesario hasta los 10‐25 minutos.
Además, la lámpara utilizada para suministrar calor a la muestra emite energía en la banda
comprendida entre 3000 y 3500 nanómetros, donde absorben los enlaces de la molécula de
agua.
Para la determinación la muestra se muele y se coloca sobre el plato de una balanza,
exponiéndola a los rayos infrarrojos por un determinado tiempo. La diferencia entre el peso
inicial y el final corresponde al agua que fue eliminada.
Karl Fisher
La valoración Karl Fischer es el método de elección para la determinación del agua en
alimentos bajos en humedad tales como las frutas y verduras secas, el chocolate, leche en
polvo, el café tostado, los aceites y las grasas. El método es rápido, exacto y no utiliza
calor.
El equipo de Karl Fischer que vamos a utilizar basa su funcionamiento en la técnica
electroquímica de las valoraciones conocidas como amperométricas y más concreto en las
de tipo de PUNTO FINAL POR DESPOLARIZACIÓN.
Para ello los electrodos de los que dispone el equipo se introducen dentro de una cubeta que
contiene la muestra y un disolvente no acuoso, generalmente metanol anhidro. A
continuación, adicionamos por medio de una bureta, el reactivo de Karl Fischer. El reactivo
de Karl Fischer incluye en su formulación dióxido de azufre, una base (piridina) y yodo. La
reacción que tiene lugar se basa en la reacción de Bunsen entre el yodo (I2) y el dióxido de
azufre (SO2) en un medio acuoso. Karl Fischer descubrió que esta reacción podía ser
modificada para ser utilizada en la determinación de agua en un sistema no acuoso
mediante un exceso de dióxido de azufre.
La reacción química que tiene lugar es la siguiente:

En esta reacción se consume agua. El agua y el yodo se consumen en la proporción 1:1.


Una vez que el agua presente en la muestra se ha consumido la presencia de un exceso de
yodo es detectada voltamperométricamente por los electrodos indicadores.
El reactivo tiene la propiedad de reaccionar rápidamente con el agua presente en la muestra,
lo que hace que aparezca o desaparezca súbitamente una corriente en el galvanómetro en
presencia o en ausencia del reactivo. Cuando se llega al punto final, cuando toda el agua ha
sido consumida por el reactivo, se produce la despolarización de los electrodos y en
consecuencia un fuerte paso de corriente a través de éstos que se mantiene durante un cierto
tiempo.
El volumen del reactivo de KF necesario para alcanzar el punto final de la valoración es
directamente proporcional a la cantidad de agua presente en la muestra.

3. Investigar cual es el límite de humedad aceptado en el producto que se analizará en el


laboratorio (Maizena).
El almidón o fécula de maíz en su único tipo y grado de calidad debe cumplir con las
especificaciones físicas y químicas.
Especificaciones: Humedad en %
Mínimo -
Máximo 13.0

NOM-F-083-1986 Alimentos-Determinación de humedad en productos alimenticios.


Declaratoria de vigencia publicada en el Diario Oficial de la Federación el 14 de julio de
1986.
4. ¿Qué significa que una muestra sea aleatoria, representativa y homogénea?
Muestra aleatoria
Muestra representativa
Muestra homogénea
5. Explicar en qué consiste el método de muestreo por cuarteo.
La técnica del Cuarteo tiene gran utilidad, en especial para tomar una muestra
representativa pequeña a partir de una muestra grande y poco homogénea. Se utiliza con
mayor frecuencia para polvos o sólidos granulados.
El procedimiento consiste en:
Verter la muestra mayor en forma de cono sobre un plástico limpio.
Aplanar el cono de tal forma que quede como una tortilla
Dividir la tortilla en 4 partes iguales con ayuda de una regleta
Descartar dos de las cuartas partes que se oponen diametralmente
Tomar los dos cuartos que quedan, los cuales constituyen la “muestra final”
Si la muestra final sigue siendo grande, puede repetir el procedimiento descrito hasta
llegar al tamaño de muestra ideal (Muestra Menor).

6. Mencione 5 sustancias que pueden ser empleadas como desecante.


H2SO4, Al y Mg en virutas, Alúmina, Sílica gel, Sodio Metálico, Sulfato de Cobre anhidro,
Óxido de Calcio.
7. Definir los siguientes términos, con base en el Vocabulario Internacional de Metrología:
• Mensurando
mensurando, m
magnitud que se desea medir
NOTA 1 La especificación de un mensurando requiere el conocimiento de la naturaleza de
la magnitud y la descripción del estado del fenómeno, cuerpo o sustancia cuya magnitud es
una propiedad, incluyendo las componentes pertinentes y las entidades químicas
involucradas.
NOTA 2 En la segunda edición del VIM y en IEC 60050-300:2001, el mensurando está
definido como “magnitud particular sujeta a medición”.
NOTA 3 La medición, incluyendo el sistema de medida y las condiciones bajo las cuales se
realiza ésta, podría alterar el fenómeno, cuerpo o sustancia, de tal forma que la magnitud
bajo medición difiriera del mensurando. En este caso sería necesario efectuar la corrección
apropiada.
NOTA 4 En química, la “sustancia a analizar”, el “analito”, o el nombre de la sustancia o
compuesto, se emplean algunas veces en lugar de “mensurando”. Esta práctica es errónea
debido a que estos términos no se refieren a magnitudes.
• Analito
NOTA 4 En química, la “sustancia a analizar”, el “analito”, o el nombre de la sustancia o
compuesto, se emplean algunas veces en lugar de “mensurando”. Esta práctica es errónea
debido a que estos términos no se refieren a magnitudes.
• Principio de medida
principio de medida, m
fenómeno que sirve como base de una medición
NOTA El fenómeno puede ser de naturaleza física, química o biológica.
• Método de medida
descripción genérica de la secuencia lógica de operaciones utilizadas en una medición
NOTA Los métodos de medida pueden clasificarse de varias maneras como: método de
sustitución, método diferencial, método de cero; o método directo, método indirecto
• Procedimiento de medida
descripción detallada de una medición conforme a uno o más principios de medida y a un
método de medida dado, basado en un modelo de medida y que incluye los cálculos
necesarios para obtener un resultado de medida.
NOTA 1 Un procedimiento de medida se documenta habitualmente con suficiente detalle
para que un operador pueda realizar una medición.
NOTA 2 Un procedimiento de medida puede incluir una incertidumbre de medida objetivo.
NOTA 3 El procedimiento de medida a veces se denomina standard operating procedure
(SOP) en inglés, o mode operatoire de mesure en francés. Esta terminología no se utiliza en
español.
• Precisión
precisión de medida, f
precisión, f
proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas
de un mismo objeto, o de objetos similares, bajo condiciones especificadas NOTA 1 Es
habitual que la precisión de una medida se exprese numéricamente mediante medidas de
dispersión tales como la desviación típica, la varianza o el coeficiente de variación bajo las
condiciones especificadas.
NOTA 2 Las “condiciones especificadas” pueden ser condiciones de repetibilidad,
condiciones de precisión intermedia, o condiciones de reproducibilidad (véase la norma
ISO 5725-1:1994).
NOTA 3 La precisión se utiliza para definir la repetibilidad de medida, la precisión
intermedia y la reproducibilidad.
NOTA 4 Con frecuencia, “precisión de medida” se utiliza, erróneamente, en lugar de
exactitud de medida.
• Exactitud
exactitud de medida, f
exactitud, f
proximidad entre un valor medido y un valor verdadero de un mensurando
NOTA 1 El concepto “exactitud de medida” no es una magnitud y no se expresa
numéricamente. Se dice que una medición es más exacta cuanto más pequeño es el error de
medida.
NOTA 2 El término “exactitud de medida” no debe utilizarse en lugar de veracidad de
medida, al igual que el término “precisión de medida” tampoco debe utilizarse en lugar de
“exactitud de medida”, ya que esta última incluye ambos conceptos.
NOTA 3 La exactitud de medida se interpreta a veces como la proximidad entre los valores
medidos atribuidos al mensurando.
• Error
error de medida, m
error, m
diferencia entre un valor medido de una magnitud y un valor de referencia
NOTA 1 El concepto de error de medida puede emplearse
a) cuando exista un único valor de referencia, como en el caso de realizar una calibración
mediante un patrón cuyo valor medido tenga una incertidumbre de medida despreciable, o
cuando se toma un valor convencional, en cuyo caso el error es conocido.
b) cuando el mensurando se supone representado por un valor verdadero único o por un
conjunto de valores verdaderos, de amplitud despreciable, en cuyo caso el error es
desconocido.
NOTA 2 Conviene no confundir el error de medida con un error en la producción o con un
error humano.
• Error aleatorio
error aleatorio de medida, m
error aleatorio, m
componente del error de medida que, en mediciones repetidas, varía de manera
impredecible
NOTA 1 El valor de referencia para un error aleatorio es la media que se obtendría de un
número infinito de mediciones repetidas del mismo mensurando.
NOTA 2 Los errores aleatorios de un conjunto de mediciones repetidas forman una
distribución que puede representarse por su esperanza matemática, generalmente nula, y
por su varianza.
NOTA 3 El error aleatorio es igual a la diferencia entre el error de medida y el error
sistemático.
• Error sistemático
error sistemático de medida, m
error sistemático, m
componente del error de medida que, en mediciones repetidas, permanece constante o varía
de manera predecible.
NOTA 1 El valor de referencia para un error sistemático es un valor verdadero, un valor
medido de un patrón cuya incertidumbre de medida es despreciable, o un valor
convencional de una magnitud.
NOTA 2 El error sistemático y sus causas pueden ser conocidas o no. Para compensar un
error sistemático conocido puede aplicarse una corrección.
NOTA 3 El error sistemático es igual a la diferencia entre el error de medida y el error
aleatorio
• Incertidumbre
incertidumbre de medida, f
incertidumbre, f
parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un
mensurando, a partir de la información que se utiliza
NOTA 1 La incertidumbre de medida incluye componentes procedentes de efectos
sistemáticos, tales como componentes asociadas a correcciones y a valores asignados a
patrones, así como la incertidumbre debida a la definición. Algunas veces no se corrigen los
efectos sistemáticos estimados y en su lugar se tratan como componentes de incertidumbre.
NOTA 2 El parámetro puede ser, por ejemplo, una desviación típica, en cuyo caso se
denomina incertidumbre típica de medida (o un múltiplo de ella), o la semiamplitud de un
intervalo con una probabilidad de cobertura determinada.
NOTA 3 En general, la incertidumbre de medida incluye numerosas componentes. Algunas
pueden calcularse mediante una evaluación tipo A de la incertidumbre de medida, a partir
de la distribución estadística de los valores que proceden de las series de mediciones y
pueden caracterizarse por desviaciones típicas. Las otras componentes, que pueden
calcularse mediante una evaluación tipo B de la incertidumbre de medida, pueden
caracterizarse también por desviaciones típicas, evaluadas a partir de funciones de densidad
de probabilidad basadas en la experiencia u otra información.
NOTA 4 En general, para una información dada, se sobrentiende que la incertidumbre de
medida está asociada a un valor determinado atribuido al mensurando. Por tanto, una
modificación de este valor supone una modificación de la incertidumbre asociada.
• Incertidumbre combinada
incertidumbre típica combinada de medida, f
incertidumbre típica combinada, f
incertidumbre estándar combinada, f
incertidumbre típica obtenida a partir de las incertidumbres típicas individuales asociadas a
las magnitudes de entrada de un modelo de medición
NOTA Cuando existan correlaciones entre las magnitudes de entrada en un modelo de
medición, en el cálculo de la incertidumbre estándar combinada es necesario también
considerar las covarianzas; véase también la Guía ISO/IEC 98-3:2008, 2.3.4.
• Incertidumbre relativa
incertidumbre típica relativa de medida, f
incertidumbre estándar relativa de medida, f
incertidumbre estándar relativa f
cociente entre la incertidumbre típica y el valor absoluto del valor medido
• Ley de propagación de la incertidumbre
Es un procedimiento determinista para estimar la incertidumbre del mensurando a partir de
las incertidumbres de las variables de entrada. En estos casos que la función modelo del
mensurando es altamente no lineal, presenta dificultades.
• Trazabilidad
trazabilidad metrológica, f
propiedad de un resultado de medida por la cual el resultado puede relacionarse con una
referencia mediante una cadena ininterrumpida y documentada de calibraciones, cada una
de las cuales contribuye a la incertidumbre de medida
NOTA 1 En esta definición, la referencia puede ser la definición de una unidad de medida,
mediante una realización práctica, un procedimiento de medida que incluya la unidad de
medida cuando se trate de una magnitud no ordinal, o un patrón.
NOTA 2 La trazabilidad metrológica requiere una jerarquía de calibración establecida.
NOTA 3 La especificación de la referencia debe incluir la fecha en la cual se utilizó dicha
referencia, junto con cualquier otra información metrológica relevante sobre la referencia,
tal como la fecha en que se haya realizado la primera calibración en la jerarquía.
NOTA 4 Para mediciones con más de una magnitud de entrada en el modelo de medición,
cada valor de entrada debiera ser metrológicamente trazable y la jerarquía de calibración
puede tener forma de estructura ramificada o de red. El esfuerzo realizado para establecer la
trazabilidad metrológica de cada valor de entrada debería ser en proporción a su
contribución relativa al resultado de la medición. NOTA 5 La trazabilidad metrológica de
un resultado de medida no garantiza por sí misma la adecuación de la incertidumbre de
medida a un fin dado, o la ausencia de errores humanos.
NOTA 6 La comparación entre dos patrones de medida puede considerarse como una
calibración si ésta se utiliza para comprobar, y si procede, corregir el valor y la
incertidumbre atribuidos a uno de los patrones.
NOTA 7 La ILAC considera que los elementos necesarios para confirmar la trazabilidad
metrológica son: una cadena de trazabilidad metrológica ininterrumpida a un patrón
internacional o a un patrón nacional, una incertidumbre de medida documentada, un
procedimiento de medida documentado, una competencia técnica reconocida, la
trazabilidad metrológica al SI y los intervalos entre calibraciones (véase ILAC P-10:2002).
NOTA 8 Algunas veces el término abreviado “trazabilidad” se utiliza en lugar de
“trazabilidad metrológica” así como para otros conceptos, como trazabilidad de una
muestra, de un documento, de un instrumento, de un material, etc., cuando interviene el
historial (“traza”) del elemento en cuestión. Por tanto, es preferible utilizar el término
completo “trazabilidad metrológica” para evitar confusión.
8. Investigar las reglas de manejo de cifras significativas.
Hay tres reglas para determinar cuántas cifras significativas hay en un número:
1) Los dígitos diferentes de cero son siempre significativos.
2) Los ceros entre dos dígitos significativos son significativos.
3) Los ceros escritos al final de la parte decimal son significativos.
9. Investigar las reglas de redondeo de cifras.
Reglas de redondeo

1) si se necesita expresar una medida con tres cifras significativas, a la tercera cifra se le
incrementa un número si el que le sigue es mayor que 5 o si es 5 seguido de otras cifras
diferentes de cero.

2) siguiendo el mismo ejemplo de tres cifras significativas: si la cuarta cifra es menor de 5,


el tercer dígito se deja igual.

3) cuando a la cifra a redondear le sigue un 5, siempre se redondea hacia arriba.


Reglas de redondeo para resultados con incertidumbre

1) Si la incertidumbre de que se parte contiene una sola cifra significativa, se dejará tal y
como se obtenga, con una sola cifra significativa.

2) Las incertidumbres con dos o más cifras significativas se redondean hasta dejar sólo 2
cifra significativas

3) El resultado se redondea hasta dejar el mismo número de cifras decimales que tenga la
incertidumbre

También podría gustarte