Está en la página 1de 28

UNIVERSIDAD NACIONAL DE HUANCAVELICA

FACULTAD DE INGENIERIA DE MINAS Y CIVIL AMBIENTAL

ESCUELA ACADEMICA PROFESIONAL DE MINAS

“los errores y el tratamiento de los


datos analíticos”

CURSO : ANALISIS QUIMICO

DOCENTE : ING. ACHARTE LUME, Luz Marina

INTEGRANTES:
*Varios *

CICLO : II “A”

LIRCAY– PERU

1
DEDICATORIA:
El presente trabajo va dirigido a
nuestros padres por su apoyo
incondicional para nuestra
formación profesional.

2
Índice
LOS ERRORES Y EL TRATAMIENTO DE LOS DATOS ANALITICOS .................................................... 4
ERRORES .................................................................................................................................... 5
Errores determinados ............................................................................................................... 5
Errores constantes .................................................................................................................... 6
Errores proporcionales ............................................................................................................ 6
Errores indeterminados ........................................................................................................... 7
Exactitud y precisión ................................................................................................................ 7
DISTRIBUCION DE ERRORES AL AZAR ........................................................................................ 8
TRATAMIENTO ESTADISTICA DE MUESTRAS FINITAS .................................................................. 8
Medidas de tendencia central y variabilidad ............................................................................ 8
T de Student ............................................................................................................................ 11
Intervalo de confianza de la media ......................................................................................... 12
Prueba de significancia............................................................................................................ 14
Criterio para descartar una observación................................................................................ 17
DIAGRAMAS DE CONTROL .......................................................................................................... 17
PROPAGACION DE ERRORES ..................................................................................................... 18
Cálculo de resultados analíticos.............................................................................................. 18
CIFRAS SIGNIFICATIVAS Y REGLAS PARA EL CÁLCULO................................................................ 19
Cifras significativas .................................................................................................................. 19
Reglas para el cálculo .............................................................................................................. 20
ADICIÓN Y SUBSTRACCIÓN ...................................................................................................... 20
MULTIPLICACIÓN Y DIVISIÓN.................................................................................................. 21
Logaritmos............................................................................................................................... 23
METODO DE MINIMOS CUADRADOS ...................................................................................... 24
Bibliografía .................................................................................................................................. 28

3
LOS ERRORES Y EL TRATAMIENTO DE LOS DATOS
ANALITICOS

En una ciencia experimental como la química, se gasta mucho esfuerzo en


reunir los datos y, debido a que la química se ha desarrollado como una
ciencia moderna, la mayoría de los datos se han convertido en datos
cuantitativos; esto quiere decir que se derivan de mediciones. Cuando se
realiza cualquier medición científica, es necesario considerar que se puede
cometer un error, y es importante des- arrollar la habilidad de evaluar los
datos y aprender a sacar conclusiones justifica- das, mientras que se rechazan
interpretaciones que no están garantizadas debido a las limitaciones de las
mediciones. Si bien a los químicos analíticos en particular les gusta recalcar
las técnicas mediante las cuales se pueden evaluar los datos, es claro que
cualquier químico puede aumentar su capacidad aprendiendo los métodos
que son más confiables que la sola intuición, para evaluar el significado de
los resultados experimentales. Los métodos que son más adecuados para
el trata- miento de los datos analíticos son herramientas poderosas que
pueden utilizarse en muchas otras situaciones científicas.
La mayoría de las técnicas que consideraremos están basadas en conceptos
estadísticos. Cada vez se reconoce más que los métodos estadísticos son
eficaces en la planeación de los experimentos que darán la mayor información
a partir de las mínimas mediciones, y para "abreviar" los datos en tal forma
que su significado se presente en forma concisa. Por otro lado, no debe
esperarse que la esta- dística disminuya la necesidad de obtener buenas
mediciones, además de que los métodos estadísticos son más poderosos
cuando se aplican a datos válidos.
La estadística y la teoría de la probabilidad representan una rama importante
de las matemáticas, y poseen una estructura lógica y rigurosa. Aunque los
químicos pueden sacar provecho al estudiar este campo, en este libro es
imposible examinar los fundamentos de la teoría de la probabilidad, así
como el derivar sus conclusiones. Aquí debemos aceptar, en gran parte
con fe, las conclusiones de las matemáticas, y después intentar ver cómo
pueden ser útiles para los químicos. Podemos esperar aprender cómo
pueden ser validados nuestros discernimientos intuitivos mediante las
expresiones cuantitativas de su confiabilidad pro- bable, y hasta lo que
significa el término "confiabilidad" en relación con las mediciones de
cantidades que son de hecho desconocidas. Veremos cómo se pueden
comparar series de datos, para averiguar si son realmente diferentes o si una
diferencia aparente puede atribuirse a alguna causa o sólo al azar. Se
describirá una técnica para "mantener en línea" las mediciones repetitivas,
para poder aplicar correcciones si éstas se comienzan a apartar de las
desviaciones aceptables. Veremos cómo se propagan los errores a través de
una serie de pasos experimentales y de cálculos. Después de este análisis, el
estudiante debe ver los datos con un elevado escepticismo, el cual es regulado

4
por un aumento en la confianza de su habilidad para deducir conclusiones
justificadas.

ERRORES
El término error se utiliza aquí para referirse a la diferencia numérica entre el
valor medido y el valor real. El valor real de cualquier cantidad es en realidad
una abstracción filosófica, algo que el hombre no está destinado a conocer,
aunque los científicos sienten que existe y piensan que pueden tener acceso
a él, más y más estrechamente, cuando sus mediciones llegan a ser cada vez
más refinadas. En la química analítica es habitual actuar como si se conociera
el valor real de una cantidad cuando se cree que la inexactitud del valor es
menor que la inexactitud de alguna otra cosa con la que se está comparando.
Por ejemplo, al evaluar un método analítico nuevo puede considerarse
correcta la composición porcentual de una muestra certificada por la National
Bureau of Standard s (Oficina Nacional de Estándares) y como errores los
resultados del nuevo método. Casi siempre llegamos a los valores que
estamos dispuestos a tratar como verdaderos mediante varios métodos cuyas
limitaciones y trampas son lo suficientemente diferentes como para que la
concordancia entre ellos no se pueda atribuir a la coincidencia. Aun así, es
correcto permanecer escépticos con los valores estándar, aceptados o
certificados, debido a que provienen de mediciones experimentales realizadas
por manos, aunque expertas, humanas.

Errores determinados
Los errores que pueden ser atribuidos, por lo menos en teoría a causas
definidas, se llaman errores determinados o sistemáticos. Un error
determinado por lo general es unidireccional con respecto al valor verdadero,
en contraste con los errores indeterminados, que se discuten más abajo, los
cuales llevan a resultados altos y bajos con igual probabilidad. Los errores
determinados a menudo son re- producibles y en muchos casos se pueden
predecir por una persona que entienda por completo todos los aspectos de
la medición. Ejemplos del origen de errores determinados son: una pesa
corroída, una bureta mal calibrada, una impureza en el reactivo, la solubilidad
apreciable de un precipitado, la reacción colateral de una titulación y el
calentar una muestra a una temperatura demasiado elevada.
Los errores determinados se clasifican en sistemáticos, operativos e
instrumentales y, de acuerdo con su origen, tienen lugar debido a: (a) el
método de análisis que refleja las propiedades de los sistemas químicos
involucrados, (b) la ineptitud del experimentador y (e) la avería de los aparatos
de medición, que no les permite funcionar de acuerdo a los estándares
requeridos.' Con frecuencia, el origen de un error puede caer en más de una
de estas categorías. Por ejemplo, se puede esperar algo de error al pesar una
substancia higroscópica, pero éste se puede incrementar si el analista tiene
una mala técnica en la balanza; el medio ambiente externo puede influir en
el error, como, por ejemplo, el efecto de la humedad al pesar una substancia
higroscópica.

5
Errores constantes
Los errores determinados también se pueden clasificar en base a sus efectos
sobre los resultados del análisis. Algunas veces, la magnitud de un error
determinado es casi constante en una serie de análisis, sin considerar el
tamaño de la muestra. Por ejemplo, el volumen consumido en una prueba
en blanco que no se corrige durante una serie de titulaciones. Algunos autores
han utilizado el término aditivo para este tipo de error. La significancia de un
error constante en general disminuye conforme aumenta el tamaño de la
muestra, ya que por lo común no estamos tan interesados en el valor absoluto
de un error como lo estamos en su valor relativo a la magnitud de la cantidad
medida. Por ejemplo, un error constante de 0.1 ml en el punto final de una
serie de titulaciones representa un error relativo del 10070 para una muestra
que consumió 1 ml de titulante, pero sólo será el 0.2% si se utilizaron 50 ml de
titulante.

Errores proporcionales
El valor absoluto de este tipo de errores varía con el tamaño de la muestra en
tal forma que el error relativo permanece constante. Una substancia que
interfiere en un método analítico puede conducir a este error si se encuentra
presente en la muestra. Por ejemplo, en la determinación yodométrica de un
oxidante como el clorato, otro agente oxidante como el yodato o el bromato
podría ocasionar resultados altos si su presencia no se sospechara y no se
corrigiera. El tomar una muestra más grande incrementaría el error absoluto,
pero el error relativo permanecería constante siempre y cuando la muestra
fuera homogénea. Se pueden encontrar errores que varían con el tamaño
de la muestra, pero no de una manera exactamente lineal. Muchos autores
utilizan el término "proporcional"

también para este tipo de errores, aunque por supuesto no es estrictamente correcto
en tales casos.
Los datos obtenidos hace algunos años por Benedettí-Pichler" se citan a menudo
para ilustrar la acción reciproca de los errores constantes y proporcionales

6
y para sugerir cómo pueden distinguirse. Las ideas se aplican en igual forma a las
mediciones modernas de un tipo mucho más sofisticado. Los datos se ilustran en la
Tabla 2.1. Se disolvieron y acidificaron con cantidades apropiadas de ácido clorhídrico
algunas muestras de alumbre de potasio, de tal forma que la cantidad de amoniaco
requerida para precipitar el óxido de aluminio fue casi constante. En una serie de
experimentos se utilizó amoniaco que estaba almacenado en un frasco; en la otra
serie se utilizó amoniaco que estaba recientemente destilado.
Se puede observar que en el primer caso los errores fueron casi constantes. Esto
se atribuyó a la precipitación del ácido silícico, originado del ataque del amoniaco al
frasco de vidrio; el error fue constante debido a que se utilizó el mismo volumen de
solución de amoniaco para cada experimento. En la última serie el ácido silícico no
estaba presente y los errores, fueron ahora mucho más pequeños y proporcionales
al tamaño de la muestra. Estos errores se atribuyeron a la presencia de agua en los
precipitados calcinados; aquí la cantidad de agua retenida de- pende de la cantidad
de aluminio presente y, por lo tanto, del tamaño de la muestra.
Al evaluar un método analítico nuevo se puede obtener información sobre el tipo
de errores presentes y algunas veces de los puntos clave para minimizarlos, al variar
el tamaño de la muestra.
Una característica importante de los errores determinados es que por lo general
éstos se encuentran bajo el control del químico analítico. En general, los errores
se pueden eliminar o por lo menos se pueden reconocer y compensar utilizando un
factor de corrección adecuado.

Errores indeterminados
Si una medición es burda, su repetición dará el mismo resultado cada vez. Por
ejemplo, al pesar un objeto de 50 g a su aproximación más cercana en gramos, sólo
una persona con una negligencia excesiva podría obtener valores diferentes o bien
un grupo de personas no coincidirían por su técnica de pesado. Los únicos errores
razonables en tales mediciones serían los determinados, tal como una pesa muy
defectuosa. Por otro lado, cualquier medición se puede refinar hasta el punto en
que es mera coincidencia si las repeticiones concuerdan hasta el último dígito. Tarde
o temprano el punto se aproxima a donde los factores impredecibles e imperceptibles
introducen en la cantidad medida lo que parecen ser fluctuaciones al azar. En
algunos casos puede ser posible especificar variables definidas que están fuera
de control cerca del límite de funcionamiento de un instrumento: en un circuito
electrónico son el ruido y la interferencia estática, también las vibraciones dentro
de un edificio causadas por el tráfico, las variaciones de temperatura y cosas
similares. Muchas veces se puede señalar como un erigen de error la falta de
habilidad del ojo para detectar ligeros cambios en la escala en donde se está haciendo
la lectura de la medición. Sin duda, las variaciones que una persona descuidada
considera fortuitas, le pueden parecer obvias y controlables al observador
cuidadoso, pero a pesar de esto debe alcanzarse el punto en donde cualquiera,
por muy meticuloso que sea, encontrará errores fortuitos que no pueden reducirse
más. Estos errores se clasifican como indeterminados.

Exactitud y precisión
Los términos exactitud y precisión, que en una conversación ordinaria se utilizan
muchas veces como sinónimos, se deben distinguir con cuidado en relación con los
datos científicos. Un resultado exacto es aquel que concuerda de cerca con el valor
real de una cantidad medida. La comparación se hace con frecuencia en base a una
medida inversa de la exactitud, que es el error (mientras más pequeño es el error,
mayor es la exactitud). El error absoluto es la diferencia entre el valor experimental y
el valor real. Por ejemplo, si un analista encuentra 20.44070de hierro en una
muestra que en realidad contiene 20.34070, el error absoluto es

7
El término precisión se refiere a la concordancia que tienen entre sí un grupo de
resultados experimentales; no tiene relación con el valor real. Los valores precisos
pueden ser inexactos, ya que un error que causa desviación del valor real puede
afectar todas las mediciones en igual forma y por consiguiente no perjudicar su
precisión. Un error determinado que lleva a la inexactitud puede no afectar la
precisión, dependiendo de qué tan constante permanezca a lo largo de una serie de
mediciones. La precisión se expresa por lo general en términos de la desviación
estándar, la desviación media o el rango. Estos términos se definirán más adelante.
Como en el caso del error (mencionado anteriormente), la precisión puede
expresarse en forma absoluta o relativa.

DISTRIBUCION DE ERRORES AL AZAR


Después de que se buscaron los errores determinados hasta donde fue posible y se
tomaron todas las precauciones y se aplicaron las correcciones, se encontró que
las fluctuaciones restantes en los datos son, por naturaleza, al azar. Los resultados
dispersos de una manera al azar se analizan mejor por medio de las poderosas
técnicas de la estadística. Nuestro objetivo será ahora mostrar cómo se aplican
estas técnicas y qué información nos proporcionan, más allá de lo que se puede
observar con una inspección simple de los datos.

TRATAMIENTO ESTADISTICA DE MUESTRAS


FINITAS
Aunque no existe duda sobre el significado matemático de la distribución normal
de una población infinita, es una ficción en lo que se refiere al verdadero trabajo
de laboratorio. Ahora debemos enfocar nuestra atención a las técnicas para el
manejo de los datos científicos tal y como los obtenemos en la práctica.

Medidas de tendencia central y variabilidad


La tendencia central de un grupo de resultados es sencillamente el valor alrededor
del cual los resultados individuales tienden a "amontonarse". Para una población
infinita, 1-' es la media de tal muestra. La media de un número finito de mediciones
Xl' X2, X3, ••• , Xn, a menudo se designa como X para diferenciar- la de 1-'. Por
supuesto X se aproxima como límite a 1-' cuando n, el número de va- lores medidos,
se acerca al infinito. El cálculo de la media sólo implica obtener el promedio de los
resultados individuales:

Por lo general, la media es la medida más útil de la tendencia central. Se puede


demostrar que la media de n resultados es Vn veces más confiable que cualquier
resultado individual. Por esto existe una reversión decreciente de la acumulación
de más y más mediciones repetidas: la media de 4 resultados es dos veces más
confiable que un solo resultado para medir la tendencia central; la media de 9

8
resultados es tres veces más confiable, la media de 25 resultados es cinco veces más
confiable, etc. Así, hablando en general, para un operario que es cuidadoso y
que tiene una buena precisión es ineficaz repetir una medición más de unas pocas
veces. Desde luego que la necesidad de incrementar la confiabilidad y el precio que
se ha de pagar por ello debe evaluarse en base a la importancia de los resultados y
al uso que se les va a dar.
Cuando un número impar de resultados están enlistados en orden, la mediana es
sencillamente el valor de en medio; para un número par de resultados la mediana
es el promedio de los dos valores de en medio. En una distribución exactamente
simétrica, la media y la mediana son idénticas. Hablando en general, la mediana
es una medida de la tendencia central menos eficiente que la media, pero en ciertos
casos puede ser útil, particularmente al tratar con muestras muy pequeñas,
Puesto que se requieren dos parámetros, 1-' y a, para especificar una distribución
de frecuencia, es claro que dos poblaciones pueden tener la misma tendencia central
pero diferir en la "propagación" o variabilidad (o, como dicen en algunas ocasiones,
en dispersión), como se sugiere en la figura 2.3. Para un número finito de valores, la
medida más simple de la variabilidad es el rango, el cual es la diferencia del valor
más grande menos el más pequeño. Al igual que la me- diana, el rango es útil algunas
veces en la estadística de muestras pequeñas, pero hablando en general, es una
medida ineficaz de la variabilidad. Notemos, por ejemplo, que un resultado
"disparatado" ejerce un fuerte impacto sobre el rango, mientras que su efecto se
disminuye en los resultados obtenidos con otras medidas mejores de la variabilidad,

mismas que se observan más adelante.


La desviación promedio a partir de la media con frecuencia se da como una medida
de la variabilidad en los artículos científicos; sin embargo, en forma estricta, no es
muy significativa desde un punto de vista estadístico, en particular para un número
pequeño de observaciones. Para un grupo de datos grande que presenta una
distribución normal, la desviación promedio se aproxima a 0.80. Para calcular la
desviación media o promedio, hay que encontrar la diferencia entre cada resultado
individual y la media, sin importar el signo, sumar estas desviaciones individuales
y dividir entre el número de resultados:

9
Debido a que los resultados analíticos se expresan como porcentaje (p. ej. el
porcentaje de hierro en una muestra de mineral) puede ser confuso dar las
desviaciones relativas en forma porcentaje, y es preferible expresarlas en partes por
mil en lugar de porcentaje (partes por ciento):

10
T de Student
Hemos visto que, dadas μ y a para la distribución normal de una población infinita,
se puede establecer un enunciado preciso a pesar de la desigualdad que existe al
obtener de la población una observación que cae fuera de ciertos límites. Pero en
la práctica trabajamos con un número finito de observaciones, y no conocemos ni μ
ni a, pero sí x y s, las cuales son sólo un estimado de μ y a. Ya que estos estimados
están sujetos a la incertidumbre, lo que tenemos en realidad es una especie de curva
de distribución confusa en, la cual hay que basarse para hacer cualquier predicción
que deseemos. Naturalmente, esto ensancha los límites correspondientes a cualquier
disparidad dada, de tal forma que una observación individual caerá fuera de tales
límites. W.S. Gosset, un químico inglés que escribía bajo el seudónimo de Student,

11
estudió el problema de hacer predicciones en base a una muestra finita sacada de
una población desconocida y publicó una solución en 1908.
La teoría del trabajo de Student está más allá del alcance de este libro, pero podemos
aceptarla como una teoría con bases muy sólidas y ver cómo se puede utilizar en
química. La cantidad t (que con frecuencia se denomina t de Student) se define por
la expresión

Las Tablas de los valores t relacionados con diversas desviaciones o niveles de


probabilidad y para diferentes grados de libertad se pueden encontrar en
compilaciones estadísticas. En la Tabla 2.5 reproducimos una porción de una de
estas tablas. En esta relación, los grados de libertad son uno menos que n, que es el
número de observaciones.t Los valores de t se calculan tomando en cuenta el hecho
de que en general x no será la misma que ¡J, para compensar la inexactitud de utilizar
s como un estimado de o. Los valores t como los que se muestran en la
Tabla 2.5 se utilizan en muchos métodos estadísticos, algunos de los cuales se
describen más adelante.

Intervalo de confianza de la media


Re arreglando la ecuación anterior que define t, obtenemos el intervalo de
confianza de la media o límites de confianza:

3 Biometrika, 6, 1 (1908).
4 Los grados de libertad se pueden definir como el número de
observaciones individuales que podemos permitir que varíen siempre y cuando
x y x, una vez que se han determinado, se mantengan constantes. Por
ejemplo, una vez que obtuvimos la media y decidimos mantenerla constante,
todas las observaciones menos una se pueden variar; esta última está
fijada por x y por todos los valores de x, y los grados de libertad son igual
a N
- 1. En general, se s se calcula con el mismo número de observaciones
que se utiliza para calcular x (lo que es el caso normal al tratar datos
analíticos), los grados de libertad son igual a n-l.

Podemos utilizar este intervalo de confianza para estimar la probabilidad de que


la media de la población, ¡J, está dentro de cierta región centrada en X, la media
experimental de nuestras mediciones. Sin embargo, al tratar datos analíticos es
más usual adoptar una probabilidad aceptable y luego encontrar los límites de
cualquiera de los dos lados de i hasta los que debemos ir para asegurarnos de que
hemos abarcado a ¡J. En la Tabla 2.5 se puede ver que los valores de t se
incrementan cuando el número de observaciones, n, disminuye. Esto es razonable
porque, mientras más pequeño se hace n, es menor la información disponible para
estimar los parámetros de la población. Los incrementos de t compensan
exactamente la disminución de información.
El siguiente ejemplo ilustra el uso de la Tabla 2.5.

12
Para el estudiante principiante algunas veces es confuso el significado de los
intervalos de confianza. La interpretación correcta, utilizando la parte (a) del
ejemplo anterior, es como sigue: supongamos que el químico repite el análisis
diez veces, llevando a cabo cuatro determinaciones y calculando el intervalo
cada vez, como en el ejemplo. Obtendría diez intervalos tales como 15.30 ±
0.12,
15.28 ± 0.14, 15.3 ± 0.11, etc. Podría esperar que nueve de esos diez intervalos
abarcaran la media de la población ¡J. Una mala interpretación muy común es
que el 90070 de las medias experimentales vayan a caer dentro del intervalo
15.30
±0.12. Predecir el intervalo dentro del cual caerán los futuros valores de x es un
problema estadístico diferente que sólo puede tratarse con otro tipo de límites,
más amplios que los límites de confianza analizados aquí.
En algunos casos en el que el análisis se ha repetido muchas veces, un químico
puede tener una estimación confiable de la desviación estándar de la población,
o. En este caso no existe incertidumbre en el valor de a y el intervalo de confianza
está dado por

13
Prueba de significancia
Supongamos que una muestra se analiza por dos métodos diferentes. Por su-
puesto que la estadística no puede decir cuál es el valor "correcto", pero de todos
modos existe una pregunta previa, esto es, ¿es significativa la diferencia entre los dos
valores? Es posible obtener dos valores diferentes utilizando dos métodos,
sencillamente por la influencia de fluctuaciones al azar, pero también es posible que
alguno de los métodos (o incluso ambos) esté sujeto a un error determinado. Existe
una prueba en la que se utiliza la t de Student que nos dirá (con una probabilidad
dada) si vale la pena buscar la causa de la diferencia entre las dos medias. Es claro
que, cuanto mayor sea la dispersión en las des series de datos, será menos probable
que la diferencia entre las dos medias sea verdadera.
El enfoque estadístico de este problema es la hipótesis nula. Esta hipótesis establece,
en este ejemplo, que las dos medias son idénticas. La prueba t le da una respuesta
de sí o no a la hipótesis nula con una cierta exactitud, como del 95 o
99070.El procedimiento es como sigue: supongamos que una muestra se ha analizado
por dos métodos diferentes, dando las medias Xl y X2 y las desviaciones estándar

14
S1 Y s-¿; n1 Y n2 son el número de resultados individuales obtenidos en los dos
métodos. El primer paso es calcular un valor t utilizando la fórmula
(Este procedimiento supone que S1 Y S2 son las mismas; la comprobación se des-
cribe más abajo). Segundo, obtener el valor de t de una tabla como la Tabla 3.5 en
un grado de libertad dado por (n1 + n2 - 2) y a un nivel de probabilidad deseado.
Si el valor de la tabla es mayor que la t calculada a partir de los datos, la hipótesis
nula está comprobada, (esto es, Xl y X2 son las mismas a una cierta probabilidad). Si
el valor de t de la tabla es menor que el calculado, entonces la hipótesis nula es
incorrecta y puede ser provechoso buscar una razón para explicar la diferencia entre
Xl y X2.
Si S1 YS2 son en realidad diferentes, debe utilizarse un procedimiento mucho más
complicado que aquí no se verá. Por lo general, en el trabajo analítico que implica
métodos que, por sentido común, podrían ser considerados semejantes, St y S2 son
casi las mismas. La relación de varianza o prueba F es una prueba disponible para
decidir si una diferencia entre S1 YS2 es significativa. El procedimiento
es simple: encontrar la relación F= 𝑠12 /𝑠22 colocando en el numerador el valor de
s más grande, de modo que F > 1; entonces vamos a la tabla de los valores de F.
Si el valor de F en la tabla es menor que el valor de F calculado, las dos desviaciones
estándar son significativamente diferentes; de otra forma no lo son. En la Tabla 2.7
se dan algunos valores de F para un nivel de probabilidad de 95070.La prueba F
puede utilizarse para determinar la validez de la sencilla prueba t descrita aquí, pero
por sí misma puede ser de interés para determinar si dos procedimientos analíticos
nos dan una precisión diferente que sea significativa.

15
Algunas veces es interesante comparar dos resultados cuando uno de ellos se
considera a priori como altamente confiable. Un ejemplo de esto puede ser la
comparación de la media x de varios análisis de una muestra NBS con el valor
certificado por la National Bureau of Standards. El objetivo sería no pasar sobre el
dictamen de ésta. En este caso, el valor certificado se toma como ¡.t en la ecuación
que define la t de Studenr, y se calcula un valor t utilizando x, n y s de los resultados
analíticos a mano. Si el valor de t calculado es mayor que el valor de t que está en la
tabla para n - 1 grados de libertad y para la probabilidad desea- da, entonces el
método analítico en cuestión da un valor de la media que es significativamente
diferente del valor de la NBS; de otro modo, la diferencia entre los dos valores sería
atribuida sólo a la casualidad.
El siguiente ejemplo es una ilustración.
Ejemplo 4. Un químico analiza una muestra de mineral de hierro proporcionada
por la National Bureau of Standards y obtiene los siguientes resultados: x = 10.52,

16
Criterio para descartar una observación
Algunas veces, cuando una persona está realizando una serie de mediciones
repetidas, se enfrenta con un resultado que parece estar fuera del grupo, y entonces
debe decidir si descarta ese resultado para una consideración posterior. Este
problema se encuentra al principio en los cursos de química analítica, más tarde en
el trabajo de laboratorio físico-químico, y aun en investigación avanzada, aunque
con menor frecuencia a medida que el estudiante progresa. En el trabajo científico es
aceptado como regla general que una medición se rechaza en forma automática
cuando se sabe que se ha cometido un error; ésta es una situación definida que no
estamos tratando aquí. Debe notarse que es incorrecto (pero también del todo
humano) rechazar resultados que estuvieron sujetos a errores conocidos cuando
parecen ser discordantes. La única forma de prevenir una preferencia in- consciente
en las mediciones es rechazar cada resultado en el que se sabe que se cometió un
error, a pesar de que concuerden con los otros. El problema que es- tamos enfocando
aquí es diferente: ¿cómo decidir descartar un resultado que parece discordante
cuando no se conoce ninguna razón para desconfiar de él?
Si el número de resultados repetidos es grande, el problema de descartar un valor
no es importante; en primera, un solo valor tendrá un efecto pequeño sobre la media,
y segundo, las consideraciones estadísticas dan una respuesta clara, considerando
la probabilidad de que el resultado sospechoso es miembro de la misma población
al igual que los otros. Por otro lado, cuando el número repetido es pequeño surge un
verdadero dilema: el resultado divergente ejerce un efecto significativo sobre la media,
mientras que al mismo tiempo existen datos insuficientes para permitir un análisis
estadístico real de la posición relativa del resultado sospechoso.

DIAGRAMAS DE CONTROL

El método de los diagramas de control se desarrolló originalmente para mantener


la calidad durante las operaciones de manufactura a gran escala. A menudo, el
producto de una fabricación es demasiado grande para permitir la inspección
individual de cada artículo (digamos hojas de rasurar o cojinetes de bolas) y en
algunos casos la prueba de calidad es destructiva (como la medida del esfuerzo
requerido para romper un objeto) y por tanto no puede aplicarse a cada espécimen
que se produce en una compañía. En algunos casos es necesario hacer una especie
de comprobación de unas cuantas muestras escogidas al azar a la salida de la
línea de producción y se requiere cierto criterio para decidir si el proceso de
manufactura está bajo control si está justificada una costosa suspensión de labores
para buscar la causa de que los resultados obtenidos estén fuera de especificaciones.
También se ha comprobado que el método del diagrama de control es útil para
detectar el funcionamiento de los métodos analíticos en los laboratorios ocupados,
en donde se analiza el mismo tipo de muestras día tras día, durante largos periodos
de tiempo. El método tiende a distinguir con un alto grado de eficiencia patrones
definidos o anormalidades que se repiten con periodicidad de fluctuaciones fortuitas.
El método del diagrama de control aquí sólo puede discutirse brevemente; el lector
17
interesado debe remitirse a los libros sobre el tema10.ll y a varias discusiones más
breves.v"
Supongamos que una compañía fabrica un material químico y que, como parte
del programa de control de calidad, el laboratorio analítico lleva a cabo cada día un
cierto análisis de las muestras tomadas de la producción total de la producción total
de la fábrica, tal vez para determinar el porcentaje de agua en el producto.
Supongamos además que el laboratorio verifica su determinación de agua
corriendo una muestra estándar con un contenido de agua conocido. En este
punto estamos interesados en cómo se establece y se utiliza el diagrama de
control en el análisis del laboratorio. La fábrica también puede utilizar el método
del diagrama de control basado en los informes del laboratorio para monitorear
la calidad del producto, pero lo que aquí nos interesa es la verificación en el
laboratorio de su propio método analítico.

PROPAGACION DE ERRORES
Por lo general, el resultado numérico de una medición no es de interés por sí
mismo, sino que se utiliza junto con otras mediciones diferentes para calcular
la cantidad que en realidad se desea. La atención se enfoca, naturalmente, en
la precisión y exactitud de la cantidad calculada al final, pero es aleccionador ver
cómo se propagan hasta el resultado los errores cometidos en las mediciones
individuales. Un tratamiento riguroso de este problema requiere más espacio
del disponible aquí y matemáticas que están más allá del alcance de este libro.
Una aproximación elemental la de W aser P y el estudiante que esté interesado
en el tema puede encontrar los elementos de un tratamiento más refinado discutido
en forma breve, por Wilson18 y por Shoemaker y Garland." Benedetti-Pichler/"
proporcionan una discusión con particular hincapié en la química analítica.

Cálculo de resultados analíticos


Al considerar la propagación de los errores en los cálculos incluidos en el análisis,
normalmente el químico trata los errores como si pensara que éstos son
determinados. En la práctica, él no lleva sus mediciones hasta el punto en el cual
se puedan ver los errores indeterminados, debido a que en muchos análisis reales
la precisión del resultado final está determinada por factores tales como la no
homogeneidad de la muestra, las pérdidas o la contaminación. Si la experiencia ha
demostrado que tales errores son de varias partes por mil, no tiene sentido pesar una
muestra a más de 1 ppmil.
En la operación de pesar una muestra hasta la exactitud de 0.1 mg en una balanza
analítica, ordinariamente el analista no pondrá ningún empeño para estimar lecturas
en el vernier de más de 0.05 mg, sin importar la capacidad de su balanza. El redondea
el peso hasta 0.1 mg y espera no tener un error de más de 0.1 mg a menos que ocurra
algún incidente en especial. Si él lee un peso de, digamos 0.1036, está bastante
seguro de que el valor correcto hasta el cuarto decimal es de 0.1035,0.1036 o
0.1037. Por supuesto que éstos no son números distribuidos al azar; por el contrario,
el error máximo, una vez decidido, se trata como un error determinado con respecto
a su propagación a través de una serie de cálculos. Al tratar esta propagación, es
común no contar con cancelaciones parciales de los errores en las diversas
cantidades medidas, sino más bien predecir los errores en el resultado con los
fundamentos más pesimistas. Por ejemplo, al pesar una muestra sólida en una
balanza analítica, se pesa dentro de un pesasustancias algo de la muestra se saca
del pesasustancias y éste se pesa de nuevo. Consideremos el siguiente ejemplo.

18
CIFRAS SIGNIFICATIVAS Y REGLAS PARA EL
CÁLCULO

Cifras significativas
Cuando se realiza un cálculo a partir de datos experimentales, el error o
inexactitud en el resultado final se puede calcular por medio de los procedimientos
que se acaban de describir. Un procedimiento que se utiliza mucho para hacer
una estimación a grosso modo de esta inexactitud incluye el uso de las cifras
significativas. La ventaja principal de este procedimiento es que es menos laborioso
que los cálculos de las inexactitudes reales, en particular aquellos que se basan
en errores indeterminados. La desventaja principal es que sólo se obtiene una
estimación general de la inexactitud. En la mayoría de las situaciones que se
enfrentan durante el análisis, todo lo que se necesita es un estimado y por ello
son muy utilizadas las cifras significativas.
La mayoría de los científicos definen las cifras significativas como sigue: se
dice que son cifras significativas todos los dígitos que son seguros más uno que
tiene algo de inexactitud. Por ejemplo, al pesar un objeto en una balanza analítica,
las cifras 10.746 pueden leerse con seguridad. El cuarto decimal se estima al leer
en la escala de aguja o vernier y el peso final se lee como 10.7463. El último dígito
es incierto, probablemente de ::i:: 1 en una sola lectura, o de ::i:: 2 si está implicada
la diferencia de dos lecturas. En esta pesada los seis dígitos son cifras significativas.

21 Nótese que, en términos de esta definición, es inadecuado decir, corno


muchos autores lo hacen, que "se debe utilizar el número apropiado de cifras
significativas." En lugar de esto, debe decirse que sólo deben tornarse en cuenta
cifras significativas. Uno puede leer demasiados dígitos, pero no demasiadas cifras
significativas.

19
Es importante utilizar sólo cifras significativas al expresar datos analíticos. El
empleo de muchas o muy pocas cifras puede confundir a otra persona respecto
a la precisión de los datos analíticos. Por ejemplo, si se lee un volumen de
1.234 ml, se entendería que la bureta estaba graduada en 0.01 rnl y que el tercer
decimal se estimó leyendo entre las subdivisiones. Cuando se lee el mismo
volumen en una bureta ordinaria de 50 mI puede estimarse sólo hasta el segundo
decimal, ya que la graduación es en intervalos de 0.1 ml. Por esto la lectura
no debe tener más de tres cifras, es decir, 1.23 ml,El dígito cero puede o no ser
una cifra significativa, dependiendo de su función dentro del número. En la lectura
de una bureta, digamos 10.06 ml, los dos ceros son mediciones y por lo tanto son
cifras significativas; el número contiene cuatro cifras significativas. Supongamos
que el volumen anterior se expresa en litros, esto es, 0.01006 litros. No
incrementamos el número de cifras significativas al cambiar la unidad de volumen.
La función del cero inicial es la de situar el punto decimal; por esta razón, los ceros
iniciales no son significativos. Por lo general también se coloca un cero antes del
punto decimal, como en 0.01006, y éste tampoco es significativo. Los ceros
terminales sí son significativos. Por ejemplo, un peso de 10.2050 g tiene seis cifras
significativas. Cuando es necesario utilizar ceros terminales para situar el punto
decimal, se pueden emplear potencias de diez para evitar confusión con respecto
al número de cifras significativas. Por ejemplo, un peso de 24.0 mg expresado en
microgramos no debe escribirse como
24,OM. Los dos últimos ceros no son significativos, y esto se indica al escribir los
números como 24.0x 103 o 2.40 x 104•

Reglas para el cálculo


Como se mencionó con anterioridad, el químico analítico utiliza sus datos
experimentales para calcular un resultado final. Ahora nos gustaría examinar las
reglas que se sugieren para asegurar que el resultado final contenga solamente el
número de dígitos justificado por las inexactitudes en los datos.

ADICIÓN Y SUBSTRACCIÓN

20
MULTIPLICACIÓN Y DIVISIÓN

La regla que se sugiere aquí es retener en cada término y en el resultado final el


número de dígitos que indicarán una inexactitud relativa, no menos de los que tiene
el término con la mayor inexactitud relativa. Esta regla se deriva del hecho de que los
errores relativos determinados se trasmiten directamente al resultado en las
operaciones de multiplicación y división. Consideremos los ejemplos siguientes.

21
22
Logaritmos

Un logaritmo está compuesto de dos partes: un número entero, la característica, y


una fracción decimal, la mantisa. La característica es una función del punto
decimal en el número al cual se le está determinando el logaritmo y por lo tanto no
es una cifra significativa. La mantisa es la misma sin importar la posición del punto
decimal, y todos sus dígitos se consideran como cifras significativas.
Consideremos la siguiente ilustración.

23
METODO DE MINIMOS CUADRADOS

Muchos procedimientos analíticos utilizan mediciones instrumentales de un


parámetro físico que es directamente proporcional a la concentración de la analita.
La determinación de la concentración, midiendo la absorbancia de una solución con
un espectrofotómetro, y la medición del área bajo los picos obtenidos en una
cromatografía de gases, son ejemplos comunes. Se prepara una serie de so- luciones
de concentración conocida y se mide la respuesta del instrumento para cada una
de estas soluciones estándar. Luego la respuesta se grafica contra la concentración
para obtener una curva estándar o curva de calibración. En muchos casos existe una
relación lineal entre la concentración y la respuesta del instrumento, es decir, la
gráfica es una línea recta. Sin embargo, los puntos experimentales rara vez caen
exactamente sobre la línea recta debido a los errores indeterminados en las lecturas
del instrumento. El problema que enfrenta el analista es trazar la "mejor" línea
recta a través de los puntos, para así minimizar el error al determinar la
concentración de una muestra desconocida utilizando la curva de calibración. Es
un proceso subjetivo decidir en dónde se ha de trazar la línea y sin duda diferentes
analistas podrían diferir un poco en su decisión.
Por fortuna, la estadística provee una relación matemática que permite al químico
calcular objetivamente la pendiente y la ordenada al origen de la "mejor" línea
recta. En estadística se le llama análisis de regresión a este procedimiento y, cuando
se aplica al caso más simple, el de la relación en línea recta, se le llama método de
mínimos cuadrados. Al utilizar la curva de calibración, no sólo se puede determinar
la mejor línea recta, sino que también se pueden especificar las inexactitudes.
Las deducciones matemáticas de este método están fuera del alcance de este texto.
Aquí ilustraremos el método aplicándolo a un caso simple; los datos se muestran
en la Tabla 2.9 y se grafican en la figura 2.5. En esta figura los números en el eje de las
x representan la concentración de las soluciones estándar y los números en el eje de
las y representan la respuesta del instrumento. El problema es dibujar la mejor línea
recta a través de estos puntos.
Una suposición que se hace en la deducción es que la relación es lineal, y escribimos
la ecuación para una línea recta como

24
25
26
27
Bibliografía
R.A.DAY,Jr A.L Underwood QUIMICA ANALITICA CUANTITATIVA

28

También podría gustarte