Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INTEGRANTES:
*Varios *
CICLO : II “A”
LIRCAY– PERU
1
DEDICATORIA:
El presente trabajo va dirigido a
nuestros padres por su apoyo
incondicional para nuestra
formación profesional.
2
Índice
LOS ERRORES Y EL TRATAMIENTO DE LOS DATOS ANALITICOS .................................................... 4
ERRORES .................................................................................................................................... 5
Errores determinados ............................................................................................................... 5
Errores constantes .................................................................................................................... 6
Errores proporcionales ............................................................................................................ 6
Errores indeterminados ........................................................................................................... 7
Exactitud y precisión ................................................................................................................ 7
DISTRIBUCION DE ERRORES AL AZAR ........................................................................................ 8
TRATAMIENTO ESTADISTICA DE MUESTRAS FINITAS .................................................................. 8
Medidas de tendencia central y variabilidad ............................................................................ 8
T de Student ............................................................................................................................ 11
Intervalo de confianza de la media ......................................................................................... 12
Prueba de significancia............................................................................................................ 14
Criterio para descartar una observación................................................................................ 17
DIAGRAMAS DE CONTROL .......................................................................................................... 17
PROPAGACION DE ERRORES ..................................................................................................... 18
Cálculo de resultados analíticos.............................................................................................. 18
CIFRAS SIGNIFICATIVAS Y REGLAS PARA EL CÁLCULO................................................................ 19
Cifras significativas .................................................................................................................. 19
Reglas para el cálculo .............................................................................................................. 20
ADICIÓN Y SUBSTRACCIÓN ...................................................................................................... 20
MULTIPLICACIÓN Y DIVISIÓN.................................................................................................. 21
Logaritmos............................................................................................................................... 23
METODO DE MINIMOS CUADRADOS ...................................................................................... 24
Bibliografía .................................................................................................................................. 28
3
LOS ERRORES Y EL TRATAMIENTO DE LOS DATOS
ANALITICOS
4
por un aumento en la confianza de su habilidad para deducir conclusiones
justificadas.
ERRORES
El término error se utiliza aquí para referirse a la diferencia numérica entre el
valor medido y el valor real. El valor real de cualquier cantidad es en realidad
una abstracción filosófica, algo que el hombre no está destinado a conocer,
aunque los científicos sienten que existe y piensan que pueden tener acceso
a él, más y más estrechamente, cuando sus mediciones llegan a ser cada vez
más refinadas. En la química analítica es habitual actuar como si se conociera
el valor real de una cantidad cuando se cree que la inexactitud del valor es
menor que la inexactitud de alguna otra cosa con la que se está comparando.
Por ejemplo, al evaluar un método analítico nuevo puede considerarse
correcta la composición porcentual de una muestra certificada por la National
Bureau of Standard s (Oficina Nacional de Estándares) y como errores los
resultados del nuevo método. Casi siempre llegamos a los valores que
estamos dispuestos a tratar como verdaderos mediante varios métodos cuyas
limitaciones y trampas son lo suficientemente diferentes como para que la
concordancia entre ellos no se pueda atribuir a la coincidencia. Aun así, es
correcto permanecer escépticos con los valores estándar, aceptados o
certificados, debido a que provienen de mediciones experimentales realizadas
por manos, aunque expertas, humanas.
Errores determinados
Los errores que pueden ser atribuidos, por lo menos en teoría a causas
definidas, se llaman errores determinados o sistemáticos. Un error
determinado por lo general es unidireccional con respecto al valor verdadero,
en contraste con los errores indeterminados, que se discuten más abajo, los
cuales llevan a resultados altos y bajos con igual probabilidad. Los errores
determinados a menudo son re- producibles y en muchos casos se pueden
predecir por una persona que entienda por completo todos los aspectos de
la medición. Ejemplos del origen de errores determinados son: una pesa
corroída, una bureta mal calibrada, una impureza en el reactivo, la solubilidad
apreciable de un precipitado, la reacción colateral de una titulación y el
calentar una muestra a una temperatura demasiado elevada.
Los errores determinados se clasifican en sistemáticos, operativos e
instrumentales y, de acuerdo con su origen, tienen lugar debido a: (a) el
método de análisis que refleja las propiedades de los sistemas químicos
involucrados, (b) la ineptitud del experimentador y (e) la avería de los aparatos
de medición, que no les permite funcionar de acuerdo a los estándares
requeridos.' Con frecuencia, el origen de un error puede caer en más de una
de estas categorías. Por ejemplo, se puede esperar algo de error al pesar una
substancia higroscópica, pero éste se puede incrementar si el analista tiene
una mala técnica en la balanza; el medio ambiente externo puede influir en
el error, como, por ejemplo, el efecto de la humedad al pesar una substancia
higroscópica.
5
Errores constantes
Los errores determinados también se pueden clasificar en base a sus efectos
sobre los resultados del análisis. Algunas veces, la magnitud de un error
determinado es casi constante en una serie de análisis, sin considerar el
tamaño de la muestra. Por ejemplo, el volumen consumido en una prueba
en blanco que no se corrige durante una serie de titulaciones. Algunos autores
han utilizado el término aditivo para este tipo de error. La significancia de un
error constante en general disminuye conforme aumenta el tamaño de la
muestra, ya que por lo común no estamos tan interesados en el valor absoluto
de un error como lo estamos en su valor relativo a la magnitud de la cantidad
medida. Por ejemplo, un error constante de 0.1 ml en el punto final de una
serie de titulaciones representa un error relativo del 10070 para una muestra
que consumió 1 ml de titulante, pero sólo será el 0.2% si se utilizaron 50 ml de
titulante.
Errores proporcionales
El valor absoluto de este tipo de errores varía con el tamaño de la muestra en
tal forma que el error relativo permanece constante. Una substancia que
interfiere en un método analítico puede conducir a este error si se encuentra
presente en la muestra. Por ejemplo, en la determinación yodométrica de un
oxidante como el clorato, otro agente oxidante como el yodato o el bromato
podría ocasionar resultados altos si su presencia no se sospechara y no se
corrigiera. El tomar una muestra más grande incrementaría el error absoluto,
pero el error relativo permanecería constante siempre y cuando la muestra
fuera homogénea. Se pueden encontrar errores que varían con el tamaño
de la muestra, pero no de una manera exactamente lineal. Muchos autores
utilizan el término "proporcional"
también para este tipo de errores, aunque por supuesto no es estrictamente correcto
en tales casos.
Los datos obtenidos hace algunos años por Benedettí-Pichler" se citan a menudo
para ilustrar la acción reciproca de los errores constantes y proporcionales
6
y para sugerir cómo pueden distinguirse. Las ideas se aplican en igual forma a las
mediciones modernas de un tipo mucho más sofisticado. Los datos se ilustran en la
Tabla 2.1. Se disolvieron y acidificaron con cantidades apropiadas de ácido clorhídrico
algunas muestras de alumbre de potasio, de tal forma que la cantidad de amoniaco
requerida para precipitar el óxido de aluminio fue casi constante. En una serie de
experimentos se utilizó amoniaco que estaba almacenado en un frasco; en la otra
serie se utilizó amoniaco que estaba recientemente destilado.
Se puede observar que en el primer caso los errores fueron casi constantes. Esto
se atribuyó a la precipitación del ácido silícico, originado del ataque del amoniaco al
frasco de vidrio; el error fue constante debido a que se utilizó el mismo volumen de
solución de amoniaco para cada experimento. En la última serie el ácido silícico no
estaba presente y los errores, fueron ahora mucho más pequeños y proporcionales
al tamaño de la muestra. Estos errores se atribuyeron a la presencia de agua en los
precipitados calcinados; aquí la cantidad de agua retenida de- pende de la cantidad
de aluminio presente y, por lo tanto, del tamaño de la muestra.
Al evaluar un método analítico nuevo se puede obtener información sobre el tipo
de errores presentes y algunas veces de los puntos clave para minimizarlos, al variar
el tamaño de la muestra.
Una característica importante de los errores determinados es que por lo general
éstos se encuentran bajo el control del químico analítico. En general, los errores
se pueden eliminar o por lo menos se pueden reconocer y compensar utilizando un
factor de corrección adecuado.
Errores indeterminados
Si una medición es burda, su repetición dará el mismo resultado cada vez. Por
ejemplo, al pesar un objeto de 50 g a su aproximación más cercana en gramos, sólo
una persona con una negligencia excesiva podría obtener valores diferentes o bien
un grupo de personas no coincidirían por su técnica de pesado. Los únicos errores
razonables en tales mediciones serían los determinados, tal como una pesa muy
defectuosa. Por otro lado, cualquier medición se puede refinar hasta el punto en
que es mera coincidencia si las repeticiones concuerdan hasta el último dígito. Tarde
o temprano el punto se aproxima a donde los factores impredecibles e imperceptibles
introducen en la cantidad medida lo que parecen ser fluctuaciones al azar. En
algunos casos puede ser posible especificar variables definidas que están fuera
de control cerca del límite de funcionamiento de un instrumento: en un circuito
electrónico son el ruido y la interferencia estática, también las vibraciones dentro
de un edificio causadas por el tráfico, las variaciones de temperatura y cosas
similares. Muchas veces se puede señalar como un erigen de error la falta de
habilidad del ojo para detectar ligeros cambios en la escala en donde se está haciendo
la lectura de la medición. Sin duda, las variaciones que una persona descuidada
considera fortuitas, le pueden parecer obvias y controlables al observador
cuidadoso, pero a pesar de esto debe alcanzarse el punto en donde cualquiera,
por muy meticuloso que sea, encontrará errores fortuitos que no pueden reducirse
más. Estos errores se clasifican como indeterminados.
Exactitud y precisión
Los términos exactitud y precisión, que en una conversación ordinaria se utilizan
muchas veces como sinónimos, se deben distinguir con cuidado en relación con los
datos científicos. Un resultado exacto es aquel que concuerda de cerca con el valor
real de una cantidad medida. La comparación se hace con frecuencia en base a una
medida inversa de la exactitud, que es el error (mientras más pequeño es el error,
mayor es la exactitud). El error absoluto es la diferencia entre el valor experimental y
el valor real. Por ejemplo, si un analista encuentra 20.44070de hierro en una
muestra que en realidad contiene 20.34070, el error absoluto es
7
El término precisión se refiere a la concordancia que tienen entre sí un grupo de
resultados experimentales; no tiene relación con el valor real. Los valores precisos
pueden ser inexactos, ya que un error que causa desviación del valor real puede
afectar todas las mediciones en igual forma y por consiguiente no perjudicar su
precisión. Un error determinado que lleva a la inexactitud puede no afectar la
precisión, dependiendo de qué tan constante permanezca a lo largo de una serie de
mediciones. La precisión se expresa por lo general en términos de la desviación
estándar, la desviación media o el rango. Estos términos se definirán más adelante.
Como en el caso del error (mencionado anteriormente), la precisión puede
expresarse en forma absoluta o relativa.
8
resultados es tres veces más confiable, la media de 25 resultados es cinco veces más
confiable, etc. Así, hablando en general, para un operario que es cuidadoso y
que tiene una buena precisión es ineficaz repetir una medición más de unas pocas
veces. Desde luego que la necesidad de incrementar la confiabilidad y el precio que
se ha de pagar por ello debe evaluarse en base a la importancia de los resultados y
al uso que se les va a dar.
Cuando un número impar de resultados están enlistados en orden, la mediana es
sencillamente el valor de en medio; para un número par de resultados la mediana
es el promedio de los dos valores de en medio. En una distribución exactamente
simétrica, la media y la mediana son idénticas. Hablando en general, la mediana
es una medida de la tendencia central menos eficiente que la media, pero en ciertos
casos puede ser útil, particularmente al tratar con muestras muy pequeñas,
Puesto que se requieren dos parámetros, 1-' y a, para especificar una distribución
de frecuencia, es claro que dos poblaciones pueden tener la misma tendencia central
pero diferir en la "propagación" o variabilidad (o, como dicen en algunas ocasiones,
en dispersión), como se sugiere en la figura 2.3. Para un número finito de valores, la
medida más simple de la variabilidad es el rango, el cual es la diferencia del valor
más grande menos el más pequeño. Al igual que la me- diana, el rango es útil algunas
veces en la estadística de muestras pequeñas, pero hablando en general, es una
medida ineficaz de la variabilidad. Notemos, por ejemplo, que un resultado
"disparatado" ejerce un fuerte impacto sobre el rango, mientras que su efecto se
disminuye en los resultados obtenidos con otras medidas mejores de la variabilidad,
9
Debido a que los resultados analíticos se expresan como porcentaje (p. ej. el
porcentaje de hierro en una muestra de mineral) puede ser confuso dar las
desviaciones relativas en forma porcentaje, y es preferible expresarlas en partes por
mil en lugar de porcentaje (partes por ciento):
10
T de Student
Hemos visto que, dadas μ y a para la distribución normal de una población infinita,
se puede establecer un enunciado preciso a pesar de la desigualdad que existe al
obtener de la población una observación que cae fuera de ciertos límites. Pero en
la práctica trabajamos con un número finito de observaciones, y no conocemos ni μ
ni a, pero sí x y s, las cuales son sólo un estimado de μ y a. Ya que estos estimados
están sujetos a la incertidumbre, lo que tenemos en realidad es una especie de curva
de distribución confusa en, la cual hay que basarse para hacer cualquier predicción
que deseemos. Naturalmente, esto ensancha los límites correspondientes a cualquier
disparidad dada, de tal forma que una observación individual caerá fuera de tales
límites. W.S. Gosset, un químico inglés que escribía bajo el seudónimo de Student,
11
estudió el problema de hacer predicciones en base a una muestra finita sacada de
una población desconocida y publicó una solución en 1908.
La teoría del trabajo de Student está más allá del alcance de este libro, pero podemos
aceptarla como una teoría con bases muy sólidas y ver cómo se puede utilizar en
química. La cantidad t (que con frecuencia se denomina t de Student) se define por
la expresión
3 Biometrika, 6, 1 (1908).
4 Los grados de libertad se pueden definir como el número de
observaciones individuales que podemos permitir que varíen siempre y cuando
x y x, una vez que se han determinado, se mantengan constantes. Por
ejemplo, una vez que obtuvimos la media y decidimos mantenerla constante,
todas las observaciones menos una se pueden variar; esta última está
fijada por x y por todos los valores de x, y los grados de libertad son igual
a N
- 1. En general, se s se calcula con el mismo número de observaciones
que se utiliza para calcular x (lo que es el caso normal al tratar datos
analíticos), los grados de libertad son igual a n-l.
12
Para el estudiante principiante algunas veces es confuso el significado de los
intervalos de confianza. La interpretación correcta, utilizando la parte (a) del
ejemplo anterior, es como sigue: supongamos que el químico repite el análisis
diez veces, llevando a cabo cuatro determinaciones y calculando el intervalo
cada vez, como en el ejemplo. Obtendría diez intervalos tales como 15.30 ±
0.12,
15.28 ± 0.14, 15.3 ± 0.11, etc. Podría esperar que nueve de esos diez intervalos
abarcaran la media de la población ¡J. Una mala interpretación muy común es
que el 90070 de las medias experimentales vayan a caer dentro del intervalo
15.30
±0.12. Predecir el intervalo dentro del cual caerán los futuros valores de x es un
problema estadístico diferente que sólo puede tratarse con otro tipo de límites,
más amplios que los límites de confianza analizados aquí.
En algunos casos en el que el análisis se ha repetido muchas veces, un químico
puede tener una estimación confiable de la desviación estándar de la población,
o. En este caso no existe incertidumbre en el valor de a y el intervalo de confianza
está dado por
13
Prueba de significancia
Supongamos que una muestra se analiza por dos métodos diferentes. Por su-
puesto que la estadística no puede decir cuál es el valor "correcto", pero de todos
modos existe una pregunta previa, esto es, ¿es significativa la diferencia entre los dos
valores? Es posible obtener dos valores diferentes utilizando dos métodos,
sencillamente por la influencia de fluctuaciones al azar, pero también es posible que
alguno de los métodos (o incluso ambos) esté sujeto a un error determinado. Existe
una prueba en la que se utiliza la t de Student que nos dirá (con una probabilidad
dada) si vale la pena buscar la causa de la diferencia entre las dos medias. Es claro
que, cuanto mayor sea la dispersión en las des series de datos, será menos probable
que la diferencia entre las dos medias sea verdadera.
El enfoque estadístico de este problema es la hipótesis nula. Esta hipótesis establece,
en este ejemplo, que las dos medias son idénticas. La prueba t le da una respuesta
de sí o no a la hipótesis nula con una cierta exactitud, como del 95 o
99070.El procedimiento es como sigue: supongamos que una muestra se ha analizado
por dos métodos diferentes, dando las medias Xl y X2 y las desviaciones estándar
14
S1 Y s-¿; n1 Y n2 son el número de resultados individuales obtenidos en los dos
métodos. El primer paso es calcular un valor t utilizando la fórmula
(Este procedimiento supone que S1 Y S2 son las mismas; la comprobación se des-
cribe más abajo). Segundo, obtener el valor de t de una tabla como la Tabla 3.5 en
un grado de libertad dado por (n1 + n2 - 2) y a un nivel de probabilidad deseado.
Si el valor de la tabla es mayor que la t calculada a partir de los datos, la hipótesis
nula está comprobada, (esto es, Xl y X2 son las mismas a una cierta probabilidad). Si
el valor de t de la tabla es menor que el calculado, entonces la hipótesis nula es
incorrecta y puede ser provechoso buscar una razón para explicar la diferencia entre
Xl y X2.
Si S1 YS2 son en realidad diferentes, debe utilizarse un procedimiento mucho más
complicado que aquí no se verá. Por lo general, en el trabajo analítico que implica
métodos que, por sentido común, podrían ser considerados semejantes, St y S2 son
casi las mismas. La relación de varianza o prueba F es una prueba disponible para
decidir si una diferencia entre S1 YS2 es significativa. El procedimiento
es simple: encontrar la relación F= 𝑠12 /𝑠22 colocando en el numerador el valor de
s más grande, de modo que F > 1; entonces vamos a la tabla de los valores de F.
Si el valor de F en la tabla es menor que el valor de F calculado, las dos desviaciones
estándar son significativamente diferentes; de otra forma no lo son. En la Tabla 2.7
se dan algunos valores de F para un nivel de probabilidad de 95070.La prueba F
puede utilizarse para determinar la validez de la sencilla prueba t descrita aquí, pero
por sí misma puede ser de interés para determinar si dos procedimientos analíticos
nos dan una precisión diferente que sea significativa.
15
Algunas veces es interesante comparar dos resultados cuando uno de ellos se
considera a priori como altamente confiable. Un ejemplo de esto puede ser la
comparación de la media x de varios análisis de una muestra NBS con el valor
certificado por la National Bureau of Standards. El objetivo sería no pasar sobre el
dictamen de ésta. En este caso, el valor certificado se toma como ¡.t en la ecuación
que define la t de Studenr, y se calcula un valor t utilizando x, n y s de los resultados
analíticos a mano. Si el valor de t calculado es mayor que el valor de t que está en la
tabla para n - 1 grados de libertad y para la probabilidad desea- da, entonces el
método analítico en cuestión da un valor de la media que es significativamente
diferente del valor de la NBS; de otro modo, la diferencia entre los dos valores sería
atribuida sólo a la casualidad.
El siguiente ejemplo es una ilustración.
Ejemplo 4. Un químico analiza una muestra de mineral de hierro proporcionada
por la National Bureau of Standards y obtiene los siguientes resultados: x = 10.52,
16
Criterio para descartar una observación
Algunas veces, cuando una persona está realizando una serie de mediciones
repetidas, se enfrenta con un resultado que parece estar fuera del grupo, y entonces
debe decidir si descarta ese resultado para una consideración posterior. Este
problema se encuentra al principio en los cursos de química analítica, más tarde en
el trabajo de laboratorio físico-químico, y aun en investigación avanzada, aunque
con menor frecuencia a medida que el estudiante progresa. En el trabajo científico es
aceptado como regla general que una medición se rechaza en forma automática
cuando se sabe que se ha cometido un error; ésta es una situación definida que no
estamos tratando aquí. Debe notarse que es incorrecto (pero también del todo
humano) rechazar resultados que estuvieron sujetos a errores conocidos cuando
parecen ser discordantes. La única forma de prevenir una preferencia in- consciente
en las mediciones es rechazar cada resultado en el que se sabe que se cometió un
error, a pesar de que concuerden con los otros. El problema que es- tamos enfocando
aquí es diferente: ¿cómo decidir descartar un resultado que parece discordante
cuando no se conoce ninguna razón para desconfiar de él?
Si el número de resultados repetidos es grande, el problema de descartar un valor
no es importante; en primera, un solo valor tendrá un efecto pequeño sobre la media,
y segundo, las consideraciones estadísticas dan una respuesta clara, considerando
la probabilidad de que el resultado sospechoso es miembro de la misma población
al igual que los otros. Por otro lado, cuando el número repetido es pequeño surge un
verdadero dilema: el resultado divergente ejerce un efecto significativo sobre la media,
mientras que al mismo tiempo existen datos insuficientes para permitir un análisis
estadístico real de la posición relativa del resultado sospechoso.
DIAGRAMAS DE CONTROL
PROPAGACION DE ERRORES
Por lo general, el resultado numérico de una medición no es de interés por sí
mismo, sino que se utiliza junto con otras mediciones diferentes para calcular
la cantidad que en realidad se desea. La atención se enfoca, naturalmente, en
la precisión y exactitud de la cantidad calculada al final, pero es aleccionador ver
cómo se propagan hasta el resultado los errores cometidos en las mediciones
individuales. Un tratamiento riguroso de este problema requiere más espacio
del disponible aquí y matemáticas que están más allá del alcance de este libro.
Una aproximación elemental la de W aser P y el estudiante que esté interesado
en el tema puede encontrar los elementos de un tratamiento más refinado discutido
en forma breve, por Wilson18 y por Shoemaker y Garland." Benedetti-Pichler/"
proporcionan una discusión con particular hincapié en la química analítica.
18
CIFRAS SIGNIFICATIVAS Y REGLAS PARA EL
CÁLCULO
Cifras significativas
Cuando se realiza un cálculo a partir de datos experimentales, el error o
inexactitud en el resultado final se puede calcular por medio de los procedimientos
que se acaban de describir. Un procedimiento que se utiliza mucho para hacer
una estimación a grosso modo de esta inexactitud incluye el uso de las cifras
significativas. La ventaja principal de este procedimiento es que es menos laborioso
que los cálculos de las inexactitudes reales, en particular aquellos que se basan
en errores indeterminados. La desventaja principal es que sólo se obtiene una
estimación general de la inexactitud. En la mayoría de las situaciones que se
enfrentan durante el análisis, todo lo que se necesita es un estimado y por ello
son muy utilizadas las cifras significativas.
La mayoría de los científicos definen las cifras significativas como sigue: se
dice que son cifras significativas todos los dígitos que son seguros más uno que
tiene algo de inexactitud. Por ejemplo, al pesar un objeto en una balanza analítica,
las cifras 10.746 pueden leerse con seguridad. El cuarto decimal se estima al leer
en la escala de aguja o vernier y el peso final se lee como 10.7463. El último dígito
es incierto, probablemente de ::i:: 1 en una sola lectura, o de ::i:: 2 si está implicada
la diferencia de dos lecturas. En esta pesada los seis dígitos son cifras significativas.
19
Es importante utilizar sólo cifras significativas al expresar datos analíticos. El
empleo de muchas o muy pocas cifras puede confundir a otra persona respecto
a la precisión de los datos analíticos. Por ejemplo, si se lee un volumen de
1.234 ml, se entendería que la bureta estaba graduada en 0.01 rnl y que el tercer
decimal se estimó leyendo entre las subdivisiones. Cuando se lee el mismo
volumen en una bureta ordinaria de 50 mI puede estimarse sólo hasta el segundo
decimal, ya que la graduación es en intervalos de 0.1 ml. Por esto la lectura
no debe tener más de tres cifras, es decir, 1.23 ml,El dígito cero puede o no ser
una cifra significativa, dependiendo de su función dentro del número. En la lectura
de una bureta, digamos 10.06 ml, los dos ceros son mediciones y por lo tanto son
cifras significativas; el número contiene cuatro cifras significativas. Supongamos
que el volumen anterior se expresa en litros, esto es, 0.01006 litros. No
incrementamos el número de cifras significativas al cambiar la unidad de volumen.
La función del cero inicial es la de situar el punto decimal; por esta razón, los ceros
iniciales no son significativos. Por lo general también se coloca un cero antes del
punto decimal, como en 0.01006, y éste tampoco es significativo. Los ceros
terminales sí son significativos. Por ejemplo, un peso de 10.2050 g tiene seis cifras
significativas. Cuando es necesario utilizar ceros terminales para situar el punto
decimal, se pueden emplear potencias de diez para evitar confusión con respecto
al número de cifras significativas. Por ejemplo, un peso de 24.0 mg expresado en
microgramos no debe escribirse como
24,OM. Los dos últimos ceros no son significativos, y esto se indica al escribir los
números como 24.0x 103 o 2.40 x 104•
ADICIÓN Y SUBSTRACCIÓN
20
MULTIPLICACIÓN Y DIVISIÓN
21
22
Logaritmos
23
METODO DE MINIMOS CUADRADOS
24
25
26
27
Bibliografía
R.A.DAY,Jr A.L Underwood QUIMICA ANALITICA CUANTITATIVA
28