Está en la página 1de 40

1- MAGNITUDES FISICAS.

Y UNIDADES DE MEDIDA

Concepto de magnitud.

En Física, se llaman magnitudes a aquellas propiedades que pueden


medirse y expresar su resultado mediante un número y una unidad.
Son magnitudes la longitud, la masa, el volumen, la cantidad de
sustancia, el voltaje, etc.
Las siguientes magnitudes se denominan magnitudes físicas
fundamentales. Si a estas magnitudes se les añaden dos magnitudes
complementarias: el ángulo sólido y el ángulo plano, a partir de
ellas pueden expresarse TODAS las demás magnitudes físicas.

El concepto de magnitud es muy importante en la Física y la


Química ya que es la base para formular las leyes que
definen como se comporta nuestro mundo. Aunque suene
algo complicado, el concepto es sencillo.

Las magnitudes no son más que la característica de un


objeto, sustancia o fenómeno físico que se puede definir de
forma numérica.

Magnitudes Símbolo
Longitud x
Masa m
Tiempo t
Temperatura T
Intensidad de
I,i
corriente eléctrica
Intensidad
I
luminosa
Cantidad de
mol
sustancia

Por ejemplo, un balón de fútbol puede tener una masa de 1 kilogramo,


una temperatura de 23º centígrados, una velocidad de 5 kilometros/hora, etc... a cada
una de esas propiedades (masa, temperatura, velocidad,...) a las que podemos asignarle
un valor númerico se le llama magnitud.
Toda magnitud física debe llevar asociadas sus unidades. Es
fundamental para el método científico que las medidas sean
reproducibles y, para que esto sea posible, las magnitudes con sus
unidades han de ser expresadas de una manera concisa y no
ambigua.
Desde tiempos inmemoriales el hombre ha empleado sistemas de
medida para cuantificar. Muchos de estos sistemas de medidas
estaban basados en partes del cuerpo o en objetos cotidianos (una
vara, un pie, etc.). El problema de este tipo de unidades es que no
eliminaba la ambigüedad, y fomentaba el uso de diferentes medidas
en los distintos pueblos, lo que dificultaba en actividades como el
comercio ponerse de acuerdo sobre las cantidades con las que se
estaba comerciando.

A finales del siglo XVIII se adoptó en Francia el llamado sistema


métrico. La ventaja de este sistema es doble: por una parte,
proporciona una única unidad para cada magnitud física. Además, no
hace necesario el uso de factores de conversión, puesto que todos los
múltiplos y submúltiplos de cada unidad son potencias de diez.
En la actualidad el sistema métrico que se emplea a nivel internacional
es el Sistema Internacional de Unidades (SI), y es el que emplearemos
a lo largo de estas páginas. el organismo encargado de velar por la
uniformidad de las unidades es la Oficina Internacional de Pesos y
Medidas.

Sistema Internacional de Unidades

El Sistema Internacional de Unidades fue creado en 1960. Tiene la


ventaja de que todas sus unidades básicas están basadas en
fenómenos físicos, a excepción de la unidad de masa, que se define
en referencia a un patrón de platino iridiado (imagen del banner de
esta sección) que se conserva en una caja fuerte de la Oficina de
Pesos y Medidas. Para obtener información detallada sobre las
definiciones de cada unidad, consúltese la página correspondiente de
la web de la BPIM.

Unidades básicas

Las unidades básicas del Sistema Internacional son siete:


Magnitud Física Unidad Símbolo
Longitud metro m
Tiempo segundo s
Masa kilogramo kg
Intensidad de corriente
amperio A
eléctrica
Temperatura kelvin K
Cantidad de sustancia mol mol
Intensidad luminosa candela cd

Como es un sistema métrico decimal, los múltiplos y submúltiplos de


cada una de estas unidades se expresan en potencias de 10. En la
siguiente tabla se muestran los nombres de algunos de ellos.

1000n 10n Prefijo Símbolo Escala Corta Escala Larga Equivalencia decimal
1 000 000 000 000 000 000
10008 1024 yotta Y Septillón Cuadrillón
000 000
1 000 000 000 000 000 000
10007 1021 zetta Z Sextillón Mil trillones
000
10006 1018 exa E Quintillón Trillón 1 000 000 000 000 000 000
5 15
1000 10 peta P Cuadrillón Mil billones 1 000 000 000 000 000
10004 1012 tera T Trillón Billón 1 000 000 000 000
Mil millones (o
10003 109 giga G Billón 1 000 000 000
millardo)
10002 106 mega M Millón 1 000 000
1 3
1000 10 kilo k Mil 1 000
2/3 2
1000 10 hecto h Centena 100
10001/3 101 deca da / D Decena 10
0 0
1000 10 ninguno Unidad 1
-
1000
1/3 10-1 deci d Décimo 0.1

1000-
2/3 10-2 centi c Centésimo 0.01

1000-1 10-3 mili m Milésimo 0.001


-2 -6
1000 10 micro µ Millonésimo 0.000 001
-3 -9
1000 10 nano n Billonésimo Milmillonésimo 0.000 000 001
-
10
1000-4 12 pico p Trillonésimo Billonésimo 0.000 000 000 001
10-
1000-5 15 femto f Cuadrillonésimo Milbillonésimo 0.000 000 000 000 001

10-
1000-6 18 atto a Quintillonésimo Trillonésimo 0.000 000 000 000 000 001

10- 0.000 000 000 000 000 000


1000-7 21 zepto z Sextillonésimo Miltrillonésimo
001
10- 0.000 000 000 000 000 000
1000-8 24 yocto y Septillonésimo Cuadrillonésimo
000 001

Unidades derivadas
Las unidades derivadas son las utilizadas para expresar magnitudes físicas que dependen (son
combinaciones) de las magnitudes básicas. En estas páginas iremos introduciéndolas en las
secciones correspondientes conforme definamos las distintas magnitudes físicas.

Algunas Magnitudes Derivadas

Densidad

Velocidad

Fuerza

Volumen

Aceleración

Carga Eléctrica

Resistencia Eléctrica

sistema CGS e Ingles

El sistema cegesimal de unidades, también llamado sistema CGS, es un sistema de unidades


basado en el centímetro, el gramo y el segundo. Su nombre es el acrónimo de estas tres unidades.

El sistema CGS ha sido casi totalmente reemplazado por el Sistema Internacional de Unidades. Sin
embargo aún perdura su utilización en algunos campos científicos y técnicos muy concretos, con
resultados ventajosos en algunos contextos. Así, muchas de las fórmulas del electromagnetismo
presentan una forma más sencillas cuando se las expresa en unidades CGS, resultando más simple
la expansión de los términos en v/c.

La Oficina Internacional de Pesos y Medidas, reguladora del Sistema Internacional de Unidades,


valora y reconoce estos hechos e incluye en sus boletines referencias y equivalencias de algunas
unidades electromagnéticas del sistema CGS gaussiano, aunque desaconseja su uso.

Sistema ingles de Medida

El sistema inglés de unidades o sistema imperial, es aún usado ampliamente en los Estados
Unidos de América y, cada vez en menor medida, en algunos países con tradición británica.
Debido a la intensa relación comercial que tiene nuestro país con los EUA, existen aún en México
muchos productos fabricados con especificaciones en este sistema. Ejemplos de ello son los
productos de madera, tornillería, cables conductores y perfiles metálicos. Algunos instrumentos
como los medidores de presión para neumáticos automotrices y otros tipos de manómetros
frecuentemente emplean escalas en el sistema inglés.

El Sistema Inglés de unidades son las unidades no-métricas que se utilizan actualmente en los
Estados Unidos y en muchos territorios de habla inglesa (como en el Reino Unido ), pero existen
discrepancias entre los sistemas de Estados Unidos e Inglaterra. Este sistema se deriva de la
evolución de las unidades locales a través de los siglos, y de los intentos de estandarización en
Inglaterra . Las unidades mismas tienen sus orígenes en la antigua Roma. Hoy en día, estas
unidades están siendo lentamente reemplazadas por el Sistema Internacional de Unidades ,
aunque en Estados Unidos la inercia del antiguo sistema y el alto costo de migración ha impedido
en gran medida el cambio.

EQUIVALENCIAS DE LAS UNIDADES INGLESAS.

LONGITUD

1 milla = 1,609 m

1 yarda = 0.915 m

1 pie = 0.305 m

1 pulgada = 0.0254 m
MASA

1 libra = 0.454 Kg.

1 onza = 0.0283 Kg.

1 ton. inglesa = 907 Kg.

SUPERFICIE

1 pie 2 = 0.0929m^2

1 pulg 2 . = 0.000645m^2

1 yarda 2 = 0.836m^2

VOLUMEN Y CAPACIDAD

1 yarda 3 = 0.765 m^3

1 pie 3 = 0.0283 m^3

1 pulg 3 . = 0.0000164 m^3

1 galón = 3.785 l

Concepto de magnitud.
El concepto de magnitud es muy importante en la Física y la Química ya que es la base para
formular las leyes que definen como se comporta nuestro mundo. Aunque suene algo
complicado, el concepto es sencillo.

Las magnitudes no son mas que la característica de un objeto, sustancia o fenómeno físico
que se puede definir de forma numérica.

Por ejemplo, un balón de fútbol puede tener una masa de 1 kilogramo, una temperatura de
23º centígrados, una velocidad de 5 kilometros/hora, etc... a cada una de esas propiedades
(masa, temperatura, velocidad,...) a las que podemos asignarle un valor númerico se le
llama magnitud.
Magnitudes fundamentales y
derivadas.
Al hablar de magnitudes podemos distinguir principalmente 2 tipos, las magnitudes
fundamentales y las magnitudes derivadas.

Magnitudes fundamentales
Las magnitudes fundamentales, elegidas por convención, son aquellas magnitudes que no
se pueden definir en función de ninguna otra magnitud.

Magnitudes Fundamentales

Longitud

Masa

Tiempo
Magnitudes Fundamentales

Intensidad de corriente eléctrica

Temperatura termodinámica

Cantidad de sustancia

Intensidad luminosa

Magnitudes derivadas
Por otro lado, las magnitudes derivadas estan definidas por medio de una o más magnitudes
fundamentales.
Algunas Magnitudes Derivadas

Densidad

Velocidad

Fuerza

Volumen

Aceleración
Algunas Magnitudes Derivadas

Carga Eléctrica

Resistencia Eléctrica

Medida de las magnitudes


Para medir magnitudes se usan instrumentos calibrados: un cronómetro, un termómetro, una
báscula, etc. Medir una magnitud es comparar una cantidad de esa magnitud con otra
cantidad de la misma magnitud que se usa como patrón.
Ejemplo
Responde verdadero o falso a las siguientes afirmaciones:

a) Las magnitudes son características que pueden ser definidas de forma numérica.
b) Las magnitudes fundamentales son aquellas que no se pueden definir en función de
ninguna otra magnitud.
c) El tiempo es una magnitud derivada.
d) La medición de magnitudes se realiza por medio de instrumentos calibrados.

Medir

La palabra medir es un verbo que tiene origen del latín “metiri” y hace referencia
al acto de comparar una cantidad determinada de algo con una unidad de medida,
en donde se establece cuántas veces esta unidad ocupa un lugar dentro de dicha
cantidad.

Definición de medir: Determinar la longitud, volumen, extensión, o capacidad de


una cosa por comparación con una unidad de medida establecida que es utilizada
como referencia, usualmente mediante algún instrumento graduado con dicha
unidad.
Unidad de medida

Por otro lado, dentro de lo que concierne al término medir, encontramos el


concepto de unidad de medida. La unidad de medida es el patrón a seguir para
realizar la medición. Debe cumplir ciertas condiciones, las cuales son:

 Una unidad debe de ser universal


 Una unidad debe ser de fácil reproducción
 Una unidad debe ser inalterable

Medidas directas y sus diferentes errores

Llamamos medida directa cuando se tiene a disposición un instrumento que


calcule una medida determinada. A su vez, la medida directa puede presentar
diferentes errores:

 Error absoluto
 Error relativo
 Error estándar

Además, un error tiene origen sistemático o aleatorio, dependiendo de la


regularidad con la que ocurre dicho error a la hora de medir.

Medidas tradicionales

 Pulgada: Equivale al ancho que tiene un pulgar.


 Pie: En la antigüedad un pie se refería, como medida, al largo que tenía el mismo.
Sin embargo, hoy en día equivale a doce pulgadas.
 Yarda: Para obtener una yarda, el objeto a medir debe tener una longitud desde la
nariz hasta el dedo medio.
 Braza: Su nombre nos remite al brazo y no estaremos errados si lo relacionamos
con éste, ya que una braza va desde la punta del dedo medio hasta el brazo.
 Palmo: En relación a las palmas de las manos.
 Codo: Largo del antebrazo.
 Milla: Su origen se remite a Roma, cuando ésta unidad de medida equivalía a dos
mil pasos.
 Legua: Volvemos a Roma, en donde la legua equivalía a una milla y media, es decir
3000 pasos. En la actualidad equivale, según la zona geográfica, hasta siete
kilómetros.

¿Qué es medición?
La medición, en líneas generales, es comparar la medida de una cosa con la
medida de otra. Para esto, se deben asignar distintos valores numéricos o
dimensiones a uno varios objetos utilizando diferentes procedimientos.

La medición, entonces, es un proceso básico que consiste en comparar un patrón


elegido con otro objeto o fenómeno que tenga una magnitud física igual a éste
para poder así calcular cuántas veces el patrón está contenido en esa magnitud en
especial. Sin embargo, esta acción que parece tan simple de calcular, se dificulta
cuando lo que se desea medir y expresar numéricamente es un poco más
intangible o incluso evanescente.

¿Cómo debe ser el proceso?

El proceso de medición tiene como fin distinguir objetos, fenómenos o casos


para luego poder clasificarlos. Para que sea válido, este proceso debe responder
algunos requisitos y principios. En primer lugar, debe ser válido. Es decir, deben
existir maneras de demostrar la manera en la que se realiza la medición.

Además, el proceso de medición debe ser fiable, se debe aplicar con repetición en
varios casos y que proporcione siempre los mismos -o parecidos- resultados. Por
último, es necesario el proceso de la precisión, esto quiere decir que la medida
deberá ser precisa cuando se pueda localizar con total exactitud en relación con el
propósito que se quiere obtener.

Tipos de medición

Existen distintos tipos de medición y los desarrollaremos a continuación:

 Medición directa: Podemos obtener este tipo de medida al utilizar un


instrumento de medición que sea capaz de comparar la variable que se va
a medir con un determinado patrón. En este tipo de medición se deben
comparar dos objetos que posean la misma característica. Es decir, si
utilizamos un calibrador, se calculará la longitud de un objeto en
comparación a la longitud establecida en el mismo. Otro claro ejemplo de
esto es si medimos la frecuencia de un objeto con la frecuencia de un
estroboscopio.
 Medidas reproducibles: Son aquellas en las que se puede obtener
siempre el mismo resultado si es que se logran efectuar una serie de
comparaciones entre la misma variable y el aparato para medir utilizado.
Son procedimientos que no destruyen ni producen ninguna alteración
importante en el sujeto que se encuentra en medición. Por ejemplo, si se
mide varias veces el mismo lado de una cama, los resultados serán
siempre iguales.
 Medición estadística: Ocurre cuando se obtienen distintos resultados a la
vez aunque se realicen varias comparaciones entre la misma variable y el
mismo aparato de medida seleccionado. Si se desea comparar la cantidad
de personas que leen un determinado periódico, a pesar de que cada día el
número sea distinto, igualmente se podrá alcanzar un resultado que será el
valor medio o anual.
 Medición indirecta: No siempre se pueden calcular las medidas entre
variables de manera directa, ya sea por su tamaño, naturaleza o por otros
posibles obstáculos. Es por esta razón que la medición indirecta ocurre
cuando se calcula la medición deseada calculando una o más magnitudes
diferentes para luego poder calcular la magnitud deseada al calcular la
magnitud o magnitudes calculadas de manera directa.

No obstante, no siempre los resultados son satisfactorios ya que pueden ocurrir


distintos tipos de errores a la hora de realizar una medición. Según la ocurrencia
de errores, se pueden distinguir los errores sistemáticos o los errores aleatorios. En
cambio, si nos referimos a la cuantificación de errores, podemos encontrar errores
absolutos o errores relativos.

Precisión de Instrumentos y Errores

En física, química e ingeniería, un instrumento de medición es un aparato que se


usa para comparar magnitudes físicas mediante un proceso de medición. Como
unidades de medida se utilizan objetos y sucesos previamente establecidos como
estándares o patrones y de la medición resulta un número que es la relación entre
el objeto de estudio y la unidad de referencia. Los instrumentos de medición son el
medio por el que se hace esta conversión.

Características de un instrumento

Las características importantes de un instrumento de medida son: precisión,


exactitud, apreciación y la sensibilidad según las siguientes definiciones:

Precisión: es la capacidad de un instrumento de dar el mismo resultado en


mediciones diferentes realizadas en las mismas condiciones.

Exactitud: es la capacidad de un instrumento de medir un valor cercano al valor


de la magnitud real.
Apreciación: es la medida más pequeña que es perceptible en un instrumento de
medida.

Sensibilidad: es la relación de desplazamiento entre el indicador de la medida y


la medida real

Se utilizan una gran variedad de instrumentos para llevar a cabo mediciones de las
diferentes magnitudes físicas que existen. Desde objetos sencillos como reglas y
cronómetros hasta microscopios electrónicos y aceleradores de partículas.

A continuación se indican algunos instrumentos de medición existentes en función


de la magnitud que miden.

Para medir masa:

balanza

báscula

espectrómetro de masa

catarómetro

Para medir tiempo:

calendario

cronómetro

reloj

reloj atómico

datación radiométrica

Para medir longitud:

Cinta métrica

Regla graduada

Calibre

vernier
micrómetro

reloj comparador

interferómetro

odómetro

Para medir ángulos:

goniómetro

sextante

transportador

Para medir temperatura:

termómetro

termopar

pirómetro

Para medir presión:

barómetro

manómetro

tubo de Pitot

Para medir velocidad:

tubo de Pitot (propiamente desarrollado para determinar la presión)

velocímetro

anemómetro (Para medir la velocidad del viento)

tacómetro (Para medir velocidad de giro de un eje)

Para medir propiedades eléctricas:

electrómetro (mide la carga)


amperímetro (mide la corriente eléctrica)

galvanómetro (mide la corriente)

óhmetro (mide la resistencia)

voltímetro (mide la tensión)

vatímetro (mide la potencia eléctrica)

multímetro (mide todos los anteriores valores)

puente de Wheatstone

osciloscopio

Para medir volúmenes

Pipeta

Probeta

Bureta

Matraz aforado

Para medir otras magnitudes:

Caudalímetro (utilizado para medir caudal)

Colorímetro

Espectroscopio

Microscopio

Espectrómetro

Contador geiger

Radiómetro de Nichols

Sismógrafo

pHmetro (mide el pH)


Pirheliómetro

Luxómetro (mide el nivel de iluminación)

Sonómetro (mide niveles de presión

CLASES Y TIPOS DE ERROR

Al medir y comparar el valor verdadero o exacto de una magnitud y el valor


obtenido siempre habrá una diferencia llamada error de medición. Por tanto al no
existir una medición exacta debemos procurar reducir al mínimo error, empleando
técnicas adecuadas y aparatos o instrumentos cuya precisión nos permita obtener
resultados satisfactorios. Una forma de reducir la magnitud del error es repetir el
mayor número de veces la medición, pues el promedio de las mediciones resultará
más confiable que cualquiera de ellas.

CLASES DE ERROR EN LAS MEDICIONES

Los errores se dividen en dos clases:

Errores Sistemáticos Estos errores se presentan de manera constante a través de


un conjunto de lecturas realizadas al hacer la medición de una magnitud
determinada. Las fuentes o causas de esta clase de errores son:

Defecto en el Instrumento de Medición. Se produce al determinar el tiempo


con un cronómetro que marche más rápido o más lento de lo debido.

Error de Paralaje. Este se comete por una incorrecta postura del observador, la
cual le impide hacer una adecuada lectura de la medición.

Mala Calibración del Aparato o Instrumento usado. Se da por fallas de


fabricación

Error de Escala. Se produce por el rango de posición del instrumento empleado,


lo que provocara una incertidumbre en la medición.

Errores Circunstanciales (estocásticos o aleatorios)

Esta clase de errores no se repite regularmente de una medición a otra, sino que
varían y sus causas se deben a los efectos provocados por las variaciones de
presión, humedad y temperatura del ambiente sobre los instrumentos. Así, por
ejemplo, con la temperatura la longitud de una regla puede variar ligeramente de
una medición a otra; o una balanza sensible puede dar variaciones pequeñas al
medir varias veces la masa de un cuerpo. Los errores circunstanciales pueden
llamarse estocásticos, ya que son difíciles de apreciar debido a que son muy
pequeños y se producen en forma irregular o estocástica de una medición a otra,
es decir, azarosa. También se les da el nombre de error aleatorio porque son el
resultado de factores inciertos y, por lo tanto, tienen la misma posibilidad de ser
positivos o negativos.

CONCLUSIÓN

En conclusión tenemos que desde nuestros antepasados tuvieron la necesidad de


medir para poder realizar todas sus actividades y que hoy hasta en nuestros días
hemos tenido esa necesidad para progresar en un futuro y ser mejores día a día.

Conversión de unidades
La conversión de unidades es la transformación de una cantidad, expresada en un
cierta unidad de medida, en otra equivalente, que puede ser del mismo sistema de
unidades o no.

Este proceso suele realizarse con el uso de los factores de conversión y las tablas
de conversión.

Frecuentemente basta multiplicar por una fracción (factor de conversión) y el


resultado es otra medida equivalente, en la que han cambiado las unidades.
Cuando el cambio de unidades implica la transformación de varias unidades se
pueden utilizar varios factores de conversión uno tras otro, de forma que el
resultado final será la medida equivalente en las unidades que buscamos, por
ejemplo si queremos pasar 8 metros a yardas, lo único que tenemos que hacer es
multiplicar 8 x (0.914)=7.312 yardas.

Alguna equivalencia

1 m = 100 cm

1 m = 1000 mm

1 cm = 10 mm

1 km = 1000 m

1 m = 3.28 pies

1 m = 0.914 yardas

1 pie = 30.48 cm
1 pie = 12 pulgadas

1 pulgada = 2.54 cm

1 milla = 1.609 km

1 libra = 454 gramos

1 kg = 2.2 libras

1 litro = 1000 Cm3

1 hora = 60 minutos

1 hora = 3600 segundos

Factor de Conversion

Un factor de conversión es una operación matemática, para hacer cambios de unidades


de la misma magnitud, o para calcular la equivalencia entre los múltiplos y submúltiplos de
una determinada unidad de medida.

Dicho con palabras más sencillas, un factor de conversión es "una cuenta" que permite
expresar una medida de difentes formas. Ejemplos frecuentes de utilización de los
factores de conversión son:

 Cambios monetarios: euros, dólares, pesetas, libras, pesos, escudos...


 Medidas de distancias: kilómetros, metros, millas, leguas, yardas...
 Medidas de tiempo: horas, minutos, segundos, siglos, años, días...
 Cambios en velocidades: kilómetro/hora, nudos, años-luz, metros/segundo..

un ejemplo de una convercion multiple aqui lo que hizo basicamente fue millas /hora
a Pies /seg.
pero como existe un valor directo de milla a pies tubo que convertir primero las millas
a metros para despues poder convertilo a pies y una vez ya teniendo eso poder
convertir las hora a segundos
otros ejemplos

Queremos pasar 2 horas a minutos:


Para convertir esta cantidad lo que hacemos es poner la unidad que queremos
eliminar en el denominador y la unidad a la que queremos convertir en el numerador,
para asi poder multiplicar el 2 con el numerador que es 60 y asi obtener el valor de
120 minutos

Queremos pasar 30 cm a m: …

Queremos pasar 120 km/h a m/s: …

Notación científica
La notación científica es una manera de escribir cantidades con la
forma a·10 n donde “a” es un número mayor o igual que 1 y menor que
10 y “n” es un número entero.

Esta manera de representar valores es frecuentemente utilizada ya


que muchas veces debemos escribir cantidades muy grandes o muy
pequeñas, incluso en una misma ecuación. La notación científica
permite reducir la cantidad de dígitos y hacer más comprensibles las
expresiones.

Cuando el exponente (n) es positivo estamos multiplicando por una


potencia de 10 mientras que cuando es negativo estamos dividiendo
por una potencia de 10.

Recordemos que por ejemplo:

Cómo escribir un número en notación científica


Lo primero que debemos hacer es correr la coma hacia uno u otro lado
hasta que nos quede un solo dígito entero. Luego compensamos el
corrimiento de la coma con el exponente del número 10.
Por cada lugar que corremos la coma hacia la derecha (similar a
multiplicar por 10), le restamos un número al exponente (similar a
dividir por 10).

Por cada lugar que corremos la coma hacia la izquierda (similar a


dividir por 10), le sumamos un número al exponente (similar a
multiplicar por 10).

Ejemplos de pasaje a notación científica


Si queremos convertir el número 1200 corremos la coma tres lugares
hacia la izquierda (similar a dividir por 1000) hasta que nos quede un
solo dígito entero y obtenemos 1,2.

Luego lo compensamos multiplicando por 1000, es decir multiplicando


por 10 3.

Si tenemos el número 0,0221 corremos dos lugares hacia la derecha


(similar a multiplicar por 100) hasta que nos quede un solo dígito
entero y obtenemos 2,21.

Luego lo compensamos dividiendo por 100, es multiplicando por 10 -2.

Unidades con prefijos


La notación científica es muy utilizada cuando tenemos unidades con
prefijos (por ejemplo kilómetros, decalitros, etc.) y necesitamos escribir
la misma cantidad expresada en unidades sin prefijos (por ejemplo
metros, litros, etc.). Esto es muy frecuente cuando debemos expresar
cantidades dentro de fórmulas o ecuaciones.

Para ello lo que hacemos primero es escribir la potencia de 10


correspondiente al prefijo (quitando el mismo) y luego expresamos esa
cantidad en notación científica.

Por ejemplo si tenemos 0,25 hL, sabiendo que el prefijo "hecto"


multiplica por 100, podemos escribir 0,25·10 2 L.
Por último, para que la expresión nos quede más clara, convertimos el
valor a notación científica, es decir corremos la coma un lugar
(multiplicando por 10) y restamos una unidad en el exponente
(dividimos por 10).

Ejemplos de números con prefijos


A continuación podemos ver algunos ejemplos de conversión de
números con prefijos a notación científica.

El primer paso consiste en transformar la unidad con prefijo a la


unidad sin prefijo multiplicada por el valor que el prefijo representa.
Luego, en caso de no haber obtenido un solo dígito entero, corremos
la coma y modificamos el exponente sin alterar el valor final.
Cifras significativas

Las cifras significativas son los dígitos de un número que


consideramos no nulos.
Norma Ejemplo
Son significativos todos los 8723 tiene cuatro cifras
dígitos distintos de cero. significativas
Los ceros situados entre dos
105 tiene tres cifras
cifras significativas son
significativas
significativos.
Los ceros a la izquierda de la
0,005 tiene una cifra
primera cifra significativa no
significativa
lo son.
Para números mayores que
8,00 tiene tres cifras
1, los ceros a la derecha de
significativas
la coma son significativos.
Para números sin coma
decimal, los ceros
posteriores a la última cifra
distinta de cero pueden o no 7 · 102 tiene una cifra
considerarse significativos. significativa
Así, para el número 70 7,0 ·
podríamos considerar una o 102 tiene dos cifras
dos cifras significativas. Esta significativas
ambigüedad se evita
utilizando la notación
científica.

En clase de física y química es frecuente que un alumno que está


resolviendo un problema numérico pregunte por el número de
decimales que debe escribir como resultado de una operación
aritmética. También es frecuente que, ante la duda, presente un
resultado final como 3,0112345 · 10-6, es decir, escriba todos los
decimales que la calculadora le ofrece. El principal objetivo que se
plantea este artículo es recordar las reglas que permiten cumplir con
una correcta utilización de las cifras significativas de un número
cuando se realizan operaciones matemáticas, pero también, puestos a
conocer dichas reglas, analizar la idoneidad de las mismas respecto
de la propagación de errores. Finalmente, una vez cumplidos estos
objetivos, se explican las estrategias a seguir, respecto de la
utilización de cifras significativas, en la resolución de problemas de
física o química.
La presentación del resultado numérico de una medida directa, por
ejemplo, de la longitud de una mesa, tiene poco valor si no se conoce
algo de la exactitud de dicha medida. Una de las mejores maneras de
trabajar consiste en realizar más de una medida y proceder con el
tratamiento estadístico de los datos para establecer así un resultado
con un buen límite de confianza. El procedimiento seguido en el
registro de medidas en un laboratorio debe ir por este camino, con un
tratamiento estadístico que genere un límite de confianza superior al
90%, aunque lo más normal es que éste sea del 68%, correspondiente
a la desviación estándar absoluta. Ahora bien, fuera del laboratorio (y
en ocasiones dentro) lo más común es utilizar el llamado convenio de
cifras significativas.

Cifras significativas. Definición.

Las cifras significativas de un número son aquellas que tienen un


significado real y, por tanto, aportan alguna información. Toda
medición experimental es inexacta y se debe expresar con sus cifras
significativas. Veamos un ejemplo sencillo: supongamos que medimos
la longitud de una mesa con una regla graduada en milímetros. El
resultado se puede expresar, por ejemplo como:
Longitud (L) = 85,2 cm
No es esta la única manera de expresar el resultado, pues también
puede ser:

L = 0,852 m
L = 8,52 dm
L = 852 mm
etc…

Se exprese como se exprese el resultado tiene tres cifras


significativas, que son los dígitos considerados como ciertos en la
medida. Cumplen con la definición pues tienen un significado real y
aportan información. Así, un resultado como
L = 0,8520 m
no tiene sentido ya que el instrumento que hemos utilizado para medir
no es capaz de resolver las diezmilésimas de metro.
Por tanto, y siguiendo con el ejemplo, el número que expresa la
cantidad en la medida tiene tres cifras significativas. Pero, de esas tres
cifras sabemos que dos son verdaderas y una es incierta, la que
aparece subrayada a continuación:
L = 0,852 m
Esto es debido a que el instrumento utilizado para medir no es
perfecto y la última cifra que puede apreciar es incierta. ¿Cómo es de
incierta? Pues en general se suele considerar que la incertidumbre es
la cantidad más pequeña que se puede medir con el instrumento,
aunque no tiene por qué ser así pues puede ser superior a dicha
cantidad. La incertidumbre de la última cifra también se puede poner
de manifiesto si realizamos una misma medida con dos instrumentos
diferentes, en nuestro caso dos reglas milimetradas. Por extraño que
pueda parecer no hay dos reglas iguales y, por tanto, cada
instrumento puede aportar una medida diferente.
Quedando claro que la última cifra de la medida de nuestro ejemplo
es significativa pero incierta, la forma más correcta de indicarlo
(asumiendo por ahora que la incertidumbre es de ±1 mm), es
L = 0,852 ± 0,001 m
No obstante, lo más normal es omitir el término ± 0’001 y asumir que la
última cifra de un número siempre es incierta si éste está expresado
con todas sus cifras significativas. Este es el llamado convenio de
cifras significativas que asume que
“cuando un número se expresa con sus cifras significativas, la última
cifra es siempre incierta”.

Asumiendo que cualquier problema de física o química de un libro de


texto nos muestra las cantidades con sus cifras significativas,
debemos saber expresar el resultado de las operaciones que hagamos
con dichos números con sus cifras significativas correspondientes. Es
lo que veremos más adelante pues antes es necesario ampliar
conceptos y establecer procedimientos.

Reglas para establecer las cifras significativas de un número dado.


Regla 1. En números que no contienen ceros, todos los dígitos son
significativos.
Por ejemplo:
3,14159 → seis cifras significativas → 3,14159
5.694 → cuatro cifras significativas → 5.694
Regla 2. Todos los ceros entre dígitos significativos son significativos.
Por ejemplo:
2,054 → cuatro cifras significativas → 2,054
506 → tres cifras significativas → 506

Regla 3. Los ceros a la izquierda del primer dígito que no es cero


sirven solamente para fijar la posición del punto decimal y no son
significativos.
Por ejemplo:
0,054 → dos cifras significativas → 0,054
0,0002604 → cuatro cifras significativas → 0,0002604

Regla 4. En un número con dígitos decimales, los ceros finales a la


derecha del punto decimal son significativos.
Por ejemplo:
0,0540 → tres cifras significativas → 0,0540
30,00 → cuatro cifras significativas → 30,00

Regla 5. Si un número no tiene punto decimal y termina con uno o más


ceros, dichos ceros pueden ser o no significativos. Para poder
especificar el número de cifras significativas, se requiere información
adicional. Para evitar confusiones es conveniente expresar el número
en notación científica, no obstante, también se suele indicar que
dichos ceros son significativos escribiendo el punto decimal
solamente. Si el signo decimal no se escribiera, dichos ceros no son
significativos.
Por ejemplo:
1200 → dos cifras significativas → 1200
1200, → cuatro cifras significativas → 1200,

Regla 6. Los números exactos tienen un número infinito de cifras


significativas.
Los números exactos son aquellos que se obtienen por definición o
que resultan de contar un número pequeño de elementos. Ejemplos:
- Al contar el número de átomos en una molécula de agua obtenemos
un número exacto: 3.
- Al contar las caras de un dado obtenemos un número exacto: 6.
- Por definición el número de metros que hay en un kilómetro es un
número exacto: 1000.
- Por definición el número de grados que hay en una circunferencia es
un número exacto: 360.

Teniendo en cuenta los datos de la tabla nº 2, las incertidumbres en


los resultados de los ejemplos (c) y (d) son:
(c) Δq = 1,829 · 10 8 ≌ 2 · 10 8
(d) Δq = 1,829 · 10 6 ≌ 2 · 10 6

Por tanto la última cifra incierta en el ejemplo (c) es la centena de


millón y en el ejemplo (d) la unidad de millón, siendo correcta la
aplicación de la regla 10.

---------------

Conclusión
Como hemos visto, el convenio de cifras significativas no es
del todo satisfactorio. Así, la realización de operaciones aritméticas
con cifras significativas hace que en ocasiones aumente la
incertidumbre respecto a lo esperado, que es considerar en una
unidad la incertidumbre del último dígito de un número. Es claro que
este aumento de la incertidumbre será tanto mayor cuanto mayor sea
el número de operaciones que encadenemos y, por tanto, sería
conveniente determinar el valor de la incertidumbre si se quiere estar
seguro de conocer la progresión del error cometido en las operaciones
realizadas. Incluso, tal como se ha visto en algún caso, la omisión de
este estudio para la simple aplicación de las reglas aquí establecidas
puede llevarnos a la pérdida de cifras significativas.

- Página 3 -

Redondeo de números
La aplicación práctica de las reglas anteriores ha requerido del
redondeo[1] de números para ofrecer el resultado con el número de
cifras significativas estipulado. Es decir, en el proceso de redondeo se
eliminan los dígitos no significativos de un número, pero
siguiendo unas reglas que se deben aplicar al primero de los dígitos
que se desea eliminar.
Regla 11. Si el primer dígito que se va a eliminar es inferior a 5,
dicho dígito y los que le siguen se eliminan y el número que queda se
deja como está.
Por ejemplo, los siguientes números se han redondeado a 4 cifras
significativas:
1,4142136… → 1,4142136… → 1,414
2,4494897... → 2,4494897...→ 2,449

Regla 12. Si el primer dígito que se va a eliminar es superior a 5, o


si es 5 seguido de dígitos diferentes de cero, dicho dígito y todos los
que le siguen se eliminan y se aumenta en una unidad el número que
quede.
Por ejemplo, los siguientes números se han redondeado a cuatro
cifras significativas:
Π = 3,1415927… → 3,1415927… → 3,142
2,6457513... → 2,6457513...→ 2,646

Regla 13. Si el primer dígito que se va a eliminar es 5 y todos los


dígitos que le siguen son ceros, dicho dígito se elimina y el número
que se va a conservar se deja como está si es par o aumenta en una
unidad si es impar.
Por ejemplo, los siguientes números se han redondeado a cuatro
cifras significativas:
61,555 → 61,555 → 61,56
2,0925 → 2,0925 → 2,092

Esta última regla elimina la tendencia a redondear siempre en un


sentido determinado el punto medio que hay entre dos extremos. Es
importante destacar aquí que cuando se establece la función de
redondeo en una calculadora normalmente ésta no aplica la regla 13,
es decir, si un número cumple la condición dada en dicha regla, la
calculadora aumentará en una unidad el último dígito del número que
quede de eliminar las cifras no significativas (es decir, la calculadora
aplica en este caso la regla 12).
Aplicación a cálculos en problemas
En los libros de texto de física o química lo más normal es realizar
cálculos con datos cuya precisión viene indicada sólo por el convenio
de cifras significativas. Así, si se deseara conocer la incertidumbre del
resultado de un problema concreto se deberán aplicar las técnicas
analizadas anteriormente. En cualquier caso, el resultado que se
obtenga sólo debe contener dígitos significativos.
Una práctica común en la resolución de problemas es mantener al
menos un dígito de más durante los cálculos para prevenir el error de
redondeo (dígito de reserva). Al trabajar hoy día con ordenadores y
calculadoras se puede trabajar con más de un dígito de reserva, tantos
como la calculadora pueda ofrecer, siendo importante hacer el
redondeo después de que se hayan acabado los cálculos.

Ejemplo.
En un procedimiento de contrastado de una disolución de ácido
clorhídrico con hidróxido de bario se valoraron 50,00 mL exactamente
medidos de disolución de HCl que necesitaron 29,71 mL de
Ba(OH)2 0,01963 M para alcanzar el punto final, usando indicador
verde de bromocresol. Determinar la molaridad del HCl.

Solución.
Recojamos en primer lugar los datos que se dan:
- Volumen de disolución de HCl →
- Volumen de disolución de Ba(OH)2 →
- Molaridad de disolución de Ba(OH)2 →

El proceso de neutralización ácido-base es el siguiente:


2 HCl + Ba(OH)2 → BaCl2 + 2 H2O

Veremos primero los cálculos de forma teórica. En primer lugar se


puede conocer el número de moles de Ba(OH)2 necesarios para
neutralizar el HCl:

La relación estequiométrica dada por el proceso de neutralización


ácido-base nos permite conocer el número de moles de HCl
neutralizados:
Conocido el número de moles de HCl y el volumen en el que se
encontraban al inicio, su molaridad será:

Por tanto,

Con los números será:

Analicemos ahora las cifras significativas con las que hay que
expresar el resultado. Si observamos el cálculo final sólo hay
multiplicaciones y divisiones, por tanto, debemos redondear el
resultado de manera que contenga el mismo número de cifras
significativas que el factor que menos cifras significativas tenga. Como
los números 2 y 1 que hay en la expresión (moles de HCl y de
Ba(OH)2) son números exactos, no entran en este cómputo siendo
pues los volúmenes de HCl y de Ba(OH)2 los que limitan el resultado a
4 cifras significativas. Por tanto,

Ahora bien, ¿podríamos estimar la incertidumbre de este


resultado?
Estimemos primero las incertidumbres de las medidas
experimentales.

- Volumen de disolución de HCl →


La incertidumbre en esta medida dependerá del aparato que se haya
utilizado para su medida. En principio pensaremos que la medida de
los 50 mL ha requerido de un solo enrase y, por tanto, la incertidumbre
absoluta está en ±0,01 mL y la relativa es de

- Volumen de disolución de Ba(OH)2 →


El volumen de Ba(OH)2 se habrá medido con una bureta. La posición
del nivel de líquido se puede estimar en una buena bureta en ±0,02
mL. Pero en la valoración la cantidad de Ba(OH)2 requiere de una
lectura inicial y otra final, es decir (véase cifras significativas en sumas
y diferencias), la incertidumbre absoluta será

y la incertidumbre relativa

- Molaridad de disolución de Ba(OH)2 →


La incertidumbre de la molaridad de la disolución de reactivo es, según
el dato ofrecido de ±0,00001 M. La incertidumbre relativa es

Según hemos visto, cuando las medidas son independientes y sus


errores aleatorios la incertidumbre en el resultado se puede estimar
según la siguiente expresión

cuyo resultado es

Es decir, la molaridad del HCl se puede expresar como

siendo la incertidumbre relativa


El proceso simple de cortar un número por un dígito determinado sin tener en
cuenta los dígitos que le siguen (sin redondear) se denomina truncamiento. Por
ejemplo, truncar el número π a la diezmilésima sería:
3,1415927… → 3,1415

EJEMPLOS

PRIMERO:

Para un número que NO tiene ceros, todos los dígitos son significativos. Ejemplos.

3.42 tiene 3 cifras significativas 3.42

1289 tiene 4 cifras significativas 1289

SEGUNDO:

Los ceros que están entre otros dígitos significativos, también son significativos.
Ejemplos.

709 tiene 3 cifras significativas 709

30 409 tiene 5 cifras significativas 30409

TERCERO:

Los ceros a la izquierda del primer dígito que no es cero sólo sirven para fijar la
posición del punto decimal y NO son significativos. Ejemplos.

0.0048 tiene 2 cifras significativas 0.0048

0.090402 tiene 5 cifras significativas 0.090402

CUARTO:

Para un número con dígitos decimales, los ceros finales a la derecha del punto
decimal son significativos. Ejemplos.

0.3990 tiene 4 cifras significativas 0.3990

2.00 tiene 3 cifras significativas 2.00

QUINTO:

Si un número NO tiene punto decimal y termina con uno o más ceros, dichos ceros
pueden ser o NO significativos. Para evitar confusiones podemos expresar el
número en Notación Científica. Ejemplos.

4 x 103 tiene una cifra significativa 4 x 103

4.0 x 103 tiene 2 cifras significativas 4.0 x 103

Al sumar o restar sifras significativas, el resultado se presenta con el menor


número de cifras decimales, es decir se escoge el número que tenga menos
decimales y con esa misma cantidad quedará el resultado. Ejemplos.

40.3426
+ 1. 24 menor número de cifras decimales ( 2 c.d)
---------------
41.5826 Al expresar el resultado redondeado tenemos: 41.58 (2 c.d)

Operaciones: Multiplicación y división con cifras significativas

Para éstos casos debemos considerar que si se tiene un producto con


diferentes cifras significativas, el resultado redondeado deberá ser aquella medida
que tenga el menor número de cifras significativas dentro de los factores o
divisores. Ejemplos.

10.43

x 2.50 menor número de cifras significativas (3 c.s)


--------------------
26.075 Al expresar el resultado redondeado tenemos: 26.1 (3 c.s).

TEORÍA DE ERRORES
Objetivos
El objetivo de la Teoría de Errores es identificar las
diversas fuentes que generan error en la medición, determinar el
verdadero valor de las magnitudes físicas medidas de forma directa
(medir la altura de un cilindro con el calibrador Vernier) e indirecta
(medir el volumen de un cilindro, midiendo su altura y diámetro con el
calibrador Vernier).
Además es muy importante en esta práctica que el alumno se
familiarice y posea un adecuado manejo de los equipos de medición
de laboratorio.
Fundamentación teórica
2.1. Introducción
Las magnitudes físicas son determinadas experimentalmente por
medidas o combinación de medidas. Estas medidas obtenidas por
algún equipo de laboratorio generan una incertidumbre debido a
muchos factores. Debido a esta inseguridad es que se desarrolla la
Teoría de Errores.
2.2. Error de medida
Es la diferencia entre el valor obtenido, al utilizar un equipo, y el valor
verdadero de la magnitud medida.
2.3. Valor verdadero

2.4. Valor Medio o Valor promedio


Como su nombre indica es un promedio aritmético, o media aritmética,
de un conjunto de medidas realizadas a una determinada
magnitud física.

2.5. Desviación estándar o Error cuántico medio


2.6 Error sistemático
Es el error que posee todo instrumento, debido a que tiene
una lectura mínima.

2.7. Error estadístico


Este error es el que se genera al realizar dos o más mediciones de
una magnitud física. El Error estadístico se puede calcular al igual que
la desviación estándar.

2.8. Combinación de errores sistemático y estadístico o Error


efectivo
Este error representa una combinación de los errores principales de
medición, el sistemático y estadístico.

2.9. Error relativo


Este error resulta del cociente entre el error efectivo y el valor medio.
2.10. Error relativo porcentual
Este error es definido para otorgar un mejor significado al error
relativo. Por tal motivo es el error relativo expresado en porcentaje.

2.11. Propagación de errores


Hay magnitudes que no se miden directamente, sino que se derivan
de otras que sí son medidas en forma directa. Por ejemplo, para
conocer el área de un rectángulo se miden las longitudes de sus lados,
o para determinar el volumen de una esfera se tiene que medir el
diámetro. Para un caso general, supongamos que V es una función de
los parámetros, x, y, z, etc.

TEORIA DE ERRORES
El resultado de toda medición siempre tiene cierto grado de incertidumbre. Esto se debe a las
limitaciones de los instrumentos de medida, a las condiciones en que se realiza la medición,
así como también, a las capacidades del experimentador. Es por ello que para tener una idea
correcta de la magnitud con la que se está trabajando, es indispensable establecer los límites
entre los cuales se encuentra el valor real de dicha magnitud. La teoría de errores establece
estos límites.
TIPOS DE ERRORES
Error de escala (escala):
Todo instrumento de medida tiene un límite de sensibilidad. El error de escala corresponde al
mínimo valor que puede discriminar el instrumento de medida.
Error sistemático (sistemático)
Se caracteriza por su reproducibilidad cuando la medición se realiza bajo condiciones iguales,
es decir siempre actúa en el mismo sentido y tiene el mismo valor. El error sistemático se
puede eliminar si se conoce su causa.
Error accidental o aleatorio (accidental)
Se caracteriza por ser de carácter variable, es decir que al repetir un experimento en
condiciones idénticas, los resultados obtenidos no son iguales en todos los casos. Las
diferencias en los resultados de las mediciones no siguen ningún patrón definido y son
producto de la acción conjunta de una serie de factores que no siempre están identificados.
Este tipo de error se trabaja estadísticamente. El error accidental se puede minimizar
aumentando el número de mediciones.
El error total es igual a la suma de estos tres tipos de errores. Aun cuando el error
total se pueda minimizar, es imposible eliminarlo del todo debido a que el error de escala
siempre está presente. Por lo tanto, el error total no tiende a cero sino a cierto valor
constante.
Cuando la medición se realiza una sola vez el error está dado por:

Cuando la medición se realiza varias veces el error está dado por:

A la par con los mencionados existen otros tipos de errores como son por ejemplo los errores
estáticos y los errores dinámicos. Los errores estáticos se originan debido a las limitaciones de
los instrumentos de medida o por las leyes físicas que gobiernan su comportamiento. En un
micrómetro se introduce un error estático cuando se aplica al eje una fuerza excesiva. Los
errores dinámicos se originan debido a que el instrumento de medida no responde lo
suficientemente rápido para seguir los cambios de la variable medida. Pero cualquier tipo
adicional de error se puede clasificar en uno de los grupos mencionados anteriormente.
Propagación de errores
Medidas indirectas.-
Magnitudes que se calculan a partir de los valores encontrados en las medidas de otras
magnitudes.
• Conocemos x ± δx , y ± δy ,...
• Calculamos z = f (x, y,...)
• ¿Cuál es el error de z? Propagación de errores.- Conjunto de reglas que permiten asignar un
error a z, conocidas las incertidumbres de x e y, ..
• Permiten asignar un error al resultado final.
• Indica la importancia relativa de las diferentes medidas directas.
• Planificación del experimento. Hipótesis de partida
• Medidas dependientes.- Hipótesis pesimista. Siempre en la situación más desfavorable. Conjunto
de reglas prácticas.
• Medidas independientes.- Errores cuadráticos medios. Fórmula general de propagación de
errores.

¿Cómo se realiza el cálculo de error?


Pasos
1. Observa la fórmula para calcular el porcentaje de error. ...
2. Resta el número real a tu número. ...
3. Divide el resultado entre el número real. ...
4. Determina el valor absoluto del resultado. ...
5. Multiplica el resultado por 100.

Qué es la propagacion de la incertidumbre?


Medidas indirectas.- Magnitudes que se calculan a partir de
los valores encontrados en las medidas de otras magnitudes.
Propagación de errores.- Conjunto de reglas que permiten
asignar un error a z, conocidas las incertidumbres de x e y, ...
Permiten asignar un error al resultado final.

Cómo calcular el error de una medida?


donde <x> se toma en valor absoluto, de forma que e es
siempre positivo. El error relativo es un índice de la precisión
de la medida. Es normal que la medida directa o indirecta de
una magnitud física con aparatos convencionales tenga un
error relativo del orden del uno por ciento o mayor.
Cómo se define el error absoluto?
Error absoluto. Es la diferencia entre el valor tomado y el
valor medido como exacto. Puede ser positivo o negativo,
según si la medida es superior al valor real o inferior (la resta
sale positiva o negativa).

También podría gustarte