Está en la página 1de 3

Las Magnitudes Fundamentales en el Sistema Internacional de unidades, son las que

han sido elegidas por convención, y que permiten expresar cualquier magnitud física
en términos o como combinación de ellas. Son 7:

MAGNITUD SÍMBOLO DE LA UNIDAD SÍMBOLO DE


MAGNITUD UNIDAD
Longitud l,x Metro [ m]
Masa m Kilogramo [ kg]
Intensidad de corriente I Ampere [ A]
Temperatura absoluta T Kelvin [K ]
Intensidad luminosa Iv Candela [Cd ]
Tiempo t Segundo [s ]
Cant. de sustancia M Mol [mol ]

Las magnitudes suplementarias no dependen de las fundamentales pero aportan


ayuda para conformar este sistema. Son 2:

MAGNITUD UNIDAD SÍMBOLO


Ángulo Plano Radián [rad]
Ángulo Plano Esteroradián [sr]
Una magnitud derivada es aquella que se expresa con una combinación matemática de
las anteriores. Son ejemplos de ellas la velocidad, la aceleración, la fuerza, el trabajo y
la presión.
Un patrón de medida es una medida convencional que se establece conforme a un
convenio o un acuerdo para poder establecer un sistema de medidas de aplicación
generalizada y con validez en cualquier parte. Por ejemplo, el metro fue establecido
por la Oficina general de pesas y medidas con sede en París, Francia, en 1795 y es la
medida equivalente a 1/10000000 (un diezmillonésimo) de la distancia entre el polo
norte y el ecuador. El metro patrón es la longitud de una barra de aleación de platino e
iridio a 4°C, que se encuentra en la Oficina de Pesas y Medidas en Francia.
Un instrumento de medición es una herramienta que se usa para medir una magnitud
física. La medición es el proceso que nos permite obtenerr y comparar cantidades
físicas de objetos y fenómenos del mundo.
Lo que hace que un instrumento sea más sensible o tenga mayor presición depende de
que su escala sea capaz de detectar variaciones cada vez más pequeñas de la magnitud
medida.
Se entiende por apreciación de un instrumento el valor de la menor división de su
escala.
Un error sistemático es aquel que se origina esencialmente por una deficiente
calibración del instrumento en relación al patrón. Los errores sistemáticos pueden
reducirse al mínimo comparando la escala del instrumento con los valores
proporcionados por los patrones conocidos(o midiendo la misma magnitud con
instrumentos diferentes). Un error sistemático típico es el corrimiento del 0 del
instrumento denominado error de entrada, el instrumento no marca el cero cuando la
magnitud de la medida es nula. Ese valor ficticio se añadirá o restaará posteriormente
al de la magnitud medida, introduciendo un error que puede ser significativo
Un error accidental es causado esencialmente por el operador que realiza la medición
al interactuar con el instrumento, el cual es incapaz de controlar todos los factores que
pueden afectar el resultado de la medición (variaciones locales de temperatura ,
corriente de aire, errores visuales, ubicación imperfecta del instrumento, fluctuaciones
de voltaje de la línea, presencia de campos magnéticos).
El concepto de medida supone la confrontación de dos magnitudes, una desconocidam
es la incógnita y la otra conocida, es el patrón. Así, por ejemplo para medir la longitud
de un objeto se aproximará al mismo un “metro”, es decir un patrón en el que ha sido
marcado la longitud adoptada convencionalmente como unidad fundamental: el
metro.
Se tiene una medida directa pues con ella se comparan dos magnitudes iguales; lo
mismo ocurre al confrontar una f.e.m desconocida con la de una pila patrón.
Sin embargo en electrotecnia no siempre es tan fácil disponer de patrones de medida
como lo es para las magnitudes. Se recurre entonces a la medida indirecta, con la que
se determina la magnitud eléctrica en exámen basándose en el valor adquirido por una
magnitud mecánica a ella acoplada.

El error de paralelaje se comete cuando, al obsevar el índice del instrumento, la visual


no es perpendicular a la escala, por lo que se lee una desviación mayor o menor que la
real. Para reducir este error es costumbre colocar en los instrumentos de presición un
espejo junto a la escala; la lectura estará extenta de error cuando el índice se confunda
con su imagen.
En la medición el error absoluto se define como la diferencia entre el valor real y el
valor aproximado, en valor absoluto:
Es el valor que en teoría mide la magnitud a medir
Es la medida que leemos en las diferentes medidas
Este valor del error absoluto es el debido a la persona que realiza la medición.
Además, está el error debido a la presición del instrumento de medida, qque coincide
con la unidad más pequeña con la que puede medir el aparato. Se mide en las mismas
unidades que la medición. Además se expresa siempre con una cifra distinta de cero,
redondeándose siempre en exceso, es decir no podemos expresar el error absoluto de
esta forma Sino que el 0,018 debemos redondearlo a 0,02. Por otro lado el error de
medición no puede ser más preciso (en decimales) que el error. Deben ser igual de
precisos. Si el error está expresado en centésimos, la medición no puede ir expresada
en unidades, sino que también debe ir expresada en centésimas. Si la medición es un
número entero, entonces para llegar a las centésimas añadiremos ceros después de la
coma.
El error relativo se mide en porcentaje, luego paraa obtener directamente el error en
tanto pot ciento, a la expresión anterior del erroe hay que miltiplicarla por 100%. <el
error relativo porcentual lo utilizamos para determinar la presición de la medición. Nos
dice la preporción edl error con respecto al valor exacto de la medición. Una medida es
buena cuando no supera el 5%

También podría gustarte