Las Magnitudes Fundamentales en el Sistema Internacional de unidades, son las que
han sido elegidas por convención, y que permiten expresar cualquier magnitud física en términos o como combinación de ellas. Son 7:
MAGNITUD SÍMBOLO DE LA UNIDAD SÍMBOLO DE
MAGNITUD UNIDAD Longitud l,x Metro [ m] Masa m Kilogramo [ kg] Intensidad de corriente I Ampere [ A] Temperatura absoluta T Kelvin [K ] Intensidad luminosa Iv Candela [Cd ] Tiempo t Segundo [s ] Cant. de sustancia M Mol [mol ]
Las magnitudes suplementarias no dependen de las fundamentales pero aportan
ayuda para conformar este sistema. Son 2:
MAGNITUD UNIDAD SÍMBOLO
Ángulo Plano Radián [rad] Ángulo Plano Esteroradián [sr] Una magnitud derivada es aquella que se expresa con una combinación matemática de las anteriores. Son ejemplos de ellas la velocidad, la aceleración, la fuerza, el trabajo y la presión. Un patrón de medida es una medida convencional que se establece conforme a un convenio o un acuerdo para poder establecer un sistema de medidas de aplicación generalizada y con validez en cualquier parte. Por ejemplo, el metro fue establecido por la Oficina general de pesas y medidas con sede en París, Francia, en 1795 y es la medida equivalente a 1/10000000 (un diezmillonésimo) de la distancia entre el polo norte y el ecuador. El metro patrón es la longitud de una barra de aleación de platino e iridio a 4°C, que se encuentra en la Oficina de Pesas y Medidas en Francia. Un instrumento de medición es una herramienta que se usa para medir una magnitud física. La medición es el proceso que nos permite obtenerr y comparar cantidades físicas de objetos y fenómenos del mundo. Lo que hace que un instrumento sea más sensible o tenga mayor presición depende de que su escala sea capaz de detectar variaciones cada vez más pequeñas de la magnitud medida. Se entiende por apreciación de un instrumento el valor de la menor división de su escala. Un error sistemático es aquel que se origina esencialmente por una deficiente calibración del instrumento en relación al patrón. Los errores sistemáticos pueden reducirse al mínimo comparando la escala del instrumento con los valores proporcionados por los patrones conocidos(o midiendo la misma magnitud con instrumentos diferentes). Un error sistemático típico es el corrimiento del 0 del instrumento denominado error de entrada, el instrumento no marca el cero cuando la magnitud de la medida es nula. Ese valor ficticio se añadirá o restaará posteriormente al de la magnitud medida, introduciendo un error que puede ser significativo Un error accidental es causado esencialmente por el operador que realiza la medición al interactuar con el instrumento, el cual es incapaz de controlar todos los factores que pueden afectar el resultado de la medición (variaciones locales de temperatura , corriente de aire, errores visuales, ubicación imperfecta del instrumento, fluctuaciones de voltaje de la línea, presencia de campos magnéticos). El concepto de medida supone la confrontación de dos magnitudes, una desconocidam es la incógnita y la otra conocida, es el patrón. Así, por ejemplo para medir la longitud de un objeto se aproximará al mismo un “metro”, es decir un patrón en el que ha sido marcado la longitud adoptada convencionalmente como unidad fundamental: el metro. Se tiene una medida directa pues con ella se comparan dos magnitudes iguales; lo mismo ocurre al confrontar una f.e.m desconocida con la de una pila patrón. Sin embargo en electrotecnia no siempre es tan fácil disponer de patrones de medida como lo es para las magnitudes. Se recurre entonces a la medida indirecta, con la que se determina la magnitud eléctrica en exámen basándose en el valor adquirido por una magnitud mecánica a ella acoplada.
El error de paralelaje se comete cuando, al obsevar el índice del instrumento, la visual
no es perpendicular a la escala, por lo que se lee una desviación mayor o menor que la real. Para reducir este error es costumbre colocar en los instrumentos de presición un espejo junto a la escala; la lectura estará extenta de error cuando el índice se confunda con su imagen. En la medición el error absoluto se define como la diferencia entre el valor real y el valor aproximado, en valor absoluto: Es el valor que en teoría mide la magnitud a medir Es la medida que leemos en las diferentes medidas Este valor del error absoluto es el debido a la persona que realiza la medición. Además, está el error debido a la presición del instrumento de medida, qque coincide con la unidad más pequeña con la que puede medir el aparato. Se mide en las mismas unidades que la medición. Además se expresa siempre con una cifra distinta de cero, redondeándose siempre en exceso, es decir no podemos expresar el error absoluto de esta forma Sino que el 0,018 debemos redondearlo a 0,02. Por otro lado el error de medición no puede ser más preciso (en decimales) que el error. Deben ser igual de precisos. Si el error está expresado en centésimos, la medición no puede ir expresada en unidades, sino que también debe ir expresada en centésimas. Si la medición es un número entero, entonces para llegar a las centésimas añadiremos ceros después de la coma. El error relativo se mide en porcentaje, luego paraa obtener directamente el error en tanto pot ciento, a la expresión anterior del erroe hay que miltiplicarla por 100%. <el error relativo porcentual lo utilizamos para determinar la presición de la medición. Nos dice la preporción edl error con respecto al valor exacto de la medición. Una medida es buena cuando no supera el 5%