Está en la página 1de 5

1. ¿Qué es la medición?

La medición es un proceso básico de la ciencia que se basa


en comparar una unidad de medida seleccionada con el objeto o fenómeno
cuya magnitud física se desea medir, para averiguar cuántas veces la unidad está
contenido en esa magnitud. Medir es comparar una magnitud desconocida con
una conocida y metrifica.
2. ¿Qué es una medición directa?
La medida o medición directa se obtiene con un instrumento de medida que
compara la variable a medir con un patrón. Así, si se desea medir la longitud de un
objeto, puede usarse un calibrador. Se compara la longitud del objeto con la
longitud del patrón marcado en el calibrador, haciéndose la comparación con la
distancia. También, se da el caso con la medición de la frecuencia de
un ventilador con un estroboscopio, La medición es la frecuencia del ventilador
(número de vueltas por tiempo) frente a la frecuencia del estroboscopio (número
de destellos por tiempo).
3. ¿Qué una medición indirecta?
No siempre es posible realizar una medida directa, porque existen variables que
no se pueden medir por comparación directa, es por lo tanto con patrones de la
misma naturaleza, o porque el valor a medir es muy grande o pequeño y depende
de obstáculos de otra naturaleza, etc. Medición indirecta es aquella en la que una
magnitud buscada se estima midiendo una o más magnitudes diferentes, y se
calcula la magnitud buscada mediante cálculo a partir de la magnitud o
magnitudes directamente medidas.
4. ¿Qué es una medida reproducible?
Una medida reproducible es aquella que puede ser repetida y corroborada por
diferentes experimentadores. Una medida reproducible por tanto requiere un
proceso de medida o un ensayo no destructivo. Ejemplo: Si se mide cualquier
número de veces un lado de un escritorio, siempre se obtiene el mismo resultado.
Las medidas reproducibles son procedimientos no destructivos que además no
producen una alteración importante en el sistema físico sujeto a medición.
5. ¿De qué trata el error sistemático?
En estadística, un error sistemático es aquel que se produce de igual modo en
todas las mediciones que se realizan de una magnitud. Puede estar originado en
un defecto del instrumento, en una particularidad del operador o del proceso de
medición, etc. Se contrapone al concepto de error aleatorio.
En investigación clínica, un error sistemático se comete por equivocaciones en el
proceso de diagnóstico o en el proceso de selección de pacientes:

 Ámbito de selección (de dónde vienen los pacientes): sesgo de selección.


 Sesgo de diagnóstico
 Presencia de factores de confusión: sesgo de confusión.
Este error no tiende a cero al aumentar el tamaño de la muestra. Está implícito en
el diseño del estudio, y resulta difícil de corregir en la fase analítica. Determina lo
que se conoce como validez interna del estudio. Se puede prevenir su aparición a
través de un buen diseño del estudio.
6. ¿De qué trata el error aleatorio?
En ingeniería y física, el error aleatorio o accidental es aquel error inevitable que
se produce por eventos únicos imposibles de controlar durante el proceso de
medición. Se contrapone al concepto de error sistemático.
En un estudio de investigación, el error aleatorio o accidental viene determinado
por el hecho de tomar solo una muestra de una población para realizar inferencias.
Puede disminuirse aumentando el número y tamaño de la muestra. Cuantificación:

1. Prueba de hipótesis
2. intervalo de confianza
Las fuentes de los errores aleatorios son difíciles de identificar o sus efectos no
pueden corregirse del todo. Son numerosos y pequeños pero su acumulación
hace que las medidas fluctúen alrededor de una media.

8. ¿De qué trata el error absoluto?


Es la diferencia en valor absoluto entre el valor tomado y el valor medido como
exacto. Por lo tanto, siempre es positivo. Tiene unidades las mismas que las de la
medida calculadas en esta. Se lo representa con la sigla Ea.

9. ¿De qué trata el error relativo?


Es el cociente de la división entre el error absoluto y el valor exacto. Si se
multiplica por 100, se obtiene el tanto por ciento (%) de error. Al igual que el error
absoluto, éste puede ser positivo o negativo (según lo sea el error absoluto)
porque puede ser por exceso o por defecto, y no tiene unidades.

10. ¿Cuáles son los sistemas de medida mas utilizados para la toma de
medida?
Se conocen algunos sistemas convencionales para establecer las unidades de
medida: el Sistema Internacional de Unidades y el Sistema Inglés de Unidades. Al
patrón de medir se le llama también unidad de medida.
Debe cumplir estas condiciones:

 Ser inalterable, esto es, no ha de cambiar con el tiempo ni en función de quién


realice la medida.
 Ser universal, es decir, ser utilizado por todos los países.
 Ser fácilmente reproducible, es decir, reunir las unidades patrón que los
científicos han estimado más convenientes. Se han creado los
denominados sistemas de unidades.

11. ¿De qué trata el sistema internacional de unidades?


El Sistema Internacional de Unidades, abreviado SI, es el sistema de unidades
que se usa en todos los países del mundo, a excepción de tres que aún no lo han
declarado prioritario o único. Una de las características trascendentales, que
constituye el uso del Sistema Internacional, es que sus unidades se basan en
fenómenos físicos fundamentales a excepción de la unidad de la magnitud masa,
el kilogramo, definida como «la masa del prototipo internacional del kilogramo», un
cilindro de una aleación de platino-iridio almacenado en una caja fuerte de la
Oficina Internacional de Pesas y Medidas en Francia, aunque hoy en día,
científicos del mundo realizan esfuerzos por redefinir esta unidad a partir de una
constante física universal.

12. ¿De qué trata el sistema ingles de unidades?


Unidades de longitud

El sistema para medir la longitud en el sistema inglés está basado en la pulgada,


pie, yarda, y milla.

Unidades de peso

El sistema para medir el peso en el sistema inglés está basado en la onza, libra, y
ton.

Unidades de capacidad

El sistema para medir la capacidad en el sistema inglés está basado en la taza,


onzas fluidas, pinta, cuarto y galón.

13. ¿Cómo se puede establecer la precisión en un instrumento de medición?

La mayor o menor precisión de un instrumento de medida o método de medición,


está definida por la facultad de uno u otro de repetir con mayor o menor precisión
los resultados de las mediciones de una misma magnitud, supuestas éstas
realizadas en idénticas condiciones. Entre la sensibilidad de un instrumento de
medición y su precisión, no existe una relación directa. Esto es, p.e. en una
balanza de platillos la sensibilidad está dada por la coincidencia del centro de
gravedad de la cruz, y del soporte de ésta; en el límite cuando ambos coinciden
exactamente, el sistema móvil se encuentra en equilibrio indiferente y por lo tanto
cualquier sobrecarga sobre uno de los platillos, por pequeño que sea causa una
gran desviación del fiel, la sensibilidad de la balanza es, en consecuencia, muy
grande. Sobre la precisión en ese extremo, es claro, que es muy pequeña, puesto
que la posición de equilibrio del fiel es prácticamente invariante respecto de su
desviación. Luego es necesario lograr un compromiso, y operar con sensibilidades
tales que la precisión de la balanza sea la adecuada.

14. ¿En qué influyen las cifras significativas a la hora de medir?

Según vayan mejorando la calidad de los instrumentos de medición y la


sofisticación de los métodos; pueden llevarse a cabo experimentos a niveles de
precisión siempre más elevados, esto es, podremos extender los resultados
medidos a más cifras significativas; y correspondientemente reducir la
incertidumbre experimental de la observación. Tanto el número de cifras
significativas como la incertidumbre dicen algo acerca de la estimación de la
precisión de la medición. Es decir, la medición X' = 3, indica que existe razonable
certeza que X' se encuentra entre 2 y 4. Mientras que la medición X' = 3.14159,
indica que probablemente X' se halle entre 3.14158 y 3.1416. Si se expresa a X'
como 3 cuando se cree que probablemente el valor sea de 3.14159, se está
despreciando información que puede ser importante. Por otra parte, si se expresa
X' = 3.14159 cuando realmente no se cuenta con base para sustentar nada más
que X' = 3, se está mintiendo al afirmar que se tiene más información que la que
se puede asegurar.

15. ¿Cómo se calcula el error máximo?

En general, al realizar una medida si se trata de obtener el mejor valor posible no


es suficiente una sola observación. Sin embargo, con frecuencia no se necesita
obtener el valor más preciso posible y en tal caso será suficiente una sola
observación. Pero como ya hemos visto que un número como medida de una
magnitud no significa mucho, sino se especifica cual es el error, al menos
aproximado de que está afectada. Supuesto que el instrumento o el método de
medida no estén afectados de errores sistemáticos, con una sola observación sólo
podremos especificar cuál es el error máximo de nuestra medida debido a los
errores de apreciación que se cometen.

16. ¿Es importante la elección de instrumento de medición?

Es importante para no desperdiciar esfuerzos en extremar la precisión en


mediciones que no lo requieran, y sí esmerarse en aquellas donde sea necesario,
el conocer cómo influyen los errores cometidos en particular sobre la medición
indirecta final. El problema pues, consiste en la determinación de los factores de
propagación de error en las distintas mediciones directas intervinientes, para
utilizarlo como criterio de decisión.

También podría gustarte