Está en la página 1de 63

Facultad de

Facultad de Ingeniería
Ingeniería yy Tecnología
Tecnología

Título del
Título del trabajo
trabajo::

El Syllabus

Asignatura:
Asignatura:

Normalización y Metrología

Profesor:

Francisco Ramírez Velásquez

Carrera:
Carrera:

Ingeniería Industrial

Sustentado por:
Sustentado por:

Victoria Caro Bautista

20-MIIT-1-001

Sección:
Sección:

1020

Santo Domingo, D.N

1
Introducción a la metrología.
A través de la historia se comprueba que el progreso de los pueblos siempre
estuvo relacionado con su progreso en las mediciones. La Metrología es
la ciencia de las mediciones y éstas son una parte permanente e integrada de
nuestro diario vivir que a menudo perdemos de vista. En la metrología se
entrelazan la tradición y el cambio; los sistemas de medición reflejan las
tradiciones de los pueblos pero al mismo tiempo estamos permanentemente
buscando nuevos patrones y formas de medir como parte de nuestro
progreso y evolución.
Es por medio de diferentes aparatos e instrumentos de medición que se
realizan pruebas y ensayos que permiten determinar la conformidad con
las normas existentes de un producto o servicio; en cierta medida, esto
permite asegurar la calidad de los productos y servicios que se ofrecen a los
consumidores.
Desde sus primeras manifestaciones, normalmente incluida dentro de la
antropología general, pasando por la arquitectura y la agrimensura, hasta las
transacciones comerciales, la propiedad de la tierra y el derecho a percibir
rentas, donde rápidamente se encuentra el rastro de alguna operación de
medida, la metrología, al igual que hoy, ha formado parte de la vida diaria de
los pueblos . Antes del Sistema Métrico Decimal, los humanos no tenían más
remedio que echar mano de lo que llevaban encima, su propio cuerpo, para
contabilizar e intercambiar productos. Así aparece el pie, casi siempre
apoyado sobre la tierra, como unidad de medida útil para medir pequeñas
parcelas, del orden de la cantidad de suelo que uno necesita, por ejemplo,
para hacerse una choza. Aparece el codo, útil para medir piezas de tela u
otros objetos que se pueden colocar a la altura del brazo, en un mostrador o
similar. Aparece el paso, útil para medir terrenos más grandes, caminando
por las lindes. Para medidas más pequeñas, de objetos delicados, aparece la
palma y, para menores longitudes.

2
La metrología.
Es la ciencia y técnica que tiene por objeto el estudio de los sistemas de pesos y
medidas, y la determinación de las magnitudes físicas. La metrología es la
ciencia e ingeniería de la medida, incluyendo el estudio, mantenimiento y
aplicación del sistema de pesos y medidas. Actúa tanto en los ámbitos
científico, industrial y legal, como en cualquier otro demandado por la
sociedad. Su objetivo fundamental es la obtención y expresión del valor de
las magnitudes, garantizando la trazabilidad de los procesos y la consecución
de la exactitud requerida en cada caso; empleando para ello instrumentos
métodos y medios apropiados.
La metrología tiene dos características muy importantes el resultado de la
medición y la incertidumbre de medida.

Los físicos y las industrias utilizan una gran variedad de instrumentos para
llevar a cabo sus mediciones. Desde objetos sencillos como reglas y
cronómetros hasta potentes microscopios, medidores de láser e incluso
avanzadas computadoras muy precisas.
Por otra parte, la metrología es parte fundamental de lo que en los países
industrializados se conoce como Infraestructura Nacional de la Calidad,
compuesta además por las actividades de: normalización, ensayos,
certificación y acreditación, que a su vez son dependientes de las actividades
metrológicas que aseguran la exactitud de las mediciones que se efectúan en
los ensayos, cuyos resultados son la evidencia para las certificaciones. La
metrología permite asegurar la comparabilidad internacional de las
mediciones y por tanto la intercambiabilidad de los productos a escala
internacional.

3
Empresa.
Es una unidad productiva agrupada y dedicada a desarrollar una actividad
económica con ánimo de lucro.
Normalización.
La normalización se refiere a la creación y establecimiento de normas
técnicas y especificaciones que regulan la calidad, el rendimiento y otros
aspectos de productos, procesos o servicios. Estas normas son desarrolladas
por organizaciones de normalización y permiten establecer criterios
comunes que ayudan a la interoperabilidad y la comparación de productos y
servicios.
Normas.
Las normas son documentos técnicos que contienen especificaciones
detalladas sobre cómo debe ser un producto, proceso o servicio. Pueden ser
elaboradas por organizaciones nacionales o internacionales, como ISO
(Organización Internacional de Normalización) o ANSI (Instituto Nacional
Estadounidense de Estándares). Las normas ayudan a garantizar la calidad y
la seguridad de los productos y servicios.
Certificación.
Es el proceso llevado a cabo por una entidad reconocida como independiente
de las partes interesadas, mediante el que se manifiesta la conformidad de
una determinada empresa, producto, proceso, servicio o persona con los
requisitos definidos en normas o especificaciones técnicas.
Ensayos.
Los ensayos son pruebas o evaluaciones realizadas en productos, materiales
o componentes para determinar su calidad, rendimiento y cumplimiento de
normas. Los resultados de los ensayos ayudan a tomar decisiones informadas
sobre la aceptabilidad de un producto o material.

4
Calibración.
La calibración se refiere al proceso de ajustar y verificar la precisión de
instrumentos de medición y equipos de prueba para garantizar que
proporcionen resultados precisos y consistentes. Los equipos de medición
deben calibrarse regularmente para mantener su exactitud.
Inspección.
La inspección implica la revisión visual o el examen de productos, procesos o
sistemas para verificar si cumplen con los estándares y requisitos específicos.
Las inspecciones pueden ser realizadas por personal capacitado o entidades
de inspección independientes.

Acreditación.
Es un proceso mediante el cual una entidad de evaluación de la
conformidad, como un laboratorio de ensayo o una organización de
certificación, es reconocida oficialmente por una autoridad competente para
llevar a cabo actividades de evaluación de la conformidad. La acreditación
garantiza que la entidad cumple con estándares específicos de calidad y
competencia.

El laboratorio de metrología.
Un laboratorio de metrología es un espacio que cuenta con la infraestructura
necesaria para brindar los servicios de calibración, medición y pruebas de
equipos para las diferentes industrias
El instrumento de medida.
Son herramientas que nos permiten comparar las magnitudes físicas de los
objetos, como la longitud, la masa o las propiedades eléctricas, mediante el
uso de patrones o unidades de medida estandarizadas

5
Errores de medida.
Son discrepancias entre el valor medido de una magnitud y su valor
verdadero o valor de referencia. Estos errores pueden surgir por diversas
razones y pueden afectar la precisión y la confiabilidad de las mediciones.
Errores de instrumentos de medición:
Normalmente, son errores cometidos por defectos de fabricación en el
equipo de medida como:
 Deformaciones.
 Falta de linealidad.
 Imperfecciones mecánicas.
 Falta de paralelismo
 Desgastes por uso
 Error de Abbe: El error de Abbe básicamente es que los ejes de la pieza
a medir no se encuentran alineados con los ejes de medida del equipo
que mide. A grandes rasgos sería medir una pieza cuando la estamos
colocando “torcida” en el equipo de medida... O que el equipo se ha
deformado y la pieza se queda “torcida” o mal colocada dentro de sus
palpadores.
Errores causados por el operador:
 Falta de agudeza visual, descuidos, cansancio.
 Excesiva fuerza al realizar las mediciones.
 Errores por el método de sujeción o posición de instrumentos.
 Error de paralaje: Se produce cuando, dependiendo de que ángulo
miremos una escala, veremos un valor u otro. Un ejemplo claro es el de
la regla comentada antes. Si medimos el lado de un cuadrado dibujado
en una hoja de papel con la regla, y mide 10 mm. Si miramos en la
escala el número 1 desde arriba veremos que la línea del lado del
cuadrado dibujad enrasa con el 10, pero si ahora movemos la cabeza y
miramos la escala desde la izquierda veremos que la línea del cuadrado
ahora encaja con la línea de 9mm. Y si lo miro desde la derecha me
coincidirá con la línea de 11 mm.
 Error por uso de instrumentos no calibrados.

6
3. Errores causados por las condiciones ambientales:
Temperatura: Debido a que los cuerpos se expanden o contraen con el frío
y el calor es necesario saber en qué punto los estamos midiendo y en qué
punto tenemos que medirlos.
Humedad: Puede afectar en mayor o menor grado a la medida. No tanto en
piezas metálicas salvo por el óxido que se pueda formar variando las
dimensiones de la pieza, como en piezas de determinados plásticos o
materiales que absorben humedad y pueden modificar notablemente sus
dimensiones. En equipos como balanzas de precisión u otro tipo de equipos,
la humedad también puede afectar a sus sistemas, afectando a la medida.
Vibraciones: Es un factor a tener muy en cuenta, pero solo en equipos de
mucha precisión, ya que tienen mucha más sensibilidad. Un ejemplo: Una
balanza de laboratorio con división de escala 0,00001 GR. Si no está bien
aislada y soplamos empezarán a “bailar” todos los números solo con nuestro
soplido. Lo mismo si damos un golpe en el suelo o en la nave de al lado hay
una gran prensa dando golpes.
Interferencias electromagnéticas (ruido): Lo mismo comentado para las
vibraciones se puede aplicar a las interferencias electromagnéticas, salvo en
algunos equipos como rugosímetros, medidores de espesores, y otros que
utilizan sistemas electromagnéticos para realizar las medidas. Si hay una
fuente de ruido cerca sí que pueden afectar notablemente a la medida.

Clasificación de las mediciones.


Medición directa: Las mediciones directas son aquéllas en las cuales el
resultado es obtenido directamente del instrumento que se está utilizando.
Por ejemplo, para medir la corriente que circula por un circuito podemos
utilizar un amperímetro apropiado.
Medición indirecta: Las mediciones indirectas son aquéllas en que el
resultado deseado no lo obtenemos directamente de las lecturas realizadas

7
con los instrumentos utilizados, sino que es necesario emplear los datos
obtenidos para hallar la cantidad deseada mediante algunos cálculos.
Tipos de control dimensional.
Es un método de verificación, validación y calibración de características
geométricas de objetos, equipamientos o estructuras.
Medición directa: Este método implica tomar mediciones directas de las
dimensiones de un objeto utilizando herramientas de medición adecuadas,
como calibradores, micrómetros, reglas y escalas. Es uno de los métodos
más comunes de control dimensional.
Coordenadas tridimensionales (CMM): Un brazo de medición por
coordenadas tridimensionales (CMM) es una máquina que mide las
coordenadas x, y y z de un objeto de manera precisa y automática. Se utiliza
para medir objetos complejos y piezas con tolerancias estrictas.
Medición por láser: Los sistemas de medición por láser utilizan rayos láser
para escanear la superficie de un objeto y determinar sus dimensiones con
alta precisión. Se emplean en aplicaciones donde es necesario un control
rápido y preciso.
Escáneres 3D: Los escáneres 3D crean una representación digital
tridimensional de un objeto al capturar miles de puntos de datos. Estos
puntos de datos se utilizan para realizar análisis de superficies y
dimensiones.
Máquinas de medición óptica (OMM): Las OMM utilizan tecnología
óptica para medir las dimensiones y características de una pieza de trabajo.
Son útiles para piezas pequeñas y delicadas.
Microscopía de medición: Los microscopios de medición permiten
inspeccionar objetos a nivel microscópico y medir características de alta
precisión, como rugosidad superficial y dimensiones minúsculas.

8
Métodos de medición.
Métodos de medición por sustitución: Es la comparación de las
mediciones con ayuda de un equipo, el cual se mide primero con el
instrumento a calibrar y luego con un equipo de referencia.
Métodos de medición diferencial: Es la comparación de las mediciones
de un valor conocido y un valor desconocido.
Métodos de medición por nulo o cero: Es la comparación de las
mediciones por equilibrio, el cual la igualdad del valor del instrumento
contra el valor de referencia.
Métodos de medición indirecta: Es la comparación de las mediciones
entre los instrumentos con diferente valor de unidades, realizando la
transformación o los cálculos necesarios de las variables de influencia.
Métodos de medición directa: Es la comparación de las mediciones
entre dos instrumentos con el mismo valor de unidades y colocados
directamente en contacto con el fenómeno que se mide.

Unidades de medida.
Se llama unidad de medida a una referencia convencional que se usa
para medir la magnitud física de un determinado objeto, sustancia o
fenómeno.
El SI enuncia siete magnitudes básicas, las cuales son: longitud, masa,
tiempo, corriente eléctrica, temperatura termodinámica, cantidad de
sustancia e intensidad luminosa. Los nombres de las unidades son
respectivamente: metro, kilogramo, segundo, Ampere, Kelvin, mol y candela.

9
El sistema internacional de unidades.
El Sistema Internacional de Unidades (SI), surgió de la necesidad de unificar
y dar coherencia a una gran variedad de subsistemas de unidades que
dificultaban el comercio y la transferencia de resultados de mediciones,
basados en artificios y medidas originadas de monarcas y faraones definidos
sin mayor rigurosidad científica.

En República Dominicana se establece el uso obligatorio del sistema métrico


en la derogada Ley N° 3925 de fecha 17 de Septiembre del 1954 sobre Pesas y
Medidas y se ratifica el uso de Sistema Internacional de unidades de medida
en la Ley 166-22 de 2012 que organiza el Sistema Dominicano para la Calidad.
La descripción detallada del SI está documentado en la norma NORDOM
100.

A pesar de contar con un marco legal y normativo, las unidades de medidas


utilizadas en la República Dominicana es una mezcla resultante de
disposiciones legales, las que exige el comercio internacional y
especialmente aquellas que se desprenden de la tradición, muchas de ellas
como parte de la herencia cultural española.

Es el sistema de unidades de medida que se utiliza internacionalmente para


cuantificar magnitudes físicas de manera estandarizada y coherente. El SI
proporciona un conjunto de unidades básicas y derivadas que se utilizan en
todo el mundo en la ciencia, la industria, la tecnología y otros campos.

Incertidumbre de medida
La incertidumbre de una medida se define como el parámetro asociado al
resultado de una medición, que caracteriza la dispersión de los valores que
podrían ser razonablemente atribuidos al mensurando (mensurando:
magnitud sujeta a medición), es decir la incertidumbre es el intervalo o
rango de valores en donde existe una duda razonable que se encuentre el
valor real de la medida realizada.

10
Conceptos estadísticos.
Variable: Característica que puede presentar distintas modalidades. Por
ejemplo, la variable "género" solo presenta dos modalidades (mujer y
hombre), y la variable "depresión" presenta un número infinito de
modalidades, (las magnitudes de gravedad con que puede afectar a las
personas).
Constante: Característica que presenta una sola modalidad
Datos: Son números que representan las modalidades de las variables. Por
ejemplo, el 1 puede representar la modalidad "Mujer", el 6.3 representa una
de las magnitudes que podemos registrar en la variable "grado de
conocimiento de las técnicas estadísticas". Los datos pueden ser clasificados
según diferentes criterios, uno de los cuales se basa en las modalidades que
presentan: Se dirá que son datos dicotómicos los que provienen de variables
que solo admiten dos modalidades (por ejemplo la variable "género"), son
datos dicotomizados aquellos que presentan dos categorías pero provienen
de variables con más de dos modalidades (por ejemplo datos con valores 1 y
0 que representan aprobado y suspenso).
Población: Conjunto completo de indivíduos, objetos o fenómenos.
Muestra: Subconjunto de la población.
Muestreo: Procedimiento de selección de las muestras.
Representatividad de la muestra: Las muestras son partes de la población,
pero no son la población completa. Por ello, sus características no suelen
coincidir con las de la población. La medida en que la muestra aproxima a la
población se denomina representatividad.
Sesgo: Es la discrepancia entre las características de las muestras y las de la
población.
Análisis univariado: Analiza una sola variable. Es más sencillo, más fácil de
entender y de interpretar. En cambio, la sencillez puede comportar una
simplificación excesiva de la realidad. Por ejemplo, un investigador quiere
hacer un estudio del rendimiento académico universitario, para lo cual
recoge las calificaciones de los estudiantes en los exámenes finales.

11
Análisis multivariado: Analiza los datos teniendo en cuenta las relaciones
entre las variables. Es más complejo y de comprensión más dificultosa, pero
proporciona información más completa del objeto estudiado.

Expresión final del resultado de una medición.


La expresión final del resultado de una medición generalmente incluye el
valor numérico de la medida y la unidad en la que se expresa. Esto es
fundamental para proporcionar un contexto completo y comprensible del
valor medido.

Pautas generales para expresar el resultado de una medición:


Valor numérico: Debe incluir el número que representa la cantidad
medida. Por ejemplo, si mides la longitud de un objeto y obtienes un valor
de 25 centímetros, el "25" es el valor numérico de la medida.
Unidad de medida: La unidad en la que se expresa la medida es esencial.
En el ejemplo anterior, "centímetros" es la unidad de medida utilizada para
expresar la longitud.
Notación correcta: Es importante utilizar la notación adecuada para
separar el valor numérico de la unidad de medida. En el sistema métrico, se
utiliza un espacio entre el valor y la unidad, como en "25 cm" (centímetros).
En el sistema imperial, se usa una coma o un guión, como en "12.5 ft" (pies) o
"3-1/2 in" (pulgadas y fracciones).
Precisión: El número de cifras significativas o decimales en la medida debe
reflejar la precisión del instrumento de medición utilizado. No debes
expresar una medida con más cifras de las que puedes confiablemente
determinar.
Conversión de unidades: Si es necesario, asegúrate de que las unidades
sean consistentes y convierte de una unidad a otra utilizando factores de
conversión apropiados.

12
Ajustes y tolerancias.

A lo largo de los años el ser humano ha desarrollado distintos sistemas para


medir. La ISO se ha encargado de organizar normas internacionales para
ajustes y tolerancias con la finalidad de establecer un parámetro, donde a
nivel mundial, la industria y la educación trabajen bajo un mismo estándar.

Introducción tolerancia dimensional.

En la UD Metrología definíamos Tolerancia como a la cantidad total que se


permite variar en la fabricación de una pieza respecto de lo indicado en el
plano;
Tolerancia dimensional se define como la cantidad total que es permitido
variar en la fabricación, a una dimensión especificada en el plano según la
cota nominal. Una tolerancia dimensional aplicada a una medida, ejerce
algún grado de autoridad sobre desviaciones geométricas, para su
compatibilidad y un autoridad de ellas adpero preciso para que sean
intercambiables aun siendo de diferentes fabricantes, sin embargo, en
algunas ocasiones la tolerancia de medida no limita suficientemente las
desviaciones geométricas; por tanto, en estos casos se deberá especificar
expresamente una tolerancia geométrica, teniendo prioridad sobre el
autoridad geométrico que ya maneja implícita la tolerancia dimensional, esto
para hacer adpero exactas la producciones y así no tener producción
rechazada por su mala fabricación, maquinado o acabado
Normativas.

La normativa es el conjunto de leyes que regula un tema o ámbito


determinado. Es una recopilación de las normas que se encuentran vigentes.
Instrumentos de medida.

Es una herramienta que mide la magnitud física de un determinado objeto o


fenómeno.

Micrómetro

13
Durante el Renacimiento y la Revolución industrial había un gran interés en
poder medir las cosas con gran precisión. Ninguno de los instrumentos
empleados en esa época se parece a los metros, calibres o micrómetros
empleados en la actualidad. El término micrómetro fue acuñado,
seguramente, por ese interés.
Los primeros experimentos para crear una herramienta que permitiría medir
distancias con precisión en un telescopio astronómico es de principios del
siglo XVII, como el desarrollado por Galileo Galilei para medir la distancia de
los satélites de Júpiter.
La invención en 1640 por William Gascoigne del tornillo micrométrico
suponía una mejora del vernier o nonio empleado en el calibre, y se utilizaría
en astronomía para medir con un telescopio distancias angulares
entre estrellas.
Henry Maudslay construyó un micrómetro de banco en 1829, basado en el
dispositivo de tornillo de banco, compuesto de una base y dos mandíbulas de
acero, de las cuales una podía moverse con un tornillo a lo largo de la
superficie de la guía. Este dispositivo estaba basado en el sistema métrico
inglés, presentaba una escala dividida en décimas de pulgada y un tambor,
solidario al tornillo, dividido en centésimas y milésimas de pulgada.
Una mejora de este instrumento fue inventada por el mecánico francés Jean
Laurent Palmer en 1848 y que se constituyó en el primer desarrollo de que se
tenga noticia del tornillo micrométrico de mano. En la Exposición de París de
1867, este dispositivo llamó la atención de Joseph Brown y de su ayudante
Lucius Sharpe, quienes empezaron a fabricarlo de forma masiva a partir de
1868 en su empresa conjunta Brown & Sharpe.1 La amplia difusión del tornillo
fabricado por esta empresa permitió emplearlo en los talleres mecánicos de
tamaño medio.

Es un instrumento de medición cuyo funcionamiento está basado en el


tornillo micrométrico que sirve para medir con alta precisión del orden de
centésimas en milímetros (0,01 mm) y de milésimas de milímetros (0,001
mm) (micra)las dimensiones de un objeto.

14
Pie de Rey
El primer instrumento de características similares fue encontrado en un
fragmento en la isla del Giglio, cerca de la costa italiana, datado en el
siglo VI a. C. Aunque considerado raro, fue usado por griegos y romanos.
Durante la Dinastía Han (202 a. C.-220 d. C.), también se utilizó un
instrumento similar en China, hecho de bronce, hallado con una inscripción
del día, mes y año en que se realizó.
Se atribuye al cosmógrafo y matemático portugués Pedro Nunes (1492-1577)
que inventó el nonio o nonius el origen del pie de rey. También se ha
llamado pie de rey al vernier porque hay quien atribuye su invento al
geómetra Pierre Vernier (1580-1637), aunque lo que verdaderamente inventó
fue la regla de cálculo Vernier, que ha sido confundida con el nonio
inventado por Pedro Nunes. En castellano, se utiliza con frecuencia la
voz nonio para definir esa escala.
El calibre o pie de rey, es un instrumento para medir dimensiones de objetos
relativamente pequeños, desde centímetros hasta fracciones de milímetros
(1/10 de milímetros o hasta 1/20 de milímetro).

15
Regla
Es un instrumento de medición, construida de metal, madera o material
plástico, que tiene una escala graduada y numerada en centímetros y
milímetros y su longitud total rara vez supera el metro de longitud.

Reloj comparador
Un reloj comparador o comparador de cuadrante es un instrumento de
medición de dimensiones que se utiliza para comparar cosas mediante
la medición indirecta del desplazamiento de una punta de contacto esférica
cuando el aparato está fijo en un soporte. Consta de
un mecanismo de engranajes o palancas que amplifica el movimiento del
vástago en un movimiento circular de las agujas sobre escalas graduadas
circulares que permiten obtener medidas con una precisión de centésimas o
milésimas de milímetro (micras).1 Además existen comparadores
electrónicos que usan sensores de desplazamiento angular de los engranajes
y representan el valor del desplazamiento del vástago en un visualizador.
La esfera del reloj que contiene la escala graduada puede girarse de manera
que puede ponerse el cero del cuadrante coincidiendo con la aguja y realizar
las siguientes medidas por comparación. El reloj comparador debe estar

16
fijado a un soporte, cuya base puede ser magnética o fijada mecánicamente a
un bastidor.
Es un instrumento que permite realizar controles dimensionales en la
fabricación de manera rápida y precisa, por lo que es muy utilizado en la
inspección de la fabricación de productos en series grandes.

Goniómetro
Es un instrumento de medición que se utiliza para medir ángulos,
comprobación de conos, y puesta a punto de las máquinas-herramientas de
los talleres de mecanizado.
El nombre más común del goniómetro es sextante, un instrumento que
reemplazó al astrolabio en la medición de la posición de un buque.
Entre los goniómetros están incluidos también los taquímetros y
los teodolitos.

Cinta métrica
Es un instrumentos de medición que se construye en una delgada lámina de
acero al cromo, o de aluminio , o de un tramado de fibras de carbono unidas

17
mediante un polímero de teflón (las más modernas). Las cintas métricas más
usadas son las de 10, 15, 20, 25, 30, 50 y 100 metros.

Compases
Son instrumentos de medición de variados usos y diversas formas. Como
elementos de comprobación se usan principalmente el compás de espesor y
el de interior. Se usan especialmente para comprobar paralelismos en los
procesos de mecanizado.
Manómetro
El manómetro es un instrumento utilizado para la medición de la presión en
los fluidos, generalmente determinando la diferencia de la presión entre el
fluido y la presión local. En la mecánica la presión se define como la fuerza
por unidad de superficie que ejerce un líquido o un gas perpendicularmente
a dicha superficie.
Características y tipos de manómetros
Manómetro de dos ramas abiertas.
Muchos de los aparatos empleados para la medida de presiones utilizan
la presión atmosférica como nivel de referencia y miden la diferencia entre la
presión real o absoluta y la presión atmosférica, llamándose a este
valor presión manométrica; dichos aparatos reciben el nombre de
manómetros y funcionan según los mismos principios en que se
fundamentan los barómetros de mercurio y los aneroides. La presión
manométrica se expresa ya sea por encima, o bien por debajo de la presión
atmosférica. Los aparatos que sirven exclusivamente para medir presiones
inferiores a la atmosférica, o negativas, se llaman vacuómetros. También
manómetros de vacío.
Manómetro de dos ramas abiertas
Estos son los elementos con los que se mide la presión positiva, estos pueden
adoptar distintas escalas. El manómetro más sencillo consiste en un tubo de
vidrio doblado en U que contiene un líquido apropiado (mercurio, agua,
aceite, entre otros). Una de las ramas del tubo está abierta a la atmósfera; la
otra está conectada con el depósito que contiene el fluido cuya presión se

18
desea medir (Figura 1). El fluido del recipiente penetra en parte del tubo en
∪, haciendo contacto con la columna líquida.
Manómetro truncado
El llamado manómetro truncado (Figura 2) sirve para medir pequeñas
presiones gaseosas, hasta 1 Torr. No es más que un barómetro de sifón con
sus dos ramas cortas. Si la rama abierta se comunica con un depósito cuya
presión supere la altura máxima de la columna barométrica, el líquido
barométrico llena la rama cerrada.

Galgas
Se llama galga o calibre fijo o "feeler" a los elementos que se utilizan en
el mecanizado de piezas para la verificación de
las cotas con tolerancias estrechas cuando se trata de la verificación de
piezas en serie. La galga también es una unidad de medida, ésta es utilizada
para indicar el grosor (espesor) de materiales muy delgados o
extremadamente finos; la galga se define como el grosor de un objeto
expresado en micras multiplicado por 4. Así, por ejemplo,
una lámina de polietileno que tenga 25 micras (0,025 mm) de grosor será de
100 galgas; por tanto, la galga equivale a un cuarto de millonésima
de metro (2,5 × 10-7 m).1 En el mundo anglosajón las medidas en los calibres
fijos también se pueden encontrar indicadas en milésimas de pulgada.
Las galgas que son calibres fijos no siempre indican su medición y pueden
ser meras réplicas de la pieza modelo, lo cual las abarata, así algunas sirven
solo para establecer un patrón, con el que se compara la pieza para
establecer su validez; están formadas por un mango de sujeción y dos
elementos de medida, donde una medida corresponde al valor máximo de la
cota a medir, y se llama «NO PASA» (en inglés «NOT GO»), y la otra medida
corresponde al valor mínimo de la cota a medir, y se llama «PASA» («GO»).2
Las galgas son de acero, templado y rectificado, o de carburos, con una
gran precisión de ejecución, también se hacen galgas cerámicas de zirconia.2
Las dimensiones, dureza y título de las galgas están estandarizados en la
norma DIN 2275.

19
Instrumentos para la medición directa de longitudes.

Cinta métrica, regla, Calibre, también llamado pie de rey o calibre vernier.
Instrumentos para la medición de longitudes por comparación.

Cinta métrica o flexómetro: sirve para medir longitudes rectas o curvas.


Regla graduada: es para la medición en dibujo.
Vernier: sirve para hacer mediciones de exteriores, escalón, interiores y de
profundidad.
Micrómetro: mide el tamaño de los objetos encerrándolos

Patrones de longitud.

Son objetos físicos precisamente fabricados y cuidadosamente calibrados que


se utilizan como referencia para establecer y mantener la unidad de longitud
en un sistema de medida. Los patrones de longitud son referencias estándar
utilizadas para medir longitudes con precisión. Estos patrones son esenciales
en la metrología, la ciencia de la medición, y son fundamentales para
establecer y mantener las unidades de medida estándar. Aquí te dejo
información clave sobre los patrones de longitud:
Tipos de Patrones de Longitud:
Reglas y Cintas Métricas: Utilizadas para medir longitudes en escala
pequeña, comúnmente en centímetros o pulgadas.

20
Calibradores: Instrumentos precisos para medir dimensiones pequeñas,
especialmente en ingeniería y fabricación.
Bloques Patrón: Bloques de material de alta calidad con dimensiones muy
precisas, utilizados para calibrar equipos de medición.
Metros y Yardas Patrón: Longitudes estandarizadas utilizadas para
calibrar instrumentos de medición de longitud.
Importancia en la Metrología:
Los patrones de longitud: son esenciales para establecer unidades de
medida estándar y garantizar la consistencia en las mediciones a nivel
mundial.
La repetibilidad y la reproducibilidad de las mediciones dependen en gran
medida de la calidad y precisión de los patrones utilizados.
Calibración y Trasferencia de Calibración:
Los patrones de longitud se utilizan para calibrar instrumentos de medición,
garantizando que proporcionen resultados precisos.
La calibración implica la comparación de un instrumento con un patrón de
referencia conocido.
Materiales Utilizados:
Los patrones de longitud se fabrican comúnmente con materiales estables y
resistentes, como acero inoxidable, cerámica o aleaciones especiales.
Patrones Internacionales:
Organismos como el Buró Internacional de Pesas y Medidas (BIPM) en
Francia mantienen patrones de longitud internacionales para respaldar las
unidades de medida fundamentales.
Evolución Histórica:
A lo largo de la historia, los patrones de longitud han evolucionado desde
unidades basadas en partes del cuerpo humano hasta estándares más
precisos y universales.

21
Aplicaciones Prácticas:
Los patrones de longitud se utilizan en una variedad de campos, desde la
fabricación de productos hasta la investigación científica.

Control de ángulos.

Se refiere a la medición y verificación precisa de los ángulos formados por


líneas, planos u objetos en diversas aplicaciones. Los ángulos son una
magnitud importante en la geometría, la trigonometría y muchas otras
disciplinas científicas y técnicas. El control de ángulos es esencial en áreas
como la fabricación, la construcción, la ingeniería y la topografía.
El control de ángulos se refiere al proceso de medir y garantizar la precisión
de los ángulos en componentes y productos. Este aspecto de la metrología es
esencial en diversas industrias, desde la fabricación de maquinaria hasta la
construcción. Aquí tienes información clave sobre el control de ángulos:
Instrumentos de Medición de Ángulos:
Transportadores de Ángulos: Herramientas simples utilizadas para medir
y marcar ángulos en piezas.
Goniómetros: Instrumentos que miden ángulos con mayor precisión y se
utilizan en aplicaciones más técnicas.
Instrumentos de Medición Óptica: Algunos sistemas utilizan tecnologías
ópticas para medir ángulos con alta precisión.
Importancia en la Fabricación:
El control de ángulos es crucial en la fabricación de piezas y componentes
para garantizar el ensamblaje correcto y el funcionamiento adecuado de los
productos.

22
Tolerancias de Ángulo:
Las tolerancias de ángulo especifican la variación permitida en los ángulos y
son fundamentales para asegurar la calidad y la funcionalidad de los
productos.
Aplicaciones en Ingeniería:
En ingeniería mecánica, el control preciso de ángulos es esencial para la
fabricación de maquinaria, motores y componentes mecánicos.
Métodos de Medición:
Se utilizan diferentes métodos para medir ángulos, desde mediciones
manuales hasta tecnologías avanzadas como la medición láser o sistemas de
visión por computadora.
Control en Procesos de Soldadura:
En la soldadura, el control de ángulos es crucial para asegurar la alineación
correcta de las piezas y evitar deformaciones.
Alineación en Construcción:
En la construcción, el control de ángulos es fundamental para garantizar la
correcta alineación de estructuras y componentes, como vigas y columnas.
Metrología Dimensional Tridimensional:
En sistemas de medición tridimensional, se controlan no solo las
dimensiones lineales, sino también los ángulos para obtener una
representación completa y precisa de un objeto.
Calibración de Instrumentos:
Los instrumentos de medición de ángulos deben calibrarse regularmente
para garantizar su precisión y confiabilidad en la medición.
Tecnologías Avanzadas:
La introducción de tecnologías como la metrología láser y sistemas CNC ha
mejorado la precisión y eficiencia en el control de ángulos.

23
Calibres limitadores.

La invención específica de los calibres limitadores no se atribuye a un único


individuo, ya que estos instrumentos de medición han evolucionado a lo
largo del tiempo como parte del desarrollo continuo de herramientas de
precisión en la industria. La metrología, que es la ciencia de la medición, ha
experimentado contribuciones de muchos inventores y científicos a lo largo
de la historia.
La creación y desarrollo de calibres, calibradores y otros instrumentos de
medición han involucrado a varias personas a lo largo de los siglos, y no hay
un nombre único que pueda ser identificado como el creador de los calibres
limitadores en el sentido moderno. En cambio, estos instrumentos han sido
el resultado de la colaboración y acumulación de conocimientos a lo largo
del tiempo, adaptándose a las necesidades cambiantes de la industria y la
fabricación de precisión.La historia de la metrología y los instrumentos de
medición es rica y compleja, con contribuciones significativas de diversos
inventores y científicos en diferentes épocas. La historia de los calibres
limitadores se remonta a los primeros desarrollos de herramientas de
medición de precisión, aunque no existe una fecha específica para su
invención. Estos instrumentos han evolucionado a lo largo del tiempo para
satisfacer las crecientes demandas de la industria en términos de precisión y
eficiencia en la medición.
Aquí hay una visión general de la evolución y desarrollo de los calibres
limitadores a lo largo de la historia:
Inicios de la Metrología:
En las primeras etapas de la fabricación y la ingeniería, las mediciones se
realizaban a menudo de manera rudimentaria con herramientas manuales
como reglas y calibradores simples.
Desarrollo de Instrumentos Precisos:

24
Con el tiempo, la necesidad de mediciones más precisas impulsó el
desarrollo de instrumentos más avanzados. Se crearon calibradores más
precisos y goniómetros para medir ángulos con mayor exactitud.

Calibradores Fijos y Limitadores:


La introducción de calibres limitadores se produjo para abordar la necesidad
de mediciones precisas de diámetros y longitudes. Estos calibres tenían un
diseño que permitía ajustarlos para limitar la variación en las dimensiones
medidas.
Aplicación en la Industria:
A medida que las industrias, especialmente la fabricación de maquinaria y
componentes mecánicos, buscaban mayor precisión en sus procesos, los
calibres limitadores se volvieron herramientas esenciales para garantizar la
calidad de las piezas producidas.
Avances en Materiales y Tecnologías:
Con los avances en la tecnología y los materiales utilizados en la fabricación
de instrumentos de medición, los calibres limitadores se volvieron más
sofisticados y precisos.
Estándares de Metrología:
La evolución de estándares de metrología internacionales, establecidos por
organizaciones como el Buró Internacional de Pesas y Medidas (BIPM),
contribuyó a la mejora continua de la precisión y la consistencia en las
mediciones.
Automatización y Tecnologías Digitales:
En la era moderna, la automatización y las tecnologías digitales han
influido en el diseño y la fabricación de calibres limitadores, permitiendo
mediciones más rápidas y precisas.
Hoy en día, los calibres limitadores son herramientas esenciales en la
industria manufacturera, utilizadas para garantizar la calidad y la precisión
en la producción de una variedad de componentes. Su evolución a lo largo

25
del tiempo refleja la constante búsqueda de la mejora en la metrología y la
fabricación de precisión.

Tipos de calibres.

Según la medición a realizar


 Calibres patrón: Calibres que sirven como referencia para fabricar
otros calibres.
 Calibres verificación: Utilizados generalmente para la medición de
piezas terminadas.
 Calibres de trabajo: Utilizados durante el trabajo.

Según su funcionamiento

 Calibre pie de rey universales: Son los calibres tradicionales. Tienen


una gran duración y un bajo costo al no utilizar mucho herramental.
 Calibre pie de rey con reloj. Son similares a los calibre pie de rey
universales solo que poseen un reloj que permiten la lectura inmediata
del valor de la medición. Tiene como ventaja mayor claridad en las
lecturas, pero posee la desventaja de que no tiene la posibilidad de
medir en pulgadas.
 Calibre pie de rey digitales. Son los calibres más modernos del
mercado. Tienen la gran ventaja de que la medición es mostrada
directamente por la pantalla y no lleva a errores por observación. Tiene
la desventaja de que son los más caros del mercado.

Principio de Taylor.

El "Principio de Taylor" se refiere al principio de la gestión científica


desarrollado por Frederick W. Taylor a principios del siglo XX. También se
conoce como "Taylorismo". Este enfoque se basa en la aplicación de métodos
científicos para optimizar la eficiencia en el trabajo y aumentar la
productividad en el ámbito de la producción y la administración.
El "Principio de Taylor" puede referirse a dos conceptos en campos
diferentes:

26
Principio de Taylor en la Gestión:
El "Principio de Taylor" más conocido se refiere a los principios de
administración científica propuestos por Frederick Winslow Taylor a fines
del siglo XIX y principios del siglo XX. Taylor fue un ingeniero y consultor de
gestión que buscaba mejorar la eficiencia y la productividad en la industria.
Sus principios se centraban en la aplicación de métodos científicos para
optimizar los procesos de trabajo y las tareas laborales. Esto incluía la
estandarización de métodos, la selección cuidadosa de trabajadores y la
aplicación de incentivos basados en el rendimiento.

Principio de Taylor en Matemáticas:


En matemáticas, el "Principio de Taylor" se refiere al teorema de Taylor, que
fue desarrollado por el matemático británico Brook Taylor en el siglo XVIII.
El teorema de Taylor describe cómo una función puede aproximarse
mediante una serie infinita de derivadas de la función en un punto dado. Es
fundamental en cálculo y análisis matemático, proporcionando una
herramienta para aproximar funciones complejas mediante polinomios.
Los principios clave del Taylorismo incluyen:
Análisis del trabajo: Taylor abogaba por descomponer las tareas en pasos
individuales y analizar cada uno de ellos para identificar las mejores
prácticas y métodos más eficientes.
Selección y entrenamiento de trabajadores: Taylor sostenía que los
trabajadores debían ser seleccionados y entrenados adecuadamente para
realizar las tareas de manera eficiente y en línea con los métodos científicos
definidos.
Establecimiento de estándares: Se debían establecer estándares claros de
rendimiento, tiempo y producción para cada tarea. Esto permitía medir y
evaluar el desempeño de los trabajadores de manera objetiva.

27
Incentivos económicos: Taylor abogaba por proporcionar incentivos
financieros para motivar a los trabajadores a cumplir con los estándares de
producción. Esta fue una de las primeras veces que se introdujo la idea de la
remuneración basada en el rendimiento.
Supervisión y control: Se enfatizaba la supervisión constante para
asegurarse de que los trabajadores cumplieran con los métodos y estándares
establecidos.
División del trabajo: Taylor también abogaba por una mayor división del
trabajo, lo que implicaba una especialización extrema en tareas específicas
para aumentar la eficiencia.
Calibres para agujeros.

Los calibres para agujeros, también conocidos como calibres de agujero o


micrómetros de agujero, son instrumentos de medición utilizados para
medir con precisión el diámetro interior de un agujero, orificio o cavidad.
Estos calibres son especialmente útiles en la fabricación y la metrología para
verificar que los agujeros tengan las dimensiones correctas y cumplan con las
tolerancias especificadas.
Los calibres para agujeros son herramientas de medición diseñadas
específicamente para evaluar las dimensiones internas de agujeros, ya sea en
piezas de maquinaria, componentes electrónicos u otros productos
fabricados. Estos calibres son esenciales para garantizar que los agujeros
cumplan con las tolerancias especificadas y que las piezas puedan
ensamblarse correctamente. Aquí hay información más detallada sobre los
calibres para agujeros:
Tipos de Calibres para Agujeros:
Calibres de Bocas Fijas:
Consisten en una serie de varillas cilíndricas con extremos cónicos que se
utilizan para medir agujeros de tamaños específicos. Se selecciona la varilla
que se ajusta mejor al diámetro del agujero.

28
Calibres de Bocas Ajustables:
Tienen una estructura más compleja que permite ajustar el diámetro según
sea necesario. Pueden tener una rosca fina o un mecanismo de palanca para
realizar el ajuste.
Calibres de Bocas Telescópicos:
Están compuestos por varias varillas telescópicas que se pueden extender o
retraer para medir agujeros de diferentes tamaños.
Calibres de Bocas de Rosca:
Diseñados para medir la rosca interna de agujeros roscados. Tienen una
forma específica que coincide con el perfil de la rosca.
Calibres de Palanca:
Utilizan una palanca para ajustar las mandíbulas que miden el diámetro del
agujero. Son fáciles de usar y proporcionan mediciones rápidas.
Cómo Utilizar Calibres para Agujeros:
Selección del Calibre Correcto:
Elegir el calibre que se ajuste al tamaño del agujero que se va a medir.
Introducción en el Agujero:
Insertar el calibre en el agujero y asegurarse de que esté centrado y
perpendicular al eje del agujero.
Ajuste y Lectura:
En el caso de calibres ajustables, ajustar las mandíbulas hasta que estén en
contacto con las paredes del agujero. Realizar la lectura del diámetro en la
escala proporcionada en el calibre.
Registro de la Medición:
Registrar la medición y compararla con las tolerancias especificadas para
determinar si el agujero cumple con los requisitos.

29
Importancia en la Fabricación:
Asegurar Tolerancias:
Los calibres para agujeros son críticos para garantizar que los agujeros
cumplan con las tolerancias especificadas en el diseño.
Control de Calidad:
Forman parte integral de los procesos de control de calidad en la fabricación
para garantizar la consistencia y precisión de las piezas.
Ahorro de Tiempo:
Proporcionan mediciones rápidas y precisas, lo que ayuda a ahorrar tiempo
en comparación con otros métodos de medición.
Evitar Problemas de Ensamblaje:
Aseguran que las piezas se ensamblen correctamente al garantizar que los
agujeros tengan el tamaño adecuado.
Calibres para ejes.

Son herramientas de medición utilizadas para determinar el diámetro


exterior de un eje o una pieza cilíndrica. Estas herramientas son comunes en
entornos de fabricación y mecanizado, donde es crucial conocer las
dimensiones precisas de los ejes y otras piezas cilíndricas para asegurar un
ajuste adecuado y un funcionamiento óptimo en ensamblajes mecánicos. Los
calibres para ejes son herramientas de medición diseñadas específicamente
para evaluar las dimensiones exteriores de ejes, ya sean cilíndricos u otras
formas geométricas. Estos calibres son esenciales para garantizar que los ejes
cumplan con las tolerancias especificadas y que encajen correctamente en
otras partes de un conjunto.
Tipos de Calibres para Ejes:
Calibres de Caras Paralelas:
Consisten en dos caras paralelas que se ajustan al diámetro exterior del eje.
Pueden ser fijos o ajustables.

30
Calibres de Rodillos:
Utilizan rodillos para medir el diámetro del eje. Son ideales para ejes largos
y delgados.
Calibres de Punta:
Tienen puntas que se ajustan al diámetro del eje. Son especialmente útiles
para medir la parte final de un eje.
Calibres de Profundidad:
Permiten medir no solo el diámetro, sino también la longitud o profundidad
del eje.
Calibres de Ejes con Forma Especial:
Pueden tener formas específicas para adaptarse a ejes con características no
cilíndricas, como ejes con secciones roscadas.
Cómo Utilizar Calibres para Ejes:
Selección del Calibre Adecuado:
Elegir el calibre que se ajuste al tamaño y forma del eje que se va a medir.
Posicionamiento del Calibre:
Colocar el calibre alrededor del eje y asegurarse de que esté alineado
correctamente.
Ajuste de las Mandíbulas:
En el caso de calibres ajustables, ajustar las mandíbulas hasta que estén en
contacto con la superficie del eje.
Lectura y Registro:

31
Realizar la lectura del diámetro en la escala proporcionada en el calibre y
registrar la medición.
Verificación de Tolerancias:
Comparar la medición con las tolerancias especificadas para asegurar que el
eje cumple con los requisitos de diseño.
Importancia en la Fabricación:
Asegurar la Calidad de los Ejes:
Los calibres para ejes son fundamentales para garantizar que los ejes
cumplen con las dimensiones especificadas y la calidad requerida.
Control de Tolerancias:
Contribuyen al control preciso de las tolerancias dimensionales, asegurando
que los ejes se fabriquen dentro de las especificaciones.
Ensamblaje Adecuado:
Ayudan a garantizar que los ejes encajen correctamente en otros
componentes durante el ensamblaje.
Evitar Problemas de Funcionamiento:
Al medir con precisión los ejes, se evitan problemas de funcionamiento o
desajustes en sistemas mecánicos.
Eficiencia en la Producción:
Proporcionan mediciones rápidas y eficientes, contribuyendo a la eficiencia
en la producción.

Materiales para la construcción de calibres.

Acero inoxidable: El acero inoxidable es un material popular para la


fabricación de calibres debido a su resistencia a la corrosión y su durabilidad.
Los calibres de acero inoxidable son ideales para entornos industriales y
pueden soportar condiciones adversas.

32
Acero al carbono: El acero al carbono es otro material común utilizado en
la construcción de calibres. Es resistente y adecuado para aplicaciones de uso
general. Sin embargo, puede ser susceptible a la corrosión si no se le da un
tratamiento adecuado.
Aleaciones de aluminio: Para calibres más ligeros, se pueden utilizar
aleaciones de aluminio. Estos calibres son ideales para aplicaciones donde la
portabilidad es importante, pero pueden ser menos duraderos que los
calibres de acero.
Latón: El latón es un material que se utiliza a veces en la construcción de
calibres, especialmente en calibres más antiguos o de alta precisión. Tiene
una buena resistencia a la corrosión y una estabilidad dimensional decente.
Plástico de alta calidad: En algunos casos, especialmente en calibres más
económicos o calibres diseñados para aplicaciones específicas, se pueden
utilizar plásticos de alta calidad como el nylon reforzado con fibra de vidrio.

Ventajas e inconvenientes de la verificación con calibres.

Ventajas:
 Los calibres están diseñados para proporcionar mediciones precisas.
Son ideales cuando se requiere una alta precisión en las mediciones.
 Comparado con otras técnicas de medición, como el micrómetro o el
vernier, los calibres son rápidos de usar. Esto permite una mayor
eficiencia en la medición de múltiples piezas.
 Los calibres son relativamente fáciles de usar, lo que significa que no se
necesita un alto nivel de habilidad para realizar mediciones precisas.
 Existen calibres diseñados para medir diferentes tipos de dimensiones,
como diámetros exteriores, diámetros interiores, profundidades, entre
otros. Esto los hace versátiles para diversas aplicaciones de medición.

33
 Los calibres, cuando se cuidan adecuadamente, son herramientas
duraderas que pueden soportar el uso continuo en entornos
industriales.
Inconvenientes:
 Aunque los calibres son precisos, todavía están sujetos a errores
humanos. Un mal manejo o una lectura incorrecta pueden conducir a
mediciones incorrectas.
 Con el tiempo y el uso constante, los calibres pueden experimentar
desgaste, lo que puede afectar su precisión. Es importante calibrarlos y
mantenerlos adecuadamente.
 Los calibres tienen un rango de tamaño limitado. No son adecuados
para medir piezas extremadamente pequeñas o extremadamente
grandes.
 Los calibres de alta calidad pueden ser costosos. Para aplicaciones
donde la precisión no es crítica, puede ser excesivo invertir en calibres
de alta gama.
 Los calibres requieren un mantenimiento regular para garantizar su
precisión. Esto incluye la limpieza y la calibración periódica.
Galgas.

Son sensores de medición utilizados para cuantificar la deformación o la


tensión en una estructura o componente. Estas pequeñas piezas se utilizan
en una variedad de aplicaciones de ingeniería y medición, especialmente en
la medición de fuerzas, presiones, peso y movimiento en diversos campos.

Calibres de forma.

Son una serie de flejes o láminas metálicas que formando juegos presentan
diferentes configuraciones y formas, las cuales responden a un patrón
determinado: diferentes pasos de rosca, o diferentes radios o ángulos.
Normativas.

34
Rugosidad superficial.

Es una medida de las pequeñas irregularidades y asperezas en la superficie


de un objeto o una superficie acabada. Es una característica importante en la
industria y la ingeniería, ya que puede afectar la funcionalidad y el
rendimiento de las piezas y componentes en una variedad de aplicaciones.
Características de la rugosidad superficial:
 La rugosidad superficial se refiere a las pequeñas irregularidades y
texturas que existen en una superficie. Estas irregularidades pueden
incluir surcos, crestas, picos y valles que conforman el perfil de la
superficie.
 Para cuantificar la rugosidad superficial, se utilizan parámetros
específicos de medición. Estos parámetros incluyen la rugosidad
promedio (Ra), la profundidad máxima de rugosidad (Rz), la altura de
las crestas y valles, y otros valores que describen la forma y la
magnitud de las irregularidades.
 La rugosidad superficial se mide típicamente en unidades de longitud,
como micrómetros (μm) o pulgadas (in). Estas unidades representan la
altura de las irregularidades en la superficie.
Importancia de la rugosidad superficial:
 La rugosidad superficial puede influir en la calidad de un producto o
componente. En aplicaciones donde se requiere un ajuste preciso o un
sellado hermético, la rugosidad superficial adecuada es esencial.
 La rugosidad superficial también afecta la fricción y el desgaste en
piezas y componentes en movimiento. Una superficie rugosa puede
experimentar un mayor desgaste y un aumento en la fricción, lo que
puede afectar la eficiencia y la vida útil de las piezas.
 En aplicaciones que involucran recubrimientos, como la pintura o el
cromado, la rugosidad superficial puede influir en la adherencia y la
durabilidad del recubrimiento.

35
 En algunas aplicaciones, la rugosidad superficial se utiliza como un
aspecto del diseño de superficie para lograr propiedades específicas,
como mejorar la lubricación, reducir la adhesión o facilitar el agarre.

Influencia de la rugosidad superficial.

La rugosidad superficial tiene una influencia significativa en una variedad de


aplicaciones e industrias debido a su capacidad para afectar diversas
propiedades y características de las superficies y los materiales. Aquí se
describen algunas de las principales influencias de la rugosidad superficial:
Calidad del producto: En la fabricación de componentes y piezas, la
rugosidad superficial puede influir en la calidad del producto final.
Superficies demasiado rugosas pueden afectar la funcionalidad y la estética
del producto.
Ajuste y sellado: En aplicaciones donde dos piezas deben encajar o sellar
herméticamente, como juntas teóricas o componentes de máquinas, la
rugosidad superficial es crucial. Una superficie muy rugosa puede evitar un
ajuste adecuado o crear fugas no deseadas.
Frictión y desgaste: La rugosidad superficial afecta la fricción y el desgaste
en componentes en movimiento, como rodamientos y pistones. Superficies
rugosas pueden generar más fricción, lo que conduce a un mayor desgaste y
una vida útil más corta de las piezas.
Adherencia de recubrimientos: En procesos de recubrimiento, como
pintura, cromado o adhesión de películas delgadas, la rugosidad superficial
puede influir en la adherencia del recubrimiento. Una superficie demasiado
lisa puede dificultar la adherencia, mientras que una superficie muy rugosa
puede afectar la uniformidad del recubrimiento.
Rendimiento óptico: En aplicaciones ópticas, como lentes y espejos, la
rugosidad superficial puede afectar la calidad de la imagen. Superficies
rugosas pueden dispersar la luz y reducir la claridad de las imágenes.

36
Proceso de manufactura: La rugosidad superficial es una consideración
importante en la selección de procesos de manufactura. Diferentes procesos,
como el torneado, el fresado o el rectificado, pueden generar diferentes
niveles de rugosidad superficial, lo que puede influir en la elección del
proceso adecuado para una aplicación específica.
Diseño de superficie: En algunas aplicaciones, la rugosidad superficial se
utiliza de manera deliberada para lograr propiedades específicas. Por
ejemplo, se pueden crear superficies rugosas en agarres de herramientas para
mejorar la fricción y la manipulación.
Control de corrosión: La rugosidad superficial también puede influir en la
resistencia a la corrosión de las superficies metálicas. Superficies más rugosas
pueden tener una mayor área superficial expuesta a agentes corrosivos, lo
que puede acelerar el proceso de corrosión.

Definiciones. Parámetros de la rugosidad superficial.

Simbología y equivalencia.

La simbología y equivalencia se refieren a la representación gráfica de


conceptos, objetos o relaciones mediante símbolos o diagramas. A menudo
se utilizan en diversas disciplinas, como matemáticas, física, química,
ingeniería, electrónica y más, para simplificar y expresar visualmente
información compleja.

Aplicaciones.

La simbología y la equivalencia tienen una amplia gama de aplicaciones en


diversas disciplinas y campos de estudio
Matemáticas:
Aplicación: Los símbolos matemáticos se utilizan para representar
operaciones, relaciones y conceptos matemáticos en ecuaciones y
expresiones.

37
Ejemplo: El símbolo "+" se usa para representar la operación de adición en
matemáticas, y "=" indica igualdad.
Química:
Aplicación: Los símbolos químicos se utilizan para representar elementos y
compuestos en fórmulas químicas.
Ejemplo: "H" representa el hidrógeno, y "O" representa el oxígeno en la
fórmula del agua, "H2O".
Electricidad y Electrónica:
Aplicación: Los símbolos eléctricos se utilizan para representar
componentes eléctricos y conexiones en circuitos eléctricos y electrónicos.
Ejemplo: El símbolo "R" representa una resistencia en un circuito, y "V"
representa un voltaje.
Ingeniería Mecánica:
Aplicación: En la ingeniería mecánica, se utilizan símbolos para representar
piezas y componentes en planos técnicos y diagramas.
Ejemplo: Un círculo con una letra "A" dentro puede representar un agujero
en un dibujo técnico.
Arquitectura y Construcción:
Aplicación: Los símbolos arquitectónicos se utilizan en planos de
construcción para representar elementos como puertas, ventanas, escaleras y
mobiliario.
Ejemplo: Un rectángulo con un arco puede representar una puerta en un
plano arquitectónico.
Cartografía:
Aplicación: En la cartografía, se utilizan símbolos para representar
elementos geográficos en mapas, como ríos, montañas, carreteras y puntos
de interés.

38
Ejemplo: Un símbolo de un círculo con un punto en el centro puede
representar una ciudad en un mapa.
Diagramas de Flujo:
Aplicación: Los símbolos se utilizan en diagramas de flujo para representar
pasos, decisiones, entradas y salidas en procesos o procedimientos.
Ejemplo: Un rectángulo se usa para representar una actividad o paso en un
diagrama de flujo, mientras que un diamante representa una decisión.
Lenguajes de Programación:
Aplicación: En la programación informática, los símbolos y operadores se
utilizan para representar acciones y cálculos en el código fuente.
Ejemplo: El símbolo "+" se utiliza para la adición en la mayoría de los
lenguajes de programación, y "=" se utiliza para asignar valores a variables.
Medida de la rugosidad.

Es un proceso crítico en la industria y la ingeniería para evaluar la calidad de


las superficies de las piezas y componentes. La medida se lleva a cabo
utilizando instrumentos llamados rugosímetros o perfilómetros.
(1micra= 1 µm = 0,000001 m = 0,001 mm)
Normativas.

Es el conjunto de leyes que regula un tema o ámbito determinado. Es una


recopilación de las normas que se encuentran vigentes.

Tolerancias geométricas.

Son especificaciones que se utilizan en la industria manufacturera para


controlar la forma, la orientación, la posición y las dimensiones de las
características geométricas de una pieza o componente. Estas tolerancias son
fundamentales para garantizar que las piezas cumplan con los requisitos de
diseño y funcionamiento.

39
La norma UNE-CR-ISO 14638:2005 en su introducción expone que “las
especificaciones geométricas de productos, GPS, se ocupan de definir, por
ejemplo, sobre un plano de fabricación, la forma (geometría), dimensiones y
características superficiales de una pieza, con objeto de garantizar un
funcionamiento óptimo de ésta, junto con la variación permitida en torno a
la definición óptima, de forma que se siga garantizando el cumplimiento de
la funcionalidad requerida.

Las tolerancias geométricas tienen características distintivas y


objetivos específicos que las hacen esenciales en el diseño y la
fabricación.

Características:
 Las tolerancias geométricas permiten describir con precisión y detallar
características complejas, como formas irregulares, perfiles específicos
y relaciones espaciales, de una manera que no es posible con la
dimensión lineal simple.

 Pueden abordar la complejidad de las piezas de manera más clara y


completa que las dimensiones lineales tradicionales. Por ejemplo, se
pueden especificar perfiles de superficie complejos o relaciones
angulares precisas.

 Ofrecen un control multifuncional, ya que una única tolerancia


geométrica puede abordar varios aspectos de la geometría de una
característica, como forma, orientación y posición.

 Proporcionan mayor flexibilidad al permitir especificaciones más


precisas sin depender únicamente de dimensiones lineales. Esto es
crucial en situaciones donde la forma y la función son críticas.

40
Objetivos:

 El objetivo principal es mejorar la funcionalidad de las piezas y


ensamblajes al controlar de manera precisa la forma, orientación y
posición de las características críticas.
 Contribuyen a la optimización del proceso de fabricación al permitir el
uso de métodos más eficientes y rentables, ya que se centran en la
función real de la pieza en lugar de en dimensiones aisladas.

 Facilitan la inspección y verificación mediante técnicas más avanzadas,


como la medición por coordenadas, que pueden evaluar la
conformidad con tolerancias geométricas de manera más efectiva que
las mediciones lineales.

 Contribuyen a la interoperabilidad entre componentes fabricados por


diferentes proveedores, ya que las tolerancias geométricas pueden
estandarizarse a través de normas internacionales, como ASME Y14.5 o
ISO 1101.

 Al permitir un control más preciso y eficiente de la geometría, las


tolerancias geométricas pueden ayudar a reducir costos de producción
y mejorar la calidad de las piezas y ensamblajes.
Tolerancias de forma.

Estas tolerancias se utilizan para controlar la forma de una característica,


como planitud, rectitud, circularidad y cilindricidad. Por ejemplo, si se
especifica una tolerancia de planitud en una superficie, esto significa que la
superficie no debe desviarse más allá de ciertos límites de planitud
especificados en el dibujo.

41
Tolerancias de orientación.

Estas tolerancias controlan la inclinación, la inclinación y la orientación de


una característica con respecto a un plano de referencia o ejes específicos.
Por ejemplo, una tolerancia de paralelismo indica que dos superficies deben
ser paralelas dentro de ciertos límites. Existen diferentes tipos de tolerancias
de orientación, como:
La tolerancia angular: se refiere al ángulo permitido de desviación de la
orientación deseada.
La tolerancia de inclinación: se refiere a la variación permitida en la
inclinación de una superficie con respecto a una referencia especificada.
Aplicaciones en la Metrología:
Ejemplo: En la medición de piezas, las tolerancias de orientación son
fundamentales. Los instrumentos de medición deben cumplir con
tolerancias estrictas para proporcionar lecturas precisas, especialmente
cuando se trata de mediciones angulares.
Impacto en la Asamblea:
Ejemplo: En la fabricación de automóviles, las tolerancias de orientación son
cruciales para garantizar que las partes se ensamblen correctamente. Si la
orientación de las piezas, como los ejes y las ruedas, no cumple con las
tolerancias, el vehículo puede experimentar problemas de manejo.
Normas y Especificaciones:
Ejemplo: Organizaciones como la ISO (Organización Internacional de
Normalización) establecen estándares para tolerancias de orientación en
diversas industrias. Esto ayuda a garantizar la consistencia y la
interoperabilidad de productos fabricados en diferentes lugares del mundo.

42
Tolerancias de situación.

Las tolerancias de situación especifican la ubicación de una característica


con respecto a un sistema de coordenadas de referencia. Esto es crítico para
garantizar que las piezas se ensamblen correctamente. Las tolerancias de
situación se pueden aplicar en términos de desplazamiento, distancia
mínima o distancia máxima entre puntos de referencia.
Posición: El requisito de posición especifica la precisión de la posición, en
relación con la referencia (plano o línea de referencia).
Coaxialidad: El requisito de coaxialidad especifica la coaxialidad de los ejes
de dos cilindros (sin desviación del eje central).
Concentricidad: El requisito de concentricidad especifica la precisión de la
concentricidad de los ejes de dos cilindros (sin desviación del centro). A
diferencia de la coaxialidad, el dato es el punto central (plano).
Simetría: El requisito de simetría especifica la precisión de cuán simétrico es
un objeto, con respecto a la referencia (plano de referencia).

Tolerancias de oscilación o combinadas.

Estas tolerancias permiten combinar varias tolerancias geométricas en una


única especificación. Por ejemplo, una tolerancia de oscilación podría incluir
tanto la concentricidad como la circularidad en una sola especificación.
Medición de formas.

La medición de formas se realiza utilizando instrumentos de medición


especializados diseñados para evaluar características geométricas específicas.

Normativas.

43
Medición de roscas y engranajes.

Es una parte crítica de la fabricación y el control de calidad en la industria.


Tanto las roscas como los engranajes tienen características específicas que
deben medirse con precisión para garantizar su funcionalidad y
compatibilidad.

Medición de Roscas:
Las roscas se utilizaron en la antigüedad para aplicaciones como la construcción y
la fabricación de herramientas. Sin embargo, la estandarización y la medición eran
limitadas. A fines del siglo XIX, se iniciaron esfuerzos para estandarizar las roscas,
lo que llevó a la creación de roscas estándar como la rosca métrica y la rosca
unificada. Esto facilitó la fabricación y la medición al establecer especificaciones
claras. La adopción de normas internacionales, como las de la ISO, contribuyó a la
uniformidad en la medición de roscas.
Organizaciones como la American National Standards Institute (ANSI) también
desempeñaron un papel clave. A medida que avanzaban las tecnologías de
medición, se desarrollaron instrumentos más precisos para medir roscas.
Calibradores de roscas y proyectores de perfiles se convirtieron en herramientas
comunes en la inspección de roscas.
Micrómetro de Paso: Un micrómetro de paso se utiliza para medir el paso
de una rosca y verificar si coincide con las especificaciones. Se utiliza en
combinación con un juego de cables o patrones de paso.

44
Cómo usar un Micrómetro
1. Antes de la medición, limpie el yunque y las superficies del husillo con
un paño limpio. Esto elimina la suciedad y el polvo de las superficies,
lo que permite realizar mediciones precisas.
2. Para sostener el micrómetro, sostenga el marco por la placa resistente
al calor con el pulgar y el dedo índice de su mano izquierda, y
pellizque el dedal entre el pulgar y el dedoíndice de la mano derecha.
tome el tambor con los dedos pulgar e índice de su mano derecha.
3. Coloque el objeto entre el yunque y el husillo, gire el trinquete hasta
que se deslice y luego lea el valor.
4. Lea el valor de la escala principal en el cilindro y de la escala en el
dedal. Use la línea en el borde derecho del cilindro para leer el valor en
unidades de 0.5 mm. Luego puede usar la escala, sobre la cual se alinea
la línea central del dedal (escala), para leer el valor en unidades de 0.01
mm.
Precauciones de Manipulación
1. Use un bloque patrón o un calibre dedicado para calibrar un
micrómetro. Para realizar mediciones precisas, la superficie del yunque
siempre debe ser plana. Después de realizar múltiples mediciones, la
superficie puede dejar de ser plana debido al desgaste y a la
acumulación de suciedad. Por lo tanto, use periódicamente una parte
conocida como un plano óptico para verificar si la superficie es plana
de acuerdo con los anillos de Newton mostrados.

45
2. Al medir un objeto metálico y al realizar una calibración con un bloque
patrón, tenga cuidado con la expansión térmica. Siempre que sea
posible, evite sostener el metal con las manos descubiertas, o use
guantes que no transmitan calor y que estén diseñados para trabajos
de precisión.
3. El intervalo de calibración para los micrómetros es de 3 meses a 1 año.
4. Desafíos con el micrómetro y solución
Lentitud
 Ajustar dispositivos de fijación complejos para la colocación de piezas
y configurar referencias toma mucho tiempo
 Aumentar el número de piezas o puntos de medición puede significar
un aumento exponencial del tiempo requerido
 La gestión de datos y la creación de reportes de inspección pueden ser
procesos tediosos
Inconsistencia
 Las diferencias en la forma en que se usa la herramienta pueden
resultar en valores inconsistentes
 Los cambios de enfoque por parte de diferentes operadores dan como
resultado valores inconsistentes
 Las mediciones se basan en gran medida en el juicio y la experiencia
del operador
Complicaciones
 Aprender a manejar el instrumento de medición toma tiempo
 Las dimensiones que requieren líneas o puntos virtuales añaden un
nivel más de complejidad
 Las mediciones sólo pueden ser realizadas por operadores capacitados

Calibradores de Rosca: Los calibradores de rosca, también conocidos como


"tornillos de rosca" o "comprobadores de paso", son herramientas específicas
para verificar las roscas internas y externas. Estas herramientas tienen roscas

46
maestras con dimensiones conocidas que se utilizan para comparar y
verificar las roscas de la pieza.

Tipos de Calibradores de Rosca:


Calibradores de Rosca Métrica: Utilizados para medir roscas métricas, que
se definen por el paso métrico y el diámetro en milímetros.
Calibradores de Rosca Whitworth: Para roscas de tipo Whitworth,
comunes en aplicaciones británicas.
Calibradores de Rosca UNF/UNC: Utilizados para medir roscas unificadas
finas (UNF) y roscas unificadas gruesas (UNC), que son estándares en los
Estados Unidos.
Calibradores de Rosca NPT: Diseñados para medir roscas cónicas
utilizadas en tuberías (rosca cónica nacional).
Componentes del Calibrador de Rosca:
Pernos y Tuercas de Referencia: Los calibradores de rosca a menudo
incluyen pernos y tuercas de referencia que tienen dimensiones conocidas y
están diseñados para verificar la conformidad de las roscas de prueba.
Uso de Calibradores de Rosca:

47
Para medir una rosca, el calibrador se enrosca en la pieza y se ajusta a la
forma y dimensiones específicas de esa rosca. Si la rosca cumple con las
especificaciones, el calibrador debería enroscarse suavemente.
Calibradores de Rosca Ajustables:
Algunos calibradores de rosca tienen piezas ajustables que permiten verificar
varias dimensiones de roscas utilizando un solo calibrador.
Calibradores de Paso de Rosca:
Además de verificar la forma y dimensiones, algunos calibradores de rosca
también indican el paso de la rosca.
Calibradores de Rosca de Plástico:
Se utilizan en aplicaciones donde la contaminación metálica debe evitarse,
como en la industria alimentaria o la fabricación de productos plásticos.
Calibradores de Rosca para Medidas Internas y Externas:
Hay calibradores diseñados para medir roscas internas y externas,
adaptándose a diferentes tipos de piezas y aplicaciones.

Comprobación Óptica: En algunos casos, se pueden utilizar técnicas


ópticas, como la proyección de sombras o sistemas de visión por
computadora, para inspeccionar visualmente la forma y el paso de las roscas.
Visión por Computadora:
La visión por computadora es esencial en la automatización industrial. Se
utiliza para la inspección de calidad en líneas de producción, donde las
cámaras capturan imágenes de productos en tiempo real, y los algoritmos
analizan esas imágenes para detectar defectos o variaciones. Esto puede
incluir la verificación de formas, colores, texturas y la posición de objetos.
Interferometría:
En la interferometría, se comparan las ondas de luz que se reflejan o se
transmiten desde una superficie. Esto permite mediciones precisas de la
altura, la forma y la rugosidad de las superficies. Es utilizado en la

48
fabricación de componentes ópticos, como lentes y espejos, donde la
precisión es crucial.
Microscopía Óptica:
La microscopía óptica permite la observación de estructuras a nivel
microscópico. Es vital en campos como la biología celular, la metalurgia y la
fabricación de dispositivos microelectrónicos. Los avances en la microscopía,
como la microscopía confocal y la microscopía de fluorescencia, han
ampliado las capacidades de observación y análisis.
Tomografía Óptica Coherente (OCT):
La OCT utiliza interferometría de baja coherencia para obtener imágenes
tridimensionales de tejidos biológicos. En medicina, se utiliza para la
visualización de estructuras oculares, la detección temprana de
enfermedades y la monitorización de tratamientos.
Inspección de Superficies:
Técnicas como la reflectometría se utilizan para medir la reflectividad de una
superficie, lo que puede indicar propiedades como la rugosidad. En la
inspección de recubrimientos, la polarimetría puede revelar información
sobre la orientación molecular y la calidad del recubrimiento.
Escaneo 3D Óptico:
Los sistemas de escaneo 3D óptico utilizan proyectores de luz estructurada o
cámaras estereoscópicas para capturar la geometría tridimensional de
objetos. Esto es valioso en ingeniería inversa, diseño de productos y control
de calidad para evaluar la forma y las dimensiones de objetos complejos.
Inspección de Color:
En la inspección de color, se utilizan sensores ópticos para evaluar la gama y
la uniformidad del color en productos. Es vital en la industria alimentaria
para garantizar la calidad y la consistencia del color de alimentos y bebidas.
Fluorescencia:
La fluorescencia se utiliza en diversas aplicaciones, desde la investigación
biomédica hasta la identificación de materiales en la industria. Las sustancias

49
fluorescentes emiten luz cuando se iluminan con luz específica, lo que
permite la detección de sustancias específicas.

Medición de Engranajes:
La historia de los engranajes se remonta a la antigüedad, donde se utilizaron
principalmente en dispositivos como molinos y relojes de agua. La
fabricación y medición eran rudimentarias, y la precisión no se consideraba
tan crítica como lo es hoy. Con la Revolución Industrial, la demanda de
maquinaria y sistemas mecánicos aumentó significativamente. La necesidad
de medir engranajes con mayor precisión se volvió evidente para garantizar
el rendimiento eficiente de las máquinas. A finales del siglo XIX y principios
del siglo XX, se establecieron estándares de medición de engranajes para
garantizar la interoperabilidad y la calidad en la fabricación. Organizaciones
como la American Gear Manufacturers Association (AGMA) jugaron un
papel clave en la elaboración de normas. A medida que avanzaba la
tecnología, se desarrollaron máquinas de medición de engranajes más
avanzadas, como las máquinas de medición por coordenadas (CMM) y las
máquinas de medición óptica, que permiten mediciones precisas y
automáticas.

Calibradores de Engranajes: Estos dispositivos específicos para engranajes


se utilizan para medir el paso, el ángulo de presión, el diámetro primitivo y
otras dimensiones clave de los engranajes.
Medidores de Diámetro de Pin: Los medidores de diámetro de pin son
herramientas que se utilizan para medir el diámetro primitivo de un
engranaje. Estas herramientas se colocan entre los dientes del engranaje para
obtener una medida precisa.
Medición por Coordenadas: Las máquinas de medición por coordenadas
(CMM) pueden utilizarse para medir con precisión las dimensiones de los
engranajes, incluidos el diámetro primitivo, el ángulo de presión y la
separación entre dientes. Esto se realiza mediante la exploración
tridimensional de los dientes del engranaje.

50
Medidores de Concentricidad: Los medidores de concentración se utilizan
para verificar la concentración de los ejes de dos engranajes en engranajes
coaxiales, lo que es crítico para la correcta transmisión de movimiento.
Inspección Visual: La inspección visual es una técnica inicial para detectar
daños evidentes, desgaste o defectos superficiales en los engranajes.
Perfilómetros: Los perfilómetros se utilizan para medir la rugosidad y la
textura superficial de los engranajes, lo que puede ser importante para la
durabilidad y el rendimiento de los engranajes.

Medición de roscas.

Se refiere al proceso de evaluar y verificar las características geométricas y


dimensionales de una rosca en una pieza o componente. Las roscas son
características comunes en la industria, especialmente en aplicaciones de
unión, como pernos, tornillos y tuercas. La medición de roscas es
fundamental para garantizar que estas piezas cumplan con las
especificaciones de diseño y funcionamiento.
Medición de engranajes.

La medición de engranajes es un proceso esencial en la industria para


evaluar y verificar las características dimensionales y geométricas de los
engranajes. Los engranajes son componentes utilizados en transmisiones de
potencia y sistemas de transmisión de movimiento, y su precisión es
fundamental para el rendimiento adecuado de maquinaria y equipos.
Normativas.

G)

Acotación funcional.

La acotación funcional es un método utilizado en el dibujo técnico y en la


ingeniería para especificar las dimensiones y tolerancias de una pieza o
componente de manera que se garantice su funcionamiento adecuado. En

51
lugar de proporcionar dimensiones exactas para cada característica, la
acotación funcional se centra en definir las relaciones y límites críticos entre
las diferentes características para garantizar que la pieza cumpla con su
función prevista.
Enfoque en la Función:
A diferencia de la acotación tradicional, que se centra en dimensiones
numéricas específicas, la acotación funcional se concentra en las funciones
que la pieza debe cumplir dentro de un sistema o ensamblaje.
Tolerancias Geométricas:
La acotación funcional utiliza tolerancias geométricas para controlar la
forma, orientación y posición de las características críticas de una pieza. Esto
permite especificar cómo debe comportarse la pieza en lugar de
simplemente qué tamaño debe tener.
Relación con la Tolerancia Dimensional:
La acotación funcional no excluye la tolerancia dimensional, pero la combina
con tolerancias geométricas para proporcionar un control más completo
sobre la forma y la función. La tolerancia dimensional puede establecer
límites específicos, mientras que las tolerancias geométricas garantizan la
funcionalidad.
Facilita la Interoperabilidad:
Al enfocarse en las funciones esenciales, la acotación funcional puede
facilitar la interoperabilidad entre piezas y ensamblajes fabricados por
diferentes proveedores. Esto es especialmente crucial en la fabricación de
componentes que deben ensamblarse y funcionar juntos.
Reducción de Costos y Mejora de la Eficiencia:
Al centrarse en las funciones clave, la acotación funcional puede permitir el
uso de métodos de fabricación más eficientes y rentables, ya que se evita la
necesidad de mantener tolerancias demasiado ajustadas en dimensiones no
críticas.
Ejemplo Práctico:

52
Supongamos que estás diseñando una bisagra para una puerta. En lugar de
especificar dimensiones precisas para cada parte de la bisagra, podrías
utilizar acotación funcional para asegurar que las partes se alineen
correctamente y que la bisagra pueda cumplir su función principal de
permitir el movimiento de la puerta.

Cadenas dimensionales.

Se refieren a una técnica específica utilizada en el dibujo técnico para


especificar dimensiones de manera eficiente y clara, especialmente cuando
se requiere transmitir una serie de dimensiones interdependientes. Esta
técnica se utiliza para dibujar un solo valor o una serie de valores
dimensionales que se derivan unos de otros y están relacionados en una
secuencia lógica.

La historia de las tolerancias dimensionales y las cadenas dimensionales está


vinculada al desarrollo de la ingeniería y la fabricación a lo largo del tiempo.
Aunque no hay un punto específico de inicio para estas prácticas, se pueden
rastrear sus orígenes a medida que la ingeniería y la fabricación se volvieron
más complejas y exigentes. Aquí hay un vistazo general a la evolución
histórica:
Revolución Industrial (Siglo XVIII - XIX):
Con el surgimiento de la Revolución Industrial, la fabricación experimentó
un cambio significativo. Las tolerancias dimensionales comenzaron a ser más
críticas a medida que la producción en masa se volvía más común. Sin

53
embargo, las tolerancias en este momento eran a menudo más amplias que
las que se utilizan en la fabricación moderna.
A finales del siglo XIX y principios del siglo XX, se reconoció la necesidad de
estándares en la fabricación. Organizaciones como la American Society of
Mechanical Engineers (ASME) y la International Organization for
Standardization (ISO) comenzaron a establecer normas para la tolerancia
dimensional.
A lo largo del siglo XX, se desarrollaron y refinaron normas específicas para
la tolerancia dimensional y geométrica. La ASME Y14.5, por ejemplo, se
convirtió en una norma ampliamente utilizada para la especificación de
tolerancias geométricas, incluyendo la acotación funcional y las cadenas
dimensionales.
A medida que avanzaba la tecnología, se desarrollaron instrumentos de
medición más precisos y sistemas de inspección automatizados. Esto
permitió un control más preciso y eficiente de las tolerancias en la
fabricación. Con el advenimiento de la informática, el software de modelado
y simulación se convirtió en una herramienta invaluable para evaluar y
gestionar tolerancias en el diseño. Los ingenieros pueden utilizar programas
para simular cómo las variaciones dimensionales afectan el rendimiento y la
funcionalidad.
La globalización de la fabricación llevó a un enfoque más uniforme en las
tolerancias a nivel internacional. Normas como las establecidas por la ISO se
convirtieron en referentes internacionales para garantizar la coherencia en
las prácticas de tolerancia. En el siglo XXI, con el surgimiento de la
fabricación aditiva, la inteligencia artificial y la Industria 4.0, las prácticas de
tolerancia dimensional están evolucionando para adaptarse a las tecnologías
y procesos de fabricación más avanzados.
Características:
1. La característica principal de las cadenas dimensionales es reconocer y
gestionar la interdependencia entre diferentes dimensiones. Las piezas
y componentes rara vez existen de forma aislada, y las tolerancias en

54
cadena permiten gestionar cómo las variaciones en una dimensión
afectan otras.
2. Las cadenas dimensionales se utilizan cuando es crucial mantener una
función global o un ajuste entre varias dimensiones. Esto es
especialmente relevante en ensamblajes y conjuntos donde la precisión
en la relación entre las piezas es esencial para el rendimiento.
3. La aplicación efectiva de cadenas dimensionales se ha visto facilitada
por el uso de software de modelado y simulación. Los ingenieros
pueden utilizar herramientas informáticas para simular cómo las
variaciones en las dimensiones afectan la función global del diseño.
4. Las cadenas dimensionales se validan a menudo a través de prototipos
y pruebas experimentales. Esto asegura que las tolerancias
acumulativas sean efectivas y cumplan con los requisitos de
rendimiento.
5. Las tolerancias dimensionales se utilizan para especificar la variación
permisible en las dimensiones de una pieza. Proporcionan precisión y
consistencia en la fabricación para garantizar que las piezas cumplan
con los requisitos de diseño.
6. Las tolerancias dimensionales pueden ser utilizadas para controlar el
ajuste funcional entre piezas. Esto es crucial en aplicaciones donde se
requiere un ajuste específico, como en la conexión de partes móviles o
en el ensamblaje de componentes.
7. Las normas y especificaciones, como las establecidas por
organizaciones como la ASME o la ISO, definen cómo deben aplicarse
las tolerancias dimensionales. Esto garantiza la uniformidad y la
comprensión común en la industria.
8. La Máxima Material Condicionante (MMC) y la Mínima Material
Condicionante (LMC) son conceptos que se utilizan para especificar
tolerancias en función del tamaño máximo o mínimo de una pieza.
Esto afecta cómo se aplican las tolerancias en diferentes condiciones.
Métodos para el cálculo del eslabón cerrante.

El cálculo del eslabón cerrante, también conocido como "cadena cinemática


cerrada" o "mecanismo cerrado", es un aspecto fundamental en el diseño de
mecanismos y sistemas que involucran múltiples componentes móviles

55
interconectados. El eslabón cerrante es el eslabón o conjunto de eslabones
que forma un lazo o circuito que puede repetirse indefinidamente.

La historia de los métodos para el cálculo del eslabón cerrante está vinculada
al desarrollo de esta disciplina y a la evolución de la teoría cinemática y
dinámica de máquinas.
Siglo XIX: Orígenes y Fundamentos
Mecanismos y Máquinas Analizados de Forma Gráfica:
En los primeros días, los ingenieros y científicos, como Franz Reuleaux y
Robert Willis, utilizaban métodos gráficos para analizar mecanismos y
máquinas. Estos métodos se basaban en representaciones gráficas para
visualizar el movimiento de las piezas en un eslabón cerrante.

Principios del Siglo XX: Métodos Analíticos y Algebraicos


Inicios de la Cinemática Analítica:
Con el trabajo de académicos como Franz Reuleaux y su obra "Theoretische
Kinematik," se introdujeron métodos analíticos y algebraicos para describir
el movimiento de los eslabones. La cinemática analítica comenzó a tomar
forma.
Década de 1950: Desarrollo de Métodos Computacionales
Introducción de Métodos Computacionales:
A medida que la computación electrónica se volvía más accesible, se
introdujeron métodos computacionales para analizar el movimiento de
eslabones cerrantes. Estos métodos permitían cálculos más complejos y
precisos.
Década de 1970: Métodos de Matrices y Software Específico
Uso de Matrices para Representar Eslabones:

56
La representación de eslabones mediante matrices de transformación
homogénea se convirtió en una práctica común. Esto facilitó los cálculos y
análisis de sistemas con múltiples eslabones.
Hoy en Día: Simulación y Software Avanzado
Simulación Dinámica y Modelado por Computadora:
Con el avance de la tecnología informática, se utilizan métodos de
simulación dinámica y modelado por computadora para analizar y diseñar
sistemas mecánicos con eslabones cerrantes. El software especializado
permite realizar análisis más complejos y detallados.
El desarrollo de los métodos para el cálculo del eslabón cerrante ha sido
impulsado por la necesidad de comprender y optimizar el rendimiento de
sistemas mecánicos. Desde los métodos gráficos iniciales hasta las técnicas
analíticas y, finalmente, el uso de herramientas computacionales avanzadas,
la evolución ha permitido un análisis más profundo y preciso de los
eslabones cerrantes en máquinas y mecanismos. La combinación de teoría y
tecnología ha llevado a una comprensión más completa de los sistemas
mecánicos y ha contribuido al diseño eficiente de maquinaria y sistemas
ingenieriles.

Metrología eléctrica.

La metrología eléctrica es la rama de la metrología que se ocupa de las


mediciones eléctricas, es decir, la medición de magnitudes eléctricas como
corriente, voltaje, resistencia, capacitancia, inductancia, y otras. A lo largo de
la historia, la metrología eléctrica ha experimentado un notable desarrollo, y
su evolución está vinculada al progreso de la ciencia y la tecnología eléctrica.
Siglo XIX: Los Inicios de la Electricidad
Descubrimientos de Volta y Galvani:
A finales del siglo XVIII, Alessandro Volta desarrolló la pila voltaica, una
fuente temprana de energía eléctrica. Los experimentos de Luigi Galvani con

57
animales muertos también contribuyeron a la comprensión de la electricidad
animal.
Ley de Ohm:
En 1827, el físico alemán Georg Simon Ohm formuló la Ley de Ohm, que
describe la relación entre corriente, voltaje y resistencia en un circuito
eléctrico.
Siglo XIX: Establecimiento de Estándares Eléctricos.

Desarrollo de Estándares Eléctricos:


A medida que la electricidad se convirtió en un componente esencial de la
sociedad industrial, la necesidad de estándares de medición eléctrica se
volvió evidente. En 1860, la Unión Internacional de Telecomunicaciones
(UIT) estableció los primeros estándares eléctricos.
Sistema Internacional de Unidades (SI):
A finales del siglo XIX, se establecieron los fundamentos para el Sistema
Internacional de Unidades (SI), que proporciona las unidades básicas para
medir magnitudes eléctricas.
Principios del Siglo XX: Desarrollo de Instrumentos de Medición
Desarrollo de Instrumentos de Medición:
A lo largo del siglo XX, se produjo un avance significativo en el desarrollo de
instrumentos de medición eléctrica. Surgieron multímetros, osciloscopios, y
otros dispositivos que permitían mediciones más precisas y eficientes.
Normalización Internacional:
Organizaciones internacionales como la Comisión Electrotécnica
Internacional (IEC) jugaron un papel crucial en la normalización de la
metrología eléctrica a nivel mundial.
Décadas Recientes: Tecnología Digital y Avances en Metrología Cuántica.

58
Tecnología Digital y Computadoras:
La incorporación de tecnología digital y el uso de computadoras
transformaron la forma en que se realizan las mediciones eléctricas. La
automatización y la capacidad de procesamiento de datos permitieron
mediciones más precisas y análisis más detallados.
Metrología Cuántica:
En años recientes, la metrología cuántica ha emergido como una disciplina
que utiliza principios de la mecánica cuántica para realizar mediciones
extremadamente precisas, incluso en el ámbito de la metrología eléctrica.
Es una disciplina de la metrología que se encarga de estudiar todo lo
relacionado con las mediciones eléctricas, como la tensión, la corriente, la
resistencia, la reactividad, etc.
Objetivo principal: Obtener y expresar magnitudes empleando
instrumentos, métodos y medios apropiados con exactitud requerida para
cada caso
Importancia: Las mediciones juegan un importante papel en la vida diaria
de las personas. Se encuentran en cualquiera de las actividades, desde la
estimación a simple vista de una distancia, hasta un proceso de control o la
investigación básica.
Unidades.

Son magnitudes de una cantidad física, definidas por una convención o ley
que establece un estándar para cualquier medición de la misma cantidad
física.
Instrumentación.

Es el proceso y el resultado de instrumentar. Este verbo se refiere a ubicar,


acomodar o arreglar ciertos instrumentos, a disponer de las partituras de una
determinada obra musical para los instrumentos que la tocarán, o a ordenar
o desarrollar algo.

59
Calibración.

Es la comparación documentada entre el dispositivo de medición que se va a


calibrar y un dispositivo de referencia trazable.

Principios Básicos de la calibración


1. En el proceso de calibración, se utiliza un estándar de medición
conocido y trazable. Este estándar debe tener una precisión mayor que
el instrumento que se está calibrando.
2. Si se encuentra una discrepancia entre la medición del instrumento y
el estándar, se realiza un ajuste o corrección para que las mediciones
del instrumento sean más precisas.
3. La trazabilidad es un principio clave en la calibración. Significa que la
cadena de comparaciones y ajustes se puede rastrear hasta un estándar
nacional o internacionalmente reconocido, garantizando la fiabilidad
de las mediciones.
Proceso de Calibración:
Se eligen estándares apropiados para la magnitud que se va a medir. Pueden
ser patrones físicos, dispositivos de referencia o estándares de laboratorio.
Frecuencia de Calibración:
La frecuencia con la que se debe calibrar un instrumento depende del tipo de
instrumento, su uso y la importancia de la precisión en las mediciones.
Algunos instrumentos pueden requerir calibración regular, mientras que
otros pueden tener intervalos más largos entre calibraciones.
Importancia de la Calibración:

60
1. La calibración garantiza que los instrumentos proporcionen
mediciones precisas y confiables, lo que es esencial en campos como la
investigación, la industria y la atención médica.
2. Muchas industrias están sujetas a regulaciones que exigen la
calibración regular de instrumentos. Cumplir con estas normativas es
esencial para la calidad y la conformidad.
3. En áreas como la salud y la seguridad, la precisión de las mediciones es
crítica. La calibración asegura que los dispositivos de medición
utilizados sean seguros y confiables.
4. La calibración contribuye a la optimización del rendimiento de los
instrumentos, lo que es esencial para la eficiencia y la calidad en los
procesos de producción y ensayo.

Verificación.

Es una acción que busca el control de los equipos e instrumentos con el


objetivo de garantizar la confiabilidad de las mediciones.
 El instrumento que se va a calibrar se compara con el estándar. Esto
puede involucrar mediciones directas o el uso de patrones de
referencia.
 Si se detecta una desviación, se realiza un ajuste para corregir las
lecturas del instrumento y alinearlas con el estándar de referencia.
 Se documentan los resultados de la calibración, incluyendo las lecturas
iniciales y finales, así como cualquier ajuste realizado.
 Se emite un certificado de calibración que proporciona detalles sobre
la calibración, incluyendo la trazabilidad, las condiciones ambientales
durante la calibración y los resultados obtenidos.

61
Medida de presión.

Es una forma de cuantificar la fuerza ejercida sobre una superficie. Se


expresa en unidades de presión y se utiliza para describir una amplia
variedad de fenómenos físicos y aplicaciones en la vida cotidiana.
Pascal (Pa): El pascal es la unidad de presión del Sistema Internacional (SI).
Un pascal es igual a un newton por metro cuadrado (1 Pa = 1 N/m²). Esta
unidad se utiliza en aplicaciones científicas y técnicas.
Bar (bar): El bar es una unidad de presión ampliamente utilizada en la
industria y la vida cotidiana. Un bar es aproximadamente igual a 100,000
pascales (1 bar = 100,000 Pa). Es una unidad conveniente para describir la
presión atmosférica estándar al nivel del mar, que es de aproximadamente
1.01325 bares.
Calibración y verificación.

La verificación, la validación y la calibración son procesos diferentes pero


interrelacionados que a veces se combinan entre sí y se interpretan como
sinónimos. Además, su interpretación y aplicación varían de una industria a
otra. Pregunte a tres personas qué significan estos términos, y obtendrá tres
respuestas diferentes. Por favor, siéntase libre de responder con su propia
perspectiva dejándonos un comentario a continuación. La calibración de
CalibrationFlow es un proceso doble de medición y ajuste de la precisión de
un instrumento en relación con un estándar de medición conocido llamado
estándar de calibración. Este proceso comienza comparando el flujo medido
de un medidor o controlador con el del estándar de calibración. Después de
esta evaluación, el medidor o controlador se fabrica para cumplir con las
lecturas del estándar de calibración dentro de las especificaciones de
precisión establecidas.

La calibración de CalibrationFlow es un proceso doble de medición y ajuste


de la precisión de un instrumento en relación con un estándar de medición

62
conocido llamado estándar de calibración. Este proceso comienza
comparando el flujo medido de un medidor o controlador con el del
estándar de calibración. Después de esta evaluación, el medidor o
controlador se fabrica para cumplir con las lecturas del estándar de
calibración dentro de las especificaciones de precisión establecidas

Medida de temperatura.

Es una forma de cuantificar el grado de calor o frío de un objeto, sustancia o


ambiente. Existen varias escalas de temperatura y unidades de medida para
expresarla. Las tres escalas de temperatura más comunes son Celsius (°C),
Fahrenheit (°F) y Kelvin (K).
Medida de masa.

Es la cuantificación de la cantidad de materia que contiene un objeto o una


sustancia. La unidad de medida de la masa varía según el sistema de
unidades utilizado, pero las unidades más comunes son el kilogramo (kg), el
gramo (g) y la libra (lb).

63

También podría gustarte