Está en la página 1de 3

Período de entreguerras

La palabra confiabilidad se remonta a 1816 y se le atribuye por primera vez al poeta Samuel


Taylor Coleridge, el término estaba vinculado principalmente a la repetibilidad; una prueba (en
cualquier tipo de ciencia) se consideraba "confiable" si se obtenían los mismos resultados
repetidamente. 

 En la década de 1920, el Dr. Walter A. Shewhart de Bell Labs promovió la mejora del producto


mediante el uso del control estadístico de procesos8 en la época en que Waloddi
Weibull estaba trabajando en modelos estadísticos para la fatiga.

 El uso moderno de la palabra confiabilidad fue definido por el ejército estadounidense en la
década de 1940, caracterizando un producto que operaría cuando se esperaba y durante un
período de tiempo específico.

Segunda Guerra Mundial

muchos problemas de confiabilidad se debieron a la falta de confiabilidad inherente de los


equipos electrónicos disponibles en ese momento y a problemas de fatiga. En 1945, MA Miner
publicó el artículo fundamental titulado "Daño acumulativo en la fatiga" en una revista de
ASME. Una aplicación principal de la ingeniería de confiabilidad en el ejército fue el tubo de
vacío utilizado en sistemas de radar y otros componentes electrónicos, para los cuales la
confiabilidad resultó ser muy problemática y costosa

La IEEE formó la Reliability Society en 1948

En 1950, el Departamento de Defensa de los Estados Unidos formó un grupo llamado "Grupo


Asesor sobre la Confiabilidad de Equipos Electrónicos" (Advisory Group on the Reliability of
Electronic Equipment, AGREE) para investigar métodos de confiabilidad para equipos militares.

Este grupo recomendó tres formas principales de trabajo:

 Mejorar la confiabilidad de los componentes.

 Establecer requisitos de calidad y confiabilidad para proveedores.

 Recopilar datos de campo y encontrar las causas fundamentales de las fallas.

En  la  década  de  1950  comenzó  el  desarrollo  de  la  industria  nuclear,  y  los conceptos
relacionados con la confiabilidad fueron usados de forma creciente en el  diseño  de  las
plantas  nucleares  y  de  sus  sistemas  de  seguridad.

 Hasta principios de los años 60’s los estudios teóricos y prácticos sobre confiabilidad eran
realizados fundamentalmente en los Estados y la Unión Soviética.

En la década de 1960, se le dio más énfasis a las pruebas de confiabilidad a nivel de


componentes y sistemas. El famoso estándar militar MIL-STD-781 fue creado en ese momento.
Alrededor de este período, la RCA también publicó el muy utilizado predecesor del manual
militar 217, que se utilizó para predecir las tasas de falla de los componentes electrónicos. 

1970 La crisis del petróleo, a principios de la década de los setenta, generó un cambio en la
economía mundial y marcó el inicio del liderazgo japonés en la calidad y la confiabilidad de
productos y servicios. (Lawless, 1983) para detalles del desarrollo técnico en ese período
En la década de 1980, los televisores estaban compuestos cada vez más por semiconductores
de estado sólido. Los automóviles aumentaron rápidamente el uso de semiconductores con
una variedad de microcomputadoras debajo del capó y en el tablero. Los grandes sistemas de
aire acondicionado desarrollaron controladores electrónicos, como los que ya tenían los
hornos microondas y una variedad de otros aparatos. Los sistemas de comunicaciones
comenzaron a adoptar la electrónica para reemplazar los sistemas de conmutación mecánicos
más antiguos. Bellcore emitió la primera metodología de predicción del consumidor para
telecomunicaciones y SAE desarrolló un documento similar (SAE870050) para aplicaciones
automotrices. La naturaleza de las predicciones evolucionó durante la década, y se hizo
evidente que la complejidad de la matriz no era el único factor que determinaba las tasas de
falla de los circuitos integrados (CI). Kam Wong publicó un artículo cuestionando la curva de la
bañera10 —véase también el mantenimiento centrado en la confiabilidad . Durante esta
década, la tasa de fallas de muchos componentes se redujo en un factor de 10. El software se
volvió importante para la confiabilidad de los sistemas. 

 En la década de 1990, el ritmo del desarrollo de los circuitos integrados se estaba acelerando.
Era común un uso más amplio de microcomputadoras independientes, y el mercado de las PC
ayudó a mantener las densidades de IC siguiendo la ley de Moore y duplicándose cada 18
meses. La ingeniería de confiabilidad ahora estaba cambiando a medida que avanzaba hacia la
comprensión de la física del fallo . Las tasas de fallas de los componentes siguieron cayendo,
pero los problemas a nivel del sistema se hicieron más prominentes. El pensamiento
sistémico se volvió cada vez más importante. Para el software, se desarrolló el modelo CMM
(Capability Maturity Model), que dio un enfoque más cualitativo a la confiabilidad. ISO 9000
agregó medidas de confiabilidad como parte de la parte de diseño y desarrollo de la
certificación. La expansión de la World-Wide Web creó nuevos desafíos de seguridad y
confianza. El antiguo problema de la escasez de información fiable disponible ha sido
reemplazado ahora por demasiada información de valor cuestionable. Los problemas de
confiabilidad del consumidor ahora podrían discutirse en línea en tiempo real utilizando datos.
Las nuevas tecnologías como los sistemas microelectromecánicos (MEMS), el GPS de mano y
los dispositivos de mano que combinan teléfonos móviles y computadoras representan
desafíos para mantener la confiabilidad. El tiempo de desarrollo del producto siguió
acortándose durante esta década y lo que se había hecho en tres años se estaba haciendo en
18 meses. Esto significaba que las herramientas y tareas de confiabilidad tenían que estar más
estrechamente vinculadas al proceso de desarrollo en sí. De muchas formas, la fiabilidad se
convirtió en parte de la vida diaria y de las expectativas del consumidor.

Una definición probabilística común de confiabilidad, (Meeker y Escobar, 1998), es la siguiente:


``confiabilidad es la probabilidad de que una unidad realice su función hasta un tiempo
especificado bajo las condiciones de uso encontradas.''

(Lawless, 2000) dice ``la confiabilidad se refiere al funcionamiento adecuado de equipos y


sistemas, lo cual incluye factores como software, hardware, humanos y ambientales.'' Este es
un concepto más amplio y muestra la complejidad de lo que se entiende por confiabilidad, su
evaluación, el mantenimiento y su mejora.

(Condra, 2001) afirma que ``un producto confiable es aquel que hace lo que el usuario quiere
que haga cuando el usuario quiere que lo haga.'' De acuerdo con esto, la confiabilidad es
calidad a través del tiempo, por lo tanto un producto confiable debe permanecer dentro de sus
límites de especificación durante su vida tecnológica

(Cruz & Leonel, 2014) mencionan que la palabra confiabilidad designa la


probabilidad de que un sistema cumpla satisfactoriamente con la función
para la que f ue diseñado, durante determinado período y en condiciones
especificadas de operación. Así un evento que interrumpa ese
funcionamiento se denomina falla. 
Actualidad

Hoy en día las industrias enfrentan una competencia global intensa, un mercado globalizado y
complejo, una presión por ciclos de producción más cortos, restricciones de costo más severas,
así como expectativas de mejor calidad y confiabilidad de parte de los consumidores. Este
ambiente presenta retos formidables de administración, ingeniería y estadística.

A finales de la década de los 70, se empiezan a aplicar en las empresas las filosofías de
Mantenimiento Productivo Total (TPM) y Mantenimiento Centrado en Fiabilidad (RCM). El
RCM es un proceso desarrollado durante los años 60`s y 70’s con la finalidad de ayudar las
empresas a determinar las políticas más adecuadas para mejorar las funciones de los activos
físicos y para manejar las consecuencias de sus fallos. Este proceso surgió en la industria de la
aviación comercial internacional de Estados Unidos, impulsado por la necesidad de optimizar la
fiabilidad, y ha evolucionado de forma continua desde sus inicios en 1960.

También podría gustarte