Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El uso moderno de la palabra confiabilidad fue definido por el ejército estadounidense en la
década de 1940, caracterizando un producto que operaría cuando se esperaba y durante un
período de tiempo específico.
En la década de 1950 comenzó el desarrollo de la industria nuclear, y los conceptos
relacionados con la confiabilidad fueron usados de forma creciente en el diseño de las
plantas nucleares y de sus sistemas de seguridad.
Hasta principios de los años 60’s los estudios teóricos y prácticos sobre confiabilidad eran
realizados fundamentalmente en los Estados y la Unión Soviética.
1970 La crisis del petróleo, a principios de la década de los setenta, generó un cambio en la
economía mundial y marcó el inicio del liderazgo japonés en la calidad y la confiabilidad de
productos y servicios. (Lawless, 1983) para detalles del desarrollo técnico en ese período
En la década de 1980, los televisores estaban compuestos cada vez más por semiconductores
de estado sólido. Los automóviles aumentaron rápidamente el uso de semiconductores con
una variedad de microcomputadoras debajo del capó y en el tablero. Los grandes sistemas de
aire acondicionado desarrollaron controladores electrónicos, como los que ya tenían los
hornos microondas y una variedad de otros aparatos. Los sistemas de comunicaciones
comenzaron a adoptar la electrónica para reemplazar los sistemas de conmutación mecánicos
más antiguos. Bellcore emitió la primera metodología de predicción del consumidor para
telecomunicaciones y SAE desarrolló un documento similar (SAE870050) para aplicaciones
automotrices. La naturaleza de las predicciones evolucionó durante la década, y se hizo
evidente que la complejidad de la matriz no era el único factor que determinaba las tasas de
falla de los circuitos integrados (CI). Kam Wong publicó un artículo cuestionando la curva de la
bañera10 —véase también el mantenimiento centrado en la confiabilidad . Durante esta
década, la tasa de fallas de muchos componentes se redujo en un factor de 10. El software se
volvió importante para la confiabilidad de los sistemas.
En la década de 1990, el ritmo del desarrollo de los circuitos integrados se estaba acelerando.
Era común un uso más amplio de microcomputadoras independientes, y el mercado de las PC
ayudó a mantener las densidades de IC siguiendo la ley de Moore y duplicándose cada 18
meses. La ingeniería de confiabilidad ahora estaba cambiando a medida que avanzaba hacia la
comprensión de la física del fallo . Las tasas de fallas de los componentes siguieron cayendo,
pero los problemas a nivel del sistema se hicieron más prominentes. El pensamiento
sistémico se volvió cada vez más importante. Para el software, se desarrolló el modelo CMM
(Capability Maturity Model), que dio un enfoque más cualitativo a la confiabilidad. ISO 9000
agregó medidas de confiabilidad como parte de la parte de diseño y desarrollo de la
certificación. La expansión de la World-Wide Web creó nuevos desafíos de seguridad y
confianza. El antiguo problema de la escasez de información fiable disponible ha sido
reemplazado ahora por demasiada información de valor cuestionable. Los problemas de
confiabilidad del consumidor ahora podrían discutirse en línea en tiempo real utilizando datos.
Las nuevas tecnologías como los sistemas microelectromecánicos (MEMS), el GPS de mano y
los dispositivos de mano que combinan teléfonos móviles y computadoras representan
desafíos para mantener la confiabilidad. El tiempo de desarrollo del producto siguió
acortándose durante esta década y lo que se había hecho en tres años se estaba haciendo en
18 meses. Esto significaba que las herramientas y tareas de confiabilidad tenían que estar más
estrechamente vinculadas al proceso de desarrollo en sí. De muchas formas, la fiabilidad se
convirtió en parte de la vida diaria y de las expectativas del consumidor.
(Condra, 2001) afirma que ``un producto confiable es aquel que hace lo que el usuario quiere
que haga cuando el usuario quiere que lo haga.'' De acuerdo con esto, la confiabilidad es
calidad a través del tiempo, por lo tanto un producto confiable debe permanecer dentro de sus
límites de especificación durante su vida tecnológica
Hoy en día las industrias enfrentan una competencia global intensa, un mercado globalizado y
complejo, una presión por ciclos de producción más cortos, restricciones de costo más severas,
así como expectativas de mejor calidad y confiabilidad de parte de los consumidores. Este
ambiente presenta retos formidables de administración, ingeniería y estadística.
A finales de la década de los 70, se empiezan a aplicar en las empresas las filosofías de
Mantenimiento Productivo Total (TPM) y Mantenimiento Centrado en Fiabilidad (RCM). El
RCM es un proceso desarrollado durante los años 60`s y 70’s con la finalidad de ayudar las
empresas a determinar las políticas más adecuadas para mejorar las funciones de los activos
físicos y para manejar las consecuencias de sus fallos. Este proceso surgió en la industria de la
aviación comercial internacional de Estados Unidos, impulsado por la necesidad de optimizar la
fiabilidad, y ha evolucionado de forma continua desde sus inicios en 1960.