Está en la página 1de 4

Teoría de la Confiabilidad

El análisis de la confiabilidad agrupa distintos conceptos, desarrollo de métodos


(Matemáticos y Estadísticos) y desarrollo de teorías; estudios de planes organizacionales,
algunas prácticas operativas, con el fin de solucionar problemas, poder tener un rango de
predicción y definir la capacidad de optimizar un sistema ante la presencia de fallas. Este
análisis de confiabilidad cumple su principal función en el sector industrial o más
exactamente en la actividad productiva desarrollada por el hombre. En la actualidad este
análisis de confiabilidad se le ha dado un gran aumento de importancia debido al desarrollo
acelerado que se ha presentado en los últimos años [1].
Es por eso que la confiabilidad se podría definir como la probabilidad de que un sistema
realice de forma satisfactoria el trabajo para el cual éste fue diseñado, teniendo en cuenta
variables importantes como un periodo determinado de tiempo, bajo condiciones de
operatividad, de seguridad y ambiental predefinidas [2].
El desarrollo de teoría y técnicas para realizar el correcto análisis de confiablidad de
diferentes sistemas ha estado asociado con el desarrollo de campos como la aeronáutica,
militar y nuclear. Las primeras concepciones del análisis de confiablidad se dieron en un
periodo previo a la segunda guerra mundial, donde se realizaron cálculos que pudieran
garantizar la seguridad para aviones con varios motores y su capacidad para prescindir de
alguno de esos motores. Otro registro importante que se tiene es del departamento de
defensa de los Estados Unidos en la guerra de corea, donde se realizó un plan de estudios
de equipos electrónicos militares que estaban provocando fallos y a su vez grandes pérdidas
económicas [3].
Más adelante en 1950, cuando comenzó el desarrollo nuclear, los análisis de confianza
cobraron gran importancia en la construcción de plantas nucleares y su alto grado de
seguridad que requiere un proyecto como este; hasta la década d los sesenta, los estudios
de confiabilidad eran desarrollados por los Estados Unidos y la Unión Soviética. Ya en la
década de los años setenta se define una teoría sólida de confiabilidad [3]. En la figura 3.1,
se presenta una gráfica que muestra de manera clara como ha sido el desarrollo de la
confiabilidad, pero más exactamente la evolución del mantenimiento para diferentes
periodos.
La teoría de confiablidad se presentó de manera clara en 1978 por Stanley Nowlan y Howard
Heap, ligado con el desempeño de las aerolíneas (American Airlines) y en 1980 se
implementa un proceso de mantenimiento basado en ese análisis de confiabilidad en
diferentes industrias del mundo. Ya en la década de los ochentas los estudios se centraron
más en el estudio de las fallas y el análisis de causas.
Figura 3.1. Evolución del mantenimiento desde 1940 hasta 2005 [2]

Con el análisis de la confiabilidad de un sistema se ha adjuntado un tema de costos, debido


a que con el avanza de la industria, los estudios de ésta deben ser más precisos, el papel de
la experiencia juega un papel importante y la implementación de tecnología avanzada se ha
venido acelerando. Sin embargo, con el incremento de la confiabilidad dentro de los
distintos procesos de un sistema, se ha producido una disminución de costos provocados
por las fallas y mantenimiento. La figura 2.2 muestra como es la relación entre el costo y la
confiabilidad.

Figura 3.2 Nivel óptimo de confiablidad [1]

Esta gráfica muestra los costos totales, se atribuyen a los costos por fallas, por
mantenimiento, costos por recambio y costos de falta de productividad (ineficiencia).
Entrando en una parte más teórica, para poder realizar de manera más eficiente el cálculo
de la confiablidad y de algunos indicadores de confiabilidad como lo son el tiempo medio
entre fallas (MTBF) y el tiempo Medio para Reparar (MTTR) de los componentes y el modelo
de falla, es necesario realizar una modelación de la distribución de fallas mediante métodos
analíticos, más exactamente probabilísticos; para ello es necesario tener en cuenta
diferentes variables [2]:
- Naturaleza Física
- Datos experimentales y/o comportamientos similares de componentes conocidos
- Suposiciones asociadas a la distribución
- La forma de la gráfica al realizarse una disposición de los datos
- La conveniencia y simplicidad en los cálculos después de adoptar el tipo de
distribución
Con los datos graficados en histogramas es posible determinar cuál es la distribución que
mejor se ajusta a la población de los datos tomados en el análisis de fallas, pero resulta más
fácil aplicar métodos de bondad de ajuste, “Chi- Cuadrado”, “Kolmogorov – Smirnov” [2]
Las distribuciones más aplicadas a los modelos de fallas son, la exponencial, Weibull,
Normal y Gamma, cada una posee características que serán expuestas a continuación:
Distribución exponencial
Para poder realizar la modelación de un fenómeno es necesario realizar en ocasiones ciertos
tipos de suposiciones que simplifican este modelo, una distribución que se ajusta a estas
simplificaciones es la exponencial, que se basa en la suposición de que un elemento
(producto), se sigue comportando de igual forma tanto nuevo como viejo [2]. Se define
entonces que el parámetro será λ, que representa las fallas del sistema. La función de
distribución acumulada será la función de distribución de falla o función de inconfiabilidad.
Distribución Weibull
Se utiliza principalmente para representar la vida de los componentes de servicio. Esta
distribución ha sido usada para describir variaciones en la resistencia de fatiga del acero y
la vida útil de tubos y equipos electrónicos. Los parámetros son:
- Parámetro de posición ℽ, que se define como el tiempo supuesto antes de la
ocurrencia de una falla
- Parámetro de escala o característica de vida, η
- Parámetro de forma, β, caracteriza la función
Esta distribución puede representar un modelo adecuado para cualquier ley de fallas,
siempre y cuando el sistema este compuesto por componentes y las fallas se deba a un
defecto en un gran número de elementos del sistema [2]
Distribución Normal
Esta distribución se aplica cuando la vida útil de los componentes de un equipo o los de un
sistema son afectados desde un inicio por el desgaste. Además de esto para su utilización
se realiza un truncamiento debido a que la duración de vida tiene valores positivos. El
truncamiento realizado es que se toman valores entre cero e infinito, ya que la vida útil de
un componente no posee valores negativos.
Distribución Gamma
Se aplica esta distribución cuando se desea obtener la distribución del tiempo necesario
para obtener un número determinado de ocurrencias de un suceso. El parámetro κ es el
parámetro de forma (Define la forma de la distribución), el parámetro λ es el parámetro de
localización.

También podría gustarte