Está en la página 1de 8

El problema de la

incertidumbre
Que hacer cuando sus planes de confiabilidad no se
ven muy confiables
Cuando se esta enfrentado a la incertidumbre nuestra reacción humana
instintiva es a menudo la indecisión y la angustia. Todos preferiríamos
que el timing y el resultado de nuestras decisiones fuesen conocidos con
certeza. Puesto de otra manera, nos gustaría que todos los problemas y
sus soluciones fuesen deterministas. Los problemas en los cuales el timing
y el resultado de una acción dependen del azar se conocen como
probabilisticos ortocásticos. Sin embargo, en el mantenimiento no
podemos ignorar dichos problemas ya que la incertidumbre es inevitable.
De preferencia, nuestra meta es cuantificar las incertidumbres asociadas
con las decisiones significativas de mantenimiento para revelar el curso de
acción más apropiado para lograr nuestro objetivo. Los métodos
descritos en este capítulo no solo lo ayudarán a lidiar con la
incertidumbre sino que pueden, esperamos, persuadirlo a que trate este
fenómeno como a un aliado mas que como a un enemigo.

A cuantos de nosotros nos han dicho desde la niñez que “la falla es la madre del éxito” y
que “a partir de los errores se aprende”. En ningún otro lugar esta sabiduría popular es más
valiosa que en un departamento de mantenimiento que haga uso de herramientas de
ingeniería de confiabilidad. En un ambiente tan iluminado, las fallas – un hecho
impersonal de la vida – pueden ser tratadas y convertidas en conocimiento valioso seguido
de una acción productiva. Para obtener esta elevada, pero alcanzable meta en nuestras
operaciones, nosotros requerimos de un sólido enfoque cuantitativo para lidiar con la
incertidumbre en el mantenimiento. Por esta razón, comencemos nuestro ascenso en tierra
sólida – el fácilmente conceptuado histograma de frecuencia relativa de las fallas pasadas.

Las cuatro funciones básicas

En esta sección nosotros descubriremos el Histograma de Frecuencia Relativa y las cuatro


funciones básicas: 1) la función de densidad (probabilidad); 2) la función de distribución
acumulativa; 3) la función de confiabilidad; y 4) la función de riesgo.
Asuma que de una población de 48 ítems comprados y puestos en servicio a principio del
año todos fallan al llegar noviembre.

Haga una lista de las fallas según la temporalidad de las fallas tal como aparece en la figura

1. Agrúpelas en segmentos convenientes de tiempo, en este caso en meses. Trace el número


de fallas en cada segmento como en la figura 2 Las barras altas del centro representan
los tiempos más “populares” o probables de falla. Sumando el número de fallas que
ocurrieron antes de abril, es decir 14, y dividiendo la suma por el número total de la
población, 48, podemos estimar que la probabilidad acumulativa de que el ítem falle en
el primer cuarto del año es de 14/48. La probabilidad de que todos los ítems fallen
antes de noviembre es 48/48 o 1.

Figura 1: Fallas mensuales para 48 ítems en servicio


Número de fallas

Tiempo de la falla

Figura 2: Histograma de edades de las fallas

Al transformar el número de fallas en probabilidades, el histograma de frecuencias relativas


puede ser convertido en una forma matemática más útil llamada la función de densidad de
probabilidad (PDF). Para hacerlo, los datos son trazados nuevamente de tal forma que el
área bajo la curva represente la probabilidad acumulativa de falla como se muestra en la
figura 3. (La manera en que se calcula la PDF y como se dibuja serán discutidas de una
manera más extensa .)
El área total bajo la curva de la función de densidad f(t) es 1, ya que tarde o temprano el
ítem fallará. La probabilidad de que el componente falle antes de o en el tiempo t es igual
al área bajo la curva entre 0 y el tiempo t. Esa área es F(t), la función de distribución
acumulativa (CDF). Se sigue entonces que el área restante (sombreada) es la probabilidad
de que el componente sobreviva hasta el tiempo t y es conocida como la función de
confiabilidad, R(t). La R(t) puede ser trazada por si sola a través del tiempo. Si uno lo
hace así, el tiempo medio entre falla (MTTF) es el área bajo la curva de Confiabilidad o la
R(t)dt [ref. 1]. De la función de confiabilidad R(t) y la función de densidad de
probabilidad f(t) podemos derivar una cuarta función útil, la tasa de falla o función de
riesgo, h(t) = f(t)/R(t) que puede ser representada gráficamente como en la figura 4. La
función de riesgo es la probabilidad instantánea de falla a un tiempo dado t.

Area R(t) es la
probabilidad de que
el ítem sobreviva el
tiempo t.

Area f(t) es la
probabilidad de
falla antes de o
en el tiempo t.

Figura 3: Densidad de Probabilidad, probabilidad


acumulativa y función de confiabilidad

Resumen

En solamente unos cortos párrafos hemos aprendido las cuatro funciones básicas en la
ingeniería de confiabilidad: la PDF o función de densidad de probabilidad f(t); la CDF o
función de distribución acumulativa F(t); la función de confiabilidad R(t); y la función de
riesgo h(t). Al saber cualquiera de estas, podemos derivar las otras tres. Armados con estos
conceptos estadísticos fundamentales podemos salir a combatir con el azar de la ocurrencia
de las fallas a través de nuestra planta. A pesar de que las fallas son eventos inciertos
deberíamos, no obstante, descubrir como determinar los mejores momentos para realizar
mantenimiento preventivo y las mejores políticas de mantenimiento de largo plazo.
Habiendo estimado “con seguridad” (es decir con un nivel dado y aceptable de confianza)
la PDF (por ejemplo) debemos basarnos en ella o en sus funciones hermanas para construir
modelos de optimización. Los modelos describen situaciones típicas de mantenimiento
representándolas en ecuaciones matemáticas. Eso lo hace muy conveniente si es que
deseamos optimizar el modelo. El objetivo de la optimización es generalmente lograr el
menor costo promedio de largo plazo del mantenimiento de nuestro equipo de producción.

Distribuciones típicas

En la sección anterior definimos las cuatro funciones claves que podemos aplicar a nuestros
datos cuando de alguna manera los hemos transformado en una distribución de
probabilidad. El paso que es requisito para convertir o ajustar los datos es el tema de esta
sección.

¿Cómo encuentra uno la PDF real para un componente o sistema real? Hay dos enfoques
posibles para este problema:

1. Ajuste los datos obtenidos de las pruebas de ciclo de vida del equipo, o
2. Haga una hipótesis que diga que será una cierta función parametrizada cuyos
parámetros puedan ser estimados por medio de técnicas estadísticas de muestreo y
de la realización de numerosas pruebas de confianza. Este enfoque será el que
adoptaremos.

Tomando en cuenta observaciones de fallas pasadas descubrimos que las funciones de


densidad de probabilidad (y por lo tanto sus funciones derivadas de confiabilidad,
distribución acumulada y función de riesgo) de datos reales generalmente se ajustaban a un
conjunto de formulas matemáticas cuyas características ya son familiares para los
ingenieros de confiabilidad. Estas distribuciones conocidas incluyen la exponencial, la de
Weibull, la Lognormal y la Normal. Estas pueden ser completamente descritas si es que
uno puede estimar sus parámetros.

Por ejemplo, la CDF de Weibull es:

F(t) = 1 – e-(t/), donde t  0

Los parámetros  y  pueden ser estimados de los datos usando los métodos que serán
descritos. Una vez que hayamos estimado sus parámetros con certeza podremos procesar,
mediante el uso de una de las distribuciones conocidas, nuestros datos de falla y
reemplazo. Lo hacemos por medio de la manipulación de las funciones estadísticas que
aprendimos en la sección anterior para así: a) entender nuestro problema; y b) predecir
fallas y analizar el riesgo para hacer mejores decisiones de mantenimiento. Esas decisiones
van a producir un impacto en el tiempo en el que elijamos para reparar, reemplazar o
reacondicionar maquinaria así también como ayudarnos a optimizar muchas otras
decisiones de mantenimiento.

El truco está compuesto de tres partes: 1) reunir buenos datos; 2) elegir la función
apropiada que represente nuestra propia situación y luego estimar los parámetros de la
función, y finalmente; 3) evaluar el nivel de confianza que podamos tener en el modelo
resultante. Hay softwares modernos que hacen que este proceso sea fácil y divertido.
Siendo mucho más que un juguete para los ingenieros, el software de confiabilidad nos
entrega la habilidad de comunicar y compartir con nuestra gerencia la meta común del
negocio – idear y seleccionar procedimientos que minimicen los costos y el riesgo mientras
mantengan o aumenten el producto y la calidad de este. Las cuatro funciones de tasa de
falla o funciones de riesgo correspondientes a las cuatro funciones de densidad
(exponencial, Weibull, lognormal, y normal) están mostradas en la figura 21.

Exponencial Weibull Lognormal Normal

Figura 4: Curvas de función de riesgo para las distribuciones de fallas comunes

De las cuatro, los datos observados generalmente se aproximan más a la distribución de


Weibull. Eso es afortunado – y fue subestimado por Waloddi Weibull en persona quien
dijo mientras entregaba su ensayo en 1951 “...puede ser que alguna vez rinda un buen
servicio”. La reacción a su ensayo varió desde el escepticismo directamente hasta el
rechazo. A la larga, tal como las buenas ideas que caen en tierra fértil y generan vida, la
Fuerza Aérea de Estados Unidos reconoció y costeó la investigación de Weibull por los
siguientes 24 años hasta 1975. Hoy el análisis de Weibull es el método líder en el mundo
para ajustar los datos de ciclo de vida [ref. 3].

El objetivo de este capítulo es traer a la atención de los profesionales de mantenimiento


tales métodos de toma de decisiones y mostrar que son esfuerzos provechosos cuyo uso
vale la pena en la administración de los activos físicos de su compañía.

Un ejemplo

Concretemos estos conceptos usando un ejemplo que ilustra como uno puede extraer
información significativa de los datos de las fallas. Asuma que hemos determinado (usando
los métodos que serán discutidos más adelante en este capítulo y en el capítulo 7) que un
componente eléctrico tiene la función de distribución acumulativa exponencial, F(t) = 1- et,
donde  = 0.0000004 hr – 1.

Tenemos entonces la respuesta a lo siguiente:

a) ¿Cuál es la probabilidad de que una de estas partes falle antes de 15,000 horas de uso?
b) ¿Cuánto tiempo debemos esperar para alcanzar un 1% de fallas?
a) F(t) = 1- et = 1 – e0.0000004 x 15,000 = 0.001 = 0.6%

Reordenando

b) t = -ln(1 – F(t))/ = ln(1 - .01)/.0000004 = 25.126 hrs.

c) ¿Cual sería el tiempo medio entre falla (MTTF)?

MTTF = R(t)dt =  etdt = 1/ = 250,000 hrs.

c) ¿Cuál sería la mediana del tiempo medio entre falla (el tiempo en el cual la mitad de la
población ha fallado)?

F(T50) = 0.5 = 1- et50

T50 = ln2/ = 0.693/.0000004 = 1,732,868 hrs.

Este es el tipo de información que podemos obtener al examinar nuestros datos usando los
principios de la ingeniería de confiabilidad incorporados en el software. Siga leyendo para
descubrir como hacerlo.

Consideraciones de la vida real – el problema de los datos

Irónicamente, a menudo dejamos que la poca información requerida para la gestión de la


confiabilidad se nos escape entre los dedos mientras perseguimos implacablemente el
siempre elusivo control sobre los costos de mantenimiento de nuestra planta y equipo
productivo. La administración de los datos es el primer paso hacia una gestión de activos
físicos exitosa. Buenos datos personifican a una rica experiencia de la cual uno puede
aprender – y por ende mejorar basado en ella – el actual proceso de gestión de
mantenimiento de su compañía. Un rol esencial de la alta gerencia es colocar amplios
recursos computacionales y métodos científicos en manos de los profesionales de
mantenimiento que han sido entrenados para colectar, filtrar, y procesar datos con el
propósito explícito de guiar nuestras decisiones. La intención de este capítulo es inspirar a
los encargados de las transacciones, planificadores, ingenieros y mantenedores a que reúnan
de una manera seria y continua sus propios datos de mantenimiento y reemplazo con una
apreciación renovada de su alto valor para la línea de fondo de su organización.

Irónicamente, a menudo dejamos que la poca información requerida para la gestión


de la confiabilidad se nos escape entre los dedos mientras perseguimos
implacablemente el siempre elusivo control sobre los costos de mantenimiento de
nuestra planta y equipo productivo.

Sin duda el primer paso en cualquier actividad que mire hacia el futuro es obtener buena
información. En importancia, este paso pesa más que los pasos de análisis subsiguientes
que parecen triviales en comparación. La historia de la humanidad es una de las
experiencias construidas a base del progreso. Sin embargo han habido incontables
momentos en que oportunidades han sido derrochadas por que se ha rechazado la
recolección y el procesamiento de datos que estaban disponibles. Hoy,
desafortunadamente, muchos departamentos de mantenimiento caen en esa categoría. Esa
es la razón por la cual una de las mediciones más importantes usadas por el Centro de
Excelencia en la Gestión de Mantenimiento de PricewaterhouseCoopers para hacer
benchmark a compañías en relación con las mejores prácticas de la industria de clase
mundial es la medida en que los datos son retroalimentados para guiar sus decisiones,
tácticas y políticas de mantenimiento.

Aquí hay unos ejemplos de decisiones basados en la gestión de datos de confiabilidad:

 Un planificador de mantenimiento detecta tres fallas en el servicio de un


componente durante un periodo de tres meses. Para facilitar la planificación de la
mano de obra disponible el superintendente pregunta,, “¿Cuantas fallas va a tener en
el próximo trimestre?”
 Para encargar repuestos y programar la mano de obra de mantenimiento, ¿Cuantas
cajas de cambio van a ser devueltas a la bodega para reacondicionamiento por cada
modo de falla en el próximo año?
 Un sistema de tratado de efluente requiere una detención de trabajo para
reacondicionamiento reglamentaria cada vez que el nivel contaminante excede un
límite tóxico por más de 60 segundos en un mes. ¿Que nivel y frecuencia de
mantenimiento es requerido para evitar interrupciones de la producción de este tipo?
 Después de una modificación del diseño para eliminar un modo de falla, ¿Cuantas
unidades deben ser probadas y por cuanto tiempo para verificar que el antiguo modo
de falla haya sido eliminado o significativamente mejorado con una confianza de
90%?
 Las transmisiones de una flota de camiones de carga son rutinariamente
reacondicionadas a las 12,000 horas según lo estipulado por el fabricante. Un
número de fallas ocurre antes del reacondicionamiento. ¿Por cuanto se debería
adelantar o atrasar el reacondicionamiento para reducir los costos promedios de
operación?
 El costo de la producción perdida es cuatro veces el costo del reemplazo preventivo
de un componente desgastado. ¿Cuál es la frecuencia optima para los reemplazos?
 Los valores fluctuantes de hierro y plomo en el análisis trimestral del aceite de las
transmisiones de 35 camiones de carga en conjunto con los tiempos de falla de las
35 unidades en los últimos tres años están disponibles en la base de datos. ¿Cuál es
el tiempo optimo de reemplazo, dadas las edades de las unidades y los últimos
resultados de laboratorio de los niveles de hierro y plomo? (Este problema será
examinado en el capítulo seis.)

Sin duda que vale la pena implementar procedimientos que obtengan y registren datos de
vida al nivel de sistema, y donde se justifique, al nivel de componente. Los datos de vida
de un componente o un sistema dado involucran los registros de reemplazo preventivo y la
temporalidad de las fallas. Cuando un encargado de transacciones reemplaza un
componente, digamos una bomba hidráulica, una de las tantas idénticas en una maquina
cuya disponibilidad es crítica para la operación de la compañía, el o ella debería indicar
cual es la bomba específica que falló. Más aun, el o ella debería especificar como falló (el
modo de falla), por ejemplo “una filtración” o una “insuficiencia de presión o volumen”.
Dado que las horas de operación del equipo son conocidas, las vidas útiles de componentes
individuales críticos pueden ser calculadas y deducidas por el software. Esa información se
convertirá en una parte del activo intelectual de la compañía – la base de datos de
confiabilidad.

Datos censurados o suspensiones

Un problema inevitable en el análisis de datos es que al momento de hacer nuestras


observaciones y análisis, no todas las unidades habrán fallado. Conocemos la edad de las
unidades que actualmente no han fallado, y sabemos también que todavía están en un
estado de no-falla, pero no sabemos (obviamente) la temporalidad de sus fallas. Algunas
unidades pueden haber sido reemplazadas de manera preventiva. En esos casos tampoco
sabemos la temporalidad de sus fallas. Se dice que estas unidades están suspendidas o
simplemente censuradas. Si bien no es estadísticamente ideal, aun podemos hacer uso de
estos datos ya que sabemos que las unidades han durado por lo menos todo este tiempo.
Buenos softwares de confiabilidad como lo son Winsmith para Windows, RelCode, y
EXAKT descritos en el capítulo 5 y 6 manejan bien el tema de los datos suspendidos.

Uno de los problemas inevitables de administrar este tipo de datos es que al momento
de nuestras observaciones y análisis, no todas las unidades van a haber fallado.
Conocemos las edades actuales de las unidades que no han fallado, pero no conocemos
la temporalidad de sus fallas.

Referencias:
1. Introducción a la Ingeniería de Confiabilidad y de Mantenibilidad, Charles E.
Ebeling, ISBN 0-07-018852-1, 1997.
2. Confiabilidad de Sistemas y Análisis de Riesgos, Ernst G. Frankel.
3. El Nuevo Manual de Weibull segunda edición, Robert B. Abernethy.
4. www.barringer1.com.

También podría gustarte