Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FALLAS
FALLAS
Hasta finales de la década de los 90, los desarrollos alcanzados en la 3º generación del
mantenimiento incluían:
La Gestión del Riesgo: Cada día cobra más importancia la identificación y control
de los posibles sucesos que presentan una baja probabilidad pero consecuencias
graves, sobre todo en organizaciones que operan en industrias con riesgo. El
mantenimiento se está viendo como un participante clave en este proceso. En el
pasado, este tipo de sucesos se controlaban simplemente con una extensión de los
Sistemas de Gestión de Seguridad y Medio Ambiente implantados en cada empresa.
Sin embargo, existe una creciente percepción de que la aplicación de estos sistemas
de gestión a los sucesos de “baja probabilidad / consecuencias graves” no es
efectiva, por lo que es necesario desarrollar otras metodologías.
Para los patrones de falla A, B y C, la probabilidad de falla aumenta con la edad hasta
alcanzar un punto en el que es conveniente reemplazar el componente antes de que falle y
así reducir su probabilidad de falla. En el caso de los componentes que presentan una
probabilidad de falla del modelo E, reemplazar el componente no mejorará en ningún caso
su confiabilidad, ya que el nuevo elemento tendrá la misma probabilidad de falla que el
antiguo.
En el gráfico se observa que más del 50% de los componentes presentan fallas en la
“infancia”. Esto quiere decir que cada vez que se repara o reemplaza un equipo, las
posibilidades de falla prematura debido a esa operación de mantenimiento son muy
elevadas. Alguna de las posibles explicaciones que se pueden dar a este hecho, son errores
humanos, errores del sistema, errores de diseño o errores de piezas.
Por lo visto anteriormente, está claro que el mantenimiento actual debe centrarse en
reducir las operaciones de mantenimiento provocadas por fallas que se ajustan al modelo F.
Es decir, fallas ocurridos en la “infancia” de los equipos. Para los elementos que ajusten su
tasa de fallas a este patrón F, un mantenimiento planificado a intervalos fijos aumentará las
posibilidades de falla, ya que el equipo nuevo presentará más probabilidad de falla que el
antiguo. Por ese motivo existe una tendencia generalizada a “mantener lo mínimo posible”,
debido a que cualquier operación de mantenimiento realizada puede aumentar la
probabilidad de falla.
Para eliminar las fallas, hay que eliminar sus causas, lo que implica conocerlas. Existen
herramientas como el Análisis Causa-Raíz que ayudan a identificar y eliminar las causas de
los fallas, aunque en muchas ocasiones se utiliza como una herramienta reactiva más que
proactiva.
A modo de resumen, en las siguientes gráficas se presenta como han ido evolucionando
las expectativas y técnicas del mantenimiento durante el último siglo:
Figura 4.2: Objetivos del Mantenimiento.
Esta técnica surge a finales de los años sesenta como respuesta al incremento de costos
y actividades del mantenimiento de las aeronaves (básicamente preventivo). En esta
industria demuestra ser muy valioso, no sólo bajando los costos y actividades de
mantenimiento, sino que además mejora los niveles de confiabilidad, disponibilidad y
seguridad. Estos éxitos lo hicieron apetecible a otras industrias, como la militar, petrolera y
de generación de electricidad.
Esta técnica se basa en seleccionar mantenimiento sólo donde las consecuencias de las
fallas así lo requieren, para esto se necesita hacer un estudio exhaustivo de todas las
funciones, fallas, modos y consecuencias de las fallas, para luego decidir donde y que tipo
de mantenimiento hacer. Establece un orden de prioridades: la seguridad y ambiente,
producción, costos de reparación. Esto ha hecho que sea una herramienta valiosa en las
industrias que requieren elevados niveles de seguridad, generando a cambio de los
esfuerzos, buenos resultados.
Bajo su enfoque tradicional resulta muy difícil de aplicar en grandes industrias debido a
que no resuelve algunas interrogantes mayores como ¿Cuándo hacer el mantenimiento? y
¿Cómo generar una jerarquía de implantación?
Técnica poderosa que permite la solución de problemas, con enfoque a corto y mediano
plazo. Usa técnicas de investigación bastante exhaustivas, con la intención de eliminar las
causas de los problemas/fallas. Su valor no sólo reside en la eliminación de grandes
eventos, sino en la eliminación de los eventos crónicos, que tienden a devorar los recursos
de mantenimiento. Al eliminar paulatinamente los problemas crónicos y pequeños, este
genera tiempo para análisis más profundos (RCM, por ejemplo).
Para mejorar los 4 sectores nombrados en la gráfica anterior, el MCO divide las técnicas
de mejoramiento:
Control Aquí se usa el RCM+ (que combina algunas ventajas del TPM con el
RCM) como técnica proactiva y el ACR como técnica reactiva, también se puede
hacer uso del IBR para equipos estáticos. Como resultado se obtienen una serie de
tareas de mantenimiento, operaciones, rediseño a ejecutar para mejorar el
desempeño.
Estas técnicas de control por lo general son técnicas del tipo cualitativo y basadas en reglas
fijas para la toma de decisión (por ejemplo: diagramas lógicos).
Por otra parte normalmente ambas técnicas generarán soluciones que podrían ser
agrupadas en:
Cambios de diseño.
Tareas preventivas.
Tareas de Inspección (Detección y Predicción).
Tareas correctivas.
Un capitulo especial se abre con esta técnica, que establece patrones de inspección de
equipos estáticos (calderas, líneas de transmisión, etc.) en función de su riesgo asociado,
nuevas aproximaciones permiten usar software para tomar en cuenta también el estado
actual del equipo, lo que desencadena una continua optimización por costo/riesgo y no una
frecuencia de inspección fija. Los reportes económicos han sido cuantiosos, además de los
beneficios por disponibilidad y producción. También es posible optimizar con este tipo de
técnicas la frecuencia de búsqueda de fallas ocultas (pesquisa de fallas, mantenimiento
detectivo), dejándose de usar entonces formulas mágicas que no generan una frecuencia
óptima por costo/riesgo, pudiéndose simular factores como probabilidad de éxito de la
prueba y probabilidad de destrucción del equipo probado.
Modelos deterministicos
Modelos estocásticos
o En Riesgo
o Bajo Incertidumbre
Por otro lado, en cuanto a los resultados esperados, podemos establecer una relación
directa, ya que, los costos de operación son los gastos de mantenimiento, los inventarios
estarían representados por las ordenes de trabajo (sin atender y en tránsito) y las ventas se
pueden asociar directamente con el nivel de servicio (cantidad de solicitudes atendidas en
una cantidad de tiempo determinada).
Las técnicas para estimar la Disponibilidad Optima Económica (OEA) de una unidad
generadora se ha enfocado en la comparación del costo "frontera" [8] de la unidad por el
porcentaje de mejora de su valor marginal. Aunque ha sido normalmente aceptado que la
cantidad de salidas no planeadas que una planta experimenta es, en parte, una función de la
cantidad del mantenimiento programado, aquella relación no ha sido bien determinada. El
estudio [7] explora aquella relación y examina su impacto económico en la elección de
metas de disponibilidad.
Análisis
Usando una base de datos del Edison Electric Institute (un predecesor del
actual GADS system administered by the North American Electric Reliability
Council) para grandes unidades carbón de 1971 a1978, fue deducida una relación lineal
entre la indisponibilidad planeada y la indisponibilidad no planeada. El coeficiente de
correlación fue 0.895, informando de una fuerte relación. Como los datos tienen ahora más
años y la disponibilidad de la industria ha mejorado considerablemente desde aquel tiempo,
la constante en la ecuación ya no es acertada o verdadera. Sin embargo, se considera que la
pendiente (slope) de la curva permanece cerca del original calculado en un valor de -0.5897
[6]. Esto significa que por cada punto porcentual adicional que aumentamos nuestras
salidas programadas (el total planeado, salidas por mantenimiento y derating equivalent)
las salidas forzadas y derating equivalent decrecerán en 0.5897 puntos
porcentuales.
Maximizar Disponibilidad
Minimizar Costos
Ha sido siempre reconocido que una hora o día o un porcentaje de salida programada es
normalmente mucho menos costoso (en términos de reeplazar el costo de la energía) que
una hora o día o porcentaje de estos de salida forzada, ya que una compañía de generación
intenta programar sus interrupciones durante períodos de demanda mínima (o de costos
minimos para la empresa- otra forma de verlo es en que lo que se deja de ganar sea
minimo). Durante muchos años algunas compañías de generación han estado calculando
estos costos por hora, diariamente, semanalmente y estacionalmente. Un análisis de estos
costos ha mostrado que para grandes unidades a carbón base-carga la razon"promedio"
entre el costo “de salidas forzadas” y el “costo de salidas programadas” varía entre 3.0 y
4.5 (excepcionalmente durante condiciones “ajustadas" entre la oferta y demanda esta
razón puede ser mucho más alta y la volatilidad puede ser mucho mayor durante peaks
estacionales). También, esta razón de costos para unidades cíclicas y unidades de punta es
mucho mayor (al menos uno a dos órdenes de magnitud mayor).
Esto significa que por cada dólar que se "ahorra" reduciendo el mantenimiento
programado, se puede esperar “gastar o pagar" un promedio de 1.7691 dólares extra por
efecto de interrupciones forzadas incrementadas. Entonces si el objetivo es minimizar el
costo total se debería obviamente aumentar la programación y salidas por mantenimiento a
efectos de reducir nuestro costo de salidas no programadas, sin tener en cuenta el efecto
que podría tener en nuestra disponibilidad.
Nueva Medida
A menudo en la proforma de una central eléctrica propuesta, los costos O&M son
tratados como un commodity (activo); un número para ser reducido tanto como sea posible.
Sin embargo, varias estudios de la industria han mostrado que hay una correlación directa
entre un cambio en el gasto de O&M en una central eléctrica dada y el resultante
desempeño de aquella planta. El objetivo entonces, sería encontrar el nivel óptimo de
gasto O&M que minimice el coste TOTAL ($ diseño + $ O&M + $ desempeño) y que
maximice la rentabilidad.
Este proceso es muy difícil porque la relación entre el gasto de O&M y el desempeño
de la planta no esta bien determinado o cuantificado. Varios estudios han mostrado que
numerosos factores afectan esta relación, extendiéndose hacia atrás por todas partes a las
decisiones iniciales de diseño (tecnología, equipamiento, calidad y configuración, tipo de
combustible y calidad, etc.) y a través de la construcción, puesta en servicio y operaciones
de ciclo de vida y mantenimiento, y decisiones de renovación o reemplazo.
Pero, no es suficiente determinar simplemente el mejor plan de O&M una vez que el
diseño esta determinado. Debería haber un diálogo activo entre el equipo de diseño y el
equipo de O&M para encontrar la mejor combinación que producirá el máxima beneficio
para cualquier proyecto en particular.
Antecedentes
En 1991, el North American Electric Reliability Council (NERC) and Southern Electric
Internacional (SEI) (el brazo desregulado de la Southern Company) desarrolló una
metodología para determinar según estadísticas las caracteristicas de diseño y operación,
mas significativas, para comparar el desempeño de unidades de generación similares
[13]
Por años, el método utilizado para hacer estas proyecciones en el Southern electric
system fue una especie de “fuzzy trending”, donde los datos históricos y la información
acerca de los planes de mantenimiento futuros de la unidad, modificaciones, y nivel de la
utilización estan todos considerados en la predicción del desempeño de la unidad en el
futuro. En un paper presentado en 1988 en la American Power Conference titulado,
"Trends in Generating Unit Performance and the 1990's Power System," la General
Electric Company desarrolló una ecuación para predecir la disponibilidad de unidades
térmicas basada en la operación histórica y en la estructura o patron de gastos de
mantenimiento. Este paper nos condujo a preguntarnos si una metodología con una base
matemática estadística podría producir resultados más exactos que el método “fuzzy
trending” usado en el pasado. La ecuación fue aplicada a datos a nivel de
sistema del Southern electric systemcon buenos resultados; sin embargo, los resultados
eran erráticos cuando la ecuación fue aplicada a datos a nivel de unidades. En un esfuerzo
para conseguir datos mas adecuados a nivel de unidades, el siguiente paso fue desarrollar
una nueva ecuación usando análisis de regresión y datos de 85 unidades termicas
del Southern electric system (25,000 MW). Más que asumir desde el comienzo que los
factores principales que afectan la disponibilidad de la unidad eran ya conocidos, el
proceso que fue desarrollado evaluaba el desempeño de la unidad (EFOR) relativo a
numerosas características de diseño y de operación a fin de determinar los factores más
importantes. La ecuación de regresión que resulta incluyó algunos años recientes y
variables operacionales anteriores (EFOR, factor de servicio, y factor de interrupciones
planeadas), algunas características de diseño (tipo de combustible, fabricante de la caldera,
y fabricante de la turbina), y históricos desembolsos de O&M. Una comparación de la
exactitud de las proyecciones hechas con el nuevo modelo matemático versus el viejo
método fuzzy trending mostró que el modelo matemático fue superior. Aproximadamente
el 80 % de las proyecciones del viejo método fueron altas, mientras que las proyecciones
con el nuevo método fueron más cercanas a valores reales tanto con estimaciones bajas
como altas. Fue alentador que aun en sus inicios, el modelo matemático apareció superior
al método previamente usado. (Fig. b y c)
Hasta este punto, la metodología resultó en una gran ecuación que se aplicó a todas las
unidades incluidas en la base de datos. Adicionalmente, el método usado para incorporar
variables nominales en el análisis de regresión, como tipo de combustible, fabricante de la
caldera y fabricante de la turbina fue un proceso engorroso. Fue decidido que el mismo, o
aún mejor, los resultados podrían ser logrados subagrupando los datos por variables
nominales importantes y aplicando el análisis de regresión a nivel de subgrupo. Este es el
punto en cual la primera generación de unidades benchmarking pares se desarrolla. NERC
y SEI firmaron un joint ventur para dar servicio a clientes en benchmarking de desempeño
de sus unidades versus el de las unidades “par”. Los grupos “pares” para las unidades del
cliente fueron desarrollados usando el análisis estadístico para determinar la característica
que tenia el mayor impacto en el desempeño de la unidad, y dividiendo la base de datos en
subgrupos basados en esta característica. El proceso fue seguido a niveles de subgrupo, con
una división tras otra, hasta que ninguna característica restante fuera significativa para
aquella division, o hasta que el número de unidades de par en la division cayera a un nivel
mínimo aceptable. El resultado divide las 1213 unidades térmicas de la industria en 19
grupos de “unidades par” generales, con las características más significativas que son
criticas, vintage, modo de operación, tamaño, tipo de diseño, tipo de combustible y el
fabricante de caldera (Fig d). El diseño y los datos operacionales de las unidades de
clientes fueron usados para localizar cada una de las unidades de clientes dentro de los 19
grupos de par, y fueron proporcionadas distribuciones mostrando el desempeño de las
unidades del cliente con relación a aquel de sus pares.
Nuevas Perspectivas
Si ahora comparamos a los exponentes más pobres uno a otro (90º percentil) en cada
grupo par, conseguimos la función de densidad de probabilidad mostrada en la Fig f.
Finalmente, cuando sacamos el mejor exponente EFOR del peor exponente EFOR en cada
grupo, podemos ver el rango o la variabilidad entre el mejor y el peor (Fig g). De esta
curva, se puede ver que la diferencia entre los mejores exponentes y los peores con los
mismos factores estadisticamente significativos de diseño/modo de operación es de
aproximadamente 20 %. Por lo tanto, la percepción de los analístas es que sólo entre el 20
y 25% de la variación en la confiabilidad de unidades generadoras, en general puede ser
explicado debido a diferencias en el diseño o modo de operación. El 75-80% restante de la
variación es debido a otros factores. Se estima que la mayoría de aquel impacto es debido a
la calidad de los programas de Operación y Mantenimiento de las
unidades (entrenamiento, procedimientos, staffing lavels, herramientas, equipo, datos,
etc.) así como los gastos de O&M.
La relación entre parámetros de diseño, operación, y calidad de O&M debe ser bien
entendida a fin de determinar la mejor combinación que conducirá al costo más bajo del
producto. Las figuras h e i muestran como esta interrelación afecta el costo total y la
rentabilidad de las plantas.
(d)
(h)
(i)
(a) (b)
(c) (e)
(f) (g)