Está en la página 1de 30

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/268411762

TEORÍA DE LA CONFIABILIDAD

Article

CITATIONS READS

0 620

1 author:

Ana Luna
University of the Pacific (Peru)
9 PUBLICATIONS   9 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Power Demand Forecasting View project

Structural color View project

All content following this page was uploaded by Ana Luna on 26 April 2016.

The user has requested enhancement of the downloaded file.


TEORÍA DE LA CONFIABILIDAD

Ana Eugenia Luna

Facultad de Ciencias Exactas y Naturales

Universidad de Buenos Aires


Departamento de Física

Febrero 2005
Índice

1. Introducción 1

2. La ley normal de falla 2

3. La ley exponencial de falla 7

4. La ley de fallas de Weibull 17

5. Confiabilidad de los sistemas 23

6. Discusión y Conclusiones 24

7. Referencias 26
Teoría de la Confiabilidad

Ana Eugenia Luna

Resumen
La aparición y aplicación de nuevas tecnologías en la industria hace posible la
fabricación de nuevos productos y elementos, generalmente electrónicos que aumentan
la complejidad de los procesos industriales; este hecho trae como consecuencia el
aumento de riesgos que influyen en la seguridad de toda la instalación. La confiabilidad
y seguridad de dichas instalaciones puede ser estudiada a través de métodos
probabilísticos por medio de la ley de fallas de sistemas o componentes que permite
obtener técnicas de predicción que aseguran la calidad de los productos. Existen varias
funciones de distribución que modelan el comportamiento de las fallas. En este trabajo
se hace un estudio detallado de las distribuciones de uso más frecuente en la teoría de la
confiabilidad, la distribución exponencial, la distribución normal o gaussiana y la
distribución de Weibull.

1. Introducción

La teoría de la confiabilidad tiene sus cimientos en análisis meramente


estadísticos y en leyes probabilísticas de fallas pues no existe un modelo determinista
que prediga el tiempo en el cual un sistema falla. Es posible, sin embargo, aplicar un
tratamiento estadístico que modele en forma realista el estudio de la confiabilidad de
componentes o dispositivos que en condiciones de montaje y uso adecuado se
encuentran en funcionamiento un tiempo determinado, t = 0. El tiempo para que ocurra
la falla o duración, T, puede considerarse estadísticamente como la variable aleatoria
continua con una función de distribución probabilística (fdp) f.
Se define la confiabilidad de un componente o sistema, R(T), a la probabilidad
de que dicho componente no falle durante el intervalo [0,t] o lo que es lo mismo a la
probabilidad de que falle en un tiempo mayor que t. Siendo R(t) = P(T>t) y T la
duración del componente. Si f(t) es la función de densidad de probabilidad (fdp), la
confiabilidad puede expresarse como

R ( t ) = ∫ f ( s ) ds (1)
0
En términos de la función distribución acumulativa (fda) de f(t), F(t),
la confiabilidad también se puede definir como:

R(t) = 1-P(T ≤ t )=1-F(t) (2)

La tasa de falla o función de riesgo Z es también un concepto muy usado en la


teoría de la confiabilidad y representa la proporción de artículos que funcionan entre t y
t + ∆ t de aquellos que aún funcionaban en el instante t. Su valor se puede calcular a

partir de la siguiente expresión


f (t )
Z (t ) = (3)
R (t )

y determina unívocamente la fdp f.


La elección de un modelo que represente los datos de fallas lo más
fehacientemente posible, restringe la posibilidad de elección de cualquier fdp para T, es
decir que el modelo matemático para la descripción de los fenómenos observables no es
arbitrario.

2. La ley normal de falla

La conducta de algunos componentes puede describirse a través de la ley normal


de falla . Si T es la duración de un artículo, que obviamente vamos a considerar que es
mayor o igual a cero, su fdp, también conocida como distribución de Gauss, está dada
por
2
1  1  t − m  
f (t ) = exp  − (4)
2p s  2  s  
 

siendo f ( t ) ≥ 0 , − ∞ < t < ∞, − ∞ < m < ∞, s (desviación estandar ) > 0 .

Este modelo implica que la mayoría de los artículos fallan alrededor de un


tiempo promedio de falla E(T) = m y el número de fallas disminuye simétricamente

cuando T − m aumenta. Una ley normal de falla significa que alrededor del 95.44% de

 t−m 
las fallas tienen lugar para los valores de t que satisfacen  − 2 < < 2  como se
 s 

observa en la Fig. 1.
0 ,9 5 4 4

t = µ - 2 σ t = µ t = µ + 2σ

Fig. 1: El área encerrada entre m − 2s y m + 2s representa alrededor del 94,44% de las fallas

Se puede ver que la distribución normal es simétrica, por lo tanto, la media, la


mediana y la moda coinciden. Además la fdp normal no posee un parámetro que
caracterice a la forma general, por esta razón la forma que posee de campana no cambia.
El parámetro que indica la relación de aspecto de una fdp normal está dado por
la desviación estándar, s ; a medida que este valor se incrementa, la fdp se desparrama

del valor medio, se ensancha y su pico disminuye. Por el contrario, si el valor


de s disminuye, el pico de la campana se vuelve más alto y además se angosta. (Fig. 2).

Geométricamente, la desviación estándar, es la distancia entre el valor medio y el punto


de inflexión de la fdp.

µ=100
σ=5

0.06
f(t)

µ=100
0.03 σ=15

0.00

80 120
Tiempo (t)
Fig. 2: Efecto de dos posibles valores del parámetro s en la función de distribución de probabilidades
normal.

La función confiabilidad de la ley normal de falla


se puede hallar utilizando la ec. (1),
∞ ∞
1  1  s − m 2 
R ( t ) = ∫ f ( s ) ds = ∫ exp  −   ds
t t 2p s  2  s  
 

(5)
Su valor no puede obtenerse a través de expresiones matemáticas cerradas sino vía el
uso de tablas o evaluaciones numéricas.

Usando la función de distribución normal


acumulativa tabulada f ,
t− m 
R (t ) = 1 − f   (6)
 s 

es decir que, R(t) permite aclarar conceptualmente que para obtener una confiabilidad
alta, el tiempo de operación debe ser considerablemente menor que m , es decir que la

duración esperada (Fig. 3).

R(t)

R(t) = 0.5

t=µ
t
Fig. 3: Función confiabilidad de la ley normal de falla

En muchos casos, es posible que desconozcamos los parámetros que caracterizan


a la fdp normal. A continuación se presenta un método gráfico alternativo para hallarlos.
Para una distribución normal, la función distribución acumulativa (fda), F(t) se define a
partir de la siguiente expresión,

t− m 
F(t) = f   (7)
 s 
Por lo tanto,
−1 m 1
f ( F ( t )) = − + t (8)
s s
t2
1 x −
siendo f ( x ) = ∫e
2
dt .
2p −∞

Entonces, es posible considerar las siguientes variables que permitirán obtener una ec.

lineal para f − 1 ( F ( t )) :

m 1
y = f − ( F ( t ))
1
a= − b= (9)
s s

⇒ y = a + bt .

Al graficar F(t), es decir, la probabilidad de que ocurra un fallo antes del instante
t en función del tiempo, es posible estimar el valor de m localizando el punto

correspondiente a t en el cual la F(t) es del 50%. Este hecho es posible gracias a que la
distribución normal es simétrica, por lo tanto el área bajo la curva de la fdp desde − ∞
hasta m es 0,5 al igual que el área desde m hasta ∞ . Entonces el valor de m coincide

con el punto en el cual la función confiabilidad R(t) es del 50%.


Para estimar el valor de s , debemos recordar que el área bajo la fdp representa

el 68,3%, esto es medida desde el valor de m hasta - s y s (Fig. 4). Por lo tanto la

desviación estándar se puede obtener a partir de la siguiente expresión,

t ( R ( t ) = 84 ,15 %) − t ( R ( t ) = 15 ,85 %)
sˆ = (10)
2

a partir del gráfico linealizado, conociendo los valores de t en los cuales la línea
intersecta el 84,15% y el 15,85%.
Este método alternativo para la estimación de los parámetros característicos de
una fdp normal es fácil de aplicar cuando se conocen los tiempos en los cuales fallan
1
ciertos componentes y sus respectivos porcentajes de falla.

68,3%


Fig. 4: El intervalo de confianza entre el 15,85% y el 84,15% representa el doble de la desviación
estándar

Otro método que puede utilizarse para estimar los parámetros es el de cuadrados
mínimos, en el cual se utilizan las siguientes ecuaciones (suponiendo que la incerteza de
1
los valores graficados en el eje de las abscisas son ignorables):
N N
∑ yi ∑ xi
aˆ = y − bˆ x = i =1
− bˆ i =1
(11)
N N
N N

N
∑ xi ∑ y i
i =1 i =1
∑ xi y i −
bˆ = i =1 N (12)
2
N
 
N
 ∑ xi 
2  i =1 
∑ xi −
i =1 N

yi = f
−1
[F (t i ) ] (13)

xi = t i (14)

Los valores de F ( t i ) se obtienen a partir de tablas que figuran en varios textos de

estadística o por métodos numéricos.


Finalmente,
1
sˆ = (15)

y
mˆ = − aˆ sˆ (16)

La ley normal de falla representa un modelo apropiado para los componentes en


los cuales la falla se debe a algunos efectos de desgaste. Una de las desventajas que
posee la distribución normal para modelar fenómenos observables en la teoría de la
confiabilidad es que existen tiempos de vida que se extienden a − ∞ , es decir a tiempos
de falla negativos. Sin embargo, si la función de distribución normal posee un valor
medio relativo relativamente alto y una desviación estándar relativamente pequeña, el
tema de discusión para tiempos de falla negativos no presenta ningún problema. En
otras palabras, la función normal, tiende rápidamente a cero lejos de su máximo.
Esta distribución se utiliza, por ejemplo, para modelar los tiempos de vida de los
1
cartuchos de impresión para computadoras.

3. La ley exponencial de falla

Otra de las leyes de falla aplicable al estudio de la confiabilidad de componentes


que no están afectados todavía por problemas de vejez o desgaste es aquella que se
describe a través de la distribución exponencial.
Los elementos y dispositivos con funciones primordiales de seguridad, además
de ser idóneos ante unas exigencias del sistema, deben asegurar una correcta respuesta
en el tiempo. Para ello es imprescindible establecer un programa de mantenimiento
preventivo y predictivo que permita mantenerlos en buenas condiciones de uso,
renovándolos antes de que su tasa de fallos sea inaceptable.
Un modelo matemático para la probabilidad de fallo es definir la variable
aleatoria como el tiempo durante el que el elemento funciona satisfactoriamente antes
de que se produzca la falla. La función confiabilidad será entonces,

N i (t ) N f (t )
R ( t ) = P (T > t ) = = 1− (17)
N0 N0

siendo N i (t) el número de elementos en funcionamiento en el instante t, N 0 el número de


elementos en funcionamiento inicial y N f (t) el número de elementos averiados hasta el
momento t. (Se cumple N 0 = N f (t) + Ni (t)).
Por lo tanto, recurriendo a la ec. (2), y haciendo la analogía con la ec. (17), la
probabilidad de que ocurra un fallo antes del instante t es,

N f (t )
F (t ) = (18)
N0

Suponiendo que un artículo funciona en el instante t y falla durante los


siguientes ∆ t ( ∆ t > 0), entonces la probabilidad condicional de que se produzca una

avería entre el momento t y t+ ∆ t puede escribirse de la siguiente manera,

F (t + ∆ t ) − F (t ) R (t ) − R ( t + ∆ t )
P (t ≤ T ≤ t + ∆ t T > t ) = = = a (t ) ∆ t (19)
R (t ) R (t )

siendo a (t ) , la tasa de fallos.

De la ec. (19) es posible hallar el valor de la función confiabilidad,

t
 
R ( t ) = exp  − ∫ a ( t ) dt  (20)
 0 

Recurriendo a la ec. (1), la función densidad de probabilidad, es decir, la


probabilidad de que un dispositivo tenga una falla entre los instantes t y t + dt es
dR ( t )
f (t ) = − (21)
dt

Analizando las ec. (19) y (21), se cumple que la probabilidad de producirse una avería
en un elemento entre t y t + dt es igual a la probabilidad de que funcione hasta t por la
probabilidad de que falle entre t y t + dt:

f ( t ) = R ( t ) a ( t ) dt (22)

En la Figura 5 se puede observar la representación gráfica de los parámetros


2
característicos de la distribución exponencial más general:

R(t)

a (t ) F (t)

F(t)
R(t)
a (t )

Fig. 5: Representación gráfica general de los parámetros de confiabilidad.

Analizando cuidadosamente la representación de la curva típica de la evolución


de la tasa de fallos dependiente del tiempo (Fig. 6), también conocida como curva
2
bañera, se pueden distinguir tres etapas. La primera corresponde a los fallos iniciales
(la mortalidad infantil de las estadísticas demográficas) que se manifiestan
prematuramente y se caracteriza por una tasa decreciente, corresponde, generalmente, a
la existencia de dispositivos defectuosos o instalados indebidamente con una tasa de
fallos superior a la normal. La segunda etapa (la edad adulta) representa los fallos
normales y se presentan de forma aleatoria; su tasa es constante en el tiempo de vida del
componente. La tercera y última etapa (la vejez) se atribuye a los fallos por desgaste
donde se ha superado la vida prevista del componente; en este caso la tasa se caracteriza
por un aumento significativo debido a la degradación. Este modelo, con algunas
variantes, es válido para la mayoría de los componentes de un sistema tecnológico. Las
fallas iniciales pueden eliminarse mediante pruebas previas a la operación, mientras que
una política adecuada de reemplazos permite reducir las producidas al fin de la vida útil.
La mayoría de las evaluaciones de confiabilidad se refieren al período en que
prevalecen las fallas aleatorias.

a (t )
x 10 -5

Fig. 6: Curva típica de evolución de la tasa de fallos.

El caso más sencillo para describir la ley exponencial es suponer que la tasa de
fallas es constante, es decir que después de un tiempo de uso del artículo, la
probabilidad de que falle no ha cambiado, hecho que se puede expresar a través de la
siguiente función: Z(t)= a . En este modelo, claramente se está despreciando el efecto de

desgaste. La fdp asociada con el tiempo de fallo T está dada por

f (t ) = a e − a t t > 0, a > 0 (23)


En este caso particular, la distribución sólo requiere el conocimiento de un parámetro, la
tasa de fallas a . Algunas de las características de la distribución exponencial de un
3
parámetro son:

• A medida que a disminuye en valor, la distribución se extiende hacia el lado


derecho y por el contrario, a medida que a aumenta en valor, la distribución se

acerca al origen. (Fig. 7)


1
• El parámetro de escala es = m = s (siendo s la desviación estándar). Entonces, la
a

confiabilidad para un tiempo de duración t = m es siempre igual a 0,3679 o lo que


1
−a
−a t a −1
es lo mismo a un 36,8%. Esto es así pues R ( t ) = e = e = e = 0 ,368 . Este

hecho implica que la confiabilidad es relativamente baja pues sólo el 36,8% de los
componentes en estudio, por ejemplo, sobrevivirán.

• La distribución no tiene parámetro de forma pues tiene una única forma, la


exponencial; por lo tanto el único parámetro es la tasa de fallas.

• La distribución comienza en t = 0, donde f (t = 0 ) = a ; a partir de allí, decrece

exponencialmente y monótonamente a medida que t se incrementa. Además es


convexa.

• Cuando t tiende a infinito, la función distribución de probabilidades tiende a cero, en


consecuencia también tiende a cero la función confiabilidad R(t).

0.010

α = 0,01
0.008

0.006
f(t)

0.004

0.002
α = 0,005

0.000
0 100 200 300 400
Tiempo (t)
Fig. 7: Efecto de los posibles valores tomados por el parámetro a en la función distribución de
probabilidad exponencial.

Si f tiene la forma expresada en la ec. (23),

f (t )
R(t) =1-F(t) = e − a t ⇒ Z ( t ) = =a (24)
R (t )

La confiabilidad R(t) representa, en este caso, la probabilidad de que el dispositivo,


caracterizado por una tasa de fallos constante, no se averíe durante el tiempo de
funcionamiento t. Es importante destacar que la fórmula (24) se aplica a todos los
elementos que han sufrido un uso adecuado que permita excluir los fallos iniciales
característicos de la tasa de fallos. Además, aplicando la función de probabilidad
condicional expresada en la ec. (19), se observa que la misma es independiente de t y
sólo depende de ∆ t , es decir que el artículo en cuestión podrá ser considerado como si

fuera nuevo mientras perdure su funcionamiento.


Finalmente, es posible concluir que si T es una variable aleatoria continua que
toma todos los valores no negativos, le corresponde una distribución exponencial si y
sólo si tiene una tasa constante de fallas.
Este modelo es aplicable, por ejemplo, a lámparas que pueden considerarse que
funcionan como si fueran nuevas mientras funcionen y no se queme su resistencia.
Las gráficas características de los parámetros de este caso particular de la ley
4
exponencial de falla son
F(t)

R(t)
f (t)

t t t
Fig. 8: Gráficas características de los parámetros de un caso particular de la ley exponencial de falla.

A partir de la representación gráfica de R(t), también conocida como curva de


supervivencia, es posible definir el “tiempo medio hasta un fallo”. Matemáticamente
se recurre a un cálculo estadístico para obtener una expectativa de este tiempo a partir
de la siguiente expresión:


1
E (T ) = T = ∫ t f ( t ) dt = = m (25)
0 a

siendo T el tiempo que se espera que transcurra hasta un fallo y m el parámetro que
describe completamente la confiabilidad de un dispositivo sujeto a fallos de tipo
aleatorio.
Se observa, entonces que el tiempo medio y la tasa de fallos son recíprocos, es decir que
uno es el inverso del otro. Esto sólo es cierto para una distribución exponencial pues la
mayoría del resto de las distribuciones no tiene una tasa de fallo constante. Entonces,
R ( t ) = exp( − t / m ) proporciona la probabilidad de supervivencia del dispositivo para

cualquier intervalo de tiempo comprendido dentro del ámbito de la vida útil del mismo.
En el caso en que t = m/100, la confiabilidad es R = 0,99, es decir que funcionan 99
dispositivos y falla sólo 1.
Por lo tanto, la calidad de funcionamiento de un cierto elemento vendrá dada por el
tiempo que se espera que dicho elemento funcione de manera satisfactoria.
A partir de la teoría previamente expuesta, es posible, calcular para un conjunto
de dispositivos, por ejemplo válvulas, la tasa de fallos anual conociendo el número de
elementos totales y aquellas que fallaron, también es posible conocer la probabilidad
que tiene una de las válvulas de que falle antes de un determinado tiempo, es decir, F(t)
o bien calcular la probabilidad de que la válvula esté en funcionamiento al cabo de un
determinado tiempo, por ende debo hallar R(t). Otro parámetro posible de calcular es la
probabilidad de que el tiempo de vida de la válvula esté comprendido entre dos tiempos
distintos, para ello debo obtener la diferencia entre la probabilidad de que falle antes de
uno de esos dos tiempos y el otro, es decir la diferencia de las confiabilidades de ambos
períodos de tiempo. Por último se puede determinar un intervalo de vida con cierto nivel
de confianza dado.
Otra ventaja que proporciona esta ley de fallas exponencial es que es posible
estimar el tiempo de operación de un artículo o sistema conociendo el parámetro a e

imponiendo R(t). Entonces dicho artículo será tan bueno como si fuera nuevo durante
ese tiempo o edad para funcionar, independientemente de su historia previa. A esta
propiedad característica de la función exponencial se la suele llamar “pérdida de
memoria”. Fenómeno que no ocurría para le ley normal.
Es importante destacar también que la confiabilidad de un dispositivo cualquiera
es constante para períodos de utilización iguales si se eliminan los fallos iniciales, si el
dispositivo ha sobrevivido al funcionamiento durante los períodos anteriores al
considerado y si no se supera el límite de vida útil, más allá del cual la confiabilidad
disminuye con mayor rapidez pues la tasa de fallos deja de ser constante y empieza a
crecer significativamente.
Supongamos ahora que la falla ocurre debido a factores externos aleatorios, por
ejemplo una subida de tensión o a factores internos como una desintegración química, el
tiempo de espera en una consulta sin cita previa o la vida de los vasos de vidrio en un
bar. La ley de fallas exponencial puede mejorarse a través de la distribución de Poisson,
es decir, para cualquier t fija, la variable aleatoria X t tiene una distribución de Poisson
con parámetro a t . Para ello se supone que X t es el número de accidentes que ocurren

en un intervalo de tiempo t>0. Se considera que la falla en dicho intervalo se produce si


solo si al menos ocurre un accidente. Si T es la variable aleatoria que representa el
4
tiempo para que ocurra la falla, entonces

F(t) = P(T ≤ t )=1-P(T>t) (26)

Entonces, T> t si ningún accidente ocurre en [ 0, t ] y esto sucede si y sólo si X t = 0 .


Por lo tanto,

−a t
F(t) =1-P(X t = 0) = 1- e (27)

que representa la fda de una ley exponencial de falla; físicamente la causa de las fallas
implica una ley exponencial de falla.
Si cada vez que aparece un accidente hay una probabilidad constante p de que éste no
produzca fallas, entonces:
−a t
 e 
+ (a t )e p + (a t )
−a t −a t 2 2
F (t ) = 1 −  e p + ...  =
 2!  (28)
−a t
∞ (a t p ) k
−a t a t p − a (1 − p ) t
1− e ∑ = 1− e e = 1− e
k =0 k!

Por lo tanto, T tiene una ley exponencial de fallas con parámetro a (1 − p )

A continuación se presenta una alternativa para estimar el parámetro a de la


3
distribución exponencial. El método consiste en linealizar la función de distribución de
probabilidad, para ello se recurre a la expresión de la función densidad acumulativa
F(t),

F (t ) = 1 − e − a t (29)

Luego se toma el logaritmo natural a ambos miembros,

y = ln [1 − F ( t ) ] = − a t (30)

y finalmente la ecuación lineal es y = b t , siendo b = − a . (31)

Supongamos un caso particular en el cual se desea estudiar, por ejemplo, el test


de vida de ciertos componentes a través de la estimación del parámetro característico de
la distribución exponencial. Entonces, conociendo los tiempos en los que se analizan los
elementos que sobrevivieron y sus respectivos porcentajes, es decir su respectiva
función confiabilidad, es posible graficar R(t). Lo primero que se observa es que los
puntos describen una recta cuya pendiente es negativa. Luego, la recta que mejor
aproxima a la distribución de esos puntos puede trazarse usando el método de cuadrados
mínimos. El valor del tiempo que corresponde a la intersección de la recta con el valor
de confiabilidad 36,8% es precisamente el tiempo medio hasta un fallo, es decir m o lo
que es lo mismo, el recíproco de la tasa de falla a . Finalmente, a partir de un cálculo

sencillo es posible obtener el valor del parámetro buscado a .

Para la utilización del método de cuadrados mínimos supondremos ignorable la


incerteza de la variable tiempo. Entonces es necesario ajustar la función lineal teórica
por el conjunto de puntos distribuidos en la representación gráfica tal que la suma de los
cuadrados de las desviaciones verticales de los puntos hasta la recta sean mínimas. A
continuación se presentan las ec. a ser usadas para dicho método,
aˆ = 0
N
∑ xi y i
(32)
bˆ = i =1
N
2
∑ xi
i =1

En este caso, las ecuaciones para y i y para x i son,

y i = ln [1 − F ( t i ) ]
(33)
xi = t i

Una vez que â y b̂ son obtenidas es fácil hallar aˆ a partir de la ec. (31).

También es posible obtener el parámetro a a partir del estimador de máxima

verosimilitud para la distribución exponencial, es decir que, teniendo la función de


verosimilitud de la muestra se puede encontrar el valor del parámetro que maximice
dicha función. Para el caso de la distribución exponencial, la función de verosimilitud L
es
n
n −a ∑ ti
− a ti n
L ( t1 ....... t n , a ) = ∏ a e =a e i =1
(34)
i =1

utilizando la propiedad de que el logaritmo es una función creciente y monótona, es lo


mismo maximizar L que el ln(L), entonces L es máxima si

∂ ln( L ) n n 1
0= = − ∑ t i ⇒ aˆ = (35)
∂a a i= 0 t

El modelo de la distribución exponencial en la teoría de fallas es aplicable a un


número considerable de ejemplos en los cuales se asuma el concepto básico de tasa de
fallos constante, en los cuales se desprecia el desgaste del artículo en cuestión producido
en el tiempo. Esta propiedad simplifica considerablemente el análisis, sin embargo, por
otro lado limita el uso de este modelo haciéndolo inapropiado para la mayoría de las
aplicaciones posibles en el “mundo real” pues existe evidencia suficiente e irrefutable
que la tasa de fallo de los productos, en general, no es constante. Un ejemplo que aclara
bastante este hecho es el caso de los autos. Los modelos nuevos poseen un precio
considerablemente superior comparado con aquellos modelos más antiguos en los
cuales el rendimiento de los mismos afectan significativamente el precio de venta, por
lo tanto la tasa de fallo no es constante en el tiempo y la confiabilidad se ve afectada por
esta razón. Lo mismo ocurre con los componentes electrónicos que se degradan con el
tiempo.
A pesar de estas limitaciones, la contribución en la teoría de fallas de la
distribución exponencial todavía tiene valor en el análisis de confianza para
determinados casos, no es posible subestimarla; incluso se utiliza en la evaluación
probabilística de seguridad de centrales nucleares para estudiar la confiabilidad de los
5
sistemas o subsistemas que las componen.
En la actualidad se requiere del uso de métodos de análisis más sofisticados que
modelen y reflejen de una mejor manera las condiciones del “mundo real”. Tales
modelos han sido descubiertos y son acompañados de una alta tecnología
computacional compleja y de formulaciones matemáticas de alto nivel.

4. La ley de fallas de Weibull

La distribución estadística de Weibull es aplicable al estudio de la confiabilidad


en problemas relativos a la fatiga y vida de componentes y materiales. Se caracteriza
por considerar la tasa de fallas variable y es de la forma:

b −1
b  t 
Z (t ) =    (36)
a  a 

donde T es la duración de un artículo, a es el parámetro de escala y b el parámetro de

perfil, ambas son constantes positivas. b determina la forma de la función de

distribución y de la tasa de fallas.


Se puede ver que Z(t) (Fig.9), llamada también función de riesgo, no es una
constante sino que es proporcional a las potencias de t. Será una función constante
cuando b = 1 , creciente si b > 1 , es decir que al aumentar t la proporción de artículos

defectuosos aumenta en forma continua, lo que indica que los desgastes empiezan en el
momento en que el mecanismo se pone en funcionamiento; o decreciente si 0 < b < 1 ,

es decir que al aumentar t la proporción de artículos defectuosos disminuye sin llegar a


cero, por lo que se puede suponer que corresponde a la etapa de juventud del
componente con un margen de seguridad bajo, dando lugar a fallos por tensión de
rotura.

0<β<1
β=1 β >1
Z(t)
Z(t)
Fig. 9: Gráfica de la función de riesgo en función del tiempo para distintos valores de b .

Se puede observar como la forma de la función distribución de probabilidades


varía según los valores de b (Fig. 10). A medida que b crece, la distribución se hace

más localizada y a medida que b tiende a infinito, la distribución tiene el


6
comportamiento de una delta de Dirac.
Si la fdp de T tiene la siguiente forma,

b
b −1  t 
− 
b  t  a 
f (t ) =    e (37)
a  a 

se dice que la variable aleatoria tiene una distribución de Weibull.

β = 0 ,5

β = 3
f (t)

β = 2

β = 1

Fig. 10: Efecto del parámetro de forma de Weibull ( b ) en la distribución de probabilidades.


7
A partir de la Fig. 10 se observa que,

Para 0 < b < 1 :


• A medida que t tiende a cero, la fdp tiende a infinito.

• Cuando t tiende a infinito, la fdp tiende a cero.

• f(t) decrece monótonamente y es convexa a medida que t aumenta.

Para b > 1 :
• f(t) = 0 cuando t =0.

• Para b < 2 , 6 la fdp de Weibull es asimétrica y posee una cola hacia la derecha.

• Para 2 , 6 < b < 3, 7 la cola desaparece y la forma de la distribución se asemeja la una

fdp normal.

• Para b > 3, 7 , f(t) se vuelve nuevamente asimétrica y aparece una cola en el lado

izquierdo.

Para b = 1 :
• Se puede ver que la distribución exponencial es un caso particular de la distribución
de Weibull, por lo tanto la propiedad mencionada en la ley de fallas exponencial de
“falta de memoria” es equivalente a la hipótesis de tasa constante.

Para el caso de que b tienda a cero la f(t) tiende a la inversa de t.

Es importante destacar el cambio abrupto que se produce al pasar de b = 0 ,999

donde f(0) tiende a infinito a b = 1, 001 para el cual f(0) es cero. Este hecho complica la

estimación del valor de b al acercarse a la unidad.

Al cambiar el valor del parámetro de escala a de la fdp, cambia la escala de las

abscisas. Manteniendo constante el parámetro de forma se observa en la Figura 11


cómo al aumentar a decrece el pico de f(t), mientras el área de la curva se mantiene

constante e igual a uno.

β=3
α = 50
f(t)

β=3
Fig. 11: Efecto del cambio en los valores del parámetro de escala a sobre la fdp de Weibull.

La función confiabilidad R(t) es una función decreciente de t:

b
 t 
− 
a 
R (t ) = e (38)

Si la variable aleatoria T tiene una distribución de Weibull, la esperanza y la


varianza están dadas por:

 1 
E (T ) = t = a Γ  + 1 
b 
(39)
2
a  2  1 2  1 
V (T ) =  2 Γ   − Γ   
b  b  b  b 

Notar que cuando b = 1 , el valor medio de t coincide con a pues Γ ( 2 ) = 1 .

Γ es la función gamma y se define a partir de la siguiente expresión,


−x l −1
Γ (l ) = ∫ e x dx (40)
0

Finalmente, la desviación estándar es

2
 2   1 
s =a Γ  + 1  − Γ  + 1  (41)
b  b 
Una forma posible de estimar los parámetros a y b pertenecientes a la

distribución de Weibull es a través de una resolución gráfica. Este procedimiento exige


varios pasos y una o dos iteraciones, es relativamente directo y requiere de álgebra
sencilla.
Este método utiliza un papel a escala funcional llamado papel de Weibull o gráfico de
8
Allen Plait. En el eje de ordenadas se tiene la linealización de la función distribución
acumulativa,
b
 t 
− 
a 
F (t ) = 1 − e (42)

es decir,

  1 
y = ln  ln    = b ln t − b ln a (43)
  1 − F (t )  
y en el eje de abscisas se coloca el ln t .

Entonces, cualquier grupo de datos que sigan la distribución de Weibull se puede


representar por una línea recta siendo y = a + bx con

a = − b ln (a )
(44)
b= b

Ahora se recurre al papel de Weibull para hallar los parámetros a y b . Para calcular b ,

es decir, el parámetro de forma que representa la pendiente de la recta, se hace pasar una
recta paralela a la recta obtenida con la representación gráfica de los datos por el punto
1 de abscisas y 63,2 de ordenadas pudiendo leer directamente el valor de b en una

escala tabulada de 0 a 7 (Fig. 12).


Para calcular a , es decir el parámetro de escala, basta con encontrar la

intersección de la recta trazada con la línea paralela al eje de abscisas correspondiente al


63,2% de fallos acumulados. De esta manera se halla el valor de t correspondiente a la
b
a 
− 
a  −1
estimación de a . Esto es así pues F(t) =1- e = 1− e = 0 , 632 .

α
α =2000
Fig. 12: Lectura de los parámetros a y b en el papel de Weibull

Otra alternativa posible es plantear el método de máxima verosimilitud, siendo


la función verosimilitud de la ley de Weibull

N
L (a , b ) = ∏ f ( t , a , b ) (45)
t =1

con N el tamaño de la muestra de una variable aleatoria T.


Los estimadores se obtienen a partir de la maximización de la función
verosimilitud, o lo que es lo mismo, a partir del logaritmo neperiano de dicha función,
entonces, se deben cumplir simultáneamente las siguientes igualdades

∂ ln L
= 0
∂a
(46)
∂ ln L
= 0
∂b

Sin embargo, el sistema de ecuaciones que se obtiene a partir de tales igualdades no


permite estimar los parámetros analíticamente. Además, los estimadores que se obtienen
mediante el método de máxima verosimilitud son sesgados. Un método numérico que

permite encontrar el factor de insesgo para bˆ y para la varianza se puede encontrar en

el trabajo de Barone V., Calabrese P., Peralta J. E., “Estimadores de Máxima


Verosimilitud para los parámetros de la distribución de Weibull”, "Monografías sobre
Teoría de Errores y Tratamiento de Datos Experimentales (1995)", pág. 177-196.
En consecuencia, para poder hallar los estimadores de los parámetros de Weibull
se debe recurrir a métodos numéricos, como por ejemplo una simulación Monte Carlo, o
6
bien proponer métodos alternativos.
Una aproximación que se puede realizar frente a este inconveniente es
considerar la propiedad asintótica de los estimados de máxima verosimilitud, que
asigna, para un tamaño de muestra lo suficientemente grande, al estimador como
variable aleatoria una distribución normal. Es decir que nos permite aproximar el
comportamiento probabilístico del estimador.

Una de las posibles aplicaciones de la distribución de Weibull ha sido el estudio


9
de las variaciones de los vientos de un determinado sitio. Dicho análisis ha sido de gran
utilidad para los diseñadores de turbinas quienes utilizaron dichos resultados con el fin
de minimizar los costos. Se debe tener en cuenta, sin embargo, que la velocidad del
viento varía según el lugar donde se realicen las mediciones, depende, además, de las
condiciones locales del clima, del terreno y de su superficie; por lo tanto, la distribución
de Weibull variará no sólo en forma sino también en valor medio.
Esta función también se ha usado en las Ciencias Biológicas para estudiar
10
supervivencia a las bacteriemias y al cáncer gástrico.

5. Confiabilidad de los sistemas

Se presentan a continuación las dos maneras más sencillas de combinar unidades


4
individuales en un sistema y el tratamiento de sus respectivas confiabilidades.
Para que un sistema de n componentes independientes acoplados en serie funcione,
todos los componentes deben funcionar. Por lo tanto si uno falla, el sistema no funciona.
En consecuencia, la confiabilidad del sistema es menor que la confiabilidad de
cualquiera de sus componentes, siendo la función de confiabilidad del sistema
completo,

n
R ( t ) = R1 ( t ) R 2 ( t )........ R n ( t ) = ∏ Ri ( t ) (48)
i =1

En el caso de que los componentes estén conectados en paralelo, el sistema deja


de funcionar sólo si todos los componentes dejan de funcionar; suponiendo que los
componentes funcionan independientemente.
La confiabilidad de este sistema será mayor que cualquiera de los componentes
siendo la función de confiabilidad del sistema completo,

n
R(t)=1-[1-R 1 (t)] [1-R 2 (t)]… [1-R n (t)]= 1 − ∏ (1 − Ri ( t )) (49)
i =1

Por la sencilla razón de que el acoplamiento en paralelo aumenta la confiabilidad


del sistema es de uso más frecuente una operación en paralelo.

Es posible definir una nueva variable denominada “factor de seguridad”, que


físicamente representa la relación entre la resistencia de una estructura y la fuerza
aplicada a la misma. Si el cociente es menor a 1, la estructura fallará.

6. Discusión y Conclusiones

La teoría de la confiabilidad trata sobre la eficiencia de los sistemas


tecnológicos, designándole a cada uno de ellos una “función probabilidad” que permita
discernir si el sistema cumple satisfactoriamente con la función para la que fue diseñado
durante determinado período y en condiciones especificadas de operación detalladas. En
especial dicha teoría se ocupa de las fallas de los sistemas sin necesariamente indagar
las causas de los mismos. No es una teoría física, sino una teoría estadística. En síntesis,
permite predecir acerca del tiempo de vida de un conjunto de productos a través de un
ajuste de una función distribución estadística. La confianza y la probabilidad de falla
para un tiempo específico de tales productos son características que son posibles de
estimar a partir del análisis detallado de las gráficas obtenidas en cada caso en
particular.
En instalaciones en las que se pueden generar accidentes de graves
consecuencias, se hace imprescindible conocer la probabilidad de que éstos acontezcan
durante la vida del sistema. Es obligatorio, entonces, la aplicación de técnicas de
cuantificación del riesgo que recurren a modelos probabilísticos para establecer medidas
preventivas. Por esta razón los estudios de confiabilidad resultan ser cada vez más
relevantes.
Las tres leyes de fallas especificadas en este trabajo son sólo algunos de los
modelos que se utilizan en el estudio de las características de falla en componentes o en
sistemas de componentes.
La ley de fallas normal permite, a través del método más confiable de estimación
de parámetros, el de máxima verosimilitud, obtener expresiones analíticas para los
estimadores incógnitas. Existen dos razones de peso por las cuales este es el método
más usado en la actualidad, la primera es porque es relativamente fácil de implementar,
requiere poco esfuerzo computacional y porque además es poco sensible a la dispersión
6
de los datos.
Por otro lado, la distribución de Weibull es la ley de fallas más utilizada pues
describe ampliamente y en gran cantidad los fenómenos del “mundo real” a la hora de
analizar una gran variedad de funciones de confiabilidad de dispositivos o sistemas, sin
embargo sus parámetros característicos no pueden ser obtenidos a partir del método de
máxima verosimilitud pues resultan sesgados. En su lugar se puede utilizar la resolución
gráfica.
La pregunta que surge, en general, a la hora de la implementación de la teoría de
fallas es cuál es la distribución óptima que modela el problema a tratar.
Lamentablemente no existe un recetario en el cual nos podamos apoyar para garantizar
la repuesta correcta a dicha pregunta. Por lo tanto, algunas propiedades del sistema en
estudio son las que permitirán aproximarse a la resolución del problema planteado. Por
ejemplo si los efectos de desgaste en el tiempo pueden ser considerados despreciables,
es coherente que supongamos que la ley de falla exponencial será la más apropiada. Si
en cambio, el sistema se caracteriza por tener una simetría alrededor de un parámetro
fijo, es de esperar que la distribución que mejor ajuste será la normal o bien una de
Weibull con 2 , 6 < b < 3, 7 .

La distribución de Weibull complementa a la distribución exponencial y a la


normal, que son casos particulares de ella.
Una vez encontrada la distribución de fallas asignada al sistema, uno podría
preguntarse si es consistente, es decir si dicha ley describe el comportamiento del
sistema, para ello se debe pasar por un test de hipótesis, que garantizará dicha
consistencia; en caso de contrario, deberé aumentar el número de datos, cambiar el
histograma o bien cambiar la función.
En este trabajo se han planteado tres métodos alternativos para la estimación de
los respectivos parámetros de las distintas distribuciones, el método gráfico, el de
cuadrados mínimos y el método de máxima verosimilitud. El método gráfico permite la
estimación del parámetro de forma y del parámetro de escala de la distribución de
probabilidad. Las ventajas de este método están basadas en dos conceptos, la linealidad
del gráfico de probabilidad que es un parámetro que permite garantizar la buena
elección de la distribución elegida y el coeficiente de correlación entre los puntos
experimentales y la curva teórica que es un indicador de tal linealidad. Esta técnica es
de fácil implementación para una gran variedad de distribuciones que poseen un único
parámetro de forma. Este hecho también es, por otro lado la limitación o desventaja que
posee este método.
El método de máxima verosimilitud tiene grandes ventajas cuando el tamaño de la
muestra es muy grande pues posee propiedades matemáticas óptimas como la obtención
de estimadores convergentes, generalmente insesgados o cuyo sesgo puede corregirse
fácilmente, con esperanza definida y de varianza mínima, por lo tanto, el intervalo de
confianza de todos los estimadores es el más angosto posible. Además existe gran
cantidad de software disponible en el mercado que provee excelentes algoritmos para
obtener estimadores a partir del método de máxima verosimilitud con las distribuciones
11
más usadas. Por otro lado, las desventajas de este método radican en que según sea la
cantidad de parámetros a estimar, dependiendo de la distribución elegida, la matemática
no es, en general, trivial, más aún si se imponen los intervalos de confianza a obtener.
La estimación numérica tampoco es trivial y el método puede ser sensible a la elección
de los valores iniciales.
El método de cuadrados mínimos provee una alternativa al método de máxima
verosimilitud y también es de fácil acceso a través de software especializados en
estadística, en los cuales se incluyen también ajustes no lineales y proporcionan una
amplia variedad de funciones de distribución de probabilidades a elección. Las
desventajas son, por un lado, que no contempla las propiedades óptimas deseadas para
un estimador mencionadas en el método de máxima verosimilitud y por otro lado, el
método es sensible a la elección de los valores iniciales elegidos.

Referencias
1
http://www.weibull.com/LifeDataWeb/the_ normal_distribution.htm
2
http://www.mtas.es/insht/ntp/ntp_316.htm
3
http://www.weibull.com/LifeDataWeb/exponential_ probability_density_function.htm
4
Paul L. Meyer, Probabilidad y Aplicaciones Estadísticas”, cap. 11, Addison-Wesley Iberoamericana.
5
Felizia, E. “Centrales Nucleares, La Evaluación Probabilística”, CienciaHoy, Vol. 5, N°35, 1996.
6
Barone V., Calabrese P., Peralta J. E., “Estimadores de Máxima Verosimilitud para los parámetros de la
distribución de Weibull”, "Monografías sobre Teoría de Errores y Tratamiento de Datos
Experimentales (1995)", pág. 177-196.
7
http://www.weibull.com/LifeDataWeb/characteristics_of_the_weibull_distribution.htm
8
Tamborero J., “Fiabilidad: La distribución de Weibull”
9
http://www.windpower.org/en/tour/wres/weibull.htm
10
Marubini E, Bonfanti G, Bozzetti F, et al. A prognostic score for patients resected for gastric cancer.
Eur J Cancer 29A: 845-850. (1993).
11
Weibull++ 6 es un software diseñado específicamente para el análisis de tiempos de vida y de
confiabilidad. Provee una gran variedad de análisis estadístico. (Supports: Life Data Analysis * Weibull
Analysis * Complete and Censored (Suspended) Data * Maximum Likelihood Estimation (MLE) *
Regression Analysis * Weibull Distributions * Mixed Weibull Distributions * Generalized Gamma
Distributions * Lognormal Distributions * Exponential Distributions * Normal Distributions)

View publication stats

También podría gustarte