Está en la página 1de 24

DISTRIBUCIÓN DE WEIBULL

El análisis de Weibull es la técnica mayormente elegida para estimar una probabilidad, basada en
datos medidos o asumidos. La distribución de Weibull descubierta por el sueco Walodi We ibull,
fue anunciada por primera vez en un escrito en 1951. La distribución de Weibull es útil por su
habilidad para simular un amplio rango de distribuciones como la Normal, la Exponencial, etc. Las
técnicas discutidas en la distribución de Weibull son similares a las usadas con las distribuciones
Normal y Log-Normal. Este artículo le dará una visión general de la aplicación de la distribución de
Weibull.

Permítame nombrarlo a usted como miembro principal del Comité de Refrigerios de un equipo de
béisbol. Suponga que usted compra 800 perros calientes (“hot dogs”) cada semana, y toma nota
del número de perros calientes que realmente vende en un partido de béisbol universitario. En los
primeros siete juegos las cifras son:

492 287 521 604 349 453 412

El presidente de su Comité de Refrigerios quiere reducir los costos para mantener contentos a los
propietarios. El presidente quiere que usted compre solamente los suficientes perros calientes la
próxima vez, de tal manera que solo en el 15% de las veces no hayan suficientes perros calientes (en
el 85% de las veces habrán suficientes perros calientes para vender). Usted consulta a su profesor de
estadística quien le indica acerca de utilizar el ANÁLISIS DE WEIBULL, dado que la cantidad de
perros calientes vendida es aproximadamente un número aleatoriamente variable.

Su profesor de estadística, con ayuda de un software o simplemente a mano, tabula los siete datos
iniciales y procede a calcular lo que se conoce como RANGO MEDIO, para cada uno de ellos. El
Rango Medio es un número entre 0 a 1 que refleja en orden ascendente la fracción del valor del dato
que es menor que el mismo dato. Así, se obtiene la Tabla 1, una vez ordenados los datos.

ORDEN DATO RANGO MEDIO


1 287 0.09459459
2 349 0.2297297
3 412 0.3648649
4 453 0.5
5 492 0.6351351
6 521 0.7702703
7 604 0.9054054
Tabla 1.
En la tabla 1, hay un 90.5% de posibilidades que el número de perros calientes vendidos sea menor
a 604, dado que el Rango Medio para este último punto es de 0.9054054. Usualmente, el Rango
Medio se puede encontrar en los libros de estadística, o puede ser calculado con la fórmula de
Bernard.

Si se dibuja en un gráfico el doble logaritmo de 1/(1 - Rango Medio) vs. el logaritmo de los datos en
cuestión, se obtiene el Gráfico de Weibull (ver Fig. 1). Usualmente, la mayoría de los datos a
analizar forman una línea recta en esta gráfica. Esta línea recta puede ser trazada por el método de la
regresión o de los mínimos cuadrados.

85

567

Fig. 1. Gráfico de Weibull

La ecuación de la distribución acumulativa de Weibull es:

b
- { ( t - to ) / h }
F(t) = 1 - e
donde:

e = Base de los logaritmos naturales = 2.718281.......


t = Parámetro de interés o valor en x
to = valor en x inicial (tercer parámetro de Weibull)
 = Vida característica
 = Factor de forma

La pendiente de la línea recta que pasa por la mayoría de los puntos en el Gráfico de Weibull, es
también el Factor de Forma b. Esta  indica el tipo de distribución de probabilidad (normal,
exponencial, etc.).

La Vida Característica h es el valor del dato (en este caso: número de perros calientes) que
corresponde al 63.2% del valor del Rango Medio de la línea recta. Este 63.2% es realmente 1 - 1/e,
dado to = 0 y t = . En el Gráfico de Weibull, usted puede hacer estimaciones de probabilidades
utilizando la línea recta, o simplemente leyendo la probabilidad en la escala vertical, para un dato
(en este caso, un número de perros calientes).

Volviendo al ejemplo, el número estimado de perros calientes a comprar, para un 15% de veces no
satisfechas, se localiza en la línea recta con una probabilidad de 0.85 (85%). Para este dato, el punto
ocurre a los 567 perros calientes.

Pero, espere un momento. ¿Cómo asegura usted este tipo de análisis?

La respuesta es: aproximadamente en un 50% (según la estadística). Esto es, con 567 perros
calientes en el próximo juego de béisbol usted tiene un 15% de probabilidad de que tenga menos
perros calientes de los requeridos, o que tenga un 15% más de los perros vendidos (el Rango Medio
implica un 50 - 50 de posibilidades para la probabilidad real, siendo mas bajo a mas alto de lo
estimado). Dado que su presidente de comité le dice que usted deberá asegurarse en un 90% de que
los clientes no atendidos sean menores al 15%, usted deberá tener CONFIABILIDAD (algunos
autores la llaman Confianza).

Usted puede obtener la confiabilidad requerida para valores diferentes al 50% (Rango Medio). Para
el efecto, debe trazar sobre el mismo Gráfico de Weibull la línea de confiabilidad superior del 90%,
la cual usualmente es curva (Ver Fig. 2).

En la Fig. 2, entrando por la escala vertical con un 85% de ocurrencia hasta la línea curva de
confiabilidad del 90%, y bajando verticalmente, se encuentra en la escala horizontal con un valor de
647 perros calientes. Esa es la cantidad (647) que usted deberá comprar para el próximo partido,
para que por lo menos tenga un 85% de posibilidades de satisfacer a todos los futuros clientes con
un 90 de confianza (Confiabilidad).
85

90%

647

Fig. 2. Gráfico de Weibull con curva de Confianza del 90%

Pero, otro momento. Suponga ahora que en un nuevo partido (octavo) a la altura del séptimo
inning empezó a llover fuertemente, se suspendió el partido y usted solamente había vendido 370
perros calientes. Usted sabe que habría podido vender más (mas de
370 perros calientes) si no hubiera llovido. Este dato, por su característica, se llama
SUSPENDIDO y debe tenerse en cuenta para el cálculo total, por lo que la mayoría de software lo
considera y le da un tratamiento especial (por convención: -370), el cual afecta los rangos medios
(Ver Tabla 2).

El tercer punto en la Tabla 2 es el valor de dato de suspensión (-370). Usualmente, los números de
secuencia después de una suspensión no son enteros.

Continuando con el ejemplo, el número de perros calientes que usted debe comprar, para tener un
85% de posibilidades de satisfacer a todos sus clientes, con un 90% de confianza (Confiabilidad) es
de 641, debido a la adición de este nuevo dato de suspensión (Ver Fig. 3).
ORDEN DATO RANGO MEDIO
1 287 0.0833333
2 349 0.202381
3 -370 Suspensión
4 412 0.3412698
5 453 0.4801587
6 492 0.6190476
7 521 0.7579364
8 604 0.8968253
Tabla 2

85

90%

641

Fig. 3. Gráfico de Weibull con curva de Confianza del 90% y 1 Suspensión

Con esta información, usted regresa a donde su presidente de comité, le muestra los resultados y le
indica el ahorro de 800 - 641 = 159 perros calientes por partido. Felicitaciones, ha concluido usted
con éxito su análisis, con un ahorro considerable para su Comité.
OTROS CASOS

La técnica de Weibull puede ser usada para estimar la probabilidad en numerosos casos. Es
frecuente emplearla en estimar la vida de los rodamientos. La vida B-10 (falla del 10%) se obtiene
cuando se prueban rodamientos nuevos bajo condiciones de carga, velocidad y lubricación
específicas, con un resultado de falla del 10% de los rodamientos.

Suponga que usted ha probado 4 rodamientos y registrado la vida útil de cada uno de ellos: 55, 70,
40, y 65 horas. Usted puede obtener la vida B-10 graficando los datos mediante la técnica de
Weibull. La vida B-10 se obtiene localizando el 10% en la línea de ocurrencia sobre el eje vertical y
encontrando el punto en el eje horizontal correspondiente. Así, para el ejemplo, la vida B-10 es de
34 horas (Ver Fig. 4). Esto quiere decir, que a las 34 horas de operación, y para esos rodamientos en
particular, fallarán un 10% de ellos.

34

Fig. 4. Gráfico de Weibull para el ejemplo de los rodamientos

Traducido y adaptado por Héctor Danilo Ordóñez Lozano


La Distribución Normal
La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754).
Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la
ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la "campana de
Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su
media y su desviación estándar, denotadas generalmente por y . Con esta notación, la densidad de
la normal viene dada por la ecuación:
Ecuación 1:

que determina la curva en forma de campana que tan bien conocemos (Figura 2). Así, se dice que una
característica sigue una distribución normal de media y varianza , y se denota como
, si su función de densidad viene dada por la Ecuación 1.

Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al número de
datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2, en el eje horizontal
se levantan perpendiculares en dos puntos a y b, el área bajo la curva delimitada por esas líneas indica la
probabilidad de que la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la
curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden asintóticamente
hacia los ejes, cuando una variable siga una distribución normal, será mucho más probable observar un
dato cercano al valor medio que uno que se encuentre muy alejado de éste.

Propiedades de la distribución normal:

La distribución normal posee ciertas propiedades importantes que conviene destacar:

I. Tiene una única moda, que coincide con su media y su mediana.


II. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre y es
teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
III. Es simétrica con respecto a su media . Según esto, para este tipo de variables existe una
probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un dato
menor.
IV. La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una
desviación típica ( ). Cuanto mayor sea , más aplanada será la curva de la densidad.
V. El área bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones
estándar de la media es igual a 0.95. En concreto, existe un 95% de posibilidades de observar un
valor comprendido en el intervalo .
VI. La forma de la campana de Gauss depende de los parámetros y (Figura 3). La media indica
la posición de la campana, de modo que para diferentes valores de la gráfica es desplazada a lo
largo del eje horizontal. Por otra parte, la desviación estándar determina el grado de apuntamiento
de la curva. Cuanto mayor sea el valor de , más se dispersarán los datos en torno a la media y la
curva será más plana. Un valor pequeño de este parámetro indica, por tanto, una gran probabilidad
de obtener datos cercanos al valor medio de la distribución.

Como se deduce de este último apartado, no existe una única distribución normal, sino una familia de
distribuciones con una forma común, diferenciadas por los valores de su media y su varianza. De entre
todas ellas, la más utilizada es la distribución normal estándar, que corresponde a una distribución de
media 0 y varianza 1. Así, la expresión que define su densidad se puede obtener de la Ecuación 1,
resultando:

Es importante conocer que, a partir de cualquier variable X que siga una distribución , se puede
obtener otra característica Z con una distribución normal estándar, sin más que efectuar la transformación:

Ecuación 2:
Esta propiedad resulta especialmente interesante en la práctica, ya que para una distribución
existen tablas publicadas (Tabla 1) a partir de las que se puede obtener de modo sencillo la probabilidad
de observar un dato menor o igual a un cierto valor z, y que permitirán resolver preguntas de probabilidad
acerca del comportamiento de variables de las que se sabe o se asume que siguen una distribución
aproximadamente normal.

Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los sujetos de
una determinada población sigue una distribución aproximadamente normal, con una media de 80 Kg y
una desviación estándar de 10 Kg. ¿Podremos saber cuál es la probabilidad de que una persona, elegida
al azar, tenga un peso superior a 100 Kg?

Denotando por X a la variable que representa el peso de los individuos en esa población, ésta sigue una
distribución . Si su distribución fuese la de una normal estándar podríamos utilizar la Tabla 1
para calcular la probabilidad que nos interesa. Como éste no es el caso, resultará entonces útil
transformar esta característica según la Ecuación 2, y obtener la variable:

para poder utilizar dicha tabla. Así, la probabilidad que se desea calcular será:

Como el área total bajo la curva es igual a 1, se puede deducir que:

Esta última probabilidad puede ser fácilmente obtenida a partir de la Tabla 1, resultando ser
. Por lo tanto, la probabilidad buscada de que una persona elegida aleatoriamente
de esa población tenga un peso mayor de 100 Kg , es de 1–0.9772=0.0228, es decir, aproximadamente de
un 2.3%.

De modo análogo, podemos obtener la probabilidad de que el peso de un sujeto esté entre 60 y 100 Kg:

De la Figura 2, tomando a=-2 y b=2, podemos deducir que:

Por el ejemplo previo, se sabe que . Para la segunda probabilidad, sin embargo,
encontramos el problema de que las tablas estándar no proporcionan el valor de para valores
negativos de la variable. Sin embargo, haciendo uso de la simetría de la distribución normal, se tiene que:
Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso entre 60 y 100 Kg.,
es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%. Resulta interesante comprobar que
se obtendría la misma conclusión recurriendo a la propiedad (III) de la distribución normal.

No obstante, es fácil observar que este tipo de situaciones no corresponde a lo que habitualmente nos
encontramos en la práctica. Generalmente no se dispone de información acerca de la distribución teórica
de la población, sino que más bien el problema se plantea a la inversa: a partir de una muestra extraída al
azar de la población que se desea estudiar, se realizan una serie de mediciones y se desea extrapolar los
resultados obtenidos a la población de origen. En un ejemplo similar al anterior, supongamos que se
dispone del peso de n=100 individuos de esa misma población, obteniéndose una media muestral de
Kg, y una desviación estándar muestral Kg, querríamos extraer alguna conclusión
acerca del valor medio real de ese peso en la población original. La solución a este tipo de cuestiones se
basa en un resultado elemental de la teoría estadística, el llamado teorema central del límite. Dicho
axioma viene a decirnos que las medias de muestras aleatorias de cualquier variable siguen ellas mismas
una distribución normal con igual media que la de la población y desviación estándar la de la población

dividida por . En nuestro caso, podremos entonces considerar la media muestral

con lo cual, a partir de la propiedad (III) se conoce que aproximadamente un 95% de los posibles valores
de caerían dentro del intervalo

Puesto que los valores de y son desconocidos, podríamos pensar en aproximarlos por sus análogos

muestrales, resultando . Estaremos, por lo tanto, un


95% seguros de que el peso medio real en la población de origen oscila entre 75.6 Kg y 80.3 Kg. Aunque
la teoría estadística subyacente es mucho más compleja, en líneas generales éste es el modo de construir
un intervalo de confianza para la media de una población.

Contrastes de Normalidad
La verificación de la hipótesis de normalidad resulta esencial para poder aplicar muchos de los
procedimientos estadísticos que habitualmente se manejan. Tal y como ya se apuntaba antes, la simple
exploración visual de los datos observados mediante, por ejemplo, un histograma o un diagrama de cajas,
podrá ayudarnos a decidir si es razonable o no el considerar que proceden de una característica de
distribución normal. Como ejemplo, consideremos los histogramas que se muestran en la Figura 4a,
correspondientes a una muestra de 100 mujeres de las que se determinó su peso y edad. Para el caso del
peso, la distribución se asemeja bastante a la de una normal. P ara la edad, sin embargo, es claramente
asimétrica y diferente de la gaussiana.

Resulta obvio que este tipo de estudio no puede llevarnos sino a obtener una opinión meramente subjetiva
acerca de la posible distribución de nuestros datos, y que es necesario disponer de otros métodos más
rigurosos para contrastar este tipo de hipótesis. En primer lugar, deberemos plantearnos el saber si los
datos se distribuyen de una forma simétrica con respecto a su media o presentan algún grado de asimetría,
pues es ésta una de las características fundamentales de la distribución de Gauss. Aunque la simetría de
la distribución pueda valorarse, de modo simple, atendiendo a algunas medidas descriptivas de la variable
en cuestión8 (comparando, por ejemplo, los valores de media, mediana y moda), resultará útil disponer de
algún índice que nos permita cuantificar cualquier desviación. Si se dispone de una muestra de tamaño n,

de una característica X, se define el coeficiente de asimetría de Fisher como:


a partir del cual podemos considerar que una distribución es simétrica ( =0), asimétrica hacia la
izquierda ( <0) o hacia la derecha ( >0). En segundo lugar, podemos preguntarnos si la curva es más o
menos "aplastada", en relación con el grado de apuntamiento de una distribución gaussiana. El
coeficiente de aplastamiento o curtosis de Fisher, dado por:

permite clasificar una distribución de frecuencias en mesocúrtica (tan aplanada como una normal,
), leptocúrtica (más apuntada que una normal, ) o platicúrtica (más aplanada que una
normal, ).

Siguiendo con los ejemplos anteriores, y tal y como cabía esperar, el coeficiente de asimetría toma un
valor mayor para la distribución de la edad ( ) que para el peso observado ( ).
En cuanto a los niveles de curtosis, no hay apenas diferencias, siendo de –0.320 para el peso y de –0.366
para la edad.

Los gráficos de probabilidad normal constituyen otra importante herramienta gráfica para comprobar si
un conjunto de datos puede considerarse o no procedente de una distribución normal. La idea básica
consiste en enfrentar, en un mismo gráfico, los datos que han sido observados frente a los datos teóricos
que se obtendrían de una distribución gaussiana. Si la distribución de la variable coincide con la normal,
los puntos se concentrarán en torno a una línea recta, aunque conviene tener en cuenta que siempre
tenderá a observarse mayor variabilidad en los extremos (Figura 4a, datos del peso). En los gráficos P-P
se confrontan las proporciones acumuladas de una variable con las de una distribución normal. Los
gráficos Q-Q se obtienen de modo análogo, esta vez representando los cuantiles respecto a los cuantiles
de la distribución normal. Además de permitir valorar la desviación de la normalidad, los gráficos de
probabilidad permiten conocer la causa de esa desviación. Una curva en forma de "U" o con alguna
curvatura, como en el caso de la edad en la Figura 4b, significa que la distribución es asimétrica con
respecto a la gaussiana, mientras que un gráfico en forma de "S" significará que la distribución tiene colas
mayores o menores que la normal, esto es, que existen pocas o demasiadas observaciones en las colas de
la distribución.

Parece lógico que cada uno de estos métodos se complemente con procedimientos de análisis que
cuantifiquen de un modo más exacto las desviaciones de la distribución normal. Existen distintos tests
estadísticos que podemos utilizar para este propósito. El test de Kolmogorov-Smirnov es el más
extendido en la práctica. Se basa en la idea de comparar la función de distribución acumulada de los
datos observados con la de una distribución normal, midiendo la máxima distancia entre ambas curvas.
Como en cualquier test de hipótesis, la hipótesis nula se rechaza cuando el valor del estadístico supera un
cierto valor crítico que se obtiene de una tabla de probabilidad. Dado que, en la mayoría de los paquetes
estadísticos, como el SPSS, aparece programado dicho procedimiento, y proporciona tanto el valor del
test como el p-valor correspondiente, no nos detendremos más en explicar su cálculo. Existen
modificaciones de este test, como el de Anderson-Darling que también pueden ser utilizados. Otro
procedimiento muy extendido es también el test chi-cuadrado de bondad de ajuste. No obstante, este tipo
de procedimientos deben ser utilizados con precaución. Cuando se dispone de un número suficiente de
datos, cualquier test será capaz de detectar diferencias pequeñas aun cuando estas no sean relevantes para
la mayor parte de los propósitos. El test de Kolmogorov-Smirnov, en este sentido, otorga un
peso menor a las observaciones extremas y por la tanto es menos sensible a las desviaciones
que normalmente se producen en estos tramos.

Para acabar, observemos el resultado de aplicar el test de Kolmogorov-Smirnov a los datos de la Figura
2. Para el caso del peso, el valor del estadístico proporcionado por dicho test fue de 0.705, con
un p-valor correspondiente de p=0.702 que, al no ser significativo, indica que podemos asumir
una distribución normal. Por otra parte, para el caso de la edad, en el que la distribución
muestral era mucho más asimétrica, el mismo test proporcionó un valor de 1.498, con p=0.022,
lo que obligaría a rechazar en este caso la hipótesis de una distribución gaussiana.
Figura 1. Histograma de los valores de tensión arterial sistólica para
dos muestras de pacientes isquémicos ingresados en una unidad de
cuidados intensivos.
Figura 1a.- Valores de tensión arterial sistólica en una muestra de
1000 pacientes isquémicos ingresados en UCI.

Figura 1b.- Valores de tensión arterial sistólica de una muestra de


5000 pacientes ingresados en UCI.
Figura 2. Gráfica de una distribución normal y significado del área
bajo la curva.
Tabla 1. Áreas bajo la curva normal estándar. Los valores de la tabla
que no se muestran en negrita representan la probabilidad de
observar un valor menor o igual a z. La cifra entera y el primer
decimal de z se buscan en la primera columna, y el segundo decimal
en la cabecera de la tabla.

Segunda cifra decimal del valor de z


z 0.00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359
0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753
0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141
0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517
0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879
0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224
0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549
0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852
0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133
0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389
1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621
1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830
1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015
1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177
1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319
1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441
1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545
1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633
1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706
1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767
2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817
2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857
2.2 .9861 .9864 .9868 .9871 .9875 .4878 .9881 .9884 .9887 .9890
2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916
2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936
2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952
2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964
2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974
2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981
2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986
3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990
3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993
3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995
3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997
3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998
Figura 3. Ejemplos de distribuciones normales con diferentes parámetros.
Figura 4. Histogramas y gráficos de probabilidad normal de los
valores de peso y edad en dos muestras de pacientes.
Figura 4a.- Histogramas

Figura 4b.- Gráficos Q-Q de probabilidad.


la distribución lognormal
Utilice la distribución lognormal si el logaritmo de la variable aleatoria está distribuido normalmente.
Utilícese cuando las variables aleatorias sean mayores que 0. Por ejemplo, la distribución lognormal
se usa para el análisis de fiabilidad y en aplicaciones financieras, como modelar el comportamiento de
las acciones.

La distribución lognormal es una distribución continua que se define por sus parámetros de ubicación
y escala. La distribución lognormal de 3 parámetros se define por sus parámetros de ubicación, escala
y valor umbral.

La forma de la distribución lognormal es similar a la forma de las distribuciones loglogística y de


Weibull. Por ejemplo, la siguiente gráfica ilustra la distribución lognormal para escala=1.0,
ubicación=0.0 y valor umbral=0.0.

sd
Fig. 1: Curva típica de la evolución de la tasa de fallos

Características de la distribución

La distribución lognormal se obtiene cuando los logaritmos de una Variable se describen mediante una distribución normal. Es el caso en el que las
variaciones en la fiabilidad de una misma clase de componentes técnicos se representan considerando la tasa de fallos
aleatoria en lugar de una variable constante.

Es la distribución natural a utilizar cuando las desviaciones a partir del valor del modelo están formadas por factores, proporciones o porcentajes más que
por valores absolutos como es el caso de la distribución normal.

La distribución lognormal tiene dos parámetros: m* (media aritmética del logaritmo de los datos o tasa de fallos) y (desviación estándar del
logaritmo de los datos o tasa de fallos).

Propiedades

La distribución lognormal se caracteriza por las siguientes propiedades:

● Asigna a valores de la variable < 0 la probabilidad 0 y de este modo se ajusta a las tasas y probabilidades de fallo que de esta forma sólo
pueden ser positivas.
● Como depende de dos parámetros, según veremos, se ajusta bien a un gran número de distribuciones empíricas.
● Es idónea para parámetros que son a su vez producto de numerosas cantidades aleatorias (múltiples efectos que influyen sobre la
fiabilidad de un componente).
● La esperanza matemática o media en la distribución lognormal es mayor que su mediana. De este modo da más importancia a los valores
grandes de las tasas de fallo que una distribución normal con los mismos percentiles del 5% y 50% tendiendo, por tanto, a ser pesimista. Esta
propiedad se puede apreciar en la figura 2.

Fig. 2: Comparación entre una distribución normal y una lognormal con los mismos percentiles del 5% y 50%. (Distribución
normal normalizada a 1, distribución lognormal con el mismo factor)

Variable independiente: el tiempo

La distribución lognormal se ajusta a ciertos tipos de fallos (fatiga de componentes metálicos), vida de los aislamientos eléctricos, procesos continuos
(procesos técnicos) y datos de reparación y puede ser una buena representación de la distribución de los tiempos
de reparación. Es también una distribución importante en la valoración de sistemas con reparación.

La distribución lognormal es importante en la representación de fenómenos de efectos proporcionales, tales como aquellos en los que un cambio en la
variable en cualquier punto de un proceso es una proporción aleatoria del valor previo de la variable. Algunos fallos en el programa de mantenimiento
entran en esta categoría.

Según hemos visto, la distribución lognormal es aquella en que el logaritmo de la variable está distribuido normalmente. Por tanto, podemos obtener la
función densidad de probabilidad de la distribución lognormal a partir de la distribución normal mediante la transformación:

 = In t (1)

donde t está distribuida normalmente. La función densidad de probabilidad de la distribución normal es:

Para la distribución normal el parámetro de localización,  0 es también la media, por lo que se cumple que:

 0 =  m (3)

donde

 0 = parámetro de localización

 m = media

En la transformación de cualquier distribución estadística se debe satisfacer la siguiente. condición:

f (t) d t = f () d  (4)

y por tanto:

Teniendo en cuenta la transformación (1) se tiene:

Entonces la distribución lognormal puede ser obtenida sustituyendo las igualdades (1), (2) y (6) en la (5) obteniéndose:

siendo

= desviación estándar en la distribución normal tm =

tiempo medio

t = tiempo

La ecuación (7) también puede escribirse de la siguiente forma:

Se puede resaltar que el parámetro de localización de la distribución normal original se ha convertido ahora en un parámetro de escala coincidente con
la media. La dispersión a es también un parámetro de forma según se puede ver en la figura 3, donde aparece la función densidad de probabilidad de la
distribución lognormal para distintos valores de (0,4; 0,6; 1,0 y 1,4).
Fig. 3: Función densidad de probabilidad para distintos valores de (0,4 a 1,4)

Para valores medios y altos de , la distribución lognormal es significativamente asimétrica, pero a medida que a decrecer la distribución es más
simétrica. Si se acerca a la unidad, la distribución lognormal es equivalente aproximadamente a la distribución exponencial negativa. También se
puede observar que para valores de < 0,2 la distribución lognormal se aproxima a la distribución normal. (Ver figura 4).

Fig. 4: Comparación entre la distribución lognormal y las distribuciones normal y exponencial

Para efectuar cálculos se puede escribir la ecuación (8) de la siguiente forma:

donde fN es la forma estándar de la función densidad de probabilidad de la distribución normal y puede ser obtenida a partir de tablas.
La indisponibilidad Q (t) es la función acumulativa de la probabilidad y aplicada a los fallos de los componentes, representa la probabilidad de que el
componente falle antes de t.

Siendo FN la función acumulativa normalizada de la distribución normal, que también puede obtenerse en tablas estadísticas. Asimismo, podemos
establecer la expresión de la Fiabilidad R (t) obtenida a partir de la Indisponibilidad Q (t):
Y la tasas de fallos (t):

Variable independiente: la tasa de fallos

La aplicación más importante de la distribución lognormal es la descripción de la dispersión existente en los datos de tasas de fallos de componentes. La
función densidad de , se puede escribir a partir de la ecuación (7) de la siguiente forma:

con > 0; > 0; -  < m* < 

En la ecuación (13) m* y 2 son la esperanza o media y la varianza, respectivamente, de los logaritmos de las tasas de fallos. Sus valores se obtienen
mediante las siguientes estimaciones:

Siendo N el número total de valores de la tasa de fallos de un componente.

Puede resultar práctico conocer la probabilidad de que un valor de aleatorio sea menor que un valor determinado 0. Este valor se
obtiene por medio de la integración de la función densidad de probabilidad de la tasa de fallos que se ha expuesto en la igualdad (13) obteniéndose la
siguiente expresión:

Mediante la transformación:

La expresión anterior se convierte en la siguiente:

Siendo el miembro derecho de esta igualdad la función de distribución normal.

Damos a continuación la expresión de algunos de los parámetros de la distribución lognormal de las tasas de fallo:

Siendo m* y la media y la desviación estándar del logaritmo neperiano de las tasas de fallos.

Para caracterizar la distribución lognormal, normalmente se indica, además de su mediana (17), su factor de dispersión D, que tiene la
En la ecuación (21), 1,645 es aquel valor del límite superior de la integral de la ecuación (16) para el cual ésta tiene un valor de 0,95 ( 95 %) y los
subíndices indican los percentiles correspondientes de la tasa de fallo .

Con la elección del factor 1,645 el intervalo [ 50/D, 50 . D] abarca el 90% de todos los valores posibles de quedándose el 5% por debajo del límite
inferior y otro 5% por encima del límite superior.

Caso práctico

De bancos de datos de fiabilidad de componentes y de la bibliografía se han extraído los siguientes valores de la tasa de fallos, correspondientes al fallo
en la apertura de una válvula de seguridad: i (i = 1,...,4 ) (2 · 10-6 ; 8 · 10-5; 9,1 · 10-5; 1,6 · 10-6 h-1).

Se trata de calcular los parámetros que nos definen la distribución lognormal de las tasas de fallo (la mediana, varianza, media, moda, el factor de
dispersión y los valores 05 y 95).

Solución: Calculemos primero los parámetros que nos definen la distribución normal de los logaritmos de las tasas de fallos, es decir m* y 2.

Calculemos los parámetros que nos definen la distribución lognormal:

Esto nos indica que el 95 % de los valores de las tasas de fallos obtenidas serán superiores o iguales a 4,84 -10 -4 h-1. Por otro lado, se puede afirmar que
el 5 % de los valores de las tasas de fallos obtenidas serán inferiores o iguales a 3,12 · 10-7 h-1.

También podría gustarte