Está en la página 1de 10

REPUBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACION SUPERIOR

UNIVERSIDAD ALNSO DE OJEDA

UNIOJEDA

CARORA LARA

LEYES PROBABILISTICAS

PARTICIPANTE

ELVIS QUERALES

CI 27553711.
INTRODUCCION

El análisis de Weibull es la técnica mayormente escogida para estimar


una probabilidad basada en datos medidos o asumidos. La distribución
de Weibull, descubierta por el sueco Walodi Weibull, fue anunciada por
primera vez en un escrito en 1951.

El modelo Weibull tiene una interesante propiedad ligada a que según


sean los valores de, puede presentar tasas de fallo crecientes,
decrecientes o constantes. Así, cuando β=1 el modelo Weibull se
convierte en exponencial y presenta tasa de fallos constante. El modelo
exponencial es por tanto un caso particular del modelo Weibull, cuando
β>1 el modelo tiene tasa de falla creciente y cuando β<1 presenta tasa
de falla decreciente. El modelo Weibull es muy versátil y en la práctica
es uno de los más utilizados.

El objetivo de este artículo es presentar una serie de ejemplos prácticos


basada en mi concepto de compartir el conocimiento, que permitan dar
una visión general del uso del análisis Weibull.

La distribución de probabilidad de la variable aleatoria que representa el número


de resultados que suceden durante un intervalo de tiempo dado, o una región
específica, recibe el nombre de distribución de Poisson, con parámetro λ. Mientras
que la distribución de probabilidad de la variable aleatoria que representa el
tiempo, hasta que se produce α veces un determinado suceso, se llama
distribución Gamma (ésta es una manera de describir a la distribución gamma),
con parámetros α y β.
La distribución de Bernoulli

La distribución de Bernoulli es un modelo teórico utilizado para representar


una variable aleatoria discreta la cual solo puede resultar en dos sucesos
mutuamente excluyentes. 

En otras palabras es una distribución aplicada a una variable aleatoria discreta, la


cual solo puede resultar en dos sucesos posibles: “éxito” y “no éxito”. Un
experimento es un acción aleatoria la cual no tenemos forma de predecir, como el
resultado de lanzar un dado. En la distribución de Bernoulli solo hacemos un  único
experimento. En el caso que se realicen más de un experimento, como en
la distribución binomial los experimentos son independientes entre sí.

CARACTERISTICAS

0 si q > p (hay más fracasos que éxitos) 1 si q < p (hay más éxitos que fracasos) 0
y 1 si q = p (los dos valores, pues hay igual número de fracasos que de éxitos) la
distribución de Bernoulli tiene un valor de curtosis menor que el de cualquier otra
distribución, igual a -2.

EJEMPLO

Un jugador marca el 85% de los penaltis que intenta. Si lanza 8 penaltis calcular la
probabilidad de

a) Marque más de 6 penaltis

b) Marque al menos 6 penaltis

LA DISTRIBUCIÓN BINOMIAL

La distribución Binomial es una distribución de probabilidad discreta que mide el


número de éxitos en una secuencia de n ensayos de Bernoulli independientes
entre sí, con una Probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son
posibles dos resultados. A uno de estos se denomina éxito y tiene una
probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad Q = 1 - p. En
la distribución Binomial el anterior experimento se repite n veces, de forma
independiente, y se trata de calcular la probabilidad de un determinado número de
éxitos. Para N = 1, la Binomial se convierte, de hecho, en una distribución de
Bernoulli.

LEY BINOMIAL:
En estadística, la distribución binomial es una distribución de probabilidad discreta
que cuenta el número de éxitos en una secuencia de n ensayos
de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del
éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por
ser dicotómico, esto es, solo dos resultados son posibles. A uno de estos se
denomina «éxito» y tiene una probabilidad de ocurrencia p y al otro, «fracaso»,
con una probabilidad2 q = 1 - p. En la distribución binomial el anterior experimento
se repite n veces, de forma independiente, y se trata de calcular la probabilidad de
un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho,
en una distribución de Bernoulli.

CARACTERISTICAS

a)      En los experimentos que tienen este tipo de distribución, siempre se esperan
dos tipos de resultados, ejemplo. Defectuoso, no defectuoso, pasa, no pasa, etc.,
denominados arbitrariamente “éxito” (que es lo que se espera que ocurra) o
“fracaso” (lo contrario del éxito).

b)      Las probabilidades asociadas a cada uno de estos resultados son


constantes, es decir no cambian.

c)      Cada uno de los ensayos o repeticiones del experimento son independientes


entre sí.

d)      El número de ensayos o repeticiones del experimento (n) es constante.

EJEMPLO

Un agente de seguros vende pólizas a cinco personas de la misma edad y que


disfrutan de buena salud.

Según las tablas actuales, la probabilidad de que una persona en estas


condiciones viva 30 años o más es 2/3.

Hállese la probabilidad de que, transcurridos 30 años, vivan:


 

1 Las cinco personas

2 Al menos tres personas

3 Exactamente dos personas

LEY DE POISSON

 Es una distribución de probabilidad discreta que expresa, a partir de una


frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado
número de eventos durante cierto período de tiempo. Concretamente, se
especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy
pequeñas, o sucesos «raros».

CARACTERÍSTICAS:

En este tipo de experimentos los éxitos buscados son expresados por unidad de
área, tiempo, pieza, etc:

- # de defectos de una tela por m2

- # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc.

- # de bacterias por cm2 de cultivo

- # de llamadas telefónicas a un conmutador por hora, minuto, etc.

- # de llegadas de embarcaciones a  un puerto por día, mes, etc.

Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo,


área, o producto, la fórmula a utilizar sería:
 

                                                            

Donde:

p(x, ) = probabilidad de que ocurran x éxitos, cuando el número promedio de


ocurrencia de ellos es 

 = media o promedio de éxitos por unidad de tiempo, área o producto

 = 2.718

x = variable que nos denota el número de éxitos que se desea que ocurra

Hay que hacer notar que en esta distribución el número de éxitos que ocurren por
unidad de tiempo, área o producto es totalmente al azar y que cada intervalo de
tiempo es independiente de otro intervalo dado, así como cada área es
independiente de otra área dada y cada producto es independiente de otro
producto dado.

EJEMPLO

Cierta enfermedad tiene probabilidad de ocurrir p=1/100000, lo que en Medicina


se denomina prevalencia. Calcula la probabilidad de que en una ciudad de 500000
habitantes haya más de 3 personas con dicha enfermedad. ¿Cuál sería en dicha
ciudad el número de enfermos esperado?
Solución:
El problema se podría abordar mediante una B( 500000, 0,00001 )
En este caso aproximaremos por un modelo de Poisson de parámetro
 LEY NORMAL UNIVARIADA

En estadística y probabilidad se llama distribución normal, distribución de


Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de
las distribuciones de probabilidad de variable continua que con más frecuencia
aparece en estadística y en la teoría de probabilidades.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica


respecto de un determinado parámetro estadístico. Esta curva se conoce
como campana de Gauss y es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos


fenómenos naturales, sociales y psicológicos.  Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la
enorme cantidad de variables incontrolables que en ellos intervienen, el uso del
modelo normal puede justificarse asumiendo que cada observación se obtiene
como la suma de unas pocas causas independientes.

De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin


explicación alguna. Para la explicación causal es preciso el diseño experimental,
de ahí que al uso de la estadística en psicología y sociología sea conocido
como método correlacional.

La distribución normal también es importante por su relación con la estimación


por mínimos cuadrados, uno de los métodos de estimación más simples y
antiguos.

EJEMPLO

caracteres morfológicos de individuos como la estatura;


caracteres fisiológicos como el efecto de un fármaco;
caracteres sociológicos como el consumo de cierto producto por un mismo grupo
de individuos; caracteres psicológicos como el cociente intelectual; nivel
de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes;

etc.

La distribución normal también aparece en muchas áreas de la propia estadística.


Por ejemplo, la distribución muestral de las medias muestrales es
aproximadamente normal, cuando la distribución de la población de la cual se
extrae la muestra no es normal. 4 Además, la distribución normal maximiza
la entropía entre todas las distribuciones con media y varianza conocidas, lo cual
la convierte en la elección natural de la distribución subyacente a una lista de
datos resumidos en términos de media muestral y varianza. La distribución normal
es la más extendida en estadística y muchos tests estadísticos están basados en
una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias


distribuciones de probabilidad continua  y discreta.

CARACTERISTICAS

 La distribución de probabilidad normal es simétrica con respecto a su media.


Características de la distribución de Probabilidad normal  La curva normal  Media,
mediana y moda son iguales.

LEY UNIFORME

La distribución uniforme continua es una familia de distribuciones de


probabilidad para variables aleatorias continuas, tales que para cada miembro de
la familia, todos los intervalos de igual longitud en la distribución en su rango son
igualmente probables. El dominio está definido por dos parámetros, a y b, que son
sus valores mínimo y máximo.

DISTRIBUCIÓN DE PROBABILIDAD UNIFORME

La distribución de probabilidad uniforme es un ejemplo de una distribución de


probabilidad es continua. Una distribución de probabilidad es continua cuando los
resultados posibles del experimento son obtenidos de variables aleatorias
continuas, es decir, de variables cuantitativas que pueden tomar cualquier valor, y
que resultan principalmente del proceso de medición.

EJEMPLO

La estatura de un grupo de personas

El tiempo dedicado a estudiar

La temperatura en una ciudad

Es una distribución en el intervalo [a,b] en la cual las probabilidades son las


mismas para todos los posibles resultados, desde el mínimo de a hasta el máximo
de b. El experimento de lanzar un dado es un ejemplo que cumple la distribución
uniforme, ya que todos los 6 resultados posibles tienen 1/6 de probabilidad de
ocurrencia.

DISTRIBUCION WEIBULL
Es una distribución de probabilidad continua. La distribución modela
la distribución de fallos (en sistemas) cuando la tasa de fallos es proporcional a
una potencia del tiempo: Un valor k<1 indica que la tasa de fallos decrece con el
tiempo.

EJEMPLO

El tiempo T en segundos que tarda en conectarse a un servidor durante un día


laborable sigue una distribución de Weibull de parámetros α = 0.6 y β = 1/4,
mientas que un fin de semana es una Weibull de parámetros α = 0.24 y β = 1,
donde la densidad de la Weibull se escribe como f (t) = β αβ t β−1 exp − t α β .
Se quiere saber: (a) Tiempo medio que tardaremos en conectarnos en ambos
tipos de día; (b) Calcula, para ambos tipos de día, la probabilidad de tardar más de
10 segundos en realizar la conexión (c) Si llevamos ya 5 segundos esperando a
que se efectué la conexión, ¿cuál es la probabilidad de que la conexión se demore
aun 10 segundos más? (d) ¿Era de esperar el resultado que se obtiene en (c)?

CONCLUSION
Generalmente conocemos el valor de (la cantidad esperada de eventos por
unidad de tiempo), y entonces nos preguntamos cuántos eventos obtendremos en
una determinada cantidad de tiempo, o cuánto tiempo tendremos que esperar
hasta observar una determinada cantidad de eventos. De esta forma obtenemos 2
distribuciones: - Poisson: consiste en preguntar por la cantidad de eventos en el
período (la longitud de un intervalo del continuo que va a estudiarse). Es decir,
dado, calcular la distribución de (la cantidad de eventos que hay en ese intervalo).

- Gamma: consiste en preguntar por la cantidad de tiempo necesario hasta


observar eventos. Es decir, dado, calcular la distribución de. Y además:

- Exponencial: caso particular de Gamma cuando, es decir, consiste en preguntar


por la cantidad de tiempo necesaria hasta obtener el primer evento.