Está en la página 1de 19

FUNCIONES DE DISTRIBUCION DE PROBABILIDAD

INTRODUCCION
La Función de Probabilidad es la probabilidad de que la variable aleatoria tome un valor particular:

Ejemplo
Podemos obtener las frecuencias relativas de las calificaciones de un curso y disponerlas en una
tabla:

Asignando un número a cada calificación, y sustituyendo el símbolo de frecuencia relativa por el


de probabilidad:

Función de Distribución

La Función de Distribución es la probabilidad de que la variable tome valores iguales o inferiores a


x:
Si añadimos una nueva columna con las probabilidades acumuladas, tenemos la función de
distribución Ejemplo:

Tanto la Función de Probabilidad como la de distribución pueden ser representadas gráficamente


con el diagrama de barras:
Función de probabilidad:
Función de distribución:

Fuente de información:
https://www.uv.es/webgid/Descriptiva/3_funciones_de_probabilidad_y_distribucin.html.
3.1 VARIABLES ALEATORIAS Y SU CLASIFICACION
Variable aleatoria: es una variable que toma valores numéricos determinados por el resultado de
un experimento aleatorio.
Ejemplo: Suponga que se lanza una moneda 2 veces de tal forma que el espacio muestral es:
S= {SS, SA, AS, AA}
Si x representa el número de caras que puedan resultar como cada punto muestral se puede
asociar un número para cada x.

CLASIFICACIÓN DE LAS VARIABLES ALEATORIAS


Variable aleatoria discreta: Es una variable que toma un numero finito n un infinito contable de
valores, es decir números enteros positivos incluyendo el 0.
Variable aleatoria continua: Es una variable que toma un numero finito no contable de valores, es
decir los números reales.
http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro19/31definicin_y_clasificacin.html.
Variable aleatoria: Transformación que permite pasar de trabajar con un experimento a trabajar
con números reales ¿Cómo? Poniendo etiquetas a los distintos sucesos elementales bajo los que
se materia un fenómeno estadístico. Ejemplo: Experimento: lanzamiento de 2 monedas
Variable Aleatoria: Nº de caras al lanzar 2 monedas
Fuente de información: https://www2.ulpgc.es/hege/almacen/download/49/49942/tema_07.pdf.
3.2 DISTRIBUCIONES DE PROBABILIDAD DISCRETAS.
¿Qué es una distribución continua?
Una distribución continua describe las probabilidades de los posibles valores de una variable
aleatoria continua. Una variable aleatoria continua es una variable aleatoria con un conjunto de
valores posibles (conocido como el rango) que es infinito y no se puede contar.
Las probabilidades de las variables aleatorias continuas (X) se definen como el área por debajo de
la curva de su PDF. Por lo tanto, solo los rangos de valores pueden tener una probabilidad
diferente de cero. La probabilidad de que una variable aleatoria continua equivalga a algún valor
siempre es cero.
Ejemplo de la distribución de pesos
La distribución normal continua puede describir la distribución del peso de hombres adultos. Por
ejemplo, usted puede calcular la probabilidad de que un hombre pese entre 160 y 170 libras.

Gráfica de distribución del peso de hombres adultos


El área sombreada debajo de la curva en este ejemplo representa el rango de 160 a 170 libras. El
área de este rango es 0.136; por lo tanto, la probabilidad de que un hombre seleccionado
aleatoriamente pese entre 160 y 170 libras es de 13.6%. Toda el área por debajo de la curva
equivale a 1.0.
Sin embargo, la probabilidad de que X sea exactamente igual a algún valor siempre es cero,
porque el área por debajo de la curva en un punto individual, que no tiene anchura, es cero. Por
ejemplo, la probabilidad de que un hombre pese exactamente 190 libras es cero. Podría calcular
una probabilidad diferente de cero de que un hombre pese más de 190 libras, menos de 190 libras
o entre 189.9 y 190.1 libras, pero la probabilidad de que pese exactamente 190 libras es cero.
¿Qué es una distribución discreta?
Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable
aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores
contables, tales como una lista de enteros no negativos. Con una distribución de probabilidad
discreta, cada valor posible de la variable aleatoria discreta puede estar asociado con una
probabilidad distinta de cero. Por lo tanto, una distribución de probabilidad discreta suele
representarse en forma tabular.
Ejemplo del número de quejas de clientes
Con una distribución discreta, a diferencia de una distribución continua, usted puede calcular la
probabilidad de que X sea exactamente igual a algún valor. Por ejemplo, puede utilizar la
distribución discreta de Poisson para describir el número de quejas de clientes en un día.
Supongamos que el número promedio de quejas por día es 10 y usted desea saber la probabilidad
de recibir 5, 10 y 15 quejas de clientes en un día.

Usted también puede visualizar una distribución discreta en una gráfica de distribución para ver las
probabilidades entre los rangos.

Gráfica de distribución del número de quejas de clientes


Las barras sombreadas en este ejemplo representan el número de ocurrencias cuando las quejas
diarias de los clientes son 15 o más. La altura de las barras suma 0.08346; por lo tanto, la
probabilidad de que el número de llamadas por día sea 15 o más es 8.35%.
Fuente de información: https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/basics/continuous-and-discrete-probability-
distributions/.
3.3 DISTRIBUCION HIPERGEOMETRICA
la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y
sin reemplazo. Suponga que se tiene una población de N elementos de los cuales, d pertenecen a
la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x (
0 ≤ x ≤ d ) elementos de la categoría A en una muestra sin reemplazo de n elementos de la
población original.
PROPIEDADES
La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede
deducirse a través de razonamientos combinatorios y es igual a

las aplicaciones principales de la distribución hipergeométrica son: control de calidad en procesos con
poca población y el cálculo de probabilidades en los juegos de azar. En cuanto a la función matemática
que define la distribución hipergeométrica, esta consta de tres parámetros, que son:

– Número de elementos de población (N)

– Tamaño de la muestra (m)

– Cantidad de eventos en la población completa con un resultado favorable (o desfavorable) de la


característica estudiada (n).

La fórmula de la distribución hipergeométrica da la probabilidad P de que x casos


favorables de cierta característica ocurran. La manera de escribirla matemáticamente, en
función de los números combinatorios es:

En la expresión anterior N, n y m son parámetros y x la variable propiamente dicha.

–Población total es N.

-Número de resultados positivos de cierta característica binaria respecto de la población


total es n.
-Cantidad de elementos de la muestra es m.

En este caso, X es una variable aleatoria que toma el valor x y P(x) indica la probabilidad
de ocurrencia de x casos favorables de la característica estudiada.

Propiedades principales de la distribución hipergeométrica, Son las siguientes:

– La muestra siempre debe ser pequeña, aunque la población sea grande.

– Los elementos de la muestra se van extrayendo de a uno, sin incorporarlos nuevamente a la


población.

– La propiedad a estudiar es binaria, es decir sólo puede tomar dos valores: 1 o 0, o bien cierto o
falso.

En cada paso de extracción de elementos, la probabilidad cambia dependiendo de los resultados


previos.

Aproximación mediante la distribución binomial

Otra propiedad de la distribución hipergeométrica es que puede aproximarse por la distribución


binomial, denotada como Bi, siempre y cuando la población N sea grande y al menos 10 veces
mayor que la muestra m. En este caso quedaría así:

Ejemplo 1

Supongamos una máquina que produce tornillos y los datos acumulados indican que el 1% salen
con defectos. Entonces en una caja de N=500 tornillos el número de defectuosos será:

n = 500 * 1/100 = 5

Probabilidades mediante la distribución hipergeométrica

Supongamos que de esa caja (es decir de esa población) tomamos una muestra de m=60
tornillos.
La probabilidad que ningún tornillo (x=0) de la muestra salga defectuoso es 52,63%. A este
resultado se llega al usar la función de distribución hipergeométrica:

P(500, 5, 60; 0)= 0,5263

La probabilidad que x=3 tornillos de la muestra salgan defectuosos es: P(500, 5, 60; 3)=0,0129.

Por su parte, la probabilidad de que x=4 tornillos de los sesenta de la muestra salgan defectuosos
es: P(500, 5, 60; 4)=0,0008.

Finalmente, la probabilidad que x=5 tornillos en esa muestra salgan con defecto es: P(500, 5, 60;
5)=0.

Pero si se quiere saber la probabilidad de que en esa muestra existan más de 3 tornillos
defectuosos, entonces hay que obtener la probabilidad acumulada, sumando:

P(3)+P(4)+P(5)= 0,0129+0,0008+0=0,0137.

Este ejemplo está ilustrado en la figura 2, obtenida mediante el uso de GeoGebra un software libre
de amplio uso en escuelas, institutos y universidades.

Fuentes de información: https://www.lifeder.com/distribucion-hipergeometrica/.


3.4 DISTRIBUCION DE POISSON

¿Qué es una distribución de Poisson?

La distribución de Poisson se especifica por un parámetro: lambda (λ). Este parámetro es igual a
la media y la varianza. Cuando lambda aumente a valores lo suficientemente grandes, la
distribución normal (λ, λ) podría utilizarse para aproximar la distribución de Poisson.

Utilice la distribución de Poisson para describir el número de veces que un evento ocurre en un
espacio finito de observación. Por ejemplo, una distribución de Poisson puede describir el número
de defectos en el sistema mecánico de un avión o el número de llamadas a un centro de llamadas
en una hora. La distribución de Poisson se utiliza con frecuencia en el control de calidad, los
estudios de fiabilidad/supervivencia y los seguros.

Una variable sigue una distribución de Poisson si se cumplen las siguientes condiciones:

Los datos son conteos de eventos (enteros no negativos, sin límite superior).

Todos los eventos son independientes.

La tasa promedio no cambia durante el período de interés.

Las siguientes gráficas representan distribuciones de Poisson con valores diferentes de lambda.

Lambda = 3 Lambda = 10

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-distributions-and-random-
data/supporting-topics/distributions/poisson-distribution/.
La forma matemática de la distribución de Poisson es la siguiente:

– μ (también a veces denotado como λ) es la media o parámetro de la distribución

– Número de Euler: e = 2.71828

– La probabilidad de obtener y = k es P

– k es el número de éxitos 0, 1,2,3…

– n es el número de pruebas o eventos (el tamaño de la muestra)

Las variables aleatorias discretas, como su nombre lo indica, dependen del azar y únicamente
toman valores discretos: 0, 1, 2, 3, 4…, k.

La media de la distribución viene dada por:

La varianza σ, que mide la dispersión de los datos, es otro parámetro importante. Para la
distribución de Poisson es:

σ=μ

Poisson determinó que cuando n → ∞, y p → 0, la media μ –también llamada valor esperado–


tiende a una constante:

μ → constante

Importante: p es la probabilidad de ocurrencia del evento tomando en cuenta la población total,


mientras que P (y) es la predicción de Poisson sobre la muestra.

Ejercicio 1
Un estudio sismológico determinó que durante los últimos 100 años, hubo 93 terremotos grandes
en todo el mundo, de al menos 6.0 en la escala de Richter –logarítmica-. Supongamos que la
distribución de Poisson es un modelo adecuado en este caso. Hallar:

a) El promedio de ocurrencia de grandes terremotos al año.

b) Si P(y) es la probabilidad de que ocurran y terremotos durante un año seleccionado al azar,


hallar las siguientes probabilidades:

P(0), P(1), P (2), P (3), P (4), P (5), P (6) y P (7).

c) Los verdaderos resultados del estudio son los siguientes:

– 47 años (0 terremotos)

– 31 años (1 terremotos)

– 13 años (2 terremotos)

– 5 años (3 terremotos)

– 2 años (4 terremotos)

– 0 años (5 terremotos)

– 1 años (6 terremotos)

– 1 años (7 terremotos)

¿Cómo se comparan estos resultados con los obtenidos en el inciso b? ¿Es la distribución de
Poisson una buena elección para modelar estos eventos?

Solución a)

a) Los terremotos son sucesos cuya probabilidad p es pequeña y estamos considerando un


período restringido de tiempo, de un año. El promedio de terremotos es:
μ = 93 / 100 terremotos/año = 0.93 terremotos por año.

Solución b)

b) Para calcular las probabilidades solicitadas, se sustituyen valores en la fórmula dada al


comienzo:

y=2

μ = 0.93

e = 2.71828

Es bastante menor que P(2).

Los resultados se listan a continuación:

P (0) = 0.395, P (1) = 0.367, P (2) = 0.171, P (3) = 0.0529, P (4) = 0.0123, P (5) = 0.00229, P (6) =
0.000355, P (7) = 0.0000471.

Por ejemplo, podríamos decir que hay una probabilidad de 39.5 % de que no ocurra ningún gran
terremoto en un año dado. O que hay 5,29 % de que ocurran 3 grandes terremotos en dicho año.

Solución c)

c) Se analizan las frecuencias, multiplicando por n=100 años:

39.5; 36.7; 17.1 ; 5.29 ; 1.23 ; 0.229 ; 0.0355 y 0.00471.

Por ejemplo:
– Una frecuencia de 39.5 indica que, en 39.5 de 100 años ocurren 0 terremotos grandes,
podríamos decir que está bastante cerca al resultado real de 47 años sin ningún gran terremoto.

Comparemos otro resultado de Poisson con los resultados reales:

– El valor obtenido de 36.7 significa que en un período 37 años hay 1 gran terremoto. El resultado
real es que en 31 años hubo 1 gran terremoto, una buena coincidencia con el modelo.

– Se esperan 17.1 años con 2 grandes terremotos y se sabe que en 13 años, que es un valor
cercano, hubo en efecto 2 grandes terremotos.

Por lo tanto el modelo de Poisson es aceptable para este caso.

Fuente de información: https://www.lifeder.com/distribucion-de-poisson/.

3.5 DISTRIBUCIONES DE PROBABILIDAD CONTINUA

Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes valores,
aleatoria, porque los valores que toma son totalmente al azar y continua porque puede tomar tanto
valores enteros como fraccionarios y un número infinito de ellos.

Características:
1. Es generada por una variable continua (x).

X Es una variable que puede tomar tanto valores enteros como fraccionarios.

X 1.0, 3.7, 4.0, 4.6, 7.9, 8.0, 8.3, 11.5,...., ¥

2. f(x) ≥0 Las probabilidades asociadas a cada uno de los valores que toma x deben ser
mayores o iguales a cero. Dicho de otra forma, la función de densidad de probabilidad
deberá tomar solo valores mayores o iguales a cero. La función de densidad de
probabilidad sólo puede estar definida en los cuadrantes I y II.

3. La sumatoria de las probabilidades asociadas a cada uno de los valores que


toma x debe ser igual a 1. El área definida bajo la función de densidad de probabilidad deberá
ser de 1.

http://www.itchihuahua.edu.mx/academic/industrial/sabaticorita/_private/04Distribuciones%20de%
20Probabilidad.htm
3.6 DISTRIBUCION T

En la generalidad de los casos, no disponemos de la desviación standard de la población, sino de


una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no podemos
calcular Z.

Supóngase que se toma una muestra de una población normal con media y varianza . Si
es el promedio de las n observaciones que contiene la muestra aleatoria, entonces la

distribución es una distribución normal estándar. Supóngase que la varianza de la


población 2 es desconocida. ¿Qué sucede con la distribución de esta estadística si se
reemplaza por s? La distribución t proporciona la respuesta a esta pregunta.

La media y la varianza de la distribución t son =0y para >2, respectivamente.

La siguiente figura presenta la gráfica de varias distribuciones t. La apariencia general de la


distribución t es similar a la de la distribución normal estándar: ambas son simétricas y
unimodales, y el valor máximo de la ordenada se alcanza en la media = 0. Sin embargo, la
distribución t tiene colas más amplias que la normal; esto es, la probabilidad de las colas es mayor
que en la distribución normal. A medida que el número de grados de libertad tiende a infinito, la
forma límite de la distribución t es la distribución normal estándar.

Propiedades de las distribuciones t

1. Cada curva t tiene forma de campana con centro en 0.


2. Cada curva t, está más dispersa que la curva normal estándar z.
3. A medida que aumenta, la dispersión de la curva t correspondiente disminuye.
4. A medida que , la secuencia de curvas t se aproxima a la curva normal estándar,
por lo que la curva z recibe a veces el nombre de curva t con gl =

https://sites.google.com/site/estadisticainfprocesamiento4/3-5-distribucion-t-student
3.7 DISTRIBUCION CHI-CUADRADA

La distribución Chi Chi-Cuadrada Cuadrada (chisquareden inglés, se pronuncia “Kay skuerd”)es


una de las distribuciones más empleadas en todos los campos.
Su uso más común es cuando se quiere probar si unas mediciones que se hayan efectuado
siguen una distribución esperada, por ejemplo la normal o cualquier otra.
Otro de sus usos es en intervalos de confianza y pruebas de hipótesis para las varianzas o
desviaciones estándar.

Si graficamos curvas para diferentes valores de n, encontramos que la forma de la distribución chi-
cuadrada cambia dependiendo del número de grados de libertad.

https://sites.google.com/site/estadisticainfprocesamiento4/3-6-distribucion-ji-cuadrada

3.8 DISTRIBUCION F

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de


probabilidad continua. También se le conoce como distribución F de Snedecor (por George
Snedecor) o como distribución F de Fisher-Snedecor.
Una variable aleatoria de distribución F se construye como el siguiente cociente:

donde
 U1 y U2 siguen una distribución chi-cuadrado con d1 y d2 grados de libertad
respectivamente, y
 U1 y U2 son estadísticamente independientes.
La distribución F aparece frecuentemente como la distribución nula de una prueba estadística,
especialmente en el análisis de varianza. Véase el test F.
La función de densidad de una F(d1, d2) viene dada por
para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la función beta.
La función de distribución es

donde I es la función beta incompleta regularizada.


http://probabilidadyestadisticaitsav.blogspot.com/2012/06/49-distribucion-f.html

3.9 ESPERANZA MATEMATICA


En estadística la esperanza matemática (también llamada esperanza, valor esperado, media
poblacional o media) de una variable aleatoria , es el número que formaliza la idea
de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de
cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la
cantidad media que se "espera" como resultado de un experimento aleatorio cuando la
probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número
de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no
ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser
improbable o incluso imposible.
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos
hacer el cálculo

y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos
los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar.
Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una
apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos
apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por
tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para
apostar a un solo número es:

que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5
céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474
euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no
ganamos ni perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de $1, por eso es
negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los $35. La
esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado
a perder.
http://probabilidadyestadisticaitsav.blogspot.com/2012/06/45-esperanza-matematica.html

También podría gustarte