Está en la página 1de 10

ESTADÍSTICA

GUÍA DE ESTUDIOS 2020

DISTRIBUCIÓN
DE PROBABILIDADES
V.A.D.

Prof. Tit. Ing. Agr. MELITÓN MATEO BARROZO


Jefe de Trabajos Prácticos C.P.N. HORACIO CERDÁ
DISTRIBUCIÓN DE PROBABILIDADES DE VARIABLES ALEATORIAS
DISCRETAS – V.A.D.
INTRODUCCIÓN

Hemos analizado:

- Las variables principalmente discretas y contínuas


- Las poblaciones a través de las distribuciones de frecuencia y parámetros
estadísticos.

Con los principios de probabilidades que hemos visto analizaremos como se


comportan las ”variables aleatorias”, llamadas así porque su ocurrencia está determinada
por el azar.

En este caso también tenemos dos tipos de variables: discretas y contínuas.

VARIABLES ALEATORIAS DISCRETAS – V.A.D.

VARIABLES ALEATORIAS CONTÍNUAS – V.A.C

Al igual que en los análisis de distribuciones de frecuencia y sus parámetros, en


estos casos también analizaremos distribuciones de probabilidades de variables aleatorias
discretas y contínuas. En ambos casos existen distintos esquemas de distribución, en
nuestro caso veremos los más usuales.

1.- DISTRIBUCIÓN BINOMIAL

Se consideran sólo dos probabilidades:

a.- Éxito, ocurrencia, aparición y se denomina “p”


b.- Fracaso, no ocurrencia, no aparición y se denomina “q”
Con estas características:
 Son mutuamente excluyentes
 Son complementarias → 𝑝 + 𝑞 = 1
 Este esquema se aplica para pruebas repetidas “n”
 “p” y “q” se mantienen constantes
 la variable “x”, está: 0 ≤ 𝑥 ≤ 𝑛

Para explicar como se obtiene la distribución tomo un matrimonio que ha decidido


tener 3 hijos, entonces calcularemos las probabilidades de tener varones por lo tanto:
1
ocurrencia de varón → “p” = 2

2
ocurrencia de mujer → “q” = 3

“x” → cantidad de varones 0 ≤ x ≤ 3


1º embarazo:

varón → ”𝑝”

mujer → "𝑞"

La probabilidad total del primer embarazo es la suma de las probabilidades

p + q = 1 (𝒑 + 𝒒)𝟏 = 1

2º embarazo:

En este caso incluiremos las probabilidades del primer embarazo:

1º embarazo 2º embarazo
(1º y 2º)
varón y varón → 𝑝. 𝑝 = 𝑝 2
v → "𝑝"
varón y mujer → 𝑝. 𝑞

mujer y varón → 𝑞. 𝑝 = 𝑝. 𝑞
m → "𝑞"
mujer y mujer → 𝑞. 𝑞 = 𝑞2

La probabilidad total de los dos embarazos es la suma de las probabilidades:

𝑝2 + 2𝑝𝑞 + 𝑞2 = (p + q)2= 1

3º embarazo:

En este caso incluiremos las probabilidades del 1 y 2º embarazo:

1º embarazo 2 º embarazo (1º y 2º) 3º embarazo (1º, 2º y 3º)


varón, varón y varón → 𝑝. 𝑝. 𝑝 = 𝑝3
varón y varón → 𝑝. 𝑝 = 𝑝2
varón, varón y mujer → 𝑝 2 . 𝑞
v → "𝑝"
varón, mujer y varón → 𝑝. 𝑞. 𝑝 = 𝑝2 . 𝑞
varón y mujer → 𝑝. 𝑞
varón, mujer y mujer → 𝑝. 𝑞. 𝑞 = 𝑝. 𝑞2

mujer, varón y varón → 𝑞. 𝑝. 𝑝 = 𝑝2 𝑞


mujer y varón → 𝑞. 𝑝 = 𝑝. 𝑞
mujer, varón y mujer → 𝑞. 𝑝. 𝑝 = 𝑝. 𝑞2
m → "𝑞"
mujer, mujer y varón → 𝑞2 . 𝑝 = 𝑝. 𝑞2
mujer y mujer → 𝑞. 𝑞 = 𝑞2
mujer, mujer y mujer → 𝑞. 𝑞. 𝑞 = 𝑞3

La probabilidad total de los tres embarazos es la suma de las probabilidades:

𝑝3 + 3𝑝2 𝑞 + 3𝑝𝑞2 𝑞3 = (p + q)3 = 1

Evidentemente si seguimos con un 4º, 5º y más embarazos, en la probabilidad total


siempre llegaremos al BINOMIO elevado a una potencia igual a la cantidad total de
observaciones, por lo que en general diremos:

(p + q)n = 1
Volviendo a:

𝑝3 + 3𝑝 2 𝑞 + 3𝑝𝑞2 𝑞3 = (𝑝 + 𝑞)3 = 1

Esta expresión la podemos desarrollar de la siguiente forma:

1𝑝3 𝑞0 + 3𝑝 2 𝑞1 + 3𝑝1 𝑞2 − 1𝑝0 𝑞3 = 1

Observamos que cada término expresa la probabilidad de ocurrencia y está


compuesto por 3 factores: un número entero, una potencia de p y una potencia de q. El
exponente de p , “x” indica las variables de casos de ocurrencia y el exponente de q, “n-x”
los casos de no ocurrencia. Por lo tanto para calcular la probabilidad de una variable es:

𝑃(𝑥) = nCx𝑝 𝑥 𝑞(𝑛−𝑥)

La expresión de P(x) es la estimación de probabilidades para el esquema BINOMIAL.

Tener en cuenta que


𝑛

∑ 𝑃(𝑥) = 1
𝑥=0

A. Esperanza
Como su nombre lo indica es el valor esperado en una cantidad “n” de
observaciones en este esquema. Es el equivalente de la media aritmética en las
distribuciones de frecuencia, fórmula de la cual partiremos:
𝑛 𝑛
1 𝑟𝑖
𝑥̅ = ∑ 𝑥𝑖 𝑟𝑖 = ∑ 𝑥𝑖
𝑁 𝑁
𝑖=1 𝑖=1
Vimos que:
𝑟𝑖
𝑁
= 𝑃(𝑖)
Por lo que podemos decir:
𝑛

𝑥̅ ≅ ∑ 𝑥𝑖 𝑃(𝑖)
𝑖=1
Por analogía:
𝑛

E(𝑥) = ∑ 𝑥 𝑃(𝑥)
𝑥=0

Para simplificar el cálculo desarrollamos P(x)


𝑛
𝑛!
E(𝑥) = ∑ 𝑥 𝑝 𝑥 𝑞𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑥=0

𝑛
𝑛. (𝑛 − 1)!
E(𝑥) = ∑ 𝒙 𝑝𝑝 𝑥−1 𝑞𝑛−𝑥
𝒙(𝑥 − 1)! (𝑛 − 𝑥)!
𝑥=0

Simplificamos las x y extraemos fuera de la ”n” y “p” quedando:


𝑛−1

E(𝑥) = 𝑛𝑝 ∑ 𝑝 𝑥−1 𝑞𝑛−𝑥


𝑥=0

Donde:
𝑛−1
(𝑛 − 1)!
∑ 𝑝 𝑥−1 𝑞𝑛−𝑥 = (𝑝 + 𝑞)𝑛−1 = 1
(𝑥 − 1)! (𝑛 − 𝑥)!
𝑥=0

Obteniendo:

𝐄(𝒙) = 𝒏𝒑

B. Varianza – Dispersión

Sabemos que: 𝜎 2 = 𝑚2 𝑚12 por lo que en este caso será:


2
𝜎(𝑥) = E(𝑥)2 – (E(𝑥) )2

Analizamos E(𝑥)2 y luego reemplazamos:


𝑛

E(𝑥) = ∑ 𝑥 2 𝑃(𝑥)
2

𝑥=0

Para simplificar el cálculo desarrollamos P(x) y hacemos 𝑥 2 = 𝑥 + 𝑥(𝑥 − 1)


𝑛
2
𝑛!
E(𝑥) = ∑⦋𝑥 + 𝑥(𝑥 − 1)⦌ 𝑝 𝑥 𝑞𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑥=0

Aplicamos distributiva y queda:


𝑛 𝑛
𝑛! 𝑛!
E(𝑥)2 = ∑ 𝑥 𝑝 𝑥 𝑞𝑛−𝑥 + ∑ 𝑥(𝑥 − 1) 𝑝 𝑥 𝑞𝑛−𝑥
𝑥! (𝑛 − 𝑥)! 𝑥! (𝑛 − 𝑥)!
𝑥=0 𝑥=0

𝑛
𝑛(𝑛 − 1)(𝑛 − 2)!
E(𝑥)2 = 𝑛𝑝 + ∑ 𝒙(𝒙 − 𝟏) 𝑝2 𝑝 𝑥−2 𝑞𝑛−𝑥
𝒙(𝒙 − 𝟏)(𝑥 − 2)! (𝑛 − 𝑥)!
𝑥=0

Simplificamos 𝒙(𝒙 − 𝟏) y extraemos "𝑛(𝑛 − 1) y 𝑝 2 "


𝑛−2
2 2
(𝑛 − 2)!
E(𝑥) = 𝑛𝑝 + 𝑛(𝑛 − 1)𝑝 ∑ 𝑝 𝑥−2 𝑞𝑛−𝑥
(𝑥 − 2)! (𝑛 − 𝑥)!
𝑥=0

Donde:
𝑛−2
(𝑛 − 2)!
∑ 𝑝 𝑥−2 𝑞𝑛−𝑥 = (𝑝 + 𝑞)𝑛−2 = 1
(𝑥 − 2)! (𝑛 − 𝑥)!
𝑥=0
Obteniendo:

E(𝑥)2 = 𝑛𝑝 + 𝑛2 𝑝2 − 𝑛𝑝 2
2
Reemplazando en 𝜎(𝑥) = E(𝑥)2 – (E(𝑥) )2

2
𝜎(𝑥) = 𝑛𝑝 + 𝒏𝟐 𝒑𝟐 − 𝑛𝑝2 − 𝒏𝟐 𝒑𝟐

Simplificando 𝑛2 𝑝2 queda:
2
𝜎(𝑥) = 𝑛𝑝 − 𝑛𝑝2

Extrayendo factor común 𝑛𝑝, obtenemos VARIANZA

𝝈𝟐(𝒙) = 𝒏𝒑(𝟏 − 𝒑) también 𝝈𝟐(𝒙) = 𝒏𝒑𝒒

Por lo tanto DISPERSIÓN

𝝈(𝒙) = √𝒏𝒑(𝟏 − 𝒑) también 𝝈(𝒙) = √𝒏𝒑𝒒

C. Valor más probable


P(x)

x-1 x x+1 x

En el gráfico observamos que la variable “x” es la de mayor probabilidad y para


determinar su valor efectuaremos las relaciones entre las probabilidades de la
mencionada variable con la variable anterior “x-1” y la variable posterior “x+1” de la
siguiente forma:
𝑃(𝑥) 𝑃(𝑥)
𝑃(𝑥−1)
>1 y 𝑃(𝑥+1)
> 1
De ambas relaciones se obtiene:
Suponemos obtener:
𝑛𝑝 + 𝑝 − 1 = 2,3 ; 𝑛𝑝 + 𝑝 = 3,3
Al ser una distribución de variables aleatorias discretas nos indica que "𝑥" = 3
Ahora bien, supongamos obtener:
𝑛𝑝 + 𝑝 − 1 = 2 ; 𝑛𝑝 + 𝑝 = 3
En este caso nos indica que ambos valores, "𝑥" = 2 y "𝑥" = 3 son los de máxima
probabilidad, por lo tanto la expresión que indica el VALOR MÁS PROBABLE es:
𝒏𝒑 + 𝒑 − 𝟏 ≤ 𝒙 ≤ 𝒏𝒑 + 𝒑

Cuando la cantidad de ensayos n → ∞ , el límite del esquema es la distribución


Normal.

USOS

- En pruebas y/o muestreos con reposición.

- Para efectuar ajustes de distribuciones de frecuencias de variables discretas

2.- DISTRIBUCIÓN HIPERGEOMÉTRICO

Se consideran sólo dos probabilidades:

a.- Éxito, ocurrencia, aparición y se denomina “p”


b.- Fracaso, no ocurrencia, no aparición y se denomina “q”
Con estas características:
 Son mutuamente excluyentes
 Son complementarias → 𝑝 + 𝑞 = 1
 Este esquema se aplica para pruebas repetidas “n” SIN
REPOSICIÓN en una POBLACIÓN FINITA.
 Por ser sin reposición “p” y “q” NO se mantienen constantes
 la variable “x”, está: 0 ≤ 𝑥 ≤ 𝑛

Elementos a tener en cuenta:

N – Población finita en la que se realiza el ensayo o muestreo

n – Muestra extraída de la población

x – Variable aleatoria cuyo intervalo es 0 < 𝑥 < 𝑛


p y q – Probabilidades
Np – Casos favorables en la población
Nq – Casos no favorables en la población

Estimación de probabilidades:

NpCx . NqC(n-x)
P(x) =
N Cn
Tener en cuenta que
𝑛

∑ 𝑃(𝑥) = 1
𝑥=0
A. Esperanza
𝑛

E(𝑥) = ∑ 𝑥 𝑃(𝑥)
𝑥=0

Desarrollando en forma similar a lo efectuado en distribución binomial obtenemos:

𝐄(𝒙) = 𝒏𝒑

B.- Varianza – Dispersión

Sabemos que
2
𝜎(𝑥) = E(𝑥)2 – (E(𝑥) )2

Desarrollando en forma similar a lo efectuado en distribución binomial obtenemos:


𝑵−𝒏
𝝈𝟐(𝒙) = 𝒏𝒑𝒒 𝑵−𝟏

Por lo tanto DISPERSIÓN

𝑵−𝒏
𝝈(𝒙) = √𝒏𝒑𝒒
𝑵−𝟏

Como se puede apreciar la fórmula de cálculo es la de binomial afectada por un


factor fraccionario en la que el numerador siempre es menor que el denominador, por lo
tanto en hipergeométrico la Varianza y la Dispersión son MENORES. Y está explicado por el
tipo de ensayo sin reposición, lo que hace que en extracciones sucesivas las probabilidades
“p” aumenten, haciendo que las mismas se concentren alrededor de la esperanza.

C.- Valor más probable

También de las relaciones:


𝑃(𝑥) 𝑃(𝑥)
𝑃(𝑥−1)
>1 y 𝑃(𝑥+1)
> 1

(𝒏 + 𝟏)(𝑵𝒑 + 𝟏) (𝒏 + 𝟏)(𝑵𝒑 + 𝟏)
−𝟏 ≤ 𝒙 ≤
𝑵+𝟐 𝑵+𝟐

Y como “x” es variable discreta se tienen en cuenta las mismas consideraciones que
en binomial para este caso.

USOS

- En pruebas y/o muestreos SIN reposición.

- Para efectuar controles en poblaciones finitas mediante ensayos NO


DESTRUCTIVOS en las muestras obtenidas
3.- DISTRIBUCIÓN POISSON

Se consideran sólo dos probabilidades:

a.- Éxito, ocurrencia, aparición y se denomina “p”


b.- Fracaso, no ocurrencia, no aparición y se denomina “q”
Con estas características:
 Son mutuamente excluyentes
 Son complementarias → 𝑝 + 𝑞 = 1
 Este esquema se aplica por lo general en situaciones ESPACIO-
TIEMPO
 𝑛 → ∞
 𝑝 → 0
 Como 𝑛 → ∞ y 𝑝 → 0 ; en el cálculo de probabilidades no
afecta que sea con reposición o sin reposición
 En teoría la variable “x”, está: 0 ≤ 𝑥 ≤ 𝑛
Por las características de “n” y “p” a esta distribución también se le llama de los
CASOS RAROS.

Trabajando matemáticamente con los límites se obtiene que “np = constante” a la


que se denomina por lo tanto

𝑛𝑝 = 

En este caso en general a la probabilidad en lugar de simbolizarla con la letra P se


lo hace con 𝜑.

x
𝜑(𝑥) = e -
𝑥!

𝑛

∑ 𝜑(𝑥) = 1
𝑥=0

B. Esperanza
𝑛

E(𝑥) = ∑ 𝑥 𝜑(𝑥)
𝑥=0

Desarrollando en forma similar a lo efectuado en distribución binomial obtenemos:

𝐄(𝒙) = 𝒏𝒑 también E(x) = 

B.- Varianza – Dispersión

Sabemos que
2
𝜎(𝑥) = E(𝑥)2 – (E(𝑥) )2

𝝈𝟐(𝒙) = 𝒏𝒑 también 𝝈𝟐(𝒙) = 


Por lo tanto DISPERSIÓN

𝝈(𝒙) = √𝒏𝒑

Como se puede apreciar la fórmula de cálculo es la que posee mayor Varianza y


Dispersión. Y está explicado por el tipo de ensayo que hace que las probabilidades de las
variables cercanas a “0” aumenten, y generen una distribución marcadamente asimétrica
positiva.

C. Valor más probable

También de las relaciones:


𝜑(𝑥) 𝜑(𝑥)
𝜑 (𝑥−1)
>1 y 𝜑(𝑥+1)
> 1

≤ 𝒙 ≤

Y como “x” es variable discreta se tienen en cuenta las mismas consideraciones que
en binomial para este caso.

USOS

- En pruebas de ESPACIO-TIEMPO que respondan a las características de la


distribución

- Para efectuar controles en poblaciones infinitas mediante ensayos con muestras


pequeñas suficientemente representativas, cuyos análisis pueden ser NO DESTRUCTIVOS
y/o DESTRUCTIVOS. Por ejemplo en CONTROL DE CALIDAD.

También podría gustarte