Está en la página 1de 16

TEMA:

DISTRIBUCIÓN BINOMIAL Y MULTINOMIAL

INTEGRANTES:
JORGE LUIS FUENTES
JONATHAN GALLARDO
BRYAN TAIPE
MICHAEL ANACLETO

ASIGNATURA:
ESTADÍSTICA Y PROBABILIDAD

DOCENTE:
Msc. ROBERTO CALDERÓN

2019-2020
Tema: Distribución Binomial y Multinomial
Objetivos
Objetivo General

 Describir y utilizar la distribución binominal y la multinomial, modelos


matemáticos de probabilidad.
Objetivos Específicos

 Entender la Distribución de Bernoulli antes de aplicar los conocimientos de la


Distribución Binomial.
 Utilizar los conocimientos adquiridos de la distribución binomial en la
generación de la distribución multinomial.

Introducción
Para entender la distribución binominal tenemos que entender la Distribución
de Bernoulli.La distribución de probabilidad binomial es uno de los modelos
matemáticos que se utiliza cuando la variable aleatoria discreta es el número
de éxitos en una muestra compuesta por n observaciones. En la distribución
multinomial, este modelo se puede ver como una generalización del Binomial
en el que, en lugar de tener dos posibles resultados, tenemos r resultados
posibles.
La distribución binomial es una distribución de probabilidad discreta que mide
el número de éxitos si la variable es una variable aleatoria discreta, es decir,
sólo puede tomar los valores 0, 1, 2, 3, 4, ..., n suponiendo que se han
realizado n pruebas. En las empresas tenemos muchas situaciones donde se
espera que ocurra o no un evento específico. Éste, sólo puede ser de éxito o
fracaso. Por ejemplo, en la producción de una pieza, ésta puede salir buena o
defectuosa. Para situaciones como éstas se utiliza la distribución binomial. La
estructura de este objeto de aprendizaje es como sigue: en primer lugar, se
presentan los objetivos que se desean consigan los alumnos; a continuación, se
trabaja la definición y características de la distribución binomial, haciendo
especial relevancia en como identificarla y diferenciarla de otras distribuciones
discretas y se resuelven algunos ejemplos prácticos para ayudar a su
comprensión. Finalmente, en el Cierre, se destacan los conceptos básicos de
aprendizaje con respecto a la distribución binomial y sus aplicaciones
prácticas.
Justificación
En este tipo de distribución se estudia la probabilidad de que se produzca un cierto
resultado, que se describe por medio de dos parámetros:
• El número de repeticiones realizadas del experimento
• La probabilidad individual del suceso aleatorio que se persigue como resultado.
El desarrollo del presente trabajo es con el motivo que el estudiante, amplié su
conocimiento sobre la probabilidad, haciendo uso de
• La función distribución binomial
• La función distribución multinomial
Marco Teórico
Función de Bernoulli

Definición:

Cualquier experimento que tiene dos posibles resultados se llama experimento Bernoulli.

Algunos ejemplos de experimentos Bernoulli son:

Para caracterizar a los experimentos Bernoulli en un solo modelo, a uno de los resultados se
denota como éxito y al otro como fracaso; dicha asignación de los resultados del experimento
es arbitraria.

La variable que asigna 1 al éxito y 0 al fracaso se llama variable aleatoria Bernoulli.

Por convención a la probabilidad de que ocurra éxito en un experimento Bernoulli se le denota


con la letra p y de que ocurra un fracaso se denota con la letra q.

y por la segunda propiedad de las funciones de densidad se obtiene que

Distribución Binomial
El experimento binomial consiste en efectuar un número fijo n de experimentos Bernoulli
independientes y con igual probabilidad de éxito, y al final se cuenta cuantos éxitos ocurrieron.
Por ejemplo, realizar 20 exámenes médicos de la misma enfermedad a individuos de la misma
población y al final determinar cuántos de estos análisis clínicos son positivos.

Definición

La variable que indica el número de éxitos en n experimentos Bernoulli iguales e independientes


se llama variable aleatoria binomial.

Los experimentos Bernoulli son iguales cuando la probabilidad de éxito es la misma, y son
independientes si la función de densidad conjunta es igual al producto de las densidades
marginales. Por ejemplo:

El recorrido de la variable aleatoria binomial va de 0 a n.

Propiedad

Sea 𝑋 una variable aleatoria binomial con parámetros n y p, su función de densidad es:

Y, además

Es un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un


fracaso con probabilidad q=1-p. Entonces, la distribución de probabilidad de la variable
aleatoria binomial X, el número de éxito en n ensayos independientes

𝑛!
𝑃(𝑥) = 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑛!
𝑥! (𝑛 − 𝑥)

Es igual a (𝑛𝑥), que son las combinaciones de 𝑛 𝑒𝑛 𝑥

Donde:

P(x)= variable

x= valor que toma la variable

n= número de veces que se va a repetir

p= probabilidad de que suceda sea éxito o fracaso.

q= probabilidad de que salga éxito o fracaso. SE define siempre 1 − 𝑝

Propiedad
Si 𝑋 es una variable aleatoria binomial con parámetros n y p, entonces existen n variables
Bernoulli iguales e independientes 𝑋𝑖 , tales que:

Demostración:

La demostración es directa, basta recordar que una variable Bernoulli toma el valor de 0
cuando ocurre un fracaso y toma el valor de 1 cuando ocurre un éxito, por tanto, esta suma es
igual al número de unos en ella y esto equivale al número de éxitos en los 𝑛 experimentos
Bernoulli.

Propiedad

Si 𝑥 es una variable aleatoria binomial con parámetros 𝑛 y 𝑝, entonces su media es 𝜇 = 𝑛𝑝 y su


varianza es 𝜎 2 = 𝑛𝑝𝑞 .

Demostración:

Si 𝑋 es variable aleatoria binomial, entonces existen 𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 +. . . +𝑥𝑛 variables


aleatorias Bernoulli iguales e independientes, tales que:

Entonces, por las propiedades del valor esperado y de la varianza se obtiene:

La notación simplificada para la función de densidad y la función de distribución acumulada


binomial es para la densidad 𝑃(𝑋 = 𝑥) = 𝑏 (𝑥; 𝑛, 𝑝) y para la distribución 𝑃(𝑋 ≤ 𝑥) =
𝐵(𝑥; 𝑛, 𝑝)
Relación de la media y la varianza con los valores de n y p

Para revisar la relación de la media y la varianza de una variable aleatoria binomial y los
valores de n y p, se calculó con Excel la función de densidad para 𝑛 = 10 𝑦 𝑝 =
0.10, 0.20, 0.30, 0.50, 0.70 𝑦 0.90 y se realizaron sus respectivas gráficas de barras:
Como se puede ver, en todos los casos el valor más probable es cuando 𝑋 toma el valor de la
media, y la mayor variación es cuando 𝑝 = 0.5

Demostración de la Varianza
Varianza: 𝑉(𝑋) = 𝑛𝑝𝑞

𝑉(𝑋) = 𝐸[𝑥 2 ] − 𝑢2
𝑛
𝑛!
𝐸[𝑥(𝑥 − 1)] = ∑ 𝑥(𝑥 − 1) 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑥=0

𝑧 =𝑥−2
𝑛
𝑛!
∑ 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
(𝑥 − 2)! (𝑛 − 𝑥)!
𝑥=2
𝑛−2
2
𝑛!
𝑝 ∑ 𝑝 𝑧 ∗ 𝑞 𝑛−2−𝑧
𝑧! (𝑛 − 2 − 𝑧)!
𝑧=0
𝑛−2
2
𝑛 − 2!
= 𝑝 (𝑛 − 1)𝑛 ∑ 𝑝 𝑧 ∗ 𝑞 𝑛−2−𝑧
𝑧! (𝑛 − 2 − 𝑧)!
𝑧=0

𝑛−2
2
𝑛−2
= 𝑝 (𝑛 − 1)𝑛 ∑ ( ) ∗ 𝑞 𝑛−2−𝑧
𝑧
𝑧=0

𝐸[𝑥(𝑥 − 1)] = 𝑝2 (𝑛 − 1)𝑛

𝐸[𝑥 2 − 𝑥] = 𝐸[𝑥 2 ] − 𝐸[𝑥] = 𝑝2 𝑛(𝑛 − 1)

𝐸[𝑥 2 ] = 𝑛 ∗ 𝑝 + 𝑛(𝑛 − 1)𝑝2

𝑉(𝑋) = 𝑛 ∗ 𝑝 + 𝑛(𝑛 − 1)𝑝2 − 𝑛2 ∗ 𝑝2

= 𝑛 ∗ 𝑝 + 𝑛 2 ∗ 𝑝2 − 𝑛 ∗ 𝑝2 − 𝑛 2 ∗ 𝑝2

= 𝑛 ∗ 𝑝 − 𝑛 ∗ 𝑝2

= 𝑛 ∗ 𝑝(1 − 𝑝)

𝑉(𝑋) = 𝑛 ∗ 𝑝 ∗ 𝑞

Demostración de la Esperanza

Esperanza: 𝐸(𝑋) = 𝑛𝑝

𝐸(𝑋) = ∑ 𝑥 𝑝(𝑥)
𝑥

𝑛
𝑛!
∑𝑥 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑥=0

𝑛
𝑛!
∑𝑥 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
𝑥=1

𝑛
𝑛!
∑𝑥 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
(𝑥 − 1)! 𝑥(𝑛 − 𝑥)!
𝑥=1

𝑛
𝑛!
∑ 𝑝 𝑥 ∗ 𝑞 𝑛−𝑥
(𝑥 − 1)! (𝑛 − 𝑥)!
𝑥=1

𝑛
(𝑛 − 1)!
𝑛∗𝑝∑ 𝑝 𝑥−1 ∗ 𝑞 𝑛−𝑥
(𝑥 − 1)! (𝑛 − 𝑥)!
𝑥=1

𝑧 =𝑥−1
𝑥 =𝑧+1
𝑛−1
(𝑛 − 1)!
𝑛∗𝑝∑ 𝑝 𝑧 ∗ 𝑞 𝑛−𝑧−1
𝑧! (𝑁 − 𝑧 − 1)!
𝑧=0

𝑁 = 𝑛−1

𝑛−1
(𝑛 − 1)!
𝑛∗𝑝∑ 𝑝 𝑧 ∗ 𝑞 𝑛−𝑧−1
𝑧! (𝑛 − 𝑧 − 1)!
𝑧=0

𝑁
𝑁!
𝑛∗𝑝∑ 𝑝 𝑧 ∗ 𝑞 𝑁−𝑧
𝑧! (𝑁 − 𝑧)!
𝑧=0

𝑁
𝑁
𝑛 ∗ 𝑝 ∑ ( ) 𝑝 𝑧 ∗ 𝑞 𝑁−𝑧 = 𝑛 ∗ 𝑝
𝑧
𝑧=0

𝐸(𝑋) = 𝑛 ∗ 𝑝

Ejercicios:

Ejercicio 1

En una clase con 20 alumnos el profesor decide preguntar a sus alumnos sobre la “Teoría del
Big Bang”. La probabilidad de que un alumno le responda correctamente es de 0,3

a) Definir nuestra V.A.D

b) Probabilidad de que, preguntados los alumnos, menos de tres respondan correctamente

c) Probabilidad de que, preguntados los alumnos, respondan correctamente, entre 5 y 9,


ambos inclusive

d) Valor esperado de alumnos que responden correctamente al preguntarles el profesor

e) Varianza

a) 𝑛 = 20 𝑝 = 0,3 𝑞 = 1 − 𝑝 = 1 − 0,3 = 0,7

𝑥~𝐵𝑖(𝑛, 𝑝)
𝑥~𝐵𝑖(20; 0,3)

b) 𝑋~𝐵𝑖(20; 0,3)
𝑃[𝑥 < 3] = 𝑃[𝑥 = 0] + 𝑃[𝑥 = 1] + 𝑃[𝑥 = 2]

𝒏
𝑷[𝒙 = 𝒌] = ( ) 𝒑𝒌 ∗ 𝒒𝒏−𝒌
𝒌
20
𝑃[𝑥 = 0] = ( ) (0,3)0 ∗ (0,7)20−0 = 0,0008
0

20
𝑃[𝑥 = 1] = ( ) (0,3)1 ∗ (0,7)20−1 = 0,0068
1

20
𝑃[𝑥 = 2] = ( ) (0,3)2 ∗ (0,7)20−2 = 0,0278
2

= 0,0008 + 0,0068 + 0,0278 = 0,0355

c) 𝑋~𝐵𝑖(20; 0,3)

𝑃[5 ≤ 𝑥 ≤ 9] = 𝑃[𝑥 = 5] + 𝑃[𝑥 = 6] + 𝑃[𝑥 = 7] + 𝑃[𝑥 = 8] + 𝑃[𝑥 = 9]

𝒏
𝑷[𝒙 = 𝒌] = ( ) 𝒑𝒌 ∗ 𝒒𝒏−𝒌
𝒌
20
𝑃[𝑥 = 5] = ( ) (0,3) ∗ (0,7)20−5 = 0,1789
5
5
20
𝑃[𝑥 = 6] = ( ) (0,3)6 ∗ (0,7)20−6 = 0,1916
6

20
𝑃[𝑥 = 7] = ( ) (0,3)7 ∗ (0,7)20−7 = 0,1643
7

20
𝑃[𝑥 = 8] = ( ) (0,3)8 ∗ (0,7)20−8 = 0,1144
8

20
𝑃[𝑥 = 9] = ( ) (0,3)9 ∗ (0,7)20−9 = 0,0654
9

= 0,1789 + 0,1916 + 0,1643 + 0,1144 + 0,0654

= 0,1746~71,46%

d) 𝑋~𝐵𝑖(20; 0,3)
𝑬[𝑿] = 𝒏 ∗ 𝒑
= 20(0,3)
=6

e) 𝑽[𝑿] = 𝒏 ∗ 𝒑 ∗ 𝒒
= 20 ∗ 0,3 ∗ 0,7
= 4,2

Ejercicio 2

La probabilidad de ser un varón es 0,52. Si un matrimonio tiene 4 hijos calcule la probabilidad

a) De que todos son varones


b) De que al menos haya una chica
c) Encuentre el número esperado de hijos varones y la varianza

𝑋~𝐵𝑖(4; 0,52)
a)
𝒏
𝑷[𝒙 = 𝒌] = ( ) 𝒑𝒌 ∗ 𝒒𝒏−𝒌
𝒌

4
𝑃[𝑥 = 4] = ( ) (0,52)4 ∗ (0,48)4−4 = 0,073116
4

b)
4
𝑃[𝑥 = 0] = ( ) (0,52)0 ∗ (0,48)4−0 = 0,0530
0

4
𝑃[𝑥 = 1] = ( ) (0,52)1 ∗ (0,48)4−1 = 0,2300
1

4
𝑃[𝑥 = 2] = ( ) (0,52)2 ∗ (0,48)4−2 = 0,3738
2

4
𝑃[𝑥 = 3] = ( ) (0,52)3 ∗ (0,48)4−3 = 0,2699
3

= 0,0530 + 0,2300 + 0,3738 + 0,2699

= 0,9267

c) 𝑋~𝐵𝑖(4; 0,52)

𝑬[𝑿] = 𝒏 ∗ 𝒑
= 4(0,52)
= 2,08

𝑽[𝑿] = 𝒏 ∗ 𝒑 ∗ 𝒒
= 4(0,52)(0,48)
= 0,9984
DISTRIBUCIÓN MULTINOMIAL

En teoría de probabilidad, la distribución multinomial es una generalización de la distribución


binomial.

En una distribución multinomial, el análogo a la distribución de Bernoulli es la distribución


categórica, donde cada suceso concluye en únicamente un resultado de un número finito K de
los posibles, con probabilidades
𝑘

𝑝1, … … , 𝑝𝑘(tal que ≥ 0 para i entre 1 y K y ∑ 𝑝i = 1


𝑖=1

Entonces sea la variable aleatoria 𝑋𝑖 , que indica el número de veces que se ha dado el resultado
i sobre los n sucesos. El vector 𝑋 = (𝑋1, … . , 𝑋𝑘) sigue una distribución multinomial con
parámetros n y p, donde 𝑝 = (𝑝1, … . . 𝑝𝑘).

Nótese que en algunos campos las distribuciones categórica y multinomial se encuentran


unidas, y es común hablar de una distribución multinomial cuando el término más preciso sería
una distribución categórica.

FUNCIÓN DE PROBABILIDAD

La función de probabilidad de la distribución multinomial es como sigue:

𝑓(𝑥1, … . , 𝑥𝑘; 𝑛, 𝑝1 , … . , 𝑝𝑘) = Pr(𝑋1 = 𝑥1 y … . y 𝑋𝑘 = 𝑥𝑘)


Para enteros no negativos x1, ..., xk.

FUNCIÓN DE DENSIDAD DE PROBABILIDAD

Una función de densidad de probabilidad caracteriza el comportamiento probable de una


población en tanto especifica la posibilidad relativa de que una variable aleatoria continua X
tome un valor cercano a x.

Una variable aleatoria X tiene densidad f, siendo f una función no-negativa integrable si:

Por lo tanto, si F es la función de distribución acumulativa de X, entonces:

y (si f es continua en x)

PROPIEDADES

De las propiedades de la función de densidad se siguen las siguientes propiedades de la fdp

 𝑓(𝑥) ≥ 0 para toda .


 El área total encerrada bajo la curva es igual a 1

La probabilidad de que 𝑋 tome un valor en el intervalo [𝑎, 𝑏] es el área bajo la curva de la


función de densidad en ese intervalo o lo que es lo mismo, la integral definida en dicho
intervalo. La gráfica 𝑓(𝑥) se conoce a veces como curva de densidad.
Algunas FDP están declaradas en rangos de -∞ a +∞, como la de la distribución normal.

ESPERANZA MATEMÁTICA

En estadística la esperanza matemática (también llamada esperanza, valor esperado, media


poblacional o media) de una variable aleatoria X, es el número o o E[X] que formaliza la idea
de valor medio de un fenómeno aleatorio.

DEFINICION

Para una variable aleatoria discreta con valores posibles 𝑥1; 𝑥2 … 𝑥𝑛 y sus probabilidades
representadas por la función de probabilidad 𝑝(𝑥𝑖) la esperanza se calcula como ejemplo:

Para una variable aleatoria absolutamente continua, la esperanza se calcula mediante la integral
de todos los valores y la función de densidad 𝑓(𝑥):

La definición general de esperanza se basa, como toda la teoría de la probabilidad, en el marco


de la teoría de la medida y se define como la siguiente integral:

La esperanza también se suele simbolizar con:

Las esperanzas para 𝑘 = 0,1,2 … .. se llaman momentos de orden 𝑘 Más importantes son
los momentos centrados

No todas las variables aleatorias tienen un valor esperado.

PROPIEDADES

1. Si X es siempre positiva, entonces siempre lo es E(X).


2. La esperanza matemática de una constante es igual a esa misma constante, es decir,
si c es una constante, entonces 𝔼[𝑐] = 𝑐.
3. Si X está delimitada por dos números reales, a y b, tal que: a < X < b, entonces también
lo está su media: 𝑎 < 𝔼(𝑋) < 𝑏
4. Linealidad. Si existe 𝔼(𝑋) y se considera 𝑌 = 𝑎 + 𝑏𝑋, entonces 𝔼(𝑌) = 𝔼(𝑎 + 𝑏𝑋) =
𝑎 + 𝑏𝔼(𝑋)

VARIANZA

En teoría de probabilidad, la varianza o variancia (que suele representarse como 𝜎 2 ) de


una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de
la desviación de dicha variable respecto a su media.

DEFINICION

Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente


forma:

Siendo:

 𝑥𝑖: cada dato

 media de los datos

 𝑛: número de datos

PROPIEDADES

Algunas propiedades de la varianza son:

 𝑉(𝑋) =≥ 0
 𝑉(𝑎𝑋 + 𝑏) = 𝑎2 𝑉(𝑋) siendo a y b números reales cualesquiera. De esta propiedad se
deduce que la varianza de una constante es cero, es decir, 𝑉(𝑏) = 0

 𝑉(𝑋 − 𝑌) = 𝑉(𝑋) + 𝑉(𝑌) − 2𝐶𝑜𝑣(𝑋, 𝑌) donde Cov (X, Y) es la covarianza de X e Y. (En el


caso que sean independiente, no se considera la covarianza)
 𝑉(𝑌) = 𝐸(𝑉(𝑌|X)) + V(E(Y|X)) cálculo de la Varianza por Pitágoras, dónde Y|X es
la variable aleatoria condicional "Y" dado "X".

También podría gustarte