Está en la página 1de 21

UNIVERSIDAD DE LOS ANDES

Facultad de Ingeniería
Departamento de Ingeniería Industrial

Probabilidad y Estadística I

Sesión # 17
Suma de variables aleatorias independientes
Teorema del Límite Central

Mario Castillo (Coordinador General Curso)

1
Población

Conjunto (personas, cosas u objetos abstractos) del cual se quiere estudiar ciertas
propiedades características de los elementos que lo conforman. Dichas propiedades se
expresan a través de variables que denotaremos por X, Y y Z, por ejemplo.

Muestra Aleatoria

Conceptualmente: una muestra aleatoria de tamaño n de una población es un


subconjunto de n elementos de la población seleccionados de acuerdo con un
procedimiento aleatorio que garantice su representatividad.

Formalmente: Una muestra aleatoria de una población X, consiste en un conjunto X1,


X2, ..., Xn de n Variables Aleatorias independientes que tienen la misma distribución
que la VA X.
Es decir, si la VA X tiene fp ó fdp 𝑓𝑋 (𝑥; 𝜇, 𝜎 2 ), entonces cada una de las VAs, Xi, de la
Muestra debe cumplir que:
𝑓𝑋𝑖 𝑥; 𝜇, 𝜎 2 = 𝑓𝑋 (𝑥; 𝜇, 𝜎 2 )

Una vez tomada la muestra aleatoria, ésta consistirá en n valores: x1, x2, …, xn.

2
3
Parámetros:
Media (μ)

Datos
Varianza(σ2)
(Población de Interés) Desv. Est. (σ)
Etc.

Inferencias

Muestreo

Estadísticos:
Promedio (𝑋)
Muestras
Varianza muestral (S2)
Desv. Est. Muestral (S)
Etc.

4
Estadísticas Básicas de la Muestra Aleatoria

𝑛
1=1 𝑥𝑖
Media Muestral: 𝑋 = POBLACIÓN
𝑛
X
Muestra
Aleatoria
1 𝑛 𝑿 𝟏 , 𝑿𝟐 , … 𝑿𝒏
Varianza Muestral: 𝑆 2 = 𝑖=1 𝑥𝑖 − 𝑋 2
𝑛−1

Desviación Estándar Muestral: 𝑆 = 𝑆 2

5
SUMA DE VARIABLES ALEATORIAS INDEPENDIENTES
Propiedad General de la FGM

Propiedad: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias independientes con


funciones generatrices de momentos 𝑀𝑋1 𝑡 , 𝑀𝑋2 𝑡 , … , 𝑀𝑋𝑛 𝑡 .

La función generatriz de momentos de la variable aleatoria W que representa la


suma de las VAs indpendienes, W = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 , está dada por:

𝑀𝑊 𝑡 = 𝑀(𝑋1+𝑋2+⋯+𝑋𝑛) 𝑡 = 𝑀𝑋1 𝑡 ∗ 𝑀𝑋2 𝑡 ∗ ⋯ ∗ 𝑀𝑋𝑛 𝑡

Demostración:

Sea W = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 . Por definición, la FGM de W es:

𝑀𝑊 𝑡 = 𝐸 𝑒 𝑡𝑊 = 𝐸 𝑒 𝑡 𝑋1 +𝑋2 …+𝑋𝑛 = 𝐸 𝑒 𝑡𝑋1 ∗ 𝑒 𝑡𝑋2 ∗ ⋯ ∗ 𝑒 𝑡𝑋𝑛

Puesto que 𝑒 𝑡𝑋𝑖 es independiente de 𝑒 𝑡𝑋𝑗 , entonces:

𝑀𝑊 𝑡 = 𝐸 𝑒 𝑡𝑋1 ] ∗ 𝐸[𝑒 𝑡𝑋2 ] ∗ ⋯ ∗ 𝐸[𝑒 𝑡𝑋𝑛


𝑀𝑊 𝑡 = 𝑀𝑋1 𝑡 ∗ 𝑀𝑋2 𝑡 ∗ ⋯ ∗ 𝑀𝑋𝑛 𝑡 6
DISTRIBUCIÓN NORMAL - PROPIEDADES BÁSICAS
Propiedad 1: La FGM de la variable aleatoria 𝑋~𝑁(𝜇, 𝜎 2 ) está dada por:

𝜎2 𝑡 2
𝜇𝑡+
𝑀𝑋 𝑡 = 𝑒 2

Propiedad 2: A partir de la FGM se obtienen la media y la varianza, las cuales


están dadas por:

𝐸 𝑋 =𝜇 𝑉𝑎𝑟 𝑋 = 𝜎 2

Utilizando la FGM de una VA X con distribución 𝑁(𝜇, 𝜎 2 ) podemos demostrar las


siguientes propiedades para variables aleatorias con distribución normal.

Propiedad 3:

Si 𝑋~𝑁(𝜇, 𝜎 2 ) y definimos una nueva variable aleatoria 𝑌 = 𝑎𝑋 + 𝑏 , con b ≠ 0,


entonces:

𝑌~𝑁 𝑎𝜇 + 𝑏, 𝑎2 𝜎 2

7
DISTRIBUCIÓN NORMAL - PROPIEDADES BÁSICAS
Propiedad 4: Si se tiene una colección de n variables aleatorias NORMALES
INDEPENDIENTES, 𝑋1 , 𝑋2 , … 𝑋𝑛 , con 𝑋𝑖 ~𝑁 𝜇𝑖 , 𝜎𝑖2 , entonces la variable aleatoria
𝑊 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 𝑛𝑖=1 𝑋𝑖 tiene distribución 𝑊~𝑁 𝜇𝑖 , 𝜎𝑖2 .

Demostración:

𝑀𝑊 𝑡 = 𝑀𝑋1 𝑡 ∗ 𝑀𝑋2 𝑡 ∗ ⋯ ∗ 𝑀𝑋𝑛 (𝑡)

𝜎12 𝑡 2 𝜎22 𝑡 2 𝜎𝑛2 𝑡 2


𝜇1 𝑡+ 𝜇2 𝑡+ 𝜇𝑛 𝑡+ 2
𝑀𝑊 𝑡 = 𝑒 2 ∗ 𝑒 2 ∗ ⋯∗ 𝑒
En general, si
𝜎12 𝑡 2 𝜎22 𝑡 2 𝜎𝑛2 𝑡 2 𝑊 = 𝑎𝑖 𝑋𝑖 , a ≠ 0,
𝜇 𝑡+ 2 +𝜇2 𝑡+ 2 +⋯+𝜇𝑛 𝑡+ 2
𝑀𝑊 𝑡 = 𝑒 1 entonces:

1 𝑊~𝑁 𝑎𝑖 𝜇𝑖 , 𝑎𝑖2 𝜎𝑖2


𝜇1 +𝜇2 +⋯+𝜇𝑛 𝑡+2(𝜎12 +𝜎22 +⋯+𝜎𝑛2 )𝑡 2
𝑀𝑊 𝑡 = 𝑒

Por lo tanto, 𝑊~𝑁(𝜇1 + 𝜇2 + ⋯ + 𝜇𝑛 , 𝜎12 + 𝜎22 + ⋯ + 𝜎𝑛2 ).

8
DISTRIBUCIÓN NORMAL - PROPIEDADES BÁSICAS
Propiedad 5: A partir de la propiedad anterior, se pueden obtener las siguientes
propiedades adicionales:

Si 𝑋1 ~𝑁(𝜇1 , 𝜎12 ) y 𝑋2 ~𝑁(𝜇2 , 𝜎22 ), entonces:

i. 𝑋1 + 𝑋2 ~𝑁 𝜇1 + 𝜇2 , 𝜎12 + 𝜎22

ii. 𝑋1 − 𝑋2 ~𝑁 𝜇1 − 𝜇2 , 𝜎12 + 𝜎22

Si se tienen una muestra aleatoria de tamaño n con distribución normal,


𝑋𝑖 ~𝑁(𝜇, 𝜎 2 ), entonces:

𝑋𝑖 𝜎2
iii. 𝑋 = 𝑛
~𝑁 𝜇, 𝑛

Demostración:
𝑋𝑖 1 1 𝑛𝜇
𝐸 𝑋 =𝐸 = 𝐸 𝑋𝑖 = 𝐸 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = =𝜇
𝑛 𝑛 𝑛 𝑛

𝑋𝑖 1 1 𝑛𝜎 2 𝜎 2
𝑉𝑎𝑟 𝑋 = 𝑉𝑎𝑟 = 2 𝑉𝑎𝑟 𝑋𝑖 = 2 𝑉𝑎𝑟 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 2 =9
𝑛 𝑛 𝑛 𝑛 𝑛
DISTRIBUCIÓN NORMAL - PROPIEDADES BÁSICAS
Propiedad 6 (Teorema del Límite Central): Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 una colección de n
variables aleatorias INDEPENDIENTES e IDENTICAMENTE DISTRIBUIDAS (iid),
con 𝐸 𝑋𝑖 = 𝜇 y 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2 .

Entonces, para n suficientemente grande, (𝑛 ≥ 30), se tiene que:

𝑋𝑖 −𝑛𝜇
i. 𝑋𝑖 ~𝑁 𝑛𝜇, 𝑛𝜎 2 ⇒ ~𝑁(0,1)
𝜎 𝑛

𝑋𝑖 𝜎2 𝑋−𝜇
ii. 𝑋 = 𝑛
~𝑁 𝜇,
𝑛

𝜎/ 𝑛
~𝑁(0,1)

10
Ejemplo Banco de la Esperanza
La captación diaria, en millones de pesos ($M), de las sucursales del Banco la
Esperanza, se puede representar como una VA X del tipo N(250, 400).

a) Si se selecciona una sucursal al azar, ¿cuál es la probabilidad de que su


captación diaria sea inferior o igual a 220 $M?

b) ¿Cuál es la probabilidad de que su captación diaria esté entre 230 $M y


270 $M?

c) Se toma una MA de 20 sucursales. Contestar la pregunta b, pero para la


media muestral de las 20 sucursales.

d) Ahora suponga que sólo sabemos de la VA X que su media es de 250 y su


varianza es 400. Se toma una MA de 50 sucursales, ¿cuál es la probabilidad
de que la captación diaria total sea superior a 12400 $M ?

11
Ejemplo Banco de la Esperanza
La captación diaria, en millones de pesos ($M), de las sucursales del Banco la Esperanza,
se puede representar como una VA X del tipo N(250, 400).

a. Si se selecciona una sucursal al azar, ¿cuál es la probabilidad de que su captación diaria


sea inferior o igual a 220 $M?

𝑋~𝑁 𝜇 = 250, 𝜎 2 = 400 𝑍~𝑁(𝜇 = 0, 𝜎 2 = 1)

220−250
𝑃 𝑋 ≤ 220 = 𝑃 𝑍 ≤ = 𝑃 𝑍 ≤ −1.5 = 1 − 𝑃 𝑍 ≤ 1.5 = 0.0668
400 12
Ejemplo Banco de la Esperanza
La captación diaria, en millones de pesos ($M), de las sucursales del Banco la Esperanza,
se puede representar como una VA X del tipo N(250, 400).

b. ¿Cuál es la probabilidad de que su captación diaria esté entre 230 $M y 270 $M?

𝑋~𝑁 𝜇 = 250, 𝜎 2 = 400 𝑍~𝑁(𝜇 = 0, 𝜎 2 = 1)

230−250 270−250
𝑃 230 ≤ 𝑋 ≤ 270 = 𝑃 ≤𝑍≤ = 𝑃 −1 ≤ 𝑍 ≤ 1 = 0.6826
400 400

13
Ejemplo Banco de la Esperanza
La captación diaria, en millones de pesos ($M), de las sucursales del Banco la Esperanza,
se puede representar como una VA X del tipo N(250, 400).

c. Se toma una MA de 20 sucursales. Contestar la pregunta b, pero para la media muestral de


las 20 sucursales.

𝑋1 , 𝑋2 , … , 𝑋20 : Captación diaria de la sucursal 𝑋𝑖 del Banco la Esperanza.

𝑋: Captación diaria promedio de las 20 sucursales del Banco la Esperanza.

400
𝑋~𝑁 𝜇 = 250, 𝜎 2 = 400 => 𝑋~𝑁 𝜇 = 250, 𝜎 2 =
20

230−250 270−250
𝑃 230 ≤ 𝑋 ≤ 270 = 𝑃 ≤𝑍≤ = 𝑃 −4.47 ≤ 𝑍 ≤ 4.47 = 1
400/20 400/20

14
Ejemplo Banco de la Esperanza
La captación diaria, en millones de pesos ($M), de las sucursales del Banco la Esperanza,
se puede representar como una VA X del tipo N(250, 400).

d. Ahora suponga que sólo sabemos de la VA X que su media es de 250 y su varianza es 400.
Se toma una MA de 50 sucursales, ¿cuál es la probabilidad de que la captación diaria total
sea superior a 12400 $M ?

𝑋1 , 𝑋2 , … , 𝑋20 : Captación diaria de la sucursal 𝑋𝑖 del Banco la Esperanza.

𝐸[𝑋𝑖 ] = 250 𝑉𝑎𝑟 𝑋𝑖 = 400

50
𝑖=1 𝑋𝑖 : Captación diaria total de las 50 sucursales.

50
𝑖=1 𝑋𝑖 ~𝑁(50 ∗ 250,50 ∗ 400)

50 50
12400 − 12500
𝑃 𝑋𝑖 > 12400 = 1 − 𝑃 𝑋𝑖 ≤ 12400 = 1 − 𝑃 𝑍 ≤ = 1 − 𝑃(𝑍 ≤ −0.707)
𝑖=1 𝑖=1
20000

50

𝑃 𝑋𝑖 > 12400 = 0.7611


𝑖=1
15
SUMA DE VARIABLES ALEATORIAS
BINOMIALES INDEPENDIENTES

Propiedad: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias independientes con


distribución BINOMIAL de parámetros 𝑁1 , 𝑝 , 𝑁2 , 𝑝 , … , 𝑁𝑛 , 𝑝 ,
respectivamente.

La variable aleatoria W que representa la suma de las VAs independientes,


W = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 , es una variable aleatoria BINOMIAL de parámetros
𝑁1 + 𝑁2 + ⋯ + 𝑁𝑛 , 𝑝 .

Demostración:

𝑁𝑖
𝑀𝑋𝑖 (𝑡) = 𝑝𝑒 𝑡 + 𝑞

𝑀𝑊 𝑡 = 𝑀𝑋1 𝑡 ∗ 𝑀𝑋2 𝑡 ∗ ⋯ ∗ 𝑀𝑋𝑛 𝑡

𝑁1 𝑁2 𝑁𝑛
𝑀𝑊 𝑡 = 𝑝𝑒 𝑡 + 𝑞 ∗ [ 𝑝𝑒 𝑡 + 𝑞 ] ∗ ⋯ ∗ [ 𝑝𝑒 𝑡 + 𝑞 ]

𝑁1 +𝑁2 +⋯+𝑁𝑛
𝑀𝑊 𝑡 = 𝑝𝑒 𝑡 + 𝑞
16
SUMA DE VARIABLES ALEATORIAS
DE POISSON INDEPENDIENTES

Propiedad: Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias independientes con


distribución de POISSON con medias 𝜆1 , 𝜆2 , … , 𝜆𝑛 .

La variable aleatoria W que representa la suma de las VAs independientes,


W = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 , es una variable aleatoria POISSON con media λ1 +
𝜆 2 + ⋯ + 𝜆𝑛 .

Demostración:
𝑡 −1)
𝑀𝑋𝑖 (𝑡) = 𝑒 𝜆𝑖 (𝑒

𝑀𝑊 𝑡 = 𝑀𝑋1 𝑡 ∗ 𝑀𝑋2 𝑡 ∗ ⋯ ∗ 𝑀𝑋𝑛 𝑡

𝑡 −1) 𝑡 −1) 𝑡 −1)


𝑀𝑊 𝑡 = 𝑒 𝜆1(𝑒 ∗ [𝑒 𝜆2(𝑒 ] ∗ ⋯ ∗ [𝑒 𝜆𝑛(𝑒 ]

𝑡 −1)
𝑀𝑊 𝑡 = 𝑒 (𝜆1+𝜆2+⋯+𝜆𝑛)(𝑒

17
SUMA DE VARIABLES ALEATORIAS

El procedimiento utilizado para probar los teoremas anteriores también se puede


aplicar para probar los siguientes teoremas:

• La suma de variables aleatorias geométricas independientes es una VA con


distribución Binomial Negativa.

• La suma de variables aleatorias exponenciales independientes tiene una


distribución gamma.

• La suma de variables aleatorias gamma independientes tiene una distribución


gamma.

18
EJERCICIOS
Ejercicio 1

Suponga que la nota obtenida por los estudiantes en un quiz de Probabilidad y


Estadística I (calificado sobre 100) se comporta como una variable aleatoria
normal con media 72 y varianza 25.

a) ¿Cuál es la probabilidad de que el promedio de las notas obtenidas por dichos


estudiantes sea 75 o más si en la clase hay 25 estudiantes?

b) Si el profesor está encargado de dos secciones distintas, cada una de las


cuales contiene 25 estudiantes, ¿cuál es la probabilidad de que el promedio de
una clase esté por lo menos tres puntos por encima del promedio de la otra
clase?

19
EJERCICIOS
Ejercicio 2

Una planta de distribución de leche envasa su producto en botellas de vidrio cuyo


peso medio es de 500 grs. y su desviación estándar es de 5 grs. La máquina
automática vierte en las botellas una cantidad de leche que se puede representar
por medio de una variable aleatoria de media 1000 grs. y desviación estándar 9
grs. Las botellas se expenden en cajas de doce unidades cada una. Las cajas sin
botellas tiene un peso medio de 2500 grs. y una desviación estándar de 10 grs.
Se supone que todas las poblaciones citadas siguen una distribución normal y
que son independientes entre sí.

Si las cajas se transportan en avión a varias ciudades de un país tropical y por


razones de seguridad, la carga no puede superar los 20000 kgrs. con una
probabilidad de 0.95, ¿cuál es el máximo número de cajas que pueden cargarse
en cada vuelo?

20
DISTRIBUCIÓN NORMAL ESTÁNDAR

Probabilidad acumulada
hasta el punto z.

𝐹𝑍 𝑧 = 𝑃(𝑍 ≤ 𝑧)

𝑃 𝑍 ≤ −𝑧 = 1 − 𝑃(𝑍 ≤ 𝑧)

21

También podría gustarte