Está en la página 1de 73

TEMA 3: VARIABLES ALEATORIAS

 Variables aleatorias
 Continuas
 Discretas

 Características de una variable aleatoria


 Esperanza matemática de una variable aleatoria
 Momentos de una variable aleatoria
 Mediana de una variable aleatoria
 Cuantiles de una variable aleatoria

 Principales variables aleatorias


 Discretas
 Continuas

 Teorema Central del Límite

1
VARIABLES ALEATORIAS
Una Variable aleatoria es una función que representa el resultado de
un experimento aleatorio:
𝑋: Ω → ℝ
Ejemplos:
• Variable que toma el valor 1 si el cliente paga la deuda y cero en el
otro caso.
• Variable que mide el tiempo que tarda un cliente en pagar su hipoteca.
• Variable que mide la variación del IPC
• Variable que mide el tiempo de espera en una ventanilla

2
Las variables pueden tomar una cantidad finita de valores
distintos (0 o 1, si o no, etc.) o una cantidad no finita que se mide
dentro de los valores de un intervalo (p. e. tiempo). Esto nos lleva
a tener dos tipos de variables:

 VARIABLES DISCRETAS: variables que toman una cantidad


finita de valores distintos.

 VARIABLES CONTINUAS: variables que toman valores


dentro de un intervalo.

3
Ejemplo:

Consideramos el experimento aleatorio de lanzar dos dados.


El espacio muestral es Ω = {(1,1), (1,2), … . (6,5), (6,6)}
El tamaño del espacio muestral viene determinado por 𝑉𝑅6,2 = 62 = 36
Nos interesa medir la variable aleatoria
𝑋 = "Máximo de las tiradas"
X puede tomar los valores: 1,2,3,4,5,6

𝑃(𝑋 = 1) = 𝑃(salga (1,1)) = 1/36


𝑃(𝑋 = 2) = 𝑃(salga (1,2) 𝑜 (2,1) 𝑜 (2,2) ) = 3/36
𝑃(𝑋 = 3) = 𝑃(salga (1,3) 𝑜 (3,1) 𝑜 (3,2) 𝑜 (2,3) 𝑜 (3,3) ) = 5/36
𝑃(𝑋 = 4) = 𝑃(salga (4,1) 𝑜 . . 𝑜 (4,4) ) = 7/36
𝑃(𝑋 = 5) = 𝑃(salga (5,1) 𝑜 . . 𝑜 (5,5) ) = 9/36
𝑃(𝑋 = 6) = 𝑃(salga (6,1) 𝑜 . . 𝑜 (6,6) ) = 11/36

4
VARIABLES ALEATORIAS DISCRETAS

 Toman una cantidad finita de valores distintos,


DX = {𝑥1 , 𝑥2 , … , 𝑥𝑛 }

 Cada valor tiene una probabilidad (entre 0 y 1) asociada.


0 ≤ 𝑃 𝑋 = 𝑥𝑖 ≤ 1 ∀ 𝑖 = 1, … , 𝑛

 La suma de todas las probabilidades debe de ser 1.


𝑛

෍ 𝑃 𝑋 = 𝑥𝑖 = 1
𝑖=1

 Además tienen que verificar:


𝑃 𝐴 = ෍ 𝑃 𝑋 = 𝑥𝑖 para cualquier suceso 𝐴 ∈ Ω.
𝑥𝑖 ∈𝐴

La función que asigna a cada valor 𝑥𝑖 su probabilidad


correspondiente 𝑃(𝑋 = 𝑥𝑖 ), se le conoce como FUNCIÓN DE MASA
DE PROBABILIDAD.
5
Ejemplo:
Tenemos 30 clientes del banco de los que conocemos el número de
préstamos personales que han tenido en los últimos 10 años. Los datos
están en la siguiente tabla

Préstamos 1 2 3 4
Nº Clientes 7 13 4 6
Frec. relativa

Si en lugar de conocer la frecuencia relativa, suponemos que ésta es la


probabilidad, es decir la probabilidad de haber tenido un solo préstamo
es 7/30, y así sucesivamente, damos lugar a una variable aleatoria
discreta que toma los valores 1, 2, 3 y 4 con probabilidades.

𝒙𝒊 1 2 3 4
𝑝𝑖

Estas probabilidades toman valores


positivos y suman uno.
6
Para calcular probabilidades de un conjunto de valores de una variable
aleatoria discreta sólo hay que sumar las probabilidades de los puntos
que están en ese conjunto.

Ejemplo.
 Con los datos del ejemplo anterior, la probabilidad de que tuviera
tres préstamos personales:
4
𝑃 𝑋=3 = .
30
 Probabilidad de que tuviera más de dos préstamos
10
𝑃 𝑋 >2 =𝑃 𝑋 =3 +𝑃 𝑋 =4 = .
30
O también,
20 10
𝑃 𝑋 >2 =1−𝑃 𝑋 ≤2 =1− 𝑃 𝑋 =1 +𝑃 𝑋 =2 = 1− = .
30 30

7
Función de Distribución

La Función de Distribución de una variable aleatoria es una función


que está definida en toda la recta real y que calcula la probabilidad de
que la variable tome un valor menor o igual que el punto, es decir:

𝐹: ℝ → 0,1
𝑥 → 𝐹 𝑥 =𝑃 𝑋≤𝑥

Además, verifica que,


1. 0 ≤ 𝐹 𝑥 ≤ 1 ∀𝑥 ∈ℝ
2. 𝐹 es creciente
3. 𝑃 𝑋 > 𝑥 = 1 − 𝐹 𝑥 ∀𝑥 ∈ ℝ

Si la variable aleatoria es discreta se cumple:

𝐹 𝑥 = 𝑃 𝑋 ≤ 𝑥 = ෍ 𝑃 𝑋 = 𝑥𝑖
𝑥𝑖 ≤𝑥

8
Ejemplo: En el ejemplo anterior, ¿Cuál es la probabilidad de que un
cliente tuviera como mucho 3 créditos?

Además, la gráfica de su función de masa de probabilidad es:

𝒙𝒊 𝒑𝒊
0,45
1 7
0,40

30 0,35

2 13 0,30

0,25
30
0,20
3 4 0,15

30 0,10

4 6 0,05

0,00
30 1 2 3 4

Cada valor de la variable tiene asignada una probabilidad positiva.


La suma de todas las probabilidades es uno.

9
La Función de Distribución viene dada por
stepfun(1:4, y0, f = 0)

1.0
0 𝑠𝑖 𝑥 < 1
0.8

7ൗ
30 𝑠𝑖 1 ≤ 𝑥 < 2
0.6

20ൗ
𝐹 𝑥 = 30 𝑠𝑖 2 ≤ 𝑥 < 3
f(x)

24ൗ
0.4

30 𝑠𝑖 3 ≤ 𝑥 < 4
30ൗ 𝑠𝑖 4 ≤ 𝑥
0.2

30
0.0

0 1 2 3 4 5

 Es una función creciente, que toma valores entre cero y uno.


 Es una función constante a trozos (forma de escalera).
 Tiene discontinuidades en los puntos donde la probabilidad es
distinta de cero: 1,2,3,4.
 Los saltos de esas discontinuidades son las probabilidades de dichos
puntos:
20 7 13
𝐹(2) − 𝐹(2− ) = − =
30 30 30 10
VARIABLES ALEATORIAS CONTINUAS

Toman valores dentro de un intervalo o dentro de varios intervalos.


Como dentro de un intervalo hay infinitos valores distintos, la
probabilidad de que esa variable tome un único valor siempre es cero.

Las probabilidades de las variables continuas se miden mediante la


FUNCIÓN DE DENSIDAD. Es una función positiva cuya integral en
toda la recta real siempre vale 1.

𝑓: 𝑋 → ℝ
𝑥 → 𝑓 𝑥

1. 𝑓 𝑥 ≥ 0 ∀ 𝑥 ∈ ℝ
+∞
2. ‫׬‬−∞ 𝑓 𝑥 𝑑𝑥 = 1
𝑏
3. 𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = ‫𝑥𝑑 𝑥 𝑓 𝑎׬‬

11
En las variables continuas, la probabilidad se puede ver como el área
que encierra la función de densidad en ese intervalo.
Función
de
densidad
𝑃(−1.41 ≤ 𝑋 ≤ 0.7)

En las variables continuas, las probabilidades de un solo punto valen


cero, por tanto las probabilidades de los intervalos abiertos y cerrados
son similares, es decir:
𝑃 𝑋 = 𝑎 = 0 para cualquier valor de 𝑎.
𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏

Esta última propiedad no es cierta si 𝑋 es discreta

12
Función de Distribución de una variable Continua

Recordemos que la Función de Distribución, 𝐹, es:


𝐹 𝑥 =𝑃 𝑋≤𝑥

Si la variable es Continua, se calcula como


𝑥
𝐹 𝑥 = 𝑃 𝑋 ≤ 𝑥 = න 𝑓 𝑡 𝑑𝑡
−∞

NOTA: Se puede obtener la función de densidad sin más que


derivar la función de distribución:

d𝐹 𝑥
𝑓 𝑥 = = 𝐹′ 𝑥
𝑑𝑥

13
Ejemplo:
Sea X, la variable aleatoria con función de densidad

2
𝑓 𝑥 = ቊ3 1 − 𝑥 si 0 < 𝑥 < 1
0 en otro caso

a. Calculemos 𝑃 𝑋 > 0.6 :

b. Calculemos la Función de Distribución:


𝑥
𝐹 𝑥 = 𝑃 𝑋 ≤ 𝑥 = න 𝑓 𝑡 𝑑𝑡
−∞

14
2
𝑓 𝑥 = ቊ3 1 − 𝑥 si 0 < 𝑥 < 1
0 en otro caso

 Si 𝑥 < 0, entonces

 Si 0 ≤ 𝑥 < 1, entonces

 Si 𝑥 ≥ 1, entonces

Por tanto, la función de distribución sería:


si 𝑥 < 0
𝐹 𝑥 = si 0 ≤ 𝑥 < 1
si 𝑥 ≥ 1

15
En el caso de las variables continuas, la Función de distribución es
continua, no presenta ningún tipo de discontinuidad, es decir:
𝐹 𝑥− = 𝐹 𝑥 ∀𝑥
La gráfica de la función de distribución de este ejemplo sería:

16
Ejemplo:
Dadas las siguientes funciones de distribución:
a) Indicar si corresponden a variables continuas o discretas
b) Calcular la función de masa de probabilidad o de densidad en
cada caso.

0 𝑠𝑖 𝑥 < 0 0 𝑠𝑖 𝑥 < 2
3
𝐹 𝑥 = ൞𝑥 ൗ8 𝑠𝑖 0 ≤ 𝑥 < 2 𝐹1 𝑥 = ൞3ൗ8 𝑠𝑖 2 ≤ 𝑥 < 6
1 2≤𝑥 1 6≤𝑥

17
VARIABLES ALEATORIAS VARIABLES ALEATORIAS
DISCRETAS CONTINUAS

Función de masa de Función de densidad:


probabilidad: 𝑓: 𝑋 → ℝ
𝑥 → 𝑓 𝑥

1. 0 ≤ 𝑃 𝑋 = 𝑥𝑖 ≤ 1 1. 𝑓 𝑥 ≥ 0 ∀𝑥 ∈ℝ
∀ 𝑖 = 1, … , 𝑛 +∞
2. ‫׬‬−∞ 𝑓 𝑥 𝑑𝑥 = 1
2. σ𝑛𝑖=1 𝑃 𝑋 = 𝑥𝑖 = 1 𝑏
3. 𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = ‫𝑥𝑑 𝑥 𝑓 𝑎׬‬
3. 𝑃 𝐴 = σ𝑥𝑖 ∈𝐴 𝑃 𝑋 = 𝑥𝑖
para cualquier suceso 𝐴.

18
CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA

ESPERANZA DE UNA VARIABLE ALEATORIA (MEDIA)

 𝑋 CONTINUA:

𝐸 𝑋 = න 𝑥𝑓 𝑥 𝑑𝑥
−∞
MEDIA
 𝑋 DISCRETA:
𝑘

𝐸 𝑋 = ෍ 𝑥𝑖 𝑃 𝑋 = 𝑥𝑖 .
𝑖=1

En general,

 𝑋 CONTINUA:

𝐸𝑔 𝑋 = න 𝑔 𝑥 𝑓 𝑥 𝑑𝑥
−∞
 𝑋 DISCRETA:
𝑘

𝐸𝑔 𝑋 = ෍ 𝑔(𝑥𝑖 ) 𝑃 𝑋 = 𝑥𝑖
𝑖=1
19
𝒙𝒊 1 2 3 4
EJEMPLOS:
𝑝_𝑖 7ൗ 13ൗ 4ൗ 6ൗ
30 30 30 30

𝐸𝑋 =

2
𝑓 𝑥 = ቊ3 1 − 𝑥 si 0 < 𝑥 < 1
0 en otro caso

𝐸𝑋 =

20
Propiedades de la Esperanza
Estas propiedades se verifican tanto si X es discreta como continua
i. Si 𝑋 es constante igual a 𝑘, entonces 𝐸 𝑋 = 𝑘.
ii. Si 𝑎 y 𝑏 son dos números reales, entonces 𝐸 𝑎𝑋 + 𝑏 = 𝑎𝐸 𝑋 + 𝑏.
iii. Si 𝑎 ≤ 𝑋 ≤ 𝑏 entonces 𝑎 ≤ 𝐸 𝑋 ≤ 𝑏

Ejemplo: Si 𝑋 ∈ 0,1 , ¿es posible que 𝐸 𝑋 = 2?

21
MOMENTO DE ORDEN r CENTRADO EN EL ORIGEN

 𝑋 CONTINUA:

𝐸 𝑋𝑟 = න 𝑥 𝑟 𝑓 𝑥 𝑑𝑥
−∞
 𝑋 DISCRETA:
𝑟

𝐸 𝑋 𝑟 = ෍ 𝑥𝑖𝑟 𝑃 𝑋 = 𝑥𝑖 .
𝑖=1

MOMENTO DE ORDEN r CENTRADO EN LA MEDIA

Llamemos 𝜇 = 𝐸[𝑋], entonces

 𝑋 CONTINUA:

𝑟
𝐸 𝑋−𝜇 = න (𝑥 − 𝜇)𝑟 𝑓 𝑥 𝑑𝑥
−∞
 𝑋 DISCRETA:
𝑟

𝐸 (𝑋 − 𝜇)𝑟 = ෍ 𝑥𝑖 − 𝜇 𝑟 𝑃 𝑋 = 𝑥𝑖 .
𝑖=1 22
El momento centrado en la media más importante es el momento
de orden 𝑟 = 2, más conocido como: VARIANZA

2
𝑉𝑎𝑟 𝑋 = 𝐸 𝑋 − 𝜇 = 𝐸 𝑋2 − 𝐸 𝑋 2

 𝑋 CONTINUA:
∞ ∞
𝑉𝑎𝑟 𝑋 = න 𝑥−𝜇 2𝑓 𝑥 𝑑𝑥 = න 𝑥 2 𝑓 𝑥 𝑑𝑥 − 𝐸 𝑋 2
−∞ −∞

 𝑋 DISCRETA:
𝑟 𝑘

𝑉𝑎𝑟 𝑋 = ෍ 𝑥𝑖 − 𝜇 2 𝑃 𝑋 = 𝑥𝑖 = ෍ 𝑥𝑖2 𝑃 𝑋 = 𝑥𝑖 − 𝐸𝑋 2.

𝑖=1 𝑖=1

23
DESVIACIÓN TÍPICA DE UNA VARIABLE

𝐷𝐸𝑆𝑉. 𝑇𝐼𝑃 𝑋 = + 𝑉𝑎𝑟[𝑋]

La desviación estándar o típica nos mide el grado de dispersión


de los datos con respecto a la media. A mayor desv. típica mayor
dispersión o variabilidad de los datos con respecto a la media.
Cuanto menor es la desv. típica más representativa es la media de
la variable.

24
𝒙𝒊 1 2 3 4
EJEMPLO: 𝑝_𝑖 7ൗ 13ൗ 4ൗ 6ൗ
30 30 30 30

Calcular la varianza.

EJEMPLO:
2
𝑓 𝑥 = ቊ3 1 − 𝑥 𝑠𝑖 0 ≤ 𝑥 ≤ 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Calcular la varianza.

25
Propiedades de la Varianza:
i. Si 𝑋 es constante igual a 𝑘, entonces 𝑉𝑎𝑟 𝑋 = 0.
ii. Si 𝑎 es un número real, entonces 𝑉𝑎𝑟 𝑎𝑋 = 𝑎2 𝑉𝑎𝑟[𝑋].
iii. Si 𝑏 es un número real, entonces 𝑉𝑎𝑟 𝑋 + 𝑏 = 𝑉𝑎𝑟[𝑋].
iv. Si 𝑎 y 𝑏 es un número real, entonces 𝑉𝑎𝑟 𝑎𝑋 + 𝑏 = 𝑎2 𝑉𝑎𝑟[𝑋].
v. 𝑉 𝑋 ≥ 0.

Ejercicio: A partir de las propiedades anteriores, deducir cómo sería:


i. Si 𝑋 es constante igual a 𝑘, entonces DESV. TIP 𝑋 =
ii. Si 𝑎 es un número real, entonces DESV. TIP 𝑎𝑋 =
iii. Si 𝑏 es un número real, entonces DESV. TIP 𝑋 + 𝑏 =
iv. Si 𝑎 y 𝑏 es un número real, entonces DESV. TIP 𝑎𝑋 + 𝑏 =

26
MEDIANA DE UNA VARIABLE ALEATORIA

La mediana de una variable aleatoria discreta es el menor valor 𝑥𝑚 tal


que:

𝐹 𝑥𝑚 ≥ 0.5

Ejemplo: Dada una variable aleatoria con la siguiente función de


distribución. Calcula su mediana.

0 𝑠𝑖 𝑥 < 1
7
𝑠𝑖 1 ≤ 𝑥 < 2
30
20
𝑠𝑖 2 ≤ 𝑥 < 3
𝐹 𝑥 = 30
24
𝑠𝑖 3 ≤ 𝑥 < 4
30
30
=1 𝑠𝑖 4 ≤ 𝑥
30
27
La mediana de una variable aleatoria CONTINUA es el valor tal que:

𝐹 𝑥𝑚 = 0.5

Ejemplo: Calcular la mediana de una variable aleatoria cuya función de


distribución es:

0 𝑠𝑖 𝑥 < 5
𝑥2 2
𝐹 𝑥 = − 𝑥+1 𝑠𝑖 5 ≤ 𝑥 < 10
25 5
1 𝑠𝑖 10 ≤ 𝑥

28
CUANTIL DE UNA VARIABLE ALEATORIA
El cuantil de orden 𝒑 (PERCENTIL 100𝒑) de una variable aleatoria
DISCRETA es el menor valor 𝑥𝑝 tal que:

𝐹 𝑥𝑝 ≥ 𝑝

El cuantil de orden 𝒑 (PERCENTIL 100𝒑) de una variable aleatoria


CONTINUA es el valor 𝑥𝑝 tal que:

𝐹 𝑥𝑝 = 𝑝
CASOS PARTICULARES:
 MEDIANA 𝑝 = 0.5
 CUARTILES: 𝑝 = 0.25, 𝑝 = 0.5 𝑦 𝑝 = 0.75
 DECILES: 𝑝 = 0.1, 𝑝 = 0.2, 𝑝 = 0.3, … , 𝑝 = 0.8, 𝑝 = 0.9

El cálculo de un cuantil es análogo al de la mediana cambiando 0.5 por el


𝒑 correspondiente. 29
MODA DE UNA VARIABLE ALEATORIA

Para calcular la moda de una variable discreta se busca el valor cuya


probabilidad sea más alta.

EJEMPLOS:
 𝒙𝒊 1 2 3 4
𝑝_𝑖 7ൗ 4ൗ 13ൗ 6ൗ
30 30 30 30

𝒙𝒊 1 2 3 4

𝑝_𝑖 7ൗ 10ൗ 3ൗ 10ൗ
30 30 30 30

Puede haber más de una moda, pero la media, mediana o los cuantiles
son únicos.

30
Para calcular la moda de una variable continua, se busca el valor donde
la función de densidad alcance su valor máximo.

0.5 sin(𝑥) 𝑠𝑖 0 < 𝑥 < 𝜋


Ejemplo: 𝑓 𝑥 =ቊ
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Ahí está la moda,


es el punto donde
alcanza el máximo
la función de
densidad.

31
Variables aleatorias bidimensionales

En algunas ocasiones nos interesa estudiar variables aleatorias


conjuntamente:
Por ejemplo para una empresa le puede interesar estudiar
conjuntamente la siguiente variable aleatoria

(𝑋, 𝑌) = (𝑏𝑒𝑛𝑒𝑓𝑖𝑐𝑖𝑜𝑠, 𝑔𝑎𝑠𝑡𝑜𝑠)

Estas variables pueden ser del mismo tipo: discretas o continuas o


incluso pueden ser una discreta y otra continua.
Se define la función de distribución de una variable aleatoria
bidimensional (𝑋, 𝑌) como:

𝐹 𝑥, 𝑦 = 𝑃 𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦 = 𝑃 𝑋 ≤ 𝑥 ∩ 𝑌 ≤ 𝑦

32
Si estudiamos por separado a las variables 𝑋 e 𝑌, sus funciones de
distribución respectivas se denominan distribuciones marginales 𝐹𝑋 (𝑥)
y 𝐹𝑌 (𝑦)

Independencia de Variables aleatorias


Dada una variable aleatoria bidimensional (𝑋, 𝑌) , se dirá que 𝑋 es
independiente de 𝑌, o que el vector aleatorio (𝑋, 𝑌) es independiente si
la distribución conjunta es igual al producto de las distribuciones
marginales.

Dos variables X e Y son independientes si:

𝐹 𝑥, 𝑦 = 𝐹𝑋 𝑥 ⋅ 𝐹𝑌 (𝑦)

33
Propiedades de la Media y la Varianza de dos variables aleatorias

Si se tienen dos variables X e Y, entonces se verifica


 𝑬[𝑿 + 𝒀] = 𝑬[𝑿] + 𝑬[𝒀]
 𝑽𝒂𝒓[𝑿 + 𝒀] = 𝑽𝒂𝒓 [𝑿] + 𝑽𝒂𝒓 [𝒀] + 𝟐𝑪𝒐𝒗𝒂𝒓[𝑿, 𝒀]
donde 𝐶𝑜𝑣𝑎𝑟 𝑋, 𝑌 = 𝐸 𝑋 ⋅ 𝑌 − 𝐸 𝑋 ⋅ 𝐸[𝑌]

Si además estas dos variables son independientes, entonces

𝑽𝒂𝒓[𝑿 + 𝒀] = 𝑽𝒂𝒓 [𝑿] + 𝑽𝒂𝒓 [𝒀]

34
Ejercicio:
Dadas las siguientes funciones de distribución calcular la media,
varianza, moda, mediana y cuantil de orden p=0.68:

0 𝑠𝑖 𝑥 < 0 0 𝑠𝑖 𝑥 < 2
𝑥3 3
𝐹1 𝑥 = 𝑠𝑖 0 ≤ 𝑥 < 2 𝐹2 𝑥 = 𝑠𝑖 2 ≤ 𝑥 < 6
8 8
1 𝑠𝑖 2 ≤ 𝑥 1 𝑠𝑖 6 ≤ 𝑥

35
PRINCIPALES VARIABLES ALEATORIAS

VARIABLES ALETORIAS DISCRETAS:


• BERNOULLI
• BINOMIAL
• BINOMIAL NEGATIVA
• POISSON

VARIABLES ALETORIAS CONTINUAS:


• UNIFORME
• EXPONENCIAL
• NORMAL

36
Menús de RCommander para trabajar con Variables Aleatorias:

37
PRINCIPALES VARIABLES ALEATORIAS DISCRETAS

VARIABLE ALEATORIA DE BERNOULLI

El experimento de Bernoulli es el experimento aleatorio más sencillo.


Se realiza una sola vez y sólo tiene dos posibles resultados: Éxito y
Fracaso. Las probabilidades de dichos sucesos son
𝑃(éxito) = 𝑝 y 𝑃(fracaso) = 1 − 𝑝.
Ejemplo: Lanzamiento de una moneda

Asociada al experimento de Bernoulli, se obtiene la variable aleatoria


o distribución de Bernoulli. Esta variable aleatoria sólo toma dos
posibles valores, 0 y 1. El 1 indica éxito y el 0 fracaso.

1 si éxito
𝑋=ቊ
0 si fracaso

38
De manera que:
 𝑃(𝑋 = 1) = 𝑝
 𝑃(𝑋 = 0) = 1 − 𝑝
Podemos ver fácilmente:
 𝐸 𝑋 = 1 ⋅ 𝑃 𝑋 = 1 + 0 ⋅ 𝑃(𝑋 = 0) = 𝑝
 𝐸 𝑋2 = 12 ⋅ 𝑃 𝑋 = 1 + 02 ⋅ 𝑃(𝑋 = 0) = 𝑝
2
 𝑉𝑎𝑟[𝑋] = 𝐸[𝑋2] − 𝐸 𝑋 = 𝑝 − 𝑝2 = 𝑝(1 − 𝑝)

Una variable aleatoria sigue una distribución de Bernoulli de parámetro


p: Bernoulli(p)

El único parámetro de esta distribución es la probabilidad de


éxito p.

39
Ejemplos:

 Lanzar una moneda, la variable que me indica si ha salido cara o


no, sigue una distribución de Bernoulli de parámetro 𝑝 = 0.5
 Al lanzar un dado, la variable aleatoria que me indica si ha
salido un 5 o no, sigue una distribución de Bernoulli de
1
parámetro 𝑝 = 6

 Al lanzar un dado, la variable aleatoria que me indica si ha


salido un número par, sigue una distribución de Bernoulli de
1
parámetro 𝑝 =
2

40
VARIABLE ALEATORIA BINOMIAL
Esta variable indica el resultado de la repetición n veces de forma
independiente del experimento de Bernoulli.
Por ejemplo: en el ejemplo anterior, si en vez de tirar la moneda una
sola vez, lo hacemos 10 veces y contamos el número de caras que han
salido.
La variable aleatoria que me dice el número de caras que han salido
sigue una distribución Binomial de parámetros 𝑛 = 10 (n indica el número
de repeticiones del experimento) y 𝑝 = 0.5 (p indica la probabilidad de
éxito de cada experimento).
La variable aleatoria Binomial sería:
𝑿 = número de éxitos en 𝒏 intentos
Así 𝑩𝒆𝒓𝒏𝒐𝒖𝒍𝒍𝒊(𝒑) = 𝑩𝒊𝒏𝒐𝒎𝒊𝒂𝒍(𝒏 = 𝟏, 𝒑)
Parámetros:
 𝑛 es un número entero positivo 1,2,3..
 𝑝 es la probabilidad de éxito 0 ≤ 𝑝 ≤ 1
41
Ejemplo:
Suponemos que la probabilidad de venta es constante 𝑝, la variable
aleatoria que me indica el número de ventas realizadas a un grupo de 20
clientes, sigue una distribución Binomial con 𝑛 = 20 y 𝑝 siendo la
probabilidad de venta.

Dada una variable aleatoria 𝑋 que sigue una 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝), entonces,
𝑿 sólo puede tomar los valores 0, 1, 2, …, n (ya que 𝑋 cuenta el
número de éxitos en los 𝑛 experimentos), es decir, 𝐷𝑋 = 0,1,2, … , 𝑛 .
El cálculo de la función de probabilidad de una binomial es:

𝑋 ∼ 𝐵𝑖 𝑛, 𝑝
𝑛 𝑘 𝑛−𝑘
𝑃 𝑋=𝑘 = 𝑝 1−𝑝 𝑝𝑎𝑟𝑎 𝑘 = 0,1, … , 𝑛
𝑘
𝑃 𝑋=𝑘 =0 𝑝𝑎𝑟𝑎 𝑘 < 0 ó 𝑘 > 𝑛
Recordemos que
𝑛 𝑛!
=
𝑘 𝑘! 𝑛 − 𝑘 !
42
PROPIEDADES

𝑋 ∼ 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝)
𝐸 𝑋 = 𝑛𝑝
𝑉𝑎𝑟 𝑋 = 𝑛𝑝 1 − 𝑝

Aproximación a la Distribución Normal:


Cuando el parámetro n es muy grande, el cálculo de las
probabilidades y el cómputo de 𝑛𝑘 puede ser muy largo y tedioso. Por
ello se realiza una aproximación de las probabilidades de la
Distribución Binomial por probabilidades de la distribución de Poisson
o la Normal. Esto se realiza gracias al Teorema Central del Límite
que veremos en el último epígrafe de este tema.

43
Cálculo de probabilidades de una binomial con RCommander

Función de masa de probabilidad:

Gráfico de función de masa de probabilidad:

Cuantiles 0.25, 0.5 y 0.75 (Cuartiles):

44
Ejemplo (Control de calidad):
Todos los días se seleccionan de manera aleatoria 15 unidades de un
proceso de manufacturación con el propósito de verificar el porcentaje
de unidades defectuosas en el proceso. Con base a la información
pasada, la probabilidad de tener una unidad defectuosa es de 0.05. La
gerencia ha decidido detener la producción cada vez que una muestra
de 15 unidades tenga 2 o más defectuosas. ¿Cuál es la probabilidad de
que, un día cualquiera, la producción se detenga?

45
Solución con RCommander:

𝑃 𝑋≥2 =𝑃 𝑋>1 =

46
VARIABLE ALEATORIA BINOMIAL NEGATIVA

El escenario en el que se mide esta variable es semejante al de la


Binomial. Se plantea una sucesión de sucesos semejantes de manera
independiente donde la probabilidad de éxito en cada uno de ellos es p.
En lugar de fijar el número de sucesos que vamos a considerar, n en la
distribución Binomial, aquí lo que vamos a fijar es el número de éxitos
que queremos obtener. Es decir, la variable aleatoria Binomial Negativa
de parámetros p y k mide el número de fallos hasta llegar al éxito
número k, donde la probabilidad de cada éxito es p.
Esta variable cuenta el número de fracasos hasta llegar al éxito k.
Si quisiésemos contar tanto número de éxitos como de fracasos,
tendríamos que considerar 𝑋 + 𝑘.
La variable aleatoria binomial negativa sería:

𝑿 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑓𝑟𝑎𝑐𝑎𝑠𝑜𝑠 ℎ𝑎𝑠𝑡𝑎 𝑜𝑏𝑡𝑒𝑛𝑒𝑟 𝑘 é𝑥𝑖𝑡𝑜𝑠

47
La Función de Probabilidad de una Binomial Negativa 𝐵𝑖𝑁(𝑘, 𝑝)

𝑘+𝑟−1 𝑘 𝑟
𝑃 𝑋=𝑟 = 𝑝 1−𝑝
𝑟

Con 𝑟 = 0,1,2, … y 𝑘 = 1,2, …


Esta variable puede tomar cualquier valor entero mayor o igual que
cero, es decir, 𝐷𝑋 = 0,1,2,3, … .
Su media y su varianza son:

𝑋 ∼ 𝐵𝑖𝑁(𝑘, 𝑝)
𝑘 1−𝑝
𝐸𝑋 =
𝑝
𝑘 1−𝑝
𝑉𝑎𝑟 𝑋 =
𝑝2

48
Ejercicio: Si estamos interesados en la variable:

𝑌 = "Número de pruebas realizadas hasta obtener 𝑘 éxitos“

a) ¿Cómo se representa 𝑌 en función de una variable aleatoria X ∼


𝐵𝑖𝑁(𝑘, 𝑝)?

b) ¿Cuál sería el número medio de pruebas realizadas hasta obtener 𝑘


éxitos, 𝐸 𝑌 ?

49
CASO PARTICULAR: DISTRIBUCIÓN GEOMÉTRICA

En el caso de parar de contar en el primer éxito (𝑘 = 1), surge un caso


especial de la distribución Binomial Negativa que se conoce con el
nombre de distribución Geométrica y cuya función de probabilidad es:

𝐺𝑒𝑜𝑚𝑒𝑡𝑟𝑖𝑐𝑎 𝑝 = 𝐵𝑖𝑁 1, 𝑝
𝑃 𝑋 =𝑟 =𝑝 1−𝑝 𝑟
Con 𝑟 = 0,1,2, …
Ejemplo:
La probabilidad de que el lanzamiento de un cohete tenga éxito es igual
a 0.8. Supongamos que hacemos ensayos hasta que ocurren 3
lanzamientos exitosos. ¿Cuál es la probabilidad de que sean necesarios
6 intentos?

50
VARIABLE ALEATORIA DE POISSON

La distribución de Poisson es el principal modelo de probabilidad para


analizar líneas de espera.
Una variable X que representa el número de sucesos aleatorios
independientes que ocurren en un periodo de tiempo, se dice que sigue
una distribución de Poisson de parámetro λ si su función de
probabilidad es:
𝑋 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛 𝜆
𝑘
𝜆
𝑃 𝑋 = 𝑘 = 𝑒 −𝜆
𝑘!
Con 𝑘 = 0,1,2,3, …
Es una variable que puede tomar cualquier valor entero mayor o igual a
cero, es decir, 𝐷𝑋 = 0,1,2,3, … .
El parámetro 𝜆 siempre es positivo, indica el número medio de sucesos
que ocurren en ese período de tiempo.
La variable aleatoria sería:
𝑿 = 𝑛º 𝑑𝑒 𝑠𝑢𝑐𝑒𝑠𝑜𝑠 𝑜𝑐𝑢𝑟𝑟𝑖𝑑𝑜𝑠 𝑒𝑛 𝑢𝑛 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜

51
Propiedades:
𝑋 ∼ Poisson 𝜆
𝐸 𝑋 =𝜆
𝑉𝑎𝑟 𝑋 = 𝜆.

Además si 𝑋 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛 𝜆 e 𝑌 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛 𝛼 son INDEPENDIENTES,


entonces,

𝑋 + 𝑌 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛 𝜆 + 𝛼

52
APROXIMACIÓN BINOMIAL-POISSON

Como comentamos al definir la variable Binomial, en algunos casos es


posible y adecuado aproximar las probabilidades de la Binomial por
probabilidades de la distribución de Poisson (más fáciles de calcular).

Sea 𝑋 una variable con distribución 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝)


Si 𝒏 > 𝟑𝟎, y 𝒑 < 𝟎. 𝟏 o 𝒑 > 𝟎. 𝟗 (muy grande o muy pequeña) entonces
podemos aproximar las probabilidades de la 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛, 𝑝) por la de
Poisson de parámetro 𝜆 = 𝑛 ⋅ 𝑝, es decir,

𝑋 ∼ 𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝑛, 𝑝
𝑛 > 30, 𝑝 ∉ [0.1,0.9]ቑ ⇒ 𝑋 ≈ 𝑌
𝑌 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝑛𝑝)

53
Ejemplo:
Un comprador de circuitos integrados ha adoptado un plan para
aceptar un envío de éstos que consiste en inspeccionar una muestra
aleatoria de 100 circuitos. Si el comprador encuentra no más de 2
circuitos defectuosos en la muestra acepta el lote, de otra forma lo
rechaza. Si se envía al comprador un lote con un 1% de circuitos
defectuosos. ¿Cuál es la probabilidad de que éste sea aceptado?

54
Solución con RCommander:

𝑃 𝑋≤2

Aproximación por la 𝑃𝑜𝑖𝑠𝑠𝑜𝑛 𝑛 ⋅ 𝑝 = 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(100 ⋅ 0.01)

55
PRINCIPALES VARIABLES ALEATORIAS CONTINUAS

DISTRIBUCIÓN UNIFORME.

Supongamos que puede suceder un evento en un intervalo de tiempo. La


probabilidad de que la variable aleatoria tome un valor en cualquier
subintervalo de igual longitud del intervalo de partida, es la misma. Se
dice entonces que la variable aleatoria se encuentra uniformemente
distribuida en ese intervalo.
Si una variable es uniforme, lo es en un determinado intervalo (𝑎, 𝑏)
Es una variable continua y su función de densidad es:

1
𝑓 𝑥 = ቐ𝑏 − 𝑎 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

56
Siendo 𝑎 y 𝑏 dos números reales cualesquiera que verifica 𝑎 < 𝑏, la
función de distribución de una variable Uniforme en (𝑎, 𝑏) es:

0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
𝐹 𝑥 =൞ 𝑠𝑖 𝑎 ≤ 𝑥 < 𝑏
𝑏−𝑎
1 𝑠𝑖 𝑏 ≤ 𝑥

La esperanza y la varianza de esta variable son:

𝑎+𝑏 𝑏−𝑎
𝐸𝑋 = =𝑎+
2 2
2
𝑏−𝑎
𝑉𝑎𝑟 𝑋 =
12

57
DISTRIBUCIÓN EXPONENCIAL
Es una variable aleatoria continua que está íntimamente relacionada
con la distribución de Poisson que vimos anteriormente.
La distribución de Poisson contaba el número de eventos en un
intervalo de tiempo. La distribución Exponencial mide el tiempo que
transcurre entre dos eventos de Poisson independientes.
Si una variable sigue una distribución exponencial de parámetro λ su
función de densidad viene dada por:

0 𝑠𝑖 𝑥 < 0
𝑓 𝑥 = ቊ −𝜆𝑥
𝜆e 𝑠𝑖 0 ≤ 𝑥

La variable sólo toma valores positivos.


El parámetro 𝜆 siempre es positivo
58
Su función de distribución es:

0 𝑠𝑖 𝑥 < 0
𝐹 𝑥 =ቊ
1 − e−𝜆𝑥 𝑠𝑖 0 ≤ 𝑥

Además, su Esperanza y Varianza son:

1
𝐸𝑋 =
𝜆
1
𝑉𝑎𝑟 𝑋 = 2
𝜆

Propiedad:
Sean 𝑋1 ∼ 𝐸𝑥𝑝 𝜆1 , 𝑋2 ∼ 𝐸𝑥𝑝 𝜆2 , … , 𝑋𝑛 ∼ 𝐸𝑥𝑝 𝜆𝑛 INDEPENDIENTES,
entonces
𝑋 = 𝑀𝑖𝑛 𝑋1, 𝑋2, … , 𝑋𝑛 ∼ 𝐸𝑥𝑝 𝜆1 + 𝜆2 + ⋯ + 𝜆𝑛

59
DISTRIBUCIÓN NORMAL

Entre las variables aleatorias de tipo continuo destaca por su gran


importancia la llamada Normal o Gaussiana. Su gran importancia es
debido a que es un modelo adecuado para una gran diversidad de
situaciones del mundo real. La siguiente figura es la gráfica típica de la
distribución Normal, con forma acampanada.

Función de densidad de una 𝑵(𝝁, 𝝈), donde 𝝁 y 𝝈𝟐 corresponden a la


media y la varianza de la variable aleatoria 𝑿; respectivamente.

Observemos que esta es una gráfica simétrica, continua y en forma


de campana.

60
Dada una variable aleatoria Normal, su función de densidad, más
conocida como Campana de Gauss, siempre está centrada en la media
𝜇, y la desviación estándar 𝜎 nos indica cuánta dispersión hay en la
variable, gráficamente cuanto más puntiaguda sea la densidad, menor
dispersión.

61
La función de densidad de una distribución 𝑁(𝜇, 𝜎) es simétrica en
torno a la media 𝜇, entonces la mediana SIEMPRE coincide con la
media 𝜇 y además por la forma de la función de densidad, la moda
también coincide con 𝜇 .

 Cambios en la media 𝜇1 < 𝜇2

 Cambios en la varianza 𝜎12 < 𝜎22

62
La función de densidad de una variable aleatoria Normal es
complicada y, por lo tanto, es difícil de calcular probabilidades con
ella.
1 −1
𝑥−𝜇 2
𝑓 𝑥 = 𝑒 2 ∀𝑥, 𝜇, 𝜎 2 > 0
2𝜋𝜎 2

Por esto, se trabaja con tablas para ESTIMAR estos cálculos. Dado
que cada variable normal depende de los valores 𝜇 y 𝜎², en principio se
necesitaría una tabla diferente para cada par de estos valores.

La solución para trabajar con una única tabla es transformar estas


probabilidades en probabilidades de un caso particular de la familia
Normal de densidades. Esta distribución recibe el nombre de
Distribución Normal Estándar 𝑁(0,1).

𝑋−𝜇
Proposición : Si 𝑋~𝑁(𝜇, 𝜎) entonces ∼ 𝑁(0,1)
𝜎

A este proceso se le llama Tipificación o Estandarización de la


variable
63
Dado que la variable Normal es continua, la probabilidad de un punto
es cero, por eso la probabilidad de los intervalos abiertos es la misma
que la de los intervalos cerrados.

𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ∈ 𝑎, 𝑏

Las probabilidades vienen


representadas por el área
del intervalo por debajo de
la función de densidad

Para calcular la probabilidad de un intervalo [𝒂, 𝒃]

𝑃 𝑋 ∈ 𝑎, 𝑏 = 𝑃 𝑋 ≤ 𝑏 − 𝑃 𝑋 ≤ 𝑎 = 𝑃 𝑋 ≥ 𝑎 − 𝑃(𝑋 ≥ 𝑏)

64
¿Cómo buscar en la tabla?

Esta tabla sólo da


probabilidades de Valores
positivos.
La fila indica el valor de la
variable y su primera cifra
decimal y la columna la
segunda cifra decimal. Por
ejemplo
P(Z>0.56)=1-0.7123=0.2877
P(Z<1,13)=0.8708

Valores de la
variable

Probabilidades
65
EJEMPLOS: Dada una variable Z que sigue una distribución 𝑁(0,1)
(de media cero y varianza 1), ¿Cómo calculamos las probabilidades
de valores negativos?

Utilizando la propiedad de simetría de la función de densidad


Normal, es fácil ver que:

1. 𝑃(𝑍 ≤ 0) = 𝑃(𝑍 ≥ 0) = 0.5


2. 𝑃(𝑍 ≤ −0.13) = 𝑃(𝑍 ≥ 0.13)
3. 𝑃(𝑍 > −0.13) = 𝑃(𝑍 ≤ 0.13)

66
¿Cómo interpolar si el valor no es exacto en la tabla?

Supongamos que queremos calcular 𝑃 𝑁 0,1 < 0.243


Sabemos
𝑃(𝑁 0,1 < 0.24) = 0.5948
𝑃(𝑁 0,1 < 0.25) = 0.5987
Utilizaremos el método de interpolación lineal para calcular
𝑃(𝑁 0,1 < 0.243) = 𝑎

𝑎 − 0.5948 0.5987 − 0.5948


=
0.243 − 0.24 0.25 − 0.24

De la ecuación anterior despejamos el valor de 𝑎 y obtenemos:

0.0039
𝑎 − 0.5948 = ⋅ 0.003 = 0.00117 ⇒
0.01
𝑎 = 0.5948 + 0.00117 = 0.59597
Entonces, 𝑃(𝑁 0,1 < 0.243) = 0.59597

67
Solución con RCommander:

𝑃 𝑋 ≤ 0.243

68
Ejemplo. El número de ventas mensuales de un centro comercial, en
miles de unidades, es una variable aleatoria 𝑋 que sigue una
distribución normal, con media 10 y desv. típica 2 (𝑁(10,2)).
¿Cuál es la probabilidad de que en un mes elegido al azar haya menos
de 7000 ventas?

PROPIEDADES:
 Sea 𝑋 ∼ 𝑁(𝜇, 𝜎) y 𝑎, 𝑏 ∈ ℝ entonces 𝑌 = 𝑎 ⋅ 𝑋 + 𝑏 ∼ 𝑁 𝑎 ⋅ 𝜇 + 𝑏, 𝑎 ⋅ 𝜎
 Sean 𝑋1 ∼ 𝑁 𝜇1 , 𝜎1 , 𝑋2 ∼ 𝑁 𝜇2 , 𝜎2 , … , 𝑌𝑛 ∼ N 𝜇𝑛 , 𝜎𝑛
INDEPENDIENTES, entonces:
𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ∼ 𝑁 𝜇1 + 𝜇2 + ⋯ + 𝜇𝑛 , 𝜎12 + 𝜎22 + ⋯ + 𝜎𝑛2

69
TEOREMA CENTRAL DEL LÍMITE

Hemos visto anteriormente como aproximábamos la distribución


Binomial mediante la Poisson cuando 𝑛 > 30 y 𝑝 < 0.1 ó 𝑝 > 0.9. A
continuación veamos aproximaciones por la distribución Normal.

Aproximación de la v.a. Poisson por una Normal

Si 𝑋 sigue una distribución de 𝑷𝒐𝒊𝒔𝒔𝒐𝒏(𝝀) y 𝝀 > 𝟓, entonces podemos


aproximar sus probabilidades por una distribución Normal de media 𝝀
y de varianza 𝝀.
Importante: esta aproximación se usa principalmente para aproximar
probabilidades con desigualdades estrictas, del tipo

𝑃(𝑋 < 𝑎), 𝑃(𝑋 > 𝑎) ó 𝑃(𝑎 < 𝑋 < 𝑏)

70
Aproximación de una v.a. Binomial por una Normal

Si 𝑋 sigue una distribución de 𝑩𝒊(𝒏, 𝒑) y 𝒏 > 𝟑𝟎 y 𝒑 está entre 0.1 y


0.9, entonces podemos aproximar sus probabilidades por una
distribución Normal de media 𝒏 ⋅ 𝒑 y de varianza 𝒏 ⋅ 𝒑 ⋅ (𝟏 − 𝒑).

Corrección por continuidad


Al realizar estas aproximaciones estamos aproximando probabilidades
de una distribución discreta 𝑋 (Binomial o Poisson) por una Continua 𝑌
(Normal), para reducir el error de tal aproximación se realiza una
Corrección denominada Corrección por continuidad.
 𝑃(𝑋 ≤ 𝑏)~ 𝑃(𝑌 ≤ 𝑏 + 0.5)
 𝑃(𝑋 ≥ 𝑎)~ 𝑃(𝑌 ≥ 𝑎 − 0.5)
 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏)~ 𝑃(𝑎 − 0.5 ≤ 𝑌 ≤ 𝑏 + 0.5)

71
Ejemplo:
En clase de 1º de ADE hay 180 alumnos matriculados. Se ha estimado que
el 60 por ciento asisten a clase con regularidad.
Calcular la probabilidad de que elegido un día al azar, haya más de 90
alumnos.

72
Solución con RCommander:

𝑃 𝑋 > 90

Aproximación por la 𝑁 𝑛 ⋅ 𝑝, 𝑛 ⋅ 𝑝 ⋅ 𝑞 = 𝑁 108, 43.2

73

También podría gustarte