Tema 4.
Variables
Aleatorias
Dr. Irene García-Camacha Gutiérrez
Índice
1. Definición de variable aleatoria
2. Variables aleatorias discretas
3. Variables aleatorias continuas
3.1 La distribución Normal
4. Resumen
¿Y si no
supiéramos de
forma precisa la
respuesta a una
variable (de las
que estudiamos
en el tema de
estadística
descriptiva)?
1. Definición de variable aleatoria
Una Variable Aleatoria (V.A.) es una función que asigna a cada suceso
elemental (cada posible resultado del experimento aleatorio) un número.
𝑋: Ω ⟶ ℝ Ω 𝑋 𝜔
𝜔 → 𝑋 𝜔 = 𝑛º
𝜔1 𝑋(𝜔1 ) =1
Ejemplo: Vamos a considerar “el
experimento” sexo de los próximos
mellizos al nacer en cierto hospital 𝜔2 𝑋(𝜔2 ) = 0
de Toledo. Sea 𝑋 la variable
aleatoria nº de niñas. 𝜔3 𝑋(𝜔3 ) = 2
𝜔4 𝑋(𝜔4 ) =1
Siguiendo la definición, a todos los resultados el experimento aleatorio se les
asigna un número. ¿Qué clasificación existía para las variables numéricas?
Variable aleatoria Variable aleatoria
discreta continua
Sólo puede tomar un número finito Puede tomar un número infinito no
o infinito numerable de valores numerable de valores
2. Variables aleatorias discretas
• QUÉ ES: Una variable aleatoria discreta X es una función
que asigna valores numéricos DISCRETOS a los sucesos 𝑋: Ω → ℕ
elementales de un espacio muestral. 𝜔𝑖 → 𝑥𝑖
• FUNCIÓN DE PROBABILIDAD: Es la aplicación que asigna a
𝑝𝑥 ∶ 𝑋 → [0,1]
cada valor de la variable aleatoria discreta X la
𝑥𝑖 → 𝑃(𝑋 = 𝑥𝑖 )
probabilidad de que la variable tome dicho valor.
• FUNCIÓN DE DISTRIBUCIÓN: Es la aplicación que asigna a
cada valor 𝑥𝑖 de la variable aleatoria discreta X la 𝐹𝑋 𝑥𝑖 = 𝑃(𝑋 ≤ 𝑥𝑖 )
probabilidad de que la variable tome valores menores o =σ𝑖𝑗=1 𝑃(𝑋 = 𝑥𝑗 )
iguales que 𝑥𝑖 .
• MEDIA O ESPERANZA: Se llama media o esperanza de una variable aleatoria X y
se representa por 𝜇 al valor
𝑛
𝜇 = 𝑥1 ∙ 𝑃 𝑋 = 𝑥1 + 𝑥2 ∙ 𝑃 𝑋 = 𝑥2 + ⋯ + 𝑥𝑛 ∙ 𝑃 𝑋 = 𝑥𝑛 = 𝑥𝑖 ∙ 𝑃(𝑋 = 𝑥𝑖 )
𝑖=1
• VARIANZA: Se llama varianza de una variable aleatoria X y se representa por 𝜎 2
al valor
𝑛
𝜎 2 = 𝑥12 ∙ 𝑃 𝑋 = 𝑥1 + 𝑥22 ∙ 𝑃 𝑋 = 𝑥2 + ⋯ + 𝑥𝑛2 ∙ 𝑃 𝑋 = 𝑥𝑛 − 𝜇2 = 𝑥𝑖2 ∙ 𝑃 𝑋 = 𝑥𝑖 − 𝜇2
𝑖=1
• DESVIACIÓN TÍPICA: A partir de la varianza, se define la desviación típica 𝜎 como la
raíz cuadrada de la varianza.
Te
toca
trabajar!
Problema 1. El ejemplo que trabajamos en el apartado 1, la variable aleatoria
𝑋 = nº de niñas del experimento aleatorio sexo de los próximos mellizos nacidos
en un hospital de Toledo, se trata de una variable aleatoria discreta.
Escribe y calcula:
✓ La función de probabilidad.
✓ La función de distribución.
✓ La esperanza.
✓ La varianza.
✓ La probabilidad de que una embarazada con mellizos tenga a lo sumo una niña.
En primer lugar, representamos la variable aleatoria como:
𝑋: Ω → ℕ
𝜔1 = 𝑋𝑌, 𝑋𝑋 →𝑋 𝜔1 =1
𝜔2 = 𝑋𝑌, 𝑋𝑌 →𝑋 𝜔2 =0
𝜔3 = 𝑋𝑋, 𝑋𝑋 →𝑋 𝜔3 =2
𝜔4 = 𝑋𝑋, 𝑋𝑌 →𝑋 𝜔4 =1
Tenemos tres posibles resultados 0,1,2 niñas. Calcular la función de
probabilidad es calcular la probabilidad de ocurrencia de cada resultado:
1
𝑝𝑥 0 = 𝑃 𝑋 = 0 = 𝑃 𝑋𝑌, 𝑋𝑌 = 𝒙𝒊 0 1 2
4
2
𝑝𝑥 1 = 𝑃 𝑋 = 1 = 𝑃 𝑋𝑌, 𝑋𝑋 , {𝑋𝑋, 𝑋𝑌} = 𝑝𝑥 (𝑥𝑖 ) ¼ ½ ¼
4
1
𝑝𝑥 2 = 𝑃 𝑋 = 2 = 𝑃 𝑋𝑋, 𝑋𝑋 =
4
La función de distribución consistirá en ir sumando las funciones de
probabilidad acumuladas:
1 𝒙𝒊 0 1 2
𝐹𝑋 0 = 𝑃 𝑋 ≤ 0 = 𝑝𝑥 0 = = 0.25
4
1
𝐹𝑋 1 = 𝑃 𝑋 ≤ 1 = 𝑝𝑥 0 + 𝑝𝑥 1 = + = 0.75
2 𝐹𝑥 (𝑥𝑖 ) 0.25 0.75 1
4 4
1 2 1
𝐹𝑋 2 = 𝑃 𝑋 ≤ 2 = 𝑝𝑥 0 + 𝑝𝑥 1 + 𝑝𝑥 2 = + + = 1
4 4 4
La esperanza será:
𝜇 = 𝑥1 ∙ 𝑃 𝑋 = 𝑥1 + 𝑥2 ∙ 𝑃 𝑋 = 𝑥2 + 𝑥3 ∙ 𝑃 𝑋 = 𝑥3 =
= 0 ∙ 0.25 + 1 ∙ 0.50 + 2 ∙ 0.25 = 1
Se utiliza la tabla de arriba
(FUNCIÓN DE PROBABILIDAD)
La varianza será:
𝜎 2 = 𝑥12 ∙ 𝑃 𝑋 = 𝑥1 + 𝑥22 ∙ 𝑃 𝑋 = 𝑥2 + 𝑥32 ∙ 𝑃 𝑋 = 𝑥3 − 𝜇2
= 02 ∙ 0.25 + 12 ∙ 0.50 + 22 ∙ 0.25 − 12 = 0.5
La probabilidad pedida corresponde a 𝑃 𝑋 ≤ 1 = 𝐹𝑋 1 = 0.75
Existen variables aleatorias
que parecen con frecuencia
en numerosas situaciones
reales. A estas variables
aleatorias “modelo”, que
siguen un patrón definido, las
hemos dotado de nombre y
conocemos muy bien cuáles
son sus características para
facilitar el cálculo de
probabilidades en las
situaciones cotidianas en las
que aparecen.
DISTRIBUCIÓN DE DISTRIBUCIÓN
BERNOULLI BINOMIAL
Toda experiencia aleatoria que Cuando se realizan n pruebas
presenta dos resultados posibles, independientes de tipo Bernoulli
uno que fijamos como “éxito” y lo decimos que es una experiencia de
contrario como “fracaso” se suele tipo Binomial. Las siguientes
denominar de tipo Bernoulli. las experiencias son de tipo Binomial:
siguientes experiencias son de tipo
Bernoulli: • Observar 30 nacimientos de un
bebé (niña o niño)
• El nacimiento de un niño. . Estudiar si están en su peso ideal
• Estar en tu peso ideal (o no). 22 personas (o no).
• El resultado de una operación • El resultado de 50 operaciones
(éxito o fracaso). (éxito o fracaso).
DISTRIBUCIÓN DISTRIBUCIÓN DE
GEOMÉTRICA POISSON
La distribución geométrica es un
Sus principales aplicaciones hacen
modelo adecuado para aquellos
referencia a la modelización de
procesos en los que se repiten
situaciones en las que nos interesa
pruebas hasta la consecución del
determinar el número de hechos
éxito: "número de pruebas
de cierto tipo que se pueden
anteriores al primer éxito".
producir en un intervalo de tiempo
Ejemplos:
o de espacio. Ejemplos:
• Que de todos los hijos de una
• Que nazcan exactamente 20 niñas
familia la primera niña sea la 3ª.
en un hospital en un día.
• Que una determinada operación
• Que tan sólo haya resultado mal
fracase ocurra en el paciente
una operación una vez a la semana.
número 100.
3. Variables aleatorias continuas
• QUÉ ES: Una variable aleatoria X se dice que es continua cuando
tiene asociada una función de densidad f(x), que es una función
matemática que modeliza la frecuencia relativa de la variable, que
cumple:
✓ 𝑓(𝑥) ≥ 0 para todos los valores.
∞
✓ −∞ 𝑓 𝑥 𝑑𝑥 = 1 (el AUC es uno)
𝑏
✓ 𝑃 𝑎<𝑥<𝑏 = 𝑓 𝑎 𝑥 𝑑𝑥
• FUNCIÓN DE DISTRIBUCIÓN: Es la aplicación 𝐹𝑋 (𝑥) que asigna a cada valor
de la variable x de la variable aleatoria continua X la probabilidad de que la
variable tome valores menores o iguales que x.
𝑥
𝐹𝑋 𝑥 = 𝑃 𝑋 ≤ 𝑥 = න 𝑓 𝑡 𝑑𝑡 𝑝𝑎𝑟𝑎 − ∞ ≤ 𝑥 ≤ ∞
−∞
Nota: 𝑃 𝑎 < 𝑥 < 𝑏 = 𝐹𝑋 𝑏 − 𝐹𝑋 𝑎
∞
• ESPERANZA: 𝜇 = −∞ 𝑥 ∙ 𝑓 𝑥 𝑑𝑥
∞
• VARIANZA: 𝜎 2 = −∞ 𝑥 − 𝜇 2 ∙ 𝑓 𝑥 𝑑𝑥
3.1 La distribución Normal
• QUÉ ES: Una variable aleatoria X se dice que tiene una distribución de
probabilidades normal con media 𝜇 y desviación típica 𝜎 y se denota X~𝑁(𝜇, 𝜎)
si su función de densidad es de la forma:
(𝑥−𝜇)2
1 −
𝑓 𝑥 = 𝑒 2𝜎2 , −∞ < 𝑥 < ∞
𝜎 2𝜋
• PROPIEDADES:
✓ La función de densidad es simétrica, mesocúrtica y unimodal.
✓ Los puntos de inflexión de 𝑓(𝑥) se sitúan a distancia 𝜎 de 𝜇.
✓ No podemos calcular la probabilidad 𝑃 𝑎 < 𝑥 < 𝑏 = 𝐹𝑋 𝑏 − 𝐹𝑋 𝑎 a partir de
la integral definida puesto que no puede calcularse una primitiva a partir de
funciones elementales → Se utilizan unas tablas para su cálculo aproximado
Si tomamos intervalos centrados en 𝜇 con
extremos situados a distancia:
✓ 𝜎 → Comprende un 68% de las observaciones
✓ 2𝜎 → Comprende un 95% de las observaciones
✓ 2.5𝜎 → Comprende un 99% de las observaciones
• INTERPRETACIÓN GEOMÉTRICA
✓ La media es un factor de traslación. ✓ La desviación es un factor de escala.
• TIPIFICACIÓN: A la distribución normal con media 0 y desviación típica 1, 𝑁 0,1 ,
𝑥−𝜇
se le llama normal tipificada. Mediante la transformación 𝑧 = cualquier
𝜎
𝑁(𝜇, 𝜎) puede transformarse en una 𝑁 0,1 para poder realizar comparaciones.
Cómo calcular probabilidades
Como hemos visto anteriormente, es fácil trasformar cualquier X~𝑁(𝜇, 𝜎) en
una 𝑍~𝑁(0,1). Por tanto, aprenderemos a calcular probabilidades de una
𝑍~𝑁(0,1). Para ello necesitaremos las tablas de probabilidad de la 𝑁(0,1).
En esta tabla, únicamente aparecen
probabilidades de la forma:
𝑃 𝑍 ≤ 𝑧0 = Φ 𝑧0 , 𝑧0 ≥ 0
A partir de estos valores y aprovechando
la simetría de la distribución, se deducen
otras muchas probabilidades:
❑ 𝑃 𝑍 ≤ 𝑧0 = Φ 𝑧0 , 𝑧0 ≥ 0 → Directamente de las tablas
❑ 𝑃 𝑍 ≤ −𝑧0 = Φ −𝑧0 = 1 − Φ 𝑧0 , −𝑧0 < 0 → Utilizamos la simetría de la N(0,1)
Nota: Observa que calcular probabilidades acumuladas = calcular área bajo la función de densidad.
Aprovechando la simetría de la normal, podemos obtener áreas equivalentes.
❑ 𝑃 𝑧0 ≤ 𝑍 ≤ 𝑧1 = Φ 𝑧1 − Φ 𝑧0 → Φ 𝑧0 y Φ 𝑧1 se calculan siguiendo los casos anteriores.
Cómo calcular cuantiles a partir de probabilidades
A partir de esta tabla, podemos calcular la
probabilidad que deja por debajo el valor 𝑧0
𝑃 𝑍 ≤ 𝑧0 = 𝒑 , 𝑝 ≥ 0.5 (≡ 𝑧0 ≥ 0)
❑ Si 𝑝 ≥ 0.5 → Directamente de la tabla
❑ Si 𝑝 < 0.5 → P Z ≤ −𝑧0 = 1 − 𝑃(𝑍 ≤ 𝑧0 )
Y si no tenemos una 𝑁 0,1 , ¿Cómo calculamos probabilidades?
𝑋−𝜇
𝑋~𝑁 𝜇, 𝜎 ⟹ 𝑍 = ~𝑁(0,1)
𝜎
𝑥0 −𝜇
Por tanto, 𝑃 𝑋 ≤ 𝑥0 = 𝑃 𝑍 ≤ = 𝑃(𝑍 ≤ 𝑧0 ) y procedemos como antes
𝜎
Y si no tenemos una 𝑁 0,1 , ¿Cómo calculamos cuantiles?
Primero, procedemos como antes. Esto es, calculamos el valor de una
𝑁 0,1 que deja por debajo el 𝑝 ∙ 100% de las observaciones, 𝑧0 . A partir de
este valor, “destipificamos”:
𝑥0 − 𝜇
z0 = ⟹ 𝑥0 = 𝜇 + 𝑧0 ∙ 𝜎
𝜎
¿Por qué es tan importante la Distribución Normal?
• Los errores de medición siguen esta distribución.
• Las variables que siguen otras distribuciones
distintas a la Normal bajo ciertas condiciones y
para muestras grandes se aproximan a la
distribución Normal!!! Teorema central del límite
¿Un ejemplo de dónde puedo encontrarla?
DISTRIBUCIÓN DISTRIBUCIÓN DISTRIBUCIÓN
CHI-CUADRADO T DE STUDENT F DE SNEDECOR
𝑍
𝑡𝑛 = 2 /𝑛
𝜒𝑛
𝜒𝑛2 = 𝑍12 + 𝑍22 + ⋯+ 𝑍𝑛2 1 1
𝜒𝑛2 𝐹𝑛1 ,𝑛2 = 2 /𝑛
𝜒𝑛 2 2
𝑛
4. Resumen
Tipo de Tipo de Probabilidad Probabilidad Estadísticos/ Modelos de
variable estadística relativa acumulada Parámetros distribución
Relevantes
Variable Descriptiva Frecuencia Frecuencia Centralización, ---
cuantitativa relativa relativa dispersión,
acumulada posición y
forma
Variable Inferencial Función de Función de Esperanza, Bernoulli,
aleatoria probabilidad distribución varianza y Binomial,
discreta desv. típica Geométrica y
Poisson
Variable Inferencial Función de Función de Esperanza, Normal, Chi-
aleatoria densidad distribución varianza y Cuadrado, T de
continua desv. típica Student, F de
Snedecor