Está en la página 1de 9

FORMULARIO DE PROBABILIDAD

AXIOMAS DE LA PROBABILIDAD

Los axiomas son verdades tan evidentes que se admiten sin demostración. La probabilidad está
basada en los axiomas de Probabilidad desarrollados en 1933 por el matemático ruso
Kolmogórov.

Para un espacio muestral 𝑺, la probabilidad de cada evento 𝑨 ⊂ 𝑺 es un número que se asigna


al evento, se denota 𝑷(𝑨), y tiene las siguientes propiedades:

1. 𝑷(𝑨) es un número no negativo; esto es, 𝑷(𝑨) ≥ 𝟎

2. La probabilidad del espacio muestral 𝑺 es la unidad, es decir, 𝑷(𝑺) = 𝟏

3. Si 𝑨 y 𝑩 son eventos que se excluyen mutuamente en 𝑺, entonces la probabilidad de la


unión de los eventos es igual a la suma de sus probabilidades, esto es:

𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩)

Si un evento tiene probabilidad cero, en el axioma uno, no significa que sea un evento imposible.
Para tener el evento vacío (o imposible) una probabilidad de cero es condición necesaria, pero
no suficiente.

VALOR ESPERADO DE UNA VARIABLE ALEATORIA

Sea 𝑿 una variable aleatoria con distribución de probabilidad 𝒇𝑿 (𝑿). El valor esperado de 𝑿,
𝑬[𝑿] es:
⎧ 𝒙𝒇𝑿 (𝑿) ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂

∀𝒙
𝑬[𝑿] =

⎪ 𝒙𝒇𝑿 (𝑿)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂

PROPIEDADES DEL VALOR ESPERADO

1. El valor esperado de una constante 𝒌, es la propia constante

𝑬[𝒌] = 𝒌

2. El valor esperado de una variable aleatoria por una constante, es la constante por el
valor esperado de la variable aleatoria

𝑬[𝒂𝑿] = 𝒂𝑬[𝑿]

3. El valor esperado de la cantidad 𝒂𝑿 + 𝒃 donde 𝒂 y 𝒃 son constantes, es el producto de


𝒂 por el valor esperado de 𝑿 más 𝒃.

𝑬[𝒂𝑿 + 𝒃] = 𝒂𝑬[𝑿] + 𝒃

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 1


4. Si 𝒈(𝒙) es una función de 𝑿, entonces:

⎧ 𝒈(𝒙)𝒇𝑿 (𝒙) ; 𝑿 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂



∀𝒙
𝑬[𝒈(𝒙)] =

⎪ 𝒈(𝒙) 𝒇𝑿 (𝒙)𝒅𝒙 ; 𝑿 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂

5. El valor esperado de una suma de funciones es igual a la suma de los valores


esperados. Si 𝒈𝟏 (𝑿) y 𝒈𝟐 (𝑿) son funciones de 𝑿, entonces

𝑬[𝒈𝟏 (𝑿) + 𝒈𝟐 (𝑿)] = 𝑬[𝒈𝟏 (𝑿)] + 𝑬[𝒈𝟐 (𝑿)]

6. Si 𝒈(𝒙) es una función de 𝑿, entonces:

LOS MOMENTOS RESPECTO AL ORIGEN Y RESPECTO A LA MEDIA

El r-ésimo momento con respecto al origen se define mediante:


𝒏
𝟏
𝒎𝒓 = 𝒙𝒓𝒊
𝒏
𝒊 𝟏

El r-ésimo momento con respecto a la media se define mediante:


𝒏
𝟏
𝒎𝒓 = (𝒙𝒊 − 𝒙)𝒓
𝒏
𝒊 𝟏

El primer momento con respecto al origen 𝒎𝟏 es l a media 𝒙, mientras que el segundo momento
con respecto a la media 𝒎𝟐 es la varianza 𝒔𝟐𝒏 .

CARACTERÍSTICAS DE LA VARIANZA

𝑽𝒂𝒓[𝑿] = 𝑬 𝑿𝟐 − (𝑬[𝑿])𝟐 = 𝑬 𝑿𝟐 − 𝝁𝟐

1. La varianza de una constante es cero: 𝑽𝒂𝒓[𝒌] = 𝟎

2. La varianza de una constante por la variable aleatoria es el cuadrado de la constante


por la varianza de la variable aleatoria

𝑽𝒂𝒓[𝒂𝑿] = 𝒂𝟐 𝑽𝒂𝒓[𝑿]

PROPIEDADES DE LA COVARIANZA

𝑪𝒐𝒗[𝑿, 𝒀] = 𝑬[𝑿𝒀] − 𝑬[𝑿]𝑬[𝒀] = 𝑬[𝑿𝒀] − 𝝁𝑿 𝝁𝒀

1. Si 𝑿 y 𝒀 son variables aleatorias conjuntas independientes, su covarianza es cero. Pero


si la covarianza es cero no quiere decir que sean independientes.

𝑪𝒐𝒗[𝑿, 𝒀] = 𝟎

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 2


2. Si 𝑿 y 𝒀 son variables aleatorias con esperanzas 𝑬[𝑿] y 𝑬[𝒀] y se definen las funciones
𝑼 = 𝒂𝟏 𝑿 + 𝒃𝟏 y 𝑽 = 𝒂𝟐 𝒀 + 𝒃𝟐 entonces

𝑪𝒐𝒗(𝑼, 𝑽) = 𝒂𝟏 𝒂𝟐 𝑪𝒐𝒗(𝑿, 𝒀)

3. Si 𝑿 y 𝒀 son variables aleatorias con varianzas 𝑽𝒂𝒓(𝑿) y 𝑽𝒂𝒓(𝒀) entonces:

𝑽𝒂𝒓(𝑿 ± 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀) ± 𝟐𝑪𝒐𝒗(𝑿, 𝒀)

Corolario: Si 𝑿 y 𝒀 son variables aleatorias independientes, entonces:

𝑽𝒂𝒓(𝑿 + 𝒀) = 𝑽𝒂𝒓(𝑿 − 𝒀) = 𝑽𝒂𝒓(𝑿) + 𝑽𝒂𝒓(𝒀)

DISTRIBUCIONES DE PROBABILIDAD

DISCRETAS:

DISTRIBUCIÓN DISCRETA UNIFORME

Definición: Sea 𝑿 una variable aleatoria, que toma los valores 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒌 , con igual
probabilidad
𝟏
𝒇𝑿 (𝒙; 𝒌) = , 𝒙 = 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒌
𝒌

entonces la distribución es directa uniforme con parámetro 𝒌. Se denota 𝑿~𝒖𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒌).

Teorema: Si 𝑋 es una variable aleatoria con distribución discreta uniforme, entonces:

𝒌
𝟏
𝝁𝑿 = 𝑬[𝑿] = 𝒙𝒊
𝒌
𝒊 𝟏

𝒌
𝟏
𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] = (𝒙𝒊 − 𝝁𝑿 )𝟐
𝒌
𝒊 𝟏

DISTRIBUCIÓN DE BERNOULLI

Definición: Sea 𝑿 la variable aleatoria que representa el número de éxitos que se obtienen al
realizar un ensayo de Bernoulli, entonces 𝑿 tiene una distribución de Bernoulli con parámetro
𝒑.
𝟏−𝒑 ; 𝒙 = 𝟎
𝒇𝑿 (𝒙; 𝒑) = 𝒑 ; 𝒙=𝟏
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
Se denota: 𝑿~𝑩𝒆𝒓𝒏𝒐𝒖𝒍𝒍𝒊(𝒑)

También puede escribirse como.


𝒑𝒙 (𝟏 − 𝒑)𝟏 𝒙 ; 𝒙 = 𝟎, 𝟏
𝒇𝑿 (𝒙) =
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 3


Teorema: Si X es una variable aleatoria con distribución de Bernoulli, entonces:

𝝁𝑿 = 𝑬[𝑿] = 𝒑

𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] = 𝒑𝒒

DISTRIBUCIÓN BINOMIAL

Definición: Sea X la variable aleatoria que representa el número de éxitos que se observan al
realizar un proceso de Bernoulli, entonces X recibe el nombre de variable aleatoria binomial,
con distribución
𝒏 𝒙
𝒑 (𝟏 − 𝒑)𝒏 𝒙 ; 𝒙 = 𝟎, 𝟏, … , 𝒏
𝒇𝑿 (𝒙; 𝒏, 𝒑) = 𝒙
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

Se denota 𝑿~𝑩𝒊𝒏𝒐𝒎𝒊𝒂𝒍(𝒏, 𝒑)

Teorema: Sea X una variable aleatoria con distribución binomial y parámetros n y p, entonces.

𝝁𝑿 = 𝑬[𝑿] = 𝒏𝒑

𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] = 𝒏𝒑𝒒

DISTRIBUCIÓN GEOMÉTRICA

Definición: Sea X la variable aleatoria que representa el número de ensayos Bernoulli que se
requieren para observar por primera vez un éxito, entonces X tiene una distribución
geométrica con parámetro 𝒑.

𝒑(𝟏 − 𝒑)𝒙 𝟏 ; 𝒙 = 𝟏, 𝟐, … , 𝒏
𝒇𝑿 (𝒙) =
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
Se denota:
𝑿~𝑮𝒆𝒐𝒎é𝒕𝒓𝒊𝒄𝒂(𝒑)

Teorema: Sea 𝑿 la variable aleatoria con distribución geométrica con parámetro 𝒑 entonces

𝟏
𝝁𝑿 = 𝑬[𝑿] =
𝒑

𝟏−𝒑
𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] =
𝒑𝟐

DISTRIBUCIÓN BINOMIAL NEGATIVA (DISTRIBUCIÓN DE PASCAL)

Definición: Sea 𝑿 una variable aleatoria que representa el número de ensayos de Bernoulli que
se requieren para observar el r-ésimo éxito, si en cada uno de los ensayos se tiene una
probabilidad de éxito 𝒑, entonces 𝑿 tiene una distribución de Pascal con parámetros 𝒓 y 𝒑.

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 4


𝒙−𝟏 𝒓 𝒙 𝒓
𝒑 𝒒 ; 𝒙 = 𝒓, 𝒓 + 𝟏, .
𝒇𝑿 (𝒙) = 𝒓−𝟏
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

Se denota por 𝑿~𝑷𝒂𝒔𝒄𝒂𝒍(𝒓, 𝒑).

Teorema: Sea 𝑿 una variable aleatoria con distribución de Pascal con parámetros 𝒓 y 𝒑,
entonces
𝒓
𝝁𝑿 = 𝑬[𝑿] =
𝒑

𝒓(𝟏 − 𝒑)
𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] =
𝒑𝟐

DISTRIBUCIÓN DE POISSON

Definición: Sea 𝑿 una variable aleatoria con distribución de Poisson, con parámetro 𝝀,
entonces

𝝀𝒙 𝒆 𝝀
𝒇𝑿 (𝒙) = ; 𝒙 = 𝟎, 𝟏, …
𝒙!
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐
Se denota 𝑿~𝑷𝒐𝒊𝒔𝒔𝒐𝒏(𝝀).

Teorema: Sea 𝑿 una variable aleatoria con distribución de Poisson y parámetro 𝝀, entonces

𝝁𝑿 = 𝑬[𝑿] = 𝝀

𝝈𝟐𝑿 = 𝑽𝒂𝒓[𝑿] = 𝝀

CONTINUAS:

DISTRIBUCIÓN CONTINUA UNIFORME

Definición: Sea 𝑿 una variable aleatoria que se distribuye

𝟏
𝒇𝑿 (𝒙) = ;𝒂 ≤ 𝒙 ≤ 𝒃
𝒃−𝒂
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

Entonces 𝑿 tiene una distribución continua uniforme con parámetros 𝒂 y 𝒃. Se denota


𝑿~𝑼𝒏𝒊𝒇𝒐𝒓𝒎𝒆(𝒂, 𝒃).

Teorema: Si 𝑿 es una variable aleatoria con distribución continua uniforme, entonces

𝒂+𝒃
𝝁𝑿 =
𝟐

(𝒃 − 𝒂)𝟐
𝝈𝟐𝑿 =
𝟏𝟐

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 5


DISTRIBUCIÓN EXPONENCIAL

Definición: Sea 𝑻 la variable aleatoria que representa el intervalo (generalmente tiempo), que
transcurre entre dos ocurrencias sucesivas de un evento, entonces 𝑻 tiene una distribución
exponencial con parámetro 𝝀 y función de densidad

𝒇𝑻 (𝒕) = 𝝀𝒆 𝝀𝒕 ; 𝒕 > 𝟎
𝟎 ; 𝒆𝒏 𝒐𝒕𝒓𝒐 𝒄𝒂𝒔𝒐

Se denota por 𝑻~𝒆𝒙𝒑𝒐𝒏𝒆𝒏𝒄𝒊𝒂𝒍(𝝀).

Teorema: Sea 𝑻 una variable aleatoria con distribución exponencial y parámetro 𝝀, entonces

𝟏
𝝁𝑻 = 𝑬[𝑻] =
𝝀

𝟏
𝝈𝟐𝑻 = 𝑽𝒂𝒓[𝑻] =
𝝀𝟐

DISTRIBUCIÓN NORMAL

Definición: Sea 𝑿 una variable aleatoria continua. Se dice que 𝑿 tiene una distribución normal,
con parámetros media 𝝁 y varianza 𝝈𝟐 en todos los reales cuando su función de densidad es:

𝟏 (𝒙 𝝁)𝟐
𝒇(𝒙) = 𝒆 𝟐𝝈𝟐 ; −∞ < 𝒙 < ∞
𝝈√𝟐𝝅

Se denota 𝐗~𝑵𝒐𝒓𝒎𝒂𝒍(𝝁,𝝈𝟐 ) o 𝐗~𝑵(𝝁,𝝈𝟐 ).

Teorema: Si 𝑿 es una variable aleatoria continua distribuida de manera normal en (−∞, ∞) y


𝒇(𝒙) es una función de densidad de probabilidad, entonces:

𝑬(𝑿) = 𝝁

𝑽(𝑿) = 𝝈𝟐

Teorema: Aditividad de la Distribución Normal. Si 𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 son variables aleatorias


independientes, y todos con distribución normal con media 𝝁𝒊 y varianza 𝝈𝟐𝒊 , entonces la
variable aleatoria 𝒀 definida como
𝒏

𝒀 = 𝑿𝟏 + 𝑿𝟐 + ⋯ + 𝑿𝒏 = 𝑿𝒊
𝒊 𝟏

Tiene distribución normal con media ∑𝒏𝒊 𝟏 𝝁𝒊 y varianza ∑𝒏𝒊 𝟏 𝝈𝟐𝒊 .

Distribución Normal Estándar:

De los cursos de cálculo sabemos que la integral de la función

𝟏 (𝒙 𝝁)𝟐
𝒇(𝒙) = 𝒆 𝟐𝝈𝟐
𝝈√𝟐𝝅
Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 6
no se puede resolver con funciones elementales, sino por métodos numéricos (algoritmos).
Para resolver este problema se usa la estandarización de la variable normal, que es cambiar la
variable aleatoria
𝑿−𝝁
𝒁=
𝝈

Que se conoce como la estandarización de la variable 𝑿~𝑵 𝝁, 𝝈𝟐 a unidades en 𝒁. Además

𝒁~𝑵(𝟎, 𝟏)

DISTRIBUCIÓN JI CUADRADA

Definición: Sean 𝒁𝟏 , 𝒁𝟐 , … , 𝒁𝝂 ; 𝝂 variables aleatorias independientes con distribución normal


estándar, entonces:
𝚾 𝟐 = 𝒁𝟐𝟏 + 𝒁𝟐𝟐 + ⋯ + 𝒁𝟐𝝂

La función de densidad de una variable aleatoria continua con distribución 𝒋𝒊 𝒄𝒖𝒂𝒅𝒓𝒂𝒅𝒂 y


parámetro 𝝂 es:
𝟏 𝝂 𝒙
⎧ 𝝂 𝒙𝟐 𝟏 𝒆 𝟐
⎪𝟐𝟐 𝜞 𝝂 𝒙≥𝟎
𝒇(𝒙; 𝝂) = 𝟐


⎩ 𝟎 𝒙<𝟎

A 𝝂 se le conoce como los 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 (𝑔. 𝑙. ) , y está relacionada con el tamaño de la
muestra. Se denota por 𝝌𝟐 (ji cuadrada).

Teorema: Si 𝚾 𝟐 es una variable aleatoria que tiene una distribución Ji cuadrada con 𝝂 grados de
libertad, 𝚾 𝟐 ~ 𝝌𝟐𝝂 , entonces
𝑬 𝚾𝟐 = 𝝂

𝑽𝒂𝒓 𝚾 𝟐 = 𝟐𝝂

Función de densidad de la distribución 𝝌𝟐 con 3,6,9 y 12 grados de libertad (G. 𝑙.)

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 7


DISTRIBUCIÓN T DE STUDENT

Definición: Sean 𝒁 y 𝑿𝟐 dos variables aleatorias independientes con distribución normal


estándar y Ji cuadrada respectivamente, es decir: 𝒁~𝑵(𝟎, 𝟏) y 𝚾 𝟐 ~𝝌𝟐𝝂 , entonces la variable
aleatoria 𝑻 definida como
𝒁
𝑻=
𝚾𝟐
𝝂

Tiene una distribución t de Student con 𝝂 grados de libertad y está definida por

𝝂+𝟏 𝝂 𝟏
𝜞 𝟐 𝒕𝟐 𝟐
𝒇𝑻 (𝒕) = 𝝂 𝟏 + ; −∞ < 𝒕 < ∞ ; 𝝂 > 𝟎
𝜞 𝟐 √𝝅𝝂 𝝂

donde 𝝂 son los 𝒈. 𝒍. y están relacionados con el tamaño de la muestra.

La distribución t-Student, al igual que la distribución normal es simétrica y tiene forma de


campana.

Teorema: Si 𝑻 es una variable aleatoria que tiene distribución t de Student con 𝝂 grados de
libertad, entonces
𝑬[𝑻] = 𝟎

𝝂
𝑽𝒂𝒓[𝑻] = ; 𝝂>𝟐
𝝂−𝟐

La función de densidad de los modelos t-Student, para 1, 2, 5 y 30 g. 𝑙.

DISTRIBUCIÓN F

Definición: Si 𝑿 y 𝒀 son dos variables aleatorias independientes con distribución Ji cuadrada


con parámetros 𝝂𝟏 y 𝝂𝟐 , es decir

𝑿~𝝌𝟐𝝂𝟏 ; 𝒀~𝝌𝟐𝝂𝟐

Entonces la variable aleatoria 𝑭 definida como


𝑿
𝝂𝟏
𝑭=
𝒀
𝝂𝟐

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 8


Tiene una distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 y 𝝂𝟐 grados de libertad del numerador y
denominador, respectivamente y función de densidad dada por
𝝂𝟏
𝝂𝟏 + 𝝂𝟐 𝝂𝟏 𝟐 𝝂𝟏 𝝂𝟐
𝜞 𝟐 𝝂𝟐 𝝂𝟏 𝝂𝟏 𝟐
𝒇(𝒙) = 𝝂𝟏 𝝂𝟐 ∙ 𝑿𝟐 𝟏 𝟏+ 𝑿 ,𝑿 > 𝟎
𝜞 𝟐 𝜞 𝝂𝟐
𝟐

Los parámetros 𝝂𝟏 y 𝝂𝟐 son los 𝒈. 𝒍. de la distribución 𝑭 del numerador y denominador,


respectivamente. Se denota
𝑭~𝑭𝝂𝟏,𝝂𝟐

Se emplea en la razón entre varianzas.

Teorema: Si 𝑭 es una variable aleatoria con distribución 𝑭 de Fisher-Snedecor con 𝝂𝟏 grados


de libertad en el numerador y 𝝂𝟐 grados de libertad en el denominador, entonces

𝝂𝟐
𝑬[𝑭] = ; 𝝂𝟐 > 𝟐
𝝂𝟐 − 𝟐

𝟐𝝂𝟐𝟐 (𝝂𝟏 + 𝝂𝟐 − 𝟐)
𝑽𝒂𝒓[𝑭] = ; 𝝂𝟐 > 𝟒
𝝂𝟏 (𝝂𝟐 − 𝟐)𝟐 (𝝂𝟐 − 𝟒)
La gráfica es:

Fuente: Apuntes de ALBS/NMG. Fundamentos de Estadística. M.C. Amanda Pineda Norman 9

También podría gustarte