Está en la página 1de 19

ESPACIOS DE PROBABILIDAD

Un experimento aleatorio es cuando se desconoce el resultado del mismo, en


general en los experimentos aleatorios existen una falta de información, la cual hace
que se desconozca el resultado del experimento, dentro de los experimentos
aleatorios se desconoce todos los posibles resultados y este se define como espacio
maestral

Espacio muestral = {Todos los casos posibles del experimento son representado
por Ω}

Eventos = {Casos favorable del experimento}

σ-Algebra

Sea Ω (omega) un conjunto no vacío entonces F es una σ-algebra (sigma-algebra)


sobre Ω, si cumple que:

1.- Ω ∈ F

2.-Si B ∈ F, entonces ∈F

3.-Si B1, B2, B3, ……. ∈ F, entonces F

F es una colección de subconjuntos de Ω, B es visto como un evento.

Conjunto Potencia

Sea , entonces el conjunto 2^ (Ω) es una σ-algebra sobre Ω.

σ-algebra de Borel

Sea la σ-algebra definida sobre (números reales) es una colección de todos los
intervalos de la forma (- ∞, a] con a ∈ y se llama σ-algebra de Borel ( )

Ω= ; (- ∞, a] ∈

1.- ∈

2.- B∈ entonces ∈

3.- B1, B2, B3, …… entonces


ESPACIOS MEDIBLES

Sea , y F una σ-algebra definida sobre Ω , entonces la dupla ( Ω,F) se llama


espacio medible

 Si y Ω ∈ σ-algebra entonces:

: Evento inseguro

Ω : Evento seguro

 Si B, C ∈ σ-algebra y B C= son eventos B y C son eventos ajenos o


mutuamente excluyentes
 Si w ∈ Ω, entonces {w} es un evento elemental {w} ∈ σ-algebra

MEDIDA DE PROBABILIDAD

El objetivo es asignar a cada elemento B un número real no negativo que indique


el” chance” que tiene B de ocurrir, suponiendo que se realice un experimento
aleatorio n-veces y que las condiciones entre que este se ejecute se mantiene
constantes.

Frecuencia Relativa

Se define Fr(B)=n(B)/dónde n(B) indica cuantas veces ocurre B y n es el número de


experimentos

La estabilidad de la frecuencia relativa en lo que se conoce como regularidad


estadística y es lo que permite al estadístico, hace predicciones que eliminan,
aunque sea parcialmente, la incertidumbre presenta en el fenómeno imprescindibles

1. n(B) = o entonces Fr(B)=0 P(B)=0


2. n(Ω)= n entonces Fr(Ω)=1 p(Ω)=1
3. Si B C= entonces n(B+C) =n(B) +n(C)
Fr(B+C) =Fr(B)+Fr(C) entonces P (B U C) =P(B) +P(C)
ESPACIO DE PROBABILIDAD

Sea (Ω, ∓ ) un espacio medible y sea P una función de F a los ,entonces si P


cumple que :

1. 𝑃(𝐵) ≥ 0

2. 𝑃(Ω) = 1

3.𝑆𝑖 𝐵1, 𝐵2, 𝐵3 ∈ ∓ 𝑦 𝐵𝑖 ∩ 𝐵𝑗 𝑐𝑜𝑛 𝑖 ≠ 𝑗


∞ ∞

𝑃 (⋃ 𝐵𝑖 ) = ∑ 𝑃(𝐵𝑖)
𝑖=1 𝑖=1

P es una medida de probabilidad


∴ 𝑙𝑎 𝑡𝑟𝑖𝑝𝑙𝑒 (Ω, ∓, P) 𝑠𝑒 𝑙𝑙𝑎𝑚𝑎 𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑

Eventos Nulos

Sea ( Ω, ∓, 𝑃) es un espacio de probabilidad ,si 𝐵 ∈ ∓𝑦 𝑃(𝐵) = 0 entonces B es un


evento nulo

ESPACIOS DE PROBABILIDAD COMPLETOS

Si ( Ω, ∓, 𝑃) tiene eventos nulos y todos los subconjuntos de estos eventos nulos


también son nulos, entonces ( Ω, ∓, 𝑃) se dice completos

Medidas de probabilidad

𝑃: ∓→ ℝ

Propiedades de una medida de probabilidad

1. 𝑃(∅) = 0
2. 𝑃(Ω) = 1
3. 𝑺𝑖 𝐵 ∩ 𝐶 = ∅ 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶)
4. 𝑆𝑖 𝐵 ⊆ 𝐶 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵) ⊆ 𝑃(𝐶) 𝑦 𝑃(𝐶 − 𝐵) = 𝑃(𝐶) − 𝑃(𝐵)
5. 𝑃(𝐵 𝐶 ) = 1 − 𝑃(𝐵)
6. 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴 ∩ 𝐵)
7. 𝑃(𝐵 ∪ 𝐵 𝐶 ) = 𝑃(𝐵) + 𝑃(𝐵𝐶 ) = 𝑃(Ω) = 1
8. Sea(𝐵𝑛)𝑛 𝑢𝑛𝑎 𝑠𝑢𝑐𝑒𝑠𝑖𝑜𝑛 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝐵𝑛 ∈
∓, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 𝑦 𝐵𝑛 ⊆ 𝑩𝒏 + 𝟏,

𝑙𝑖𝑚 𝑙𝑖𝑚 𝑙𝑖𝑚
𝑝𝑎𝑟𝑎 𝑛 = 1,2,3, . 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃( 𝑛→∞ 𝐵𝑛) = 𝑛→∞𝑃(𝐵𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛→∞𝐵𝑛 = ⋃ 𝐵𝑛
𝑛=1

9. Sea (𝑩𝒏)𝒏 𝑢𝑛𝑎 𝑠𝑢𝑐𝑒𝑠𝑖𝑜𝑛 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑑𝑒𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝑩𝒏 ∓, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜

𝒏 𝒚 𝑩𝒏 ⊇ 𝑩𝒏 + 𝟏, 𝑝𝑎𝑟𝑎 𝑛 = 1,2, . . 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:



𝑙𝑖𝑚 𝑙𝑖𝑚 𝑙𝑖𝑚
𝑃( 𝑛→∞ 𝐵𝑛) = 𝑛→∞𝑃(𝐵𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛→∞𝐵𝑛 = ⋂ 𝐵𝑛
𝑛=1

10. 𝑃(𝐵 ∪ 𝐶 ∪ 𝐷) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐷) − 𝑃(𝐵 ∩ 𝐶) − 𝑃(𝐵 ∩ 𝐷) + 𝑃(𝐴 ∩


𝐵 ∩ 𝐶)

VECTOR DE PROBABILIDAD

Sea y Ω un conjunto finito o numerable y ∓= 𝑃(Ω) una 𝜎 − 𝑎𝑙𝑔𝑒𝑏𝑟𝑎 completa


y ∅ , 𝐴 ∈ ∓ ,entonces:

𝐴= ⋃𝑤
𝑤∈𝐴

𝑃(𝐴) = 𝑃(⋃ 𝑤)
𝑥∈𝐴

𝑃(𝐴) = ⋃ 𝑃(𝑤)
𝑥∈𝐴

Si Pj=P(wj), entonces la aplicación P que cumple:

1. 𝑃𝑗 ≥ 0
2. ∑∞
𝑗=1 𝑃𝑗 = 1

3. 𝑃(Ω) = 1

Es una medida e probabilidad y el vector P=(P1,P2,…) con cardinales(Ω) es vector


de probabilidad discreta

ESPACIO DE PROBABILIDAD DE LAPLACE

Sea un espacio de probabilidad, ( Ω, ∓, 𝑃) donde Ω ≠ ∅ y finito o numerables ∓=


1
𝑃(Ω) y 𝑃(𝑤) = |Ω| entonces P es una medida de uniforme o clásica.

∑𝑤𝜖𝐵 1
𝑃(𝐵) = 𝑃(⋃ 𝑤 = = ∑ 𝑃(𝑤)
|Ω|
𝑤𝜖𝐵 𝑤𝜖𝐵

1 |𝐵|
∑ = 𝑃(𝐵) =
|Ω| |Ω|
𝑤𝜖𝐵

ANÁLISIS COMBINATORIO

Sea una muestra de tamaño de un conjunto de cardinalidad n, entonces a modo de


resumen tenemos que:

Muestra Con Remplazo Sin Remplazo

Con Orden 𝑛𝑘 𝑛!
𝑛𝑃𝑘 =
(𝑛 − 𝑘)!

Sin Orden 𝑛−𝑘+1 𝑛!


( ) 𝑛𝐶𝑘 =
𝑘 𝑛! (𝑛 − 𝑘)!
PROBABILIDAD COORDINADA E INDEPENDIENTE DE EVENTOS

Pretende calcular probabilidades de algún evento, sea un espacio de probabilidad


( Ω, ∓, 𝑃)

Con 𝐵 ∈ ∓ 𝑦 𝑃(𝐵) > 0 ,entonces la probabilidad coordinada se define como:

(𝐵 ∩ 𝐶)
𝐵 𝑃(𝐵 ∩ 𝐶) (Ω) |𝐵 ∩ 𝐶|
𝑃( ) = = =
𝐶 𝑃(𝐵) (𝐵) |𝐵|
(Ω)

con Pr(B)>0

MEDIDA DE PROBABILIDAD CONDICIONAL

Eventos dependientes:

Es aquel el cual su misma palabra lo dice, su resultado se ve afectado por el


resultado de otro(s) evento(s). Cuando tenemos este caso, empleamos entonces,
el concepto de probabilidad condicional para denominar la probabilidad del evento
relacionado.

Eventos independientes:

Si el conocimiento de que el evento B ocurre no cambia la probabilidad de que el


evento A ocurra, se dice que A y B son eventos independientes.

TEOREMA DE BAYES

Si se conoce Pr(A|Bi ) para cada i, el teorema de Bayes proporciona una fórmula


útil para calcular las probabilidades condicionales de los Bi eventos dado A .

Sea Bi,...,Bk los eventos que forman una partición del espacio S tal que Pr(Bi )>0
para j=1,2,...,k y sea A un evento tal que Pr(A) >0. Entonces para i=1,...,k

𝐏𝐫(𝑩𝒊) 𝐏𝐫(𝑨\𝑩𝒊)
𝐏𝐫(𝑩𝒊\𝑨) =
∑𝒌𝒋=𝟏 𝐏𝐫(𝑩𝒋) 𝐏𝐫(𝑨\𝑩𝒋)
DISTRIBUCIÓN A-PRIORI Y A- POSTERIORI

Sea una partición A1,A2,A3,………,An de Ω y P(An)>0, 𝐵 ∈ ∓ 𝑦 𝑃(𝐵) > 0,entonces


(P(An))n se llama distribución a-priori y (P(An/B))n se llama distribución a-posteori

P(A1)P(A2),P(A3)……..(P(An))n

P(A1/B)P((A2/B),…..,P(An/B)n

Independencia de eventos

Los eventos son independientes si solo si se cumple que 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵)

Nota. - 𝑃(𝐴/𝐵) = 𝑃(𝐴), 𝑃(𝐵/𝐴) = 𝑃(𝐵)

LEY DE LA PROBABILIDAD TOTAL

Suponga que los eventos forman una partición de S y para j=1,2,...k. Entonces para
cada evento A en S:

Pr(𝐴) = ∑ Pr(𝐴\𝐵𝑗) Pr(𝐵𝑗)


𝑗=1

MEDIDA DE PROBABILIDAD INDUCIDO

Para cualquier intervalo de la forma (−∞, 𝑥],se puede obtener su imagen inversa
bajo x, es decir : 𝑥 −1 (−∞, 𝑥] = {𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥}, como este conjunto pertenece a f
por la definición de variables aleatorias, se puede aplicar la medida de probabilidad
P, pues esta tiene como dominio f, así mediante la función x puede trasladarse la
medida de probabilidad P, a intervalos de la forma (−∞, 𝑥] y puede demostrarse que
ello es suficiente para extenderla a la totalidad de la 𝝈 − 𝑨𝒍𝒈𝒆𝒃𝒓𝒂 𝒅𝒆 𝑩𝒐𝒓𝒆𝒍 𝒅𝒆 ℝ.

Variable aleatoria

(−∞, 𝑎], 𝑎 ∈ ℝ

𝜷(ℝ)

{(ℝ, 𝜷(ℝ)}
((𝛀, ∓)

Sea (Ω, ∓, 𝑃) un espacio de probabilidad entonces una variable aleatoria es una


transformación del espacio muestral a los números reales así:

𝑋: Ω → ℝ

También para un numero x fijo se tiene que:

{𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥} ∈ ∓

Gráficamente:

.w

x ℝ
Ω

Notación

Sea A ∈ 𝛽(ℝ), entonces: (x ∈ 𝐴): {𝑤 ∈ Ω ∶ 𝑥(𝑤) ∈ 𝐴}

A este conjunto se le llama la imagen inversa de A y solo denota también por 𝑥 −1 𝐴

Gráficamente:

Espacio de (Ω, ∓, 𝑃) X(ℝ, 𝛽(ℝ), 𝑃𝑥) Nuevo espacio

probabilidad de probabilidad

Nuestro interés como estadísticos es el estudio de los distintos cuentos de la forma


(x ∈ 𝐴) y sus probabilidades es donde x es una variable aleatoria y A es un conjunto
de Borel ℝ

(x ∈ 𝐴),-x es una V.A

-A ∈ 𝛽(ℝ)

Evento Px ( x ∈ 𝐴) = 𝑃(𝑥 ∈ 𝐴)
VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS

Considerando el conjunto de valores de una variable aleatoria puede tomar se tiene


la siguiente clasificación:

V.A.Discreta: Cuando el número de elementos es finito numerable , (ℕ)

V.A.Continua: Cuando pueden tomar todos los valores en un intervalo

FUNCIÓN DE PROBABILIDAD

Se puede definir una función de probabilidad para el caso de la variable aleatoria


discretas y continuas.

Sea una variable x con posibles valores 𝑥 = {𝑥0 , 𝑥𝑖 , … … … . } y con probabilidad


siguiente 𝑃0 = {𝑃(𝑥 = 𝑥0 ), 𝑃1 = 𝑃(𝑥 = 𝑥)

𝑋: Ω → ℝ

𝑥0 , 𝑥𝑖 , … … . ∈ ℝ

La función de probabilidad x se defiende como aquella función que toman estas


probabilidades como valores.

Definición: Sea x una V.A.Discreta con valores 𝑥0 , 𝑥𝑖 , … …., la función de


probabilidad f(x): ℝ → ℝ se define como:

𝑃(𝑋 = 𝑋) Ω: 𝑋 = 𝑥0 , 𝑥1 , … .
𝑓(𝑥) = {
0 𝐸𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Tabla

X 𝑿𝟎 𝑿𝟏 𝑿𝟐

f(x) f(𝑿𝟎 ) 𝒇(𝑿𝟏 ) 𝒇(𝑿𝟐 )

Sea un evento entonces


P(A)=∑𝑋𝜖𝐴 𝑃(𝑋) = ∑𝑋𝜖𝐴 𝑓(𝑋) A={𝑥0 , 𝑥1 , … … }

P(x=𝑥0 )=0

P(x=𝑥0 )=c ; c≠ 0

Propiedades

1. 𝑓(𝑥) ≥ 0
2. ∑ 𝑓(𝑥) = 1

Recíprocamente a toda función f(x) que sea 0, excepto en ciertos puntos


𝑥0 , 𝑥1 , … ..En donde la función toma valores positivos se les llama función de
probabilidad cuando se cumplen las 2 propiedades anteriormente y sin que haya de
por medio una variable aleatorio que la defina de esta manera e estudio del modelo
de probabilidad se traslada al estudio de funciones reales.

CASO CONTINUO

Sea x una V.A Continua entonces la función integrable y no negativa f(x): ℝ → ℝ es


llamada la función de densidad, si para cualquier intervalo [a,b] ∈ ℝ, se cumple que:

𝑏
𝑃(𝑋 ∈ [𝑎, 𝑏]) = ∫ 𝑓(𝑥)𝑑𝑥
𝑎

g también debe cumplir las siguientes propiedades

1. 𝑓(𝑥) ≥ 0

2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1

Gráficamente:

𝒇(𝒙)

𝑏
𝑃(𝑥 ∈ [𝑎, 𝑏]) = ∫𝑎 𝑓(𝑥)𝑑𝑥

a 𝑥0 b X
Es decir, la probabilidad de que la variable aleatoria continua tome con valor dentro
del intervalo [a,b] se puede calcular o expresar como el área bajo la curva de la f(x)
en dicho intervalo. De esta forma el cálculo de una probabilidad se reduce al cálculo
de una integral. Recíprocamente toda función f(x): ℝ → ℝ que se satisfagan las 2
propiedades anteriores, sin necesidad de tener variable aleatoria de promedio se
llamara función de densidad.

FUNCION DE DISTRIBUCION
𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥)
𝐹(𝑋) = 𝑃(𝑋 ∈ (−∞, 𝑥])

~Caso Discreto
𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥)

𝐹(𝑋) = ∑ 𝑓(𝑢)
𝑢≤𝑥

~Caso Continuo

𝐹(𝑋) = 𝑃(𝑋 = 𝑥)

𝑥
𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢
−∞

° Caso Continuo
Para obtener la función de densidad a partir de la función de distribución se lo realiza de la siguiente
manera:
𝑥
𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢 = 𝑃(𝑋 ≤ 𝑥)
−∞

𝑓(𝑥) = 𝐹 ′(𝑋)

° Caso Discreto
Para el caso discreto se obtiene la función de probabilidad de la siguiente manera:
𝑓(𝑥) = 𝐹(𝑋) − 𝐹(𝑋 −) ;
𝐹(𝑋 −) = lim 𝐹(𝑥 − ℎ) = 𝑃(𝑋 < 𝑥)
ℎ→0
𝐹(𝑋 +) = lim 𝐹(𝑥 + ℎ)
ℎ→0

Proposiciones
Toda función de distribución F(x) satisface las siguientes proposiciones y son 4:
a) lim 𝐹(𝑥) = 1
𝑥→∞

b) lim 𝐹(𝑥) = 0
𝑥→−∞

c) Si 𝑋1 , 𝑋2 ∈ ℝ 𝑦 𝑋1 ≤ 𝑋2 → 𝐹(𝑋1 ) ≤ 𝐹(𝑋2 )
d) 𝐹(𝑥) = 𝐹(𝑥+)

TEOREMA DEL CAMBIO DE VARIABLES

~Caso Discreto

Para 𝑦 ∈ 𝑌 con 𝑌 = 𝜑(𝑥), 𝑡𝑒𝑛𝑒𝑚𝑜𝑠 𝑞𝑢𝑒 𝑃(𝑌 = 𝑦) = 𝑃(𝑥 ∈ 𝜑−1 (𝑦))

𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥)
𝑥∈ 𝜑−1 (𝑦)

~Caso Continuo

−1 (𝑦))
𝑑 −1
𝑓𝑌 (𝑦) = {𝑓𝑋 (𝜑 | 𝜑 (𝑦)| 𝑝𝑎𝑟𝑎 𝑦 ∈ 𝑅𝑎𝑛𝑔(𝜑(𝑥))
𝑑𝑦
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

° Caso 1

Si 𝜑(𝑥) es creciente entonces 𝜑−1 es creciente y (𝜑−1 ) es positiva

𝑑 −1
𝑓𝑋 (𝜑−1 (𝑦)) | 𝜑 (𝑦)|
𝑑𝑦

° Caso 2

Si 𝜑(𝑥) es decreciente entonces 𝜑−1 es decreciente y (𝜑−1 )′ es negativa

𝑑 −1
−𝑓𝑋 (𝜑−1 (𝑦)) | 𝜑 (𝑦)|
𝑑𝑦
INDEPENDENCIA DE VARIABLES ALEATORIAS

𝐹𝑥,𝑦 (𝑥, 𝑦) = 𝐹𝑥 (𝑥) ∙ 𝐹𝑦 (𝑦)

𝑃(𝑋 ≤ 𝑥 𝑦 𝑌 ≤ 𝑦) = 𝑃(𝑋 ≤ 𝑥) ∙ 𝑃(𝑌 ≤ 𝑦)

𝑃(𝑋 ≤ 𝑥 , 𝑌 ≤ 𝑦) = 𝑃(𝑋 ≤ 𝑥) ∙ 𝑃(𝑌 ≤ 𝑦)

~Caso Discreto

𝑃(𝑋 = 𝑥 , 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥) ∙ 𝑃(𝑌 = 𝑦)

𝑃(𝑋 = 𝑥) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑦

𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥

~Caso Continuo

𝑓𝑥,𝑦 (𝑥, 𝑦) = 𝑓𝑥 (𝑥) ∙ 𝑓𝑦 (𝑦)


𝑓𝑥 (𝑥) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑥
−∞


𝑓𝑦 (𝑦) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑦
−∞

ESPERANZA

~Caso Discreto

𝐸[𝑥] = ∑ 𝑥 𝑓(𝑥)
𝑥

~Caso Continuo


𝐸[𝑥] = ∫ 𝑥 𝑓(𝑥) 𝑑𝑥
−∞
ESPERANZA DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA

𝑋; 𝜑(𝑥) = 𝑎𝑥 + 𝑏

𝜑(𝑥) = 𝑥 2

𝑦 = 𝜑(𝑥) = 𝑒 𝑥

𝐸[𝑌] = ∑ 𝑦 𝑓(𝑦)
𝑦


𝐸[𝑌] = ∫ 𝑦 𝑓(𝑦) 𝑑𝑦
−∞

~Teorema del estadístico inconsciente

° Caso Discreto

𝐸[𝜑(𝑥)] = ∑ 𝜑(𝑥)𝑓(𝑥) ; 𝜑(𝑥) = 𝑌


𝑥

° Caso Continuo


𝐸[𝜑(𝑥)] = ∫ 𝜑(𝑥) 𝑓𝑥 (𝑥) 𝑑𝑥
−∞

PROPIEDADES GENERALES DE LA ESPERANZA

Sean 𝑥, 𝑦 variables aleatorias y 𝑐 una constante:

1. 𝐸[𝑐] = 𝑐
2. 𝐸[𝑐𝑥] = 𝑐𝐸[𝑥]
3. 𝑠𝑖 𝑥 ≥ 0, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝐸[𝑥] ≥ 0
4. 𝐸[𝑋 + 𝑌] = 𝐸[𝑋] + 𝐸[𝑌]
5. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝐸[𝑋 𝑌] = 𝐸[𝑋] 𝐸[𝑌]
VARIANZA

~Caso Discreto

Sea una variable aleatoria discreta con función de probabilidad 𝑓(𝑥), su varianza es:

𝑉𝑎𝑟(𝑥) = ∑(𝑥 − 𝜇)2 𝑓(𝑥) ; 𝑑𝑜𝑛𝑑𝑒: 𝜇 = 𝐸[𝑥]


𝑥

~Caso Continuo

Sea una variable aleatoria continua con función de densidad 𝑓(𝑥), su varianza es:


𝑉𝑎𝑟(𝑥) = ∫ (𝑥 − 𝜇)2 𝑓(𝑥) 𝑑𝑥 ; 𝑑𝑜𝑛𝑑𝑒: 𝜇 = 𝐸[𝑥]
−∞

𝑠𝑖 𝜑(𝑥) = (𝑥 − 𝜇)2 ; 𝜇 = 𝐸[𝑥]

𝐸[𝜑(𝑥)] = 𝐸[(𝑥 − 𝜇)2 ] = 𝑉𝑎𝑟(𝑥)

° Propiedades

1. 𝑉𝑎𝑟(𝑥) ≥ 0
2. 𝑉𝑎𝑟(𝑐) = 0
3. 𝑉𝑎𝑟(𝑐𝑥) = 𝑐 2 𝑉𝑎𝑟(𝑥)
4. 𝑉𝑎𝑟(𝑥 + 𝑐) = 𝑉𝑎𝑟(𝑥)
5. 𝑉𝑎𝑟(𝑋 + 𝑌) ≠ 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)
6. 𝑉𝑎𝑟(𝑥) = 𝐸[𝑥 2 ] − 𝐸 2 [𝑥]
7. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS

~Distribución Uniforme Discreta

1
𝑓(𝑥) = 𝑃(𝑥 = 𝑖) = ; 𝑖 = 1,2,3, … , 𝑛
𝑛

1
𝐹(𝑥) = ∑ 1(−∞,𝑥]
𝑛
𝑥
𝑛+1
𝐸[𝑥] =
2

𝑛2 − 1
𝑉𝑎𝑟[𝑥] =
12

~Distribución Hipergeométrica

𝑥~𝐻(𝑁, 𝑛, 𝑟)

(𝑛𝑥)(𝑁−𝑛
𝑟−𝑥
)
𝑓(𝑥) = { ; 𝑐𝑢𝑎𝑛𝑑𝑜 𝑥 = 0,1,2, … , 𝑚𝑖𝑛{𝑛, 𝑟}
(𝑁𝑟)
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
𝑛
𝐸[𝑥] = 𝑟
𝑁

𝑛 𝑛 𝑁−𝑟
𝑉𝑎𝑟[𝑥] = 𝑟(1 − )( )
𝑁 𝑁 𝑁−1

~Distribución de Bernoulli

𝑥~𝐵𝑒𝑟(𝑝)

𝑥 1−𝑥
𝑓(𝑥) = {𝑝 𝑞 𝑠𝑖 𝑥 = 0 , 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝐸[𝑥] = 𝑝

𝑉𝑎𝑟[𝑥] = 𝑝 ∙ 𝑞

~Distribución Binomial

𝑥~𝐵𝑖𝑛(𝑛, 𝑝)

𝑛
( ) 𝑝 𝑥 𝑞𝑛−𝑥 𝑠𝑖 𝑥 = 0 , 1, 2, … 𝑛
𝑓(𝑥) = { 𝑥
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝐸[𝑥] = 𝑛 ∙ 𝑝

𝑉𝑎𝑟[𝑥] = 𝑛 ∙ 𝑝 ∙ 𝑞
~Distribución Geométrica

𝑥~𝐺(𝑝)

𝑥−1
𝑓(𝑥) = {𝑝𝑞 𝑠𝑖 𝑥 = 1,2, …
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

1
𝐸[𝑥] =
𝑝

𝑞
𝑉𝑎𝑟[𝑥] =
𝑝2

~Distribución Binomial Negativa

𝑥~𝐵𝑁(𝑟, 𝑝)

𝑥 − 1 𝑟 𝑥−𝑟
𝑓(𝑥) = {(𝑟 − 1 ) 𝑝 𝑞 𝑠𝑖 𝑥 = 𝑥: 𝑟, 𝑟 + 1, 𝑟 + 2, … , 𝑟 ≥ 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

1
𝐸[𝑥] = 𝑟
𝑝

𝑞
𝑉𝑎𝑟[𝑥] = 𝑟
𝑝2

~Distribución de Poisson

𝑥~𝑃(λ)

−λ
λ𝑥
𝑓(𝑥) = { 𝑒 𝑠𝑖 𝑥 = 0,1,2, …
𝑥!
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

𝐸[𝑥] = 𝑉𝑎𝑟[𝑥] = λ
DISTRIBUCIONES CONTINUAS

~ Distribución Uniforme Continua

𝑥~𝜇[𝑎, 𝑏]

1
𝑓(𝑥) = { 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
𝑏−𝑎
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
𝐹(𝑥) = { 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
𝑏−𝑎
1 𝑠𝑖 𝑥 > 𝑏

𝑏+𝑎
𝐸[𝑥] =
2

(𝑏 − 𝑎)2
𝑉𝑎𝑟[𝑥] =
12

~Distribución Exponencial

𝑥~𝜀(λ) ; λ > 0

λ𝑒 −λx 𝑠𝑖 𝑥 ≥ 0
𝑓(𝑥) = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑥 < 0)

0 𝑠𝑖 𝑥 < 0
𝐹(𝑥) = {
1 − 𝑒 −λx 𝑠𝑖 𝑥 ≥ 0

1
𝐸[𝑥] =
λ

1
𝑉𝑎𝑟[𝑥] =
λ2

° Relación entre la Distribución de Poisson y la Exponencial

𝑃(𝑇 ≤ 𝑡) = 1 − (𝑃(𝑇 > 𝑡)) = 1 − 𝑃(𝑥 = 0)

(λx)0
𝐹𝑇 (𝑡) = 1 − 𝑒 −λx
0!

𝐹𝑇 (𝑡) = 1 − 𝑒 −λx
~Distribución Normal

𝑥~𝑁(𝜇, 𝜎 2 )

1 1 𝑥−𝜇 2
𝑓(𝑥) = 𝑒 −2( 𝜎
)
; 𝑝𝑎𝑟𝑎 𝑥 ∈ (−∞, ∞)
√2𝜋 𝜎

𝐸[𝑥] = 𝜇

𝑉𝑎𝑟[𝑥] = 𝜎 2

~Teorema Central de Límite

Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias independientes, con distribuciones de media 𝜇 y varianza 𝜎 2


entonces se cumple que:

𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛

Con 𝐸(𝑌) = 𝑛𝜇 𝑦 𝑉𝑎𝑟(𝑌) = 𝑛𝜎 2

Si definimos una nueva variable aleatoria Z de la siguiente manera:

𝑌 − 𝐸(𝑌) 𝑌 − 𝑛𝜇
𝑧= =
√𝑉𝑎𝑟(𝑦) 𝜎√𝑛

𝑍 ≅ 𝑁(0,1) 𝑠𝑖 𝑛 → ∞

También podría gustarte