Está en la página 1de 7

El siguiente material se encuentra en etapa de corrección y no deberá

ser considerado una versión final.


Para hacer comentarios y sugerencias, o reportar errores, enviar mail
a Alejandro D. Zylberberg <alejandro@probabilidad.com.ar>
Versión Actualizada al: 11 de junio de 2004

APÉNDICE E
Resumen de fórmulas de probabilidad
A continuación se presenta un resumen de las fórmulas que aparecen en los
capítulos dedicados a probabilidad (capítulos 1 a 7). El mismo no incluye las
fórmulas usadas en estadística (capítulos 8 a 11) ni las que aparecen en los demás
apéndices.

Fórmulas básicas de probabilidad (Capítulo 1)

Definición de Laplace (Sección 1.2)


cantidad de resultados conenidos en A
P ( A) =
cantidad total de resultados

Definición empírica (Sección 1.2)


fr ( A )
P ( A ) ≈ fr rel ( A ) = abs
n

Axiomas y consecuencias (Sección 1.2)


• P(A) ≥ 0
• P(E) = 1
• A ∩ B = ∅ <=> P(A ∪ B) = P(A) + P(B)
• P(A) ≤ 1
• P(A) + P( A ) = 1
• P( ∅ ) = 0
• A ⊂ B => P(A) ≤ P(B)

Suma de probabilidades (Sección 1.2)


• P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
• P(A ∪ B ∪ C) = P(A) + P(B) + P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩
B ∩ C)
Probabilidad condicional (Sección 1.3)
P ( A ∩ B ) P ( B / A) P ( A)
P( A / B) = =
P( B) P( B)

( A )P (C A ∩ B )
Multiplicación de probabilidades (Sección 1.3)
P (A ∩ B ∩ C ) = P (A ) P B

 i −1 

n n
P (I A i ) = P  A i I A j 
i =1 i =1  j=1 

Independencia de sucesos (Sección 1.4)


• A, B indep. <=> P(A/B) = P(A) <=> P(B/A) = P(B) <=> P(A ∩ B) = P(A) . P(B)
• A, B indep. <=> A, B C indep. <=> A C, B indep. <=> A C, B C indep.

Probabilidad total (Sección 1.5)


P ( A ) = ∑ P ( A ∩ p i ) = ∑ P ( A / p i ). P ( p i )
n n

• i =1 i =1

Regla de Bayes (Sección 1.6)


P ( A / pi ) P ( pi )
P ( pi / A) = n
∑ P ( A / pi ) P ( pi )
• i =1

Variables aleatorias unidimensionales (Capítulo 2)


Funciones de densidad y distribución y probabilidades (Sección 2.3)
∑P
x0
P( X ≤ x0 ) = FX ( x0 ) = X
( x)
• x = −∞
(X discreta)
x0
P( X ≤ x0 ) = P( X < x0 ) = FX ( x0 ) = ∫f X
( x) dx
• −∞
(X continua)
d
f X ( x) = F ( x)
• dx X

Cambio de variables continuo (Sección 2.4)


fX ( x )
fY ( y ) =
dy
dx
Esperanza (Sección 2.5)
+∞
E( X ) = ∫ x f X (x) dx
• −∞

+∞
E(ϕ(x)) = ∫ ϕ(x) f X (x) dx
• −∞

• Para X discreta, reemplazar integrales por sumatorias y f X por P X.


E ( aX + b ) = E ( aX ) + E (b ) = aE ( X ) + b con a , b ∈ ℜ

Varianza (Sección 2.6)



Var ( X ) = σ X = E(( X − E( X )) ) = ∫ ( x − µ X ) 2 f X ( x) dx
2 2

−∞

σ X 2 = E( X 2 ) − E( X ) 2

σ 2 ( aX + b ) = a 2 σ 2
con a , b ∈ ℜ
• X

Mezcla (Sección 2.9)


• fXMEZCLA = P(A 1) f X1(x) + P(A 2) f X2(x) + ... + P(A n) f Xn(x)

Variables aleatorias bidimensionales y n-dimensionales (Capítulo 3)


Marginación (Sección 3.3)
+∞
PX (x) = ∑P XY
(x, y)
• y = −∞
para variables discretas
+∞
f X ( x) = ∫f XY
( x, y) dy
• −∞
para variables continuas

Distribución condicional (Sección 3.4)


PXY ( x, y)
PX / Y ( x, y) =
PY ( y)
• para variables discretas
f XY (x, y)
f X / Y (x, y) =
fY ( y)
• para variables continuas

Independencia de variables aleatorias (Sección 3.5)


• X e Y indep. <=> f X/Y (x,y) = f X(x) <=> f Y/X (x,y) = f Y(y) <=> f XY(x,y) = f X(x) . f Y(y)
• Para variables discretas es análogo

Esperanza condicional (Sección 3.6)



E( X / Y ) = µX / Y = ∫ x f X / Y (x, y) dx
−∞

• Para variables discretas es análogo

Cambio de variables (Sección 3.7 , 3.8)


fXY ( x , y )
fU V (u , v ) =
∂ (u , v )
∂ ( x, y)

+∞ +∞
E (ϕ ( x, y)) = ∫ ∫ ϕ ( x, y) f XY
( x, y) dy dx
• −∞−∞

• E(X + Y) = E(X) + E(Y)


 n  n
E  ∑ ai X i  = ∑ ai E ( X i )
 i =1  i =1

σ aX
2
+ bY
= a 2σ X2 + b 2σ Y2 + 2abσ XY


+∞ +∞
cov( X , Y ) = σ XY
= ∫ ∫ (x − µ X
)( y − µ Y ) f XY ( x , y ) dy dx = E ( XY ) − µ X µ Y
−∞ −∞

σ XY
ρ=
σ X σY

Máximos y mínimos (Sección 3.9)

Hipótesis sobre las


Y = max{X 1, X 2, ..., X n} Y = min{X 1, X 2, ..., X n}
variables aleatorias X i:
Las X i son independientes f Y ( y ) = n [FX ( y )]n−1 f X ( y ) f Y ( y ) = n [1 − FX ( y )]n
−1
f X ( y)
FY ( y ) = [FX ( y )]n FY ( y ) = 1 − [1 − FX ( y )]n
e idénticamente distribuidas

∏[F ( y)]= FY ( y) = 1 − ∏ [1 − FXi ( y)]=


Las X i son independientes, n n
=
y cada una tiene su propia FY ( y) Xi
i =1 i =1
= [FX ( y)]...[FX ( y)] = 1 − [1 − FX 1 ( y)]...[1 − FXn ( y)]
distribución
Las X i no son FY ( y) = FY ( y) = 1 −
independientes ∞∞ ∞

∫∫ ...∫ f
y y y

∫ ∫ ... ∫ f X1 X 2 ... X n
dxn ... dx2 dx1 X1X 2 ... X n
dxn ... dx2 dx1
−∞−∞ −∞ y y y

Distribuciones particulares (Capítulos 4 - 7)


Nombre Cap. Función de probabilidad / densidad Esperanza Varianza
Beta 7  Γ(a + b) a−1 a ab
 x (1− x)
b−1
0 < x <1 (a +b)2 (a +b+1)
f X (x) = Γ(a)Γ(b) a+b
 0 ∀ otro x
(***)
Binomial 4  n  x n.p n.p.(1-p)
 . p .(1 − p) n − x 0≤ x≤n
PX ( x) =  x 
 ∀ otro x
 0
Chi-cuadrada 7 (*) ν 2ν
Exponencial 5 λ e − λx
x>0 1/ λ 1 / λ2
f X ( x) = 
negativa  0 x≤0
F 7 (*) (*) (*)
Gamma (**) 5  λ (λx) k −1 e − λx k/ λ k / λ2
 x>0
f X ( x) =  Γ( k )
 0 x≤0
(***)
Geométrica 4  p.(1 − p) x −1
x ≥1 1/p 1 / p2
PX ( x) = 
 0 ∀ otro x
Hipergeométrica 7 k   N − k  -- --
  ⋅  
 x  n − x 
PX ( x ) =
N
 
n

P ( X = x ) = n! ∏
Multinomial 7 k
p i xi -- --

i =1 xi!
Normal 6 −
1  x− µ 2
  µ σ2
2 σ 
(ver aparte) e
f X (x) = ∀x ∈ ℜ
2π σ
Pascal 4  x − 1 k k/p k / p2
 . p .(1 − p ) x − k x≥k
=
PX ( x)  k − 1
 ∀ otro x
 0
Poisson 5  e− µ µ x µ µ
 x≥0
PX ( x) =  x!
 0 x<0
t-Student 7 (*) 0 ν
ν −2
Uniforme 7  1 a+b (b − a) 2
a≤ x≤b
f X ( x) =  b − a 2
 0 ∀ otro x 12

(*) No resulta de utilidad

(**) Para calcular probabilidades de la gamma se puede usar:


k −1
∫ fX ( x) dx = 1 − ∑ P (Y = i )
xo


0
i =0

k −1

+∞
fX ( x) dx = ∑ P(Y = i)

xo
i =0

donde X:Gamma( λ ,k) e Y:Poisson( µ ) con µ = λ . x 0

Γ(k ) = ∫ x k −1 e − x dx
+∞

0
(***)
Para k natural, vale Γ(k) = (k-1)!

Distribución normal (Sección 6.1)


X −µ
Z=
• Estandarización: X:N( µ ;σ) ∧ σ
=> Z:N(0,1)
x−µ  x−µ 
P ( X ≤ x ) = F X ( x ) = FZ   = Φ 
 σ   σ 
• Valores tabulados:
• Fractiles tabulados: Dada Z:N(0;1), z α = z tal que Φ (z) = P(Z ≤ z) = α
• Función lineal: X:N( µ x ; σx) ∧ Y = aX+b => Y:N(a µ x + b ; σx |a|)
∑α
n
Z = i Xi
• Combinación lineal: X i:N(µ i;σi) independientes ∧ i =1
=>
 
∑α ∑α
n n
Z : N  µ z = i µi ; σz = i
2 σi 2 

 i =1 i =1 

Teorema central del límite (Sección 6.2)


X −µ
Z=
σ
• n
tiene una distribución aproximadamente normal estándar
Y = ∑ Xi
n

i =1 N (nµ ; n σ)
• tiene una distribución aproximadamente

Este material se encuentra en etapa de corrección y no deberá ser


considerado una versión final.
Para hacer comentarios y sugerencias, o reportar errores, enviar mail
a Alejandro D. Zylberberg <alejandro@probabilidad.com.ar>
Versión Actualizada al: 6 de junio de 2004

También podría gustarte