Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CO3121 W Formulario
CO3121 W Formulario
Leyes Distributivas:
( A U B) I C = ( A I C ) U ( B I C ) y ( A I B) U C = ( A U C ) I ( B U C ) (1.1)
Ley de Complementos:
( Ac ) c = A (1.2)
Leyes de Morgan:
( A U B) c = A c I B c y ( A I B) c = A c U B c (1.3)
Axiomas de probabilidad:
1) 0 ≤ P ( A) ≤ 1
2) P( S ) = 1
(2.1)
3) Si A1 , A2 , A3 L, es una secuencia de eventos mutuamente excluyentes de S , entonces :
P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L
P ( Ac ) = 1 − P ( A) (2.2)
P ( B I Ac ) = P ( B ) − P ( A I B ) (2.5)
1
Formas (o maneras) de obtener r elementos tomados de un total de n:
Sin restitución Con restitución
n!
Ordenados n Pr = nr
(n − r )!
(2.6)
No importa el n n n! n + r − 1 (n + r − 1)!
= = =
orden r n − r r!(n − r )! r r!(n − 1)!
Probabilidad Condicional:
P( A I B)
P( A | B) = (3.1)
P( B)
P ( A1 I A2 I L I An ) = P( A1 ) P ( A2 | A1 ) P ( A3 | A1 , A2 ) L P ( An | A1 , K , An−1 ) (3.2)
P ( A | Bi ) P ( Bi )
P ( Bi | A) = (3.4)
∑ j =1 P( A | B j ) P( B j )
k
2
Formulario 4: Distribución de una Variable Aleatoria Discreta
n
P ( X = k ) = p k (1 − p ) n − k , k = 0, 1, 2, …, n; 0≤p≤1 (4.5)
k
k − 1 r
P ( X = k ) = p (1 − p )k − r , k = r, r + 1, …; 0≤p≤1 (4.6)
r − 1
P ( X = k ) = p (1 − p ) k −1 , k = 1, 2, …; 0≤p≤1 (4.7)
r N − r
k n − k
P( X = k ) = , k = 0, 1, …, n; k≤r. (4.8)
N
n
e − λ λk
P( X = k ) = , k = 0, 1, 2, …; 0≤λ<∞ (4.9)
k!
3
Formulario 5: Distribución de Variables Aleatorias Continuas
d
f ( x) = F ( x) (5.1)
dx
1
f ( x) = , a ≤ x ≤ b. (5.4)
b−a
1
e− ( x − µ ) ( 2σ 2 )
2
f ( x) = , –∞ < x < ∞; –∞ < µ < ∞; σ>0 (5.6)
σ 2π
1 ∞
f ( x) = xα −1e − x / β , Γ(α ) = ∫ e − y yα −1dy , 0 < x < ∞; α, β > 0 (5.7)
Γ(α ) β α 0
Γ(α + β ) α −1
f ( x) = x (1 − x) β −1 , 0 < x < 1; α, β > 0 (5.8)
Γ(α ) ⋅ Γ( β )
4
Formulario 6: Distribuciones Multivariadas. Distribuciones Marginales y Condicionales. Independencia
f ( x, y ) = P ( X = x , Y = y ) (6.1)
Función de distribución (acumulada) conjunta de probabilidad del vector aleatorio discreto (X, Y):
F ( x, y ) = P ( X ≤ x, Y ≤ y ) = ∑∑ f ( s, t ) (6.2)
s≤ x t ≤ y
P[( X , Y ) ∈ A] = ∑ f ( x, y ) (6.3)
( x , y )∈ A
Función de distribución (acumulada) conjunta del vector aleatorio continuo (X, Y):
y x
F ( x , y ) = P ( X ≤ x, Y ≤ y ) = ∫ ∫ f ( s, t )dsdt (6.4)
−∞ −∞
Función de densidad de probabilidad conjunta de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn):
∂2 ∂n
f ( x, y ) = F ( x, y ) , f ( x1 , x2 ,K, xn ) = F ( x1 , x2 ,K, xn ) (6.5)
∂x∂y ∂x1∂x2 L ∂xn
Probabilidad de una región “A” en el plano xy, del vector aleatorio continuo (X, Y):
Funciones de Probabilidad Marginal de los vectores aleatorios discretos (X, Y) y (X1, X2, … ,Xn):
g x ( x ) = ∑ f ( x, y ) , g ( x1 , x2 , x3 ) = ∑L ∑ f ( x1 , x2 ,K xn ) (6.7)
y x4 xn
Densidades de Probabilidad Marginal de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn):
∞ ∞ ∞
g x ( x) = ∫ f ( x, y )dy , g ( x1 , xn ) = ∫ L ∫ f ( x1 , x2 ,K, xn )dx2 dx3 L dxn−1 (6.8)
−∞ −∞ −∞
5
Formulario 7: Valor Esperado. Media. Varianza. Covarianza. Correlación. Esperanza Condicional.
Función Generadora de Momentos.
∑ h( x ) f ( x ) = ∑ h ( x ) P ( X = x ) Si X es discreta
E [h( X )] = ∞x x (7.1)
∫− ∞ h( x) f ( x)dx Si X es continua
∑ xf ( x) = ∑ xP( X = x) Si X es discreta
E ( X ) = µ X = ∞x x (7.2)
∫− ∞ xf ( x)dx Si X es continua
{ } ( )
var( X ) = σ X2 = E ( X − E ( X ) ) = E X 2 − [E ( X )] = E X 2 − µ X2
2 2
( ) (7.3)
M X (t ) = E (etX ) (7.7)
dr
r
M X (t ) = M X( r ) (0) = E ( X r ) (7.8)
dt t =0
Valor Esperado de una función h(x, y) del vector aleatorio (X, Y):
∑∑ h( x, y ) f ( x, y ) Si ( X , Y ) es discreta
E [h( X , Y )] = x∞ y∞ (7.9)
∫ ∫ h( x, y ) f ( x, y )d xdy Si ( X , Y ) es continua
−∞ −∞
6
Covarianza del vector aleatorio (X, Y):
Algunos resultados útiles para la suma de variables aleatorias. Si a y b son constantes entonces:
E (aX + bY ) = aE ( X ) + bE (Y ) (7.12)
∑ h( x ) f ( x | y ) Si ( X , Y ) es discreta
E [h( X ) | y ] = ∞x (7.14)
∫− ∞ h( x) f ( x | y )dx Si ( X , Y ) es continua
∑ xf ( x | y ) Si ( X , Y ) es discreta
E ( X | y ) = µ X | y = ∞x (7.15)
∫− ∞ xf ( x | y )dx Si ( X , Y ) es continua
[ ]
var( X | y ) = σ X2 | y = E { X − E ( X | y )}2 | y = E ( X 2 | y ) − [E ( X | y )] = E ( X 2 | y ) − µ X2 | y
2
(7.16)
E ( X ) = E[E ( X | Y )] (7.17)
• E( X | Y ) = E( X ) y E (Y | X ) = E (Y ) (7.21)
7
Formulario 8: Funciones de Variables Aleatorias. Desigualdad de Chebyshev. Ley general de los
grandes números. Teorema del Límite Central. Aproximación Normal a la Binomial.
Densidad de probabilidad de una variable aleatoria Y = g(X) definida como función de otra variable
aleatoria continua X. Donde además, g −1 (Y ) = X es la “función inversa” de Y.
Método de transformación: f ( y ) = f ( x)
dx
dy
( )
= f g −1 ( y )
d −1
dy
g ( y) (8.2)
Desigualdad de Chebyshev:
σ2
P ( X − µ ≥ kσ ) ≤ ⇒ P( X − µ ≥ k ) ≤
1
(8.3)
k2 k2
1 n
X = ∑ Xi
n i =1
(8.4)
1 n 1 n 2
S2 = ∑ ( X i − X )2
= ∑ X i − nX 2 (8.5)
n − 1 i =1 n − 1 i =1
E (X ) = E ( X i ) = µ (8.6)
var( X i ) σ 2
var( X ) = = (8.7)
n n
( )
E S 2 = var( X i ) = σ 2 (8.8)
8
Teorema del Límite Central:
Sea X la media muestral de n variables aleatorias independientes, igualmente distribuidas, con
media E(Xi) = µ y con var(Xi) = σ² < ∞. Sea Z una variable aleatoria definida como:
n (X − µ )
Z= , 0 < σ² < ∞ , (8.10)
σ
z 1 − y2 / 2
lim F ( z ) = ∫ e dy , (8.11)
n →∞ −∞ 2π
lo cual significa que la variable Z tiende a distribuirse como N(0, 1) a medida que n tiende a ∞.
Nota: En la obtención de Z (8.10) podríamos reemplazar σ por S y el resultado (8.11) se mantiene,
siempre y cuando 0 < σ² < ∞. En la práctica, cuando n ≥ 30, S suele ser una buena aproximación de σ.
y 1 −z2 / 2
lim F ( y ) = ∫ e dz . (8.13)
n →∞ −∞ 2π
Esto significa que la variable Y se “aproxima” a una distribución N(0, 1) a medida que n tiende a ∞.