Está en la página 1de 9

UNIVERSIDAD SIMÓN BOLÍVAR

CO3121 PROBABILIDADES PARA INGENIEROS


FORMULARIO

Formulario 1: Teoría de Conjuntos

Leyes Distributivas:

( A U B) I C = ( A I C ) U ( B I C ) y ( A I B) U C = ( A U C ) I ( B U C ) (1.1)

Ley de Complementos:

( Ac ) c = A (1.2)

Leyes de Morgan:

( A U B) c = A c I B c y ( A I B) c = A c U B c (1.3)

Formulario 2: Propiedades de las Probabilidades y Métodos de Conteo

Axiomas de probabilidad:
1) 0 ≤ P ( A) ≤ 1
2) P( S ) = 1
(2.1)
3) Si A1 , A2 , A3 L, es una secuencia de eventos mutuamente excluyentes de S , entonces :
P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L

Probabilidad del complemento:

P ( Ac ) = 1 − P ( A) (2.2)

Probabilidad de la unión de dos eventos cualesquiera:


P ( A U B ) = P ( A) + P ( B ) − P ( A I B ) (2.3)

Probabilidad de la unión de tres eventos cualesquiera:


P ( A U B U C ) = P ( A) + P ( B ) + P (C ) − P ( A I B ) − P ( A I C ) − P ( B I C ) + P ( A I B I C ) (2.4)

Probabilidad de la intersección de un evento y un complemento cualesquiera:

P ( B I Ac ) = P ( B ) − P ( A I B ) (2.5)

1
Formas (o maneras) de obtener r elementos tomados de un total de n:
Sin restitución Con restitución
n!
Ordenados n Pr = nr
(n − r )!
(2.6)
No importa el n  n  n!  n + r − 1 (n + r − 1)!
  =   =   =
orden  r   n − r  r!(n − r )!  r  r!(n − 1)!

Resultados igualmente probables:


número de formas en que el evento A puede ocurrir
P ( A) = (2.7)
número total de formas posibles

Formulario 3: Probabilidad Condicional, Teorema de Bayes e independencia

Probabilidad Condicional:
P( A I B)
P( A | B) = (3.1)
P( B)

Teorema de multiplicación de probabilidad:

P ( A1 I A2 I L I An ) = P( A1 ) P ( A2 | A1 ) P ( A3 | A1 , A2 ) L P ( An | A1 , K , An−1 ) (3.2)

Probabilidad Total. Sea B1 , B2 , K , Bk una partición del espacio muestral S, entonces:


k
P( A) = ∑ P( A | B j ) P( B j ) (3.3)
j =1

Teorema de Bayes. Sea B1 , B2 , K , Bk una partición del espacio muestral S, entonces:

P ( A | Bi ) P ( Bi )
P ( Bi | A) = (3.4)
∑ j =1 P( A | B j ) P( B j )
k

Independencia. Dos eventos son independientes si y solo si:


P ( A I B ) = P ( A) P ( B ), lo cual es equivalente a : P ( A | B ) = P ( A) (3.5)

2
Formulario 4: Distribución de una Variable Aleatoria Discreta

La función de distribución (acumulada) de probabilidad de la variable aleatoria X se define como:

F ( x ) = P( X ≤ x ) , para toda x. (4.1)

La función de (masa de) probabilidad de la variable aleatoria discreta X se define como:

f ( x) = P( X = x) , para toda x. (4.2)

Distribución discreta Uniforme (n):


1
P( X = k ) = , k = 1, 2, …, n. (4.3)
n

Distribución Bernoulli (p):

P ( X = k ) = p k (1 − p )1− k , k = 0, 1; 0≤p≤1 (4.4)

Distribución Binomial (n, p):

n
P ( X = k ) =   p k (1 − p ) n − k , k = 0, 1, 2, …, n; 0≤p≤1 (4.5)
k 

Distribución Binomial Negativa (r, p):

 k − 1 r
P ( X = k ) =   p (1 − p )k − r , k = r, r + 1, …; 0≤p≤1 (4.6)
 r − 1 

Distribución Geométrica (p):

P ( X = k ) = p (1 − p ) k −1 , k = 1, 2, …; 0≤p≤1 (4.7)

Distribución Hipergeométrica (N, r, n):

 r  N − r 
  
 k  n − k 
P( X = k ) = , k = 0, 1, …, n; k≤r. (4.8)
N
 
n

Distribución Poisson (λ):

e − λ λk
P( X = k ) = , k = 0, 1, 2, …; 0≤λ<∞ (4.9)
k!

3
Formulario 5: Distribución de Variables Aleatorias Continuas

Función de densidad de probabilidad de la variable aleatoria continua X:

d
f ( x) = F ( x) (5.1)
dx

Función de distribución (acumulada) de probabilidad de la variable aleatoria continua X:


x
F ( x ) = P ( X ≤ x) = ∫ f (t )dt (5.2)
−∞

Probabilidad de un intervalo de la variable aleatoria continua X:


b
P(a < X < b) = F (b) − F (a ) = ∫ f ( x)dx. (5.3)
a

Densidad de la distribución Uniforme(a, b):

1
f ( x) = , a ≤ x ≤ b. (5.4)
b−a

Densidad de la distribución Exponencial(α):

f ( x ) = αe −α x , 0 ≤ x < ∞; 0<α<∞ (5.5)

Densidad de la distribución Normal(µ, σ²):

1
e− ( x − µ ) ( 2σ 2 )
2
f ( x) = , –∞ < x < ∞; –∞ < µ < ∞; σ>0 (5.6)
σ 2π

Densidad de la distribución Gamma(α, β):

1 ∞
f ( x) = xα −1e − x / β , Γ(α ) = ∫ e − y yα −1dy , 0 < x < ∞; α, β > 0 (5.7)
Γ(α ) β α 0

Densidad de la distribución Beta(α, β):

Γ(α + β ) α −1
f ( x) = x (1 − x) β −1 , 0 < x < 1; α, β > 0 (5.8)
Γ(α ) ⋅ Γ( β )

4
Formulario 6: Distribuciones Multivariadas. Distribuciones Marginales y Condicionales. Independencia

Función de probabilidad conjunta del vector aleatorio discreto (X, Y):

f ( x, y ) = P ( X = x , Y = y ) (6.1)

Función de distribución (acumulada) conjunta de probabilidad del vector aleatorio discreto (X, Y):

F ( x, y ) = P ( X ≤ x, Y ≤ y ) = ∑∑ f ( s, t ) (6.2)
s≤ x t ≤ y

Probabilidad de un evento “A”, del vector aleatorio discreto (X, Y):

P[( X , Y ) ∈ A] = ∑ f ( x, y ) (6.3)
( x , y )∈ A

Función de distribución (acumulada) conjunta del vector aleatorio continuo (X, Y):
y x
F ( x , y ) = P ( X ≤ x, Y ≤ y ) = ∫ ∫ f ( s, t )dsdt (6.4)
−∞ −∞

Función de densidad de probabilidad conjunta de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn):

∂2 ∂n
f ( x, y ) = F ( x, y ) , f ( x1 , x2 ,K, xn ) = F ( x1 , x2 ,K, xn ) (6.5)
∂x∂y ∂x1∂x2 L ∂xn

Probabilidad de una región “A” en el plano xy, del vector aleatorio continuo (X, Y):

P[( X , Y ) ∈ A] = ∫∫ f ( x, y )dxdy (6.6)


A

Funciones de Probabilidad Marginal de los vectores aleatorios discretos (X, Y) y (X1, X2, … ,Xn):

g x ( x ) = ∑ f ( x, y ) , g ( x1 , x2 , x3 ) = ∑L ∑ f ( x1 , x2 ,K xn ) (6.7)
y x4 xn

Densidades de Probabilidad Marginal de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn):
∞ ∞ ∞
g x ( x) = ∫ f ( x, y )dy , g ( x1 , xn ) = ∫ L ∫ f ( x1 , x2 ,K, xn )dx2 dx3 L dxn−1 (6.8)
−∞ −∞ −∞

Probabilidades Condicionales de los vectores aleatorios (X, Y) y (X1, X2, … ,Xn):


f ( x, y ) f ( x1 , x2 ,K, xn )
f ( x | y) = , f ( x1 , x2 ,K, xk | xk +1 , xk + 2 ,K, xn ) = (6.9)
g y ( y) g ( xk +1 , xk + 2 ,K, xn )

Las variables X y Y son independientes si:

f ( x, y ) = f ( x ) f ( y ) ó, de forma equivalente, si: f ( x | y ) = g x ( x) (6.10)

5
Formulario 7: Valor Esperado. Media. Varianza. Covarianza. Correlación. Esperanza Condicional.
Función Generadora de Momentos.

Valor Esperado de una función h(x) de la variable aleatoria X:

 ∑ h( x ) f ( x ) = ∑ h ( x ) P ( X = x ) Si X es discreta

E [h( X )] =  ∞x x (7.1)
∫− ∞ h( x) f ( x)dx Si X es continua

Media ó Valor Esperado de la variable aleatoria X:

 ∑ xf ( x) = ∑ xP( X = x) Si X es discreta

E ( X ) = µ X =  ∞x x (7.2)
∫− ∞ xf ( x)dx Si X es continua

Varianza de la variable aleatoria X:

{ } ( )
var( X ) = σ X2 = E ( X − E ( X ) ) = E X 2 − [E ( X )] = E X 2 − µ X2
2 2
( ) (7.3)

Desviación Estándar de la variable aleatoria X:

desv.est.( X ) = σ X = var( X ) (7.4)

Algunos resultados útiles para la media y la varianza. Si a y b son constantes entonces:

E (aX + b) = E (aX ) + E (b) = aE ( X ) + b (7.5)

var(aX + b) = a 2 var( X ) = a 2σ X2 (7.6)

Función Generadora de Momentos de la variable aleatoria X:

M X (t ) = E (etX ) (7.7)

Obtención del Momento de orden r-ésimo E ( X r ) a partir de la Función Generadora de Momentos:

dr
r
M X (t ) = M X( r ) (0) = E ( X r ) (7.8)
dt t =0

Valor Esperado de una función h(x, y) del vector aleatorio (X, Y):

∑∑ h( x, y ) f ( x, y ) Si ( X , Y ) es discreta

E [h( X , Y )] =  x∞ y∞ (7.9)
∫ ∫ h( x, y ) f ( x, y )d xdy Si ( X , Y ) es continua
 −∞ −∞

6
Covarianza del vector aleatorio (X, Y):

cov( X , Y ) = σ XY = E[( X − E ( X ) )(Y − E (Y ) )] = E ( XY ) − E ( X ) E (Y ) = E ( XY ) − µ X µY (7.10)

Coeficiente de Correlación del vector aleatorio (X, Y):


cov( X , Y ) σ
ρ XY = = XY , − 1 ≤ ρ XY ≤ 1 (7.11)
var( X ) var(Y ) σ X σ Y

Algunos resultados útiles para la suma de variables aleatorias. Si a y b son constantes entonces:
E (aX + bY ) = aE ( X ) + bE (Y ) (7.12)

var(aX + bY ) = a 2 var( X ) + b 2 var(Y ) + 2ab ⋅ cov( X , Y ) (7.13)

Esperanza Condicional de una función h(x) dado que la variable aleatoria Y = y:

 ∑ h( x ) f ( x | y ) Si ( X , Y ) es discreta

E [h( X ) | y ] =  ∞x (7.14)
∫− ∞ h( x) f ( x | y )dx Si ( X , Y ) es continua

Media Condicional de la variable aleatoria X dado Y = y:

 ∑ xf ( x | y ) Si ( X , Y ) es discreta

E ( X | y ) = µ X | y =  ∞x (7.15)
∫− ∞ xf ( x | y )dx Si ( X , Y ) es continua

Varianza Condicional de la variable aleatoria X dado Y = y:

[ ]
var( X | y ) = σ X2 | y = E { X − E ( X | y )}2 | y = E ( X 2 | y ) − [E ( X | y )] = E ( X 2 | y ) − µ X2 | y
2
(7.16)

Algunos resultados útiles con esperanzas condicionales:

E ( X ) = E[E ( X | Y )] (7.17)

var( X ) = E[ var( X | Y )] + var[ E ( X | Y )] (7.18)

Si las variables X y Y son independientes entonces:

• E ( XY ) = E ( X ) E (Y ) , Por lo tanto: cov( X , Y ) = 0 (7.19)

• var(aX + bY ) = a 2 var( X ) + b 2 var(Y ) (7.20)

• E( X | Y ) = E( X ) y E (Y | X ) = E (Y ) (7.21)

7
Formulario 8: Funciones de Variables Aleatorias. Desigualdad de Chebyshev. Ley general de los
grandes números. Teorema del Límite Central. Aproximación Normal a la Binomial.

Densidad de probabilidad de una variable aleatoria Y = g(X) definida como función de otra variable
aleatoria continua X. Donde además, g −1 (Y ) = X es la “función inversa” de Y.

Método de la función de distribución: f ( y ) =


d
dy
P (Y ≤ y ) =
d
dy
P(g ( X ) ≤ y ) =
d
dy
(
P X ≤ g −1 ( y ) ) (8.1)

Método de transformación: f ( y ) = f ( x)
dx
dy
( )
= f g −1 ( y )
d −1
dy
g ( y) (8.2)

Desigualdad de Chebyshev:

σ2
P ( X − µ ≥ kσ ) ≤ ⇒ P( X − µ ≥ k ) ≤
1
(8.3)
k2 k2

Media muestral de n variables aleatorias X1, X2, …, Xn independientes e igualmente distribuidas:

1 n
X = ∑ Xi
n i =1
(8.4)

Varianza muestral de n variables aleatorias X1, X2, …, Xn independientes e igualmente distribuidas:

1 n 1 n 2 
S2 = ∑ ( X i − X )2
=  ∑ X i − nX 2  (8.5)
n − 1 i =1 n − 1  i =1 

Valor esperado de la media muestral:

E (X ) = E ( X i ) = µ (8.6)

Varianza de la media muestral:

var( X i ) σ 2
var( X ) = = (8.7)
n n

Valor esperado de la varianza muestral:

( )
E S 2 = var( X i ) = σ 2 (8.8)

Ley (débil) General de los Grandes Números:

Para todo ε > 0,


n →∞
(
lim P X − µ < ε = 1 ) (8.9)

8
Teorema del Límite Central:
Sea X la media muestral de n variables aleatorias independientes, igualmente distribuidas, con
media E(Xi) = µ y con var(Xi) = σ² < ∞. Sea Z una variable aleatoria definida como:

n (X − µ )
Z= , 0 < σ² < ∞ , (8.10)
σ

con función de distribución acumulada F(z), entonces:

z 1 − y2 / 2
lim F ( z ) = ∫ e dy , (8.11)
n →∞ −∞ 2π

lo cual significa que la variable Z tiende a distribuirse como N(0, 1) a medida que n tiende a ∞.
Nota: En la obtención de Z (8.10) podríamos reemplazar σ por S y el resultado (8.11) se mantiene,
siempre y cuando 0 < σ² < ∞. En la práctica, cuando n ≥ 30, S suele ser una buena aproximación de σ.

Aproximación Normal a la Distribución Binomial.


Sea X una variable aleatoria con distribución Binomial con parámetros n y p. Sea Y la variable
aleatoria definida como:
X − np
Y= (8.12)
np (1 − p )

con función de distribución acumulada F(y) = P(Y ≤ y), entonces:

y 1 −z2 / 2
lim F ( y ) = ∫ e dz . (8.13)
n →∞ −∞ 2π

Esto significa que la variable Y se “aproxima” a una distribución N(0, 1) a medida que n tiende a ∞.

Nota 1: En la practica, una buena aproximación normal de la variable Y se obtiene cuando np y


n(1 – p) son ambos mayores que 5.
Nota 2: La aproximación se mejora considerablemente cuando se usa la “Corrección por
Continuidad”, la cual consiste en que cada valor entero no negativo de X es representado
por el intervalo que va de X – ½ a X + ½.

También podría gustarte