Está en la página 1de 8

 Un experimento aleatorio es un proceso en el cual interviene el azar.

 El espacio muestral de un experimento aleatorio es el conjunto de todos los posibles


resultados.
 Se define suceso como cualquier subconjunto del espacio muestral.
 Suceso imposible o suceso seguro.
 A, B sucesos.
 A y B (𝐴 ∩ 𝐵)
 A o B (𝐴 ∪ 𝐵)
 No A (𝐴𝐶 )
 A y B son incompatibles (𝐴 ∩ 𝐵 = ∅)
 Probabilidad de que ocurra A [P(A)]
 Si A y B son incompatibles → 𝑃(𝐴) + 𝑃(𝐵) = 𝑃(𝐴 ∪ 𝐵)
 Propiedades
 𝑃(∅) = 0
 𝑃(𝐴𝐶 ) = 1 − 𝑃(𝐴)

La probabilidad de un suceso es la suma de las probabilidades de sus resultados.

Si los resultados del experimento son equiprobables:


𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑎 𝐴
Regla de Laplace → 𝑃(𝐴) = 𝐶𝑎𝑠𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠

e.g. Lanzamiento de dados sin trucar, lanzamiento de moneda sin trucar. Composición de
experimentos aleatorios independientes con resultados equiprobables.

En general: 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐴 ∩ 𝐵)

Independencia de sucesos: A y B son independientes si 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∙ 𝑃(𝐵)

Independientes: Si ocurre A no afecta a que ocurra B.


𝑃(𝐴∩𝐵)
Probabilidad condicionada: Si A y B son sucesos. 𝑃(𝐴|𝐵 ) = 𝑃(𝐵)

Estudiamos un fenómeno en una población, conocemos su comportamiento en los elementos de


una partición

Una partición es 𝐴1 , 𝐴2 , … 𝐴𝑅 ⊆ 𝑈.

Una partición no tiene elementos en común (𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∶ 𝑖 ≠ 𝑗)

Teorema de la probabilidad total

B suceso 𝑃(𝐵) = 𝑃(𝐵|𝐴1 ) ∙ 𝑃(𝐴1 ) + 𝑃(𝐵|𝐴2 ) ∙ 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐵 |𝐴𝑅 ) ∙ 𝑃(𝐴𝑅 )


𝑃(𝐵|𝐴𝑖 )∙𝑃(𝐴𝑖 )
Teorema de Bayes: 𝑃(𝐴𝑖 |𝐵) = 𝑃(𝐵)

IMPORTANTE: Notar que P(B) se obtendría previamente del teorema de la probabilidad total.
Variable aleatoria

Una variable aleatoria X es una función real medible que asocia un valor numérico a cada
resultado del espacio muestral asociado a un experimento aleatorio.

e.g. Cantidad de caras al lanzar monedas.

3 monedas

X: Cantidad de sellos. Según el tipo de soporte de X dividimos las variables aleatorias en


(V.A.) discretas o continuas.
CCC V.A.D.= SopX es un conjunto numerable (equivalente a los números
CCS naturales). IMPORTANTE: sumar probabilidades.
CSC
CSS V.A.C.= SopX es un subconjunto de los reales. IMPORTANTE: Integrar
SCC funciones.
SCS
SSC Ahora, usando el concepto de V.A. es posible construir otras funciones
SSS de probabilidad.
DOM (Espacio muestral) f(x)= Función de distribución de probabilidad. Función de cuantía.
0 Función de masa. Función de probabilidad. Función densidad.
1
2
3
REC (SopX)
1
𝑃(𝑋 = 0) =
8
3
𝑃(𝑋 = 1) =
8
3
𝑃(𝑋 = 2) =
8
1
𝑃(𝑋 = 3) =
8

X 0 1 2 3
P(X=xi) 1/8 3/8 3/8 1/8
Esta es la función de probabilidad (f(x) o P(X=xi))

X 0 1 2 3
𝑃(𝑋 ≤ 𝑥𝑖) 1/8 4/8 7/8 1
Esta es la función de probabilidad acumulada (F(x) o 𝑃(𝑋 ≤ 𝑥𝑖))

Función distribución de probabilidad sobre V.A.D. (F.D.P.)

Sea 𝑆𝑜𝑝𝑋 = {𝑥1, 𝑥2, … , 𝑥𝑛}

IMPORTANTE: En algunos casos a x1, x2,…, xn se les llama realizaciones.


Llamaremos función distribución de probabilidad a cualquier función que cumpla con:

𝑓(𝑥𝑖) ≥ 0

∑ 𝑓(𝑥𝑖) = 1

Esperanza matemática
Construcción formal de la noción de promedio.

El valor esperado de X es: 𝐸(𝑥) = ∑𝑛


𝑖=1 𝑥𝑖 ∙ 𝑃(𝑋 = 𝑥𝑖)
Momentos poblacionales:

Llamaremos momento poblacional a:

𝐸(𝑥 1 ): 1𝑒𝑟 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑝𝑜𝑏𝑙𝑎𝑐𝑖𝑜𝑛𝑎𝑙


𝐸(𝑥 2 ): 2𝑑𝑜 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑝𝑜𝑏𝑙𝑎𝑐𝑖𝑜𝑛𝑎𝑙

Estos momentos se obtienen al derivar la función generadora de momentos.

𝑚𝑥 (𝑡) = 𝐸(𝑒 𝑡𝑥 )

Previo: la esperanza es una función que promedio y que además es lineal.

Varianza:
̅̅̅ − 𝒙𝒊)𝟐 ) → 𝑽𝒂𝒓(𝑿) = 𝑬( 𝑬(𝒙)𝟐 − 𝟐𝒙𝒊𝑬(𝒙) + 𝒙𝒊𝟐 ) → 𝑽𝒂𝒓(𝒙) = 𝑬(𝒙)𝟐 − 𝟐𝒙𝒊𝑬(𝒙) + 𝑬(𝒙𝒊𝟐)
𝑽𝒂𝒓(𝑿) = 𝑬((𝒙

Dado que xi toma todos los valores posibles de SopX.

𝐸(𝐸(𝑥)2 − 2𝐸(𝐸(𝑥)𝑋) + 𝐸(𝑋2 ) → 𝐸(𝑥)2 − 2𝐸(𝑥)𝐸(𝑥) + 𝐸(𝑋2 ) → 𝑬(𝑿𝟐 ) − 𝑬(𝒙)𝟐

𝑉𝑎𝑟(𝑥) = 𝑬(𝑿𝟐 ) − 𝑬(𝒙)𝟐

Desviación estándar: √𝑽𝒂𝒓(𝒙)

Función distribución acumulada (F.D.A.)

Suma de probabilidades

F(xj)= f(x1) + f(x2) +…+f(xj)

Donde el SopX= {x1, x2,…, xj,…, xk}

En general, una V.A. se dirá que distribuye alfa, significa que la forma de asignar prob. de esa V.A.
es por la función alfa. En símbolos:

𝑋~𝐴𝑙𝑓𝑎(𝑃𝑜, 𝑅𝑜)

Esa función la conoceremos y se nos dirá cómo distribuye.

Al aplicar las definiciones dadas de esperanza, varianza y F.D.A. sobre Alfa(Po, Ro) obtendremos
una “fórmula” explícita de la esperanza, varianza y F.D.A.
Para una V.A. que distribuye alfa.

Variable aleatoria continua

Si X es variable aleatoria continua, entonces el SopX es un subconjunto de los reales. En este caso,
los axiomas de probabilidad serán los siguientes.
𝑏
∫𝑎 𝑓(𝑥)𝑑𝑥 = 𝑃(𝑎 < 𝑥 < 𝑏) > 0 Donde f(x) e una potencial función de probabilidad.

∫−∞ 𝑓(𝑥)𝑑𝑥 = 1

Una función cualquiera que satisfaga las dos condiciones anteriores será una función de
probabilidad.

Esperanza y varianza en V.A.C.



𝐸(𝑥) = ∫ 𝑥𝑓(𝑥) 𝑑𝑥
−∞

∞ 2
𝑉𝑎𝑟(𝑥) = 𝑥 2 𝑓(𝑥)𝑑𝑥 − [∫ 𝑥𝑓(𝑥)]
−∞

F.D.A.
𝑥𝑖
𝐹(𝑥𝑖) = ∫−∞ 𝑓(𝑥)𝑑𝑥

Propiedad: Para cualquier función de probabilidad, su acumulada permite obtener:

𝑃(𝑥 < 𝑥𝑜) = 𝐹(𝑥𝑜)

𝑃(𝑥𝑜 < 𝑥 < 𝑥1) = 𝐹(𝑥1) − 𝐹(𝑥𝑜)


𝑃(𝑥 > 𝑥𝑜) = 1 − 𝐹(𝑥𝑜)

Modelos clásicos de funciones de distribución de probabilidad sobre V.A.D.


Modelo binomial

Diremos que una variable aleatoria distribuye binomial (𝑋~𝐵𝑖𝑛( , ))si y solo sí su f.D.P. es:
𝒏
𝑷(𝒙 = 𝒌) = ( ) 𝑷𝒌 (𝟏 − 𝑷)𝒏−𝒌
𝒌
Donde:

k es la variable tomando valores desde 0 a n

n y P son constantes

n es el número de repeticiones de un experimento Bernoulli (Experimento con solo dos formas de


ocurrir).

P es la probabilidad de que 1 experimento Bernoulli tenga éxito.


Distribuye binomial si satisface:

 Consiste en n repeticiones de un Bernoulli.


 Las n repeticiones son independientes entre sí.
 Esperanza: 𝐸(𝑥) = 𝑛𝑃
 Varianza: 𝑉𝑎𝑟(𝑥) = 𝑛𝑃(1 − 𝑃)

IMPORTANTE: Números combinatorios con calculadora utilizando nCr.

Momentos poblacionales:

Función generadora de momentos: 𝐸(𝑒 𝑡𝑥 ) = 𝑚𝑥 (𝑡)

Si aplicamos lo anterior a la binomial resulta:


𝑛 𝑛
𝑛
𝐸(𝑒 𝑡𝑥 ) = ∑ 𝑒 𝑡𝑘 ∙ 𝑃(𝑋 = 𝑘) → 𝐸(𝑒 𝑡𝑥 ) = ∑ 𝑒 𝑡𝑘 ∙ ( ) 𝑃𝑘 (1 − 𝑃)𝑛−𝑘
𝑘
𝑘=0 𝑘=0
𝑛
𝑛
∑ ( ) (𝑃𝑒 𝑡 )𝑘 (1 − 𝑃)𝑛−𝑘
𝑘
𝑘=0

Recordando binomio de Newton…


𝑛
𝑛
(𝑎 + 𝑏)𝑛 = ∑ ( ) 𝑎𝑛−𝑘 𝑏 𝑘
𝑘
𝑘=0

Por lo tanto:
𝑛
𝑛
∑ ( ) (𝑃𝑒 𝑡 )𝑘 (1 − 𝑃)𝑛−𝑘 = (1 − 𝑃 + 𝑃𝑒 𝑡 )𝑛 ← 𝑓𝑛 𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑜𝑟𝑎 𝑑𝑒 𝑚𝑜𝑚𝑒𝑛𝑡𝑜𝑠 𝑝𝑜𝑏𝑙𝑎𝑐𝑖𝑜𝑛𝑎𝑙𝑒𝑠.
𝑘
𝑘=0

Teorema de los momentos:

𝐸(𝑥 𝑛 ) = 𝑚𝑥𝑛 (0) ( para x elevado a n, enésima derivada)

e.g.

𝑚´𝑥 (0) = 𝑛(1 − 𝑃 + 𝑒 𝑡 𝑃)𝑛−1 𝑒 𝑡 𝑃 = 𝑛(1 − 𝑃 + 𝑃)𝑃 = 𝑛𝑃

Modelo Poisson
Diremos que una V.A.D. distribuye Poisson sí y solo sí su función distribución de probabilidad es:
𝒆−𝝀 𝝀𝒌
𝑷(𝑿 = 𝒌) = ~𝑷𝒐𝒊(𝝀) : 𝜆 > 0 𝑘𝜖{1,2,3, … , ∞}
𝒌!

Este tipo de modelo describe apropiadamente fenómenos de naturaleza constante en un intervalo


de tiempo, área o volumen. En general, algún fenómeno observado 𝜆 veces por unidad de tiempo
o medida. X es el número de ocurrencias del fenómeno en estudio.
∞ ∞ ∞ ∞
𝑒 −𝜆 𝜆𝑘 𝑘 ∙ 𝜆𝑘 𝜆𝑘−1 𝜆 𝜆𝑘−1
𝐸 (𝑥 ) = ∑ 𝑘 ∙ = 𝑒 −𝜆 ∑ = 𝑒 −𝜆 ∑ = 𝑒 −𝜆 𝜆 ∑
𝑘! 𝑘! (𝑘 − 1)! (𝑘 − 1)!
𝑘=0 𝑘=0 𝑘=0 𝑘=0

−𝜆
𝜆𝐽
𝑒 𝜆∑ ← 𝑆𝑒𝑟𝑖𝑒 𝑑𝑒 𝑇𝑎𝑦𝑙𝑜𝑟 𝑑𝑒 𝑒 𝑥 ∶ 𝑥 = 𝜆
(𝐽)!
𝐽=0

−𝜆
𝜆𝐽
𝑒 𝜆∑ = 𝑒 −𝜆 𝜆 ∙ 𝑒 𝜆 = 𝜆 = 𝐸(𝑥)
(𝐽)!
𝐽=0

De forma similar se determina la Var(x)= 𝜆 si X~𝑃𝑜𝑖(𝜆)

Modelo geométrico
Se trata de un experimento Bernoulli, es por ello que se relaciona con la binomial. En una
binomial, el número de repeticiones es fijo. En un modelo geométrico no es así.

Una V.A.D. será geométrica si cuenta el número de repeticiones necesarias para la ocurrencia del
primer y único éxito.

e.g. Lanzar una moneda hasta que aparezca la primera cara.

P(A)=(1 − 𝑃)𝑘−1 𝑃 𝑋~𝐺𝑒𝑜(𝑃)

Tal que k es la cantidad total de veces que se repite el experimento


Diremos que una V.A.D. distribuye geométrica si y solo si su función de distribución de
probabilidad es:
1
𝐸(𝑥) =
𝑃
1−𝑃
𝑉𝑎𝑟(𝑥) =
𝑃2

Tal que 𝑋~𝐺𝑒𝑜(𝑃)

Modelo binomial negativo (Pascal)


Ahora se trata de tener r-éxitos (no importa si no están todos juntos).

Total de realizaciones del experimento: K con P(éxito)=P

EFF…E…FFE

Note que para contar todas las configuraciones de los r-1 éxitos debemos calcular:
𝑘 − 1 𝑟−1 𝑘−1 𝑟
( ) 𝑝 (1 − 𝑃)𝑘−𝑟 𝑃 = ( ) 𝑝 (1 − 𝑃)𝑘−𝑟
𝑟−1 𝑟−1
Diremos que una V.A.D. distribuye binomial negativa si su f.D.P. es:
𝑘−1 𝑟
𝑃(𝑋 = 𝑘) = ( ) 𝑝 (1 − 𝑃)𝑘−𝑟
𝑟−1
Donde X es el número de repeticiones que se deben llevar a cabo para obtener r éxitos.
𝑟
𝐸(𝑥) =
𝑃
𝑟(1 − 𝑃)
𝑉𝑎𝑟(𝑥) =
𝑟2
Si y solo si 𝑋~𝐵𝑁(𝑟, 𝑃)

Modelo hipergeométrico
Se basa en probabilidad clásica (casos favorables/casos totales). Suponga que tiene N artículos, de
los cuales r son defectuosos y por lo tanto, hay N-r no defectuosos. Suponga que toma n artículos
del total sin reposición. Sea X el número de artículos defectuosos encontrados. Entonces, la
probabilidad de que P(X=k) es:

(𝑘𝑟)(𝑁−𝑟
𝑛−𝑘)
𝑃(𝑋 = 𝑘) =
(𝑁
𝑛)

Si una V.A.D. tiene por f.D.P. a la expresión diremos que X distribuye hipergeométrica de
parámetros r, N, n.
𝑟
𝐸(𝑥) = 𝑛𝑃 ∶ 𝑃 =
𝑁
𝑁−𝑛
𝑉𝑎𝑟(𝑥) = 𝑛𝑃(1 − 𝑃)
𝑁−1
Percentiles

Su versión teórica es la F.D.A.

𝐹40 = 0.3 → 𝐷𝑒𝑏𝑎𝑗𝑜 𝑑𝑒𝑙 𝑑𝑎𝑡𝑜 0.3 ℎ𝑎𝑦 𝑢𝑛 40% 𝑑𝑒 𝑙𝑜𝑠 𝑑𝑎𝑡𝑜𝑠.

Propiedades varianza

𝑉𝑎𝑟(𝑎𝑥 + 𝑏) = 𝐸((𝑎𝑥 + 𝑏)2 ) − (𝐸(𝑎𝑥 + 𝑏))2

A partir de desarrollar esa expresión y considerando que:

𝑉𝑎𝑟(𝑥) = 𝐸(𝑥 2 ) − 𝐸(𝑥)2


𝑛

𝐸(𝑥) = ∑ 𝑥𝑖𝑃(𝑋 = 𝑥𝑖)


𝑖=0

Llegamos a que

𝑉𝑎𝑟(𝑎𝑥 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑥)

También podría gustarte