Está en la página 1de 42

Probabilidad

Máster Universitario
en Inteligencia Artificial
02MIAR | Matemáticas:
Matemáticas para la Inteligencia Artificial
Profesor:
David Zorı́o Ventura
Introducción a la probabilidad

▶ La probabilidad es una medida que asigna un valor de certidumbre a la ocurrencia


de un determinado suceso.
▶ Habitualmente toma valores comprendidos entre 0 y 1, donde valores próximos a 0
indica poca probabilidad y los próximos a 1 bastante probabilidad.
▶ Por ejemplo, si lanzamos una moneda equilibrada, es razonable asignar
P(cara) = 0.5 y P(cruz) = 0.5.
▶ Otro ejemplo: si tenemos una urna con 30 bolas blancas y 70 negras y extraemos
una al azar, también es razonable asignar P(blanca) = 0.3 y P(negra) = 0.7.
▶ La probabilidad pretende asignar la proporción a la que tienden a darse los
resultados tras muchos experimentos:
▶ En el ejemplo de las monedas: 50 % caras y 50 % cruces.
▶ En el ejemplo de la urna: 30 % blancas y 70 % negras.
Introducción a la probabilidad

Definición
El conjunto formado por todos los resultados posibles, Ω, recibe el nombre de espacio
muestral. Cada subconjunto formado por esas posibles ocurrencias, A ⊆ Ω, reciben el
nombre de sucesos o eventos.

Ejemplos
1. El espacio muestral asociado al lanzamiento de una moneda es Ω = {cara, cruz}.
2. Extracción en una urna con bolas blancas y negras: Ω = {blanca, negra}.
3. Lanzamiento de un dado: Ω = {1, 2, 3, 4, 5, 6}.
4. Lanzamiento de dos monedas:
Ω = {(cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz)}.
Introducción a la probabilidad

Ejemplos
1. Lanzamiento de una moneda equilibrada: Ω = {cara, cruz}. Posibles sucesos:
▶ No ocurre nada: A = ∅. P(A) = 0.
▶ Sale cara: A = {cara}. P(A) = 0.5.
▶ Sale cruz: A = {cruz}. P(A) = 0.5.
▶ Sale alguna de las dos caras: A = {cara, cruz}. P(A) = 1.
2. Lanzamiento de un dado: Ω = {1, 2, 3, 4, 5, 6}. Ejemplos de sucesos:
▶ Sale un número par: A = {2, 4, 6}. P(A) = 0.5.
▶ Sale un número impar: A = {1, 3, 5}. P(A) = 0.5.
▶ Sale un número menor que 5: A = {1, 2, 3, 4}. P(A) = 23 .
▶ Sale un número que empieza por “c”: A = {4, 5}. P(A) = 13 .
Introducción a la probabilidad

Ejemplos
3. Lanzamiento de dos monedas:
Ω = {(cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz)}. Ejemplos de sucesos:
▶ Obtener el mismo resultado: A = {(cara, cara), (cruz, cruz)}. P(A) = 0.5.
▶ No obtener dos caras: A = {(cara, cruz), (cruz, cara), (cruz, cruz)}. P(A) = 0.75.
4. Lanzamiento de dos dados: Ω = {(i, j) | 1 ≤ i, j ≤ 6}. Ejemplos de sucesos:
▶ La suma de los resultados es 10: A = {(4, 6), (5, 5), (6, 4)}. P(A) = 12 1
.
▶ Ambos resultados son pares:
A = {(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}. P(A) = 41 .
Introducción a la probabilidad
Los sucesos pueden combinarse entre sı́ mediante las operaciones básicas entre conjuntos
(unión, intersección, complementario, etc.).
Ejemplos
1. Lanzamos un dado y consideramos el siguiente suceso: “sacar un número par o que
sea mayor que 3”. Llamamos A al suceso “sacar un número par” (por lo que
A = {2, 4, 6}) y B al suceso “sacar un número mayor que 3” (luego B = {4, 5, 6}).
Por tanto, el suceso que buscamos es
A ∪ B = {2, 4, 6} ∪ {4, 5, 6} = {2, 4, 5, 6}.
2. Bajo las condiciones anteriores, consideramos el suceso “sacar un número par mayor
que 3”. En este caso la operación que debemos realizar es
A ∩ B = {2, 4, 6} ∩ {4, 5, 6} = {4, 6}.
Introducción a la probabilidad
Definición
Dos sucesos A, B ⊆ Ω son mutuamente excluyentes si A ∩ B = ∅.

Ejemplo
Al lanzar un dado, A = {1, 3}, B = {2, 4, 6}. Se cumple A ∩ B = ∅.

Definición
Una probabilidad P definida sobre el conjunto de sucesos asociado a un espacio muestral
Ω es una función real cumpliendo:
1. 0 ≤ P(A) ≤ 1 para cualquier suceso A ⊆ Ω.
2. P(Ω) = 1.
3. Para cada par de sucesos A, B ⊆ Ω mutuamente excluyentes (es decir,
A ∩ B = ∅), se tiene P(A ∪ B) = P(A) + P(B).
Introducción a la probabilidad
De los axiomas asociados a una probabilidad se pueden deducir las siguientes
propiedades:
Propiedades
Sea Ω un espacio muestral, P una probabilidad y A, B ⊆ Ω sucesos. Entonces se cumple:
1. P(Ac ) = 1 − P(A).
2. P(∅) = 0.
3. Si A ⊆ B , entonces P(A) ≤ P(B).
4. Si P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
5. En particular, P(A ∪ B) ≤ P(A) + P(B).

Ejercicio
Demuéstrense las propiedades anteriores utilizando los tres axiomas de la probabilidad.
Introducción a la probabilidad

Ejemplo
En un grupo de amigos, un 40 % de ellos estudia Ingenierı́a Informática, un 30 %
Matemáticas y un 10 % ambas cosas a la vez. ¿Cuál es la probabilidad de que una
persona elegida al azar estudie alguna de las dos carreras? Si
A = {estudiar Ingenierı́a Informática} y B = {estudiar Matemáticas}, se nos pide

P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 0.4 + 0.3 − 0.1 = 0.6.


Introducción a la probabilidad
La ocurrencia de determinados sucesos (o el conocimiento de determinada información)
puede condicionar la ocurrencia de otros sucesos.
Ejemplo
Lanzamos un dado equilibrado y consideramos el suceso A = {obtener un 2}. En ese
caso, y sin saber nada más, sabemos que la probabilidad de que ocurra ese suceso es 16 .
Sin embargo, esto puede cambiar si conocemos de antemano que ha ocurrido otro suceso
B.
▶ Por ejemplo, si B = {se ha obtenido un número par}, entonces la probabilidad de A
condicionada a B es 13 .
▶ Por otra parte, si B = {se ha obtenido un número impar}, entonces dicha
probabilidad es 0.
Introducción a la probabilidad
Definición
Sean A, B sucesos de un espacio muestral Ω y P una probabilidad asociada a éste.
Definimos la probabilidad de A condicionada a B como
P(A ∩ B)
P(A|B) = .
P(B)
Ejemplo
En el ejemplo anterior del dado, y tomando A = {obtener un 2}:
▶ Si B = {obtener un número par}, entonces
1
P(A ∩ B) P(A) 1
P(A|B) = = = 61 = .
P(B) P(B) 2
3
▶ Si B = {obtener un número impar}, entonces
P(A ∩ B) P(∅) 0
P(A|B) = = = 1 = 0.
P(B) P(B) 2
Introducción a la probabilidad
Teorema (Teorema de Bayes)
Sean A, B sucesos de un espacio muestral Ω y P una probabilidad asociada. Entonces
P(A|B)P(B)
P(B|A) = .
P(A)

Ejemplo
Consideramos el lanzamiento de un dado y los sucesos A = {1, 2, 4, 5} y B = {2, 4, 6}.
1
Entonces P(A ∩ B) 2
P(A|B) = = 31 = .
P(B) 2
3
Por otra parte, utilizando el teorema de Bayes:
2 1
P(A|B)P(B) 3
· 2 1
P(B|A) = = 2 = .
P(A) 3
2
Introducción a la probabilidad

Definición
Diremos que dos sucesos A, B ⊆ Ω son independientes si P(A|B) = P(A).

En general, de la definición de probabilidad condicionada, se deduce que para cualquier


par de sucesos A, B ⊆ Ω (independientes o no) se cumple

P(A ∩ B) = P(A|B)P(B).

Por tanto:
Teorema
Dos sucesos A, B ⊆ Ω son independientes si y sólo si se cumple P(A ∩ B) = P(A)P(B).
Introducción a la probabilidad

Ejemplo
Lanzamos una moneda y un dado, ambos equilibrados. ¿Cuál es la probabilidad de
obtener una cara en la moneda y, simultáneamente, un 3 en el dado?

Si llamamos A al suceso “obtener una cara al lanzar la moneda” y B al suceso “obtener


un 3 al lanzar el dado”, entonces se nos pide P(A ∩ B).

Dado que los sucesos A y B son independientes, se tiene:


1 1 1
P(A ∩ B) = P(A)P(B) = · = .
2 6 12
Introducción a la probabilidad
En ocasiones nos podemos encontrar con espacios muestrales infinitos.
Ejemplo
Sea Ω = [0, 1] × [0, 1] y la función f : [0, 1] → [0, 1] dada por f (x) = x 2 . ¿Cuál es la
probabilidad de que un punto elegido al azar en el cuadrado [0, 1] × [0, 1] esté por debajo
de la gráfica de f ?
El área encerrada por la región es:
1 1
x3
Z 
2 1
x dx = = .
0 3 0 3

Por tanto, la probabilidad es:


1
Área región 3 1
= = .
Área cuadrado 1 3
Introducción a la probabilidad
Definición
Una partición A1 , A2 , . . . , An sobre un espacio muestral Ω es un conjunto de sucesos
cumpliendo Ai ∩ Aj = ∅ para 1 ≤ i, j ≤ n, i ̸= j y además
n
[
Ai = Ω.
i=1

Teorema (Teorema de la probabilidad total)


Sea A1 , A2 , . . . , An una partición sobre un espacio muestral Ω y B un suceso cualquiera
del que se conoce P(B|Ai ), para 1 ≤ i ≤ n. Entonces
n
X
P(B) = P(B|Ai )P(Ai ).
i=1
Introducción a la probabilidad
Ejemplo
En un determinado grupo de personas, un 1 % de las mismas padece una enfermedad especı́fica.
Existe un test de detección de la misma, el cual tiene un 1 % de probabilidad de obtener un
falso positivo, ası́ como un 1 % de obtener un falso negativo. ¿Cuál es la probabilidad de que
un individuo que ha dado positivo en el test padezca realmente la enfermedad?

Sea E el suceso “sufrir la enfermedad” y T el suceso “obtener positivo”. Se sabe que


P(E ) = 0.01, P(T |E ) = 0.01 y P(T |E ) = 0.01. Se pide obtener P(E |T ).
Aplicando el teorema de Bayes y el teorema de la probabilidad total:

P(T |E )P(E ) P(T |E )P(E )


p(E |T ) = =
P(T ) P(T |E )P(E ) + P(T |E )P(E )
0.99 · 0.01 1
= = = 0.5.
0.99 · 0.01 + 0.01 · 0.99 2
Variables aleatorias
Definición
Una variable aleatoria (V.A.) X sobre un espacio muestral Ω es una función Ω → R.
En ese caso, es posible inducir una probabilidad asociada a esa variable aleatoria sobre
X (Ω) ⊆ R. Dado un suceso A ⊆ R, definimos
PX (A) ≡ P(X ∈ A) := P X −1 (A) = P {ω ∈ Ω | X (ω) ∈ A} .
 

Ejemplos
1. Sea Ω el conjunto formado por la población mundial X : Ω → R la variable
aleatoria que a una persona ω ∈ Ω le asigna su año de nacimiento, X (ω) ∈ R.
Entonces si A = {1984, 1985, 1986}:
X −1 (A) = {personas nacidas entre 1984 y 1986}
PX (A) = proporción de personas nacidas entre 1984 y 1986.
Variables aleatorias
Ejemplos
2. Sea Ω el espacio muestral asociado al lanzamiento de tres monedas:

Ω = {ZZZ , CZZ , ZCZ , ZZC , CCZ , CZC , ZCC , CCC }.


▶ Sea X : Ω → R la V.A. que cuenta el número de caras obtenidas:

▶ X (ZZZ ) = 0. ▶ X (CCZ ) = 2. ▶ X −1 (0) = {ZZZ }. ▶ P(X = 0) = 18 .


▶ X (CZZ ) = 1. ▶ X (CZC ) = 2. ▶ X −1 (1) = {CZZ , ZCZ , ZZC }. ▶ P(X = 1) = 38 .
▶ X (ZCZ ) = 1. ▶ X (ZCC ) = 2. ▶ X −1 (2) = {CCZ , CZC , ZCC }. ▶ P(X = 2) = 38 .
▶ X (ZZC ) = 1. ▶ X (CCC ) = 3. ▶ X −1 (3) = {CCC }. ▶ P(X = 3) = 18 .
▶ P(1 < X ≤ 3.5) = P X −1 (]1, 3.5]) = P ({ω ∈ Ω | X (ω) ∈] − 1, 3.5]}) =

1
P ({CCZ , CZC , ZCC , CCC }) =
2
Variables aleatorias discretas
Definición
Sea X una V.A. Si el conjunto X (Ω) es finito o numerable (indexable por números
naturales), entonces diremos que X es una variable aleatoria discreta.

En ese caso, definimos la función de densidad o función de masa de probabilidad


asociada como fX : R → [0, 1] dada por
fX (x) = P(X = x) = PX ({x}) = P(X −1 ({x})) = P({ω ∈ Ω | X (ω) = x}), x ∈ R.
Definimos la función de distribución asociada como FX : R → [0, 1] dada por
X
FX (x) = P(X ≤ x) = fX (X (t)), x ∈ R.
t∈Ω,X (t)≤x
X
Condición de normalización: fX (X (t)) = 1.
t∈Ω
Variables aleatorias discretas
Ejemplos
1. Sea Ω = {uno, dos, tres, cuatro, cinco, seis} el conjunto de los posibles resultados al
lanzar un dado y X : Ω → R la V.A. que le asigna su valor: X (uno) = 1,
X (dos) = 2, X (tres) = 3, X (cuatro) = 4, X (cinco) = 5 y X (seis) = 6. Entonces

X (Ω) = {1, 2, 3, 4, 5, 6}.

1
fX (4) = P(X = 4) = P({cuatro}) = .
6
Por otra parte,
2
FX (4) = P(X ≤ 4) = P({uno, dos, tres, cuatro}) = .
3
Variables aleatorias discretas
Ejemplos
2. Consideramos el experimento aleatorio consistente en lanzar una moneda hasta
obtener como resultado cara. El espacio muestral es por tanto
Ω = {cara, (cruz, cara), (cruz, cruz, cara), (cruz, cruz, cruz, cara), ...}.
▶ Sea X la V.A. aleatoria consistente en contar el número de lanzamientos hasta
obtener cara. Entonces:
▶ X (cara) = 1.  ▶ fX (1) = 12 .
▶ X (cruz, cara) = 2. ▶ fX (2) = 14 .
fX (3) = 18 .

▶ X (cruz, cruz, cara) = 3. ▶


▶ 1
X (cruz, cruz, cruz, cara) = 4. fX (4) = 16 .
.. ..
. .
▶ fX (n) = 1
2n , ∀n ∈ N.
▶ Por tanto, X (Ω) = {1, 2, 3, 4, . . .} = N.

X X X X 1
▶ fX (X (t)) = fX (n) = P(X = n) = = 1.
2n
t∈Ω n∈N n∈N n=1
Variables aleatorias continuas
Definición
Sea X una V.A. asociada a un espacio muestral Ω. Diremos que X es una V.A.
continua si X (Ω) es continuo (por ejemplo, un intervalo o todos los reales).

Definimos la función de distribución asociada a X como FX : R → [0, 1] dada por


FX (x) = P(X ≤ x).
Asimismo, diremos que X admite una función de densidad si ∃fX : R → [0, +∞[ no
negativa e integrable tal que para cada A ⊆ R
Z
P(X ∈ A) = fX (t)dt.
A
Z +∞
Condición de normalización: fX (t)dt = 1.
−∞
Variables aleatorias continuas
▶ Si X es una V.A. continua que admite una función de densidad, entonces podemos
escribir Z x
FX (x) = P(X ≤ x) = fX (t)dt.
−∞
▶ La función de densidad debe satisfacer la condición de normalización:
Z +∞
fX (t)dt = P(X ∈ R) = 1.
−∞

▶ De la existencia de una función de densidad se deduce que


P(X < x) = lı́m− FX (t) = FX (x) = P(X ≤ x).
t→x

▶ En particular, se deduce que en ese caso


P(X = x) = 0, ∀x ∈ R.
Variables aleatorias continuas
Ejemplo
Se elige un número al azar dentro del intervalo real [0, 1] y se considera la V.A. aleatoria
asociada a dicho experimento. Entonces la función de distribución asociada a X es:

0 si x < 0,

FX (x) = P(X ≤ x) = x si 0 ≤ x ≤ 1,

1 si x > 1.

Por tanto, la función de densidad asociada a X es:



0
 si x < 0,
fX (x) = 1 si 0 ≤ x ≤ 1,

0 si x > 1.

Esperanza
Definición
Sea X una V.A. asociada a un espacio muestral Ω, y con función de densidad fX (x).
Definimos la esperanza de X como
(P
xfX (x) si X es una V.A. discreta,
E [X ] = R x∈X (Ω)
xf (x)dx
R X
si X es una V.A. continua.

Propiedades
Sean X , Y variables aleatorias, a ∈ R. Entonces:
1. E [X + Y ] = E [X ] + E [Y ].
2. E [aX ] = aE [X ].
3. Si X , Y son independientes, entonces E [XY ] = E [X ]E [Y ].
Esperanza

Ejemplos
1. El precio del número de una rifa es de 1 euro. Si ésta tiene un total de 1000 números
y el premio tiene un valor de 500 euros, ¿cuál es el promedio de beneficio esperado?

Llamamos X a la V.A. que cuantifica el beneficio obtenido al participar en la rifa:


999
Perder la rifa: X = −1 → P(X = −1) = 1000 .
1
Ganar la rifa: X = 499 → P(X = 499) = 1000 .

Por tanto:
999 499
E [X ] = (−1) · P(X = −1) + 499 · P(X = 499) = − + = −0.5.
1000 1000
Esperanza

Ejemplos
2. Consideramos el intervalo [0, 1] y seleccionamos un punto al azar y nos planteamos
cuál es el valor sobre el que oscilará el promedio. Vimos que

0 si x < 0,

fX (x) = 1 si 0 ≤ x ≤ 1,

0 si x > 1.

Por tanto: 1
+∞ 1
x2
Z Z 
1
E [X ] = xfX (x)dx = xdx = = .
−∞ 0 2 0 2
Varianza
Definición
Sea X una V.A. y g : R → R. Definimos
(P
g (x)fX (x) si X es una V.A. discreta,
E [g (X )] = R x∈X (Ω)
R
g (x)fX (x)dx si X es una V.A. continua.

Definición
Sea X una V.A. aleatoria. Definimos la varianza de X como:
Var(X ) = E (X − E [X ])2 = E X 2 − E [X ]2 .
   

Propiedades
1. Var(aX ) = a2 Var(X ), ∀a ∈ R.
2. Var(X + a) = Var(X ), ∀a ∈ R.
3. Var(X + Y ) = Var(X ) + Var(Y ) si X , Y son independientes.
Varianza
Ejemplos
1. En el ejemplo de la rifa, se tiene
X
E X2 = x 2 fX (x) = (−1)2 · P(X = −1) + 4992 · P(X = 499)
 

x∈{−1,499}
999 249001
= + = 250.
1000 1000
Por tanto, Var(X ) = E [X 2 ] − E [X ]2 = 250 − 0.52 = 249.75.
2. Selección al azar de un número en el intervalo [0, 1]:
Z +∞ Z 1  3 1
 2 2 2 x 1
E X = x fx (x)dx = x dx = = .
−∞ 0 3 0 3
 2
1 1 1
Luego Var(X ) = E [X 2 ] − E [X ]2 = − = .
3 2 12
Distribución de Bernoulli
Una V.A. X sigue la distribución de Bernoulli de parámetro p ∈ [0, 1], y lo
denotaremos por X ∼ Be(p), si X ∈ {0, 1}, verificando

P(X = 1) = p, P(X = 0) = 1 − p.

Podemos calcular la esperanza y varianza de X como sigue:

E [X ] = p, Var(X ) = p(1 − p).

Ejemplo
Consideramos el experimento consistente en devolver éxito (X = 1) si al lanzar un dado
obtenemos un 5 y fracaso (X = 0) en otro caso. Entonces X ∼ Be( 16 ).
Distribución binomial

Si X = X1 + · · · + Xn , con Xi ∼ Be(p) independientes entre sı́, es decir, si X es una V.A.


aleatoria que cuenta el número de éxitos tras realizar n pruebas Bernoulli de parámetro p
independientes, diremos que X sigue una distribución binomial de parámetros n y p,
que denotaremos por X ∼ B(n, p). Se cumple
   
n k n−k n n!
P(X = k) = p (1 − p) , donde = .
k k k!(n − k)!

Por otra parte,


E [X ] = np, Var(X ) = np(1 − p).
Distribución binomial

Ejemplo
Lanzamos un dado 10 veces y queremos calcular cuál es la probabilidad de obtener tres
veces un cinco. Si X es la V.A. que cuenta el número de veces que se obtiene un cinco
tras lanzar el dado 10 veces, entonces X ∼ B(10, 61 ), por lo que n = 10, p = 16 y k = 3,
con lo cual se tiene:
   3  7
n k n−k 10! 1 5 390625
P(X = k) = p (1 − p) = = .
k 3! · 7! 6 6 2519424
Distribución de Poisson
Supongamos que realizamos un número de pruebas Bernoulli muy alto n, con una
probabilidad pn cada vez más pequeña, de forma que

lı́m npn = λ.
n→∞

Si Xn ∼ B(n, pn ), entonces se puede demostrar que

e −λ λk
lı́m P(Xn = k) = .
n→∞ k!
Si X es una variable de este tipo, diremos que X sigue una distribución de Poisson de
parámetro λ, que denotaremos por X ∼ Po(λ). Se cumple

E [X ] = λ, Var(X ) = λ.
Distribución de Poisson

Ejemplo
La probabilidad media de tener un accidente de tráfico al coger el coche en una
determinada región es de un 0.01 %. Si una persona coge el coche una media total de
20000 veces a lo largo de su vida, ¿cuál es la probabilidad de que sufra algún accidente
de tráfico en algún momento de su vida?

Sea X la V.A. aleatoria que contabiliza el número de accidentes de tráfico en esas


circunstancias. Como n = 20000 y p = 0.0001, tenemos λ = np = 2, y podemos decir
que X ≈ Po(2). Por tanto, se nos pide

e −λ λ0
P(X > 0) = 1 − P(X = 0) = 1 − = 1 − e −2 ≈ 0.8647.
0!
Distribuciones continuas
▶ Distribución uniforme:

Si X es una V.A. continua que toma valores uniformemente en el intervalo [a, b],
entonces diremos
 que X sigue una distribución uniforme, y lo denotaremos por
X ∼ Unif [a, b] .
Ejercicio

Si X ∼ Unif [a, b] , obtener razonadamente FX , fx , E [X ] y Var(X ).
▶ Distribución normal:

Una V.A. X sigue una distribución normal de media µ y desviación tı́pica σ,


denotado por X ∼ N(µ, σ), si se cumple
1 (x−µ)2
fX (x) = √ e − 2σ2 .
2πσ 2
Distribución normal

Se cumple E [X ] = µ y Var(X ) = σ 2 .
Teorema
X −µ
Si X ∼ N(µ, σ), entonces ∼ N(0, 1). Usualmente esta última distribución recibe
σ
el nombre de normal tipificada.
Distribución normal
Ejemplo
La altura (en centı́metros) de una determinada población sigue una distribución normal
de media 175 y desviación tı́pica 10. ¿Cuál es la probabilidad de que una persona elegida
al azar mida más de 185 cm?

Sea X la V.A. asociada, luego X ∼ N(175, 10). Si definimos Z = X −175


10
∼ N(0, 1), se
tiene
 
X − 175 185 − 175
P (X > 185) = P >
10 10
= P (Z > 1) = 1 − P (Z ≤ 1) ≈ 1 − 0.8413 = 0.1587.

Comandos utilizados:
from scipy.stats import norm
1-norm.cdf(1)
Teorema del lı́mite central
Teorema (Teorema del lı́mite central)
Sea {Xi }∞ i=1 una sucesión de variables aleatorias idénticamente distribuidas (en adelante,
i.i.d.), con E [Xi ] = µ y Var(Xi ) = σ 2 ∀i ∈ N. Denotamos para cada n ∈ N
n
X Sn − nµ
Sn = Xi y definimos Zn = √ .
i=1
σ n

Entonces se cumple
lı́m P(Zn ≤ t) = P(Z ≤ t),
n→∞

donde Z ∼ N(0, 1).


σ2
 
En particular, X n ≈ N µ, para valores de n grandes.
n
Teorema del lı́mite central
Ejemplo
¿Cuál es la probabilidad de que al lanzar una moneda 400 veces, salga cara en menos de
210 ocasiones?

Sea Xi ∼ Be(0.5) la V.A. que vale 1 si se obtiene cara en el lanzamiento i-ésimoPy 0 en


otro caso, por lo que E [Xi ] = 0.5 y Var[Xi ] = 0.52 = 0.25. Si definimos S400 = 400
i=1 Xi ,
entonces se nos pide
P(S400 < 210) = P(S400 ≤ 209)
 
S400 − 400 · 0.5 209 − 400 · 0.5
=P √ √ ≤ √ √
400 · 0.25 400 · 0.25
≈ P(Z < 0.9) ≈ 0.8159,

donde Z ∼ N(0, 1).


Ley de grandes números

Teorema (Ley de grandes números)


Sea {Xi }∞
i=1 una sucesión de variables aleatorias independientes cumpliendo E [Xi ] = µ y
Var(Xi ) = σ 2 ∀i ∈ N. Si denotamos para cada n ∈ N
n
1X
Xn = Xi
n i=1

entonces
lı́m P(|X n − µ| < ε) = 1, ∀ε > 0.
n→∞
¡Muchas gracias!

Contacto:
david.zorio@campusviu.es

También podría gustarte