Está en la página 1de 31

La ley de los grandes nmeros

"El indicio de que las cosas


estaban salindose de su
cauce normal vino una tarde
de finales de la dcada
de 1940. Simplemente lo que
pas fue que entre las
siete y las nueve de aquella
tarde el puente de Triborough
tuvo la concentracin de trfico
saliente ms elevada
de su historia".
Comienzo del relato corto
1
"La Ley" de Robert
M. Coates

Suma de variables aleatorias discretas


Supongamos que X e Y son dos variables aleatorias discretas
e independientes con funciones de distribucin p1(x) y p2(y)
respectivamente. Sea Z = X + Y, cmo ser la funcin de
distribucin de Z, p3(z)?
Puesto que el evento Z = z es la unin del par de eventos
disjuntos: (X = k) e (Y = z - k), tendremos:

P3 ( Z z )

P ( X k ) P (Y z k )

Decimos que p3(x) es la convolucin de p1(x) y p2(x):


p3(x) = p1(x) * p2(x)

Convolucin

p3 ( j )

p (k ) p ( j k )

La convolucin es una operacin conmutativa y asociativa.


Visto lo visto, es "fcil" demostrar por induccin cmo ser
la suma de n variables aleatorias independientes:

S n X 1 X 2 ... X n
teniendo en cuenta que:

S n S n 1 X n

Veamos un ejemplo: Supongamos que lanzamos un dado


dos veces. Sea el resultado del primer lanzamiento la variable
aleatoria X1 y del segundo, la variable aleatoria X2 , ambas
con la misma distribucin de probabilidad que llamaremos
m(x). Calculemos la funcin de distribucin de probabilidad
para S2 = X1 + X2.

P( S 2 s)

m( X

k ) m( X 2 s k )

(....)

Si quisiramos calcular S3 = X1 + X2 + X3 , tendramos:

(...)

Este es el resultado
grfico para la suma
S10 de 10 dados.

Y estos son los resultados


grficos para las sumas
S20 y S30 de 20 y 30 dados,
respectivamente.
Observemos que, a medida
que aumenta el nmero
de dados, tenemos una
curva que se aproxima
ms y ms a una campana
de Gauss, a una normal.
Veremos por qu ms
adelante, cuando hablemos
del teorema central del
lmite.
6

Suma de variables aleatorias continuas


Si X e Y son dos variables aleatorias continuas e
independientes con funciones densidad de probabilidad
f(x) y g(x) respectivamente, la variable aleatoria Z = X + Y,
tendr como densidad de probabilidad la convolucin
de f y g:

( f g )( z ) f ( z y ) g ( y )dy

g ( z x) f ( x)dx
7

Suma de dos variables aleatorias uniformes


independientes

Dos distribuciones
uniformes U(0,1).
Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.
8

f Z ( z ) f X ( z y )dy
0

Observa que, como X e Y varan entre 0 y 1, su suma Z variar entre 0 y 2.

Convolucin de dos densidades de probabilidad


uniformes U(0,1).
10

Suma de dos variables aleatorias


exponenciales independientes

Dos densidades
de probabilidad
exponenciales
Exp().

11

Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.

Convolucin de dos
densidades de probabilidad
exponenciales Exp().

12

Suma de dos variables aleatorias


normales independientes

Dos densidades de probabilidad normales


tipificadas N(0,1).
13

Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.

Normalizacin
de N(0, 2)

El resultado es una normal de media 0 y varianza 2, N(0,2)


14

Suma de n variables aleatorias independientes

S n X 1 X 2 ... X n
Teniendo en cuenta que:

S n S n 1 X n
Y que:

f S 2 ( x) f X 1 f X 2 ( x)
Tendremos para n variables aleatorias independientes:

f S n ( x) f X1 f X 2 ... f X n ( x)
15

Recuerda que la convolucin es una operacin conmutativa y asociativa.

Suma de n
uniformes

16

Suma de n
normales

17

Suma de n
exponenciales

18

Teorema central del lmite


En condiciones muy generales la suma de n
variables aleatorias , independientes e
idnticamente distribuidas con media y varianza
distinta de cero 2, tiende a la distribucin normal
a medida que n tiende a infinito.

S n X 1 X 2 ... X n

Otra manera de enunciarlo: bajo las mismas condiciones, si n


es suficientemente grande
se distribuye como una normal N(, 2/n)
19

Desigualdad de Chebyshev (1821-1894)


Una varianza pequea indica que las desviaciones grandes
alrededor de la media son improbables. La desigualdad de
Chebyshev hace precisa esta impresin:

P ( x k ) 1 k
O bien, haciendo:

P( x )
2

Pafnuti Lvovic Cebicev


(1821-1894)
20

Demostracin:

2 f ( x ) dx

f ( x)dx
2

2 f ( x)dx

f ( x)dx

P x

P x
2

Para el caso discreto la demostracin es semejante.

21

Ley de los grandes nmeros (en forma dbil)


Sean X1, X2, ..., Xn variables aleatorias
independientes, con la misma distribucin (misma
media y varianza 2). Entonces, para
Sn = X1 + X2 + ... + Xn y cualquier real > 0:
La frase "ley de los grandes nmeros"
es tambin usada ocasionalmente para
referirse al principio de que la
probabilidad de que cualquier evento
posible (incluso uno improbable) ocurra
al menos una vez en una serie,
incrementa con el nmero de eventos en
la serie. Por ejemplo, la probabilidad de
que un individuo gane la lotera es
bastante baja; sin embargo, la
probabilidad de que alguien gane la
lotera es bastante alta, suponiendo que
suficientes personas comprasen boletos
de lotera. Wikipedia

Sn

lim P
0
n
n

o de forma equivalent e :
Sn

lim P
1
n
n

23

Demostracin:

Var

S n n 2 2
S n n
; E

2

n
n
n
n
n

Sn

P
2
n
n
2

Usando la desigualdad
de Chebyshev y fijado
un psiln:

Sn

lim P
0
n
n

o de forma equivalent e :
Sn

lim P
1
n
n

24

Observa que Sn/n es un promedio y por eso a la ley de


los grandes nmeros suele conocerse tambin como
ley de los promedios.
Hemos visto su "forma dbil". En su "forma fuerte" nos
dice que si repetimos el lanzamiento de una moneda, la
proporcin de caras se aproxima ms y ms a 1/2 a
medida que aumentamos el nmero de lanzamientos.
Si Sn es el nmero de caras en n lanzamientos, la ley
fuerte de los grandes nmeros dice que cuando n tiende
a infinito:

1
Sn
P
1
2
n

25

Distribuciones para el nmero de caras en n lanzamientos de una moneda.


La ley de los grandes nmeros predice que el porcentaje de caras para n
grande estar prximo a 1/2.

En las grficas se ha
marcado con puntos
las probabilidades
comprendidas entre
0.45 y 0.55.
Vemos como a medida
que n crece la
distribucin se
concentra ms y ms
alrededor de 0.5 y el
porcentaje de rea
correspondiente al
intervalo (0.45, 0.55)
se hace ms y ms
grande.

26

Supongamos que tomamos al azar n nmeros del intervalo


[0,1] con una distribucin uniforme. Si la variable aleatoria
Xi describe la eleccin i-sima, tenemos:

1
1
2
E X i ; Var X i
2
12
2
S
S
1

1
n
n
E
Var

;

n 12n
n 2
n
De modo que, para cualquier > 0, tendremos:

Sn
2
1
P
2
2
n

12
n

Es decir, si escogemos al azar n nmeros del intervalo [0,1],


las probabilidades son mejores que 1 - 1/(12n2) de que
la diferencia |Sn/n - 1/2| sea menor que . 27

Grficos semejantes al caso del lanzamiento de n monedas anterior,


pero ahora con la suma de n valores independientes tomados de una
U(0,1). Rigen los mismos comentarios.

28

Una aplicacin al Mtodo de Monte Carlo


Sea g(x) una funcin
continua definida en
el intervalo [0,1] y con
imagen en [0,1].
Vimos cmo estimar
el rea bajo la funcin,
su integral, generando
pares de nmeros (x,y)
al azar.
Existe una forma ms
eficiente de calcular la
integral basndose en
la ley de los grandes nmeros.
29

Escojamos una gran cantidad de nmeros Xn al azar del


intervalo [0,1] con densidad uniforme. Definamos Yn = g (Xn).
El valor esperado de Yn es una estimacin del rea.
1

E (Yn ) g ( x) f ( x)dx g ( x)dx

E (Yn ) g ( x) dx 1
2

Como el dominio y la imagen de g(x) son el intervalo [0,1],


la media estar en [0,1] tambin y |g(x)- | 1.

Y1 Y2 ... Yn

1
P
2 2
n
n

n
2

Que podemos leer como: la diferencia entre el rea estimada


y la real, el error que cometemos, es mayor que psilon con
30
probabilidad 1/n2.

31

También podría gustarte