Está en la página 1de 15

CONVERGENCIA Y TEOREMAS LMITE

1. Convergencia de sucesiones de variables aleatoria


Convergencia casi-segura
Convergencia en probabilidad
Convergencia en media cuadrtica
Convergencia en ley ( o distribucin)

2. Leyes de los grandes nmeros. Teoremas lmite

3. Ley dbil de los grandes nmeros


Teorema de Chebyschev
Teorema de Khintchine
Teorema de Bernouilli.

4. Ley fuerte de los grandes nmeros


Teorema de Kolmogorov.
Teorema de Glivenko-Cantelli

5. Teoremas Centrales del Lmite


Teorema de Moivre
Teorema Central del lmite; Forma de Lyapounov
Teorema Central del Lmite ; Forma Lindeberg-Lvy
Teorema Central del Lmite ; convergencia de la distribucin de Poisson
Apndice 1:Correccin por convergencia discreta-continua.
Apndice 2. Utilizacin de convergencias en el caso de Binomial y Poisson

En este captulo nos vamos a ocupar de los tipos de problemas relacionados. Por un lado
vamos a analizar la justificacin de la estabilidad de las proporciones de realizacin de
un suceso en torno a su probabilidad; y, por otro vamos a analizar distintos resultados en
el lmite de las distribuciones de probabilidad. El primer aspecto se ocupan las llamadas
leyes de los grandes nmeros, y del segundo los teoremas de convergencia, el ms
importante de los cuales es el teoremas centrales del lmite.

1-.Convergencia de sucesiones de variables aleatorias.


Consideramos una sucesin infinita de variables aleatorias {Xn}n=1 : {X1,X2,,Xn,}
Donde cada Xi es una variable aleatoria con su correspondiente distribucin de
probabilidad. , puede darse el caso que la sucesin converja a una variable aleatoria
(lmite) X , con una distribucin de probabilidad asociada.

Por ejemplo: {Xn} con Xn B(n,p) para n=1,2,.
n=1

As, y definidas todas las variables aleatorias que componen la sucesin sobre el
mismo espacio probabilstico ; dicha sucesin podr converger a una variable aleatoria
X de distintas maneras o tipos :

1
J.Lejarza & I.Lejarza
Convergencia casi-segura
Convergencia en probabilidad
Convergencia en media cuadrtica
Convergencia en ley ( o distribucin)
As :

CONVERGENCIA CASI SEGURA.



Una sucesin de variables aleatorias, {Xn} , converge con probabilidad 1, o de
n=1
forma casi segura, a una variable aleatoria X ( que puede degenerar en una constante K)
cuando se cumple que:

P(lim xn X ) 1
n

de esta forma interpretaremos que x n c.s X cuando la probabilidad


de que en el lmite la sucesin de variables aleatorias y aquella a la que converge sean
iguales es uno

CONVERGENCIA EN PROBABILIDAD:


Una sucesin de variables aleatorias, {Xn} , converge en probabilidad a una
n=1
variable aleatoria X ( que puede degenerar en una constante K) cuando se cumple que:

>0 lim P xn x 0 o bien considerando su complementario


n

lim P xn x 1
n

de esta forma interpretaremos que x n


p. X cuando en el lmite , la probabilidad de
que sucesin de variables aleatorias y aquella a la que converge difieran (en valor
absoluto) en un valor mayor (pequeo) es cero ( o complementariamente). Ha de
tenerse en cuenta en este caso que la sucesin slo implica a la sucesin de las
probabilidades de los sucesos y no a las variables en sentido matemtico

CONVERGENCIA EN MEDIA CADRTICA


Una sucesin de variables aleatorias, {Xn} , converge en media cuadrtica a una
n=1
variable aleatoria X (que puede degenerar en una constante K) cuando se cumple que:


lim E ( xn x) 2
n
0

2
J.Lejarza & I.Lejarza
de esta forma interpretaremos que x n
m2 X

cuando en el lmite ,la dispersin de
la sucesin de variables aleatorias tomando como origen de sta la variable a la que
converge es 0. Es de importancia notar que pueden plantearse diversos tipos de
convergencias en media dependiendo del orden r del exponente (en este caso 2)

CONVERGENCIA EN LEY ( O EN DISTRIBUCIN)



Una sucesin de variables aleatorias, {Xn} , converge en ley o en distribucin a una
n=1
variable aleatoria X (que puede degenerar en una constante K) cuando se cumpla alguna
de las siguientes condiciones , en el convencimiento de que si se cumple una se
cumplirn las restantes :
a) Si para toda funcin real g se verifica que :

limEgxn Egx
n
b) Si para todo nmero real t se cumple que :

limE et x n E e
tx

n
c) Si para todo par de puntos a y b ; tales que b > a se cumple que :

lim P(a x n b) lim F x n (b) F x n (a) P(a x b) F x (a) F x (b)


n n

d) Si para todo punto de X en el que las funciones de distribucin de las


variables de la sucesin sean continuas , se cumplir que:

lim F ( xn ) F ( x)
n

de esta forma interpretaremos que x n


d X cuando en el lmite el comportamiento
de la funcin de distribucin de la sucesin de variables aleatorias y la de aquella a la
que converge son iguales .

Existen relaciones de implicacin (demostrables) entre los diversos tipos de


convergencia :
As
La convergencia en media cuadrtica implica la convergencia en probabilidad , no
siendo cierto (generalmente) el comportamiento inverso :
Luego x n m2 X

si x n
p. X
no
La convergencia casi segura implica la convergencia en probabilidad , no siendo cierto
(generalmente) el planteamiento inverso :
Luego x n c.s X si x n
p. X
no

3
J.Lejarza & I.Lejarza
La convergencia en probabilidad implica la convergencia en distribucin , no siendo
cierto (generalmente) el planteamiento contrario :
Luego x n p. X si x n
d X
no

Esquemticamente quedara :

Convergencia
casi segura

Convergencia Convergencia en
en distribucin
probabilidad

Convergencia
en media
cuadrtica

2.- Leyes de los grandes nmeros. Teoremas lmite

Reciben el nombre de leyes de los grande nmeros aquellas que parten del
comportamiento asinttico de la variable ; que no es otra cosa que el valor medio
n
de las n variables que componen una sucesin ; As si estamos ante una sucesin

n x1 x 2 n x n
.....
{Xn} establecemos que
n=1

el comportamiento de n da lugar a las denominadas leyes de los grandes nmeros ,


de manera que si la convergencia es en "probabilidad" , la forma en la que se explicite
esta , dar lugar a una ley dbil de los grandes nmeros . Si la convergencia que se da es
en forma "casi segura" la ley que a la que de lugar se conocer como ley fuerte de los
grandes nmeros . Y , por ltimo , si la convergencia a que da lugar el planteamiento lo
es en "distribucin" , y adems esta es normal , dar lugar a lo que conocemos como
teoremas centrales del lmite.
Convergencia en probabilidad ----- ley dbil de los grandes nmeros
Convergencia casi segura ---implica-- Convergencia en probabilidad -- ley fuerte de
los grandes nmeros.
Convergencia el distribucin (normal) ----teoremas centrales del lmite

4
J.Lejarza & I.Lejarza
3.- Ley dbil de los grandes nmeros

Explicitando lo antes citado; Una sucesin de variables aleatorias {Xn}
n=1

cumple la ley dbil de los grandes nmeros si dada una sucesin de constantes {Cn}
n=1

la variable 1
x x 2 ..... x n se verifica que c n es decir se
p
n n n
cumpla que

lim Pn c n 1
n
pudindose interpretar como que para un valor muy alto de n (en el lmite) no deben
existir diferencias entre el valor medio de una sucesin y una determinada constante.
Dentro de la ley dbil de los grandes nmeros se pueden establecer algunos teoremas
importantes y que enunciamos sin demostrar .

Teorema de Chebyschev

Partiendo del planteamiento general , es decir que dada una sucesin {Xn}
n=1

Tal que concretamos 1


x x 2 ..... x n el teorema de Chebyshev hace
E
n n
verificar que n
p
n
o lo que es lo mismo n
p
n

Dado que p se podra comprobar que


lim P n E n 0
n

en el limite la probabilidad de que haya diferencias entre la variable valor medio de la


sucesin y el valor esperado de la variable valor medio de dicha sucesin es cero ; como
caso particular que ayuda a comprender esta situacin mejor tendramos que : si las
variables aleatorias de la sucesin tienen todas la misma distribucin , la variable
(valor medio de la sucesin) converge en probabilidad a la media de la distribucin
n
comn ,

Teorema de Khintchine

El teorema se basa en las mismas condiciones de partida que el de Chebyshev ,


incidiendo adems en que las variables que forman la sucesin han de ser
independientes y todas con una misma y comn distribucin de probabilidad ; si as
ocurre se puede demostrar que :
n
p
siendo la media comn a las variables que forman la sucesin
Evidentemente , y por lo enunciado , puede tomarse este teorema como el caso
particular (ya citado) del teorema de Chebyshev

5
J.Lejarza & I.Lejarza
Es posible generalizar el teorema de Kintchine para todos los momentos ordinarios y no
a r r
p
slo para la media con lo que tendremos que : es decir la variable
momento ordinario de orden r de la sucesin converge en probabilidad al momento de
orden r de la distribucin comn a todas las variables que forman la sucesin.

Teorema de Bernouilli.

Con el mismo planteamiento que el anterior , es decir ;



Dada una sucesin de variables aleatorias {Xn}
n=1

Y estableciendo una nueva variable


x1 x 2 ..... x n
n n
Y siendo ,en este caso, las variables que forman la sucesin dicotmicas de parmetro p

n
p
p

lim Pn p 0
El teorema de Bernouilli plantea que

o de otra manera
n
Es decir , que la variable media de la sucesin de dicotmicas de parmetro p converge
en probabilidad al parmetro p comn a todas ellas

De otro modo podramos plantear la sucesin de (n) dicotmicas de parmetro p como



una binomial y as: la sucesin {Xn} sera una B(X, n, p) donde la variable
n=1

aleatoria anterior 1
x x 2 ..... x n sera , ahora , la razn frecuencial de
n n
xitos o frecuencia relativa del suceso , X/n ; de esta manera el teorema de Bernouilli
nos dira que:
X
lim P p
X p
0 lo que es lo mismo p
n
n

n
es decir, "la razn frecuencial de xitos converge en probabilidad a la probabilidad
de xito de una binomial"

Para demostrarlo partimos de la conocida desigualdad de Chebyshev , as:

n
k 0 P ( k x k ) 1 haciendo k
1

k pq
2

y dado que conocemos que en la binomial =pq y n pq

6
J.Lejarza & I.Lejarza
pq
tendremos que : P( n p n x n p n) 1
n
2

dividiendo por n (los miembros del primer trmino) y despejando tendramos:

x pq
P p 1
n
o lo que es lo mismo
n 2

x pq
P p y dado que el valor mximo de pq=0,4
n 2n
tendremos que
x
(1) P p
1
4 2n
y que evidentemente tiende a 0 cuando n tiende a
n
X p
infinito y demuestra que p
n

Como curiosidad ,se ha establecido en (1) una cota de probabilidad que nos permite
calcular la probabilidad mxima con la que diferirn en una determinada cantidad la
"razn frecuencial de xitos" y la "probabilidad de xito" de una binomial .
As , y como ejemplo , nos planteamos;
Si nos planteamos que la probabilidad sea inferior a 0,10 , para el hecho de que , al
lanzar una moneda con el nimo de conseguir caras , la diferencia entre las que han
salido y las que debieran haber salido (la mitad) sea superior al 2% ,.Cuntas veces
debemos de lanzar la moneda?

Nos planteamos conocer n (nmero de lanzamientos) , despejando de (1)

Tendremos n 6250 veces lanzaremos para que


1 1
x 2 40,1
4 P p
2
0,02
n
la diferencia entre el nmero de caras que han de salir (3125) y las que verdaderamente
saldrn , sea mayor del 2% (mas, menos 125 caras) ,con una probabilidad inferior a 0,1.

Es conveniente , por ltimo , precisar , que el teorema de Bernouilli demuestra la


estabilidad de las frecuencias relativas de xito entorno a la probabilidad de xito , no
asegurando que sea la verdadera probabilidad de xito la derivada de las frecuencias
relativas de xito

4.-Ley fuerte de los grandes nmeros



Una sucesin {Xn} se comporta u obedece la ley fuerte de los grandes si
n=1

existiendo dos sucesiones de constantes {a n} y {b n}
n=1 n=1

7
J.Lejarza & I.Lejarza
La nueva variable n x1 x 2 ..... x n en combinacin con las sucesiones de

n a n c.s.

0
bn
constantes

Relevantemente , sea a n ... la suma de constantes cada una de ellas


1 2 n

la media de cada una de las variables de la sucesin {Xn}
n=1

Y: bn n

a n 1 2 ... n
Tenemos , adems que
n n n

n x1 x 2 n x n
.....
Dado que
n x1 x 2
..... x n y por lo que :

n

n n

n an n an n

c.s.
0
bn
As
n n n n n n
Explicitndose de manera ms simple la ley fuerte de los grandes nmeros.
Dentro de la ley fuerte de los grandes nmeros se pueden establecer algunos teoremas
importantes y que enunciamos sin demostrar .

Teorema de Kolmogorov.

Dada una sucesin de variables aleatorias independientes {Xn}
n=1
con medias n
Y varianza n : establecindose que :
2

se cumple que existe ley fuerte de los grandes nmeros ; as

o bien n

c.s.
n

Por lo que la variable aleatoria media de una sucesin converge de manera casi segura a
la media de las medias de las variables que forman la sucesin .

8
J.Lejarza & I.Lejarza
Teorema de Glivenko-Cantelli

Si consideramos una muestra como una sucesin de variables aleatorias {Xn}
n=1
que procede de ser un subconjunto de la poblacin , tomada sta como otra sucesin de
tamao mayor (mximo-completa-segura) . Evidentemente con la misma funcin de
probabilidad para todas las variables de la sucesin (muestra) ; el teorema de Glivenko-
Cantelli nos indica que la funcin de distribucin de probabilidad comn a las variables
de la sucesin muestra , convergen de manera "casi segura" a la verdadera funcin de
distribucin de la poblacin , as :

Si denominamos DI a las mximas diferencias que pueden existir entre los valores que
proporciona una funcin de distribucin (muestra-sucesin) y otra (funcin de
DI n sup F n ( x) F
muestra poblacin
distribucin de la poblacin) tendremos
x

que se cumple que P lim DI n 0 1 DI n
c.s.
0

luego
n

5.- Teoremas centrales de lmite

La que podemos denominar familia de los teoremas lmite tiene como punto de partida
la siguiente situacin :

Si estamos ante una sucesin de variables aleatorias {Xn}
n=1
Y establecemos que x1 x 2 ... n n se cumplir que:

n E n d
n

n N 0,1 es la desviacin tpica y tiene carcter


en donde D
D
n
n
finito :

de otra , manera podemos decir que la tipificada de la variable aleatoria suma de


variables aleatorias de una sucesin converge en "distribucin" a una normal 0,1.

Teorema de Moivre

Es el primer teorema central del lmite , histricamente hablando(1756).



Dada una sucesin de variables aleatorias {Xn}
n=1
De manera que cada una de ellas tenga una distribucin x n B n, p donde p=q=0,5
(Moivre introdujo la restriccin p=q=0,5 , que no es necesaria tras la generalizacin del


teorema por Laplace)

se establece que la nueva variable sucesin n


x E x n x n n p d
N 0,1
n Dx n n pq

9
J.Lejarza & I.Lejarza
Lo demostraremos mediante la convergencia de la F.G.M.

As la F.G.M de las variables de la sucesin (binomiales) Xn sern del tipo:


x n (t ) pet q
n
en consecuencia la F.G.M. de la sucesin n ser :

n
t
(t ) e
t
pe q
n

t2
Pudindose probar que lim n e 2 que es la F.G.M. de la N[0,1]
n
Del teorema de Moivre-Laplace se deduce fcilmente que una distribucin binomial
puede aproximarse a una distribucin normal de media np y desviacin tpica n pq
cuando n tienda a infinito

Teorema Central del lmite; Forma de Lyapounov

Se trata de la primera (1901) demostracin rigurosa de un teorema central del lmite


,aunque como dijimos antes la forma de Moivre es anterior es solo vlida para el caso de
distribuciones binomiales. As


Dada una sucesin de variables aleatorias {Xn} independientes de manera que las

x i i D x i i
n=1
variables tendrn de medias y varianzas : E
2 2
y tendremos
que:

n n
xi i
La sucesin definida como : i 1 i 1
n n n
i
2

i 1
converge en distribucin a una N[0,1]

Teorema Central del lmite ; Forma Lindeberg-Lvy

En cierto modo es un caso particular de la forma de Lyapounov dado que las premisas
previas son ms restrictivas ; as

10
J.Lejarza & I.Lejarza

Dada una sucesin de variables aleatorias {Xn} independientes y con la misma
n=1
distribucin de manera que las variables tendrn la misma media y varianza :
E x i D x i
2 2
y tendremos que:
n
x i n
La sucesin definida como : i 1
n n n

converge en distribucin a una N[0,1]

x i N n ;
n
de donde n : es decir , que si sumamos un gran nmero de
i 1
variables aleatorias independientes e igualmente distribuidas , con la misma media y
varianza ; esta suma se distribuir normalmente con media n veces la media comn y ,
desviacin tpica raz cuadrada de n veces la desviacin tpica comn
Para demostrar este teorema vamos aprobar que la F.G.M . de tiende a la F.G.M.
n
de una distribucin Normal reducida cuando n tiende a infinito ; esto es :

t2
lim e 2
n
para ello consideramos las nuevas variables tales que :

n
wi x i para i = 1,2,3,......n de manera que

n x i n wi
n n n como todas las X son estocsticamente independientes y
i 1 i 1
estn idnticamente distribuidas , las wi tambin sern independientes y en
consecuencia tendrn la misma distribucin ; as y en consecuencia la F.G.M. de
n
n
n
t t
ser: (t ) ( ) (

wi
n
)
n
por lo que debemos obtener
w
i 1 i n

primero :

t
t wi
wi ( ) E e n
n
desarrollando en serie tendremos:


t t t t

2
wi ( ) E 1 wi w
2 i
2

n n 2n n

11
J.Lejarza & I.Lejarza
E wi t E wi E
t t
2
1
2
2 n
dado que :
n 2
n

E wi 0 y E wi 2 2
tendremos que

n
t2 t
(t ) 1 E
n
2n n
si tomamos lmites cuan n tiende a infinito la funcin es un infinitsimo de orden

t
2
superior a y por tanto :
2n
n
t2
n
lim (t ) lim 1 E t 2
lim1 t
t2
2n e 2
2n n
n
n
n

n

que es la expresin de la F.G.M. de la Normal (0;1).


Esta demostracin es slo valida para el caso en el que las F.G.M. existan ; si no fuera
as utilizaramos de manera anloga las funciones caractersticas.

Del propio teorema central del lmite en forma Lindeberg-Lvy se infiere , lo que
podramos denominar su versin en media ; as

Dada una sucesin de variables aleatorias {Xn} independientes y con la misma
n=1
distribucin de manera que las variables tendrn la misma media y varianza :
E x i D x i y tenemos la sucesin :
2 2
y

n
xi
i n
es decir, la media de la sucesin ; y dado que conocemos por Lindeberg-
i 1
n
x i n
Lvy que : La sucesin definida como : i 1
n n n

converge en distribucin a una N[0,1] luego para la nueva sucesin tendremos que:
n
i
La sucesin n definida como :
n
i 1

converge en distribucin a una
n
N[0,1]

12
J.Lejarza & I.Lejarza
n
x i
i
d
de donde N ; : es decir , que la media aritmtica de un gran
i 1
n n
nmero de variables aleatorias independientes e igualmente distribuidas , con la misma
media y varianza ; se distribuir normalmente con media la media comn y ,
desviacin tpica , la desviacin tpica comn dividida por raz de n.
La gran importancia de esta convergencia y forma del teorema , radica en su
aplicabilidad en la relacin muestra-poblacin , y as podemos establecer que : "sea cual
fuere la distribucin de la poblacin, si extraemos una muestra aleatoria de suficiente
tamao, y de forma que las extracciones sean independientes entre s; la media de esta
muestra tiende a una normal, con media la media de la poblacin, y desviacin tpica, la
desviacin tpica de la poblacin dividida por la raz del tamao muestral".

Teorema central del lmite ; convergencia de la distribucin de Poisson

Realmente se trata de un caso particular de aplicacin del T.C.L. forma Lindeberg-Lvy


; la particularidad reside en que las variables aleatorias que forman la sucesin son o se
distribuyen segn una Poisson de parmetro . El hecho de que lo tratemos aqu radica
en su utilidad y practicidad , y as:

Dada una sucesin de variables aleatorias {Xn} donde Xi Poisson() por lo
n=1
que la media comn es y su varianza comn , tambin

En aplicacin del TCL tendremos que


n
x i n
La sucesin definida como : i 1
n n n

converge en distribucin a una N[0,1]

Dado que la distribucin de Poisson cumple el teorema de adicin para el parmetro ,


tendremos que:

x i J j n
n
de donde conoceremos que j j n n y la
i 1
desviacin tpica ser j j n n

J n J j
por lo que N 0,1
d

n n j
De donde se deduce que una distribucin de Poisson cuando tiende a infinito
converge a una normal con media y desviacin tpica raz de

Apndice 1:

Correccin por convergencia discreta-continua

13
J.Lejarza & I.Lejarza
Hemos comprobado cmo es posible que ciertas distribuciones discretas (binomial ,
Poisson, etc..) converjan a otra distribucin , principalmente la normal ,que es de
carcter continuo. El hecho de utilizar la distribucin normal (funcin de distribucin)
(continua) para la consecucin de probabilidades que parten de un escenario real
discreto hace que en ocasiones las probabilidades calculadas no se ajusten o aproximen
correctamente a las que hubisemos obtenido sin aplicar la convergencia. Es , por ello
,que es necesario realizar unas pequeas correcciones que denominamos de
convergencia discreta -continua. Ilustremos dichas correcciones con un ejemplo:

Supongamos que la variable aleatoria X sigue una Poisson de parmetro =100 y


pretendemos calcular la probabilidad de que X tome valores inferiores o iguales a 95 ;
sera

P ( x 95) e
xi
95
X (100)
xi!
siendo dicho resultado realizado
i 1
directamente el valor 0,33119174
dado que nos encontramos con una Poisson de =100 podemos aplicar la convergencia

Poisson-Normal y as X N 100; 100
por lo que la probabilidad pedida, quedara :
95 100
P ( x 95) P t P t 0,5 cuyo valor es 0,309
10
se observa que ambos valores discrepan ; si bien , claro est , estamos utilizando una
aproximacin, las diferencias entre valores parecen excesivas y pueden mejorarse.
El error cometido parece estar en la diferencia de utilizacin discreta-continua. En la
utilizacin de la distribucin de Poisson estaba incluido el valor 95 , en el caso de la
normal no se llegaba a dicho valor, precisamente por su carcter continuo.
Supongamos en una grfico ambas actuaciones , en el grfico de la siguiente pgina:

Queda , como se observa , una zona que no contempla la funcin continua por ello ,en
este caso , es conveniente ampliar la zona para la que se va a calcular su
superficie(probabilidad) tomando no 95 si no 95,5 , de esta manera quedara incluida la
probabilidad hasta el valor 95 inclusive , as:

95,5 100
P ( x 95) P t Pt 0,45 cuyo resultado es 0,326 , mucho ms
10
prximo al verdadero valor sin aplicar convergencia.

14
J.Lejarza & I.Lejarza
Grfico aproximacin discreta / continua

Apndice 2. Utilizacin de convergencias en el caso de Binomial y Poisson

Para aclarar la utilizacin de las convergencias en los casos de distribuciones de Poisson


y Binomial ; ya que conocemos el teorema de Moivre , la convergencia de la
distribucin de Poisson y la anteriormente conocida Binomial-Poisson , establecemos
los siguientes criterios y posibilidades.

a) Si n 50 y p < 0,1 la distribucin Binomial podr aproximarse bien por la


Poisson
b) Siempre que el parmetro n se grande y p no sea pequea (p >0,1) debemos
aproximar por la distribucin normal
c) Si p es pequeo pero el producto npq es grande ( npq>5) ser preferible la
aproximacin Normal a la aproximacin por Poisson

15
J.Lejarza & I.Lejarza

También podría gustarte