Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TCL PDF
TCL PDF
En este captulo nos vamos a ocupar de los tipos de problemas relacionados. Por un lado
vamos a analizar la justificacin de la estabilidad de las proporciones de realizacin de
un suceso en torno a su probabilidad; y, por otro vamos a analizar distintos resultados en
el lmite de las distribuciones de probabilidad. El primer aspecto se ocupan las llamadas
leyes de los grandes nmeros, y del segundo los teoremas de convergencia, el ms
importante de los cuales es el teoremas centrales del lmite.
Consideramos una sucesin infinita de variables aleatorias {Xn}n=1 : {X1,X2,,Xn,}
Donde cada Xi es una variable aleatoria con su correspondiente distribucin de
probabilidad. , puede darse el caso que la sucesin converja a una variable aleatoria
(lmite) X , con una distribucin de probabilidad asociada.
Por ejemplo: {Xn} con Xn B(n,p) para n=1,2,.
n=1
As, y definidas todas las variables aleatorias que componen la sucesin sobre el
mismo espacio probabilstico ; dicha sucesin podr converger a una variable aleatoria
X de distintas maneras o tipos :
1
J.Lejarza & I.Lejarza
Convergencia casi-segura
Convergencia en probabilidad
Convergencia en media cuadrtica
Convergencia en ley ( o distribucin)
As :
P(lim xn X ) 1
n
CONVERGENCIA EN PROBABILIDAD:
Una sucesin de variables aleatorias, {Xn} , converge en probabilidad a una
n=1
variable aleatoria X ( que puede degenerar en una constante K) cuando se cumple que:
lim P xn x 1
n
Una sucesin de variables aleatorias, {Xn} , converge en media cuadrtica a una
n=1
variable aleatoria X (que puede degenerar en una constante K) cuando se cumple que:
lim E ( xn x) 2
n
0
2
J.Lejarza & I.Lejarza
de esta forma interpretaremos que x n
m2 X
cuando en el lmite ,la dispersin de
la sucesin de variables aleatorias tomando como origen de sta la variable a la que
converge es 0. Es de importancia notar que pueden plantearse diversos tipos de
convergencias en media dependiendo del orden r del exponente (en este caso 2)
limEgxn Egx
n
b) Si para todo nmero real t se cumple que :
limE et x n E e
tx
n
c) Si para todo par de puntos a y b ; tales que b > a se cumple que :
lim F ( xn ) F ( x)
n
3
J.Lejarza & I.Lejarza
La convergencia en probabilidad implica la convergencia en distribucin , no siendo
cierto (generalmente) el planteamiento contrario :
Luego x n p. X si x n
d X
no
Esquemticamente quedara :
Convergencia
casi segura
Convergencia Convergencia en
en distribucin
probabilidad
Convergencia
en media
cuadrtica
Reciben el nombre de leyes de los grande nmeros aquellas que parten del
comportamiento asinttico de la variable ; que no es otra cosa que el valor medio
n
de las n variables que componen una sucesin ; As si estamos ante una sucesin
n x1 x 2 n x n
.....
{Xn} establecemos que
n=1
4
J.Lejarza & I.Lejarza
3.- Ley dbil de los grandes nmeros
Explicitando lo antes citado; Una sucesin de variables aleatorias {Xn}
n=1
cumple la ley dbil de los grandes nmeros si dada una sucesin de constantes {Cn}
n=1
la variable 1
x x 2 ..... x n se verifica que c n es decir se
p
n n n
cumpla que
lim Pn c n 1
n
pudindose interpretar como que para un valor muy alto de n (en el lmite) no deben
existir diferencias entre el valor medio de una sucesin y una determinada constante.
Dentro de la ley dbil de los grandes nmeros se pueden establecer algunos teoremas
importantes y que enunciamos sin demostrar .
Teorema de Chebyschev
Partiendo del planteamiento general , es decir que dada una sucesin {Xn}
n=1
Teorema de Khintchine
5
J.Lejarza & I.Lejarza
Es posible generalizar el teorema de Kintchine para todos los momentos ordinarios y no
a r r
p
slo para la media con lo que tendremos que : es decir la variable
momento ordinario de orden r de la sucesin converge en probabilidad al momento de
orden r de la distribucin comn a todas las variables que forman la sucesin.
Teorema de Bernouilli.
n
p
p
lim Pn p 0
El teorema de Bernouilli plantea que
o de otra manera
n
Es decir , que la variable media de la sucesin de dicotmicas de parmetro p converge
en probabilidad al parmetro p comn a todas ellas
aleatoria anterior 1
x x 2 ..... x n sera , ahora , la razn frecuencial de
n n
xitos o frecuencia relativa del suceso , X/n ; de esta manera el teorema de Bernouilli
nos dira que:
X
lim P p
X p
0 lo que es lo mismo p
n
n
n
es decir, "la razn frecuencial de xitos converge en probabilidad a la probabilidad
de xito de una binomial"
n
k 0 P ( k x k ) 1 haciendo k
1
k pq
2
6
J.Lejarza & I.Lejarza
pq
tendremos que : P( n p n x n p n) 1
n
2
x pq
P p 1
n
o lo que es lo mismo
n 2
x pq
P p y dado que el valor mximo de pq=0,4
n 2n
tendremos que
x
(1) P p
1
4 2n
y que evidentemente tiende a 0 cuando n tiende a
n
X p
infinito y demuestra que p
n
Como curiosidad ,se ha establecido en (1) una cota de probabilidad que nos permite
calcular la probabilidad mxima con la que diferirn en una determinada cantidad la
"razn frecuencial de xitos" y la "probabilidad de xito" de una binomial .
As , y como ejemplo , nos planteamos;
Si nos planteamos que la probabilidad sea inferior a 0,10 , para el hecho de que , al
lanzar una moneda con el nimo de conseguir caras , la diferencia entre las que han
salido y las que debieran haber salido (la mitad) sea superior al 2% ,.Cuntas veces
debemos de lanzar la moneda?
7
J.Lejarza & I.Lejarza
La nueva variable n x1 x 2 ..... x n en combinacin con las sucesiones de
n a n c.s.
0
bn
constantes
Y: bn n
a n 1 2 ... n
Tenemos , adems que
n n n
n x1 x 2 n x n
.....
Dado que
n x1 x 2
..... x n y por lo que :
n
n n
n an n an n
c.s.
0
bn
As
n n n n n n
Explicitndose de manera ms simple la ley fuerte de los grandes nmeros.
Dentro de la ley fuerte de los grandes nmeros se pueden establecer algunos teoremas
importantes y que enunciamos sin demostrar .
Teorema de Kolmogorov.
Dada una sucesin de variables aleatorias independientes {Xn}
n=1
con medias n
Y varianza n : establecindose que :
2
o bien n
c.s.
n
Por lo que la variable aleatoria media de una sucesin converge de manera casi segura a
la media de las medias de las variables que forman la sucesin .
8
J.Lejarza & I.Lejarza
Teorema de Glivenko-Cantelli
Si consideramos una muestra como una sucesin de variables aleatorias {Xn}
n=1
que procede de ser un subconjunto de la poblacin , tomada sta como otra sucesin de
tamao mayor (mximo-completa-segura) . Evidentemente con la misma funcin de
probabilidad para todas las variables de la sucesin (muestra) ; el teorema de Glivenko-
Cantelli nos indica que la funcin de distribucin de probabilidad comn a las variables
de la sucesin muestra , convergen de manera "casi segura" a la verdadera funcin de
distribucin de la poblacin , as :
Si denominamos DI a las mximas diferencias que pueden existir entre los valores que
proporciona una funcin de distribucin (muestra-sucesin) y otra (funcin de
DI n sup F n ( x) F
muestra poblacin
distribucin de la poblacin) tendremos
x
que se cumple que P lim DI n 0 1 DI n
c.s.
0
luego
n
La que podemos denominar familia de los teoremas lmite tiene como punto de partida
la siguiente situacin :
Si estamos ante una sucesin de variables aleatorias {Xn}
n=1
Y establecemos que x1 x 2 ... n n se cumplir que:
n E n d
n
Teorema de Moivre
teorema por Laplace)
9
J.Lejarza & I.Lejarza
Lo demostraremos mediante la convergencia de la F.G.M.
x n (t ) pet q
n
en consecuencia la F.G.M. de la sucesin n ser :
n
t
(t ) e
t
pe q
n
t2
Pudindose probar que lim n e 2 que es la F.G.M. de la N[0,1]
n
Del teorema de Moivre-Laplace se deduce fcilmente que una distribucin binomial
puede aproximarse a una distribucin normal de media np y desviacin tpica n pq
cuando n tienda a infinito
Dada una sucesin de variables aleatorias {Xn} independientes de manera que las
x i i D x i i
n=1
variables tendrn de medias y varianzas : E
2 2
y tendremos
que:
n n
xi i
La sucesin definida como : i 1 i 1
n n n
i
2
i 1
converge en distribucin a una N[0,1]
En cierto modo es un caso particular de la forma de Lyapounov dado que las premisas
previas son ms restrictivas ; as
10
J.Lejarza & I.Lejarza
Dada una sucesin de variables aleatorias {Xn} independientes y con la misma
n=1
distribucin de manera que las variables tendrn la misma media y varianza :
E x i D x i
2 2
y tendremos que:
n
x i n
La sucesin definida como : i 1
n n n
x i N n ;
n
de donde n : es decir , que si sumamos un gran nmero de
i 1
variables aleatorias independientes e igualmente distribuidas , con la misma media y
varianza ; esta suma se distribuir normalmente con media n veces la media comn y ,
desviacin tpica raz cuadrada de n veces la desviacin tpica comn
Para demostrar este teorema vamos aprobar que la F.G.M . de tiende a la F.G.M.
n
de una distribucin Normal reducida cuando n tiende a infinito ; esto es :
t2
lim e 2
n
para ello consideramos las nuevas variables tales que :
n
wi x i para i = 1,2,3,......n de manera que
n x i n wi
n n n como todas las X son estocsticamente independientes y
i 1 i 1
estn idnticamente distribuidas , las wi tambin sern independientes y en
consecuencia tendrn la misma distribucin ; as y en consecuencia la F.G.M. de
n
n
n
t t
ser: (t ) ( ) (
wi
n
)
n
por lo que debemos obtener
w
i 1 i n
primero :
t
t wi
wi ( ) E e n
n
desarrollando en serie tendremos:
t t t t
2
wi ( ) E 1 wi w
2 i
2
n n 2n n
11
J.Lejarza & I.Lejarza
E wi t E wi E
t t
2
1
2
2 n
dado que :
n 2
n
E wi 0 y E wi 2 2
tendremos que
n
t2 t
(t ) 1 E
n
2n n
si tomamos lmites cuan n tiende a infinito la funcin es un infinitsimo de orden
t
2
superior a y por tanto :
2n
n
t2
n
lim (t ) lim 1 E t 2
lim1 t
t2
2n e 2
2n n
n
n
n
n
Del propio teorema central del lmite en forma Lindeberg-Lvy se infiere , lo que
podramos denominar su versin en media ; as
Dada una sucesin de variables aleatorias {Xn} independientes y con la misma
n=1
distribucin de manera que las variables tendrn la misma media y varianza :
E x i D x i y tenemos la sucesin :
2 2
y
n
xi
i n
es decir, la media de la sucesin ; y dado que conocemos por Lindeberg-
i 1
n
x i n
Lvy que : La sucesin definida como : i 1
n n n
converge en distribucin a una N[0,1] luego para la nueva sucesin tendremos que:
n
i
La sucesin n definida como :
n
i 1
converge en distribucin a una
n
N[0,1]
12
J.Lejarza & I.Lejarza
n
x i
i
d
de donde N ; : es decir , que la media aritmtica de un gran
i 1
n n
nmero de variables aleatorias independientes e igualmente distribuidas , con la misma
media y varianza ; se distribuir normalmente con media la media comn y ,
desviacin tpica , la desviacin tpica comn dividida por raz de n.
La gran importancia de esta convergencia y forma del teorema , radica en su
aplicabilidad en la relacin muestra-poblacin , y as podemos establecer que : "sea cual
fuere la distribucin de la poblacin, si extraemos una muestra aleatoria de suficiente
tamao, y de forma que las extracciones sean independientes entre s; la media de esta
muestra tiende a una normal, con media la media de la poblacin, y desviacin tpica, la
desviacin tpica de la poblacin dividida por la raz del tamao muestral".
x i J j n
n
de donde conoceremos que j j n n y la
i 1
desviacin tpica ser j j n n
J n J j
por lo que N 0,1
d
n n j
De donde se deduce que una distribucin de Poisson cuando tiende a infinito
converge a una normal con media y desviacin tpica raz de
Apndice 1:
13
J.Lejarza & I.Lejarza
Hemos comprobado cmo es posible que ciertas distribuciones discretas (binomial ,
Poisson, etc..) converjan a otra distribucin , principalmente la normal ,que es de
carcter continuo. El hecho de utilizar la distribucin normal (funcin de distribucin)
(continua) para la consecucin de probabilidades que parten de un escenario real
discreto hace que en ocasiones las probabilidades calculadas no se ajusten o aproximen
correctamente a las que hubisemos obtenido sin aplicar la convergencia. Es , por ello
,que es necesario realizar unas pequeas correcciones que denominamos de
convergencia discreta -continua. Ilustremos dichas correcciones con un ejemplo:
P ( x 95) e
xi
95
X (100)
xi!
siendo dicho resultado realizado
i 1
directamente el valor 0,33119174
dado que nos encontramos con una Poisson de =100 podemos aplicar la convergencia
Poisson-Normal y as X N 100; 100
por lo que la probabilidad pedida, quedara :
95 100
P ( x 95) P t P t 0,5 cuyo valor es 0,309
10
se observa que ambos valores discrepan ; si bien , claro est , estamos utilizando una
aproximacin, las diferencias entre valores parecen excesivas y pueden mejorarse.
El error cometido parece estar en la diferencia de utilizacin discreta-continua. En la
utilizacin de la distribucin de Poisson estaba incluido el valor 95 , en el caso de la
normal no se llegaba a dicho valor, precisamente por su carcter continuo.
Supongamos en una grfico ambas actuaciones , en el grfico de la siguiente pgina:
Queda , como se observa , una zona que no contempla la funcin continua por ello ,en
este caso , es conveniente ampliar la zona para la que se va a calcular su
superficie(probabilidad) tomando no 95 si no 95,5 , de esta manera quedara incluida la
probabilidad hasta el valor 95 inclusive , as:
95,5 100
P ( x 95) P t Pt 0,45 cuyo resultado es 0,326 , mucho ms
10
prximo al verdadero valor sin aplicar convergencia.
14
J.Lejarza & I.Lejarza
Grfico aproximacin discreta / continua
15
J.Lejarza & I.Lejarza