Está en la página 1de 27

Capítulo 1

Repaso de convergencia de
sucesiones de variables aleatorias

1.1. Introducción

En este capítulo estudiaremos el comportamiento de sumas y medias de vaiid. La media

que consideramos es la suma entre el número de sumandos, no la esperanza, a la que

también hemos llamado media (pero en este caso, poblacional). Para evitar confusiones,

en este capítulo no llamamos media a la esperanza.

De…niremos distintas nociones de convergencia, y estudiaremos resultados relativos a

límites de medias, como las leyes de los grandes números (LGN) y el teorema central del

límite (TCL).

En los capítulos anteriores se han estudiado distintos aspectos de las v.a. n-dimensiona-

les, ampliando lo ya conocido del caso unidimensional. En este capítulo consideraremos

sucesiones de variables aleatorias, que son v.a. 1-dimensionales. Estudiaremos distintas

cuestiones básicas, para casos restringidos de sucesiones de v.a.. Consideramos casi exclu-

sivamente el caso mas sencillo de sucesiones de v.a., aquel en que las componentes son vaiid.

Para adquirir destreza en las aplicaciones prácticas, no es necesario conocer el fundamento

matemático de la sucesión de v.a. como v.a. 1-dimensional, y solo hacemos unos comen-

tarios al respecto. Es su…ciente considerar v.a. n-dimensionales, para las que estudiamos

1
el comportamiento cuando n tiende a in…nito de funciones de ellas, la media básicamente.

Por ello, haremos solo una mención de las cuestiones mas técnicas, sobre la “convergencia

casi segura” y la “ley fuerte de los grandes números”, sin hacer un estudio mas profundo.

Las cuestiones que se estudian son fundamentales, desde un punto de vista tanto teórico

como práctico, aunque nos centraremos en las aplicaciones prácticas.

Por la novedad y variedad de las nociones y resultados estudiados, el asunto tiene cierta

complejidad.

Sin embargo, la aplicación principal, que no única, de lo que se estudiará en este capí-

tulo, y de la que se ocupan la mayoría de los ejercicios, se puede resumir en una sola frase:

la distribución de una media (o una suma) de muchas vaiid es aproximadamente normal.

Esta aproximación se obtiene a partir del TCL.

No importa cual sea la distribución, común, de las variables, solo es necesario que tengan

esperanza y varianza …nita. Los parámetros de la normal son justamente la esperanza y la

desviación típica de la media (o la suma). La resolución de buena parte de los ejercicios

va a consistir en expresar el problema en términos de una suma o una media de vaiid (que

será lo más complicado del ejercicio), y hacer cálculos mediante la aproximación normal.

En los apartados 2 y 3 se presentan buena parte de las cuestiones principales con

una formulación sencilla. En el apartado 2 se demuestra una versión simple de las LGN,

que sirve como muestra del tipo de resultados que son estas LGN, y en el apartado 3 se

comentan algunos aspectos prácticos del TCL.

Los apartados 4 y 5 son los más teóricos. Se presenta el contexto matemático que

permite una formulación precisa de los resultados. Se exponen algunas generalidades sobre

sucesiones de variables aleatorias y se de…nen diversos modos de convergencia.

En el apartado 6 se enuncian algunas versiones de las LGN.

En el apartado 7 se obtiene una interesante aplicación de las LGN. Se obtiene una

interpretación práctica de la noción de probabilidad que ayudará a entender su signi…cado.

Es especialmente útil para interpretar correctamente distintos resultados de estadística.

En el apartado 8 se enuncia el TCL y se analizan algunos aspectos prácticos, lo que

2
complementa los comentarios hechos en el apartado 3.

Incluimos en esta introducción algunos resultados que son triviales, pero que deben

quedar claros desde el principio porque se van utilizar repetidamente.

Sean X1 ; : : : ; Xn vaiid con esperanza y varianza 2. Consideremos la suma de las v.a.


P
S = ni=1 Xi y la media
n
1X
X= Xi . (1.1)
n
i=1

En ocasiones denotaremos S y X por Sn y X n , cuando queramos expresar explicitamente

la dependencia de estas v.a. del valor de n.

- Obtenemos la esperanza y la varianza de S y de X. Se tiene que

2
E [S] = n , V [S] = n , (1.2)

2
E X = y V X = =n : (1.3)

P P
E [S] = E [ ni=1 Xi ] = ni=1 E [Xi ] = n y (1.4)
P P P
V [S] = V [ ni=1 Xi ] = ni=1 V [Xi ] + Cov = n 2
+0=n 2
, (1.5)

y puesto que X = S=n, se tiene que

1 1 1
E X =E S = E [S] = n = y (1.6)
n n n
2 2
1 1 1 2
V X =V S = V [S] = n = . (1.7)
n n n2 n

- Obsérvese que la distribución de S determina la distribución de X y viceversa,

puesto que X t = fS ntg, y entonces FX (t) = FS (nt).

- Comprobamos que, en general, una v.a. Z tipi…cada coincide con la v.a. T =

aZ + b tipi…cada (con a > 0):

T ET aZ + b E [aZ + b] a (Z E [Z]) a (Z E [Z]) Z E [Z]


p = p = p = p = p . (1.8)
V [T ] V [aZ + b] 2
a V [Z] jaj V [Z] V [Z]

- En particular, se tiene que S = nX (S = aX + b con a = n y b = 0). Por tanto,

la suma S tipi…cada coincide con la media X tipi…cada.

3
- Por último, obsérvese que si las vaiid Xi son B (1; p) (Bernoulli), entonces la
P
suma S = ni=1 Xi es el número total de éxitos (de variables que toman el valor 1), y la
P
media X = n1 ni=1 Xi es la proporción de éxitos en las n repeticiones: una media de

variables de Bernoulli 0-1 es una proporción.

1.2. Ley débil de los grandes números para vaiid

con varianza …nita

Es un hecho comprobado experimentalmente que si se realizan repeticiones indepen-

dientes de un experimento aleatorio, y se observa en cada repetición el valor que toma

alguna v.a., entonces según vamos repitiendo el experimento más y más veces la media de

los valores observados se va acercando, con ‡uctuaciones aleatorias, a la esperanza de la

v.a. Ésta es la denominada ley empírica de estabilidad de las frecuencias.

En caso de que observemos variables de Bernoulli, la media es la proporción de éxitos,

y la esperanza la probabilidad de éxito.

Ya desde el siglo XVII, para estudiar esta cuestión algunos investigadores en probabili-

dad realizaron largas y tediosas repeticiones de experimentos aleatorios, como lanzamientos

de dados. Esta ley empírica (experimental, no matemática) ha sido corroborada en estos

y otros experimentos.

Ha habido distintas demostraciones, con distinto grado de generalidad, de la formulación

matemática de este hecho empírico. Estos resultados se reunen con el nombre de leyes de

los grandes números.

A continuación demostramos la desigualdad de Chevichev y la “ley débil de los grandes

números” para vaiid con varianza …nita.

Lema 1. (desigualdad de Chevichev) Sea Z una v.a. con EZ y V [Z] …nitas. Para todo

" > 0 se tiene que


V [Z]
P fjZ EZj < "g 1 (1.9)
"2

Demostración. Lo demostramos solo para el caso continuo. Sea f la función de densidad

4
de Z. Sea = EZ. Se tiene que

h i Z 1
V [Z] = E (Z )2 = (z )2 f (z)dz (1.10)
1
Z Z
2
= (z ) f (z)dz + (z )2 f (z)dz (1.11)
fz : (z )2 <"2 g fz : (z )2 "2 g
Z n o
0+ "2 f (z)dz = "2 P (Z )2 "2 , (1.12)
fz : (z )2 "2 g
n o
V [Z]
y por tanto P (Z )2 "2 "2
. De aquí se obtiene el resultado:

n o n o
V [Z]
P fjZ j < "g = P (Z )2 < "2 = 1 P (Z )2 "2 1 "2
. (1.13)

Imaginemos que un experimento aleatorio se repite una cantidad in…nita de veces.

Sean X1 ; X2 ; : : : v.a. asociadas a las sucesivas repeticiones. Por ejemplo, los resultados del

lanzamiento de un dado, o la longitud de las varillas metálicas producidas por una máquina.

Vamos a obtener que, cuando n crece, la media de X1 ; : : : ; Xn tiende a concentrar toda la

probabilidad cada vez mas cerca de la esperanza.

Proposición 2. (ley débil de los grandes números) Sean X1 ; X2 ; : : : vaiid con espe-

ranza y varianza 2 (…nitas). Para todo " > 0 se tiene que

lm P Xn <" =1. (1.14)


n!1

Demostración. Aplicamos la desigualdad de Chevichev a la v.a. Z = X n , con E X n =

y V Xn = 2 =n:

2
P Xn <" 1 . (1.15)
n"2

De aquí se obtiene que

2
lm P Xn <" lm 1 =1 0=1, (1.16)
n!1 n!1 n"2

y, puesto que la probabilidad no puede ser mayor que 1, la desigualdad en (1.16) tiene que

ser una igualdad.

5
Obsérvese que Xn <" = " < Xn <" = " < Xn < +" .

Esta ley débil de los grandes números ha sido objeto de diversas generalizaciones,

obteniéndose distintas leyes de los grandes números (algunas de las cuales se presentan

en el apartado 1.6), y otros resultados relacionados. Sin embargo, ya la versión de la

proposición 2 es su…ciente para muchas aplicaciones prácticas.

Por ejemplo, las empresas aseguradoras saben, aproximadamente, en vista de los datos

de años anteriores, cual es la proporción de clientes que van a sufrir un accidente, y pueden

hacer una previsión de los pagos que van a tener que realizar por ese motivo. Siempre, por

supuesto, que no cambién las condiciones que determinan la tasa de accidentalidad.

En este caso, podemos asociar una v.a. de Bernoulli Xi a cada asegurado, que vale 1 en

caso de accidente en el intervalo temporal asegurado y 0 en caso contrario. Hasta que no

concluya el periodo no se conoce cuantos accidentes ha habido, pero sí se puede obtener

una aproximación sobre el valor que va a tomar X, y de aquí sobre el número total de
P
accidentes S = i Xi . Cuanto mayor es el número de asegurados, mejor es la predicción

para X.

Por otra parte, la proposición 2 se puede obtener como corolario del teorema central del

límite, según se comprueba en el ejemplo 12. Para este caso con varianza …nita, el TCL es un

re…namiento de la ley débil de los grandes números. La ley débil (proposición 2) establece

que X n tiende a concentrar toda la probabilidad mas cerca de cuanto mas grande es n, y

el TCL (teorema 11) explica además de qué modo se distribuye esta probabilidad: se tiene
p
que la distribución de X n es aproximadamente N ( ; = n) si n es grande.

1.3. Algunos aspectos prácticos del teorema central del límite

En estadística se consideran con frecuencia sumas de variables aleatorias i.i.d., y re-

sulta necesario conocer su distribución para poder aplicar los procedimientos estadísticos

adecuados. Para ello, el TCL tiene gran utilidad.

En este apartado realizamos algunos cálculos para sumas de vaiid de Bernoulli. En este

6
caso, la suma tiene distribución conocida, es binomial. En otros casos de sumas de vaiid

no reproductivas la distribución no suele ser simple.

Aun en el caso simple de la distribución binomial, los cálculos son laboriosos, cuando no

irrealizables. Por ejemplo, supongamos que la probabilidad de éxito en pruebas de Bernoulli

independientes es 0:4, y queremos calcular la probabilidad de que la proporción de éxitos

en 100 repeticiones sea menor o igual que 0:37. Sea Y B(100; 0:4) el número de éxitos.

La proporción de éxitos es Y =100 y se tiene que


37
X
Y 100
P 0:37 = P fY 37g = 0:4k (1 0:4)100 k
. (1.17)
100 k
k=0

Realizar este cálculo supone un gran número de operaciones y, además, los factoriales

involucrados toman un valor muy grande. Se tiene que 70! > 10100 , y la calculadora presenta

un mensaje de error porque no admite valores tan grandes. No obstante, con algunas

simpli…caciones y un programa adecuado de ordenador se puede realizar el cálculo de

(1.17) de un modo rápido. Sin embargo, es innecesario realizar tantos cálculos. Mediante

el TCL obtendremos, de un modo muy sencillo, una muy buena aproximación para (1.17).

La primera versión del TCL es el denominado teorema de DeMoivre-Laplace (1733).

Este resultado proporciona una aproximación para la binomial, con n grande, mediante

una normal.

El uso de esta aproximación para el cálculo de (1.17) muestra su utilidad. El valor exacto

(con 4 dígitos) de (1.17), obtenido calculando la suma, es 0:3068. El valor aproximado se

obtiene del siguiente modo.

Puesto que Y B (100; 0:4), se tiene que

EY = 100 0:4 = 40 y V [Y ] = 100 0:4 0:6 = 24 . (1.18)

Como consecuencia del TCL (justamente la versión de DeMoivre-Laplace), se tiene que la


p
distribución de Y es aproximadamente N 40; 24 , y por tanto
n p o
P fY 37g ' P N 40; 24 37 . (1.19)

Tipi…cando y utilizando la tablas se obtiene la probabilidad.

7
Sin embargo, puesto que vamos a aproximar una binomial, que es discreta, mediante

una normal, que es continua, conviene hacer una corrección en el cálculo. Obsérvese que

P fY 37g = P fY 37 + ag si 0 < a < 1, y por tanto podríamos aproximar P fY 37g


p
mediante P N 40; 24 37 + a . Se suele tomar a = 1=2, y a esta operación se la

denomina corrección por continuidad. La idea consiste en aproximar para cada y entero la
p
probabilidad P fY = yg por P y 21 < N 40; 24 < y + 12 . Con ello, obtenemos:
n p o n o
37:5
p 40
P fY 37g ' P N 40; 24 37:5 = P N (0; 1) 24
= 0:3050 ,

que es un valor muy cercano al valor exacto, 0:3068.

Obsérvese que el cálculo aproximado es mucho más rápido que el cálculo exacto, y

además proporciona una aproximación muy buena.

Ejemplo 3. (Un problema de estadística) Con el …n de estudiar si una moneda está

equilibrada, se lanza 100 veces, obteniéndose 68 caras. ¿Podemos aceptar (inclinarnos a

pensar) que la moneda está equilibrada? Para dar una respuesta, calcula, de un modo

aproximado, la probabilidad de que al lanzar 100 veces una moneda equilibrada se obtenga

una proporción de caras mayor o igual que 0:68.

Solución: Lo que vamos a hacer es valorar el grado de “compatibilidad” entre

el dato observado, una proporción de caras igual a 0:68 en los 100 lanzamientos, y la

suposición de que la moneda está equilibrada. Porque, si hubiera poca compatibilidad,

entonces deberíamos poner en duda que la moneda esté realmente equilibrada. Vamos a

valorar esta compatibilidad calculando la probabilidad de obtener 68 caras o mas en 100

lanzamientos de una moneda equilibrada.

Sea Y el número de caras. Se tiene que Y B (100; 0:5), y de aquí, EY = 50 y

V [Y ] = 25. La probabilidad pedida vale

Y Y 50 67:5 50
P 100 0:68 = P fY 68g = P fY 67:5g = P 5 5 (1.20)
4
' P fN (0; 1) 3:5g = 2:33 10 = 0:000233 . (1.21)

El valor verdadero es 2:04 10 4. La aproximación es peor en zonas de baja densidad de

probabilidad, como ahora, que en zonas más centrales de la distribución.

8
De cualquier modo, es altamente improbable obtener una proporción tan alta de caras

en 100 lanzamientos de una moneda equilibrada, y entonces es razonable aceptar que la

moneda no está equilibrada.

1.4. Sucesiones de variables aleatorias

En los capítulos anteriores hemos considerado variables aleatorias n-dimensionales

(X1 ; : : : ; Xn ). Los resultados que estudiaremos, leyes de los grandes números y teorema

central del límite, involucran límites de funciones de (X1 ; : : : ; Xn ) cuando n ! 1. El uso

práctico de estos resultados es que esos límites nos sirven como aproximación de lo que

ocurre para (X1 ; : : : ; Xn ) cuando n es grande. Por ejemplo, el teorema de DeMoivre-Laplace

establece que la distribución B (n; p) tipi…cada es N (0; 1) en el límite (convergencia en dis-

tribución), y la aplicación práctica consiste en la aproximación normal para la B (n; p) con

n grande, como en los cálculos del apartado 1.3.

Damos unos breves apuntes sobre el contexto matemático en el que se formulan estos

resultados. Este contexto es el de las sucesiones de vaiid. No se requiere su conocimiento

para la mayoría de aplicaciones.

Consideremos variables aleatorias X1 ; X2 ; : : : de…nidas sobre un mismo espacio de

probabilidad ( ; A; P ) ,

Xn : ( ; A; P ) ! (R; B) para n = 1; 2; ::: . (1.22)

Las v.a. son funciones, y podemos agrupar la sucesión de funciones X1 ; X2 ; : : : en una única

función

X = (X1 ; X2 ; : : :) . (1.23)

Del mismo modo que una v.a. n-dimensional toma valores en Rn , que es el conjunto de

n-uplas de números reales, X toma valores en el conjunto de las sucesiones de números

reales.
(n
El conjunto de n-uplas de números reales, Rn , es el producto cartesiano R R, y

el conjunto de sucesiones de números reales es el producto cartesiano in…nito (numerable)

9
R R . Podemos denotar este conjunto de sucesiones de números reales por R1 ó

RN :

R1 = f(x1 ; x2 ; :::) : x1 ; x2 ; ::: 2 Rg . (1.24)

De este modo, X es una función de…nida sobre con valores en R1 dada por

X(!) = (X1 (!); X1 (!); :::) para ! 2 . (1.25)

Del mismo modo que una variable n-dimensional tiene una distribución conjunta, también

se de…ne una distribución conjunta para X, in…nito-dimensional. Viene dada a traves de

las distribuciones conjuntas, …nito-dimensionales, de (X1 ; : : : ; Xn ) para n = 1; 2; ::: .

Vamos a considerar en este capítulo el caso en que X1 ; X2 ; : : : son vaiid, esto es,

X1 ; : : : ; Xn son vaiid para n = 1; 2; ::: . Obsérvese que en este caso, la distribución de

la sucesión X viene dada por la distribución de X1 , y no se requieren mas datos para

conocer la distribución de X. Después de éste, el tipo mas simple de sucesiones de v.a.

es el de las cadenas de Markov, cuya distribución viene dada por la distribución de X1 y

además una matriz de “probabilidades (condicionadas) de transición”. Otros casos son mas

complejos, y la distribución viene dada por un “sistema consistente” (según la condición

de Kolmogorov) de probabilidades …nito-dimensionales.

1.5. Modos de convergencia

1.5.1. Convergencia en distribución

Se dice que la sucesión de variables aleatorias X1 ; X2 ; : : : , con funciones de distribución

F1 ; F2 ; : : : , converge en distribución (o en ley, o débilmente) a una variable aleatoria X,

con función de distribución F , si

l m Fn (x) = F (x) para todo x en el que F es continua. (1.26)


n!1

y se denota por
d
Xn ! X . (1.27)

10
Expresa que las distribuciones individuales unidimensionales de X1 ; X2 ; : : : se acercan a la

distribución de X cuando n crece. No tiene en cuenta ninguna distribución conjunta.


d
Si X es degenerada en una constante c, se denota también por Xn ! c .

Con el siguiente ejemplo se va a entender por qué en la de…nición de convergencia en

distribución en (1.26) se permite que l mn!1 Fn (x) 6= F (x) si F no es continua en x.

Ejemplo 4. Sea Xn 2 + n1 (degenerada). Puesto que l mn!1 2 + n1 = 2, entonces, según

crece n, la distribución de Xn se va acercando a la distribución de X 2, y se tiene que


d
Xn ! X, como comprobamos a continuación.

Las funciones de distribución de Xn y de X son


8 8
>
< 0 si x < 2 + 1 >
< 0 si x < 2
n
Fn (x) = y F (x) = (1.28)
>
: 1 si x 2 + 1 >
: 1 si x 2
n

Calculamos G(x) = l mn!1 Fn (x) y comprobamos que G(x) = F (x) para todo x en el

que F es continua.

Si x 2, entonces Fn (x) = 0 para todo n (puesto que x 2 < 2 + n1 en este caso). Por

tanto, G(x) = 0 si x 2.
1 1 n!1
Si x > 2, entonces existe n0 tal que x > 2 + n para n > n0 (puesto que n ! 0). Por

tanto, Fn (x) = 1 para n > n0 , y entonces G(x) = 1 si x > 2.

Obsérvese que F y G coinciden en todo x excepto en x = 2, donde F (2) = 1 y G(2) = 0.


d d
Puesto que F no es continua en x = 2, se tiene que Xn ! X, (Xn ! 2).

1 d
Ejercicio 5. Sea Xn 2 n. Comprueba que Xn ! 2. (En este caso se obtiene que

l mn!1 Fn (x) = F (x) para todo x, incluso en x = 2, donde F es discontinua).

Propiedades de la convergencia en distribución


d d
1.- Si Xn ! X entonces aXn + b ! aX + b .

2.- Sean X; X1 ; X2 ; : : : variables aleatorias discretas con soporte en los enteros, tales

que las funciones de masa de X1 ; X2 ; : : : convergen a la de X en todo x entero, esto es,


d
l mn!1 P fXn = xg = P fX = xg . Entonces, se tiene que Xn ! X .

11
3.- Sean X; X1 ; X2 ; : : : variables aleatorias continuas, tales que las funciones de densidad

de X1 ; X2 ; : : : convergen a la de X en todo x real: l mn!1 fn (x) = f (x) . Entonces, se


d
tiene que Xn ! X .

Ejemplo 6. Consideremos X1 ; X2 ; : : : con Xn B (n; pn ). Si l mn!1 npn = , se tiene


d
que Xn ! X con X P ( ). Comprueba este resultado en el caso en que pn = =n.

Solución: Se tiene que


x n x x n x
n n!
P fXn = xg = 1 = 1 (1.29)
x n n x!(n x)! nx n
x n x
n(n 1) (n x + 1)
= 1 (1.30)
x! nx n
x x n
nn 1 n x+1
= 1 1 . (1.31)
x! n n n n n

Teniendo en cuenta que el límite de un producto es el producto de los límites se obtiene


x x
x
l m P fXn = xg = 1 1 1 (1 0) e =e , (1.32)
n!1 x! x!
d
para x = 0; 1; 2; : : : y por tanto Xn ! X con X P ( ).

Este resultado permite aproximar una B(n; p) con n grande y p pequeño mediante

una Poisson P(np). Recuérdese que ya obtuvimos otra aproximación de la B(n; p), como

consecuencia del teorema de DeMoivre-Laplace.

Una aproximación no es incompatible con la otra. La conexión entre ambos resultados

viene dada por el hecho de que la distribución P( ) con grande es aproximadamente

normal. De aquí que, siendo válida la aproximación de la B(n; p) con n grande y p pequeño

mediante una Poisson P(np), también es cierto que si n es su…cientemente grande para que

además np sea grande, entonces la P(np) es aproximadamente normal.

El resultado del ejemplo 6, además de ofrecer una aproximación para la binomial, es

interesante porque explica por qué la distribución de Poisson está asociada a distintos

fenómenos aleatorios. Por ejemplo, el número de personas que llegan a una tienda en un

periodo dado de tiempo, o el número de partículas atómicas que registra un detector de

radiactividad en un periodo dado de tiempo, tienen distribución de Posisson.

12
La explicación es clara si tenemos en cuenta que en ambos fenómenos la distribución

puede ser entendida como una B(n; p) con n muy grande y p muy pequeño: hay muchos

clientes potenciales y cada uno tiene una probabilidad muy pequeña de acudir a la tienda, o,

hay muchas particulas que pueden desintegrarse, cada una con probabilidad muy pequeña.

En el segundo caso la distribución es exactamente de Poisson, puesto que de un modo

muy puro se produce el hecho de que las partículas se desintegran independientemente

unas de otras, con la misma probabilidad (dada por la tasa de desintegración del elemento

considerado), el número de partículas es inmenso, y cada una tiene una probabilidad ex-

tremadamente pequeña de desintegrarse en el periodo considerado (ín…mo respecto de la

vida media).

En el primer caso la distribución de Poisson es aproximada, y habría que analizar el

asunto con mayor detalle (mediante un procedimiento estadístico denominado contraste de

bondad de ajuste, por ejemplo).

1.5.2. Convergencia en probabilidad

Se dice que la sucesión de variables aleatorias X1 ; X2 ; : : : converge en probabilidad a

una variable aleatoria X si

l m P fjXn Xj < "g = 1 para todo " > 0 , (1.33)


n!1

y se denota por
p
Xn ! X . (1.34)

Expresa que la variable Xn X concentra, tan cerca del cero como se quiera, una parte

creciente de su distribución de probabilidad cuando n crece. Depende de la distribución

conjunta de (Xn ; X) para n creciente.


p
Si X es degenerada en una constante c, entonces (1.34) se denota también por Xn ! c.

Propiedades de la convergencia en probabilidad


p p
1.- Si Xn ! X y g : R ! R es continua se tiene que g(Xn ) ! g(X) .
p p p
2.- Si Xn ! X , Yn ! Y y g : R2 ! R es continua se tiene que g(Xn ; Yn ) ! g(X; Y ) .

13
En particular,

p
Xn + Yn ! X + Y , (1.35)
p
Xn Yn ! X Y , (1.36)
p
Xn Yn ! XY . (1.37)

La convergencia en probabilidad implica la convergencia en distribución, y en caso de

convergencia en distribución a una degenerada también se veri…ca el recíproco:

p d
Xn ! X ) Xn ! X , y (1.38)
d p
Xn ! k ) Xn ! k . (1.39)

Por tanto, para el caso de convergencia en distribución a una degenerada, se tiene que

d p
Xn ! k () Xn ! k . (1.40)

En el siguiente ejemplo se presenta un caso trivial en el que el recíproco de (1.38) no

se cumple.

Ejemplo 7. Se lanza una moneda equilibrada. Sean


8 8
>
< 0 si sale cara >
< 0 si sale cruz
Xn = y X= (1.41)
>
: 1 si sale cruz >
: 1 si sale cara

d
Comprueba que Xn ! X pero Xn no converge en probabilidad a X.

Solución: Todas las variables Xn y X tienen la misma distribución, B(1; 1=2), y por
d
tanto Xn ! X de un modo trivial. Las Xn son todas la misma variable, pero diferente de X,

lo que lleva a que falle la convergencia en probabilidad, como comprobamos a continuación.

Sea " = 1=2. se tiene que

P fjXn Xj < "g = P fjXn Xj < 1=2g = P fXn = 0 y X = 0g+P fXn = 1 y X = 1g = 0 ,

y por tanto

l m P fjXn Xj < "g = 0 6= 1 para " = 1=2 . (1.42)


n!1

14
1.5.3. Convergencia casi segura

Se dice que la sucesión de variables aleatorias X1 ; X2 ; : : : converge casi seguro (o, con

probabilidad 1 ) a una variable aleatoria X si


n o
P !2 : l m Xn (!) = X(!) = 1 , (1.43)
n!1

c:s:
y se denota por Xn ! X .

Esta noción es útil en la fundamentación de algunos aspectos teóricos de la estadística

y en el desarrollo de otras estructuras del cálculo de probabilidades, como los “procesos

estocásticos”. Su análisis requiere herramientas matemáticas avanzadas, cuyos primeros

elementos se han presentado en el apartado 1.4.

La convergencia casi segura es un modo de convergencia mas fuerte que la convergencia

en probabilidad. Se tiene que

c:s: p
Xn ! X ) Xn ! X . (1.44)

En lo que respecta a las aplicaciones de los resultados de este capítulo a la estadística,

el método de convergencia de interés principal es la convergencia en distribución, y si acaso

también la convergencia en probabilidad, pero la convergencia casi segura es irrelevante a

efectos prácticos (que no teóricos).

Además, las convergencias en probabilidad consecuencia de las LGN son hacia v.a.

degeneradas, y en este caso la convergencia en probabilidad es equivalente a la convergencia

en distribución (véase (1.40)).

No estudiamos otros métodos de convergencia, como la “convergencia en media cuadráti-

ca”.

1.6. Leyes de los grandes números

En este apartado vamos a estudiar la convergencia de


n
1X
Xn = Xi (1.45)
n
i=1

15
cuando n tiende a in…nito, siendo X1 ; X2 ; : : : una sucesión de variables aleatorias. A lo largo

de los últimos siglos se han ido obteniendo distintos resultados sobre la convergencia de

X n , con distinto grado de generalidad y en distintos contextos (por ejemplo, con variables

aleatorias que son i.i.d o que no lo son).

En la proposición 2, página 5, ya enunciábamos y demostrábamos uno de éstos resulta-

dos. Enunciamos sin demostración algunos otros de estos resultados, denominados generica-

mente leyes de los grandes números. La ley débil se re…ere a convergencia en probabilidad,

y la ley fuerte se re…ere a convergencia casi segura. A su vez, hay distintas versiones de

cada una de ellas, de las cuales enunciamos solo algunas.

Teorema 8. (ley débil de los grandes números) Si X1 ; X2 ; : : : son vaiid con esperanza

E [Xn ] = …nita se veri…ca que


p
Xn ! . (1.46)

p d
Obsérvese que, por (1.40), se tiene que X n ! si y solo si X n ! (la distribución de

X n se va acercando a la degenerada en segun crece n).

Obsérvese que este teorema mejora la proposición 2, puesto que aquí no se impone que
p
V [Xn ] sea …nita. Para que se dé la convergencia X n ! no hace falta que la varian-

za sea …nita, y entonces el teorema hace obsoleta la proposición sustituyéndola. Existen

formulaciones aun mas generales, como la siguiente.

Teorema 9. (ley débil de los grandes números) Sea X1 ; X2 ; : : : una sucesión de varia-
P P
bles aleatorias con esperanza …nita y sea Yn = n1 ni=1 Xi n1 ni=1 E[Xi ]. Una condición
p
necesaria y su…ciente para que Yn ! 0 es que

Yn 2
lm E =0. (1.47)
n!1 1 + Yn 2

No se impone a las variables Xi en el teorema 9 que sean vaiid. La comprobación de

la validez del teorema sería inabordable de un modo empírico. Lo que empezó siendo una

constatación empírica (ley empírica de la estabilidad de las frecuencias), ha sido manejado

por los matemáticos, mediante razonamiento lógico, obteniéndose no solo éste, sino además

un amplio abanico de resultados a lo largo del tiempo que son de gran utilidad práctica.

16
Presentamos ahora otra generalización del teorema 8, pero en un sentido diferente a la

del teorema 9. El teorema 10 establece que la convergencia en el teorema 8 se da no solo

en probabilidad, sino también de un modo casi seguro.

Teorema 10. (ley fuerte de los grandes números). Si X1 ; X2 ; : : : son vaiid con esperanza

E[Xn ] = …nita se veri…ca que


c:s:
Xn ! . (1.48)

Este teorema hace obsoleto el teorema 8, que hacía a su vez obsoleta la proposición

2. Ésto, en lo que respecta a la relación lógica entre ellos. Sin embargo, habitualmente la

varianza es …nita (aunque no siempre), y es su…ciente con la convergencia en probabilidad

y no necesitamos que la convergencia sea casi segura. En este caso, la proposición 2 es

su…ciente, y no necesitamos de la mayor potencia del teorema 10.

1.7. Interpretación frecuentista de la probabilidad

La LDGN de la proposición 2, aplicada a v.a. de Bernoulli, permite obtener una “inter-

pretación frecuentista”de la probabilidad en la linea de la ley empírica de la estabilidad de

las frecuencias: la probabilidad como proporción. Esta interpretación frecuentista es básica

para entender qué supone en la práctica cualquier resultado del tipo P (A) = p.

La probabilidad de éxito en vaiid de Bernoulli coincide con el valor al que se acerca la

proporción (frecuencia relativa) de éxitos para una cantidad creciente de repeticiones (por

la LDGN). En ésto consiste justamente la interpretación frecuentista de la probabilidad

de éxito en pruebas de Bernoulli: la probabilidad de éxito como el valor al que se acerca la

proporción de éxitos.

Mediante una operación muy sencilla, podemos extender esta interpretación frecuen-

tista a cualquier expresión P (A) = p, mediante la consideración de variables de Bernoulli

adecuadas. Veamos de qué manera.

17
Consideremos una expresión del tipo

P (A) = p . (1.49)

Por ejemplo, A es el suceso

- obtener un 3 ó un 4 en el lanzamiento de un dado equilibrado, con p = 2=6, ó

- que la duración de una bombilla sea mayor de 150 horas, con p = 1 F (150), siendo

F la función de distribución de la duración de la bombilla.

Consideramos, asociada al experimento aleatorio al que está referido el suceso A, la

v.a. de Bernoulli que nos indica si ha ocurrido A o no: sea Z la v.a. que vale 1 si al realizar

el experimento ocurre A, y vale 0 si no ocurre A. La distribución de Z viene dada por la

probabilidad de que ocurra A, que vale

P fZ = 1g = P (A) = p (1.50)

(y P fZ = 0g = 1 p).

Consideramos ahora n repeticiones independientes del experimento aleatorio al que está

referido el suceso A (n lanzamientos de un dado, ó medición de la duración de cada una

de n bombillas idénticas). Las n repeticiones constituyen un nuevo experimento aleatorio

compuesto.

Asociada a la repetición i-ésima, consideramos la variable de Bernoulli Zi que vale 1 si

ocurre A en la i-ésima repetición del experimento y vale 0 si no ocurre A, para i = 1; : : : ; n.

Se veri…ca que Z1 ; : : : ; Zn son vaiid B(1; p). La proporción de veces que ocurre A en las

n repeticiones es
n
1X
Z= Zi , (1.51)
n
i=1
d
y por la LDGN se tiene que Z ! p , y por tanto, si obtuvieramos muchas repeticiones inde-

pendientes del experimento aleatorio en cuestión, observaríamos que en aproximadamente

una proporción p de las repeticiones ocurre A (y en una proporción de aproximadamente

1 p no ocurre A). Ésta es la interpretación frecuentista de la probabilidad p = P (A).

El hecho de que la probabilidad de obtener un 3 ó un 4 en un lanzamiento de un dado

valga 2=6, quiere decir que si realizáramos n (grande) lanzamientos del dado, entonces en

18
aproximadamente dos sextas partes (un tercio) de los lanzamientos obtendríamos un 3 ó

un 4.

1.8. Teorema central del límite

Las LGN establecen que la distribución de X n se va acercando a la degenerada en

cuando n crece, pero no aportan mas información sobre esta distribución de X n . En el

apartado 1.3 ya se presentaron algunos ejemplos que mostraban el interés de obtener esta

distribución, y ya se hizo referencia a la solución aportada por el teorema central del límite

(TCL). En aquel caso se consideraron variables de Bernoulli.

En este apartado presentamos el enunciado preciso y general del TCL para vaiid, válido

para v.a. de Bernoulli entre otras. Existen versiones mas generales del TCL, por ejemplo

para vaiid n-dimensionales.

Teorema 11. (teorema central del límite) Consideremos vaiid X1 ; X2 ; : : : con esperanza

E[Xn ] = y varianza V [Xn ] = 2, …nitas, y sea Z N (0; 1). Se veri…ca que

Xn d
p !Z . (1.52)
= n

En adelante, cometeremos abuso de notación para esta convergencia en distribución


X np d X np
escribiendo = n
! N (0; 1). Obsérvese que la variable aleatoria = n
es X n tipi…cada,

que es igual a Sn = nX n tipi…cada.

El teorema es de una gran generalidad: la distribución de las Xi puede ser cualquiera,

siempre que tenga esperanza y varianza …nita.

Tiene una importante aplicación práctica: para n su…cientemente grande la distribución

de X n tipi…cada es aproximadamente N (0; 1), lo que nos permite hacer cálculos aproxi-

mados de un modo sencillo.

En el caso en que las Xi son de Bernoulli, la distribución (exacta, no aproximada) de

la suma es binomial, y se pueden hacer cálculos con ordenador para su distribución si n

no es demasiado grande. Para el caso particular de distribuciones reproductivas, como la

binomial, la distribución de la suma es conocida. Pero en general, la distribución de S y

19
de X n suele ser de difícil manejo, y la aproximación proporcionada por el TCL es de gran

utilidad.

Si una sucesión de números a1 ; a2 ; : : : converge a a, entonces, para n su…cientemente

grande an es tan cercano a a como queramos. De un modo similar, puesto que X n tipi…cada

converge (en distribución) a Z N (0; 1), entonces, para n su…cientemente grande, la

distribución de X n tipi…cada es tan cercana a la de una N (0; 1) como queramos. Cuanto

mas grande sea n mas cercana es la distribución a la de la N (0; 1), y mejor la aproximación

en los cálculos.

Cuando la distribución de las Xi es poco asimétrica la convergencia es muy rápida. Por

ejemplo, la distribución de Xi B(1; 1=2) es simétrica, y se tiene que la aproximación

es muy buena ya desde n = 30. La distribución de Xi B(1; p) es tanto mas asimétrica

cuanto mas lejano esté p de 1=2 (mas cerca de 0 ó de 1), y se requieren valores mas grandes

de n para que la aproximación sea buena.

X np
Si Zn = = n
es aproximadamente N (0; 1), entonces, puesto que transformadas li-

neales de normales son normales, se tiene que X n = pn Zn + es aproximadamente normal,


p
con parámetros E X n = y X n = = n. Por tanto, para n su…cientemente grande,

se tiene que (la distribución de)

p
X n es aproximadamente N ( ; = n) . (1.53)

Del mismo modo se obtiene que (la distribución de)

p
Sn es aproximadamente N n ; n . (1.54)

d
Utilizamos también el símbolo “ A” en vez de “!”, para denotar la convergencia en
X np
distribución. Por ejemplo, el resultado (1.52) se expresa como = n
AN (0; 1) , y se lee
X np
del siguiente modo: “ = n
es asintóticamente N (0; 1)”.

Además, al símbolo “ A” se le da un uso más ‡exible, que se utiliza en estadística,

permitiendo escribir el resultado (1.52) de los dos siguientes modos alternativos:

p p
Xn AN ( ; = n) y Sn AN (n ; n) . (1.55)

20
p
Estas expresiones se leen como “X n es asintóticamente N ( ; = n)” y “Sn es asintóti-
p
camente N (n ; n)”. Obsérvese que los parámetros de la distribución asintótica son

justamente la esperanza y la desviación típica, de X n en un caso y de Sn en el otro. Lo

que signi…ca (1.55) es que X n tipi…cada, y Sn tipi…cada, (que coinciden) convergen en


p p
distribución a una N ( ; = n) y a una N (n ; n) tipi…cadas, que es la N (0; 1). O sea,

que (1.55) ofrece dos modos alternativos de expresar (1.52).


d
Obsérvese que en (1.55) no podemos utilizar la notación “!”, puesto que las distribu-
p p d
ciones N ( ; = n) y N (n ; n) dependen de n y la convergencia en distribución “!”es

hacia una distribución …ja.

La ventaja de expresar el resultado (1.52) mediante alguna de las expresiones en (1.55)

es que permite apreciar de un vistazo la magnitud de las variables X n y Sn : a traves de

sus momentos, que se presentan como parámetros de la normal.

Otras versiones del TCL consideran v.a. dependientes, o no identicamente distribuidas,

o n-dimensionales.

Ejemplo 12. Comprobamos que la proposición 2, en el apartado 2, se obtiene a partir del

teorema 11. Solamente se exponen las ideas principales de la demostración, omitiendo los

detalles mas técnicos.

Para todo " > 0 se tiene que


n o n p o
X np "p X np "
P Xn <" =P = n
< = n
=P = n
< n . (1.56)

Por el TCL, cuanto mas grande es n mas cercana es la distribución de X=npn a la N (0; 1),
p
siendo N (0; 1) en el límite. Además, l mn!1 " n = 1, y se obtiene que
n p o
X np "
lm P Xn <" = lm P = n
< n = P fjN (0; 1)j < 1g = 1 . (1.57)
n!1 n!1

Éste es justamente el resultado de la proposición 2.

Obsérvese que aunque la distribución límite en (1.57) no hubiera sido la N (0; 1), sino

cualquier otra, el valor de la probabilidad seguiría siendo igual a 1, demostrándose igual-

21
mente la proposición 2. El teorema 11 es un re…namiento de la proposición 2: la proposición

establece que

P Xn <" (1.58)

se acerca a 1 según crece n, y el teorema nos permite profundizar mas proporcionando

valores (aproximados) para (1.58) si n es grande, basados en la distribución aproximada-

mente normal de X n . Ésto en lo que respecta a la relación lógica entre la proposición 2 y

el teorema 11. La distribución aproximadamente normal de X n permite realizar cálculos

para cualquier probabilidad P a < X n < b referida a X n .

Ejemplo 13. Se lanza una moneda 100 veces. Calcula la probabilidad de obtener (incluidos

los extremos de los intervalos en todos los casos):

a) Entre 40 y 60 caras.

b) Entre 45 y 55 caras.

c) Entre 47 y 53 caras.

Solución: En el apartado 1.3 hemos resuelto ejercicios similares aproximando directa-

mente la distribución del número de caras, binomial, mediante una normal. Aquella apro-

ximación es consecuencia del teorema 11, pero en el apartado 1.3 no se explicaba por qué.

Lo hacemos ahora, expresando este número de caras como suma de vaiid de Bernoulli.

Consideremos para i = 1; : : : ; n, con n = 100, la v.a. Xi que vale 1 si sale cara en el

lanzamiento i-ésimo y vale 0 si sale cruz. Se tiene que X1 ; : : : ; Xn son vaiid B(1; p). Puesto

que no se dice nada en contrario, suponemos que la moneda está equilibrada, y entonces

2
p = P fXi = 1g = 1=2 , = p = 1=2 y = p(1 p) = 1=4 . (1.59)

Pn
Se tiene que S = i=1 Xi (binomial) es el número de caras. La v.a. S es suma de vaiid

con esperanza …nita y varianza …nita. Entonces, si n = 100 es su…cientemente grande, se

tiene por el TCL (teorema 11) que la distribución de S es aproximadamente normal. En

el apartado 1.3 se hicieron algunos cálculos que indican que la aproximación es buena en

este caso con n = 100 y p = 1=2 (peor en las colas de la distribución).


X np S pn
Se tiene entonces que = n
= n
. es aproximadamente N (0; 1).

22
a) Mediante aproximación normal, con la corrección por continuidad, obtene-

mos

P f40 S 60g = P f39:5 < S < 60:5g (1.60)


( )
39:5 100 12 S n 60:5 100 12
=P p p < p < p p (1.61)
1=4 100 n 1=4 100

' P f 2:1 < N (0; 1) < 2:1g (1.62)

=1 2 P fN (0; 1) > 2:1g = 1 2 0:0179 = 0:964 . (1.63)

Cuando el intervalo numérico considerado sea simétrico respecto de la esperanza, como

es el caso en todos los apartados de este ejemplo, la formulación resulta algo más concisa

expresando las desigualdades utilizando la función valor absoluto. Así es como lo haremos

habitualmente. Repetimos la resolución de este apartado de este modo: puesto que

f40 S 60g = f40 50 S n 60 50g (1.64)

= f 10 S n 10g = fjS n j 10g , (1.65)

se tiene que

P f40 S 60g = P fjS n j 10g = P fjS n j < 10:5g (1.66)


S n 10:5
=P p < ' P fjN (0; 1)j < 2:1g (1.67)
n 5

=1 2 P fN (0; 1) > 2:1g = 0:964 . (1.68)

b)

5:5
P f45 S 55g = P fjS n j < 5:5g ' P jN (0; 1)j < (1.69)
5

=1 2 P fN (0; 1) > 1:1g = 0:7286 . (1.70)

c)

3:5
P f47 S 53g = P fjS n j < 3:5g ' P jN (0; 1)j < (1.71)
5

=1 2 P fN (0; 1) > 0:7g = 0:516 . (1.72)

23
Ejercicio 14. Se lanza una moneda 1.000 veces. Calcula, de un modo aproximado, la

probabilidad de obtener

a) entre 400 y 600 caras, b) entre 450 y 550 caras, c) entre 470 y 530 caras.

Solución: a) 1 1:55 10 10 , b) 0:998 63, c) 0:946 4.

Tanto en este ejercicio como en el ejemplo 13 podemos expresar las probabilidades

pedidas en términos de X, y resulta que las expresiones del ejemplo coinciden con las del

ejercicio (aunque con n diferente): se pide en ambos calcular las probabilidades

P 0:40 X 0:60 , P 0:45 X 0:55 y P 0:47 X 0:53 . (1.73)

El hecho de que las probabilidades calculadas en el ejercicio sea mayores que las del ejemplo,

se debe a que n es más grande en el ejercicio, n = 1.000, que en el ejemplo, n = 100. La

ley débil de los grandes números establece que la distribución de X = X n converge a una

degenerada en = 1=2, y la distribución de X n es más cercana a la degenerada en 1=2

cuanto mas grande es n. Ésto también está en relación con el hecho de que E X n = =
p
1=2 y la desviación típica X n = = n vale 0:05 con n = 100 y vale 0:0158, que es

menor que 0:05, con n = 1.000.

Las probabilidades en (1.73) pueden expresarse como P X n 2 Ai , i = 1; 2; 3, con

A1 = [0:4; 0:6], A2 = [0:45; 0:55] y A3 = [0:47; 0:53]. Puesto que 1=2 2 Ai para i = 1; 2; 3, y

X n converge a una degenerada en = 1=2, se tiene que

l m P X n 2 Ai = 1 . (1.74)
n!1

Los valores P X n 2 Ai no constituyen necesariamente una sucesión monótona, aunque

es el comportamiento mas habitual. Por ejemplo, en el ejercicio los valores P X n 2 Ai

son mayores en el caso n = 1.000.

Ejemplo 15. Consideremos una urna con bolas marcadas con los números 1, 2, 3 y 4, con la

misma cantidad de bolas de cada número. Sea A el suceso “obtener una bola marcada con un

3”en la extracción (al azar) de una bola. Se realizan n extracciones con reemplazamiento.

Sea T la proporción de veces que ocurre A.

24
a) Con n = 400, calcula la probabilidad de que T esté entre 0:2 y 0:4.

b) Con n = 400, calcula c tal que P fjT 1=4j < cg = 0:8.

c) Calcula n tal que la probabilidad de que T esté entre 0:23 y 0:27 valga 0:9.

Solución: Para i = 1; : : : ; n, consideremos la v.a. Xi que vale 1 si ocurre A en la i-

ésima extracción y vale 0 en otro caso. Se tiene que X1 ; : : : ; Xn son vaiid B(1; p), con

p = P fXi = 1g = 1=4. Entonces = E [Xi ] = p = 1=4 y V [Xi ] = p(1 p) = 3=16.

Además, se tiene que T = X.

a) Sea S = nX el número de veces que ocurre A, que tiene distribución binomial.

Expresamos el problema en términos de S para realizar la corrección por continuidad.

P 0:2 X 0:4 = P f80 S 160g = P f79:5 < S < 160:5g (1.75)


79:5 n S n 160:5 n
=P p < p < p (1.76)
n n n

' P f 2:37 < N (0; 1) < 6:99g (1.77)

= P fN (0; 1) > 2:37g P fN (0; 1) > 6:99g (1.78)

=1 P fN (0; 1) > 2:37g P fN (0; 1) > 6:99g (1.79)


12
=1 0:00889 2:6 10 = 0:991 . (1.80)

b) Se tiene que

X c
P X 1=4 < c = P X <c =P p < p (1.81)
= n = n

' P fjN (0; 1)j < 46:19 cg (1.82)

=1 2P fN (0; 1) > 46:19 cg = 0:8 , (1.83)

1 0:8
y entonces P fN (0; 1) > 46:19 cg = 2 = 0:1. Buscando en el cuerpo de la tabla

de la N (0; 1) el valor mas cercano a 0:1 se obtiene P fN (0; 1) > 1:28g = 0:1003. Por

tanto, debe ser 46:19 c = 1:28, y de aquí c = 0:0277. Hemos obtenido entonces que

P 0:222 < X < 0:277 ' 0:8 .

25
c) Se tiene que

P 0:23 < X < 0:27 = P X 1=4 < 0:02 = P X < 0:02 (1.84)
X 0:02 p
=P p < p ' P jN (0; 1)j < 0:04619 n (1.85)
= n = n
p
=1 2P N (0; 1) > 0:04619 n = 0:9 , (1.86)

p 1 0:9
y entonces P fN (0; 1) > 0:04619 ng = 2 = 0:05. Buscando en la tabla de la N (0; 1)

se obtiene P fN (0; 1) > 1:64g = 0:0505. Por tanto, debe ser


p
0:04619 n = 1:64, y de aquí n = 1.261.

Ejemplo 16. Sean X1 ; : : : ; Xn vaiid con esperanza = 7:6 y desviación típica = 5:4.

a) Con n = 400, calcula P 7:1 < X < 8:4 y P 7:1 < X < 8:1 .

b) Con n = 400, calcula c tal que P X < c = 0:95.

c) Calcula n tal que P X 7:6 < 0:35 = 0:95.

Solución: Suponemos que los valores de n considerados son su…cientemente grandes

para que sea buena la aproximación normal consecuencia del TCL.

a) En el segundo caso, el intervalo considerado es simétrico respecto de la media,

y podemos utilizar la función valor absoluto en las expresiones, pero en el primer caso no

es así.

7:1 X 8:4
P 7:1 < X < 8:4 = P p < p < p (1.87)
= n = n = n

' P f 1:85 < N (0; 1) < 2:96g (1.88)

=1 P fN (0; 1) > 1:85g P fN (0; 1) > 2:96g (1.89)

=1 0:0322 0:00154 = 0:966 (1.90)

X 0:5
P 7:1 < X < 8:1 =P X 7:6 < 0:5 = P p < p (1.91)
= n = n

' P fjN (0; 1)j < 1:85g = 1 2 0:0322 = 0:9356 (1.92)

26
b) Se tiene que

X c
P X <c =P p < p (1.93)
= n = n

' P fjN (0; 1)j < 3:704 cg (1.94)

=1 2P fN (0; 1) > 3:704 cg = 0:95 , (1.95)

1 0:95
y entonces P fN (0; 1) > 3:704 cg = 2 = 0:025. Buscando en la tabla de la N (0; 1)

se obtiene P fN (0; 1) > 1:96g = 0:025. Por tanto, debe ser 3:704 c = 1:96, y de aquí

c = 0:529.

c) Se tiene que

X 0:35
P X 7:6 < 0:35 = P X < 0:35 = P p < p (1.96)
= n = n
p p
' P jN (0; 1)j < 0:06481 n =1 2P N (0; 1) > 0:06481 n = 0:95 , (1.97)

p
y entonces P fN (0; 1) > 0:06481 ng = 0:025. Buscando en la tabla de la N (0; 1) se
p
obtiene P fN (0; 1) > 1:96g = 0:025. Por tanto, debe ser 0:06481 n = 1:96, y de aquí

n = 915 .

Apuntes para la asignatura Probabilidad y Procesos Aleatorios Dinamicos

(grupo B, curso 2022/23),

del Grado en Estadística Aplicada,

Facultad de Estudios Estadísticos,

Universidad Complutense de Madrid,

elaborados por Víctor Manuel Ruiz Morcillo

27

También podría gustarte