Está en la página 1de 15

Estadı́stica Hrayr Der Hagopian Tlapanco

Nota #5. Teoremas lı́mite

Nociones preliminares

En estas notas hablaremos de dos de los teoremas más importantes en la Teorı́a de la


Probabilidad: la Ley de los Números Grandes y el Teorema Central del Lı́mite. Antes de
hablar de ellos, debemos mencionar dos conceptos sin los cuales serı́a difı́cil entender estos
teoremas: convergencia de variables aleatorias y la desigualdad de Chebyshev.

1. Convergencia de variables aleatorias: Empezaremos con el siguiente recordato-


rio:
Recordatorio. Se dice que una sucesión numérica x1 , x2 , ... es convergente a un número
real x si para cualquier " > 0 9N 2 N tal que 8n N se cumple que |xn x| < ".
Es decir, a partir de N , los elementos de la sucesión se encuentran cercanos al número
x.
Por ejemplo, la sucesión 1, 12 , 14 , 18 , 16
1
, ... es convergente a cero, pues siempre se puede
1
definir un " > 0 tal que la sucesión esté cerca del cero, por ejemplo, si fijamos " = 64 ,
entonces N = 8, pues a partir del octavo elemento de la serie se cumplirı́a la desigual-
dad que se pide, especı́ficamente, la sucesión es: 1, 12 , 14 , 18 , 161 1 1 1
, 32 , 64 , 128 1
, 256 , ..., nótese
1 1 1
que el octavo elemento de la sucesión es 128 , en cuyo caso se cumple que | 128 0| < 64 ,
1 1
pues 128 < 64 , y lo mismo valdrı́a para el noveno elemento de la serie, el décimo, etc.
Y sin importar el valor que asignemos para ", siempre y cuando se cumpla que " > 0,
podremos encontrar una N 2 N tal que 8n N se tiene que |xn 0| < ".
Ahora bien, si en lugar de una serie numérica tenemos una sucesión infinita de vari-
ables aleatorias, ¿cómo podemos definir convergencia en este caso? Existen al menos
cuatro definiciones que se suelen emplear para convergencia de variables aleatorias que
mencionaremos a continuación.
Sea X1 , X2 , ... una sucesión infinita de variables aleatorias, todas ellas asociadas a un
mismo espacio de probabilidad (⌦, F, P), aunque no necesariamente independientes e
idénticamente distribuidas.

(a) Convergencia puntual: Es el tipo de convergencia más estricta de las que ver-
emos. Sea ! 2 ⌦. Para cada ! fijo, X1 (!), X2 (!), ... es una sucesión de números
reales, por tanto, se define convergencia puntual de la sucesión de variables aleato-
rias X1 , X2 , ... a la variable aleatoria X como:
X(!) = limn!1 Xn (!)
Notación: Xn ! X; 8! 2 ⌦
Ejemplo: La distribución t de Student converge puntualmente a la Normal
Estándar cuando su parámetro n ! 1

1
Estadı́stica Hrayr Der Hagopian Tlapanco

(b) Convergencia casi segura: Este tipo de convergencia es menos estricta que la
puntual. Diremos que la sucesión de variables aleatorias X1 , X2 , ... converge casi
seguramente a la variable aleatoria X si:
P(! 2 ⌦ : Xn (!) ! X(!)) = 1
En este caso, no necesariamente se cumple que Xn (!) ! X(!); 8! 2 ⌦, más
bien exige que aquellos ! 2 ⌦ para los que no se cumpla, tengan una medida de
probabilidad asociada de cero.
c.s.
Notación: Xn ! X
Ejemplo: La Ley (fuerte) de los Números Grandes
(c) Convergencia en probabilidad: Este tipo de convergencia es menos estricta
que los previos dos. Diremos que una sucesión de variables aleatorias X1 , X2 , ...
es convergente en probabilidad a la variable aleatoria X si:
8" > 0 se tiene que P(! 2 ⌦ : |Xn (!) X(!)| > ") ! 0 cuando n ! 1
Es decir, la probabilidad de que la distancia entre Xn (!) & X(!) sea mayor a "
tiende a cero.
p
Notación: Xn ! X
Ejemplo: La Ley (débil) de los Números Grandes
(d) Convergencia en distribución: Es la menos estricta de las cuatro convergen-
cias. Diremos que una sucesión de variables aleatorias X1 , X2 , ... converge en
distribución a la variable aleatoria X si:
Cuando n ! 1 ) FXn (x) ! FX (x); 8x donde FX (x) es continua.
Equivalentemente se puede decir que la sucesión X1 , X2 , ... es convergente en dis-
tribución a la variable aleatoria X si:
limn!1 P(Xn  x) = P(X  x); 8x donde FX (x) es continua.
d
Notación: Xn ! X
Ejemplo: El Teorema Central del Lı́mite

Debe quedar claro que:

• Toda sucesión convergente puntualmente lo será casi con seguridad, pero no toda
sucesión convergente casi con seguridad será convergente puntualmente
• Toda sucesión convergente casi con seguridad será convergente en probabilidad,
pero no toda sucesión convergente en probabilidad lo será casi seguramente
• Toda sucesión convergente en probabilidad lo será en distribución, pero no toda
sucesión convergente en distribución lo será en probabilidad
• Por transitividad de las implicaciones, toda sucesión convergente puntualmente
será convergente en probabilidad y en distribución aunque lo recı́proco no nece-
sariamente se cumple
• Por transitividad de las implicaciones, toda sucesión convergente casi seguramente
será convergente en distribución, pero lo recı́proco no necesariamente se sigue

La Figura 1 muestra la contención de los conjuntos formados por sucesiones conver-


gentes puntualmente, casi seguramente, en probabilidad y en distribución:

2
Estadı́stica Hrayr Der Hagopian Tlapanco

Figure 1: Representación visual de la convergencia de variables aleatorias

2. Desigualdad de Chebyshev: Sea X una variable aleatoria con media y varianza


finitas, µ & 2 respectivamente. Entonces 8" > 0:
2
P(|X µ| ")  "2
Esta desigualdad establece una cota superior o techo a la probabilidad de que una
variable aleatoria tome un valor que diste de su media en más de cierta cantidad " > 0
(arbitraria).

La Ley de los Números Grandes

Teorema: Sea X1 , X2 , ... una sucesión infinita de variables aleatorias i.i.d. con media
finita µ. Entonces: P
Cuando n ! 1 se tiene que n1 ni=1 Xi ! µ
con convergencia casi segura (Ley fuerte) y convergencia en probabilidad (Ley débil).

Básicamente la Ley de los Números Grandes dice que el promedio o media aritmética de
una sucesión muy grande de variables aleatorias i.i.d. converge a la media o Esperanza de
la distribución, cuando ésta existe y es finita.

[Esbozo de demostración.]

Haremos un esbozo de demostración para la Ley débil. Al final se harán dos observaciones
que justifiquen porque no constituye una demostración rigurosa.

3
Estadı́stica Hrayr Der Hagopian Tlapanco

1
Pn
Supongamos que las variables aleatorias Xi tienen varianza finita 2 . Sea Sn = n i=1 Xi ,
puesto que por hipótesis inicial las variables aleatorias Xi son i.i.d.
P P P
) E(Sn ) = E( n1 ni=1 Xi ) = n1 E( ni=1 Xi ) = n1 ni=1 E(Xi ) = n1 nµ = µ
Pn Pn Pn 2
) V ar(Sn ) = V ar( n1 i=1 Xi ) = 1
n2
V ar( i=1 Xi ) = 1
n2 i=1 V ar(Xi ) = 1
n2
n 2 = n

2
Entonces Sn es una variable aleatoria con media µ & varianza n . Recordando que la
2
desigualdad de Chebyshev establece que P(|X µ| ")  "2 , en este caso:
2
) P(|Sn µ| ")  ( n ) "12
2
) P(|Sn µ| ")  n"2

) P(|Sn µ| ") ! 0 cuando n ! 1


1
Pn p
) n i=1 Xi ! µ

Observaciones:

1. Tuvimos que suponer adicionalmente que la varianza era finita. No obstante, esto
puede no ser el caso, como vimos en las notas de la distribución Pareto; si tenemos
X ⇠ P areto(xm , ↵) con xm = 1 & ↵ = 1.5, entonces exhibe comportamiento de “cisne
negro”, y tiene media finita, pero varianza infinita. La Ley de los Números Grandes
abarca ese caso también, pero este esbozo de demostración no.

2. La convergencia en probabilidad requiere una desigualdad estricta al comparar la dis-


tancia con un " > 0, pero la desigualdad de Chebyshev emplea una desigualdad no es-
tricta. En el caso continuo se puede obviar porque en ese caso P(X = x) = 0 8x 2 RX ,
pero en el caso discreto requerirı́amos otra demostración por esa sutileza.

Ejemplos: A continuación mencionaremos algunos ejemplos de la aplicación de la Ley


de los Números Grandes.

1. Lanzamiento de una moneda: Desde que ı́bamos en la primaria o la secundaria


se nos decı́a que la probabilidad de obtener un águila en un lanzamiento de moneda
era igual a la probabilidad de obtener un sol. Pero quizá nuestra curiosidad hacı́a que
lanzáramos la moneda unas diez veces, de las cuales veı́amos que, por ejemplo, en 8 de
esos 10 lanzamientos obtenı́amos un águila y sólo en 2 un sol. Ahora que hemos visto
la Ley de los Números Grandes puede que se entienda mejor esta situación. Vamos
a simular mil lanzamientos de moneda y ver de esos mil lanzamientos en cuántos se
obtienen águila y en cuántos sol (en promedio). Sea X1 , X2 , ..., X1000 una secuencia
de mil variables aleatorias i.i.d. Bern(✓) con ✓ = 0.5, donde definimos “éxito” como
obtener un P águila y “fracaso” como obtener un sol. Según la Ley de los Números
Grandes, n1 ni=1 Xi ! µ, en este caso, como 1000 es un número relativamente grande,
1
P1000
deberı́amos esperar que S1000 = 1000 i=1 Xi tienda a ✓ = 0.5

4
Estadı́stica Hrayr Der Hagopian Tlapanco

Si después de cada lanzamiento calculamos Sn y después graficamos estos valores con


el ensayo correspondiente, veremos que el comportamiento de la serie es convergente
precisamente al valor de ✓ = 0.5 como se muestra en las Figuras 2-41

Figure 2: Primera simulación de mil lanzamientos de moneda

Figure 3: Segunda simulación de mil lanzamientos de moneda


1
Adjunto un archivo de Excel para correr la simulación

5
Estadı́stica Hrayr Der Hagopian Tlapanco

Figure 4: Tercera simulación de mil lanzamientos de moneda

Nótese que en cada simulación la convergencia se da de distinta manera, sin embargo, lo


principal es que a medida que aumenta el número de ensayos, la cercanı́a de Sn respecto
a ✓ = 0.5 es cada vez menor, justo como lo enuncia el esbozo de la demostración que
hicimos para convergencia en probabilidad. Otro aspecto importante, es que 1000
es un número relativamente grande, pero también, bajo ciertos contextos, puede ser
interpretado como un número pequeño, y sin embargo, con una secuencia de tan solo
mil variables aleatorias i.i.d. Bern(✓) vemos que la convergencia es bastante buena.

2. Juegos de casino: Una “ruleta europea” tiene 37 distintos números y supongamos


un juego en el que te pagan 35 fichas si sale el número que eliges, pero pierdes una si
no sale. Fácilmente podemos construir una variable aleatoria como sigue:

x 35 -1
f (x) = P(X = x) 1
37
36
37

Si calculamos
P la Esperanza de esta variable aleatoria:
E(X) = x2RX xf (x) = (35)( 37 1
) + ( 1)( 36
37
) ⇡ 0.027 Si uno ve de forma miope las
cosas, muchos trabajadores en los casinos serán testigos de que con frecuencia, la casa
pierde. Sin embargo, el casino opera con un horizonte más amplio y permite que la Ley
de los Números Grandes haga lo suyo. Digamos que un casino tiene 8 ruletas operando
una vez por minuto por 12 horas seguidas. Esto es un total de 8 ⇥ 60 ⇥ 12 = 5760
veces por dı́a y al cabo de un año 2, 102, 400 veces. Esto es un número muy grande
(compárese con los mil lanzamientos de moneda en las simulaciones del inciso a)). Ası́,
al cabo de tantos ensayos, la casa habrá ganado, contrario a lo que un observador
miope concluirı́a. Un aspecto importante es que la ventaja de la casa (nombre que se

6
Estadı́stica Hrayr Der Hagopian Tlapanco

le da a la Esperanza Matemática del juego) es lo suficientemente pequeño para que la


gente regrese por más y lo suficientemente grande para que la casa gane en el largo
plazo.

Teorema Central del Lı́mite

Teorema: Sea X1 , X2 , ... una sucesión infinita de variables aleatorias i.i.d. con media y
varianza finitas µ & 2 respectivamente. Entonces:
) nµ d
Cuando n ! 1, Zn = (X1 +...+X
p n
n 2
! N (0, 1)

Recordemos quePen el esbozo de la demostración de la Ley de los Números Grandes


2
definimos Sn = n1 ni=1 Xi , la cual es una variable aleatoria con media µ y varianza n .
Ahora bien, nótese que el Teorema Central del Lı́mite se puede reformular de la siguiente
manera:
X1 +...+Xn nµ
(X1 +...+Xn ) nµ (X1 +...+Xn ) nµ 1/n Snpµ d
Zn = p
n 2
= p
n 2
( 1/n ) = n
p
n 2
n
= / n
! N (0, 1)
n

2
Por otra parte, recordemos que en el caso de una distribución Normal, si X ⇠ N (µ, ),
entonces Z = X µ ⇠ N (0, 1) es una Normal Estándar.

Entonces, lo que el Teorema Central del Lı́mite sugiere, es que la variable aleatoria Sn
se distribuye normalmente, pues al restarle su media (µ) y dividir la diferencia entre su
desviación estándar ( pn , conocida como error estándar de la media aritmética muestral),
obtenemos una Normal Estándar, siempre que n sea lo suficientemente grande.

Nótese, sin embargo, que uno de los requisitos para que se cumpla el Teorema Central
del Lı́mite es que las variables aleatorias X1 , X2 , ... deben tener media y varianza finitas. De
nueva cuenta esto no necesariamente aplicarı́a para una sucesión de variables aleatorias i.i.d.
X1 , X2 , ... ⇠ P areto(xm , ↵) con ↵ = 1.5, y dadas las aplicaciones que se mencionaron en
notas previas de la Regla 80-20 o la Ley de Price, es claro que no es despreciable el número
de situaciones cotidianas para los cuales no aplica este Teorema.

No es cuestión sencilla la demostración de este Teorema, por lo que no la incluiremos.


La prioridad es que se entienda cómo interpretar este Teorema, ası́ como sus limitaciones.

Ejemplos: A continuación ilustraremos el Teorema Central del Lı́mite con algunas sim-
ulaciones hechas en R 2 :

1. Distribución Normal: Supongamos que la estatura de una población se distribuye


normalmente con media µ = 170cm & varianza 2 = 225, i.e. la desviación estándar
es de = 15. Pensemos en los siguientes “experimentos”:
• Experimento 1: Extraer una muestra aleatoria (con reemplazo) de 9 personas,
registrar su estatura y sacar el promedio (media aritmética) de la muestra. Repetir
eso 5,000 veces.
2
Adjunto archivos con el código

7
Estadı́stica Hrayr Der Hagopian Tlapanco

• Experimento 2: Extraer una muestra aleatoria (con reemplazo) de 225 personas,


registrar su estatura y sacar el promedio (media aritmética) de la muestra. Repetir
eso 5,000 veces.
• Experimento 3: Extraer una muestra aleatoria (con reemplazo) de 10,000 per-
sonas, registrar su estatura y sacar el promedio (media aritmética) de la muestra.
Repetir eso 5,000 veces.

Para cada uno de los experimentos se puede obtener Sn & Zn . En el experimento 1 por
ejemplo, Sn es S9 , pues el tamaño de la muestra es 9 y se están promediando 9 estaturas
a la vez. Por hipótesis inicial las estaturas observadas provienen de una distribución
N (170, 225), entonces sabemos que = 15 y se dijo que n = 9, por tanto, Zn = Z9 =
Sn p170
15/ 9
= Sn 5170 . Como estamos repitiendo el experimento 5,000 veces, habrá 5,000
valores para Sn y 5,000 valores para Zn . Las Figuras 5-7 muestran los resultados de
estos experimentos (simulados), representados por medio de un Histograma. Nótese
que conforme el tamaño de la muestra es mayor, i.e. conforme n ! 1, los valores de
Sn se desvı́an muy poco de la media poblacional µ = 170 3 . Por otra parte, parece que
Zn se distribuye Normal Estándar en los tres casos, esto se debe a que el experimento
se repitió un número relativamente grande de veces: 5000.

Figure 5: Resultados del Experimento 1


3
Esto debe de tener sentido para el lector porque se mencionó que Sn es una variable aleatoria con media
2
µ y varianza n , entonces a medida que n ! 1, la varianza de Sn disminuye. La distribución de Sn es
llamada la “distribución muestral de la media aritmética muestral”, y otra forma de parafrasear el Teorema
Central del Lı́mite es que afirma que, si una distribución tiene media y varianza finitas, y además la muestra
es lo suficientemente grande; entonces la distribución muestral de la media aritmética muestral se distribuirá
aproximadamente Normal

8
Estadı́stica Hrayr Der Hagopian Tlapanco

Figure 6: Resultados del experimento 2

Figure 7: Resultados del experimento 3

2. Distribución Poisson: Supongamos el ejemplo de la Tarea 3, donde se modela el


número de aviones que llegan a un aeropuerto internacional cada 10 minutos con una
distribución Poisson con parámetro = 3 4 . Pensemos en los siguientes “experimen-
tos”, parecidos a los detallados en el inciso anterior:

• Experimento 4: Tomar una muestra aleatoria de 9 intervalos de 10 minutos, regis-


trar el número de aviones que llegan en cada intervalo y sacar el promedio (media
aritmética) de la muestra. Repetir eso 5,000 veces.
4
Antes del COVID-19

9
Estadı́stica Hrayr Der Hagopian Tlapanco

• Experimento 5: Tomar una muestra aleatoria de 225 intervalos de 10 minutos,


registrar el número de aviones que llegan en cada intervalo y sacar el promedio
(media aritmética) de la muestra. Repetir eso 5,000 veces.

De forma análoga al inciso anterior, podemos calcular Sn & Zn . Las Figuras 8 y 9


muestran los resultados de los experimentos.

Figure 8: Resultados del experimento 4

Figure 9: Resultados del experimento 5

Nótese que de nueva cuenta, a medida que n ! 1, la varianza de Sn disminuye. Por


otra parte, la distribución de Zn no se parece tanto a la Normal Estándar, pero recuerde
que la convergencia que se emplea en el Teorema Central del Lı́mite es en distribución,
la menos estricta de todas.

10
Estadı́stica Hrayr Der Hagopian Tlapanco

3. Distribución Gamma: Supongamos que una variable aleatoria X ⇠ Gamma(↵, )


subyace cierto proceso, con ↵ = = 2 . Pensemos en los siguientes “experimentos”
parecidos a los mencionados en los dos incisos previos:

• Experimento 6: Extraer una muestra aleatoria (con reemplazo) de 9 valores, reg-


istrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso 5,000
veces.
• Experimento 7: Extraer una muestra aleatoria (con reemplazo) de 100 valores,
registrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso
5,000 veces.

De forma análoga a los dos incisos anteriores, podemos calcular Sn & Zn . Las Figuras
10 y 11 muestran los resultados de los experimentos.

Figure 10: Resultados del experimento 6

Figure 11: Resultados del experimento 7

11
Estadı́stica Hrayr Der Hagopian Tlapanco

Nótese nuevamente, que conforme n ! 1 la varianza de Sn disminuye. En este caso


la distribución de Zn se parece más a la Normal Estándar que en el caso de la Poisson.
Se le sugiere al lector buscar aplicaciones de la distribución Gamma para que sea más
significativo.

4. Distribución Pareto: Supongamos dos distribuciones Pareto distintas que subyacen


dos fenómenos distintos (como los mencionados en las notas): X ⇠ P areto(xm , ↵1 )
con xm = 1 & ↵1 = 3 & Y ⇠ P areto(ym , ↵2 ) con ym = 1 & ↵2 = 1.5. Pensemos en el
siguiente experimento para la variable aleatoria X:

• Experimento 8: Obtener una muestra aleatoria (con reemplazo) de 100 valores,


registrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso
5,000 veces.

La Figura 12 muestra los resultados del experimento 8.

Figure 12: Resultados del experimento 8

Nótese que en este caso, por el valor del parámetro ↵1 , la distribución tiene media
y varianza finitas, lo cual tiene como consecuencia que la distribución muestral de la
media aritmética muestral (i.e. la distribución de Sn ) es aproximadamente Normal.

Por otra parte, pensemos en los siguientes experimentos para la variable aleatoria Y :

• Experimento 9: Obtener una muestra aleatoria (con reemplazo) de 25 valores,


registrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso
5,000 veces.
• Experimento 10: Obtener una muestra aleatoria (con reemplazo) de 100 valores,
registrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso
5,000 veces.

12
Estadı́stica Hrayr Der Hagopian Tlapanco

• Experimento 11: Obtener una muestra aleatoria (con reemplazo) de 900 valores,
registrarlos y sacar el promedio (media aritmética) de la muestra. Repetir eso
5,000 veces.

La Figura 13 muestra los resultados de estos experimentos.

Figure 13: Resultados de los experimentos 9, 10 & 11

Nótese que Sn NO se distribuye normalmente. Además, es imposible de calcular Zn ,


pues la varianza es infinita.

Esto es un contraejemplo claro de que el Teorema Central del Lı́mite NO aplica para
todas las distribuciones. Vale la pena mencionar que varios temas económicos y/o
financieros exhiben comprtamiento de “cisne negro”, por ejemplo la distribución del
ingreso/riqueza. Otro ejemplo, es que en ocasiones se mide el riesgo de una inversión
con su desviación estándar. Sin embargo, ¿qué sucede si la varianza es infinita? En
Finanzas es común que se usen “distribuciones de colas pesadas” (como la Pareto con
varianza infinita), y se recurra a otras medidas de riesgo más sofisticadas que la simple
desviación estándar.

13
Estadı́stica Hrayr Der Hagopian Tlapanco

Con esto terminamos la primera parte del curso: el estudio de la Probabilidad. En lo


que sigue se estudiará propiamente la Estadı́stica, es decir, el problema de hacer inferencias
sobre la población con base en una muestra.

Una forma de entender mejor la diferencia entre Probabilidad y Estadı́stica es entendiendo


la diferencia entre razonamiento deductivo y razonamiento inductivo:

• El razonamiento deductivo va de lo general a lo particular, se basa en axiomas, premisas


y haciendo uso de reglas de inferencia 5 combina la información dada por los axiomas
y las premisas y llega a conclusiones. Si los axiomas y las premisas son verdaderas,
entonces necesariamente la conclusión será verdadera, siempre y cuando se hayan em-
pleado correctamente las reglas de inferencia. Por ejemplo:

Todos los hombres son mortales.


Sócrates es un hombre.
) Sócrates es mortal.

• Por otra parte, el razonamiento inductivo va de lo particular a lo general, y las con-


clusiones a las que se llega no necesariamente son verdaderas aunque las premisas de
las que uno parta lo sean. Por ejemplo:
Se lanza una moneda justa 100 veces, de las cuales, 47 veces cae águila.
Se modela con una distribución Binomial: X ⇠ Bin(n, ✓), donde n = 100, y se define
como éxito que caiga águila ) fueron 47 éxitos. P
Se usa el estimador máximo verosı́mil para el parámetro ✓, i.e. ✓ˆM LE = n1 ni=1 Xi =
1 1 1
n
(X1 + ... + Xn ) = 100 (X1 + ... + X100 ) = 100 (47) = 0.47
ˆ
Se concluye que ✓M LE = 0.47, i.e. la probabilidad de que caiga águila es de 0.47

La Teorı́a de la Probabilidad usa primordialmente el razonamiento deductivo, por eso


comenzamos el curso mencionando lo necesario para construir la teorı́a: se necesita un
conjunto de resultados (⌦) asociado a un experimento aleatorio ("). Después, al conjunto
de resultados le asociamos una -álgebra llamada “espacio de eventos” (F), para después
poder definir una función, llamada “medida de probabilidad” (P) que nos permita por ası́
decirlo, “medir el grado de creencia” que tenemos de que se materalice un evento u otro de
todos los eventos contemplados en F, siempre y cuando la medida sea consistente con los
Axiomas de Kolmogorov.

Después definimos una variable aleatoria (y también vector aleatorio) que podı́a ser disc-
reta o continua y mencionamos muchos conceptos asociados (que fue la parte aburrida del
curso): funciones de masa o densidad de probabilidad, funciones de distribución, momentos
centrales y crudos, función generadora de momentos, esperanza, varianza, sesgo, curtosis,
cuantiles, moda, distribuciones condicionales, distribuciones marginales, independencia de
variables aleatorias, covarianza, correlación, etc.

Posteriormente exploramos una buena cantidad de distribuciones de probabilidad que son


empleadas con frecuencia en el modelamiento de varios fenómenos. Finalmente hemos llegado
5
Por alguna razón se le llaman reglas de inferencia pese a que se emplean para el razonamiento deductivo

14
Estadı́stica Hrayr Der Hagopian Tlapanco

a ciertas regularidades conocidas como Teoremas Lı́mite: la Ley de los Números Grandes
y el Teorema Central del Lı́mite. En esta parte del curso hemos recurrido en ocasiones a
demostraciones o esbozos de demostración, pues es la forma de exhibir que estamos emple-
ando correctamente las reglas de inferencia para llegar a conclusiones verdaderas (siempre y
cuando sean verdaderos los axiomas y las premisas de las cuales partimos).

De ahora en adelante el reto es cambiar nuestro razonamiento a uno primordialmente


inductivo. Buscamos sacar conclusiones del todo conociendo únicamente una parte. Nótese el
reto que ello implica y que no existe una receta de cocina que garantice que podamos conocer
el todo con base en una parte. Lo que existe son consensos que van cambiando conforme
pasa el tiempo y razonamientos coherentes o convincentes de por qué una aproximación al
problema es preferible a otra, por ejemplo, al elegir entre métodos de estimación puntual.

15

También podría gustarte