Está en la página 1de 2

Universidad Nacional José Faustino Sánchez Carrión

FIISI - Ingeniería Industrial - IV Ciclo


Alumno: Albinagorta Sánchez Rodrigo

Teorema del límite central


1. Definición: El teorema del límite central es un teorema fundamental de probabilidad y
estadística. El teorema describe la distribución de la media de una muestra aleatoria
proveniente de una población con varianza finita. Cuando el tamaño de la muestra es lo
suficientemente grande, la distribución de las medias sigue aproximadamente una
distribución normal.

2. Teorema:
Se define Sn como la suma de n variables aleatorias, independientes, idénticamente
distribuidas, y con una media µ y varianza σ2 finitas (σ2≠0):

de manera que, la media de Sn es n·µ y la varianza n·σ2, dado que son variables aleatorias
independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso,
se hace una estandarización de Sn como:

para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1.
Así, las variables Zn convergerán en distribución a la distribución normal estándar N(0,1),
cuando n tienda a infinito. Como consecuencia, si Φ(z) es la función de distribución de
N(0,1), para cada número real z:

donde Pr( ) indica probabilidad y lim se refiere a límite matemático.


De manera formal, normalizada y compacta, el teorema es:

3. Varianza nula o infinita:


En el caso de n variables aleatorias Xi independientes e idénticamente distribuidas, cada una
de ellas con varianza nula o infinita, la distribución de las variables:
 Varianza infinita:
Considérese el caso de variables que siguen una distribución de Cauchy:

En este caso puede demostrarse que la distribución asintótica de Sn viene dada por
otra distribución de Cauchy, con menor varianza:

 Varianza nula:
Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac
cuya función de distribución viene dada por:

En este caso resulta que la variable Sn trivialmente tiene la misma distribución que
cada una de las variables independientes.

Requisitos para un buen estimador


1. Definición: En estadística, un estimador es un estadístico (esto es, una función de la
muestra) usado para estimar un parámetro desconocido de la población.

2. Requisitos:
 Sesgo: Se denomina sesgo de un estimador a la diferencia entre la esperanza (o
valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es
deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo
por ser su esperanza igual al parámetro que se desea estimar.
 Eficiencia: Diremos que un estimador es más eficiente o más preciso que otro
estimador, si la varianza del primero es menor que la del segundo.
 Consistencia: Si no es posible emplear estimadores de mínima varianza, el
requisito mínimo deseable para un estimador es que a medida que el tamaño de la
muestra crece, el valor del estimador tiende a ser el valor del parámetro, propiedad
que se denomina consistencia.
 Robustez: Será un estimador robusto si la violación de los supuestos de partida en
los que se basa la estimación (normalmente, atribuir a la población un determinado
tipo de función de distribución que, en realidad, no es la correcta), no altera de
manera significativa los resultados que éste proporciona.
 Suficiencia: Se dice que un estimador es suficiente cuando resume toda la
información relevante contenida en la muestra, de forma que ningún otro estimador
pueda proporcionar información adicional sobre el parámetro desconocido de la
población.