Está en la página 1de 5

8.

1 Inferencia estadística
Enlace: https://youtu.be/NaST4u0nUVY (13.07 min)
Introducción.
Inferencia estadística: es el proceso mediante el cual se generalizan a una población las
conclusiones obtenidas a partir una muestra de dicha población.

Métodos.
- Estimación de parámetros: a partir de la muestra obtener valores aproximados de los
parámetros de la población, ya sea puntualmente o por intervalo.
- Contraste de hipótesis: a partir de la muestra decidir sobre la validez o no de hipótesis
sobre algún parámetro poblacional.
Características de la muestra.
Representativa: que refleje lo mejor posible las características de la población.
Tamaño muestral: Depende si el problema es estimación o de contraste de hipótesis, de
las características de la población y la magnitud de los errores que estamos dispuesto a
cometer.
Muestra aleatoria: Se define como un conjunto de variables aleatorias independientes
X 1 , X 2 ,..., X n y con la misma distribución de probabilidad ℙ.

Distribución empírica de la muestra: Dada una muestra aleatoria, es posible encontrar


una distribución a partir de la muestra que proporcionará un cierto parecido a la
distribución verdadera de la variable asociada a la población.
Es una función real de variable real donde, a cada valor x se le asigna la frecuencia relativa
acumulada muestral.

1 n
Fˆn ( x )   I ( X i  x)
n i 1

Siendo I ( X i  x) 1 o 0 según ocurra o no el suceso  X i  x

La principal propiedad de Fˆn ( x ) es su aproximación a la función de distribución


poblacional cuando aumenta el tamaño muestral, tal y como se enuncia en el siguiente
Teorema.

Teorema de Glivenko- Cantelli

Sea X 1 , X 2 ,..., X n una muestra aleatoria de una variable aleatoria X con función de
distribución acumulativa F (x) y sea Fˆn ( x ) la función de distribución empírica de la
muestra. Entonces, para cualquier valor de x se verifica, a medida que n  
 
E  Fˆn ( x)  F ( x)   0
2

 

Se denomina Teorema fundamental de la Estadística y garantiza que el


muestreo aleatorio produce muestras representativas de la variable de interés que, con el
tamaño adecuado, permiten aproximar la función acumulativa de dicha variable.
A continuación se muestra el efecto del Teorema de Glivenko-Cantelli a medida
que aumenta el tamaño de la muestra la función de distribución empírica de la muestra
Fˆ ( x ) se aproxima cada vez más a la función de distribución acumulativa teórica de la
n

variable aleatoria F ( x) .

Inferencia Estadística. Estimación


Estimación: Obtención del valor aproximado de un parámetro.
Estimación puntual: si proporciona un único valor aproximado de dicho parámetro.
Estimación por intervalo de confianza: si proporciona un intervalo que, con cierto nivel
de confianza, contiene al parámetro.

Conceptos

Estadístico: Dada una muestra aleatoria X 1 , X 2 ,..., X n se denomina estadístico a


cualquier función de sus valores.

Estimador: Dado un parámetro  de una población y una muestra aleatoria


X 1 , X 2 ,..., X n de la misma se denomina estimador de  a cualquier estadístico,
ˆ  ˆ( X 1 , X 2 ,..., X n )

Cuyos valores se aproximen a  .

Un estimador es una variable aleatoria, habrá de caracterizarse en términos de una


distribución de probabilidad sobre sus posibles valores.

Ejemplos
Se puede estimar la esperanza de una variable mediante la media de una muestra aleatoria
de dicha variable.
Se puede estimar la proporción de una población mediante la proporción equivalente en
la muestra aleatoria.

Propiedades deseables de un estimador.


Exactitud: distancia entre el estimador y el parámetro, dicha distancia e denomina sesgo
del estimador

Sesgo(ˆ)  E ˆ   

 0  estimador exacto, insesgado o centrado


Sesgo(ˆ)  E ˆ    
 0  estimador sesgado

 0  media > parámetro  sesgo positivo  sobrestimación


Sesgo(ˆ)  E ˆ    
 0  media < parámetro  sesgo negativo  subestimación

Precisión: Dado que un estimador es una variable aleatoria cuyo valor cambia con la
muestra, la precisión viene dada por la dispersión del estimador que se mide mediante su
varianza  2ˆ . A menor varianza, el estimador estará más centrado. La desviación típica
del estimador, se denomina Error estándar y viene dada por,

 ˆ  var(ˆ)

Estimador centrado y dispersión grande, habrán muestras con estimaciones alejadas del
valor del parámetro.
Estimador centrado y dispersión pequeña, la estimación obtenida estará próxima al valor
del parámetro.
Ilustración de diferentes casos de precisión y sesgo: (1) preciso, no exacto y sesgado (2)
preciso y exacto (3) ni preciso ni exacto (4) exacto pero no preciso
Error cuadrático medio: Es la medida conjunta del sesgo y la varianza de un estimador.
Es una medida útil cuando se debe elegir entre varios estimadores del mismo parámetro.
Viene dado por,

 
ECM ˆ   E  ˆ     Sesgo ˆ   
2 2
 var(ˆ)
 
Es deseable que sea pequeño

Consistencia: Un estimador ˆ de un parámetro  es consistente si verifica que,

 
lim P ˆ      1   0
n 

A medida que aumenta el tamaño de la muestra, es más probable que el valor del
estimador esté más próximo al valor del parámetro.
Ejemplos
La media muestral es un estimador centrado de la media poblacional

1 n  1 n 1
E  X   E   X i    E  X i   n  
 n i 1  n i 1 n

La varianza muestral es un estimador sesgado de la varianza poblacional

1 n
  Xi  X 
2
Sea la varianza muestral s 2 
n i 1
n 1 2 1
Sesgo( s 2 )  E  s 2    2    2    2
n n

1 n 1 n
     X i   X 2 con E  X i    var( X i )   2
2 2
Nota: s 2  X i  X 
n i 1 n i 1
Sabemos que,
2
 
2
E  X i    var( X i )  E  X i     2   2 y E  X 2   var( X )  E  X 
2 2
  2
  n
1 n
 1 1 n
2
E  s 2   E    X i   X 2   E    X i    E  X 2  
2

 n i 1  n  n i 1 
1  2  n 1 2
  n( 2   2 )      2   
n  n  n

La cuasi-varianza muestral es un estimador centrado de la varianza poblacional

1 n
  Xi  X 
2
Sea la cuasi-varianza muestral s 2 
n  1 i 1

 1 n 2 1  n 2
E  s 2   E    X i  X    E    Xi  X   
 n  1 i 1  n  1  i 1 
1  n
2 1
E   X i     n  X     
2
  n 2   2    2
n  1  i 1  n 1

La proporción muestral de éxitos es un estimador insesgado de la proporción de la


población p
Sea X una variable aleatoria de Bernoulli de parámetro p,

Número de éxitos N
Sea pˆ   E
Número de observaciones n

El número de éxitos N E en n ensayos independientes sigue una distribución binomial


B (n, p ) y,

N  1 1
E  pˆ   E  E   E  N E   np  p
 n  n n

Puede demostrarse que:


La media muestral, la cuasi-varianza muestral y la proporción muestral
Son estimadores insesgados, de mínima varianza y consistentes de los parámetros:
Media, varianza y proporción poblacionales.

También podría gustarte