Está en la página 1de 7

TEMA 6: INFERENCIA ESTADÍSTICA

Usaremos inferencia estadística cuando no conozcamos a priori los parámetros del modelo
probabilístico que rigen los resultados de un experimento, y para conocerlos se necesite recoger
datos.

Para hallar el parámetro Ө (multidimensional, pues puede haber más de un parámetro) podemos
realizar:

 Estimación: determinamos el valor desconocido por una característica de la población.


Tenemos dos tipos de estimación:
o Estimación puntual: Basándonos en la muestra se le aproxima al parámetro un valor,
observando las propiedades de ese valor.
o Estimación por intervalo: Basándonos en la muestra se da un intervalo que contenga
al parámetro teniendo un cierto nivel de “confianza”.
 Contrastes de hipótesis: Se trata de un problema de decisión entre dos hipótesis (ej:
H 0 : μ≤ μ0 y H 1 : μ> μ0 ) en el que desarrollaremos una regla de decisión basándonos en la
muestra.

Como diría la liebre de Marzo, comencemos por el comienzo:

Estimación puntual
Para estimar Ө usaremos la función de muestra

^
Өn ( X 1 , … , X n ) donde
{ Error estándar=√ e n
^ −Ө ) 2)
Error cuadrático medio=e n=E ( ( Ө n

^ es un estimador o valor estimado deӨ obtenido.


Ө es el valor real de los parámetros, mientras que Ө
Este tipo requiere encontrar estimadores puntuales que se pueden hallar mediante dos métodos:

1. Método de los momentos:

Este método consiste sencillamente en igualar el momento poblacional ( μk =E ¿)) con el momento
n k
X
muestral (mk =x =∑ ( i )), y del sistema de ecuaciones resultante obtener Ө ( μk siempre depende de
k

i=1 n
alguna componente de Ө).

Cuando Ө es de dimensión m hacemos las siguientes igualaciones:

μ1=m1 μ2=m2 μ3=m3


⋮=⋮
μm =mm

Con un ejemplo se entiende mucho mejor…(siguiente página)

Ejemplo:
Hallar los parámetros de X N ( μ , σ ) , donde , por lo tanto , Ө=( μ , σ ) .
2 2
Este Ө es de dimensión 2, con lo cual tendremos que hacer
μ1=m1 μ2=m2

Sabemos que μ1=E ( X 1 ) = μ (la primera componente deӨ )


Por otro lado, μ2=E ( X 2 )=Var ( X ) + E ( X ) =σ 2 + μ2
2

Así pues, haciendo la igualación


n 1
Xi
^μ=m1 ¿ x =∑ (
1
)
i=1 n
n 2
X
σ^ + μ^ =m 2 ¿ x =∑ ( i )
2 2 2

i=1 n

Estos últimos sumatorios se realizarían fácilmente conociendo toda la muestra. Tras esto
resolveríamos el sistema y acabaríamos. Los gorritos (^) se ponen porque son estimadores, o
^ ^μ , σ^ ))
valores aproximados (Ө=(
2. Método de máxima verosimilitud
Este método es mucho más usado para obtener un estimador puntual por su mayor eficiencia.
Ahora usaremos esta notación:
f ( variable∨parámetro)

Siendo f la función puntual o de densidad (según si estamos en un modelo discreto o continuo).


Como estamos tratando con muestras aleatorias y, por lo tanto, cada variable X i es independiente
del resto, podemos decir que…
n
f ( x 1 , x 2 , … , x n ∨Ө )=f 1 ( x 1|Ө ) · f 2 ( x2|Ө ) · … · f n ( xn|Ө ) =∏ f i (x i∨Ө)
i=1

Pues bien, la función de verosimilitud Ln equivale a la puntual o de densidad conjunta (


f ( x 1 , x 2 , … , x n ∨Ө )), sólo que en vez de tomar Ө como parámetro lo toma como variable, y la muestra
es el parámetro, de forma que tenemos
n
L ( Ө∨x 1 , x 2 , … , x n )=L1 ( Ө|x 1) · L2 ( Ө|x 2 ) ·… · Ln ( Ө|x n ) =∏ Li (Ө∨xi )
i=1

Al final realmente es lo mismo, pero conceptualmente vemos que es distinto, es decir


f ( x 1 , x 2 , … , x n ∨Ө )=L ( Ө∨x 1 , x 2 ,… , x n ), pero los parámetros de uno son las variables del otro.

Esto quiere decir que para pasar de f a L tenemos que fijar x 1 , x 2 , … , x n , es decir, pasan a ser
parámetros constantes.
^ es el valor de Ө que hace máxima la función L.
Finalmente el estimador Ө

Veámoslo más claramente con un ejemplo.

Ejemplo
X 1 , X 2 , … , X nes una muestra aleatoria que sigue una distribución exponencial de parámetro λ , es
decir:
X i exp( λ)

Estimar λ .

Como se trata de una distribución exponencial, la función de densidad será del siguiente modo:

{
λ·x
f ( x|λ )= λ· e si x> 0
0 en el resto

Como cada X i es independiente del resto…


n
n n − λ· ∑ x i
f ( x 1 , x 2 , … , x n|λ )=∏ f i (xi ∨λ)=∏ ( λ· e
− λ· xi n
)=λ · e i=1

i=1 i=1

Una vez hallado f sacamos L dejando λ como variable y x 1 , x 2 , … , x n como parámetros constantes.
n

L( λ∨x 1 , x 2 , … , x n) = λ n · e− λ·∑ x i=1


i

Para hallar ^λ realizaremos la derivada e igualaremos a 0 (debe ser valor máximo).


n
ln ( L ( λ|x1 , x 2 , … , x n) )=n· ln ( λ )−λ· ∑ ( x i ) →
i=1

( ) ( )( )
n
−λ· ∑ x n n
n n
→ L ( λ|x 1 , x 2 , … , x n ) =L ( λ|x 1 , x 2 ,… , x n ) −∑ ( xi ) = λ · e · −∑ ( x i )
i
' n i=1

λ i=1 λ i=1

Por lo tanto

{
n
− λ· ∑ x i
n n
λ ·e i=1
=0 → λ =0 → λ=0
L ( λ|x 1 , x 2 , … , x n )=0 si
( )
' n
n n
−∑ ( x ) =0 → λ=
λ i=1 i n

∑ ( xi )
i=1

No tiene sentido que en una exponencial λ sea 0, con lo cual…

^λ= n
n

∑ ( x i)
i=1

Estimación por intervalos


Ahora en vez de querer hallar un valor aproximado de Ө, intentaremos hallar el intervalo en el que
se haya.

Llamaremos α a la probabilidad de que Ө no se halle en el intervalo que fijamos, de forma que


α =P ¿

A 1 - α SE LE LLAMA “NIVEL DE CONFIANZA”. A α sola “NIVEL DE RIESGO"

En este tipo de estimación, nosotros usaremos siempre distribuciones normales ( X i N ( μ , σ 2 )), y


nuestro objetivo será estimar el intervalo en el que se encuentra µ. Por el teorema central del
límite, si n es muy grande podemos tomar la distribución como una normal en caso de que no lo
fuera.

Los valores más típicos de α suelen ser 0.1 , 0.05 y 0.01 , de modo que el nivel de confianza suele ser
del 90%, 95% y 99%, respectivamente. EL VALOR DEL NIVEL DE CONFIANZA NOS LO DAN SIEMPRE.

Usaremos X n para sacar µ.

( X n −μ )
Sabemos que… X n N ( μ , σ2) → =Zn N (0,1)
σ /√n

Lo siguiente sería igualar 1-α a la probabilidad de que Z n esté entre –c y c (constantes que
despejaremos)

P (−c < Z n< c ) =1−α → P ( Z n ∉ (−c ,c ) ) =P ( Z n ←c ) + P ( Z n > c ) =α

Esta sería la campana gaussiana que


se forma. Podemos ver cómo
claramente el área que hay antes de
–c es igual que el área que hay
después de c, con lo cual
P ( Z n ←c ) =P(Z n > c)

Teniendo esto último en cuenta seguimos…


α α
P ( Z n ←c ) + P ( Z n> c )=α → 2 · P ( Z n> c )=α → P ( Z n >c ) = → P ( Z n ≤ c ) =1−
2 2

¡De aquí podemos sacar c mirando la tabla de la distribución normal! (recordemos que Z n N (0,1))

Una vez calculado c, µ se puede calcular de un modo muy sencillo.


Teniendo nuestra suposición de que
−c < Z n< c
Con su correspondiente nivel de confianza, podemos despejar µ de forma que ese intervalo de µ
tiene lógicamente la misma probabilidad de ser cierto.
( X n−μ )
Recordemos que Z n= , por lo tanto, podemos despejar µ y hallar el intervalo:
σ /√n
√ n · ( X n−μ ) σ σ
−c < Z n< c →−c< < c →−c· −X n ← μ< c· −X n →
σ √n √n

σ σ
→ c· + X n > μ>−c· + X n
√n √n
Dicho de otro modo:

c·σ c·σ
μ ∈[ X n− , X n+ ]
√n √n
(da igual si los límites están incluidos o no, recordemos que estamos en variable continua)

*Nota: la profesora muchas veces expresa c como Z1− α2

Ejemplo
Una empresa dedicada a la fabricación de material de construcción está interesada en estudiar la
conductividad térmica de un tipo de ladrillo. Para ello se seleccionó una muestra de 36 unidades de
manera aleatoria, obteniendo una conductividad media muestral de X n = 0,343 y una desviación
típica poblacional σ = 0,01. Suponiendo que los datos proceden de una distribución normal
construir, detalladamente, un intervalo de confianza al 95% para la conductividad media de dicho
tipo de ladrillos.

α 0.05
Nivel de confianza = 95%  1-α = 0,95 2 = 2 =0.025

P (−c < Z n< c ) =1−α → P ( Z n ∉ (−c ,c ) ) =P ( Z n ←c ) + P ( Z n > c ) =α →


α α
→ 2· P ( Z n >c ) =α → P ( Z n >c )= → P ( Z n ≤ c )=1−
2 2
Viendo la tabla, comprobamos que…
c = 1,96
Una vez hallado c, buscamos el intervalo de µ

√ n · ( X n−μ )
σ σ
−c < Z n< c →−c< < c →−c·
−X n ← μ< c· −X n →
σ √n √n
σ σ 49 49
→ c· + X n > μ>−c· + X n →0,343+ > μ>0,343−
√n √n 15000 15000
El error en estimación por intervalos es el siguiente producto:

c·σ
Error=
√n
Para hacer que este error sea mínimo, lo único que podemos hacer es aumentar n ya que, en una
misma muestra aleatoria, c y σ son siempre constantes. Al fin y al cabo, en todo experimento
cuantas más pruebas hagamos más seguros podremos estar de las conclusiones, y menor será el
error, así que lógicamente tiene sentido.
Algunas veces nos pedirán n teniendo una cota máxima de error

Ejemplo

{
Error ≤ 0,004
Siendo c=1,96 calcula el valor mínimo de n
σ=0,01

Sencillo…, tan sólo tenemos que despejar “n” en la siguiente inecuación:

c·σ 0,0196
Error= ≤ 0,004 → ≤ √ n→ n ≥ 24
√n 0,004

Contrastes de hipótesis
También en contrastes de hipótesis, usaremos siempre distribuciones normales ( X i N (μ , σ 2 )), y
nuestro objetivo será estimar el intervalo en el que se encuentra µ. Por el teorema central del
límite, si n es muy grande podemos tomar la distribución como una normal en caso de que no lo
fuera.

Para formular las hipótesis usaremos μ0, de forma que tendremos dos hipótesis de comparación
entre μ y μ0 , siendo una lo contrario de la otra (ej: H 0 : μ> μ0 → H 1 : μ ≤ μ0)

A nuestras dos hipótesis las llamaremos { Hipótesis nula ( H 0 ) (la princ ipal)
Hipótesis alternativa(H 1 )

Tendremos que decidir una hipótesis por la que decantarnos. Para ello seguiremos la siguiente regla

1) Construimos el estadístico de prueba (δ ( X 1 , X 2 , … , X n))

X n−μ0
δ ( X1 , X 2, … , X n)= =Z 0
σ/√n

2) Regla de decisión ( R1)

Si δ (X 1 , X 2 , … , X n) ∈ R 1 (región de rechazo) entonces rechazaremos H 0. Si no, no rechazamos


Tenemos la siguiente tabla:

Mundo real \ Nuestra decisión No rechazamos H 0 Rechazamos H 0


H 0 es cierta ✓✓ Error tipo I
H 0 no es cierta Error tipo II ✓✓
Ahora α será el “nivel de significación” y será equivalente al error de tipo I. β será el error de tipo II.

α =P ( error tipo I )=P ( δ ( X 1 , X 2 , … , X n ) ∈ R1|H 0 es cierta ) β=P ( error tipo II )=P ¿

3) Determinamos R1

Podemos comprobar que δ ( X 1 , X 2 , … , X n ) N (0,1) (sólo si H 0 es cierta)

Tenemos un prevalor “c” que limita la región R0 (región de aceptación) .

Para explicarlo, supongamos que…


H 0 : μ=μ0 ; H 1 : μ> μ 0

Nuestro dibujo sería el siguiente:

En este dibujo lo que se mide es la probabilidad de δ ( X 1 , X 2 , … , X n ) (también llamado Z 0(para


simplificar lo llamaremos así a partir de ahora).

Como podemos apreciar, P( Rechazar H 0|H 0 cierta ) =¿P(Z 0< c∨Z0 N (0,1)) = α

También podría gustarte