Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Usaremos inferencia estadística cuando no conozcamos a priori los parámetros del modelo
probabilístico que rigen los resultados de un experimento, y para conocerlos se necesite recoger
datos.
Para hallar el parámetro Ө (multidimensional, pues puede haber más de un parámetro) podemos
realizar:
Estimación puntual
Para estimar Ө usaremos la función de muestra
^
Өn ( X 1 , … , X n ) donde
{ Error estándar=√ e n
^ −Ө ) 2)
Error cuadrático medio=e n=E ( ( Ө n
Este método consiste sencillamente en igualar el momento poblacional ( μk =E ¿)) con el momento
n k
X
muestral (mk =x =∑ ( i )), y del sistema de ecuaciones resultante obtener Ө ( μk siempre depende de
k
i=1 n
alguna componente de Ө).
Ejemplo:
Hallar los parámetros de X N ( μ , σ ) , donde , por lo tanto , Ө=( μ , σ ) .
2 2
Este Ө es de dimensión 2, con lo cual tendremos que hacer
μ1=m1 μ2=m2
i=1 n
Estos últimos sumatorios se realizarían fácilmente conociendo toda la muestra. Tras esto
resolveríamos el sistema y acabaríamos. Los gorritos (^) se ponen porque son estimadores, o
^ ^μ , σ^ ))
valores aproximados (Ө=(
2. Método de máxima verosimilitud
Este método es mucho más usado para obtener un estimador puntual por su mayor eficiencia.
Ahora usaremos esta notación:
f ( variable∨parámetro)
Esto quiere decir que para pasar de f a L tenemos que fijar x 1 , x 2 , … , x n , es decir, pasan a ser
parámetros constantes.
^ es el valor de Ө que hace máxima la función L.
Finalmente el estimador Ө
Ejemplo
X 1 , X 2 , … , X nes una muestra aleatoria que sigue una distribución exponencial de parámetro λ , es
decir:
X i exp( λ)
Estimar λ .
Como se trata de una distribución exponencial, la función de densidad será del siguiente modo:
{
λ·x
f ( x|λ )= λ· e si x> 0
0 en el resto
i=1 i=1
Una vez hallado f sacamos L dejando λ como variable y x 1 , x 2 , … , x n como parámetros constantes.
n
( ) ( )( )
n
−λ· ∑ x n n
n n
→ L ( λ|x 1 , x 2 , … , x n ) =L ( λ|x 1 , x 2 ,… , x n ) −∑ ( xi ) = λ · e · −∑ ( x i )
i
' n i=1
λ i=1 λ i=1
Por lo tanto
{
n
− λ· ∑ x i
n n
λ ·e i=1
=0 → λ =0 → λ=0
L ( λ|x 1 , x 2 , … , x n )=0 si
( )
' n
n n
−∑ ( x ) =0 → λ=
λ i=1 i n
∑ ( xi )
i=1
^λ= n
n
∑ ( x i)
i=1
Los valores más típicos de α suelen ser 0.1 , 0.05 y 0.01 , de modo que el nivel de confianza suele ser
del 90%, 95% y 99%, respectivamente. EL VALOR DEL NIVEL DE CONFIANZA NOS LO DAN SIEMPRE.
( X n −μ )
Sabemos que… X n N ( μ , σ2) → =Zn N (0,1)
σ /√n
Lo siguiente sería igualar 1-α a la probabilidad de que Z n esté entre –c y c (constantes que
despejaremos)
¡De aquí podemos sacar c mirando la tabla de la distribución normal! (recordemos que Z n N (0,1))
σ σ
→ c· + X n > μ>−c· + X n
√n √n
Dicho de otro modo:
c·σ c·σ
μ ∈[ X n− , X n+ ]
√n √n
(da igual si los límites están incluidos o no, recordemos que estamos en variable continua)
Ejemplo
Una empresa dedicada a la fabricación de material de construcción está interesada en estudiar la
conductividad térmica de un tipo de ladrillo. Para ello se seleccionó una muestra de 36 unidades de
manera aleatoria, obteniendo una conductividad media muestral de X n = 0,343 y una desviación
típica poblacional σ = 0,01. Suponiendo que los datos proceden de una distribución normal
construir, detalladamente, un intervalo de confianza al 95% para la conductividad media de dicho
tipo de ladrillos.
α 0.05
Nivel de confianza = 95% 1-α = 0,95 2 = 2 =0.025
√ n · ( X n−μ )
σ σ
−c < Z n< c →−c< < c →−c·
−X n ← μ< c· −X n →
σ √n √n
σ σ 49 49
→ c· + X n > μ>−c· + X n →0,343+ > μ>0,343−
√n √n 15000 15000
El error en estimación por intervalos es el siguiente producto:
c·σ
Error=
√n
Para hacer que este error sea mínimo, lo único que podemos hacer es aumentar n ya que, en una
misma muestra aleatoria, c y σ son siempre constantes. Al fin y al cabo, en todo experimento
cuantas más pruebas hagamos más seguros podremos estar de las conclusiones, y menor será el
error, así que lógicamente tiene sentido.
Algunas veces nos pedirán n teniendo una cota máxima de error
Ejemplo
{
Error ≤ 0,004
Siendo c=1,96 calcula el valor mínimo de n
σ=0,01
c·σ 0,0196
Error= ≤ 0,004 → ≤ √ n→ n ≥ 24
√n 0,004
Contrastes de hipótesis
También en contrastes de hipótesis, usaremos siempre distribuciones normales ( X i N (μ , σ 2 )), y
nuestro objetivo será estimar el intervalo en el que se encuentra µ. Por el teorema central del
límite, si n es muy grande podemos tomar la distribución como una normal en caso de que no lo
fuera.
Para formular las hipótesis usaremos μ0, de forma que tendremos dos hipótesis de comparación
entre μ y μ0 , siendo una lo contrario de la otra (ej: H 0 : μ> μ0 → H 1 : μ ≤ μ0)
A nuestras dos hipótesis las llamaremos { Hipótesis nula ( H 0 ) (la princ ipal)
Hipótesis alternativa(H 1 )
Tendremos que decidir una hipótesis por la que decantarnos. Para ello seguiremos la siguiente regla
X n−μ0
δ ( X1 , X 2, … , X n)= =Z 0
σ/√n
3) Determinamos R1
Como podemos apreciar, P( Rechazar H 0|H 0 cierta ) =¿P(Z 0< c∨Z0 N (0,1)) = α