Está en la página 1de 5

Estimación

6.1. Introducción
Al analizar una investigación estadística a menudo se sabe o se supone que la población
(discreta o continua), de la cual se selecciona una muestra aleatoria, tiene una forma funcional
específica f(x) cuyo(s) parámetro(s) se intenta determinar. Si el parámetro a determinar es
denotado por f(x,θ).
El método de inferencia estadística consiste en seleccionar una muestra aleatoria de la población,
de manera que a partir de la información que se obtenga de la muestra se tiene:

1) Determinar el valor del parámetro desconocido θ, ó


2) Decidir si θ, ó alguna función de θ, es igual a algún valor preconcebido θ0 de θ
El primero de estos procedimientos se denomina estimación del parámetro θ. El segundo
procedimiento se conoce como prueba de hipótesis del parámetro θ.
El método de estimación de un parámetro puede ser puntual o por intervalo, en el primer
caso la estimación del parámetro θ es un número. Mientras que en el segundo caso la
estimación incluye un intervalo en el que están comprendidos los valores del parámetro.

Estimación puntual de parámetros


Definición. Sea X1, X2, . . . , Xn una muestra aleatoria de tamaño n seleccionada de una
población cuya distribución es f(x,θ), siendo θ el parámetro. Se denomina estimador
puntual del parámetro θ a cualquier estadística T=H(X1, X2, . . . , Xn) cuyo valor
θˆ = H ( x , x ,..., x ) proporcionará una estimación del parámetro en cuestión.
1 2 n

Un estimador puntual del parámetro θ es la función de la muestra (variable aleatoria)


T̂ , mientras que una estimación puntual es el valor numérico θˆ del estimador, por
ejemplo un estimador puntual de la media poblacional µ, es la estadística media muestral
T̂ = X , cuyo valor numérico θˆ = x es la estimación puntual del parámetro µ.
No toda función de la muestra es un buen estimador del parámetro, un buen estimador,
es aquel que está más cerca del parámetro que se estima. Para que un estimador puntual
sea bueno debe tener ciertas propiedades. Una de estas propiedades es que sea in sesgado,
o también conocida como no-sesgado, imparcial

Estimador in sesgado

Definición. Se dice que la estadística T̂ =H(X1, X2, . . . , Xn) es un estimador in sesgado


del parámetro θ, si E(T)=θ en caso contrario se dice que es un estimador sesgado.

Estimador eficiente
Definición. Si hay dos o más estimadores puntuales in sesgados de un parámetro θ, se
denomina estimador más eficiente a aquel estimador que tenga menor varianza.

Método de máxima verosimilitud

Supongamos que una población X está distribuida como f(x,θ), en donde θ es el


parámetro que tratamos de estimar.
El procedimiento para determinar el estimador de máxima verosimilitud es como sigue:
1) Elegir una muestra aleatoria X1, X2, . . . , Xn de la población y determinar la
distribución conjunta de la muestra en sus valores observados respectivos x1, x2, . . . xn.
Esta función del parámetro θ conocida también como función de verosimilitud dada por:
n

=L(θ ) f=
( x 1 , x 2 ,..., x n ,θ ) f ( x 1 ,θ ) f =
( x 2 ,θ )... f ( x n ,θ ) ∏ f ( x ,θ )
i =1
i

2) El valor de θ que maximiza a la función L(θ) es la estimación de máxima verosimilitud


(EMV) de θ.
Este valor denotaremos por

θˆ = H ( x 1 , x 2 ,..., x n )

La estadística correspondiente Tˆ = H ( X 1 , X 2 ,..., X n ) es el estimador de máxima


verosimilitud de θ.

3) A menudo se usa L=ln(L(θ)). En este caso el valor de θ que maximiza a L(θ) es la


solución θˆ de la ecuación:

dL
=0

4) Si la distribución de probabilidad de la población contiene k parámetros θ1, θ2, . . . ,


θk, la función de verosimilitud está dada por:
n

L(θ1 ,θ 2 ,...,θ k ) = ∏ f (x ,θ ,θ ,...,θ )


i =1
i 1 2 k

La estimación de máxima verosimilitud de cada parámetro θi es la solución θˆi de la


ecuación respectiva:

∂L ∂L ∂L
= 0, = 0, . . .,= 0
∂θ i ∂θ 2 ∂θ k

Donde L=ln(L(θ1, θ2,. . . ,θk)

6.2. Intervalo de confianza para la media de una población


Intervalo de confianza
Una estimación de punto no nos dice cuán próximo esta la estimación al
parámetro que se estima por lo tanto, no es muy significativa, si no se tiene alguna
medida de error que se comete en la estimación. Es deseable así entonces un cierto grado
de confianza de que la estimación de punto se halle dentro de cierta variación.

La estimación por intervalo, es la estimación de un parámetro θ dentro de un intervalo


de extremos cerrados [a,b], donde los números a y b se obtienen a partir de la distribución
de la estadística que estima puntualmente el parámetro y a partir de los valores de la
muestra.
Sea X1, X2, . . . ,Xn una muestra aleatoria de tamaño n escogida de una población f(x,θ),
cuyos valores experimentales (o datos) respectivos son x1, x2, . . . ,xn. Sea además, la
expresión Tˆ = H ( X , X ,..., X ) una estadística para estimar el parámetro θ cuya
1 2 n

distribución de probabilidad sea conocida y sea θˆ el valor de T̂ , la estimación puntual


de θ. Si dado el número (1–α), y si a partir de la distribución de probabilidad de T̂ se
puede encontrar las estadísticas A=H1(X1, X2, . . . ,Xn), y B=H2(X1, X2, . . . ,Xn) tales
que

P[ A ≤ θ ≤ B ] =1 − α

Se dice entonces que el intervalo aleatorio [A,B] es el intervalo estimador del parámetro
θ con el grado de confianza de (1–α)100%, o que tal intervalo contiene el parámetro θ
con probabilidad (1–α). Luego, si a=H1(x1, x2, . . . ,xn), y b=H2(x1, x2, . . . ,xn), son los
valores numéricos que resultan de sustituir los valores de la muestra en las estadísticas
A y B respectivamente, entonces, el intervalo numérico [a,b] es el intervalo de confianza
del (1–α)100% para θ.
La diferencia entre los intervalos [A,B] y [a,b] es que el primero en un intervalo aleatorio
y por lo tanto tiene validez afirmar que la probabilidad que contenga al parámetro θ es
igual a (1–α).
Mientras que el segundo es un intervalo numérico fijo, y en este caso, no tiene validez
afirmar que la probabilidad p[a≤θ≤b]=1–α.

La probabilidad 1–α, o el porcentaje (1-α)100% es denominado el grado de confianza. Al


número α se le denomina también riesgo de estimación por intervalo.

Si la estadística A1 verifica: P[A1≤θ]=1–α

Se concluye que el intervalo [a1,+∞[ es un intervalo de estimación unilateral del parámetro


θ del (1–α)100% donde a1 es el valor de A1 que se obtiene a partir de la muestra.

Similarmente, si la estadística B1 verifica P[θ≤B1]=1–α

Se concluye que el intervalo ]–∞,b1] es un intervalo de estimación unilateral del parámetro


θ del (1–α)100%, donde b1 es el valor de B1 que se obtiene a partir de la muestra.

Intervalo de confianza para la media µ


Sea X1, X2, . . . ,Xn una muestra aleatoria de tamaño n de una población con media µ y
varianza σ2 supuestamente conocida. Se sabe que el mejor estimador puntual del
parámetro µ es la media muestral X .

Es posible utilizar la distribución muestral de la media X para determinar el intervalo


de confianza del parámetro µ.

Si la población es normal N(µ,σ2); entonces, la distribución del estadístico X es normal


con N(µ,σ2/n) para cualquier valor de n (n≥2). Si la población no es normal, pero tiene
media µ y varianza σ2 finitas, entonces, siempre que el tamaño n de la muestra sea
suficientemente grande, (n≥30), por el teorema del límite central, la distribución de X es
aproximadamente Normal N(µ,σ2/n).
X− µ
Consecuentemente la variable aleatoria Z =  N (0,1)
σ/ n

Dado el número (1–α), en la distribución de Z, se puede determinar los valores ± Z α


1−
2

tales que P[ −Z α
≤Z ≤Z α
] =1 − α entonces se tiene:
1− 1−
2 2

σ σ
P[ X − Z α
≤µ ≤X +Z α
] =1 − α
1−
2 n 1−
2 n
A B

Luego se tiene P[ A ≤ µ ≤ B ] =1 − α

Esto es, si X estima a µ se tiene una probabilidad de (1–α) de que el intervalo aleatorio
o intervalo estimador [A,B] contenga al parámetro µ.
Luego:

Si X es la media para un valor en particular n X1, X2, . . . ,Xn de la muestra aleatoria


de tamaño n seleccionada de una población con varianza σ2 supuesta conocida, entonces,
el intervalo de confianza del (1–α)100%

σ σ
X −Z α
≤µ ≤X +Z α
1−
2 n 1−
2 n

Donde Z α
es un valor de Z que se encuentra es la tabla normal N(0,1) tales que
1−
2

P[ Z ≤ Z α
]=
1−α /2
1−
2

1–α

0
• •
a b
Intervalo de
Intervalo de estimación del (1–α)100% para µ.

Nota: (población finita, muestreo sin reemplazo)


Si la muestra aleatoria de tamaño n es seleccionada sin reposición de una población finita
de tamaño N, entonces la variable aleatoria es:

X −µ
Z'=
σ N −n
n N −1
Nota: (error de estimación)

Si X estima a µ entonces, el error de la estimación es el valor numérico X − µ

Error

a µ b

a
= X −Z α
σX y b
= X +Z α
σX
1− 1−
2 2

Si X estima exactamente a µ entonces, el error de estimación es igual a cero. En caso


contrario, el valor del error no es superior a Z α σ X ya que del intervalo de estimación
1−
2

de µ resulta que:

X −µ ≤Z α
σX
1−
2

También podría gustarte