Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Roberto Lince
ESTIMACIÓN
1.1. INTRODUCCION.-
La teoría clásica de la inferencia estadística trata de los métodos por los cuales se escoge una muestra de
una población y, basándose en las pruebas de la muestra se busca:
Si se retoma la definición hecha de estimación se dijo que; es el proceso a través del cual se puede realizar
una apreciación sobre el valor real del parámetro, basado en la información obtenida de una muestra. La
estimación de un parámetro puede adoptar dos formas; la de un solo punto o, la de un intervalo.
Estimación puntual: es la que se realiza en términos de un solo valor obtenido de la muestra y puede
definirse como una función de valor real de las observaciones de muestra que no dependen de ningún
parámetro desconocido.
1. Insesgabilidad.- se dice que un estimador es insesgado si el valor esperado del estimador es igual al
valor del parámetro.
2. Consistencia.- un estimador es consistente cuando aumenta su precisión de apreciación del
parámetro al incrementarse el tamaño de la muestra. Es decir, se disminuye el error aumentando la
muestra.
3. Eficiencia.- un estimador es más eficiente que otro cuando presenta menor variación.
4. Suficiencia.- existe suficiencia de un estimador cuando éste proporciona toda la información posible
sobre el parámetro en función de la muestra, y no puede ser obtenida más información a partir de esa
muestra.
La estimación puntual es un escenario de valoración incierto, por cuanto, el acertar a un punto en una escala
de valores infinita es probablemente imposible. Corresponde entonces realizar una valoración que garantice
o que permita manejar el grado de certidumbre de la apreciación del parámetro.
Para la estimación por intervalo se deberá considerar la estructura probabilística del comportamiento de la
variable aleatoria por muestreo, en consecuencia se definirá el grado de confiabilidad del intervalo (1 – α).
Coeficiente de confianza (1 – α): es el valor probabilístico o nivel de certeza que se asigna al intervalo
para garantizar que el valor real del parámetro se encuentre dentro del intervalo. Es decir, es la
probabilidad de que el valor del parámetro se encuentre dentro del intervalo.
Ing. Roberto Lince
Error de muestreo (eФ): se define como la distancia máxima que existe entre el estimador y el
parámetro. Esta distancia se origina por la asignación probabilística (nivel de confiabilidad) y la
correspondiente variación aleatoria del estimador (distribución por muestreo), que es la que determina el
ancho del intervalo.
1. Seleccionar un punto referencial como valor central del intervalo, en este caso será el estimador
puntual del parámetro requerido,
2. Determinar el nivel de confiabilidad (1 – α) que se desea obtener según el valor probabilístico
requerido para la estimación y, asignar el valor de la variable z correspondiente,
3. Calcular el valor del error de muestro del estimador,
4. Determinar los límites, inferior y superior del intervalo,
5. Interpretar los resultados obtenidos conforme el parámetro analizado.
Intervalo de confianza: Es el rango específico de valores, donde queda definida, la probabilidad de que
el valor real del parámetro se encuentre entre sus límites.
Si se generaliza la expresión matemática del intervalo de confianza, se podría decir que es igual al valor
del estimador puntual del parámetro correspondiente ( ), más menos el valor del error de muestreo de
ese estimador ( ). Esto es:
Según el tipo de parámetro que se desee estimar, los intervalos de confianza se resumen en:
1. Promedio x i
e x z / 2
S Li x e x
(μ) x i 1
n Ls x e x
n
pˆ qˆ Li pˆ e pˆ
2. Proporción
pˆ
x
; qˆ 1 p e pˆ z / 2
(π) n n Ls pˆ e pˆ
(n 1) S 2
eS1 y (n 1) S 2
n x2 / 2 Li
3. Varianza (x i x)2 x2 / 2
(σ2) S2 i 1
(n 1) S 2
n 1 (n 1) S 2
Ls
eS 2 x12 / 2
x12 / 2
4. Diferencia de S12 S 22 Li ( x1 x2 ) e( x1 x2 )
medias dˆ( x1 x2 ) ( x1 x2 ) e x1 x2 z / 2
(μ1 – μ2) n1 n2 Ls ( x1 x2 ) e( x1 x2 )
pˆ 0 qˆ 0 pˆ 0 qˆ 0
e pˆ1 pˆ 2 z / 2
n1 n2
5. Diferencia de Li ( pˆ 1 pˆ 2 ) e( pˆ1 pˆ 2 )
proporciones dˆ( pˆ1 pˆ 2 ) ( pˆ 1 pˆ 2 ) Dónde:
(π1 – π2)
x1 x2
pˆ 0 y q0 1 pˆ 0 Ls ( pˆ 1 pˆ 2 ) e( pˆ1 pˆ 2 )
n1 n2
1 S12 1 S12
eS1 y Li
f / 2,(1 ; 2 ) S 22 f / 2,(1 ; 2 ) S 22
6. Relación de S12
varianzas F 2
(σ1/σ2) S2
S12 S12
eS 2 f / 2,( 2 ;1 ) Ls f / 2,( 2 ;1 )
S 22 S 22
NOTA: En el caso de la varianza y relación de varianzas se tiene como variable probabilística la variable Chi cuadrado (
X2 ) y la variable Fisher ( F) respectivamente.