Está en la página 1de 51

TEORIA DE LA

ESTIMACIÓN Capitulo 3

ESTADISTICA
INTRODUCCIÓN
En el capítulo anterior se inició el estudio de la estadística inferencial. En él se
presentaron las razones y métodos de muestreo. Las razones del muestreo son las
siguientes:
• Entrar en contacto con toda la población consume demasiado tiempo.
• El costo de estudiar todos los elementos de la población es muy alto.

• Por lo general, los resultados de la muestra resultan adecuados.


INTRODUCCIÓN
• Algunas pruebas resultan negativas.
• Es imposible revisar todos los elementos.

Existen varios métodos de muestreo. El aleatorio simple es el que más se


utiliza. En este tipo de muestreo, cada miembro de la población posee las
mismas posibilidades de ser seleccionado como parte de la muestra. Otros
métodos de muestreo son el sistemático, el estratificado y el muestreo por
conglomerados.
INTRODUCCIÓN
También revisamos información relacionada con la media, la desviación
estándar o la forma de la población.
En la mayoría de las situaciones de negocios, dicha información no se
encuentra disponible.
En realidad, el propósito del muestreo es calcular de forma aproximada
algunos de estos valores.
Por ejemplo, se selecciona una muestra de una población y se utiliza la media
de la muestra para aproximar la media de la población.
INTRODUCCIÓN
En este capítulo se estudian diversos aspectos importantes del muestreo. El
primer paso es el estudio del estimador puntual. Un estimador puntual
consiste en un solo valor (punto) deducido de una muestra para estimar el
valor de una población.
Por ejemplo, suponga que elige una muestra de 50 ejecutivos de nivel medio
y le pregunta a cada uno de ellos la cantidad de horas que trabajó la semana
pasada. Se calcula la media de esta muestra de 50 y se utiliza el valor de la
media muestral como estimador puntual de la media poblacional
desconocida.
INTRODUCCIÓN
Ahora bien, un estimador puntual es un solo valor. Un enfoque que arroja
más información consiste en presentar un intervalo de valores del que se
espera que se estime el parámetro poblacional. Dicho intervalo de valores
recibe el nombre de intervalo de confianza.
En los negocios, a menudo es necesario determinar el tamaño de una
muestra.
¿Con cuántos electores debe ponerse en contacto una compañía dedicada a
realizar encuestas con el fin de predecir los resultados de las elecciones?
INTRODUCCIÓN
¿Cuántos productos se necesitan analizar para garantizar el nivel de calidad?
En este capítulo también se explica una estrategia para determinar el tamaño
adecuado de la muestra.
ESTIMADORES
PUNTUALES E
INTERVALOS
DE CONFIANZA DE UNA
MEDIA
ESTIMADORES PUNTUALES
Un estimador puntual es un estadístico único para calcular un
parámetro poblacional.
Suponga que Best Buy, Inc., desea estimar la edad media de los compradores
de televisores de plasma de alta definición; selecciona una muestra aleatoria
de 50 compradores recientes determina la edad de cada uno de ellos y calcula
la edad media de los compradores de la muestra. La media de esta muestra es
un estimador puntual de la media de la población
ESTIMADORES PUNTUALES
1. El turismo constituye una fuente importante de ingresos para muchos
países caribeños, como Barbados.
Suponga que la Oficina de Turismo de Barbados desea un cálculo
aproximado de la cantidad media que gastan los turistas que visitan el país.
No resultaría viable ponerse en contacto con cada turista.
Por consiguiente, se selecciona al azar a 500 turistas en el momento en que
salen del país y se les pregunta los detalles de los gastos que realizaron
durante su visita a la isla
ESTIMADORES PUNTUALES
La cantidad media que gastó la muestra de 500 turistas constituye un cálculo
aproximado del parámetro poblacional desconocido. Es decir, la media
muestral es el estimador puntual.
2. Litchfield Home Builders, Inc., construye casas en la zona sureste de Estados
Unidos. Una de las principales preocupaciones de los compradores es la fecha
en que concluirán las obras será el estimador puntual de la media poblacional.
ESTIMADORES PUNTUALES
Hace poco Litchfield comunicó a sus clientes: “Su casa quedará terminada en 45
días a partir de la fecha de instalación de los muros.” El departamento de atención
a clientes de Litchfield desea comparar este ofrecimiento con experiencias
recientes. Una muestra de 50 casas terminadas este año reveló que el número
medio de días de trabajo a partir del inicio de la construcción de los muros a la
terminación de la casa fue de 46.7 días hábiles.
ESTIMADORES PUNTUALES
¿Es razonable concluir que la media poblacional aún es de 45 días y que la
diferencia entre la media muestral (46.7 días) y la media de población propuesta es
un error de muestreo?
En otras palabras, ¿la media muestral difiere en forma significativa de la
media poblacional?
3. Estudios médicos recientes indican que el ejercicio constituye una parte
importante de la salud general de una persona. El director de recursos humanos de
OCF, fabricante importante de vidrio, desea calcular la cantidad de horas semanales
que los empleados dedican al ejercicio
ESTIMADORES PUNTUALES
Una muestra de 70 empleados revela que la cantidad media de horas de ejercicio de
la semana pasada fue de 3.3. La media muestral de 3.3 horas aproxima la media
poblacional desconocida, la media de horas de ejercicio de todos los empleados.

La media muestral, X , no es el único estimador puntual de un parámetro


poblacional. Por ejemplo, p, una proporción muestral, es un estimador puntual de π,
la proporción poblacional; y s, la desviación estándar muestral, es un estimador
puntual de σ, la desviación estándar poblacional
PROPIEDADES DE UN BUEN
ESTIMADOR
En esta sección se estudian las propiedades que deben tener los buenos estimadores
puntuales: insesgadez, eficiencia y consistencia.
Como hay distintos estadísticos muestrales que se usan como estimadores puntuales
de sus correspondientes parámetros poblacionales, en esta sección se usará la
notación general siguiente:
PROPIEDADES DE UN BUEN
ESTIMADOR
 En esta notación θ es la letra griega theta y la notación se lee “theta sombrero”.
En general, θ representa cualquier parámetro poblacional como, por ejemplo, la
media poblacional, la desviación. estándar poblacional, la proporción poblacional,
etc.; representa el correspondiente estadístico muestral, por ejemplo, la media
muestral, la desviación estándar muestral y la proporción muestral.
PROPIEDADES DE UN BUEN
ESTIMADOR
Insesgadez
Si el valor esperado del estadístico muestral es igual al parámetro poblacional que se
estudia, se dice que el estadístico muestral es un estimador insesgado del parámetro
poblacional.
PROPIEDADES DE UN BUEN ESTIMADOR
INSESGADEZ
Por tanto, el valor esperado, o media, de
todos los posibles valores de un
estadístico muestral insesgado es igual al
parámetro poblacional que se estudia.
En la figura 7.10 se muestran los casos
de los estimadores puntuales sesgado e
insesgado. En la figura en que se muestra
el estimador insesgado, la media de la
distribución muestral es igual al valor del
parámetro poblacional.
PROPIEDADES DE UN BUEN ESTIMADOR
INSESGADEZ

 En este caso los errores de estimación se


equilibran, ya que algunas veces el valor
del estimador puntual puede ser menor
que θ y otras veces sea mayor que θ .

 En el caso del estimador sesgado, la media de la distribución muestral es menor o


mayor que el valor del parámetro poblacional. En la gráfica B de la figura 7.10, E()
es mayor que θ ; así, la probabilidad de que los estadísticos muestrales sobreestimen
el valor del parámetro poblacional es grande. En la figura se muestra la amplitud de
este sesgo.
PROPIEDADES DE UN BUEN ESTIMADOR
INSESGADEZ

 Al estudiar las distribuciones muestrales de la media muestral y de la proporción


muestral, se vio que E) = μ y que E( ) = p.
Por tanto, ) y ( ) son estimadores insesgados de sus correspondientes parámetros
poblacionales μ y p.
En el caso de la desviación estándar muestral s y de la varianza muestral , se puede
mostrar que E( =
Por tanto se concluye que la varianza muestral es un estimador insesgado de la
varianza poblacional .
PROPIEDADES DE UN BUEN ESTIMADOR
INSESGADEZ
PROPIEDADES DE UN BUEN ESTIMADOR
EFICIENCIA
Suponga que se usa una muestra aleatoria simple de n elementos para obtener dos
estimadores puntuales insesgados de un mismo parámetro poblacional.
En estas circunstancias preferirá usar el estimador puntual que tenga el menor error
estándar, ya que dicho estimador tenderá a dar estimaciones más cercanas al
parámetro poblacional. Se dice que el estimador puntual con menor error estándar
tiene mayor eficiencia relativa que los otros.
PROPIEDADES DE UN BUEN ESTIMADOR
EFICIENCIA
 En la figura 7.11 se presentan las distribuciones muestrales de dos estimadores
puntuales insesgados
Observe que el error estándar de es menor que el error estándar de ; por tanto, los
valores de tienen más posibilidades de estar cerca del parámetro θ que los valores
de .
Como el error estándar del estimado puntual es menor que el error estándar del
estimador puntual , es relativamente más eficiente que y se prefiere como
estimador puntual.
PROPIEDADES DE UN BUEN ESTIMADOR
CONSISTENCIA
 La tercera propiedad relacionada con un buen estimador puntual es la consistencia.
Dicho de manera sencilla, un estimador puntual es consistente si el valor del
estimador puntual tiende a estar más cerca del parámetro poblacional a medida que
el tamaño de la muestra aumenta. En otras palabras, una muestra grande tiende a
proporcionar mejor estimación puntual que una pequeña. Observe que en el caso de
la media muestral , el error estándar de está dado por

σ.
PROPIEDADES DE UN BUEN ESTIMADOR
CONSISTENCIA
 Puesto que está vinculado con el tamaño de la muestra, de manera que muestras
mayores dan valores menores de σ , entonces muestras de tamaño grande tienden a
proporcionar estimadores puntuales más cercanos a la media poblacional μ .
Mediante un razonamiento similar, concluya que la proporción muestral es un
estimador consistente de la proporción poblacional p.
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
En ocasiones es necesario estimar parámetros distintos de la media o la varianza. Un
enfoque muy general a la estimación, propuesto por R. A. Fisher, se llama el método
de máxima verosimilitud.
Para fijar las ideas, comience con un caso especial.
Suponga que una de dos distribuciones debe prevalecer. Por ejemplo, sea que X
toma los valores posibles 0, 1, 2 o 3 con probabilidades especificadas por la
distribución lo con probabilidades especificadas por la distribución 2 (véase la tabla
y la figura ).concernientes a la media
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
La primera es la distribución binomial con p = 0.5 y la segunda la binomial con p =
0.4, pero este hecho no es importante para el argumento.
Si observa X = 3,
¿la estimación de la distribución subyacente debería ser la distribución 1 o la
distribución 2?
Suponga que se toma la postura de que se seleccionará la distri-bución para la cual
el valor observado x = 3 tiene la mayor probabilidad de ocurrir.
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
 Puesto que este cálculo se hace después de obtener los datos, se emplea la
terminologia de máxima verosimilitud en vez de la probabilidad. Para la primera
distribución, P[X = 3] = 0.2500,
Lleve este ejemplo un paso adelante y suponga que X sigue una distribución
binomial con n= 4, pero que es desconocida. Entonces, el conteo X tiene la
distribución
para x = 0, 1, 2, 3, 4
Si nuevamente se observa X= 3, evalúe la distribución binomial en x = 3 y obtenga
para
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
que es una función de p. Ahora varie p para explicar mejor el resultado observado
curva, L(p), se ilustra en la figura 7.4.
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
 Para obtener la mejor explicación para lo que se observo, elija un valor para la
incógnita p en el que ocurra el máximo,
Al emplear cálculo, el máximo ocurre en el Calcular
valor de p p para el cual la derivada es
cero,
)=0
Como la solución p = 0 produce un minimo, la estimación es 0.75. Advierta que
esta derivada es positiva para p < 3/4 y negativa para p > 3/4, confirmando así que
0.75 es el valor máximo global.
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
 De forma más general, una muestra aleatoria de tamaño n se toma de una
distribución, o densidad, de probabilidad , f(x; θ), que depende del parámetro θ.
La muestra aleatoria produce n valores , ..., que se sustituyen en la distribución de
probabilidad conjunta, o función de densidad de probabilidad y, luego, se estudia la
función resultante de θ.
La función de θ que se obtiene al sustituir los valores observados de la muestra
aleatoria X1 = , ..., en la distribución de probabilidad conjunta o la función de
densidad para , ...,
ESTIMACIÓN DE MÁXIMA
VEROSIMILITUD
 

Se conoce como función de verosimilitud para θ.


Con frecuencia se simplifica la notación y se escribe L(θ) con el entendido de que la
función de verosimilitud depende de los valores , ..., de una muestra aleatoria, una
característica distintiva de la función de verosimilitud es el valor de θ donde logra su
maximo,.
Un estadístico es un estimador de máxima verosimilitud de θ si, para cada
muestra , ...,, es un valor para el parámetro que maximiza la función de
verosimilitud L(θ/ , ...,)
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
CON ENSAYOS DE BERNOULLI
 Considere una característica que ocurre en proporción p de una población. sea ,
..., una muestra aleatoria de tamaño n de modo que

Donde
obtenga el estimador de máxima verosimilitud de p.
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
CON ENSAYOS DE BERNOULLI
La función de verosimilitud es:

Al derivar obtenemos:
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
CON  DISTRIBUCIÓN DE POISSON
 sea , ..., una muestra aleatoria de tamaño n de la distribución de Poisson
donde 0 ≤ < ∞.
La función de verosimilitud es:
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
CON  DISTRIBUCIÓN DE POISSON
Al derivar obtenemos
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
PARA LA MEDIA DE LA DISTRIBUCIÓN NORMAL
 sea , ..., una muestra aleatoria de tamaño n de una distribución normal con
varianza conocida. Obtenga el estimador de máxima verosimilitud de µ
.
ESTIMACIÓN DE MÁXIMA VEROSIMILITUD  
PARA LA MEDIA DE LA DISTRIBUCIÓN NORMAL
 Esta probabilidad se maximiza sobre todos los valores de µ cuando se
minimiza el expo­nente
n( x − μ)²/ 2σ²
Por lo tanto, el estimador de máxima verosimilitud es
ESTIMADOR DE MÁXIMA VEROSIMILITUD: 
PARA LA VARIANZA  
DE LA DISTRIBUCIÓN NORMAL

 sea , ..., una muestra aleatoria de tamaño n de una distribución normal con
media conocida. obtenga el estimador de máxima verosimilitud de σ2.
La función de verosimilitud es
ESTIMADOR DE MÁXIMA VEROSIMILITUD: 
PARA LA VARIANZA  
DE LA DISTRIBUCIÓN NORMAL

 Este mismo argumento puede extenderse a una propiedad de invarianza más general
para estimadores de máxima verosimilitud, que se enuncia pero no se demuestra.
Específicamente, si g(θ) es una función continua uno a uno de y θ es el estimador
de máxima verosimilitud de , el estimador de máxima verosimilitud de g(θ) se
obtiene mediante sustitución simple.
g(θ) = estimador de máxima verosimilitud de g() = g(θ)
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD DE LA FUNCIÓN 
DE 𝛌
El número de discos duros defectuosos, fabricados diariamente por una línea de
produc­ción, puede modelarse como una distribución de Poisson. Los conteos para
10 días son
7 3 1 2 4 1 2 3 1 2
obtenga el estimador de máxima verosimilitud de la probabilidad de 0 o 1 defectos
en un día.
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD DE LA FUNCIÓN 
DE 𝛌
el estimador de máxima verosimilitud de λ es
λ=x= 26/10 = 2.6. En consecuencia, mediante la propiedad de invarianza, el
estimador de máxima verosimilitud de
𝑥 −𝜆
  𝒙 𝜆 ⅇ
𝒇 ( ) (
λ
=
𝒙! )

Habrá 1 o menos defectuosos solo durante un cuarto de los días.


ESTIMADOR DE MÁXIMA 
VEROSIMILITUD: DISTRIBUCIONES 
NORMALES
 El método de máxima verosimilitud se aplica a más de un parámetro.

Sea una muestra aleatoria de tamaño n de una distribución normal. Obtenga


los estimadores de máxima verosimilitud de µ y σ². también determine el
estimador de máxi­ma verosimilitud de σ.
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD: DISTRIBUCIONES 
NORMALES
 En resumen, μ=x y σ² = =1( − x )²/n son los estimadores de máxima
verosimilitud de µ y σ² .
aquí σ² contiene el divisor n, n – 1, de modo que es una estimación sesgada de
σ²
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD: DISTRIBUCIONES 
NORMALES
EJEMPLO
Estimación de rendimiento para un proceso de gasolina ecológica
Un proceso para elaborar gasolina ecológica toma biomasa en forma de sacarosa y
la con­vierte en gasolina usando reacciones catalíticas. En un paso de un proceso de
una planta piloto, la salida incluye cadenas de carbono de longitud 3. Quince
corridas con el mismo catalizador produjeron los rendimientos (gal)
5.57 5.76 4.18 4.64 7.02 6.62 6.33 7.24
5.57 7.89 4.67 7.24 6.43 5.59 5.39
al tratar los rendimientos como una muestra aleatoria de una población normal,
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD: DISTRIBUCIONES 
NORMALES
EJEMPLO
a) obtenga los estimadores de máxima verosimilitud del rendimiento medio y la
varianza.
b) obtenga el estimador de máxima verosimilitud del coeficiente de variación σ/µ.

xi med
ia
ESTIMADOR DE MÁXIMA 
VEROSIMILITUD: DISTRIBUCIONES 
NORMALES
EJEMPLO
b) obtenga el estimador de máxima verosimilitud del coeficiente de variación
σ/µ.
PRACTICA

También podría gustarte