Está en la página 1de 7

UNIVERSIDAD DEL MAGDALENA

FACULTAD DE INGENIERIA
PROGRAMA DE ING. CIVIL

ESTIMACIÓN

Anyeli Muñoz Palmera- 2022115035

Grupo 1
Lic. Wilfrido Gutiérrez
Estadística inferencial

27/09/2023
Santa Marta – Magdalena
2. ESTIMACIÓN

2.1 Estimación puntual e intervalos de confianza.


La estimación puntual e intervalos de confianza son técnicas estadísticas para obtener
información sobre parámetros poblacionales a partir de muestras representativas. Esto es
esencial en campos como la investigación criminal, salud pública y sociología, donde se
requiere tomar decisiones informadas. La estimación puntual calcula un valor único como
aproximación del parámetro, mientras que los intervalos de confianza proporcionan un rango
de valores donde se espera que esté el parámetro con cierto nivel de confianza. Estas
herramientas son cruciales para la toma de decisiones basadas en datos en diversas
disciplinas.

2.1.1 Estimación puntual.


La estimación puntual se refiere a la necesidad de utilizar estadísticas de la muestra para
inferir información sobre la población. La elección de los estadísticos adecuados depende del
parámetro de interés en la población. Dado que el valor real del parámetro generalmente es
desconocido, uno de los objetivos principales es calcular una estimación puntual que sea una
aproximación del valor del parámetro poblacional.
“La estimación estadística es el proceso mediante el cual intentamos determinar el valor de
un parámetro de la población, sin hacer un censo y a partir de la información de una
muestra. Una estimación, en concreto, es el valor numérico que asignamos a un parámetro,
y el estimador es el estadístico de la muestra utilizado para hacer una estimación.”

2.1.2 Pautas para escoger un estimador.


Una estimación es una herramienta estadística o fórmula matemática que se utiliza para
calcular un valor estimado de un parámetro desconocido en una población utilizando datos
de una muestra representativa. En estadística, las estimaciones son cruciales porque pueden
usarse para determinar características como la media, la varianza, la proporción, etc.
Para elegir un buen estimador, se proponen tres criterios clave:
1. Insesgo: En estadística, el sesgo es la propensión que ocurre sistemáticamente de un
estimador a desviarse consistentemente o acercarse al valor real del parámetro
estimado. Si el valor esperado de un estimador es igual al valor real del parámetro, se
dice que el estimador es insesgado. En este caso, el estimador no tiene una tendencia
sistemática a equivocarse en una determinada dirección y su valor medio corresponde
al valor real del parámetro poblacional. Por otro lado, si el estimador tiene un sesgo
positivo, tiende a sobreestimar el parámetro, y si tiene un sesgo negativo, tiende a
subestimar el parámetro.

𝑆𝑒𝑠𝑔𝑜 (𝜃̂ ) = 𝐸(𝜃̂) − 𝜃

Donde:
𝑆𝑒𝑠𝑔𝑜 (𝜃̂) es la diferencia entre el estimador y el parámetro.
𝐸(𝜃̂) es el estimador.
𝜃 es el parámetro.

2. Eficiencia: En estadística, la eficiencia se refiere a las características de una


estimación que están relacionadas con la precisión de la estimación. En otras palabras,
un estimador eficiente aumenta la precisión del valor esperado al reducir la varianza
a su alrededor. Es útil comparar dos estimadores que intentan estimar los mismos
parámetros para comprender mejor la eficiencia. Se cree que una estimación con
menos varianza es más confiable porque está menos alejada del valor real del
parámetro.

𝑉(𝜃̂2 ) 𝑉(𝑚𝑒𝑑𝑖𝑎𝑛𝑎)
𝐸𝑅 = =
𝑉(𝜃̂1 ) 𝑉(𝑋̅)
Donde
𝜃̂1 𝑦 𝜃̂2 son estimadores insesgados de 𝜃 y 𝑉(𝜃̂1 ) < 𝑉(𝜃̂2 )
3. Consistencia: Es una propiedad fundamental de los estimadores en estadísticas que
se refiere a su comportamiento a medida que el tamaño de la muestra aumenta. Un
estimador se considera consistente si, a medida que la muestra se vuelve más grande
(es decir, cuando el tamaño de la muestra tiende hacia el infinito), el estimador
converge en probabilidad al valor verdadero del parámetro que se está tratando de
estimar.

Elección de un estimador puntual


La elección del estimador estadístico depende del objetivo y de las características deseadas.
Algunos cálculos comunes incluyen la media, la mediana, la varianza y la proporción de la
muestra. Los factores clave incluyen sesgo, eficiencia, distribución de la población, solidez,
tamaño de la muestra, simplicidad computacional, propiedades asintóticas e interpretación.
Comprender las características del estimador y tener en cuenta las características específicas
del problema es necesario para tomar la decisión correcta, que se basa en la situación y los
supuestos subyacentes. Para evaluar cómo se desempeñan los diferentes estimadores en
diversos escenarios, se puede realizar un análisis de sensibilidad.

𝐸𝐶𝑀(𝜃̂) = 𝐸[(𝜃̂ − 𝜃)2 ]


Donde ECM es el error cuadrático de un estimador puntual

2.1.3 Métodos de estimación puntual.


Los métodos de estimación puntual son técnicas utilizadas en estadísticas para obtener una
única estimación de un parámetro desconocido de una población. Aquí se presentan dos de
los métodos de estimación puntual más comunes:

1. Método de Momentos: Este método se basa en igualar los momentos teóricos de una
distribución con los momentos muéstrales observados. Los momentos son valores
estadísticos que resumen ciertas características de una distribución, como la media,
la varianza, etc. Para usar el método de momentos, se siguen estos pasos:

 Se establece una relación entre los momentos poblacionales y los momentos


muéstrales.

 Se resuelven las ecuaciones resultantes para estimar los parámetros


desconocidos.
 Por ejemplo, para estimar la media y la varianza de una distribución, puedes
igualar los momentos muéstrales de la muestra a los momentos poblacionales
correspondientes y resolver para obtener las estimaciones.

∑𝑛𝑖=1 𝑋𝑖𝑘
𝑀𝑘 =
𝑛

Por lo tanto, el primer momento (poblacional) de X es E(X) y el primer


momento muestral 𝑀1 = 𝑋. ̅ El segundo momento (poblacional) de X es
E(𝑋 ) y el segundo momento muestral es 𝑀2 = 𝑋𝑖2 /𝑛. Sobre lo anterior, es
2

importante aclarar que los momentos poblacionales serán i funciones de


algunos parámetros desconocidos θ1, θ2.

2. Método de Máxima Verosimilitud (MLE): Este método busca encontrar los valores
de los parámetros que maximizan la verosimilitud de los datos observados bajo un
modelo estadístico dado. La verosimilitud es una medida de qué tan probable es que
los datos observados sean generados por el modelo estadístico. Los pasos para aplicar
el MLE son los siguientes:

 Se define una función de verosimilitud que describe la probabilidad conjunta


de observar los datos dados los parámetros.

 Se maximiza esta función de verosimilitud con respecto a los parámetros


desconocidos, generalmente utilizando técnicas de optimización numérica.

 El MLE tiene propiedades deseables, como ser asintóticamente insesgado y


eficiente bajo ciertas condiciones, lo que lo convierte en uno de los métodos
de estimación más utilizados.

Sea 𝑋1 , 𝑋2 , . . . , 𝑋𝑛 una muestra aleatoria con función de probabilidad (o de


densidad) conjunta
𝑓(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ; 𝜃1 , 𝜃2 , . . . , 𝜃𝑛 ),

donde 𝑥1 , 𝑥2 , … , 𝑥𝑛 son los valores muestrales observados y los par´ametros


𝜃1 , 𝜃2 , . . . , 𝜃𝑛 son desconocidos. La funcion´ de verosimilitud de la muestra se
obtiene fijando los valores muéstrales y escribiendo 𝑓 como una función que
depende sólo de los parámetros, es decir, es la función 𝐿, definida por:

𝐿(𝜃1 , 𝜃2 , . . . , 𝜃𝑛 ) = 𝑓(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ; 𝜃1 , 𝜃2 , . . . , 𝜃𝑛 ).

Las estimaciones de máxima verosimilitud de θ1 son los valores de


las 𝜃1 , 𝜃2 , . . . , 𝜃𝑛 que maximizan a L, de modo que
𝐿(𝜃1 , 𝜃2 , . . . , 𝜃𝑛 ) ≤ 𝐿(𝜃̂1 , 𝜃̂2 , . . . , 𝜃̂𝑛 )

para toda 𝜃1 , 𝜃2 , . . . , 𝜃𝑛 . As´ı, cuando las xi son sustituidas por las 𝑋𝑖 , resultan
los estimadores de máxima ´ verosimilitud. Este procedimiento se conoce
como método ´ de máxima verosimilitud.
Ambos métodos tienen ventajas y desventajas y pueden ser más apropiados en diferentes
situaciones. La elección del método de estimación puntual depende de la naturaleza de los
datos, las suposiciones subyacentes y los objetivos de la estimación. Además, es importante
realizar análisis de sensibilidad y evaluar la calidad de la estimación en función de la elección
del método.

2.1.4 Intervalos de confianza


Los intervalos de confianza son una herramienta importante en estadísticas inferenciales que
se utiliza para estimar un parámetro poblacional desconocido basado en una muestra de datos.
Un intervalo de confianza proporciona un rango de valores dentro del cual es probable que
se encuentre el verdadero valor del parámetro, con un nivel de confianza específico.
El proceso general para construir un intervalo de confianza implica:
1. Recopilar una muestra de datos de la población de interés.
2. Calcular un estadístico de muestra (como la media o la proporción) a partir de los
datos de la muestra.
3. Utilizar el nivel de confianza y el error estándar para determinar el margen de error
del estadístico de muestra.
4. Construir el intervalo de confianza alrededor del estadístico de muestra, teniendo en
cuenta el margen de error.
Los intervalos de confianza vienen en una variedad de formas, y el tipo de datos y parámetros
que deben estimarse determinan cuál es la mejor forma. Los tipos más populares de intervalos
de confianza se enumeran en la siguiente lista:
1. Intervalo de confianza de la media poblacional: Este tipo de intervalo se utiliza
para estimar la media poblacional. Esto generalmente se basa en la distribución t de
Student o la distribución normal, según el tamaño de la muestra y si se conoce la
desviación estándar de la población.

2. Intervalo de confianza de una proporción poblacional: se utiliza para estimar la


proporción de una población con una característica determinada. Se basa en la
distribución binomial o la distribución normal si se cumplen ciertas condiciones.
3. Intervalo de Confianza de la Variación o Desviación Estándar de la Población:
Este tipo de intervalo se utiliza para estimar la variación o desviación estándar de una
población. Dependiendo de la distribución de la población y del tamaño de la muestra,
se pueden utilizar diferentes distribuciones, como la distribución chi-cuadrado o la
distribución normal.

4. Intervalo de confianza de la diferencia de medias: se utiliza para comparar dos


poblaciones y estimar la diferencia en la media de esa población. Puede basarse en la
distribución t de Student o en la distribución normal según las circunstancias.

5. Intervalo de confianza de diferencias proporcionales: Similar al intervalo de


confianza de diferencia, pero se utiliza para comparar dos proporciones
poblacionales.

6. Intervalo de confianza de regresión: se utiliza en el análisis de regresión para


estimar el intervalo de predicción para la variable dependiente dados los valores de
la variable independiente.

7. Intervalos de confianza para otros parámetros: Dependiendo de la situación, se


pueden determinar intervalos de confianza para otros parámetros como la mediana,
la mediana poblacional, el cuantil, etc.

Sea 𝜃 un parámetro desconocido. Supongamos que, con ayuda de la infor maci´on muestral,
podemos encontrar dos variables aleatorias, U y V , con U menor que V , tales que
𝑃(𝑈 < 𝜃 < 𝑉 ) = 1 − 𝛼, para un 𝛼 ∈ (0, 1). Entonces,
(a) La fracción 1 − 𝛼 recibe el nombre de grado de confianza, 𝛼 se llama nivel de
significancia y el intervalo de U hasta V es un estimador por intervalos de 𝜃 del
(1 − 𝛼)100%.

(b) Si u y v representan un valor particular de U y V, respectivamente, entonces, el


intervalo de U a V se denomina intervalo de confianza del (1 − 𝛼)100% para 𝜃.
En conclusión, si se extraen muestras aleatorias de la población un número elevado de veces,
el parámetro estará contenido en un (1 − 𝛼)100% de los intervalos calculados de este
modo. El intervalo de confianza obtenido de esta manera se escribe 𝑢 < 𝜃 < 𝑣

También podría gustarte