Está en la página 1de 8

INGENIERÍA INDUSTRIAL

ESTADISTICA INFERENCIAL

 Actividad 2.2 Resumen

Profesor: Moisés Muñoz Diaz


Alumno: Francisco Javier Aguilera González
Fecha: 21/09/21
Introducción

Los modelos estadísticos son ampliamente utilizados en las ciencias experimentales en


la medida en que facilitan obtener conocimientos generales de lo particular
(razonamiento inductivo). La inferencia estadística es aquella rama de la estadística
mediante la cual se trata de sacar conclusiones de una población, a partir de la
información que proporciona una muestra representativa de la misma. También es
denominada estadística inductiva.
En toda inferencia inductiva existe un término de error, pero también es posible medirlo
si el experimento se ha realizado adecuadamente. Las técnicas estadísticas para hacer
inferencias inductivas permiten medir el grado de incertidumbre de tales inferencias. La
incertidumbre se expresa en términos de probabilidad. Si miramos el esquema de la
página que sigue, es posible ver el proceso completo: de toda población bien definida
es posible extraer una muestra.
Si la muestra es representativa de la población, es posible calcular diversos valores de
las variables de interés en la muestra y estimar los parámetros poblacionales. Este
proceso es el que recibe el nombre de inferencia estadística.
Estimación de Parámetros

Características de un buen estimador


 Un estimador. Es una regla que establece cómo calcular una estimación basada en
las mediciones contenidas en una muestra.
Estimador Insesgado. Un estadístico es un estimador insesgado del parámetro, sí

 Eficiencia Relativa. Se consideran todos los estimadores insesgados posibles de


algún parámetro θ, aquel con la varianza más pequeña es el estimador más
eficiente.
Estimador Consistente. El estimador depende de la muestra y, por tanto, de su
tamaño.

Sea   una población Sea   una sucesión de


estimadores,  para una muestra aleatoria simple de
tamaño n,   , de X.
 Estimadores suficientes. cuando es suficiente como estadístico, esto es, cuando
tiene tanta información sobre el parámetro como la propia muestra. Más en
concreto.

Sea   una población, y  una más. de X. Decimos que un


estimador,   de q, es suficiente para el parámetro si la densidad o función
de probabilidad de la muestra condicionada por un valor cualquiera del estimador,

Estimación Puntual
El método de máxima verosimilitud se utiliza por ejemplo para estimar los
coeficientes de un modelo logístico de regresión, en el que se calcula la probabilidad de
que ocurra un determinado suceso mediante la siguiente ecuación

Donde p es la probabilidad de que ocurra el suceso de interés y xi son los posibles


factores (factores de riesgo) que se piensa que están relacionados con la probabilidad
de que el suceso se produzca.
Calcule la primera derivada de la función y resuelva la ecuación que se obtiene al
igualar a cero dicha derivada.
Investigue si los valores encontrados de θ encontrados en el paso 1 son máximos o
mínimos locales.
• Calcule la segunda derivada y evalúela en cada valor encontrado en el paso 1
• Si la segunda derivada es menor que cero entonces L (θ) tiene un máximo.
• Si la segunda derivada es mayor que cero entonces L (θ) tiene un mínimo.
Método de Momentos
El método de momentos consiste en igualar los primeros momentos de una población a
los momentos correspondientes de una muestra, con lo cual se obtienen tantas
ecuaciones, según se necesiten, para resolver y obtener los primeros parámetros
desconocidos de la población.

Por lo tanto, el método de momentos consiste en solucionar el sistema de ecuaciones.

Intervalos de Confianza para la media


Intervalo de confianza para µ, conociendo σ.
Si la media de una muestra aleatoria de tamaño n de una población con varianza
conocida, el intervalo de confianza del (1−α) 100% para µ es.

Intervalo de confianza para µ, σ desconocida.


Si son la media y la desviación estándar de una muestra aleatoria de tamaño n de una
población normal con varianza desconocida, el intervalo de confianza del (1 − α )100%
para µ es.

Intervalos de Confianza para la Diferencia entre Dos Medias, µ 1 - µ2.


Si x1 y x2 son las medias de muestras aleatorias independientes de tamaños n 1 y n2 µ1 -
µ2 e poblaciones con varianzas conocidas σ 2 y σ2, el intervalo de confianza del (1-
α )100% para µ1 - µ2 es.

Intervalo de confianza para µ1 - µ2; σ2 y σ2 desconocidas (n1 y n2 ≥ 30)


Las medias de muestras aleatorias independientes de tamaños n 1 y n2 de poblaciones
aproximadamente normales, un intervalo de confianza del (1- α )100% para µ 1 - µ2 es.

Intervalo de confianza para observaciones pareadas (µ D = µ1 - µ2).


Si d y sd son la media y la desviación estándar de las diferencias normalmente
distribuidas de n pares aleatorios de mediciones, un intervalo de confianza del (1-
α )100% para µD = µ1 - µ2 es:

Intervalo de confianza para P (muestras grandes).


Si p = x / n, es la proporción de éxitos en una muestra aleatoria de tamaño n, y q = 1 −
p, un intervalo de confianza aproximado del (1 − α) 100% para el parámetro binomial P
es:

Sí se utiliza como una estimación de P, se puede tener una confianza del (1 − α )100%
de que el error no excederá de una cantidad específica E cuando el tamaño de la
muestra es
Intervalo de confianza para σ2.
Si es la varianza de una muestra aleatoria de tamaño n de una población normal, un
intervalo de confianza del (1 − α)100% para es.

Intervalo de confianza para σ2/ σ2.


Si s1 y s2 varianzas de dos muestras independientes de tamaños n 1 y n2,
respectivamente, de poblaciones normales, entonces un intervalo de confianza de (1 -
α)100% para σ2 / σ2 es:

Determinación del tamaño de muestra


Basado en la media de la Población Teorema
Sí se utiliza x como una estimación de µ, se puede tener una confianza del (1 −
α )100% de que el error no excederá de una cantidad específica E cuando el tamaño

de la muestra es .

Basado en la proporción de la Población


Sí se utiliza P como una estimación de P, se puede tener una confianza del (1 −
α )100% de que el error no excederá de una cantidad específica E cuando el tamaño
de la muestra es
Basado en la diferencia entre las medias de la Población
Sí se utiliza x como una estimación de µ, se puede tener una confianza del (1 −
α )100% de que el error no excederá de una cantidad específica E cuando el tamaño

de la muestra es

Conclusión
Estimación es el método estadístico para obtener inferencias cerca de valores de
parámetros sobre la base de estadísticos de muestras. Debe señalarse que hemos
tratado el procedimiento tradicional de estimación basado en decisiones. Se dice que
un estimador es bueno si posee las propiedades de inestabilidad, consistencia,
eficiencia y suficiencia. el método de máxima probabilidad proporciona estimadores que
ordinariamente son consistentes, eficientes y suficientes; pero no siempre proporcionan
estimadores insesgado.
Nuestro estudio de la estimación lo hemos hecho hasta ahora en el supuesto que la
distribución de un estimador por muestreo esta normalmente distribuido en tanto que
muchas distribuciones por muestreo solo son aproximadamente normales, los límites
de confianza construidos con multiplicadores de confianza normal solo posee valores
aproximados .

También podría gustarte