Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ESTIMADOR Y ESTIMACIÓN
1. Estimador INSESGADO
Se dice que un estimador puntual es un estimador insesgado de un parámetro
poblacional si su valor esperado es igual a ese parámetro. Un estimador que no
es insesgado es sesgado. El grado de sesgo es la diferencia entre la media del
estimador y el verdadero parámetro.
2. Estimador CONSISTENTE
Se dice que un estimador puntual es un estimador consistente del parámetro si la
diferencia entre el valor esperado del estimador y el parámetro disminuye a medida
que aumenta el tamaño de la muestra. Es lo mismo que decir que el sesgo
disminuye conforme aumenta el tamaño de la muestra.
3. Estimador EFICIENTE
Utilizando la varianza como medida de la concentración, introducimos la eficiencia
de un estimador como criterio para preferir uno a otro. El estimador insesgado que
tiene la menor varianza es el estimador más eficiente.
ESTIMACIÓN POR INTERVALOS
PROPIEDADES
α 𝑃(1−𝑃)
P±Z2 . 𝑛
FÓRMULA INTERVALO DE CONFIANZA DE LA VARIANZA POBLACIONAL Y
DESVÍO TÍPICO Tabla Chi-Cuadrado
2 2
𝑛−1 . 𝑆 2 𝑛−1 . 𝑆
2 α
< ϑ < 2 α
𝑋 𝑛−1 ; 2
𝑋 𝑛−1 ; 1 − 2
TEST DE HIPÓTESIS
Una hipótesis estadística es una proposición o supuesto sobre los parámetros de una o
más poblaciones.
PRUEBA DE HIPÓTESIS
● Error Tipo 1:
Rechazar Ho cuando es verdadera
P (Error Tipo 1) = α
● Error Tipo 2:
No rechazar Ho cuando es falsa
P (Error Tipo 2) = β
INTERPRETACIÓN DEL VALOR DE LA PROBABILIDAD o p-valor
● Hipótesis nula H0: hipótesis que se mantiene que es verdadera, a menos que se
obtenga suficiente evidencia en contra.
● Hipótesis alternativa H1: hipótesis frente a la que se contrasta la hipótesis nula y
que se mantiene que es verdadera si se rechaza la hipótesis nula.
● Hipótesis simple: hipótesis que especifica un único valor para un parámetro
poblacional de interés.
● Hipótesis compuesta: hipótesis que especifica un rango de valores para un
parámetro poblacional.
● Hipótesis alternativa unilateral: hipótesis alternativa que implica todos los valores
posibles de un parámetro poblacional a un lado o al otro (es decir, mayores o
menores) del valor especificado por una hipótesis nula simple.
● Hipótesis alternativa bilateral: hipótesis alternativa que implica todos los valores
posibles de un parámetro poblacional distintos del valor especificado por una
hipótesis nula simple.
● Decisiones de un contraste de hipótesis: se formula una regla de decisión que
lleva al investigador a rechazar o no la hipótesis nula basándose en la evidencia
muestral.
Error de Tipo I: rechazo de una hipótesis nula verdadera
Nivel de significación: probabilidad de rechazar una hipótesis nula que es
verdadera. Esta probabilidad a veces se expresa en porcentaje, por lo que un
contraste de nivel de significación α se denomina contraste de nivel 100α%
Error de Tipo II: aceptación de una hipótesis nula falsa.
Potencia: probabilidad de rechazar una hipótesis nula que es falsa.
COEFICIENTE DE CORRELACIÓN
Es una medida estadística que cuantifica la dependencia lineal entre dos variables, es
decir, si se representan en un diagrama de dispersión los valores que toman dos variables,
el coeficiente de correlación lineal señalará lo bien o lo mal que el conjunto de puntos
representados se aproxima a una recta.
RECTA DE REGRESIÓN
Recta que mejor se ajusta a los datos (la que pasa más cerca de todos los puntos del
diagrama de puntos), utilizando el método de mínimos cuadrados.
La distancia que existe entre un punto (valor observado o real) y la recta (valor estimado) se
llama residuo o error
Los supuestos más importantes respecto del término de error para el análisis de regresión
son:
1- Todos los errores referidos a la misma x tienen esperanza cero.
2- Todos los errores referidos a la misma x tienen la misma varianza.
3- Todos los errores referidos a la misma x tienen distribución normal.
4- Los errores son independientes entre sí
La mejor recta de regresión es aquella donde la suma de todos los residuos es mínima,
pero para que los valores positivos (desde arriba de la recta) no anulen a los valores
negativos (desde debajo de la recta), los residuos se elevan al cuadrado; luego la
condición es que la suma de los residuos al cuadrado sea mínima:
∑(residuos)2 = mínima. Por eso se llama método de mínimos cuadrados.