Está en la página 1de 6

ESTIMACIÓN PUNTUAL

La estimación puntual consiste en un único resultado calculado a partir de una muestra


que busca aproximar al verdadero valor del parámetro desconocido. Es decir, con el
valor del estadístico calculado en la muestra se obtiene una estimación puntual, con la cual
se infiere el valor del parámetro en la población.

ESTIMADOR Y ESTIMACIÓN

Un estimador de un parámetro poblacional es una variable aleatoria que depende de la


información de la muestra; su valor proporciona aproximaciones a este parámetro
desconocido. Un valor específico de esa variable aleatoria se llama estimación.

Un estimador puntual de un parámetro poblacional es una función de la información de la


muestra que genera un único número llamado estimación puntual. Por ejemplo, la media
muestral 𝑥 es un estimador puntual de la media poblacional, µ, y el valor que toma 𝑥 para
un conjunto dado de datos se llama estimación puntual.

PROPIEDADES DE LOS ESTIMADORES

1. Estimador INSESGADO
Se dice que un estimador puntual es un estimador insesgado de un parámetro
poblacional si su valor esperado es igual a ese parámetro. Un estimador que no
es insesgado es sesgado. El grado de sesgo es la diferencia entre la media del
estimador y el verdadero parámetro.
2. Estimador CONSISTENTE
Se dice que un estimador puntual es un estimador consistente del parámetro si la
diferencia entre el valor esperado del estimador y el parámetro disminuye a medida
que aumenta el tamaño de la muestra. Es lo mismo que decir que el sesgo
disminuye conforme aumenta el tamaño de la muestra.
3. Estimador EFICIENTE
Utilizando la varianza como medida de la concentración, introducimos la eficiencia
de un estimador como criterio para preferir uno a otro. El estimador insesgado que
tiene la menor varianza es el estimador más eficiente.
ESTIMACIÓN POR INTERVALOS

Consiste en la estimación de un parámetro poblacional por medio de una franja o


segmento aleatorio denominado Intervalo de Confianza.

ESTIMADOR DE INTERVALOS DE CONFIANZA

Un estimador de un intervalo de confianza de un parámetro poblacional es una regla para


hallar (basándose en la información muestral) un intervalo que es probable que incluya
ese parámetro. La estimación correspondiente se llama estimación de un intervalo de
confianza.

PROPIEDADES

● Un intervalo de confianza es un rango de valores que contiene el verdadero valor del


parámetro, con una probabilidad determinada.
Es un rango de valores entre los cuales “confiamos” se encuentre el parámetro.
● Se calcula a partir de una muestra.
● La probabilidad de que el intervalo construido contenga al verdadero valor del
parámetro se denomina nivel de confianza, y se denota 1- α
● Generalmente se construyen intervalos de confianza con 1- α = 95%
● La longitud del intervalo depende de: el tamaño de la muestra, el desvío estándar
y el nivel de confianza.
● Al aumentar el tamaño de la muestra podemos obtener un intervalo más preciso
(mejorar la precisión de la estimación) porque de esta manera se reduce el error
máximo.
● Por el contrario, al aumentar el desvío estándar o el nivel de confianza, aumenta
la amplitud del intervalo.

FÓRMULA INTERVALO DE CONFIANZA DE LA MEDIA POBLACIONAL (con desvío


conocido) Tabla Z

INTERVALO DE CONFIANZA: 1-Ⲁ


NIVEL DE SIGNIFICANCIA: Ⲁ

FÓRMULA INTERVALO DE CONFIANZA DE LA PROPORCIÓN POBLACIONAL Tabla Z

α 𝑃(1−𝑃)
P±Z2 . 𝑛
FÓRMULA INTERVALO DE CONFIANZA DE LA VARIANZA POBLACIONAL Y
DESVÍO TÍPICO Tabla Chi-Cuadrado

2 2
𝑛−1 . 𝑆 2 𝑛−1 . 𝑆
2 α
< ϑ < 2 α
𝑋 𝑛−1 ; 2
𝑋 𝑛−1 ; 1 − 2

FÓRMULA INTERVALO DE CONFIANZA DE LA MEDIA POBLACIONAL: Tabla t-Student

● Con desvío desconocido


● n < 30
α 𝑆
𝑋±t2 .
𝑛−1

TEST DE HIPÓTESIS

Una hipótesis estadística es una proposición o supuesto sobre los parámetros de una o
más poblaciones.

PRUEBA DE HIPÓTESIS

Procedimiento basado en la evidencia muestral y en la teoría de probabilidad que se


emplea para determinar si la hipótesis es un enunciado razonable y no debe rechazarse
o si no es razonable y debe ser rechazado.

1. La hipótesis nula, representada por Ho, es la afirmación sobre una o más


características de poblaciones que al inicio se supone cierta (es decir, la "creencia a
priori").
2. La hipótesis alternativa, representada por H1, es la afirmación contradictoria a Ho,
y ésta es la hipótesis del investigador.
3. La hipótesis nula se rechaza en favor de la hipótesis alternativa, sólo si la
evidencia muestral sugiere que Ho es falsa. Si la muestra no contradice
decididamente a Ho, se continúa creyendo en la validez de la hipótesis nula.
Entonces, las dos conclusiones posibles de un análisis por prueba de hipótesis son
rechazar Ho o no rechazar Ho.

TIPOS DE ERROR Y SU PROBABILIDAD

● Error Tipo 1:
Rechazar Ho cuando es verdadera
P (Error Tipo 1) = α

● Error Tipo 2:
No rechazar Ho cuando es falsa
P (Error Tipo 2) = β
INTERPRETACIÓN DEL VALOR DE LA PROBABILIDAD o p-valor

El p-valor es el menor nivel de significatividad (α) al que puede rechazarse la hipótesis


nula.
El p-valor es la probabilidad de obtener un valor del estadístico de contraste igual de
extremo o más que el valor efectivo obtenido cuando la hipótesis nula es verdadera.

Cuando calculamos el p-valor podemos contrastar la hipótesis nula utilizando la regla:

Rechazar H0 si P-valor < α


que lleva a la misma conclusión que las reglas basadas en el estadístico de contraste o los
valores críticos de la decisión.
RESUMEN TERMINOLOGÍA TEST DE HIPÓTESIS

● Hipótesis nula H0: hipótesis que se mantiene que es verdadera, a menos que se
obtenga suficiente evidencia en contra.
● Hipótesis alternativa H1: hipótesis frente a la que se contrasta la hipótesis nula y
que se mantiene que es verdadera si se rechaza la hipótesis nula.
● Hipótesis simple: hipótesis que especifica un único valor para un parámetro
poblacional de interés.
● Hipótesis compuesta: hipótesis que especifica un rango de valores para un
parámetro poblacional.
● Hipótesis alternativa unilateral: hipótesis alternativa que implica todos los valores
posibles de un parámetro poblacional a un lado o al otro (es decir, mayores o
menores) del valor especificado por una hipótesis nula simple.
● Hipótesis alternativa bilateral: hipótesis alternativa que implica todos los valores
posibles de un parámetro poblacional distintos del valor especificado por una
hipótesis nula simple.
● Decisiones de un contraste de hipótesis: se formula una regla de decisión que
lleva al investigador a rechazar o no la hipótesis nula basándose en la evidencia
muestral.
Error de Tipo I: rechazo de una hipótesis nula verdadera
Nivel de significación: probabilidad de rechazar una hipótesis nula que es
verdadera. Esta probabilidad a veces se expresa en porcentaje, por lo que un
contraste de nivel de significación α se denomina contraste de nivel 100α%
Error de Tipo II: aceptación de una hipótesis nula falsa.
Potencia: probabilidad de rechazar una hipótesis nula que es falsa.

COEFICIENTE DE CORRELACIÓN

La correlación, también conocida como coeficiente de correlación lineal (de Pearson), es


una medida de regresión que pretende cuantificar el grado de variación conjunta entre dos
variables.

Es una medida estadística que cuantifica la dependencia lineal entre dos variables, es
decir, si se representan en un diagrama de dispersión los valores que toman dos variables,
el coeficiente de correlación lineal señalará lo bien o lo mal que el conjunto de puntos
representados se aproxima a una recta.

REGRESIÓN LINEAL SIMPLE

● Si el coeficiente de correlación entre un par de variables es alto (cercano a –1 o a


+1) puede considerarse la ecuación de la recta que mejor ajuste a la nube de
puntos, denominada también recta de mínimos cuadrados.
● Para determinar esta recta se considera como independiente a una de las variables
y como dependiente a la otra.
● La ecuación de la recta es la que permite estimar o pronosticar valores de la
variable dependiente para distintos valores de la variable independiente.
● A partir del análisis de regresión lineal se obtiene una recta de la forma: y = b.x + a;
y es la variable dependiente
x es la variable independiente
a es la ordenada al origen
b es la pendiente de la recta.

RECTA DE REGRESIÓN

Recta que mejor se ajusta a los datos (la que pasa más cerca de todos los puntos del
diagrama de puntos), utilizando el método de mínimos cuadrados.

La distancia que existe entre un punto (valor observado o real) y la recta (valor estimado) se
llama residuo o error

Los supuestos más importantes respecto del término de error para el análisis de regresión
son:
1- Todos los errores referidos a la misma x tienen esperanza cero.
2- Todos los errores referidos a la misma x tienen la misma varianza.
3- Todos los errores referidos a la misma x tienen distribución normal.
4- Los errores son independientes entre sí

La mejor recta de regresión es aquella donde la suma de todos los residuos es mínima,
pero para que los valores positivos (desde arriba de la recta) no anulen a los valores
negativos (desde debajo de la recta), los residuos se elevan al cuadrado; luego la
condición es que la suma de los residuos al cuadrado sea mínima:
∑(residuos)2 = mínima. Por eso se llama método de mínimos cuadrados.

La pendiente de la recta tiene el mismo signo que el coeficiente de correlación.

R2 se denomina coeficiente de determinación (en un modelo de regresión lineal simple


es el valor de r elevado al cuadrado) e indica la bondad de ajuste de la recta.
A mayor coeficiente de determinación mejor será el ajuste del modelo lineal. Si todos los
valores observados estuvieran sobre la misma recta este coeficiente sería del 100% y el de
correlación valdría 1 o –1.

También podría gustarte