Está en la página 1de 2

Curva de regresion poblacional

Así, desde el punto de vista geométrico, una curva de regresión poblacional es tan sólo el lugar
geométrico de las medias condicionales de la variable dependiente para los valores fijos de la(s)
variable(s) explicativa(s). En palabras más simples, es la curva que conecta las medias de las
subpoblaciones de Y que corresponden a los valores dados de la regresora X.

FUNCION DE REGRESION POBLACIONAL

La ecuación (2.2.1) se conoce como función de esperanza condicional (FEC), función de


regresión poblacional (FRP) o regresión poblacional (RP), para abreviar. Dicha función sólo
denota que el valor esperado de la distribución de Y dada Xi se relaciona funcionalmente con Xi.
En otras palabras, dice cómo la media o respuesta promedio de Y varía con X.

La función de regresión muestral

El objetivo principal del modelo de regresión es la determinación o estimación de 1y 2 a partir


de una muestra dada. La función de regresión muestral (FRM) es la contrapartida de la función
de regresión poblacional (FRP). Dado que la FRM se obtiene para una muestra dada, una nueva
muestra generará otra estimación distinta. La FRM, que es una estimación de la FRP, viene dada
por

1. El concepto fundamental del análisis de regresión es el de función de esperanza condicional


(FEC), o función de regresión poblacional (FRP). El objetivo del análisis de regresión es
averiguar la forma en que varía el valor promedio de la variable dependiente (o regresada)
de acuerdo con el valor dado de la variable explicativa (o regresora).

2. Este libro trata sobre todo de FRP lineales, es decir, regresiones lineales en los parámetros.
Éstas pueden ser o no lineales en la variable regresada o las regresoras.

3. Para efectos prácticos, la FRP estocástica es la que importa. El término de perturbación


estocástica ui desempeña una función crucial para estimar la FRP.

4. La FRP es un concepto idealizado, pues en la práctica pocas veces se tiene acceso al total de
la población de interés. Por lo general se cuenta sólo con una muestra de observaciones de
la población. En consecuencia, se utiliza la función de regresión muestral estocástica (FRM)
para estimar la FRP; la forma de lograrlo se analiza en el capítulo 3.

El error estándar no es otra cosa que la desviación estándar de la distribución muestral del
estimador, y la distribución muestral de un estimador es tan sólo una probabilidad o distribución
de frecuencias del estimador.

El término número de grados de libertad significa el número total de observaciones en la


muestra ( n) menos el número de restricciones (lineales) independientes o de restricciones que
se les impusieron. En otras palabras, es la cantidad de observaciones independientes de un total
de n observaciones. Por ejemplo, para calcular la SCR (3.1.2), es necesario obtener antes βˆ 1 y
βˆ 2. Por consiguiente, estas dos estimaciones imponen dos restricciones a la SCR. Son,
entonces, n − 2 las observaciones independientes, y no n, para calcular la SCR. Según esta lógica,
en la regresión con tres variables SCR tendrá n − 3 gl, y para el modelo de k variables tendrá n −
k gl. La regla general es la siguiente: gl (n − número de parámetros estimados).
Como ya mencionamos, dados los supuestos del modelo clásico de regresión lineal, las
estimaciones de mínimos cuadrados poseen algunas propiedades ideales u óptimas, las cuales
están contenidas en el famoso teorema de Gauss-Markov. Para entender este teorema
necesitamos considerar la propiedad del mejor estimador lineal insesgado. 18 Como se explica
en el apéndice A, se dice que un estimador, por ejemplo, el estimador de MCO βˆ 2, es el mejor
estimador lineal insesgado (MELI) de β2 si se cumple lo siguiente:

1. Es lineal, es decir, función lineal de una variable aleatoria, como la variable dependiente
Y en el modelo de regresión.
2. 2. Es insesgado, es decir, su valor promedio o esperado, E(βˆ 2), es igual al valor
verdadero, β2.
3. 3. Tiene varianza mínima dentro de la clase de todos los estimadores lineales
insesgados; un estimador insesgado con varianza mínima se conoce como estimador
eficiente.

Las propiedades estadísticas que acabamos de exponer se conocen como propiedades de


muestras fi nitas: estas propiedades se mantienen sin importar el tamaño de la muestra en
que se basen los estimadores. Más adelante tendremos ocasión de considerar las
propiedades asintóticas, es decir, propiedades válidas sólo si el tamaño de la muestra es
muy grande (técnicamente hablando, infinito).

Veremos ahora la bondad del ajuste de la línea de regresión a un conjunto de datos; es


decir, veremos cuán “bien” se ajusta la línea de regresión a los datos.

El coeficiente de determinación r 2 (caso de dos variables) o R2 (regresión múltiple) es una


medida comprendida que dice cuán bien se ajusta la línea de regresión muestral a los datos.

Los términos variación y varianza son diferentes. Variación significa la suma de los cuadrados
de las desviaciones de una variable respecto del valor de su media. Varianza es la suma de
los cuadrados dividida por los grados de libertad apropiados. En resumen, varianza
variación/gl.

También podría gustarte