1. Matriz de Coeficientes: Es la matriz de resultados, después de hallar la
regresión lineal, donde obtenemos los β que acompañaran cada pareja de variables dependientes.
2. Diferencia entre Regresión Lineal Simple y Regresión Múltiple: La
regresión permite calcular una esperanza (promedio) condicional. Para ese fin, se toman como dados los valores de las variables independientes.
Cabe precisar que cuando se tiene en cuenta solo una variable
independiente hablamos de regresión lineal simple. En cambio, si se incluyen más factores, se trataría de una regresión lineal múltiple.
A. Regresión Lineal Simple: Técnica utilizada para estudiar la relación
entre las variable dependiente e independiente.
B. Regresión Lineal Múltiple: Es la función de regresión que genera
una posible relaciona entre la variable dependiente y las varias variables independientes.
Donde:
β 0 Es el termino independiente. Es el valor esperado de Y
cuando X 1 …. X n son 0 β 1, β 2 ,…. β n son los coeficientes parciales de la regresión.
β 1 mide el cambio en Y por cada cambio unitario en X 1 ,
manteniendo X 2 , X 3 ….., X n constantes.
β 2 mide el cambio en Y por cada cambio unitario en X 2 ,
manteniendo X 1 , X 3 ….., X n constantes
β n mide el cambio en Y por cada cambio unitario en X n,
manteniendo X 1 , X 3 ….., X n−1 constantes 3. Covarianza Muestral: Es la variación conjunta entre dos variables aleatorias, esta depende de las escalas que se miden las variables, por lo tanto, no es comparable entre los distintos pares de variables. Para poder hacer comparación se estandariza la covarianza, generando coeficiente de correlación.
4. Coeficiente de Correlación Múltiple: Cuantifica el grado de asociación
entre una variable dependiente y dos o más variables independientes.
5. Error Típico: Reducir la aproximación de los puntos en la línea de
tendencia.
6. Diferencia entre Coeficiente de Determinación R^2 y R^2 Ajustado: En
regresión lineal simple se toma el coeficiente de determinación R^2, dado a que este tiende a incrementarse a 1 a medida que se va añadiendo más variables al modelo, por lo tanto no resulta tan objetivo; por lo tanto en regresión múltiple se toma el R^2 ajustado, porque amortigua el efecto de estar aumentando a medida que se incluyen más variables.
A. Coeficiente de Determinación R^2: Entre mayor sea el R^2, mejor
será el ajuste del modelo a sus datos. El R^2 se encuentra entre el 0 y 100%. La importancia es indicar en cuanto cambia la variable independiente si se modifica la variable dependiente, y nos proporciona el porcentaje de relación que identifica que tan cercana o fuerte es la relación entre las dos variables.
B. R^2 Ajustado: Se mide el ajuste del modelo, ya que dice en que
grado porcentual va a cambiar la variable dependiente, con los cambios (modificación) de la variable independiente. La importancia de este radica que a la medida que se acerque a 1 o -la relación es fuerte entre las variables y de igual manera si se aleja de 1 es una relación débil.
7. Estimador: Los estimadores MCO minimizan el promedio de la diferencia al
cuadrado entre los valores actuales Y y los valores predichos (línea estimada).
8. Matriz Inversa: Es la transformación lineal de una matriz mediante la
multiplicación del inverso del determinante de la matriz por la matriz adjunta traspuesta. En si es la multiplicación del inverso del determinante por la matriz adjunta traspuesta.
9. Tendencia Neutra: Es la no existencia de colinealidad entre las variables.
10. Colinealidad: Existe colinealidad cuando alguno de los coeficientes de correlación simple o múltiple entre algunas de las variables independientes es 1, es decir, cuando algunas variables independientes están correlacionadas entre sí.
11. Correlación: Esta indica la fuerza y la dirección de una relación lineal y