Está en la página 1de 3

CONCEPTOS

1. Matriz de Coeficientes: Es la matriz de resultados, después de hallar la


regresión lineal, donde obtenemos los β que acompañaran cada pareja de
variables dependientes.

2. Diferencia entre Regresión Lineal Simple y Regresión Múltiple: La


regresión permite calcular una esperanza (promedio) condicional. Para ese
fin, se toman como dados los valores de las variables independientes.

Cabe precisar que cuando se tiene en cuenta solo una variable


independiente hablamos de regresión lineal simple. En cambio, si se
incluyen más factores, se trataría de una regresión lineal múltiple.

A. Regresión Lineal Simple: Técnica utilizada para estudiar la relación


entre las variable dependiente e independiente.

B. Regresión Lineal Múltiple: Es la función de regresión que genera


una posible relaciona entre la variable dependiente y las varias
variables independientes.

Donde:

 β 0 Es el termino independiente. Es el valor esperado de Y


cuando X 1 …. X n son 0
 β 1, β 2 ,…. β n son los coeficientes parciales de la regresión.

 β 1 mide el cambio en Y por cada cambio unitario en X 1 ,


manteniendo X 2 , X 3 ….., X n constantes.

 β 2 mide el cambio en Y por cada cambio unitario en X 2 ,


manteniendo X 1 , X 3 ….., X n constantes

 β n mide el cambio en Y por cada cambio unitario en X n,


manteniendo X 1 , X 3 ….., X n−1 constantes
3. Covarianza Muestral: Es la variación conjunta entre dos variables
aleatorias, esta depende de las escalas que se miden las variables, por lo
tanto, no es comparable entre los distintos pares de variables. Para poder
hacer comparación se estandariza la covarianza, generando coeficiente de
correlación.

4. Coeficiente de Correlación Múltiple: Cuantifica el grado de asociación


entre una variable dependiente y dos o más variables independientes.

5. Error Típico: Reducir la aproximación de los puntos en la línea de


tendencia.

6. Diferencia entre Coeficiente de Determinación R^2 y R^2 Ajustado: En


regresión lineal simple se toma el coeficiente de determinación R^2, dado a
que este tiende a incrementarse a 1 a medida que se va añadiendo más
variables al modelo, por lo tanto no resulta tan objetivo; por lo tanto en
regresión múltiple se toma el R^2 ajustado, porque amortigua el efecto de
estar aumentando a medida que se incluyen más variables.

A. Coeficiente de Determinación R^2: Entre mayor sea el R^2, mejor


será el ajuste del modelo a sus datos. El R^2 se encuentra entre el 0
y 100%. La importancia es indicar en cuanto cambia la variable
independiente si se modifica la variable dependiente, y nos
proporciona el porcentaje de relación que identifica que tan cercana
o fuerte es la relación entre las dos variables.

B. R^2 Ajustado: Se mide el ajuste del modelo, ya que dice en que


grado porcentual va a cambiar la variable dependiente, con los
cambios (modificación) de la variable independiente. La importancia
de este radica que a la medida que se acerque a 1 o -la relación es
fuerte entre las variables y de igual manera si se aleja de 1 es una
relación débil.

7. Estimador: Los estimadores MCO minimizan el promedio de la diferencia al


cuadrado entre los valores actuales Y y los valores predichos (línea
estimada).

8. Matriz Inversa: Es la transformación lineal de una matriz mediante la


multiplicación del inverso del determinante de la matriz por la matriz adjunta
traspuesta. En si es la multiplicación del inverso del determinante por la
matriz adjunta traspuesta.

9. Tendencia Neutra: Es la no existencia de colinealidad entre las variables.


10. Colinealidad: Existe colinealidad cuando alguno de los coeficientes de
correlación simple o múltiple entre algunas de las variables independientes
es 1, es decir, cuando algunas variables independientes están
correlacionadas entre sí.

11. Correlación: Esta indica la fuerza y la dirección de una relación lineal y


proporcionalidad entre dos variables.

También podría gustarte