Está en la página 1de 2

4.2.

- CORRELACIÓN
Llamamos correlación al grado de dependencia mutua entre las variables. A través de
la curva de regresión expresábamos la estructura de la relación existente entre las
variables, y que para cada valor de xi obteníamos una diferencia, que llamábamos
residuo, entre el valor de Y en la nube de puntos y el correspondiente valor teórico
obtenido en la función.
Si todos los puntos de la nube estuvieran en la función, la dependencia sería funcional
y el grado de dependencia sería el máximo posible. Cuánto más se alejen los puntos de
la función, es decir, cuanto mayores sean los residuos, iremos perdiendo intensidad en
la asociación. Esto nos lleva a utilizar los residuos para medir la dependencia.
Para evitar que se compensen utilizamos los residuos al cuadrado. Pues bien, a la
media de todos los residuos elevados al cuadrado se la denomina varianza residual.
Si la varianza residual es grande, los residuos por término medio, serán grandes, los
puntos estarán alejados de la función y por tanto la dependencia será pequeña.
Pero la varianza residual presenta el problema de las unidades de medida que
imposibilita la comparación del grado de dependencia entre grupos de variables. Por
̂
ello se utiliza el cociente donde es la varianza marginal de la variable Y.

Definimos el Coeficiente de correlación general de K. Pearson como

̂

Al cuadrado R2 se le denomina coeficiente de determinación general.


El campo de variación del coeficiente de correlación general R es -1 ≤ R ≤ 1.
Cuando:
- R = 1 implica que a varianza residual es igual a cero. Todos los puntos de la
nube están en la función. Existe correlación perfecta positiva, es decir, las
variables varían en el mismo sentido.
- R = -1 existirá una correlación perfecta negativa.
- R = 0 no existe asociación entre las variables. La correlación es nula o las
variables están incorrelacionadas.
La raíz cuadrada del coeficiente de determinación lineal simple se denomina
coeficiente de correlación lineal simple. Su expresión es

Este coeficiente se utiliza para medir el grado de asociación lineal entre dos variables.
Su campo de variación está comprendido entre -1 y 1. Este coeficiente toma valores
positivos cuando X e Y varían en el mismo sentido y negativos cuando varían en
sentido contrario.
Cuando Sxy > 0 implica que r > 0 las pendientes de las dos rectas serán positivas.
Cuando Sxy < 0 implica que r< 0 las pendientes serán negativas.
Cuando r = 0 implica que la covarianza Sxy = 0, esto a su vez implica que ̂ . En la
recta de regresión de Y sobre X se verificará
̂ ̂ lo que supone que ̂ ̅ , es decir, ̂ ̅ que la recta de regresión
de Y sobre X es igual a una paralela al eje X trazada por el punto ̅ del eje de
ordenadas. Al variar X, la variable Y no experimenta ninguna variación.
Si r = 0 no implica que X e Y sean dos variables independientes. Implica únicamente
que no existe una relación (asociación) lineal entre X e Y.
Si X e Y son dos variables estadísticamente independientes su covarianza, S xy, será nula
y por lo tanto el coeficiente de correlación lineal también será igual a cero, pero que r
= 0 no implica la independencia de las variables.

También podría gustarte