Está en la página 1de 4

2.

5 CORRELACION LINEAL MULTIPLE


CORRELACION PARCIAL
La correlación parcial se define como la correlación entre dos variables si las
demás variables no varían, es decir, el valor de las demás variables es fijos, el
coeficiente de correlación parcial de p 123, es la correlación entre la variable 2 y 3
siendo constante el valor de la variable 1. La correlación parcial r 123, sería la
correlación lineal entre la variable 1 y 2 dejando como constante la variable 3, esto
quiere decir que hay que medir la correlación entre la variable 1 y 2 que no sea un
reflejo de sus relaciones con la variable 3, por tanto se puede obtener una estima
muestral r123 calculando la desviación o residuo e13 de la regresión de la variable 1
sobre la variable 3, y la desviación o residuo e 23 de la regresión de la variable 2
sobre la variable 3. Y r 12 3 es el coeficiente de correlación simple entre e 13 y e23. La
correlación parcial no involucra la noción de variables independientes y
dependientes, sino que es una medida de interdependencia.
Puede demostrarse que r123 satisface la siguiente formula:
r 12−r 13 r 23
r 12.3= ❑
√¿¿ ¿
El error típico de esta estima es:

1−r 212.3
sr =
123
n−3 √
Por lo que podemos probar H0: r12.3=0 por medio de la t
r 123 √ n−3
t= 2
√1−r 12.3

Los coeficientes de correlación parcial de un orden determinado pueden deducirse


partiendo de los de orden inmediatamente inferior. Así, se puede obtener un
coeficiente de primer orden aplicando la relación, ya conocida, de los de orden
cero.
r 12−r 13 r 23
r 12.3= ❑
√¿¿ ¿
Para un coeficiente de segundo orden la relación es con coeficientes de primer
orden, esta es:
r 12 .3−r 1 4.3 r 2 4.3
r 12.3 4 = ❑ 2 2
√(1−r 14.3 )(1−r 24.3 )
Y una correlación parcial de orden k-ésimo
r 12.34 … k =r 12.3 4. .(k−1) −r 1 k .34 …(k−1) r 2 k .34 … ¿¿ ¿

La prueba para contrastar si esta r es diferente de cero, es


r 12. 3 4 … k √ n−k
t= 2
√ 1−r 12.3 4. .k

CORRELACIÓN MULTIPLE

El análisis de regresión múltiple consiste en encontrar la mejor combinación lineal


de p variables independientes, X 1, X2,.., XP, para predecir la variable dependiente
Y. La correlación múltiple es la correlación simple entre Y y sus valores estimados
por la ecuación de regresión, Ŷ. Por tanto, el objetivo en los análisis de regresión y
correlación múltiple está en examinar la relación entre varias variables, X, y una
variable, Y.
Recuérdese que el análisis de regresión múltiple trataba de encontrar la
combinación lineal de p variables, X 1, X2,..., XP, que mejor predigan la variable
dependiente Y. El coeficiente de correlación múltiple es la correlación simple entre
Y y su predicción por medio de la ecuación de regresión
El coeficiente de correlación múltiple se aplica a la situación en que una variable, a
la que se llama “Y”, ha sido aislada para examinar su relación con el conjunto de
las otras variables. Este coeficiente viene determinado por la siguiente expresión:

R1.23= r
√ 2
1 2+ ¿
r 13−¿ 2 r
1−r
2
r r
12 13 23

2
23
¿¿

Siendo R2 el coeficiente de determinación múltiple. El valor de un coeficiente de


correlación múltiple, R, se encuentra entre cero y uno. Cuanto más se acerque a
uno mayor es el grado de asociación entre las variables, y cuanto más se acerque
a cero la relación lineal es peor.
Existe una relación entre el coeficiente de correlación múltiple y los diferentes
coeficientes de correlación parcial, que puede facilitar el cálculo de aquél, esta es:
1 – R21.23 = (1 – r212) (1 – r213.2)
1 – R21.234 = (1 – r212) (1 – r213.2) (1 – r214.23)
Una correlación múltiple de orden k-ésimo
1 – R21.23…k = (1 – r212) (1 – r213.2) (1 – r21k.23…(k-1))

Así como en la prueba de ajuste de una regresión múltiple, R 2 es la fracción de la


suma de cuadrados de las desviaciones de Y de su media, atribuible a la
regresión, en tanto que (1-R 2) es la fracción no asociada a la regresión; ahora, la
prueba de hipótesis nula, de que la correlación múltiple en la población es cero, es
idéntica a la prueba F de la hipótesis nula que β1=β2=...=βk=0; y ésta es:
( n−k ) R2
F=
( K −1 ) (1−R 2)

Siendo R el coeficiente de determinación múltiple. Esta F 0 se contrasta con la F (K-1,


n-k; a).

CORRELACION CANONICA
El análisis de correlación canónica se aplica a situaciones donde es apropiada la
técnica de la regresión, pero para más de una variable dependiente. Aunque otra
aplicación del análisis de correlación canónica es como un método para
determinar la asociación entre dos grupos de variables. Es una generalización de
la regresión múltiple al caso de más de una variable dependiente. Este análisis
está íntimamente relacionado con el análisis canónico discriminante y tiene ciertas
propiedades análogas al análisis de componentes principales y al análisis factorial,
en el que en lugar de tratar de estudiar las dependencias internas entre las
variables de un mismo grupo, en el caso de la correlación canónica lo que se
estudia es la relación o dependencia entre dos grupos de variables.
En el análisis de correlación canónica se examina la relación lineal entre un grupo
de variables, X, y un grupo, o más de un grupo, de variables Y. Por lo que la
diferencia es que ahora se tiene más de una variable Y. La técnica consiste en
encontrar una combinación lineal de las variables X (V 1=B1X1+B2X2+...+bpXp) y
otra combinación lineal de las variables Y (U 1=a1y1+ a2y2+...+aqyq) de tal manera
que la correlación entre U y V sea máxima. Después encontrar otras dos
combinaciones lineales para cada grupo de variable que tenga correlación máxima
y así sucesivamente se encuentran un conjunto de combinaciones lineales para
cada grupo de variables que tienen correlación máxima. A estas combinaciones
lineales se denominan variables canónicas, y las correlaciones entre los
correspondientes pares de variables canónicas se denominan correlaciones
canónicas.
El análisis de correlación canónica se aplica a situaciones en las que es adecuada
la técnica de la regresión, pero existe más de una variable dependiente. Otra
aplicación útil es para probar la independencia entre los dos grupos de variables,
Y y X, como se verá dentro de un momento.

También podría gustarte