Está en la página 1de 28

Variables bidimensionales: regresión y correlación

VARIABLES ESTADÍSTICAS BIDIMENSIONALES

1. Introducción.............................................................. 2

2. Distribuciones marginales........................................ 4

3. Momentos.................................................................. 7

3.1 Momentos respecto al origen................... 7

3.2 Momentos respecto a la media................. 8

4. Matriz de covarianzas.............................................. 9

5. Conceptos de ajuste y regresión.............................12

6. El método de los mínimos cuadrados....................13

6.1 Regresión lineal........................................13

6.2 Regresión parabólica...............................19

6.3 Regresión polinomica...............................20

7. Análisis de la correlación........................................20

7.1 La varianza residual.................................21

7.2 Coeficiente de correlación lineal.............22

ANEXO:

El método de los mínimos cuadrados en forma matricial….26

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 1


Variables bidimensionales: regresión y correlación
VARIABLES ESTADÍSTICAS BIDIMENSIONALES

1. INTRODUCCIÓN

Hasta ahora hemos estudiado una sola característica de cada población. Si esa
característica era cuantitativa a cada individuo le hacíamos corresponder un número y
obteníamos las variables estadísticas unidimensionales.

Ahora vamos a estudiar conjuntamente dos características de una población.

Los dos caracteres observados no tienen porqué ser de la misma clase. Así, se nos
puede presentar:

- Dos caracteres cualitativos.


Ej.: El sexo y el color del pelo de una persona.
- Uno cualitativo y otro cuantitativo.
Ej.: La profesión y los años de servicio.
- Dos caracteres cuantitativos.
Ej.: El peso y la edad de una persona.

A cada individuo le vamos a hacer corresponder dos números y así obtenemos las
variables estadísticas bidimensionales.

Si llamamos E a la población, una variable estadística bidimensional es una


aplicación de E ---> R 2 .

A los caracteres les vamos a llamar x e y, cada uno de ellos presentará varias
modalidades x1 ,....., xr e y1 ,....., ys respectivamente.

Las parejas de valores, así obtenidas por observación conjunta, pueden representar
valores discretos, continuos de distinto tipo y podrán también repetirse un número
determinado de veces, dando lugar de esta forma a los conceptos de frecuencia absoluta
conjunta, paralelos a los ya estudiados para variables estadísticas unidimensionales.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 2


Variables bidimensionales: regresión y correlación

Se acostumbra a disponer los resultados en una tabla de doble entrada, donde en la


primera columna se colocan los valores x1 ,..., x r de la variable "x" y en la primera fila los
valores y1 ,..., y s de la variable "y". En la confluencia de la fila de xi con la columna yj se
coloca la frecuencia conjunta nij referida al resultado (xi,yj) correspondiente, es decir, nij es el
número de individuos que poseen conjuntamente las modalidades xi e yj , y que llamaremos
frecuencia absoluta conjunta del par (xi,yj).

Notaremos por fij la frecuencia relativa correspondiente al par ( x i , y j ) , que vendrá

n ij
dada por la expresión f ij  , siendo n el número total de pares observados.
n

Por consiguiente, definimos distribución de frecuencias como el conjunto de valores


que toma la variable bidimensional con sus respectivas frecuencias absolutas o relativas. Esta
distribución se representa mediante la siguiente tabla:
y1 y2 .......... yj .......... ys

x1 n11 n12 .......... n1j .......... n1s n1.

x2 n21 n22 .......... n2j .......... n2s n2.


... ... ... ... ... ... ... ...
xi ni1 ni2 .......... nij .......... nis ni.
... ... ... ... ... ... ... ...
xr nr1 nr2 .......... nrj .......... nrs nr.

n.1 n.2 .......... n.j .......... n.s n


donde xi e yj son los valores de las variables x e y, o las marcas de clase si están agrupadas, y,
s r
n i.   n ij ; n. j   n ij
j 1 i 1

r s r s
verificándose,  n i.   n. j   n ij  n
i 1 j1 i 1 j1

Análogamente, las frecuencias relativas:


s r
n i.
f i.   f ij  ; f i. 1
j1 n i 1

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 3


Variables bidimensionales: regresión y correlación
r n. j s
f. j   f ij  ; f .j 1
i 1 n j1

n ij r s
f ij 
n
;  f
i=1 j1
.j 1

Las estadísticas de dos variables suelen representarse en un sistema de ejes


cartesianos, tomándose los valores de la variable "x" en el eje de abscisas y los de la variable
"y" en el de ordenadas y señalándose la confluencia en el plano con un punto. El conjunto de
puntos así obtenidos, en un número igual al de observaciones conjuntas efectuadas, recibe el
nombre de diagrama de dispersión o nube de puntos.
Diagrama de dispersión

55

y
j

x x
i

Como en un diagrama de dispersión no puede quedar reflejado las veces que se repite
un par o un intervalo, hemos de recurrir a una representación en tres dimensiones de (x,y).
Dos son para la variable bidimensional y una para expresar las frecuencias.

2. DISTRIBUCIONES MARGINALES
EJEMPLO 1:
Consideremos 150 alumnos a los que se les ha preguntado las calificaciones
obtenidas en Física y Matemáticas. Así se han obtenido pares de resultados (x=nota en
Física, y=nota en Matemáticas), cuya información recogemos en la siguiente tabla de
doble entrada:
Física\Matemáticas Suspenso Aprobado
Suspenso 65 15

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 4


Variables bidimensionales: regresión y correlación
Aprobado 10 60
Podemos responder a las siguientes preguntas: 1) ¿Cuántos alumnos han
aprobado Física? ¿Cuántos han suspendido? 2) ¿Cuántos alumnos han suspendido
Matemáticas? ¿Cuántos han aprobado?
Solucion:

Física\Matemáticas Suspenso Aprobado


Suspenso 65 15 80
Aprobado 10 60 70
75 75 150
Para la primera pregunta hemos de tener en cuenta solamente la variable x (Física).
x n x i  n i.

Suspensos 80
Aprobados 70
s
n i.   n ij  frecuencia marginal del valor xi
j 1

Distribución marginal de la variable "x" son los valores que toma dicha variable con
sus respectivas frecuencias.
x ni..

x1 n1.

x2 n2.

.... ....
xi ni.

.... ....
xr nr.

Para la segunda pregunta hemos de proceder de manera análoga para la variable "y".
y n y j  n. j

Suspensos 75
Aprobados 75

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 5


Variables bidimensionales: regresión y correlación
r
n . j   n ij  .frecuencia marginal del valor yj.
i 1

La tabla representada con la variable "y" con sus frecuencias marginales, recibe el
nombre de distribución marginal de la variable "y".

y n.j
y1 n.1

y2 n.2

.... ....
yj n.j

.... ....
ys n.s

A partir de las frecuencias absolutas marginales se obtienen las frecuencias relativas


marginales.
n i. n. j
f i.  f. j 
n n
Naturalmente, para cada una de las distribuciones marginales pueden hallarse las
medias, las varianzas, las desviaciones típicas y cualquier otra medida de las ya consideradas
para las estadísticas de una sola variable.

Medias marginales:

1 r r
1 s s
X  i i. 
n i 1
x n 
i 1
x i fi. ; Y  j .j 
n j1
y n 
j1
y jf. j

El punto (X, Y) se llama centro de gravedad de la distribución bidimensional o


vector de medias.

Varianzas marginales:
1 r r
2x  
n i 1
(x i  X) 2
n i.  
i 1
(x i  X) 2fi.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 6


Variables bidimensionales: regresión y correlación
1 s s
2y  
n j1
(y j  Y) 2
n .j  
j1
(y j  Y)2 f. j

por tanto, las desviaciones típicas marginales, serán:

1 r r
x   (x i  X)2 n i. 
n i 1
 (x
i 1
i  X) 2f i.

1 s s
y  
n j1
(y j  Y) 2 n . j   (y
j1
j  Y) 2 f. j

Si en vez de dividir por n se divide por n-1 obtenemos las cuasivarianzas marginales
S2x y S2y .

3. MOMENTOS

3.1. Momentos respecto al origen


1 r s h k
m h,k   x i y j n ij
n i 1 j1

Algunos momentos particulares:


m00  1
1 r s 1
m1,0   x i n ij   x i n i.   x i f i.  X
n i 1 j1 n i i

1 r s 1
m 0,1  
n i 1 j1
y j n ij   y jn . j   y jf. j  Y
n j j

1 r s
m1,1   x i y j n ij  
n i 1 j1 i j
x i y jfij

1 r s 2 1
m 2,0  
n i 1 j1
x i n ij   x i2 n i.   x i2 fi.
N i i

1 r s 2 1
m 0,2  
n i 1 j1
y j n ij   y 2j n. j   y 2j f. j
n j j

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 7


Variables bidimensionales: regresión y correlación
3.2. Momentos respecto a la media
1 r s
 h,k  
n i 1 j1
(x i  X) h (y j  Y)k n ij

Casos particulares interesantes:

 0, 0  1

1 r s
1,0   (x i  X) n ij  X  X  0
n i 1 j1

 0,1  Y  Y  0

1 r s 1
 (x i  X)2 n ij   (x i X) 2 n i.  2x  m 2,0  X
2
 2,0 
n i 1 j1 n i

1 r s 1
 (y j  Y)2 n ij   (y j Y)2 n. j  2y  m0,2  Y
2
0,2 
n i 1 j1 n j

1 r s 1 1 1
1,1  
n i 1 j1
(x i  X) (y j  Y) n ij   x i y jn ij  X  y jn ij  Y  x i n ij 
n i j n i j n i j
1 1
 XY  n ij   x i y jn ij  XY  m1,1  XY   xy
n i j n i j

 xy recibe el nombre de covarianza, de gran importancia práctica, se define como la

media aritmética de los productos de las desviaciones de la variable x con respecto a su media
aritmética, X , por las desviaciones de la variable y con respecto a la media aritmética, Y .
De la misma forma que en el caso de la varianza, se define la covarianza muestral por

r s (x i  X)(y j  Y)n ij n
Sxy   siendo Sxy   xy .
i 1 j1 n 1 n 1

Cuando las variables x e y son independientes se cumple que la covarianza es nula, en cuyo
caso se dice que son incorreladas. El reciproco no es cierto.

Si la covarianza es distinta de cero, entonces las variables son dependientes.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 8


Variables bidimensionales: regresión y correlación
4. MATRIZ DE COVARIANZAS
Llamamos matriz de covarianzas, a la matriz cuadrada simétrica que tiene en la
diagonal principal las varianzas marginales, y fuera de la diagonal principal las covarianzas,
 S2x Sxy    2x  xy 
es decir     ; que es simétrica, pues Sxy  Syx . O bien  
 Syx S2y    xy  2y 

Se llama varianza generalizada al valor   S2xS2y  S2xy  0 (semidefinida positiva) y

mide aproximadamente el área ocupado por el conjunto de datos.


EJEMPLO 2:
Las calificaciones obtenidas por 30 alumnos en los exámenes cuatrimestral (x) y
final (y) de Matemáticas fueron las siguientes:
x 0 0 1 2 1 3 4 9 2 5
y 2 0 0 5 3 6 8 10 3 7
x 6 1 3 5 0 6 4 4 6 4
y 9 1 6 9 1 9 8 6 10 7
x 3 2 7 2 8 4 6 6 6 7
y 5 4 10 4 9 4 8 10 5 8
Se pide: a) Formar una tabla de doble entrada sin agrupar los datos en intervalos. b)
Hallar las distribuciones marginales. Media y varianza de las mismas. c) Determinar la
covarianza .
Solución: a)
x\y 0 1 2 3 4 5 6 7 8 9 10 ni.
0 1 1 1 0 0 0 0 0 0 0 0 3
1 1 1 0 1 0 0 0 0 0 0 0 3
2 0 0 0 1 2 1 0 0 0 0 0 4
3 0 0 0 0 0 1 2 0 0 0 0 3
4 0 0 0 0 1 0 1 1 2 0 0 5
5 0 0 0 0 0 0 0 1 0 1 0 2
6 0 0 0 0 0 1 0 0 1 2 2 6
7 0 0 0 0 0 0 0 0 1 0 1 2
8 0 0 0 0 0 0 0 0 0 1 0 1
9 0 0 0 0 0 0 0 0 0 0 1 1
n.j 2 2 1 2 3 3 3 2 4 4 4 30

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 9


Variables bidimensionales: regresión y correlación
b) Distribuciones marginales
xi ni. xini. xi2 ni. yj n.j yjn.j yj2n.j

0 3 0 0 0 2 0 0
1 3 3 3 1 2 2 2
2 4 8 16 2 1 2 4
3 3 9 27 3 2 6 18
4 5 20 80 4 3 12 48
5 2 10 50 5 3 15 75
6 6 36 216 6 3 18 108
7 2 14 98 7 2 14 98
8 1 8 64 8 4 32 256
9 1 9 81 9 4 36 324
30 117 635 10 4 40 400
30 177 1333
Medias Marginales:
1 117
X 
n i
x i n i. 
30
 3.9

1 177
Y 
n j
y jn. j 
30
 5.9

Varianzas marginales:
1 635

2
 2x  x i2 n i.  X   3.92  5.96
n i 30
1 1333

2
 2y  y 2j n . j  Y   5.92  9.62
n j 30

c) Los calculos correspondientes se detallan en la tabla de doble entrada, añadiendo las dos
filas siguientes
x\y 0 1 2 3 4 5 6 7 8 9 10 ni.

0 1 1 1 0 0 0 0 0 0 0 0 3
1 1 1 0 1 0 0 0 0 0 0 0 3
2 0 0 0 1 2 1 0 0 0 0 0 4
3 0 0 0 0 0 1 2 0 0 0 0 3
4 0 0 0 0 1 0 1 1 2 0 0 5

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 10


Variables bidimensionales: regresión y correlación
5 0 0 0 0 0 0 0 1 0 1 0 2
6 0 0 0 0 0 1 0 0 1 2 2 6
7 0 0 0 0 0 0 0 0 1 0 1 2
8 0 0 0 0 0 0 0 0 0 1 0 1
9 0 0 0 0 0 0 0 0 0 0 1 1
n.j 2 2 1 2 3 3 3 2 4 4 4 30

x n
i
i ij 1 1 0 3 8 11 10 9 21 25 28
y j  x i n ij
i
0 1 0 9 32 55 60 63 168 225 280 j  893

Otra forma de calculo sería :

 x y n i  0  0 1  1  0  1  0 1 1  1  1  1  0  2  1  1  3  1  2  3 1  2  4  2  4  4 1 
j ij

2  5  1  3  5  1  6  5  1  3  6  2  4  6  1  4  7  1  5  7  1  4  8  2 6  8  1  7  8  1 +
5  9  1  6  9  2  8  9  1  6  10  2  7  10  1  9  10  1  893
1 1 893
con lo cual , m1,1  
n i j
x i y jn ij   y j  x i n ij 
n j i 30
 29.767

La covarianza 1,1   xy  m1,1  XY  29.767  3.9  5.9  6.76

  2x  xy   5.96 6.76
La matriz de covarianzas :     
  xy y 
2
 6.76 9.62 

En las distribuciones bidimensionales se presentan dos problemas que dan origen a dos
teorías:

1.- Teoría de la regresión: que trata de predecir los valores de una variable para valores
prefijados de la otra.

2.- Teoría de la correlación: que trata de medir la interdependencia estadística entre dos
variables.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 11


Variables bidimensionales: regresión y correlación
5. CONCEPTOS DE AJUSTE Y REGRESIÓN

Entre las variables marginales de una distribución estadística bidimensional, puede


haber diversos tipos de dependencia. Puede haber una dependencia funcional, como por
ejemplo entre tiempo y espacio recorrido por un móvil, ya que existe una expresión
matemática que los relaciona. Pero puede haber, también, otra dependencia aleatoria en la
que conocida una variable no es posible saber exactamente el valor de la otra, pero sí tener
una idea aproximada de la misma, como por ejemplo la relación entre talla y peso de un
individuo.

El procedimiento a seguir es la observación de una variable estadística bidimensional


(x,y) y su representación en una nube de puntos o diagrama de dispersión y observar si se
distribuyen alrededor de una linea o tendencia.

Desde un punto de vista gráfico, diremos que un ajuste es la sustitución de un


diagrama de dispersión por una línea, que, sin que deba pasar por todos los puntos, (*), se
adapte lo mejor posible a todos ellos; y, desde un punto de vista analítico, un ajuste es la
sustitución de la dependencia de tipo funcional o exacto, que implica la determinación de los
parámetros que caracterizan a tal función analítica.

(*) Obsérvese que la interpolación consiste en obtener una curva que pase por los puntos.

La función que pretendemos obtener será una línea que llamaremos línea de
regresión, cuya ecuación puede ser de las formas siguientes:
y  a  bx , recta.
y  a  bx  cx 2 , parábola.
y  a 0  a 1x  .....  a n x n , polinómica.
y  c  a kx , exponencial.
1
y , hipérbola.
a  bx
Dependiendo de la función elegida para el ajuste, la regresión será lineal, parabólica,
etc.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 12


Variables bidimensionales: regresión y correlación
El interés de la línea de regresión radica en poder predecir los valores de una variable
para los valores prefijados de la otra, lo que constituye el problema general de la teoría de la
regresión o del ajuste.

Si tratamos de predecir y conocida x, habremos de calcular la línea de regresión de y


sobre x, que será y=f(x). Recíprocamente x=g(y) será la línea de regresión de x sobre y.

6. EL MÉTODO DE LOS MÍNIMOS CUADRADOS

Dependiendo de la forma que adopte la nube de puntos sabremos en principio si


hemos de emplear una recta, una parábola, etc.

Una vez elegida la línea hemos de estimar los parámetros correspondientes a la misma
a partir de los datos observados. La estimación o cuantificación de los parámetros viene
determinada por las distintas condiciones que se establezcan previamente. La condición más
usual y de mayor utilidad práctica es la denominada de mínimos cuadrados.

Este método de ajuste se fundamenta en considerar como la mejor adaptación, la de


una línea tal que sea mínima la suma de los cuadrados de las diferencias entre los valores
observados o empíricos y los ajustados o teóricos, correspondientes a los distintos valores de
la función analítica elegida para los mismos valores de la variable explicativa.

6.1. Regresión lineal (Ajuste por mínimos cuadrados, a una recta).

Recta de regresión de y sobre x.

Consideremos los datos conseguidos experimentalmente:


( x1 , y1 ) , ( x 2 , y 2 ) ,....,( x n , y n )
Se quiere adaptarlos a una recta y=a+bx
Por consiguiente;
y1  a  bx1
y 2  a  bx 2

y n  a  bx n

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 13


Variables bidimensionales: regresión y correlación

Si los puntos no están sobre una recta y=a+bx. Escogeremos a y b de tal forma que
yi  yi *  yi  (a  bx i ) sea mínimo.

De todas las rectas y=a+bx buscaremos la recta que hace mínima la suma de los cuadrados de
las desviaciones que representan la distancia vertical de los datos (xi,yi) a los puntos (xi,yi*)
n n
min   yi  yi *    yi  a  bx i 
2 2

i 1 i 1

Al depender de dos parámetros sus derivadas parciales deben ser nulas:


 n n n

  i i   i i   yi  a  bx i   0 
2
y  a  bx  0  2 y  a  bx ( 1)  0 
a i 1 i 1 i 1 

 n n n

  yi  a  bx i   0   2  yi  a  bx i  ( x i )  0    yi  a  bx i  x i  0 
2

b i 1 i 1 i 1


n n n
 n n

 yi   a  b x i  0 

 yi  an  b x i
i 1 i 1


i 1 i 1 i 1
n n n  n n n 
2
 x i yi  a  x i  b x i  0 
2
 x i yi  a  x i  b x i
i 1 i 1 i 1
 i 1 i 1 i 1


Que reciben el nombre de Ecuaciones normales de la recta de regresión de y sobre x

n n

 yi x i 
i 1
 a  b i 1  Y  a  bX 
n n 
Al dividir por n: n n n n n 
2
 x i yi  xi  xi  2
x i yi  xi 
i 1
 a i 1  b i 1  i 1  aX  b i 1 
n n n n n 

Al despejar a en la primera ecuación y sustituir en la segunda


n
n n n n x y
 x i yi  x i2  x i2  x i2
i i
i 1
 XY  xy
i 1
 aX  b i 1

 Y  bX  i 1
b i 1
b n
n

2x
 x i2
n n n n
2
i 1
X
n
Nos indica que el parámetro b de una recta de regresión puede calcularse mediante el cociente
entre la covarianza y la varianza de la variable que actúa como independiente.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 14


Variables bidimensionales: regresión y correlación

 xy
Este parámetro b yx  recibe el nombre de coeficiente de regresión de la variable
 2x

y con respecto a la variable x, y es la pendiente de la recta de y sobre x, por consiguiente, el


sentido de crecimiento o decrecimiento, así como el grado de variación, viene determinado
por el signo y el valor del coeficiente de regresión b.

La expresión del parámetro "a" una vez conocido el valor b, será:

xy
a  Y  bX  Y  X
2x

Sustituyendo los valores obtenidos en y  a  bx , se tiene:


xy xy  xy
yY
2x
X
2x
x de donde y  Y 
 2x
x  X que es la ecuación de la recta de

regresión de y sobre x. Esta recta permite calcular, aproximadamente, los valores de y dados
los de x.
Nota: anulando las derivadas se obtiene el mínimo (y no el máximo) como se puede
comprobar con el Hessiano.

Interpretación geométrica.
n n
min   yi  yi *    yi  a  bx i   (y1  a  bx1 ) 2  ......  (y n  a  bx n ) 2  e12  ......  e 2n
2 2

i 1 i 1

como e i  y i  a  bx i  y i  y i  error vertical o distancia vertical ( y i  teórico )

y=a+bx

y*i
ei
yi

xi

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 15


Variables bidimensionales: regresión y correlación
EJEMPLO 3: Obtener la recta de ajuste por mínimos cuadrados que se adapta a los
puntos (0,1), (1,3), (2,4) y (3,4).
Solución:
x y xy x2 y2
0 1 0 0 1
1 3 3 1 9
2 4 8 4 16
3 4 12 9 16
6 12 23 14 42

1 6 1 14
 x i   1,5 ;  2x   x i2  X   1,52  1, 25
2
X
n i 4 n i 4
1 12 1 42 2
  3 ;  2y   y 2j  Y 
2
Y yj   3  1,5
n j 4 n j 4
1 23
 xy  
n i j
x i y j  XY 
4
 1,5  3  1, 25

La recta de regresión de y sobre x:


 xy
yY 
 2
x
 x  X   y  3  1,1, 25
25
 x  1.5   y= 1.5 + x

Existe otra recta de regresión que podemos obtener con los mismo datos.

Recta de regresión de x sobre y:

La recta de regresión de x sobre y no se obtiene despejando la x de la ecuación


anterior, sino repitiendo un proceso análogo. En lugar de tomar las distancias e ij sobre las

verticales, se toman sobre las horizontales, ( e ij  xj  x i ) .

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 16


Variables bidimensionales: regresión y correlación
y

yj

x x* x
i j

 xy
Se demuestra que x  X 
 2y
 y  Y es la recta de regresión de x sobre y, que

1 y
2

permite calcular aproximadamente los valores de x dados los de y. Donde  es la


b xy
pendiente de la recta de regresión de x sobre y, cuyo coeficiente de regresión es b.

EJEMPLO 3: Obtener la recta de ajuste por mínimos cuadrados que se adapta a los
puntos (0,1), (1,3), (2,4) y (3,4).
Solución:
La recta de regresión de x sobre y:
 xy
xX 
 2
y
 y  Y   x  1.5  1,1,525  y  3   x= 5/6 y - 1

Propiedades de las rectas de regresión:


Las dos rectas de regresión y  Y  b yx ( x  X) , x  X  b xy ( y  Y ) se cortan en

un punto, que es precisamente el ( X, Y) , llamado, por su naturaleza de promedio, centro de


gravedad de la distribución.

Por otra parte, es claro que 2x y 2y son siempre positivos y, en consecuencia, las

pendientes de ambas rectas tienen el mismo signo que la covarianza xy y aparecen

íntimamente ligadas, lo que justifica la denominación de covarianza (varianza conjunta).

Una vez construidas las rectas de regresión, la pendiente de la de x sobre y es mayor


que la correspondiente a la recta de regresión de y sobre x.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 17


Variables bidimensionales: regresión y correlación

(x  a ') 1
x  a ' b ' y  y   tg  
b' b'
y  a  bx  tg   b

1
b
tg  tg 1 b 'b
tenemos que: tg   tg        b '  (1)
1  tgtg 1  1 b b ' b
b'
En el caso de que la dependencia lineal en estudio sea de tipo exacto o funcional, las
dos rectas son recíprocas. Esto es:
1
b 
b
de aquí, en consecuencia, si ambas rectas son identicas:
1
  0  tg  0  b  b   1  b  
b

Cuanto más pequeña sea la tangente del ángulo  formado por la intersección de las
dos rectas, tanto más representativo será el ajuste lineal efectuado.

EJEMPLO 4.
Con los datos del ejemplo 2, se pide:
a) Calcular ambas rectas de regresión.
b) Estimar la nota final de un alumno que obtuvo un 6 en el parcial.

Solución:
a) Teníamos calculado:

X  3.9, Y  5.9, 2x  5.96, 2y  9.62,  xy  6.76

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 18


Variables bidimensionales: regresión y correlación
Así pues, las rectas de regresión son:
6.76
y sobre x: y  5.9  ( x  3.9)  y  113
. x  148
.
5.96
6.76
x sobre y: x  3.9  ( y  5.9)  x  0.7 y  0.25
9.62

b) Esta estimación se hace a partir de la recta de regresión de y sobre x, y  113


. x  1.48.
Como x  6 , se tiene que y  113
.  6  1.48  8.26 nota del examen final.

6.2. Regresión parabólica.

Vamos a suponer ahora que a la vista del diagrama de dispersión, es más conveniente
ajustar por un polinomio de grado dos (parábola), como caso más sencillo aunque el método
empleadoes válido en general para un polinomio de grado n.

 2
y  a  bx  cx
Nuestro objetivo es estimar los parámetros a, b, y c a partir de los datos observados,
empleando también el método de los mínimos cuadrados.

La función a minimizar es: f ( a , b, c)   ( a  bx i  cx 2i  y j ) 2


i, j

y derivando con respecto a los tres parámetros se obtiene:


f (a, b, c)
 2   (a  bx i  cx i2  y j )  0
a i, j

f (a, b, c)
 2   (a  bx i  cx i2  y j )  x i  0
b i, j

f (a, b, c)
 2   (a  bx i  cx i2  y j )  x i2  0
c i, j

que aplicando las propiedades del sumatorio y simplificando se obtienen las ecuaciones
llamadas normales de la parábola de regresión.
aN  b  x i  c  x i2   y j
i i i, j

a  xi  b x  c x   xi y j
2
i
3
i
i i i i, j

a  x  b  x  c  x   x i2 y j
2
i
3
i
4
i
i i i i, j

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 19


Variables bidimensionales: regresión y correlación
Por último, dividiendo por N queda:
a  b  m10  c  m20  m01
a  m10  b  m20  c  m30  m11
am20  b  m30  c  m40  m21

Resolviendo este sistema por la regla de Cramer, se obtienen los parámetros a,b,c de
la parábola de regresión.

6.3. Regresión polinómica.

Vamos a suponer ahora que a la vista del diagrama de dispersión, es más conveniente
ajustar por un polinomio de grado n. Por ejemplo, si es una parábola escogeremos el grado
dos.

Para un polinomio de grado n: y* = a0 + a1 x + ... +an xn

Nuestro objetivo es estimar los parámetros ai, i=0, 1,...., n, a partir de los datos
observados, empleando también el método de los mínimos cuadrados.

El procedimiento es similar al anterior planteando las ecuaciones normales y resolviendo el


sistema.

7. ANÁLISIS DE LA CORRELACIÓN.

Se hace necesario, ahora, completar el análisis de la regresión con la obtención de


unas medidas o coeficientes que permitan calibrar el grado de dependencia estadística
existente entre las dos variables, o dicho de otro modo, el grado de representatividad o bondad
del ajuste realizado.

Llamaremos correlación a la teoria que trata de estudiar la dependencia que existe


entre las dos variables que intervienen en una distribución bidimensional.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 20


Variables bidimensionales: regresión y correlación
7.1. La varianza residual

Una vez ajustada la línea de regresión y* a una nube de puntos, observamos que se
obtienen unas diferencias entre los distintos valores ajustados o teóricos yi*, y los
correspondientes valores observados o empíricos yj.
eij=yi*-yj
La varianza residual se define como la varianza de los errores o residuos
1
2r  
n i, j
(yi *  y j )2 n ij

En el caso lineal:
2 2
1   xy  1   xy 
1
 
   (yi *  y j ) 2 n ij    Y  2 x i  X  y j  n ij    2 x i  X  y j  Y  n ij 
2
r
n i, j  x n i, j   x
   
n i, j  
2
1   xy  1  xy
2
1
   
  y j  Y n ij    2 x i  X  n ij  2  2 x i  X y j  Y n ij 
n i, j   x n i, j  x
  
n i, j 
2
2xy 1 2
 xy 1
1
   
  y j  Y n ij  4  x i  X n ij  2 2  x i  X y j  Y n ij 
n i, j  x n i, j  x n i, j
  
 2xy  xy 2xy
 2y   2x  2  xy  2y 
 4x  2x  2x

 2xy
Como  0  2r  2y y es una medida de dispersión de los datos respecto a la media. Se
 2
x

puede interpretar como la suma de los errores que cometariamos si estimaramos cada valor yj
por y .
También se dice varianza no explicada representa, la parte de la variación de Y que no es
capaz de explicar el modelo elegido, puede interpretarse como una medida de la bondad del
ajuste, valores grandes de la varianza no explicada indican que el modelo no es adecuado. Sin
embargo,  2r no es válida para juzgar la bondad del ajuste, ya que, depende de las unidades de
medida. Una forma de evitar este problema es dividir la varianza no explicada por la varianza

total de Y (  2y ), así pues, utilizaremos el cociente  r


2
que representa la proporción de
 2y

varianza de Y no explicada por el modelo de regresión.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 21


Variables bidimensionales: regresión y correlación
Así, la medida que usaremos para juzgar la bondad del ajuste es la razón de correlación,

 2r
también llamada coeficiente de determinación R 2  1  que representa la proporción de la
 2y
variación de Y explicada por el modelo de regresión.

2y  2r varianza explicada varianza residual


R 
2
  1
 2
y varianza de Y varianza de Y

7.2. Coeficiente de correlación lineal.

Una medida de proporción de la variación total nos la da el coeficiente de


determinación.

 2y   2r  2r  2r
R2   1  R  1 
 2y  2y  2y

Como  2r   2y  R 2  1  1  R  1

R nos mide (en tanto por uno) lo que hemos mejorado nuestrapredicción al estimar y.
por medio de la línea de regresión en vez de por la media marginal y .

La raíz cuadrada del coeficiente de determinación se denomina coeficiente de


correlación lineal y es igual a la media geométrica de los coeficientes de regresión byx y
bxy.

r   b yx b xy

lo que da lugar a:

xy xy 2xy xy


r  b yx b xy 
2
 r
 2
x 
2
y 
2
x
2
y x y

El coeficiente de correlación lineal es un número abstracto y es independiente de las


unidades utilizadas en las variables, cuyo signo es el de la covarianza, ya que las varianzas
son positivas, y comprendido entre -1 y +1.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 22


Variables bidimensionales: regresión y correlación
En efecto:
tg
Como tg  tg  r 2  b yx b xy   1, r  1  1  r  1
tg

Interpretación del coeficiente de correlación lineal.

Recordemos que se vio en el epígrafe 5.6.1. al hablar del ángulo que formaban las
rectas de regresión, la expresión (1) :
1  b xy b yx
tg 
b xy  b yx

PRIMER CASO:

Si r=1 la covarianza xy será positiva, las pendientes de las rectas de regresión son

positivas; a valores crecientes de x corresponde valores crecientes de y. Es la correlación


perfecta y directa.

Si r=-1 la covarianza xy será negativa, las pendientes de las rectas de regresión son

negativas; a valores crecientes de x corresponde valores decrecientes de y. La correlación es


perfecta e inversa.

El ángulo que forman ambas rectas será de 0 y en ambos casos las rectas son
coincidentes. Hay dependencia funcional recíproca.

SEGUNDO CASO:

Supongamos que r  0  xy  0, no hay correlación, es decir, a cualquier valor de x

corresponde el mismo y, lo que indica la falta absoluta de dependencia entre las variables, se
dice que son incorreladas.

Las rectas de regresión serán:

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 23


Variables bidimensionales: regresión y correlación

yY x
xX
obviamente perpendiculares.

TERCER CASO:

Si 0 < r < 1, hay correlación positiva. El signo viene caracterizado por la covarianza
xy que consideraremos positiva y por tanto las pendientes de las rectas de regresión son

positivas.

Si -1 < r < 0, hay correlación negativa xy <0. Las pendientes son negativas y, al

aumentar los valores de una variable, disminuyen los de la otra. La correlación será “buena“
para valores de r próximos a -1 y “mala” si son próximos a 0.

Señalemos, por último, que el coeficiente de correlación lineal no es propiamente una


medida de tipo cuantitativo, sino una medida de tipo cualitativo que indica únicamente el
grado de la intensidad de la relación lineal existente entre las variables.

EJEMPLO 5:
Calculemos el coeficiente de correlación para el ejemplo 4.
Solución:
xy 6.76
r   0.89
x y 5.96 9.62

Existe una fuerte dependencia aleatoria directa entre las dos variables. Las
estimaciones hechas a partir de las rectas de regresión serán fiables.

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 24


Variables bidimensionales: regresión y correlación
Observaciones: El que dos variables tengan una correlación lineal alta (sea positiva o
negativa) puede no significar una relación de causa-efecto entre ellas.
 2  xy    2x r x  y 
Observando la matriz de covarianza    x   y por tanto
  xy  2y   r x  y  2y 

  2x 2y (1  r 2 )  0 . Si las variables no están correlacionadas entre sí, el determinante toma

su valor máximo.

http://asignaturas.topografia.upm.es/matematicas/videos/RegresionyCorrelacion.mp4
http://asignaturas.topografia.upm.es/matematicas/videos/RegresionyCorrelacion.wmv

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 25


Variables bidimensionales: regresión y correlación

ANEXO

EL MÉTODO DE LOS MÍNIMOS CUADRADOS EN FORMA MATRICIAL

Consideremos los datos conseguidos experimentalmente:


( x1 , y1 ) , ( x 2 , y 2 ) ,....,( x n , y n ) ( x1 , y1 ) , ( x2 , y 2 ) ,....,( x n , y n )

Se quiere adaptarlos a una recta y=a+bx


Por consiguiente;
y1  a  bx1
y 2  a  bx 2

y n  a  bx n
en forma matricial:

 y1  1 x1 
   
 .  1 .   a 
 .   1 .    
    b
 .  1 . 
 y  1 x 
 n  n 

 y1   1 x1 
   
 .  1 .  a
o bien y = M v donde y   .  , M  1 .  , v 
    b
 .  1 . 
y  1 x 
 n  n 

Si los puntos no están sobre una recta y  M  v  0 . Escogeremos a y b de tal forma que
y  M  v sea mínimo.

 a 
Sea v     el vector que minimiza la diferencia a la línea y  a   b  x "RECTA DE
b 
REGRESIÓN" y y M son fijos, al variar v los vectores Mv forman un subespacio de Rn, espacio de
la columna de M. Gráficamente,

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 26


Variables bidimensionales: regresión y correlación

y y-Mv

y-Mv* Mv

Mv *

La solución mínima y  M  v  debe ser ortogonal al subespacio

y  Mv  Mv v
 Mv   y  Mv   0
t 

v  M  y  Mv   0
t t 

v   M y  M Mv   0
t t t 
v
 M t y  M t Mv  0

v   M t M  M t y
1

  r MtM   2
1
donde  M t M   x1 ,..., x n no están sobre la vertical.

 1 x1 
 
. . 
1 . . . 1   n x 
Mt  M     . .   
i

. . . xn      xi x 2
 x1 i 
. . 
1 x 
 n 

1

M M
1  n

x i

 
1   x i2  x i 
2  
t
x x n  x i2    x i    x i
2  n 
 i i 

t
1 x1   y1 
   
. .   .  
M t  y   . .    .   
 yi  Por último,
      x i yi 
 . .   . 
1 x   y 
 n   n 

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 27


Variables bidimensionales: regresión y correlación
  x i2  x i    yi 
M M 1
1
t
M yt
2   
n  x i2    x i    x i
 n    x i yi 

1   x i2  yi   x i  x i yi 
 2   
n  x i2    x i    x i  yi  n  x i yi 

  x i2  yi  x i  x i yi 
  
 n n n n 
  x i2  yi   x i  x i yi  
 x i    x i    m Y  Xm 
2 2

     20 2
n xi    xi  
2 11
 2
  n  n     
  
x

 n  x i yi   x i  yi   
 x i yi   x i  yi   m11  XY 
    
 n  x i2    x i    2x
2

  
n n n 

 x i    x i 
2 2
 
 n 
  n  

 m Y  YX 2  X 2 Y  Xm   Y2x  Xxy 
 20 11
   a 
 x
2
 2x  
 xy   xy   b
   
 x
2
  x
2

EJEMPLO 3: Obtener la recta de ajuste por mínimos cuadrados que se adapta a los
puntos (0,1), (1,3), (2,4) y (3,4).
Solución:

1 0  1
1  3
1 4 6  1  7 3
M  1 
2 , Y =  , Mt.M =  , (Mt.M)-1 =  ,
  4  6 14 10  3 2 
  
1 3  4
1
 
a 1  7 3   1 1 1 1   3  = 1.5 
   M M M y 
1
t t
     y= 1.5 + x
b 10  3 2   0 1 2 3   4   1 
 
 4

Unidad Docente de Matemáticas de la E.T.S.I.T.G.C. 28

También podría gustarte