Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema62 PDF
Tema62 PDF
(Oposiciones de Secundaria)
TEMA 62
1/25
TEMA 62
Vamos a ver instrumentos estadísticos que nos van a permitir obtener la existencia o
no de coincidencias entre los valores de dos variables y, a partir de esas coincidencias,
formular la hipótesis de una relación causal entre los dos caracteres.
DEF Diremos que dos variables son independientes cuando no existe relación entre
ambas. Inversamente, cuando la relación entre dos variables es perfecta, diremos que
están relacionadas funcionalmente, lo cual implica que su relación puede expresarse
como y=f(x).
2/25
este tipo de dependencia si admite grados, ya que puede haber dependencias más o
menos fuertes.
Los resultados se pueden representar en una tabla de doble entrada conocida como
Tabla de Correlación.
X \ Y y1 y2 … yn ni.
x1 n11 n12 … n1n n1·
x2 n21 n22 … n2n n2·
… … … … … …
xm nm1 nm2 … nmn nm·
n.j n·1 n·2 … n·n N
X ni·
x1 n
n1· = ∑ n1 j
j =1
n
x2
n 2· = ∑ n2 j
j =1
… …
n
xm
n m · = ∑ nmj
j =1
3/25
Análogamente obtendríamos la distribución marginal de Y.
xi/yj ni/j
x1 n1j
x2 n2j
… …
xm nmj
n·j
nij
fi/ j =
n· j
n· j n· j
nij ni · nij ni · N n
fi/ j = = N = ni · f j/i = = = ·j
n· j n· j N ni · ni · N
4/25
distribuciones marginales se estudia el comportamiento de una variable con
independencia de los valores que pueda tomar la otra.
2. REPRESENTACIONES GRÁFICAS.
n ij = ( Li − Li −1 )·( L j − L j −1 )·hij
m n nij m n nij m n n ij m
ni ·
α10 = ∑∑ x1i y 0j ⋅ = ∑ ∑ xi ⋅ = ∑ xi ⋅ ∑ = ∑ xi ⋅ =x
i =1 j =1 N i =1 j =1 N i =1 j =1 N i =1 N
m n n ij m n n ij n m n ij n n· j
α01 = ∑ ∑ xi0 y 1j ⋅ = ∑∑ y j ⋅ = ∑ yj ⋅∑ = ∑ yj ⋅ =y
i =1 j =1 N i =1 j =1 N j =1 i =1 N j =1 N
5/25
m n nij m n nij m n nij m
ni ·
α20 = ∑ ∑ xi2 y 0j ⋅ = ∑ ∑ x i2 ⋅ = ∑ x i2 ⋅ ∑ = ∑ x i2 ⋅
i =1 j =1 N i =1 j =1 N i =1 j =1 N i =1 N
m n nij m n n ij n m nij n n· j
α02 = ∑∑ xi0 y 2j ⋅ = ∑ ∑ y 2j ⋅ = ∑ y 2j ⋅ ∑ = ∑ y 2j ⋅
i =1 j =1 N i =1 j =1 N j =1 i =1 N j =1 N
m n nij
α01 = ∑ ∑ xi y j ⋅
i =1 j =1 N
DEF Definimos el momento de orden r,s respecto a las medias para la distribución
(xi,yj,nij ) como:
µrs = ∑∑ (x i − x ) ⋅ ( y j − y ) ⋅
s n ij
m n
r
i =1 j =1 N
µ10 = ∑∑ (x i − x) y j − y ( ) nij
= ∑∑ (xi − x)
nij
= ∑(x i − x )
n ij
= ∑ (xi − x )
m n m n m n m
∑N
1 0 ni·
=0
i=1 j=1 N i=1 j =1 N i=1 j =1 i=1 N
µ11 = ∑∑ (x i − x ) ⋅ ( y j − y ) ⋅
m n nij
= S XY
1 1
i =1 j =1 N
DEF Llamamos Covarianza al momento µ11 , que también se representa por SXY.
6/25
Veamos:
µ20 = ∑ ( xi − x ) ( )
m
ni · m 2 2 n
m
n m
n m
n
= ∑ xi − 2x i x + x i · = ∑ xi2 i · − 2 x∑ xi i · + x ∑ i · =
2 2
i =1 N i =1 N i =1 N i =1 N i =1 N
S XY = µ11 = ∑ ∑ (x i − x ) ⋅ ( y j − y ) ⋅ = ∑ ∑ (x i y j − x y j − yx i + y x ) ⋅
m n nij m n nij
=
1 1
i =1 j =1 N i =1 j =1 N
= α11 − xα01 − yα10 + x y = α11 − α10 α01 − α01α10 + α10α01 = α11 − α10 α01
En aquellos casos en los que nos pueda parecer conveniente, podemos realizar
determinados cambios de variable para así simplificar los cálculos.
x i − O1 y j − O2
x i' = y 'j =
c1 c2
7/25
3.5. Valor de la Covarianza en caso de Independencia Estadística.
Según hemos visto, la covarianza se podía expresar como S XY = µ11 = α11 − α10α01
nij ni · n· j
La condición de independencia estadística era = · ∀ i, j
N N N
m n nij m n
ni · n· j m
n n n· j
α11 = ∑ ∑ x 1i y 1j ⋅ = ∑∑ xi y j ⋅ · = ∑ x i i · ·∑ y j ⋅ = α10 ⋅ α01
i =1 j =1 N i =1 j =1 N N i =1 N j =1 N
4. AJUSTE.
1) Elegir el mejor tipo de curva que se adapte a los datos disponibles, es decir,
aquella que mejor represente la relación existente entre X e Y. Es importante,
sólo a modo de orientación, ver la representación gráfica de los puntos.
2) Fijado el tipo de curva a través de su ecuación en forma explícita con un cierto
número de parámetro, determinar éstos mediante las condiciones que se
impongan según el procedimiento de ajuste planteado.
Dados los puntos (x1 ,y1 ), (x2 ,y2 ), ..., (xm,ym), podemos elegir una función de ajuste
definida por:
y = f(x,a1 ,a2 ,...,an )
8/25
Para cada término xi, existe una diferencia entre el valor observado en la
distribución y el obtenido en forma teórica, que llamaremos Residuo.
ej = yj – yj*
∑ ∑ (y
i j
j − y *j )n ij
φ = ∑∑ ( y j − y *j ) nij
2
i j
Como los valores teóricos son los obtenidos a partir de la curva ajustada, tenemos
que la expresión a minimizar se queda como:
φ = ∑∑ ( y j − f ( x i , a1 , a 2 , K, an ) ) nij
2
i j
para lo cual, la condición necesaria es que las primeras derivadas parciales respecto a
cada uno de los parámetros se anulen.
9/25
∂φ
[
= 2∑ ∑ y j − f ( xi ; a1 , a 2 ,K , a n ) ·nij ·(− f a'1 ) = 0
]
∂a1 i j
∂φ
∂a 2
[
= 2∑ ∑ y j − f ( x i ; a1 , a 2 , K, an ) ·nij ·( − f a 2 ) = 0
'
]
i j
L
∂φ
[
= 2∑ ∑ y j − f ( x i ; a1 , a 2 , K, an ) ·nij ·( − f a'n ) = 0 ]
∂a n i j
Resolviendo este sistema determinamos los valores de los parámetros, así como la
propia función f.
Dada una nube de puntos, vamos a tratar de ajustarla mediante una recta de ecuación
y *j = a + bxi
i j i j i j
para lo cual, obtendremos las derivadas parciales de la función con respecto a los
parámetros. Al igualar a cero ambas expresiones, resolvemos el sistema de dos
ecuaciones que aparece.
∂φ
= 2∑∑ ( y j − a − bx i )( −1)n ij = 0
∂a i j
∂φ
= 2∑ ∑ ( y j − a − bx i )(− x i ) nij = 0
∂b i j
∑∑ (y − a − bx )n = 0 j i ij
∑ ∑ ( y − a − bx )(x )n = 0
i j
j i i ij
i j
10/25
∑∑ y n j ij = a ∑∑ nij + b∑ ∑ xi nij
i j i j i j
∑∑ y x n j i ij = a ∑∑ x i nij + b∑ ∑ x i nij
2
i j i j i j
∑y j n· j = aN + b ∑ xi ni ·
j i
∑i ∑j y j xi nij = a ∑∑ x i nij + b∑ xi ni ·
2
i j i
S XY
b= a = y − bx
S X2
y *j = a + bx i + cxi2
φ = ∑∑ ( y j − a − bxi − cxi2 ) n ij
2
i j
Las primeras derivadas parciales de la función con respecto a cada uno de los
parámetros nos determinan el sistema siguiente:
∂φ
(
= 2 ∑∑ y j − a − bxi − cx i2 ( −1) nij = 0
)
∂a i j
∂φ
(
= 2∑ ∑ y j − a − bx i − cxi ( − xi ) n ij = 0
2
)
∂b i j
∂φ
(
= 2∑ ∑ y j − a − bx i − cxi2 ( − xi2 ) n ij = 0 )
∂c i j
Realizando las mismas operaciones que en el caso anterior para la recta, el sistema
se transforma en
∑j y j n· j = aN + b∑i xi ni· + c ∑i x 2i ni·
∑i ∑j i j ij ∑i i i· ∑i i i· ∑i i i ·
x y n = a x n + b x 2
n + c x 3
n
∑i ∑j i j ij ∑i i i· ∑i i i· ∑i i i·
x 2
y n = a x 2
n + b x 3
n + c x 4
n
11/25
de cuya resolución se obtiene los valores numéricos de los parámetros de la mejor
parábola de segundo grado en el sentido mínimo cuadrático para la nube de puntos
dada.
siendo b una constante cualquiera. También se puede considerar la función anterior pero
desplazada una cierta cantidad a:
1
y=a+b
x
1
z=
x
y = a ⋅ xb
que de forma análoga al anterior, lo podemos reducir al caso de una recta simplemente
tomando logaritmos en ambos miembros.
y ' = a'+bx'
La ecuación general es
y = a ⋅bx
y repitiendo el caso anterior, al tomar logaritmos se nos reduce al caso de una función
lineal.
log y = log a + x log b
12/25
4.2. Método de los Momentos.
Para hallar la función, bastará basarnos en la propiedad que hemos enunciado, para
lo cual, sólo tendremos que igualar los n+1 primeros momentos obtenidos de la
distribución observada con sus correspondientes de la distribución teórica.
N
1
αrs =
N
∑x r
i y is
i =1
N
1
αr 1 =
N
∑x r
i y i ∀r:0,1,2,...
i =1
N
1
αr 1 =
N
∑x r
i y i* ∀r:0,1,2,...
i =1
N N
∑ y i = ∑ y i*
N
i =1 i =1
N
*
∑ xi yi = ∑ xi yi
i =1 i =1
L
N N
∑ x in y i = ∑ x in y *i
i =1 i =1
Tenemos así un sistema de n+1 ecuaciones que nos permite calcular el valor de los
n+1 parámetros que determinan la función yi*=f(xi,a0 ,...,an )
13/25
5. REGRESIÓN.
En este tema sólo vamos a tratar el caso de disponer de una variable independiente,
ya que estamos estudiando distribuciones bidimensionales.
φ = ∑∑ ( y j − a − bx i ) nij
2
i j
∑y j n· j = aN + b ∑ xi ni ·
j i
∑i ∑j y j xi nij = a ∑∑ x i nij + b∑ xi ni ·
2
i j i
α01 = a + b ⋅ α10
α11 = a ⋅ α10 + b ⋅ α20
14/25
Para resolver el sistema, multiplicamos la primera ecuación por –α 10 y sumamos
ambas, quedando:
α − α10 ⋅ α01 µ11 S XY
b = 11 = =
α20 − α102 µ20 S X2
S XY S XY
a = α01 − α10 = y − x
S 2X S X2
S XY S XY
y= y− x + x
S 2X S 2X
S XY
y− y= (x − x )
S X2
Partiendo de la función
φ = ∑∑ (x i − a − by j ) nij
2
i j
Los coeficientes de regresión lineal son las pendientes de las rectas de regresión.
Así, el coeficiente de regresión de Y sobre X será
S XY
b=
S X2
pero
15/25
∆y
b = tg α =
∆x
S XY
b=
S Y2
y como
∆y
b' = tg α' =
∆x
6. CORRELACIÓN.
DEF Llamamos Correlación al grado de dependencia mutua entre las variables de una
distribución.
El problema que se nos plantea es como medir la intensidad con que dos variables
de una distribución bidimensional están relacionadas.
( ) ( )
nij n· j
= ∑ ∑ y j − y *j ⋅ = ∑ y j − y *j ⋅
2 2 2
S rY
i j N j N
16/25
Si la varianza residual es grande, entonces los residuos, por término medio, serán
grandes, lo que significa que los puntos estarán muy separados de la función, siendo
pequeña la dependencia entre las variables. Razonando igual, si la varianza es pequeña,
la relación será grande.
Para que la relación entre la dependencia de las variables y la medida utilizada sea
directa (en lugar de inversa como ocurre con la varianza residual), definimos el
siguiente coeficiente.
2
S rY
R = 1−
SY2
2
S rY = SY2 (1 − R 2 )
1 − R2 ≥ 0
y de aquí obtenemos
− 1 ≤ R ≤1
1) R=1 ⇒ S rY2 = 0 .
Todos los valores teóricos coinciden con los obtenidos de la observación y, por
tanto, la dependencia es funcional. Diremos que existe Correlación Positiva Perfecta,
indicando con “Perfecta” que ambas variables varían en el mismo sentido.
2) R = −1 ⇒ S rY2 = 0 .
17/25
3) R=0 ⇒ S rY2 = S Y2
4) –1<R<0.
La Correlación es Negativa, siendo más fuerte conforme más cerca esté de –1.
5) 0<R<1.
( ) nij
= ∑ ∑ y j − y *j
2
2
S rY ⋅
i j N
S XY
y *j = y + ( xi − x)
S X2
2
nij
= ∑ ∑ (y j − y ) nij S
S 2 * 2
⋅ = ∑ ∑ y j − y + XY ( x − x ) ⋅ =
N
rY j 2 i
i j N i j S X
nij
2
= ∑ ∑ ( y j − y ) − XY ( )
nij S XY nij
S
( x i − x )
N⋅ = ∑∑ y j − y
2
⋅ + ∑∑ ( xi − x) 2
⋅ −
i j S X2 i j N S 2X i j N
S 2XY S 2XY
( ) ( )
S nij S XY
− 2 XY ∑∑ j y − y ⋅ x − x ⋅ = S 2
+ S 2
− 2 · S = S 2
−
S X2 i j
i
N
Y
S X2 ( )
2 X
S 2X
XY Y
S X2
S 2XY
2
SY2 −
S rY S X2 S 2XY S
r = 1− = 1− = = XY
S Y2 S Y2 2 2
S X SY S X SY
18/25
Y el Coeficiente de Determinación Lineal es
S 2XY
r2 =
S X2 S Y2
SY
y− y=r ( x − x)
SX
SX
x− x=r ( y − y)
SY
1) Si r=1.
La varianza residual es cero y los valores teóricos coinciden con los observados. Por
tanto, todos los puntos de la nube están en la recta. La correlación lineal es perfecta
positiva y las rectas de regresión coinciden, ya que al sustituir r por 1 en la expresión
anterior, obtenemos la misma recta. En este caso, la dependencia funcional existente
viene reflejada por una recta creciente , al ser la pendiente positiva.
2) Si r = –1.
La correlación es perfecta negativa. En este caso las rectas también coinciden, pero
la recta es decreciente al ser la pendiente negativa.
3) Si r=0
y− y=0
x− x=0
las cuales son dos rectas paralelas a cada uno de los ejes y por tanto, perpendiculares
entre sí.
19/25
4) Si –1<r<0.
La correlación es negativa y las rectas de regresión, las cuales ahora son diferentes,
serán las dos decrecientes ya que el signo de las pendientes es el mismo que el de la
covarianza, que es la que da el signo a r.
5) Si 0<r<1
Sabemos que
S XY
b=
S X2
S
b' = XY2
SY
S XY S XY S 2XY
b ⋅ b' = ⋅ = =r2
2
S X SY 2
S X ⋅ SY
2 2
Es decir
r = b ⋅ b'
20/25
Por otra parte tenemos que
b = tg α
π 1
b' = tg α' = c tg − α' =
2 tg π − α'
2
tg α
r = b ⋅ b' =
π
tg − α'
2
1) Si r=±1
π
Tenemos que ambas tangentes son iguales lo cual implica que α= − α' , lo que
2
geométricamente significa que las dos rectas coinciden, como se puede ver en la gráfica
anterior.
2) Si r=0
Entonces tenemos que se debe verificar una de las dos expresiones siguientes:
tg α = 0
α= 0
π ⇒
tg − α' → ∞
2 α' → 0
luego las dos rectas son dos paralelas a cada uno de los ejes.
Como conclusión, podemos decir que r es un coeficiente tal que cuando es igual a
+1 o –1, el ángulo entre rectas es de cero grados, ya que coinciden. Cuando r es cero, el
ángulo formado es de 90º. De aquí deducimos que cuando más se acerque r al valor +1
o –1 mas pequeño será el ángulo entre rectas. Por tanto, r también mide la apertura
existente entre las rectas de regresión.
21/25
• yj, que representa los valores observados de la variable Y.
• yj* que representa los valores teóricos asignados a xi en la regresión de Y sobre
X.
• ej que son los residuos o errores que se generan en la regresión mínimo-
cuadrática.
nij
y =∑∑ yj
i j N
nij
y* = ∑∑ y *j =L= y
i j N
nij
e = ∑∑ e j =L = 0
i j N
S e2 = ∑∑ (e j − e )
2 nij
i j N
Si tenemos en cuenta que la media de los residuos tiene valor nulo, al desarrollar la
expresión anterior llegamos a que
S e2 = S rY2
( ) ( )
nij nij
S R2 = ∑ ∑ y *j − y * = ∑∑ y *j − y
2 2
i j N i j N
22/25
En la regresión lineal, podemos encontrar una relación entre las tres varianzas
anteriores, la cual pasamos a obtener. Para ello tendremos en cuenta que la regresión es
lineal.
2
nij
( ) nij S
S =∑∑ y − y = ∑ ∑ y + XY ( xi − x ) − y
2
=
2 *
R j 2
i j N i j SX N
2
S rY = SY2 (1 − r 2 ) = S Y2 − r 2 S Y2
2
S rY = S Y2 − S R2
SY2 = S R2 + S rY
2
S R2 S rY
2
1= +
S Y2 SY2
S R2 2
S rY
2
= 1 − 2
=r2
SY SY
23/25
2
lo que implica que la varianza residual S rY es nula, luego se ha mejorado al máximo la
descripción de Y mediante la utilización de la información suministrada por X. Toda la
variabilidad marginal de Y está contenida en la regresión.
S R2
r2 = 2
= 0 ⇒ S R2 = 0 ⇒ S rY
2
= S Y2
SY
es decir, en este caso X no nos sirve para ampliar la descripción del comportamiento de
la variable Y.
Se deben seleccionar variables entre las que la fundamentación teórica avale algún
tipo de relación, evitando, en lo posible, relaciones a través de otra variable principal..
Por ejemplo, el consumo de bebidas puede variar en la misma dirección que el consumo
de gasolina, pero no porque una variable dependa directamente de la otra, sino porque
ambas van en el mismo sentido que las variaciones de la renta, que será la principal
variable explicativa.
8.2. Predicción.
Es claro que la fiabilidad de esta predicción será tanto mayor, en principio, cuanto
mejor sea la correlación entre las variables. Por tanto, una medida aproximada de la
bondad de la predicción podría venir dada por r.
24/25
BIBLIOGRAFÍA RECOMENDADA.
25/25