Está en la página 1de 5

Matriz de correlacin

Es una matriz cuadrada y simtrica que en cada celda contiene el coeficiente de corelacin de
Pearson entre las variables

Correlacin simple

Primera observacin: La diagonal principal son solos 1

Segunda observacin: r(x3,x2) = r(x2,x3) es simtrico

Correlacin parcial:
Comnmente las variables que no estn relacionadas comparten cierta informacin (estn
solapadas) y se debe corroborar si considerarlas aportan nueva informacin o si solo son
redundantes.

Si hay 3 o ms variables involucradas en un estudio, habrn 3 o ms coeficientes de correlacin


lineal simple de a 2 sin tener en cuenta la posible influencia de las otras.

La correlacion parcial se define como la correlacion entre dos variables dejando constante todas
las dems (valores fijos)

Ejemplo:

v1, 2.3: Es el coeficiente de relacin entre las variables 1 y 2 dejando la variable 3 como valor
constante.

La correlacin parcial
1,2 1,3 2,3
Formula: 1,2.3 =
El mantener constante una variable se puede hacer de manera experimental o estadstica
debiendo dar en ambos casos resultados equivalentes

Si la correlacin simple entre dos variables es significativa se convierte en una correlacin parcial
no significativa (al mantener constante la tercera variable) esto sugiere que esta ltima es la causa
comn de la correlacin de las dos primeras variables.

Si tengo una correlacin significativa y si esta se mantiene similares con una tercera variable, es
porque esta no es la causa en la relacin entre las dos variables.

Si en una correlacin significativa una tercera variable demuestre que haya una diferencia
significativa es porque esta si es la causa en la relacin entre las dos variables.

Cuando en una correlacin entre dos variables se deja una tercera como constante se denomina
correlacin parcial de primer orden.

1,2.3,4

As la correlacion parcial de k-esimo orden dejando constante todas las dems sera:

Formula

El coeficiente simple es similar a la correlacin parcial de segundo orden, esto quiere decir que las
horas de estudio en conjunto con el estrato social no son la causa comn de la alta relacin entre
el resultado del test de inteligencia y la calificacin.

Correlacin mltiple

Como se vio anteriormente la correlacin parcial es una medida de interdependencia sin mostrar
causalidad entre dos variables dejando fijo o constante el valor de una tercera pero tambin se
puede medir que tan fuertemente est relacionada una variable con el conjunto de otras.

El coeficiente de correlacin mltiple asla una variable y estudia la relacin con las dems.

2 + 2 2
1,2 1,3 1,2 1,3 2,3
1.2,3 = 2
12,3

- Si r es cercano a 1 implica que la primera variable est altamente relacionada con las otras
dos en conjunto.
- Si se acerca a 0, menor es la relacin lineal.
Regresin lineal simple

El objetivo de una regresin lineal es estimar y/o predecir el valor medio de una variable
dependiente cuando sea observado un valor conocido o fijo de una variable explicativa. Si x es una
variable de tipo cuantitativo se denomina variable independiente o explicativa y la variable y
tambin cuantitativa se denomina variable dependiente o explicada

E [Y|X = xi]

1.2.1 Planteamiento del modelo

El modelo de regresin lineal simple se construye con la ecuacin lineal de una recta ms una
perturbacin estocstica (aleatoria). Es decir tericamente:

= 0 + 1 +

A partir de un conjunto de datos se pueden encontrar estimaciones de 0 y 1 y por ende tambin


de psilon sub i lo que genera un modelo estimado dado por

La diferencia entre el modelo terico y el modelo estimado corresponde al error de estimacin o


residuos, osea un residuo ser:

Formula

1.2.2 Supuestos del modelo


1. El modelo es lineal en los parmetros
2. Ei variables aleatorias y la esperanza de los errores es 0
3. Ei tienen varianza sigma cuadrado, osea var(ei) =sigma^2 homosedastica
4. Los errores tienen distribucin normal
5. Los errores son no correlacionados con los x
6. Los errores son no auto-correlacionados
7. Estimacion del modelo

Los parmetros beta 0 y beta 1 pueden estimarse pueden estimarse a travs del mtodo de
mnimos cuadrados. En este caso beta 0 tongo y beta 1 tongo deben ser tales que la recta
estimada estn lo ms cercana a los puntos x,y es decir que minimice los errores
Se cree que el nmero de televisores que tiene cada familia en su casa est estrechamente
relacionado con los ingresos mensuales ($um) con el objeto de hacer una prediccin o de verificar
esta hiptesis se tom una muestra de 100 familias arrojando:
1.2.4 Descomposicin de la variabilidad

SCE =

Corresponde a la variacin residual o no explicada por los valores de la variable y alrededor de la


recta de regresin. Entonces es de inters cuantificar que esta variabilidad sea mnima

Notese que de la ecuacuion, puedo determinar que menos dos veces de la sumatoria de 1 hasta n
de (yi yitongo)xi =0

Ei tongo = yi yi tongo

Se define como el cociente de determinacin a S cociente de varianzas

Para ste ejemplo significa que la varianza de modelo de regresin estimado explica el 80.9% de la
varianza de los valores reales del nmero d televisores (variable y)

Todo lo expusto hasta este punto corresponde a un anlisis descriptivo de la regresin lineal
simple (el coeficiente de Pearson, el clculo de b1 tongo y b0 tongo, y r2)

Para poder utilizar el modelo estimado haciendo predicciones futuras o estimaciones fuera de la
muestra es necesario analizar la regresin lineal desde el punto de vista inferencial

También podría gustarte