Está en la página 1de 4

Luz Maria de la Torre Blanco

A450087303
Modelos Econométricos
Dr. José Enrique Sánchez Pacho
Noviembre 2021
Disertación: Análisis de correlación
Introducción.
En muchas ocasiones nos interesa verificar si existe o no una relación entre dos
variables aleatorias y determinar que tan intensa es la relación de estas (esto es
entender, si cambian conjuntamente a una tasa constante o no). El análisis de
correlación es una herramienta común que se utiliza para describir relaciones
simples sin hacer conclusiones sobre las mismas.
Al momento de realizar este análisis un instrumento comúnmente utilizado es
mostrar los datos en un diagrama de dispersión con la finalidad de ver de manera
gráfica si existe alguna relación entre ellas, es decir, si los cambios en una influyen
o modifica los valores de la otra. Si esto ocurre esto decimos que las variables están
correlacionadas o bien que hay correlación entre ellas.
A continuación, se presentan dos gráficos en (a) y (b) en os cuales se muestran dos
situaciones en dónde los puntos se concentran en torno a una recta imaginaria
ascendente y podemos ver que los valores que se encuentran en el eje de las X
están asociados a los que tenemos en Y.

También podemos encontrar casos en los que se presente una recta descendente
entre estas dos variables como se presenta en las siguientes dos gráficas en donde
del lado izquierdo tenemos una correlación lineal y del lado derecho una figura más
parecida a una parábola
En el caso de que no exista una relación entre las variables que estamos
analizando, los puntos en el diagrama de dispersión no tendrán una tendencia de
ubicarse cerca de una línea imaginaria ascendente o descendente.

La correlación de la muestra se puede medir a través del coeficiente de Pearson,


índice que mide el grado de covariación entre distintas variables relacionadas
linealmente, en el caso de que existan variables fuertemente relacionadas, pero no
de forma lineal, no procede utilizar la correlación de Pearson.
Los valores de Pearson son valores absolutos que oscilan entre -1 y 1, esto es, si
tenemos dos variables X e Y, y definimos el coeficiente de correlación de Pearson
entre estas dos variables como r, la significancia estadística se indica mediante un
valor p. Por tanto, usualmente las correlaciones se escriben con dos números
clave: r = y p = .
La correlación entre dos variables X e Y es perfectamente positiva cuando en la
medida exacta que aumenta una de ellas aumenta la otra, y la relación es
perfectamente negativa cuando exactamente en la medida que aumenta una
variable disminuye la otra.
Una vez que calculamos el valor del coeficiente de correlación, nos interesa
determinar si tal valor obtenido muestra que las variables X e Y están relacionadas
en realidad o tan solo presentan dicha relación como consecuencia del azar. En
otras palabras, nos preguntamos por la significación de dicho coeficiente de
correlación.
Podemos entonces decir lo siguiente:

1. Cuanto más se aproxima r a cero, más débil es la relación lineal.


2. Los valores de r positivos indican una correlación positiva, en la que los
valores de ambas variables tienden a incrementarse juntos.
3. Los valores de r negativos indican una correlación negativa, en la que los
valores de una variable tienden a incrementarse mientras que los valores
de la otra variable descienden.
4. El valor p aporta evidencia de que podemos concluir de manera significativa
que es probable que el coeficiente de correlación de la población sea
diferente a cero, basándonos en lo que hemos observado en la muestra.
5. El valor p es un medida de probabilidad empleada en las pruebas de
hipótesis.

Referencias:

• Etxeberria, J. (1999). Regresión Múltiple. Cuadernos de Estadística. Ed. La


Muralla S.A. Espérides, Salamanca
• Página de Karl Wünsch sobre correlación:
http://core.ecu.edu/psyc/wuenschk/docs30/corr6430.doc

También podría gustarte