Está en la página 1de 4

RELACIONES ENTRE DOS VARIABLES

CORRELACIONES

Muchas preguntas en Ciencias Sociales se


relacionan con cómo una variable
interactúa con otra. Por ejemplo: el nivel de
pobreza de un país, ¿se relaciona con el
nivel educacional promedio alcanzado por
sus habitantes? El número de estudiantes
de una sala de clases, ¿se relaciona con el
nivel de aprendizaje que éstos obtienen? El
coeficiente GINI de un país, ¿se relaciona
con la participación y vida democrática de
sus habitantes?

Para conocer el nivel de relación entre dos


variables, utilizamos el coeficiente de
correlación r.

Pearson creó esta medida de


asociación, coeficiente de correlación, para
cuantificar el grado de asociación entre dos
variables. Este ha sido el coeficiente más
utilizado en todas las disciplinas empíricas.

El coeficiente de correlación de Pearson resume la magnitud y la dirección de una


relación entre dos variables. Los posibles valores del coeficiente van desde -1, que
significa una relación negativa perfecta; a +1, que implica una relación positiva perfecta.
Mientras más cercano al 0 es el coeficiente, menos relación tienen ambas variables.

La utilidad de esto es que, cuando dos variables muestran una fuerte correlación, ya
sea positiva o negativa, es posible que –contando con el valor de una variable–
podamos acercarnos a predecir el comportamiento de la otra variable.

Entonces, respecto a la dirección de la relación, debemos considerar lo siguiente:


• Correlación Positiva (+): situación en la que los valores bajos de una variable se
asocian con los valores bajos de la otra, y los valores altos de una variable se
asocian con los valores altos de la otra. Por ejemplo: a mayor peso, mayor altura
o viceversa.
• Correlación Negativa (-): situación en la que los valores bajos de una variable se
asocian con los valores altos de la otra. Por ejemplo: a mayor edad, menor
estado general de salud de las personas.

Los gráficos de dispersión nos permiten visualizar las correlaciones entre variables:

GRÁFICO 12

En este gráfico se observa la asociación entre la variable X (por ejemplo: el grado de


apoyo o rechazo político a la administración pública) y la variable Y (por ejemplo: el
presupuesto destinado a construir carreteras y vías de transporte público). En éste,
vemos que existe una asociación fuerte y positiva entre ambas variables.

Es importante considerar que la correlación no implica causalidad, es decir, una relación


entre dos variables no implica necesariamente una relación de causa y efecto entre las
dos variables. Un ejemplo simple es dado por Wikipedia: se podría verificar que la
venta de helados aumenta cuando la tasa de sofocación de la población aumenta, pero
esto no significa que los helados provocan dicha sofocación. Para comprobar que existe
causalidad, otras variables, que también participan del fenómeno, deben analizarse
como las variables intervinientes, moderadoras, extrañas, de confusión, etc.

Más allá de la relación entre variables, un elemento aún más importante es la


determinación de una teoría sobre el fenómeno que nos permita explicar la relación
entre todas las variables mencionadas. En el ejemplo de la venta de helados y la tasa
sofocación, el análisis de variables es distinta si se hace en el marco de un estudio de
marketing o de salud pública.

En el caso de la minería de datos, por ejemplo, sus técnicas analizan correlaciones sin
mayor atención a teorías determinadas. Dichas correlaciones sirven para descubrir
patrones o información básica de un conjunto de datos masivos, antes de realizar
estudios más profundos que apunten a relaciones causales o interpretaciones
generalizadoras de un fenómeno en particular.

REGRESIÓN

Tal como vimos en la imagen previa, la


línea azul (que representa el modelo de
regresión lineal) nos permite predecir el
comportamiento de una variable
dependiente (X) conociendo el
comportamiento de una variable
independiente (Y). Para esto se requiere
que haya una correlación entre ambas
variables. Mientras más alta es la
correlación entre ambas variables, más precisa es la predicción.

La regresión lineal explica los cambios en una variable dependiente como resultado de
los cambios en otras variables independientes. Además, nos indica la dirección de esa
relación y la magnitud del cambio que provoca una sobre la otra.

Un estudio, que buscaba identificar el impacto de los consejos del médico de cabecera
para dejar de fumar, comparó un grupo experimental de 208 fumadores con uno de
control de 216 fumadores. Los análisis se realizaron a través de regresiones y
mostraron que el grupo que había recibido consejos del médico había hecho más
intentos por dejar de fumar y tenía una mayor proporción de éxito que los fumadores del
grupo de control, quienes no habían recibido dichos consejos médicos.
REFERENCIAS

1. Nebot-Adell, M., Soler-Vila, M., Martín-Cantera, C., Birulés-Pons, M., Oller-


Colom, M., Sala-Carbonell, E., & Cabezas-Peña, C. (1989).Efectividad del
consejo médico para dejar de fumar: evaluación del impacto al año de la
intervención. Revista Clínica Española, 184 (4), 201–205.
2. Wikipedia commons. (2010). Linear regression. Tomado de:

https://commons.wikimedia.org/wiki/File:Linear_regression.svg (Available
under the Creative Commons Attribution/Share-Alike License).

También podría gustarte