Está en la página 1de 7

EXPLORANDO RELACIONES SIMPLES

ENTRE DOS VARIABLES

1.- Ideas básicas sobre el análisis Bivariante.


1. Univariante - Bivariante – Multivariante:

- Cuando tenemos que describir los resultados de una encuesta, la univariante solo
pregunta por cosas descriptivas simples y por tablas frecuenciales.

- Bivariante: cuando estudiamos el resultado de una encuesta, es decir, aquella que


envuelve a dos variables que son estudiadas al mismo tiempo.

- Multivariante: tiene técnicas mas complejas porque utiliza varias variables al mismo
tiempo.

2. Antes de movernos a la bivariante, exploramos primero las univariantes descriptivas y


frecuencia es. Cuanto más se trabaje en un buen análisis descriptivo preliminar, mejor será
la exploración bivariado.

Ejemplos:

- Limpiar los datos: a veces tenemos errores de codificación que influye en el resultado
del análisis bivariante. Hay que revisar con cuidado los datos y gráficos de las
univariantes porque podremos detectar la mayoría de esos errores antes de entrar en
etapas más críticas y que consumen más tiempo.
- La existencia de valores atípicos y extremos en una variable de escala podría
distorsionar la aparente relación con otras métricas (se debe tomar una decisión en
esos casos).
- A veces, es buena idea transformar una escala en una variable nominal antes de pasar
a una exploración bivariada si observamos una falta de continuidad (o creemos que
tenemos una variable de escala de baja calidad)

3. Una vez que somos familiares con nuestro data univariante, nos movemos al análisis
bivariante. El análisis bivariante usualmente está centrado en un conjunto limitado/conjunto
de combinaciones seleccionadas/ pares de variables entre todo el conjunto.

- Ejemplo: en una encuesta sobre a la satisfacción del cliente. Recoges informacion


sobre 20 variables. En el análisis bivariado  20*20-20.

4. El análisis bivariante es necesario para enriquecer el análisis univariante, comparando la


distribución de las variables de interés con los diferentes grupos de interés.

5. Aparte del análisis descriptivo, el análisis bivariante explora las relaciones entre variables.
A veces nuestro propósito es encontrar algo de dependencia/ asociación descubriendo
alguna relación significativa entre variables.
6. OJOOO: LA RELACIÓN BIVARIA PUEDE ESTAR LEJOS DE LA DEPENDENCIA REAL. La
existencia de cierto grado de correlación/relación/asociación entre dos variables (X e Y) no
implica necesariamente la existencia de dependencia causal (X causando Y). Puede haber
una docena de problemas que pueden confundirlo de varias maneras: variables omitidas que
DEBE considerar, errores de medición de los que no es consciente, errores en la forma en
que maneja sus variables... Simplemente usando gráficos bivariados o estadísticas, NUNCA
PODREMOS DEMOSTRAR que un cambio en una variable está causando un cambio en la
otra.

Ejemplos:

- El peso del cerebro de niños de entre 1 a 15 años esta claramente correlacionada con
el tamaño de su pie. Pero estaría mal porque el tamaño del cerebro no causa el
tamaño del pie.
FEET SIZE
Real Unobserved
Relationship
FALSE
Observed AGE
Relationship

Real Unobserved
BRAIN WEIGHT Relationship

- El número de nacimientos en el 2000 en las 17 regiones diferentes de España está


relacionado con el stock de motos en cada región. No tienen relación porque regiones
pequeñas tendrán menos nacimientos y menos motos, pero una no causa a la otra.
 RECURDAR: Evitar las relaciones espurias. La afirmación de una relación de
dependencia real requiere una evaluación cuidadosa, controlada por covariables,
verificando la robustez de esta dependencia para diferentes segmentos, diferenciando
cambios sistemáticos de cambios aleatorios…. Aprenderemos a ejecutar este tipo de
análisis sofisticado más adelante en el curso con la técnica de regresión.

7. A veces, encontrar una relación significativa no es un objetivo en sí mismo, pero


necesitamos medir relaciones entre variables como un REQUISITO TÉCNICO INTERMEDIO
para algunos procedimientos multivariantes.

- Si queremos ejecutar un Análisis Factorial útil necesitamos un conjunto de variables


altamente relacionadas entre sí (alto grado de correlación). Por lo tanto, es de interés
explorar la correlación bivariada

- Cuando se ejecuta un Análisis de Regresión, el nivel de relaciones entre las variables


explicativas (técnicamente llamado Multicolinealidad) provoca una menor precisión
(mayor varianza) de los coeficientes estimados. La verificación de la correlación
bivariada podría ser nuevamente interesante.
2.- Guía simple para explorar las relaciones bivariantes.
1. Siguiendo 3 pasos:

- Graficar

- Números que nos ayudarán a comprender los gráficos que hemos realizado
anteriormente. Una vez más, utilizaremos diferentes tipos de tablas dependiendo del
tipo de variables a cruzar en nuestro análisis bivariado

- Si estamos usando una MUESTRA de datos (datos de una encuesta, por ejemplo) y
queremos demostrar que existe (o no existe) una relación significativa entre las dos
variables analizadas, DEBEMOS ofrecer la prueba estadística adecuada para verificar la
significación estadística de esa aparente relación.

Bivariate Bivariate Bivariate


GRAPH TABLE TEST
2. Ahora necesitamos seleccionar la gráfica, tabla y prueba estadística adecuada,
dependiendo del tipo de variables que estemos cruzando/analizando en cada ejercicio
bivariado:

STAGE 1 STAGE 2 STAGE 3

COMBINATION OF VARIABLES GRAPHICAL Exploration TABLE Statistical Inference

figures

CASE “A” Nominal/Ordinal related


to Nominal/Ordinal Section A.1 Section A.2 Section A.3
Chi

CASE Nominal/Ordinal related


“B”ob to
Section B.1 Section B.2 Section B.3

Scale

CASE “C” Scale related to Scale Section C.1 Section C.2 Section C.3
3.- Descripción de las herramientas de SPSS para el análisis
bivariante.
A.1.- Gráficos (Nominal - Nominal)

A.2.- Números (Nominal - Nominal)

Si queremos observar las cifras de una distribución cruzada de dos variables nominales
en una sola tabla, tenemos dos recursos sencillos básicos en SPSS.

To run a Crosstab: Analyze – Descriptive Statistics – Crosstabs - (we select then our
“X” variable as “row” and our “Y” variable as “column”) – (we select the option Cells –
Percentages Row) – Continue - OK

A.3.- Pruebas estadísticas (Nominal - Nominal)

Si estamos usando una tabla y queremos confirmar que las diferencias observadas en
las tablas anteriores se mantienen para toda la población, es decir, una especie de
asociación entre dos variables nominales, necesitamos inferencia estadística.

- Pearson Chi-square Test:


o Hipótesis nula  Independencia entre X e Y
To ask for a Chi-square Test in SPSS, simply select the option Statistics – Chi–
square in the Crosstab setup window.

- CROSSTAB

B.1.- Gráficos (nominal - escala)

Si queremos comparar una variable de escala a través de los niveles de una variable
nominal, usaremos gráficos estándar para las variables de escala pero
panelados/cruzados por categorías para la variable nominal.
B.2.- Números (nominal - escala)

Analyze – Descriptive Statistics – Descriptives (we select then our scale variable)

B.3.- Pruebas estadísticas (nominal - escala)

- Caso 1: variable nominal con solo 2 categorías  t-Test.


La hipótesis nula: La media de la variable de escala es la misma en ambas
categorías de la variable "X" = SIN RELACIÓN ENTRE "X" (categoría) e "Y"
(media de escala).
Mientras mas alto , es menos probable que se cumpla la nula.

Analyze – Compare Means – Independent Samples t-Test

- Caso 2: variable nominal con más 2 categorías  F-Test (ANOVA F-Test)


La hipótesis nula: La media de la variable de escala es la misma en ambas
categorías de la variable "X" = SIN RELACIÓN ENTRE "X" (categoría) e "Y"
(media de escala).

Analyze – Compare Means – One Way ANOVA

C.1.- Gráficos (Escala - escala)  Gráfico de dispersión

C.2. y C.3- Números (escala - escala) y prueba estadísticaç

Coeficiente de Pearson  -1(máxima correlcion indirecta) y 1(máxima correlación


directa)

hipótesis nula  no correlación (0)

Analyze – Correlate - Bivariate

Coef. De correlación lineal


ANOVA

 Es útil para explorar la relación entre una variable de escala y una variable categórica

 El Test F ANOVA se acompaña nromalmente de pruebas Post - Hoc (Bonferroni, LSD....)

 La hipótesis nula es que la media de la variable de escala es la misma en cada categoría


(de la variable categórica)

 El ANOVA es la prueba inferencial habitual que sigue a un procedimiento Explore

 El ANOVA se usa comúnmente cuando la variable de escala es la variable dependiente


(explicada) y la categórica se supone que es la independiente (explicativa)

 El ANOVA es la típica prueba que a veces usamos junto con un gráfico de Box-Plot

Anscombe ilustra:

 Un elevado coeficiente de correlación lineal no significa SIEMPRE una correlación


realmente fuerte

 Un coeficiente de correlación podría estar críticamente influido por observaciones


atípicas

 La correlación no lineal no es capturada adecuadamente por el coeficiente de


correlación de Pearson

También podría gustarte