Está en la página 1de 4

Estudiante: Carlos Eduardo Reyes Castro N MA 3-5

Datos Bivariados
Se llaman datos bivariados a aquellos que provienen de dos variables medidas al
mismo tiempo sobre cada individuo.
La relación que se utiliza es la Relación Lineal, por lo que se llevan a cabo Análisis de
Correlación Lineal y de Regresión Línea. El análisis de correlación, se usa para medir
la fuerza de asociación entre las variables. El objetivo medir la covarianza que existe
entre esas dos variables numéricas. El análisis de regresión se usa con propósitos de
predicción.

Covarianza
La covarianza es una de las medidas utilizadas para cuantificar la variación conjunta
entre dos variables X y Y. La expresión matemática para la covarianza es:

Esto es, el promedio de los productos generados que se obtiene al multiplicar la


diferencia de cada observación de la variable Y, menos la media de la variable Y, por la
diferencia entre la respectiva observación de la variable X, menos la media de la variable
X; n es el tamaño de la muestra y las observaciones se numeran de 1 a n.
En la ecuación, la suma de n términos divida entre n denota un promedio. En esto caso
se trata del promedio de los productos de las desviaciones con respecto a las medias de
X y Y.

Análisis de Correlación Lineal


La correlación está basada en la asociación lineal, es decir, que cuando los valores de
una variable aumentan los valores de la otra variable pueden aumentar o disminuir
proporcionalmente. Por ejemplo, la altura y el peso tienen una relación lineal positiva, a
medida que aumenta la altura aumenta el peso.
El objetivo es ver si existe o no una relación de carácter lineal entre las dos variables, y
si existe, entonces medir el grado de intensidad de la linealidad. Esto comúnmente se
realiza calculando el coeficiente de correlación lineal de Pearson:

La correlación bivariada es una técnica estadística destinada a averiguar:


a) si dos variables tienen relación entre sí
b) si la relación es fuerte-moderada-o débil y
c) qué dirección tiene la relación
Estudiante: Carlos Eduardo Reyes Castro N MA 3-5

Análisis de Regresión Lineal


Si se cumplen ciertas suposiciones, la ordenada b de la muestra y la pendiente m de la
muestra se pueden usar como estimaciones de los parámetros respectivos de la
población m* y b*. Así, la ecuación de regresión muestral que representa el modelo de
regresión en línea recta es:
Y*i = mXi + b
Donde:
Y* = valor pronosticado de Y para cada observación
Xi = valor de X para cada observación

Distribución Bidimensionales
Podemos estudiar dos o más caracteres cuantitativos diferentes de forma simultánea.
Ejemplo, en un curso de estudiantes el peso y la altura, las notas de matemáticas y
estadística, y así llamamos distribución bidimensional a un conjunto ordenado de pares
de valores de dos caracteres (Xi, Yj) asociado a las frecuencias absolutas nij o relativas
fij de dichos pares.
Tabla De Correlación: presentación de una variable bidimensional. Es una tabla de
doble entrada. Sea una población con 2 caracteres X e Y, se representa por (Xi Yj, nij)
siendo Xi, Yj: 2 valores cualesquiera y nii la frecuencia absoluta conjunta del valor i der
X con el j de Y (número de veces que se repite). El número total de individuos observados
es N.
Distribuciones Marginales: estudio aislado de cada una de las variables, coincide con
la distribución unidimensional, así tendremos 2 distribuciones unidimensionales (se
estudia el comportamiento de una variable con independencia de los valores que pueda
tomar la otra), correspondiendo las frecuencias marginales a la última fila y la última
columna de la tabla de correlación.

Tabla de Contingencia
Una tabla de contingencia es una de las formas más comunes de resumir datos
categóricos. En general, el interés se centra en estudiar si existe alguna asociación entre
una variable denominada fila y otra variable denominada columna y se calcula la
intensidad de dicha asociación. De manera formal, se consideran X e Y dos variables
categóricas con I y J categorías respectivamente.
Una observación puede venir clasificada en una de las posibles I × J categorías que
existen. Cuando las casillas de la tabla contienen las frecuencias observadas, la tabla se
denomina tabla de contingencia, término que fue introducido por Pearson en 1904. Una
tabla de contingencia (o tabla de clasificación cruzada), con I filas y J columnas se
denomina una tabla I ×J.
Por ejemplo, se considera la distribución conjunta de dos variables y la correspondiente
tabla de contingencia en una muestra de pacientes de un hospital. Se tiene la siguiente
tabla donde se consideran el riesgo de ataque al corazón respecto a la toma de aspirinas:
Estudiante: Carlos Eduardo Reyes Castro N MA 3-5
 X ≡Se toma aspirina o placebo (I = 2).
 Y ≡Se sufre ataque cardiaco o no (J = 3).

DIAGRAMAS DE DISPERSIÓN O NUBE DE PUNTOS


Podemos representar gráficamente la distribución bidimensional en un diagrama
cartesiano. En el eje de abscisas representamos la variable estadística X y en el eje de
ordenadas la variable estadística Y.
El primer paso para determinar el sentido y el grado de la correlación entre dos variables
consiste en representar gráficamente, en el plano cartesiano, los pares de valores
conocidos. Estos gráficos, que reciben el nombre de diagramas de dispersión, permiten
visualizar la posición de los datos en el plano. La forma de la nube de puntos asociada a
cada diagrama permitirá establecer conjeturas sobre la correlación existente entre las
variables estudiadas. En general, dependiendo de la forma de la nube de puntos, puede
asegurarse:
 Una nube de puntos alargada indica correlación lineal: los puntos se distribuyen
en torno a una línea recta. La estrechez de la nube expresa que la correlación es
fuerte.
 Si la recta que se ajusta a la nube tiene pendiente positiva, la correlación será
directa: al crecer la variable X, lo hace también la variable Y.
 Una recta con pendiente negativa, indica que la correlación es inversa, al crecer
X, disminuye Y.

Variable Independiente y Dependiente


Las variables independientes son las que elegimos libremente, o manipulamos, para
verificar su efecto en, o su relación con, las variables dependientes. Si queremos
comprobar la eficacia de un método en un tipo de aprendizaje, el método es la variable
independiente (también denominada en casos como éste variable experimental) y el
aprendizaje (definido por el modo, test, etc. con que lo medimos) es la variable
dependiente. El objetivo directo de una investigación es clarificar la relación entre las
variables independientes y las variables dependientes.
La variable dependiente representa una cantidad cuyo valor depende de cómo se
modifica la variable independiente. A la variable dependiente se le considera así porque
Estudiante: Carlos Eduardo Reyes Castro N MA 3-5
sus valores van a depender de los valores de la variable independiente. A menudo y es
la variable que se utiliza para representar la variable dependiente en una ecuación.
La variable independiente puede estar divida en niveles o subclasificaciones: si la
variable independiente es el género, estará dividida en dos niveles (varones y mujeres);
si la variable independiente es la carrera que se está estudiando, los niveles serán las
diversas carreras que entren en la investigación; si la variable independiente es el
método, los niveles serán las modalidades metodológicas que entren en la investigación
(o con un método particular y sin ese método). Las variables independientes y
dependientes se suelen conceptualizar también como predictores y criterios.
Simplificando mucho, estos conceptos se entienden bien si pensamos en términos de
causas y efectos, pero cayendo en la cuenta de que todo lo más se trata de hipotéticas
causas, concausas o condiciones. Variables antecedentes y variables consecuentes
pueden ser términos más adecuados. En los diseños experimentales, las variables
independientes suelen ser cualitativas (distintos métodos, experiencias, condiciones,
etc.) y la variable dependiente suele ser cuantitativa, aunque no necesariamente
(medimos los resultados o el cambio mediante un test, una escala, un cuestionario que
nos da unas puntuaciones, etc.)
INDEPENDENCIA Y RELACIÓN FUNCIONAL DE DOS VARIABLES
Decimos que, si existen coincidencias, va a existir relación, pero ¿cuál es la intensidad
de esa relación? ¿Qué graduación tiene? ¿Cuáles serán los extremos de una relación?
Se presentan las siguientes situaciones:
a) No existe relación entre X e Y, y decimos que las variables son independientes.
b) Existe relación perfecta entre X e Y: las variables tienen dependencia funcional, es
decir su relación es expresable de la forma y = f(x), son determinables perfectamente los
elementos de Y conocido X y viceversa.
c) Situaciones intermedias: existen otros caracteres como estatura y peso que no cabe
duda que existe interrelación, pero no son definibles funcionalmente en sentido
matemático. En estas relaciones = coincidencias, existe dependencia estadística y ésta
puede ser más o menos fuerte.
La dependencia estadística admite grados = intensidad relación, pero la dependencia
funcional no admite grados.
El signo, por su parte, refleja cómo están asociados los valores de ambas variables.
 un valor positivo indica una relación directa o positiva,
 un valor negativo indica relación indirecta, inversa o negativa,
 un valor nulo indica que no existe una tendencia entre ambas variables (puede
ocurrir que no exista relación o que la relación sea más compleja que una
tendencia, por ejemplo, una relación en forma de U).

También podría gustarte