Está en la página 1de 6

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Universitaria

Universidad Nacional Experimental “Rómulo Gallegos”

2do año de Medicina sección “1”

Valle de la Pascua - Edo Guárico

Estadística.

Diagrama de Correlación

Facilitador: Integrante(s):

Juan Díaz Zamora Victoria Rivero C.I:


26.464.519

Eleazar Granado C.I:28.442.593

24 de Julio del 2021


Diagramas de correlación:

Son una representación gráfica que muestra la relación de una variable con respecto a
otra, aunque esta no tiene porque ser una relación causa-efecto.

Se relaciona el desempeño de una característica de interés con factores de causa


potenciales, el objetivo es ayudar a entender las causas potenciales de variación como
respuesta y explicar cómo cada factor contribuye a esa variación. Esto se consigue
mediante relación estadística de la variación en la variable dependiente con una variación
de la variable causa o independiente y obtener el mejor ajuste al minimizar la desviación
entre lo predictivo y la respuesta real.

Uso:

Este diagrama se usa para estudiar la posible relación entre dos variables, y probar las
posibles relaciones entre causa y efecto. No permite probar que una variable es causa de
la otra, pero si consigue aclarar si se establecen relaciones y la intensidad que se establece
entre ambas.

Elaboración:

El diagrama consta de cuatro fases:

 Recogida de datos: para construir el diagrama se precisan

recoger en pares los datos de las dos variables objeto de estudio, al menos 30 pares de
datos.

 Representación de los datos: para su representación se utiliza un gráfico de dos


ejes de coordinadas donde se sitúan los valores de cada una de las variables y se
determina su punto de corte sobre el plano del gráfico. Así, obtenemos una “nube”
de puntos que permite conocer si existe o no relación entre ambas variables.
 Interpretación del diagrama: para proceder a la interpretación del resultado,
observamos cómo se distribuye la “nube” de puntos y lo comparamos con los
diagramas de referencia (según grados y tipos de correlación). Así, podemos
encontrar casos en que:

- Las variables no están correlacionadas; el efecto no está relacionado con la causa de


ninguna forma.

- Posible relación baja entre las variables; la causa puede afectar al efecto, pero
levemente. Es conveniente encontrar otras causas que influyan en mayor medida,
directamente y produzcan variación significativa en el efecto.

- Correlación alta; es probable que la causa esté directamente relacionada con el efecto.

- Perfecta; dado un valor de la causa, el correspondiente valor del efecto puede ser
estimado con absoluta certeza.

Cálculo del coeficiente de correlación:

El coeficiente de correlación es una medida de dependencia lineal entre dos variables


aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables.

De manera menos formal, podemos definir el coeficiente de correlación de Pearson


como un índice que puede utilizarse para medir el grado de relación de dos variables
siempre y cuando ambas sean cuantitativas y continuas.

Correlación lineal:

Para estudiar la relación lineal existente entre dos variables continuas es necesario
disponer de parámetros que permitan cuantificar dicha relación. Uno de estos parámetros
es la covarianza, que indica el grado de variación conjunta de dos variables aleatorias.

La covarianza depende de las escalas en que se miden las variables estudiadas, por lo
tanto, no es comparable entre distintos pares de variables. Para poder hacer
comparaciones se estandariza la covarianza, generando lo que se conoce como
coeficientes de correlación. Existen diferentes tipos, de entre los que destacan el
coeficiente de Pearson, Rho de Spearman y Tau de Kendall.

Las principales diferencias entre estos tres coeficientes de asociación son:

- La correlación de Pearson funciona bien con variables cuantitativas que tienen una
distribución normal. En el libro Handbook of Biological Statatistics se menciona que sigue
siendo bastante robusto a pesar de la falta de normalidad. Es más sensible a los valores
extremos que las otras dos alternativas.

- La correlación de Spearman se emplea cuando los datos son ordinales, de intervalo, o


bien cuando no se satisface la condición de normalidad para variables continuas y los
datos se pueden transformar a rangos. Es un método no paramétrico.

- La correlación de Kendall es otra alternativa no paramétrica para el estudio de la


correlación que trabaja con rangos. Se emplea cuando se dispone de pocos datos y
muchos de ellos ocupan la misma posición en el rango, es decir, cuando hay muchas
ligaduras.

La correlación lineal entre dos variables, además del valor del coeficiente de correlación
y de sus significancias, también tiene un tamaño de efecto asociado. Se conoce como
coeficiente de determinación (R^2). Se interpreta como la cantidad de varianza de (Y)
explicada por (X). En el caso del coeficiente de Pearson y el de Spearman, (R^2) se obtiene
elevando al cuadrado el coeficiente de correlación. En el caso de Kendall no se puede
calcular de este modo.

Significado matemático:
Usado en el estudio de la relación existente entre dos conjuntos de datos numéricos o
de elementos tales como puntos y líneas. Es usado particularmente en los estudios
estadísticos.

Los conjuntos correlativos de datos numéricos pueden ser representados gráficamente


usando un sistema de coordenadas cartesianas (v. Coordenadas). Cuando cada par de
números es representado por un punto, el resultado es un diagrama de dispersión.

Coeficiente de correlación lineal en variables cuantitativas y asociadas:

Se considera que dos variables cuantitativas están correlacionadas cuando los valores de
una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si
tenemos dos variables (A y B) existe correlación entre ellas si al disminuir los valores de A
lo hacen también los de B y viceversa.

Cálculos de los coeficientes de regresión:

La ecuación de regresión lineal simple indica que el valor medio o valor esperado de y
es una función lineal de x: E(y/x) = β0 + β1 x.

Regresión lineal:

El análisis de la regresión lineal se utiliza para predecir el valor de una variable según el
valor de otra. La variable que desea predecir se denomina variable dependiente. La
variable que está utilizando para predecir el valor de la otra variable se denomina variable
independiente
Métodos para el trazado de las líneas de regresión:

En un gráfico de dispersión, una línea de regresión ayuda a los lectores a visualizar la


relación entre dos variables que pueden transformarse en una ecuación lineal para
extrapolar la información. Una regresión linear contiene una ecuación en la forma y = a +
bx, en donde "x" es la variable independiente, "y" es la variable dependiente y "b" es la
pendiente. Después de dibujar la regresión, o línea de "mejor ajuste", puedes estimar las
coordenadas de dos puntos en la línea y determinar su ecuación.

Determinación del coeficiente de regresión:

El coeficiente de determinación es la proporción de la varianza total de la variable


explicada por la regresión. Es también denominado R cuadrado y sirve para reflejar la
bondad del ajuste de un modelo a la variable que se pretende explicar.

También podría gustarte