Está en la página 1de 29

ESTADÍSTICA

Katherine Alexandra Sanchez Chorro Cif: 2020011321


José Adrián Ramos Marroquín CIF: 2021010770
Giselle Alejandra Hernández Lara Cif:2022010613
Pamela Alejandra Sanchez Chorro Cif:2020011325
LA CORRELACIÓN CRONOLÓGICA

Se refiere a la relación existente entre dos eventos o fenómenos que ocurren en el


tiempo. En otras palabras, se trata de la asociación temporal entre dos variables o
sucesos.

Es común utilizar herramientas estadísticas para analizar la correlación


cronológica entre dos variables, como el coeficiente de correlación de Pearson o el
coeficiente de correlación de Spearman. Estas medidas permiten cuantificar la
fuerza y la dirección de la correlación entre dos variables, lo que puede ayudar a
entender mejor su relación.
FÓRMULA

x: Medida de la edad cronológica.


DE : Desviación estándar.
X: Media de la edad ósea (TW2).
DE: Desviación estándar.
r= 0,977 p= 0,0001 n=75.
r(Coeficiente de correlacion lineal de Pearson entre la edad ósea (TW2) y la edad
cronológica).
EJEMPLO
Si se observa que la tasa de natalidad ha disminuido en los últimos años al mismo tiempo
que la tasa de matrimonios también ha disminuido, se puede decir que existe una
correlación cronológica entre ambas variables. Sin embargo, es importante tener en cuenta
que la correlación cronológica no necesariamente implica una relación causal entre los
eventos o variables observados.
LA CORRELACIÓN DE ATRIBUTOS

Se refiere a la medida en que dos o más atributos de un conjunto de datos están


relacionados entre sí. En términos generales, la correlación se refiere a la existencia
de una relación estadística entre dos variables, lo que significa que la presencia o el
valor de una variable puede ser utilizado para predecir el valor de la otra variable.

La correlación de atributos es importante en el análisis de datos, ya que puede


ayudar a identificar patrones y relacionar los atributos con los resultados. También
puede ser útil para identificar atributos redundantes o irrelevantes que pueden ser
eliminados del conjunto de dato
FÓRMULA

n
TO BS r
DT= 1+ +M
UFV 360
EJEMPLO

Un ejemplo de correlación de atributos podría ser el análisis de la relación entre la


cantidad de horas de estudio y la calificación obtenida en un examen. En este caso,
se podría recopilar un conjunto de datos que incluya las horas de estudio y las
calificaciones de varios estudiantes.
CORRELACIÓN GRADUAL

Al utilizar valores muéstrales precisos, o cuando la precisión no puede obtenerse,los


datos pueden clasificarse en orden de tamaño, importancia, etc., empleando los
números1,2, . . . n. Si dos conjuntos correspondientes de valores x, y se clasifican de tal
forma, elcoeficiente de correlación gradual, denotada por rgrad o sencillamente r
FÓRMULA

2
rgrad = 1- 6Σd
2
n (n - 1 )
Donde d : diferencias entre las clasificaciones de los correspondientes x,
y.n : número de pares de valores (x, y) en los datos
EJEMPLO
l0 trabajadores fueron clasificados según su rendimiento en la planta externa y los cursos realizados de cierta
compañía de telefonía pública. Hallar el coeficiente de correlación gradual

Planta Externa 7 5 4 8 3 10 1 5 4 1

Cursos 8 4 5 7 5 5 2 4 6 2

La diferencia de puntuaciones d en planta externa y la oficina para cada trabajador se da enla tabla siguiente.
2 2
También se incluyen d y ∑d .

Diferencia de
2
puntuaciones 1 -1 1 -1 5 5 1 -1 2 4 ∑d =
,d

43
D2 1 1 1 1 4 25 1 1 4 4

2
6Σd 6 (43)
rgrad = 1- = 1- = 0.73939
2
n (n - 1 ) 10 (10 2 - 1)

Indicando que hay una relación entre el rendimiento en planta externa y los cursos.
INTERPRETACIÓN PROBABILÍSTICA DE
LA REGRESIÓN
Un diagrama de dispersión, es una representación gráfica de los puntos de
datospara una muestra particular. Al escoger una muestra diferente, o aumentar la
original, undiagrama de dispersión algo diferente se obtendría generalmente. Cada
diagrama dedispersión resultaría en una recta o curva de regresión diferente,
aunque esperamos que lasdiferencias no sean significantes si las muestras se
extraen de la misma población
Del concepto de curva de ajuste en muestras pasamos al de curva de ajuste para lapoblación
de donde se tomaron las muestras. La dispersión de puntos alrededor de una rectao curva de
regresión indican que para un valor particular de x hay realmente varios valoresde y
distribuidos alrededor de la recta o curva Esta idea de distribución nos conducenaturalmente a
la realización de que hay una conexión entre curva de ajuste y probabilidad.

La conexión se implementa introduciendo las variables aleatorias X, Y que tomanlos diferentes


valores muéstrales X, y respectivamente. Por ejemplo X, Y puedenrepresentar las estaturas y
pesos de adultos en una población de la cual se extraen lasmuestras. Entonces se supone que
X, Y tienen una función de probabilidad conjunta ofunción de densidad, f(x, y), según si se
consideran discretas o continuas
Dada la función de densidad conjunta o función de probabilidad, f(x, y), de dos variables
aleatorias X, Y, es lógico de las anotaciones anteriores preguntar si hay una función g(X) taI que

E {[ Y - G (x)] } = Un mínimo
2
Una curva con ecuación y = g(X) se llama curva de regresión de mínimos cuadradosde Y sobre
X. Tenemos el teorema siguiente:

TEOREMA 1: Si X, Y son variables aleatorias con función de densidad conjunta o funciónde


probabilidad f(x, y), entonces existe una curva de regresión de mínimos cuadrados de Ysobre X
, dada por:

Y = g (x) = E (Y/X)
Siempre y cuando X, Y tengan una varianza
finita
Si X, y son variables aleatorias con la distribución normal
bidimensional,entonces la curva de regresión de mínimos cuadrados de Y
sobre X es una recta deregresión dada por:
INTERPRETACIÓN PROBABILÍSTICA DE LA
CORRELACIÓN
Un coeficiente de relación poblacional debe dar una medida de que tan bien unacurva de
regresión poblacional dada se ajusta a los datos poblacionales. Todas lasanotaciones
previamente enunciadas para la correlación en una muestra se aplican a lapoblación, por
ejemplo:
CORRELACIÓN Y DEPENDENCIA

Si dos variables aleatorias X, Y tienen un coeficiente de correlación diferente a


cero,sabemos que son dependientes en el sentido de probabilidad (esto es, su
distribuciónconjunta no se factoriza en sus distribuciones marginales). Además, cuando p
≠ 0, podemos utilizar una ecuación pata predecir el valor de Y a partir del valor de X.

EJEMPLO 1. Sean X, Y variables aleatorias que representan estaturas y pesos deindividuos.


Aquí hay una independencia directa entre X y Y.

EJEMPLO 2. Si X representa los salarios anuales de los carpinteros en tanto que


Yrepresenta la cantidad de crímenes, el coeficiente de correlación puede ser diferente de
ceroy podríamos hallar una ecuación de regresión prediciendo una variable de la otra,
Perodifícilmente diríamos que hay interdependencia directa entre X y Y.
CORRELACIONES PARCIALES

El procedimiento Correlaciones parciales calcula los coeficientes de correlación parcial, los


cuales describen la relación lineal existente entre dos variables mientras se controlan los
efectos de una o más variables adicionales. Las correlaciones son medidas de asociación
lineal. Dos variables pueden estar perfectamente relacionadas, pero si la relación no es lineal,
el coeficiente de correlación no es un estadístico adecuado para medir su asociación.
EJEMPLO
¿Existe alguna relación entre la financiación sanitaria y las tasas de enfermedad? Aunque cabe
esperar que dicha relación sea negativa, un estudio describe una correlación positiva significativa:
si la financiación sanitaria aumenta, las tasas de enfermedad parecen disminuir. Sin embargo, si se
controla la tasa de visitas de visitadores médicos, se elimina prácticamente la correlación positiva
observada. La financiación sanitaria y las tasas de enfermedad sólo parecen estar relacionadas
positivamente debido a que más personas tienen acceso a la sanidad si la financiación aumenta, lo
que tiene como resultado que los médicos y hospitales informen de más enfermedades.

Estadísticas
Para cada variable: número de casos sin valores perdidos, media y desviación estándar. Matrices
de correlación de orden cero y parcial, con grados de libertad y niveles de significación.
CONSIDERACIÓN SOBRE LOS
DATOS
Datos
Utilice variables cuantitativas y simétricas.
Supuestos
El procedimiento Correlaciones parciales supone que cada par de variables es normal
bivariante.
Obtención de correlaciones parciales
Esta característica requiere la opción Statistics Base.

En los menús seleccione:


Analizar > Correlacionar > Parcial ...
Seleccione dos o más variables numéricas para las que se van a calcular las correlaciones
parciales.
Elija una o más variables numéricas de control.
También se encuentran disponibles las siguientes opciones:

Prueba de significación
Puede seleccionar probabilidades bilaterales o unilaterales. Si conoce de antemano
la dirección de la asociación, seleccione Unilateral. De lo contrario, seleccione
Bilateral.

Mostrar el nivel de significación real


De forma predeterminada, se muestran la probabilidad y los grados de libertad para
cada coeficiente de correlación. Si anula la selección de este elemento, los
coeficientes significativos al nivel 0,05 se identifican con un asterisco, los coeficientes
significativos al nivel 0,01 se identifican con un asterisco doble y se eliminan los
grados de libertad. Este ajuste afecta a las matrices de correlación parcial y de orden
cero.
CORRELACIÓN MUESTRAL
La correlación muestral es una medida estadística utilizada para determinar la
relación entre dos variables en una muestra de datos. Se calcula utilizando la
fórmula del coeficiente de correlación de Pearson, denotado como "r".
El coeficiente de correlación muestral (r) varía entre -1 y 1. Los valores cercanos a -1 indican
una correlación negativa perfecta, lo que significa que a medida que una variable aumenta,
la otra disminuye en forma proporcional. Los valores cercanos a 1 indican una correlación
positiva perfecta, lo que significa que a medida que una variable aumenta, la otra también
aumenta en forma proporcional. Un valor de 0 indica una falta de correlación lineal entre las
variables.
Es importante tener en cuenta que la correlación muestral solo analiza la relación lineal
entre las variables y no implica causalidad. Además, los resultados de la correlación muestral
están basados en una muestra de datos y pueden no representar la correlación en toda la
población.
La correlación muestral es una herramienta útil para analizar y comprender las relaciones
entre variables en una muestra de datos, pero es importante interpretar los resultados con
precaución y considerar otros factores relevantes en el contexto del análisis.
EJEMPLO
Cantidad de horas de estudio y las calificaciones obtenidas por un grupo de estudiantes
universitarios.
Datos de muestra:
Para calcular la correlación muestral entre estas dos variables, se utiliza la fórmula
del coeficiente de correlación de Pearson:
CONCLUSIÓN
La correlación es una medida estadística que expresa hasta qué punto dos
variables están relacionadas linealmente (esto es, cambian conjuntamente a una
tasa constante). Es una herramienta común para describir relaciones simples sin
hacer afirmaciones sobre causa y efecto.

La correlación gradual: Indica una relación moderada que cambia progresivamente


a medida que se modifica una tercera variable. Esto resalta la importancia de
comprender y analizar el contexto y las características específicas de las variables
para una interpretación precisa de los resultados.
CONCLUSIÓN
La correlación cronológica: Se refiere a la relación entre variables en función del
tiempo. Las conclusiones derivadas de la correlación cronológica destacan la
existencia de tendencias, dependencias temporales y la necesidad de un análisis
de series de tiempo para comprender mejor los patrones y relaciones específicas.

La correlación de atributos: Proporciona información valiosa sobre la relación y


asociación entre diferentes características en un conjunto de datos. Ayuda a
comprender las interacciones entre los atributos, identificar atributos importantes
y contextualizar los resultados en función del problema y los datos analizados.
CONCLUSIÓN
La correlación muestral: La fuerza, dirección, significancia estadística y limitaciones
de la relación entre las variables en la muestra de datos, deben interpretarse en el
contexto adecuado y considerando otras variables y factores que pueden afectar la
relación entre las variables analizadas.

La correlación parcial: Es una medida útil para examinar la relación directa entre
dos variables después de controlar los efectos de las variables de confusión.
Proporciona información valiosa para comprender la relación entre variables y la
influencia de variables adicionales en esta relación. Sin embargo, es necesario
considerar las limitaciones y supuestos asociados y realizar una interpretación
contextual adecuada

También podría gustarte