Está en la página 1de 13

INSTITUTO TECNOLÓGICO DE CHETUMAL

Carrera: Ingeniería Civil

Grupo: V2B

Probabilidad y Estadística

Unidad V: Análisis de regresión y correlación.

CONTENIDO:

5.1 Regresión lineal simple, curvilínea y múltiple.

5.2 Correlación.

5.3 Regresión y correlación para datos


agrupados.

5.4 Correlación por rangos.

5.5 Coeficiente de correlación para datos


nominales.

Instructor: Fernández Y Che Mario

Nombre del alumno: Meráz Lizarraga Ángel René

Miércoles 15 de Junio del 2022


Introducción
La correlación lineal y la regresión lineal simple son métodos estadísticos que
estudian la relación lineal existente entre dos variables. Antes de profundizar en
cada uno de ellos, conviene destacar algunas diferencias:
La correlación cuantifica como de relacionadas están dos variables, mientras que
la regresión lineal consiste en generar una ecuación (modelo) que, basándose en
la relación existente entre ambas variables, permita predecir el valor de una a
partir de la otra.
El cálculo de la correlación entre dos variables es independiente del orden o
asignación de cada variable a X e Y, mide únicamente la relación entre ambas sin
considerar dependencias. En el caso de la regresión lineal, el modelo varía según
qué variable se considere dependiente de la otra (lo cual no implica causa-efecto).
A nivel experimental, la correlación se suele emplear cuando ninguna de las
variables se ha controlado, simplemente se han medido ambas y se desea saber
si están relacionadas. En el caso de estudios de regresión lineal, es más común
que una de las variables se controle (tiempo, concentración de reactivo,
temperatura…) y se mida la otra.
Por norma general, los estudios de correlación lineal preceden a la generación de
modelos de regresión lineal. Primero se analiza si ambas variables están
correlacionadas y, en caso de estarlo, se procede a generar el modelo de
regresión.
5.1 Regresión lineal simple, curvilínea y
múltiple.
Regresión Lineal
La Regresión Lineal es una técnica paramétrica utilizada para predecir variables
continuas, dependientes, dado un conjunto de variables independientes. Es de
naturaleza paramétrica porque hace ciertas suposiciones basadas en el conjunto
de datos. Si el conjunto de datos sigue esas suposiciones, la regresión arroja
resultados increíbles, de lo contrario, tiene dificultades para proporcionar una
precisión convincente.
Matemáticamente, la regresión usa una función lineal para aproximar o predecir la
variable dependiente dada como:

Donde:
y – es la variable dependiente o la variable a predecir.
x – es la variable independiente o la variable que usamos para hacer una
predicción.
a – es la pendiente o el valor que debe ser determinado, se le conoce como
coeficiente y es una especie de magnitud de cambio que pasa por y cuando x
cambia.
b – es la constante que debe ser determinada, se le conoce como intercepto
porque cuando x es igual a 0, entonces y = b.
Esta es la ecuación de Regresión Lineal Simple. Se llama simple porque solo hay
una variable independiente involucrada, que vendría siendo “x”.
El objetivo con Regresión Lineal Simple es minimizar la distancia vertical entre
todos los datos y nuestra línea, por lo tanto, para determinar la mejor línea,
debemos minimizar la distancia entre todos los puntos y la distancia de nuestra
línea.
El error es una parte inevitable del proceso de predicción, no importa cuán
poderoso sea el algoritmo que elijamos, siempre habrá un error irreductible.
Sabemos que no podemos eliminar por completo el error, pero aún podemos
intentar reducirlo al nivel más bajo. Es en estos momentos en que se usa la
técnica conocida como mínimos cuadrados.
La técnica de mínimos cuadrado intenta reducir la suma de los errores al
cuadrado, buscando el mejor valor posible de los coeficientes de regresión.
Los mínimos cuadrados no es la única técnica para usar en Regresión Lineal, pero
se selecciona debido a:
• Utiliza un error cuadrado que tiene buenas propiedades matemáticas, por lo que
es más fácil diferencias y calcular el descenso del gradiente.
• Es fácil de analizar y computacionalmente más rápido, es decir, puede aplicarse
rápidamente a conjuntos de datos que tienen miles de características.
• La interpretación es mucho más fácil que otras técnicas de regresión.

Regresión curvilínea
Cuando las Variables X e Y se relacionan según una línea Curva, se habla de
regresión curvilínea. Es una función de segundo grado la que se ajusta lo
suficiente a la situación real dada.
Y= a + bx+cx2
Donde a, b y c son los parámetros.
El problema consiste en determinar dichos parámetros para una distribución dada.
Se seguirá para ello, un razonamiento y la utilización de las ecuaciones normales
de GAUSS.
Pasos para Realizar la Regresión Curvilínea:
1. Se toman los datos proporcionados a analizar y se forman los pares ordenados
2. Se representan dichos valores en los ejes del plano cartesiano, dando lugar a
un diagrama de dispersión o nube de puntos. El cual para que sea curvilínea debe
ser una curva.
3. Ajustamos a una función de segundo grado de Y= a + bx+cx2 para encontrar
las ecuaciones normales.
4. Elaborar tabla con los resultados que según las ecuaciones normales debemos
calcular para luego sustituir en dichas ecuaciones.
5. Sustituir en el sistema de ecuaciones normales
6. Utilizar matriz para encontrar los parámetros de “a”, “b” y “c” para sustituirlos en
la ecuación de regresión curvilínea
7. Sustituir los valores de “a”, “b” y “c” en la ecuación de Y= a + bx+cx2y completar
la tabla.

Regresión múltiple
La regresión lineal múltiple es la gran técnica estadística para comprobar hipótesis
y relaciones explicativas. Ante de empezar, una serie de condiciones que se
deben cumplir para poder aplicar la regresión lineal múltiple:
• La variable dependiente (resultado) debe ser escalar (numérica) o bien ordinal de
más de 5 categorías, es decir, las categorías de la variable dependiente deben
tener un orden interno o jerarquía.
• Las variables independientes (explicaciones) deben ser escalares (numérica),
ordinales (también se recomienda con más de 5 categorías
• Hay otras condiciones como: las variables independientes no puede estar
altamente correlacionadas entre sí, las relaciones entre las variable
independientes y la variable dependiente deben ser lineales, todas variables (o
mejor dicho sus residuales) deben seguir la distribución normal y deben tener
varianzas iguales. Estas condiciones son importantes, pero hay maneras de tratar
los datos si se incumple alguna de ellas.
5.2 Correlación
La correlación es una medida estadística que expresa hasta qué punto dos
variables están relacionadas linealmente (esto es, cambiando conjuntamente a
una tasa constante). Es una herramienta para describir relaciones simples sin
hacer afirmaciones sobre causas y efectos.
El coeficiente de correlación de la muestra, r, cuantifica la intensidad de la
relación.
Las correlaciones también se someten a pruebas para establecer su significación
estadística.

La correlación no puede medir la presencia o el efecto de otras variables aparte de


las dos que se están explorando. Es importante saber que la correlación no nos
informa sobre causas y efectos. Además, la correlación no puede describir con
precisión las relaciones curvilíneas.
La correlación es útil para describir relaciones simples entre datos.
Describimos la correlación mediante una medida sin unidades llamada coeficiente
de correlación, que va desde -1 a +1 y se indica mediante la letra r. La
significancia estadística se indica mediante un valor p. Por tanto, usualmente las
correlaciones se escriben con dos números clave: r = y p =.
• Cuanto más se aproxima r a cero, más débil es la relación lineal.
• Los valores de r positivos indican una correlación positiva, en la que los valores
de ambas variables tienden a incrementarse juntos.
• Los valores de r negativos indican una correlación negativa, en la que los valores
de una variable tienden a incrementarse mientras que los valores de la otra
variable descienden.
• El valor p aporta evidencia de que podemos concluir de manera significativa que
es probable que el coeficiente de correlación de la población sea diferente a cero,
basándonos en lo que hemos observado en la muestra.
• "Medida sin unidades" significa que la correlación tiene su propia escala: en
nuestro ejemplo, el número de r no está en la misma escala que la altura ni que la
temperatura. Esto es diferente a otros estadísticos de resumen. Por ejemplo, la
media de las medidas de altura está en la misma escala que su variable.

5.3 Regresión y correlación para datos


agrupados.
REGRESIÓN
La regresión estadística o regresión a la media es la tendencia de una medición
extrema a presentarse más cercana a la media en una segunda medición. La
regresión se utiliza para predecir una medida basándonos en el conocimiento de
otra.
MODELOS DE REGRESIÓN
En estadística la regresión lineal o ajuste lineal es un método matemático que
modeliza la relación entre una variable dependiente Y, las variables
independientes Xi y un término aleatorio ε. Este modelo puede ser expresado
como:

: variable dependiente, explicada o regresando.

: variables explicativas, independientes o regresores.

: parámetros, miden la influencia que las variables


explicativas tienen sobre el regresando.

Donde es la intersección o término “constante”, las son los


parámetros respectivos a cada variable independiente, y es el número de
parámetros independientes a tener en cuenta en la regresión. La regresión lineal
puede ser contrastada con la regresión no lineal.
CORRELACIÓN
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una
relación lineal y proporcionalidad entre dos variables estadísticas. Se considera
que dos variables cuantitativas están correlacionadas cuando los valores de una
de ellas varían sistemáticamente con respecto a los valores homónimos de la otra:
si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A
lo hacen también los de B y viceversa. La correlación entre dos variables no
implica, por sí misma, ninguna relación de causalidad
Fuerza, sentido y forma de la correlación
La relación entre dos super variables cuantitativas queda representada mediante
la línea de mejor ajuste, trazada a partir de la nube de puntos. Los principales
componentes elementales de una línea de ajuste y, por lo tanto, de una
correlación, son la fuerza, el sentido y la forma:
La fuerza extrema según el caso, mide el grado en que la línea representa a la
nube de puntos: si la nube es estrecha y alargada, se representa por una línea
recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una
tendencia elíptica o circular, la relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los
valores de A lo hacen los de B, la relación es positiva; si al crecer los valores de A
disminuyen los de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la
curva monotónica o la curva no monotónica.

Distribución del coeficiente de correlación


El coeficiente de correlación muestral de una muestra es de hecho una varible
aleatoria, eso significa que si repetimos un experimento o consideramos diferentes
muestras se obtendrán valores diferentes y por tanto el coeficiente de correlación
muestral calculado a partir de ellas tendrá valores ligeramente diferentes. Para
muestras grandes la variación en dicho coeficiente será menor que para muestras
pequeñas. R. A. Fisher fue el primero en determinar la distribución de probabilidad
para el coeficiente de correlación.
Si las dos variables aleatorias que trata de relacionarse proceden de una
distribución gaussiana bivariante entonces el coeficiente de correlación r sigue una
distribución de probabilidad dada por:
5.4 CORRELACIÓN DE SPEARMAN O POR
RANGOS
El coeficiente de correlación de Spearman es una medida no paramétrica de la
correlación de rango (dependencia estadística del ranking entre dos variables). Se
utiliza principalmente para el análisis de datos.
Mide la fuerza y la dirección de la asociación entre dos variables clasificadas. Pero
antes de hablar de la correlación de Spearman, es importante entender la
correlación de Pearson, la cual es una medida estadística de la fuerza de una
relación lineal entre datos emparejados.
Para el cálculo y la prueba de significación de la variable de ranking, se requiere
que la siguientes suposiciones de datos sean ciertas:

 Nivel de intervalo o ratio


 Relación lineal
 Bivariante distribuido

Si tus datos no cumplen con las suposiciones anteriores, necesitarás el coeficiente


de correlación de Spearman. Para esto, es necesario saber qué función monótona
es para entenderlo.
Una función monótona es aquella que nunca disminuye o nunca aumenta, ya que
es un incremento variable independiente. Puede ser explicada usando la imagen
de abajo:

La imagen explica tres conceptos de la función monótona:

 Monotónicamente en aumento: Cuando la variable “x” aumenta y la variable


“y” nunca disminuye.
 Disminuye monótonamente: Cuando la variable “x” aumenta pero la variable
“y” nunca aumenta.
 No monótono: Cuando la variable “x” aumenta y la variable “y” a veces
aumenta y a veces disminuye.
La relación monótona es menos restrictiva cuando se compara con una relación
lineal que se utiliza en el coeficiente de correlación de Pearson. Aunque la
monotonicidad no es el último requisito, no será significativo perseguirla sin
determinar realmente la fuerza y dirección de una relación monótona si ya se
sabía que la relación entre la variable no es monótona.
5.5 COEFICIENTE DE CORRELACIÓN PARA
DATOS NOMINALES
El coeficiente de correlación es la medida específica que cuantifica la intensidad
de la relación lineal entre dos variables en un análisis de correlación. En los
informes de correlación, este coeficiente se simboliza con la r.
Para dos variables, la fórmula compara la distancia de cada dato puntual respecto
a la media de la variable y utiliza esta comparación para decirnos hasta qué punto
la relación entre las variables se ajusta a una línea imaginaria trazada entre los
datos. A esto nos referimos cuando decimos que la correlación examina las
relaciones lineales.
La correlación sólo se refiere a las dos variables dadas y no aporta información
sobre las relaciones más allá de los datos bivariados. Esta prueba no puede
detectar valores atípicos en los datos (y por tanto estos sesgan los resultados) y
tampoco puede detectar correctamente las relaciones curvilíneas.
El coeficiente de correlación r es un valor sin unidades entre -1 y 1. La
significancia estadística se indica con un valor p. Por lo tanto, usualmente las
correlaciones se escriben con dos números clave: r = y p = .

 Cuanto más se aproxima r a cero, más débil es la relación lineal.


 Los valores de r positivos indican una correlación positiva, en la que los
valores de ambas variables tienden a incrementarse juntos.
 Los valores de r negativos indican una correlación negativa, en la que los
valores de una variable tienden a incrementarse mientras que los valores
de la otra variable descienden.
 Los valores 1 y -1 representan una correlación "perfecta" positiva y
negativa, respectivamente. Dos variables perfectamente correlacionadas
cambian conjuntamente a una tasa fija. Decimos que tienen una relación
linear; cuando representados en un gráfico de dispersión, todos los puntos
correspondientes a los datos pueden conectarse con una misma línea
recta.
 El valor p nos ayuda a determinar si podemos o no concluir de manera
significativa que el coeficiente de correlación de la población es diferente a
cero, basándonos en lo que observamos en la muestra.
El coeficiente de correlación de la muestra puede representarse con una fórmula:
BIBLIOGRAFÍA
Cardenas, J. (5 de Febrero de 2014). Networkianos. Obtenido de
https://networkianos.com/regresion-lineal-multiple/
estadistica1utp. (24 de Octubre de 2016). Estadística . Obtenido de
https://estadistica1utp.wordpress.com/2016/10/24/regresion-curvilinea/
Gonzalez, L. (30 de Noviembre de 2018 ). Aprendeia. Obtenido de Aprendeia :
https://aprendeia.com/algoritmo-regresion-lineal-simple-machine-learning/
JPM. (13 de Marzo de 2022). Statistical. Obtenido de
https://www.jmp.com/es_mx/statistics-knowledge-portal/what-is-
correlation.html#:~:text=La%20correlaci%C3%B3n%20es%20una
%20medida,afirmaciones%20sobre%20causa%20y%20efecto.
JMP. (22 de Octubre de 2021). Statistical. Obtenido de
https://www.jmp.com/es_mx/statistics-knowledge-portal/what-is-correlation/
correlation-coefficient.html
QuestionPro. (19 de Enero de 2022). QuestionPro. Obtenido de
https://www.questionpro.com/blog/es/coeficiente-de-correlacion-de-spearman/
Ramón, J. M. (22 de Junio de 2012). ProbabilidadyEstadística. Obtenido de
http://probabilidadyestadisticaitsav.blogspot.com/2012/06/53-regresion-y-
correlacion.html

También podría gustarte