Está en la página 1de 18

Tecnológico Nacional de México

Instituto Tecnológico de Aguascalientes

Estadística Inferencial I
Ingeniería Industrial

“Búsqueda Documental. Regresión Lineal Simple”


Unidad 4

M.E.S.C. Felipe De Jesús Gándara


González
Arlette Vazquez Tovar

Aguascalientes, Ags. 29 de octubre de 2023


INTRODUCCIÓN

En el presente trabajo el profesor, usted podrá encontrar una búsqueda documental en la


cual tratara de que es una regresión lineal, su importancia, que es y sus distintos
componentes ya que es una buena técnica de análisis de datos que predice el valor de datos
que son desconocidos mediante el uso de otros valores de datos conocidos y
relacionándolos entre sí.

Todos los días las personas toman decisiones personales o profesionales que nos basamos
en predicciones para sucesos futuros. Por ejemplo, si los responsables de las tomas de
decisiones pueden determinar como lo conocido se relaciona con el futuro pueden ayudar
considerablemente al proceso de toma de decisiones. Ah pues de esto exactamente de eso
se trata la regresión lineal en la estadística la utilizan para poder predecir y avanzar en sus
investigaciones.

Espero sea de su agrado.


DESARROLLO “Regresión Lineal Simple”

Regresión Lineal

 ¿Qué es?
Es una técnica de análisis de datos que predice el valor de datos desconocidos mediante
el uso de otro valor de datos relacionado y conocido. Modela matemáticamente la variable
desconocida o dependiente y la variable conocida o independiente como una ecuación
lineal.
Por ejemplo, supongamos que tiene datos sobre sus gastos e ingresos del año pasado.
Las técnicas de regresión lineal analizan estos datos y determinan que tus gastos son la
mitad de tus ingresos. Luego calculan un gasto futuro desconocido al reducir a la mitad un
ingreso conocido futuro.

 ¿Por qué no es importante?


Son muy populares en diversos campos de investigación gracias a su rapidez y facilidad
de interpretación.
Debido a su capacidad para transformar datos, pueden utilizarse para simular una amplia
gama de relaciones, y debido a su forma, que es más simple que la de las redes
neuronales, sus parámetros estadísticos se analizan y comparan con facilidad, lo que
permite que se les extraiga información valiosa.
No sólo se utiliza con fines de predicción: también ha demostrado su eficacia para
describir sistemas. Si quieres modelar los valores de una variable numérica, tendrás una
lista relativamente corta de variables independientes y, como esperas que el modelo sea
comprensible, es probable que elijas la regresión lineal como herramienta de
modelización.

 Tipos:
a) Simple: Se trata de establecer una relación entre una variable independiente y su
correspondiente variable dependiente. Esta relación se expresa como una línea
recta. No es posible trazar una línea recta que pase por todos los puntos de un
gráfico si estos se encuentran ordenados de manera caótica.
Por lo tanto, sólo se determina la ubicación óptima de esta línea mediante una
regresión lineal. Algunos puntos seguirán distanciados de la recta, pero esta
distancia debe ser mínima. El cálculo de la distancia mínima de la recta a cada
punto se denomina función de pérdida.

La ecuación de una línea recta tiene la siguiente forma:


Y = β₀ + β₁X + ε,
donde:
- Y es la variable independiente.
- β₀ y β₁ son dos constantes desconocidas que representan el punto de
intersección y la pendiente respectivamente.
- ε (épsilon) es la función de pérdida.

A continuación, se muestra un ejemplo gráfico de un modelo de una regresión


lineal simple:

 Aplicación de la regresión lineal simple:


1. Para predecir la cosecha en función de la precipitación, con la precipitación
como variable independiente y la cosecha como variable dependiente.
2. Para saber qué calificación obtendrán los alumnos en función del número de
horas que estudien: aquí la cantidad de horas de estudio representa la
variable independiente y las calificaciones, la dependiente.
3. Para prever el salario basado en la experiencia: la experiencia se convierte
en la variable independiente y el salario en la variable dependiente.
 Limitaciones de la regresión lineal simple:
La regresión lineal simple establece que existe una relación entre las variables,
pero no revela una relación causal: Y depende de, pero no implica que genere
a Y. Si necesitas establecer algo más que la existencia de una relación, tendrás
que hacer análisis adicionales.
b) Múltiple:
Encuentra la relación entre dos o más variables independientes y su
correspondiente variable dependiente.
La ecuación de regresión lineal múltiple tiene la siguiente forma:
Y = β₀ + β₁X₁ + β₂X₂ +… + βₐXₐ + ε
Donde:
- Y es la variable dependiente.
- X es una variable independiente.
- β son coeficientes.
- ε (épsilon) es la función de pérdida.

A continuación, se muestra un ejemplo de gráfico de un modelo de regresión lineal


múltiple:

 Aplicaciones de la regresión lineal múltiple:


Este tipo de regresión permite predecir tendencias y valores futuros.
El análisis de regresión lineal múltiple ayuda a determinar el grado de influencia
de las variables independientes sobre la variable dependiente, es decir, cuánto
cambiará la variable dependiente cuando cambiemos las variables
independientes.
c) Modelo de regresión no lineal
Hay ocasiones en las que la relación que puede darse entre variables
independientes y la variable dependiente no tenga un desarrollo lineal, sino que
tengan, por ejemplo, un crecimiento exponencial.
En esos casos, el modelo de regresión no lineal entra en juego y permite que
obtengamos una aproximación de los valores de la variable dependiente en un
entorno no lineal.
Tengamos presente que el proceso de una regresión no lineal es más complejo, ya
que puede no coincidir el número de parámetros con el de las variables
independientes.

 Programas para un análisis de regresión lineal:

i. JASP: Es un excelente software gratuito de análisis de regresión para Windows y


Mac. Contiene un módulo de regresión con varios métodos de análisis de
regresión. Con ellos puedes analizar fácilmente las variables que afectan a un
tema o área de interés.
ii. PSPP: Es un software gratuito de análisis de regresión para Windows, Mac,
Ubuntu, FreeBSD y otros sistemas operativos. Proporciona métodos de regresión
para estimar un conjunto de datos. Puedes introducir fácilmente un conjunto de
datos en él y luego realizar un análisis de regresión. Los resultados del análisis de
regresión se muestran en una ventana de visualización de resultados con todos los
pasos usados.
iii. Statcato: Es un software de análisis de regresión gratuito y portátil basado en Java
para Windows, Linux y Mac. Para poder ejecutar este software, es necesario tener
instalado Java.
iv. Jamovi: Es otro software gratuito de análisis de regresión para Windows, Linux,
Mac y Chrome OS. Es un software de análisis estadístico agradable, conciso y fácil
de usar, empleado para tareas relacionadas con el análisis de datos.
 Principales hipótesis de la regresión lineal efectiva:
Hipótesis que se deben tener en cuenta para tener éxito con el análisis de la regresión
lineal:
 Para cada variable: Considere el número de casos válidos, la media y la
desviación estándar.
 Para cada modelo: Tenga en cuenta los coeficientes de regresión, la matriz de
correlación, las correlaciones parciales y semiparciales, múltiple R, R2, R2
ajustado, cambio en R2, error estándar de la estimación, tabla de análisis de
varianza, valores previstos y residuales.
Además, considere intervalos de confianza de 95 por ciento para cada
coeficiente de regresión, matriz de varianza-covarianza, factor de inflación de la
varianza, tolerancia, prueba de Durbin-Watson, medidas de distancia
(Mahalanobis, Cook y valores de apalancamiento), DfBeta, DfFit, intervalos de
predicción e información de diagnóstico sobre cada caso.
 Gráficos: Considere diagramas de dispersión, gráficos parciales y de
probabilidad normal, e histogramas.
 Datos: Las variables dependientes e independientes deben ser cuantitativas.
Las variables categóricas, como la religión, el campo principal del estudio o la
región de residencia, deben volver a codificarse para ser variables binarias
(ficticias) u otros tipos de variables de contraste.
 Otras hipótesis: Para cada valor de la variable independiente, la distribución
de la variable dependiente debe ser normal. La varianza de la distribución de la
variable dependiente debe ser constante para todos los valores de la variable
independiente. La relación entre la variable dependiente y cada variable
independiente debe ser lineal; además, todas las observaciones deben ser
independientes.
 Ventajas y Desventajas:

Ventajas Desventajas
La regresión lineal es simple de Por otro lado, en la técnica de regresión
implementar y más fácil de interpretar los lineal, los valores atípicos pueden tener
coeficientes de salida. efectos enormes en la regresión y los
límites son lineales en esta técnica.
Cuando sabe que la relación entre la A la inversa, la regresión lineal asume una
variable independiente y la dependiente relación lineal entre las variables
tiene una relación lineal, este algoritmo es dependientes e independientes. Eso
el mejor para usar debido a su menor significa que asume que hay una relación
complejidad en comparación con otros de línea recta entre ellos. Supone
algoritmos. independencia entre atributos.
La regresión lineal es susceptible de Analiza una relación entre la media de las
sobreajuste, pero se puede evitar variables dependientes y las variables
utilizando algunas técnicas de reducción independientes. Así como la media no es
de dimensionalidad, técnicas de una descripción completa de una sola
regularización (L1 y L2) y validación variable, la regresión lineal no es una
cruzada. descripción completa de las relaciones
entre variables.

 ¿Qué es la regresión lineal en el machine learning?


En el machine learning, los programas de computación denominados algoritmos analizan
grandes conjuntos de datos y trabajan hacia atrás a partir de esos datos para calcular la
ecuación de regresión lineal.
Los científicos de datos primero entrenan el algoritmo en conjuntos de datos conocidos o
etiquetados y, a continuación, utilizan el algoritmo para predecir valores desconocidos.
Los datos de la vida real son más complicados que el ejemplo anterior.
Es por eso por lo que el análisis de regresión lineal debe modificar o transformar
matemáticamente los valores de los datos para cumplir con los siguientes cuatro
supuestos.
 Relación lineal:
Debe existir una relación lineal entre las variables independientes y las
dependientes.
Para determinar esta relación, los científicos de datos crean una gráfica de
dispersión (una colección aleatoria de valores x e y) para ver si caen a lo largo de
una línea recta.
De lo contrario, puede aplicar funciones no lineales, como la raíz cuadrada o el
registro, para crear matemáticamente la relación lineal entre las dos variables.
 Independencia residual:
Los científicos de datos utilizan residuos para medir la precisión de la predicción.
Un residuo es la diferencia entre los datos observados y el valor previsto.
Los residuos no deben tener un patrón identificable entre ellos. Por ejemplo, no
querrá que los residuos crezcan con el tiempo.
Puede utilizar diferentes pruebas matemáticas, como la prueba de Durbin-Watson,
para determinar la independencia residual. Puede usar datos ficticios para
reemplazar cualquier variación de datos, como los datos estacionales.
 Normalidad:
Las técnicas de representación gráfica, como las gráficas Q-Q, determinan si los
residuos se distribuyen normalmente.
Los residuos deben caer a lo largo de una línea diagonal en el centro de la gráfica.
Si los residuos no están normalizados, puede probar los datos para detectar
valores atípicos aleatorios o valores que no sean típicos.
Eliminar los valores atípicos o realizar transformaciones no lineales puede
solucionar el problema.
 Homocedasticidad:
La homocedasticidad supone que los residuos tienen una variación constante o
desviación estándar de la media para cada valor de x.
De lo contrario, es posible que los resultados del análisis no sean precisos. Si no
se cumple esta suposición, es posible que tenga que cambiar la variable
dependiente. Dado que la variación se produce de forma natural en grandes
conjuntos de datos, tiene sentido cambiar la escala de la variable dependiente.
Por ejemplo, en lugar de usar el tamaño de la población para predecir la cantidad
de estaciones de bomberos en una ciudad, podría usar el tamaño de la población
para predecir la cantidad de estaciones de bomberos por persona.

 ¿Cómo funciona?
En esencia, una técnica de regresión lineal simple intenta trazar un gráfico lineal entre
dos variables de datos, x e y.
Como variable independiente, x se traza a lo largo del eje horizontal. Las variables
independientes también se denominan variables explicativas o variables predictivas. La
variable dependiente, y, se traza en el eje vertical.
También puede hacer referencia a los valores y como variables de respuesta o variables
pronosticadas.
Pasos en la regresión lineal
Para esta visión general, tenga en cuenta la forma más simple de la ecuación de gráfico
de líneas entre y x; y=c*x+m, donde c y m son constantes para todos los valores posibles
de x e y.
Así, por ejemplo, supongamos que los datos de entrada para (x, y) era (1,5), (2,8) y
(3,11). Para identificar el método de regresión lineal, debe seguir los siguientes pasos:
Trace una línea recta y mida la correlación entre 1 y 5.
Siga cambiando la dirección de la línea recta para los nuevos valores (2,8) y (3,11)
hasta que se ajusten todos los valores.
Identifique la ecuación de regresión lineal como y = 3*x + 2.
Extrapola o predice que y es 14 cuando x es.

 Etapas:
El procedimiento por seguir puede dividirse en cuatro etapas:
 La primera aproximación es a través de dibujar los puntos en un gráfico cartesiano
que muestre la relación entre las dos variables.
 Luego se determina la ecuación de la línea que mejor describa dichos puntos.
 A continuación, se calcula la variabilidad de la muestra en torno a la línea de
regresión calculada.
 Finalmente se pueden hacer inferencias.
 Sus Beneficios:
o La regresión lineal permite predecir el comportamiento de una variable
(dependiente o predicha) a partir de otra (independiente o predictora).
o Tiene presunciones como la linealidad de la relación, la normalidad, la aleatoriedad
de la muestra y homogeneidad de las varianzas.
o La regresión no prueba causalidad.
o Un artículo que usa regresión debe mencionar o mostrar que se analizó la “nube
de puntos” y que se hizo un análisis de los residuales.
o La línea de regresión no debe extenderse más allá de los datos obtenidos.

 Uso predictivo y de causalidad de la regresión lineal:


La evidencia de asociación entre dos variables en caso alguno implica que una de
ellas sea la causa de la otra.
Esta demostración de causalidad necesita de argumentación que no es matemática
(ver artículo “Tipos de Estudio”). Así, cuando encontramos una asociación
estadísticamente significativa entre dos variables, lo único que podemos afirmar es
que existe una relación, pero no la naturaleza de esta.
En efecto, la relación encontrada puede deberse:
 A que el valor de X sea realmente causa del valor de Y. Por ejemplo, la dosis de
un veneno puede ser la causa del porcentaje de muertes observado en un
grupo de ratas.
 A que ambas variables se influyan mutuamente. Por ejemplo, las estaturas de
pie y sentado.
 A que ambas variables dependan de una tercera variable común. Famoso es el
caso que relacionaba inversamente la producción de acero en USA con la tasa
de natalidad en Inglaterra.

 Inferencia mediante regresión lineal. Significancia e intervalo de confianza para β0 y


β1.
En la mayoría de los casos, aunque el estudio de regresión se aplica a una muestra, el
objetivo último es obtener un modelo lineal que explique la relación entre las dos
variables en toda la población. Esto significa que el modelo generado es una
estimación de la relación poblacional a partir de la relación que se observa en la
muestra y, por lo tanto, está sujeta a variaciones. Para cada uno de los parámetros de
la ecuación de regresión lineal simple (β0 y β1) se puede calcular su significancia (p-
value) y su intervalo de confianza. El test estadístico más empleado es el t-test
(existen alternativas no paramétricas). El test de significancia para la pendiente
(β1�1) del modelo lineal considera como hipótesis:
 H0: No hay relación lineal entre ambas variables por lo que la pendiente del
modelo lineal es cero. β1=0
 Ha: Sí hay relación lineal entre ambas variables por lo que la pendiente del
modelo lineal es distinta de cero. β1≠0. De esta misma forma también se aplica
a (β0).

 Cálculo del estadístico T y del p-value:

El error estándar de β^0 y β^1 se calcula con las siguientes ecuaciones:

La varianza del error σ2 se estima a partir del Residual Standar Error (RSE), que
puede entenderse como la diferencia promedio que se desvía la variable respuesta de
la verdadera línea de regresión. En el caso de regresión lineal simple, RSE equivale a:

 Grados de libertad (df) = número observaciones - 2 = número observaciones -


número predictores – 1.
 p-value = P(|t| > valor calculado de t).

 Intervalos de confianza:

Cuanto menor es el número de observaciones n, menor la capacidad para calcular el


error estándar del modelo. Como consecuencia, la exactitud de los coeficientes de
regresión estimados se reduce.
Esto tiene importancia sobre todo en la regresión múltiple. En R, cuando se genera el
modelo de regresión lineal, se devuelve junto con el valor de la pendiente y la
ordenada en el origen el valor del estadístico t obtenido para cada uno y los p-value
correspondientes.
Esto permite saber, además de la estimación de β0 y β1 , si son significativamente
distintos de 0. Si se desea conocer los intervalos de confianza para cada uno de los
parámetros se pueden calcular con la función conint().

 Residuos del modelo:


El residuo de una estimación se define como la diferencia entre el valor observado y el
valor esperado acorde al modelo. A la hora de sumariar el conjunto de residuos hay
dos posibilidades:
 El sumatorio del valor absoluto de cada residuo.
 El sumatorio del cuadrado de cada residuo (RSS).

Esta es la aproximación más empleada (mínimos cuadrados) ya que magnifica las


desviaciones más extremas. En R, cuando se genera un modelo los residuos
también se calculan automáticamente y se almacenados dentro del modelo.
Cuanto mayor es el sumatorio del cuadrado de los residuos menor la precisión con
la que el modelo puede predecir el valor de la variable dependiente a partir de la
variable predictora.

Los residuos son muy importantes puesto que en ellos se basan las diferentes
medidas de la bondad de ajuste del modelo.
 Bondad de ajuste del modelo:
Una vez que se ha ajustado un modelo es necesario verificar su eficiencia, ya que aun
siendo la línea que mejor se ajusta a las observaciones de entre todas las posibles, el
modelo puede ser malo. Las medidas más utilizadas para medir la calidad del ajuste
son: error estándar de los residuos, el test F y el coeficiente de determinación R2.
Error estándar de los residuos (Residual Standar Error, RSE): Mide la desviación
promedio de cualquier punto estimado por el modelo respecto de la verdadera recta
de regresión poblacional. Tiene las mismas unidades que la variable dependiente Y.
Una forma de saber si el valor del RSE es grande consiste en dividirlo entre el valor
medio de la variable respuesta, obteniendo así un % de la desviación.

En modelos lineales simples, dado que hay un único predictor (n−p−1)=(n−2).

 Coeficiente de determinación R2:


Describe la proporción de variabilidad observada en la variable dependiente Y
explicada por el modelo y relativa a la variabilidad total. Su valor está acotado entre 0
y 1. Al ser adimensional presenta la ventaja frente al RSE de ser más fácil de
interpretar.
En los modelos de regresión lineal simple el valor de R2 se corresponde con el
cuadrado del coeficiente de correlación de Pearson (r) entre X e Y, no siendo así en
regresión múltiple.
Existe una modificación de R2 conocida como R2−ajustado que se emplea
principalmente en los modelos de regresión múltiple. Introduce una penalización
cuantos más predictores se incorporan al modelo.
En los modelos lineales simples no se emplea.
Test F: El test F es un test de hipótesis que considera como hipótesis nula que todos
los coeficientes de correlación estimados son cero, frente a la hipótesis alternativa de
que al menos uno de ellos no lo es.
Se emplea en modelos de regresión múltiple para saber si al menos alguno de los
predictores introducidos en el modelo contribuye de forma significativa.
En modelos lineales simples, dado que solo hay un predictor, el p-value del test F es
igual al p-value del t-test del predictor.

 Condiciones para la Regresión Lineal:


1. Linealidad: La relación entre ambas variables debe ser lineal. Para comprobarlo
se puede recurrir a:
o Graficar ambas variables a la vez (scatterplot o diagrama de dispersión),
superponiendo la recta del modelo generado por regresión lineal.
o Calcular los residuos para cada observación acorde al modelo generado
y graficarlos (scatterplot). Deben distribuirse de forma aleatoria en torno
al valor 0.
2. Distribución Normal de los residuos: Los residuos se tiene que distribuir de
forma normal, con media igual a 0. Esto se puede comprobar con un
histograma, con la distribución de cuantiles (qqnorm() + qqline()) o con un test
de hipótesis de normalidad. Los valores extremos suelen ser una causa
frecuente por la que se viola la condición de normalidad.
3. Varianza de residuos constante (homocedasticidad): La varianza de los
residuos ha de ser aproximadamente constante a lo largo del eje X. Se puede
comprobar mediante gráficos (scatterplot) de los residuos de cada observación
(formas cónicas son un claro indicio de falta de homocedasticidad) o mediante
contraste de hipótesis mediante el test de Breusch-Pagan.
4. Valores atípicos y de alta influencia: Hay que estudiar con detenimiento los
valores atípicos o extremos ya que pueden generar una falsa correlación que
realmente no existe, u ocultar una existente. (Ver descripción detallada en la
sección de apuntes varios).
5. Independencia, Autocorrelación: Las observaciones deben ser independientes
unas de otras. Esto es importante tenerlo en cuenta cuando se trata de
mediciones temporales. Puede detectarse estudiando si los residuos siguen un
patrón o tendencia. Otro caso frecuente es el de tener varias mediciones para
un mismo sujeto. En estos casos, primero se obtiene la media de cada uno y
después se ajusta el modelo empleando las medias. Dado que las condiciones
se verifican a partir de los residuos, primero se suele generar el modelo y
después se valida. De hecho, el ajuste de un modelo debe verse como un
proceso iterativo en el que se ajusta un modelo inicial, se evalúa mediante sus
residuos y se mejora. Así hasta llegar a un modelo óptimo.

 Validación del modelo de regresión:


Una vez calculados los coeficientes, debemos calcular sus intervalos de confianza o
su nivel de significación estadística, ya que solo si ambos coeficientes son
estadísticamente significativos podremos aplicar el modelo a nuestra población.
Para ello, plantearemos un contraste de hipótesis para los dos coeficientes de la recta
con la hipótesis nula de que su valor en la población es cero. Este contraste puede
hacerse de dos formas:
o Si dividimos cada coeficiente por su error estándar, obtendremos un estadístico
que sigue una distribución de la t de Student con n – 2 grados de libertad.
Podemos calcular el valor de p asociado a ese valor y resolver el contraste de
hipótesis rechazando la hipótesis nula si el valor de p <0,05.
o Una forma un poco más compleja es fundamentar este contraste de hipótesis
sobre un análisis de la varianza (ANOVA), considerando que la variabilidad de
la variable dependiente se descompone en dos términos: uno explicado por la
variable independiente y otro no asignado a ninguna fuente y que se considera
no explicada (aleatoria).
En cualquier caso, no debemos preocuparnos por los detalles del contraste, ya
que habitualmente utilizaremos un programa informático para realizarlo.
CONCLUSION

En el siguiente trabajo me fue de gran utilidad ya que logre identificar y entender que es la
regresión lineal simple.

Entendí que esta describe la relación entre varias variables: una que es la variable
dependiente y una o varias variables independientes. Debido a la rapidez de creación y su
facilidad de interpretación, los modelos de regresión lineal son ampliamente utilizados con
éxito en los distintos ámbitos, como para hacer previsiones para describir sistemas.

La ecuación de regresión lineal indica el valor esperado o medio de la variable dependiente


con relación a las independientes. Para obtenerla se emplean los datos muestrales y el
método de mínimos cuadrados.

Creo que este tema es muy útil cuando analizamos nuestros datos ya que con el podemos
encontrar patrones de secuencia.

El tema es bastante complemento y en cierto punto similar a la unidad pasada ya que


hablamos del tema de las hipótesis. Aquí también nos involucramos con más factores. Que
nos ayuda a obtener distintos supuestos o diagnósticos que facilita a reflejar dichos
resultados para el problema y en base a eso tomar la decisión .

Aunque logre comprender el tema, siento que me falta ponerlo en práctica, ya que se
necesita entender mejor, ya que es mucha teoría y distintas maneras de representarlo. Por
eso es mejor que lo ponga en práctica y refuerze mis conocimientos junto con la teoría.
REFERENCIAS

ML: ventajas y desventajas de la regresión lineal. (2022). Barcelona Geeks. Rudeus Greyrat.
Recuperado 27 de octubre de 2023, de https://barcelonageeks.com/ml-ventajas-y-
desventajas-de-la-regresion-lineal/

Regresión lineal. (2023). IBM . Recuperado 27 de octubre de 2023, de


https://www.ibm.com/mx-es/analytics/learn/linear-regression

¿Qué es la regresión lineal? (2022). AWS. Recuperado 27 de octubre de 2023, de


https://revistachilenadeanestesia.cl/inferencia-estadistica-pruebas-de-hipotesis/

REGRESIÓN LINEAL (2014). Revista Chilena de Anestesia. Recuperado 27 de octubre de


2023, de https://revistachilenadeanestesia.cl/regresion-lineal/#:~:text=La%20regresi
%C3%B3n%20lineal%20permite%20predecir,otra%20(independiente%20o%20predictora).

Correlación y Regresión lineales simple. (2016).Ciencia de Datos. Joaquín Amat Rodrigo


Recuperado 27 de octubre de 2023, de
https://cienciadedatos.net/documentos/24_correlacion_y_regresion_lineal

También podría gustarte