Está en la página 1de 9

“AÑO DE LA UNIDAD, LA PAZ Y EL DESARROLLO””

UNIVERSIDAD NACIONAL DE PIURA

FACULTAD DE INGENIERÍA
INDUSTRIAL

“Escuela profesional de Ingeniería


agroindustrial e industrias alimentarias”

Asignatura:

INFERENCIA Y PROBABILIDADES

Docente:

FIESTAS ZEVALLOS JOSE CARLOS

Integrantes:

ANTÓN FIESTAS JUNIOR DAVID

BERMEO ESPINOZA JHON RONALDO

CARRION SANTUR RENSO JAMPIER

MORE SANCHEZ DONALD LEONARDO

RONDOY CULQUICONDOR ISAURA YADIRA

2023-I

Piura, Perú
INDICE
INTRODUCION
HISTORIA
EL MODELO DE REGRESIÓN LINEAL
SUPUESTOS DEL MODELO DE REGRESIÓN LINEAL
TIPOS DE REGRESIÓN
 Regresión lineal simple
 Regresión Múltiple
REFERENCIAS BIBLIOGRAFICAS
INTRODUCION
Los Modelos de Regresion Lineales han sido usados durante décadas tanto intensiva como
extensivamente en aplicaciones Estadísticas. Llamamos Modelos Lineales a aquellas situaciones
que después de haber sido analizadas Matemáticamente, se representan por medio de una
función lineal, los cuales son lineales en los parámetros desconocidos e incluyen un componente
de error. El componente de error es el que los convierte en Modelos Estadísticos. Estos modelos
son la base de la metodología que usualmente llamamos Regresión Múltiple. Por esta razón el
manejo de los Modelos Lineales es indispensable para comprender y aplicar correctamente los
Métodos Estadísticos. En algunos casos el modelo coincide precisamente con una recta; en otros
casos, a pesar de que las variables que interesan no pertenecen todas a la misma línea, es posible
encontrar una función lineal que mejor se aproxime al problema, ayudando a obtener información
valiosa. Un Modelo Lineal se puede determinar de manera gráfica o bien, por medio de una
ecuación. Existen ocasiones en que en una de las variables se quiere que cumpla varias
condiciones a la vez, entonces surge un conjunto de ecuaciones donde el punto de intersección de
dichas ecuaciones representa la solución del problema
HISTORIA
La primera forma de regresiones lineales documentada fue el método de los mínimos cuadrados,
el cual fue publicado por Legendreen1805, y por Gaussen1809.

El término "mínimos cuadrados" proviene de la descripción dada por Legendre "moindres carrés".
Sin embargo, Gaussa seguró que conocía dicho método desde1795.Tanto Legendre como Gauss
aplicaron el método para determinar, a partir de observaciones astronómicas, las órbitas de
cuerpos alrededor del sol. En1821, Gauss publicó un trabajo en dónde desarrollaba de manera
más profunda el método de los mínimos cuadrados, y en dónde se incluía una versión del teorema
de Gauss-Márkov

EL MODELO DE REGRESIÓN LINEAL

donde:

 𝑌 =es la variable dependiente o variable de respuesta.

 𝑥1 , 𝑥2 ; … … . … 𝑥𝑚 son las variables explicativas, independientes o regresoras

 𝐵0 , 𝐵1 , 𝐵2 , … … . … 𝐵𝑚 son los parámetros del modelo, miden la influencia que las variables
explicativas tienen sobre el regrediendo.

el término 𝐵0 es la intersección o término "constante", las 𝐵𝑖 (𝑖 ≤ 1) son los parámetros


respectivos a cada variable independiente, y 𝑚 es el número de parámetros independientes a
tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no
lineal.

Ejemplo de una regresión lineal con una variable dependiente y una variable independiente.
La regresión lineal es una técnica estadística utilizada para modelar la relación entre una variable
dependiente y una o más variables independientes. Se usa comúnmente para predecir el valor de
una variable en función del valor de otra variable. El objetivo de la regresión lineal es encontrar la
línea de mejor ajuste que minimice la suma residual de cuadrados entre los valores predichos y los
valores reales.

El análisis de regresión lineal se utiliza para predecir el valor de una variable en función del valor
de otra variable. La variable que desea predecir se llama variable dependiente. La variable que
estás usando para predecir el valor de la otra variable se llama variable independiente.

Esta forma de análisis estima los coeficientes de la ecuación lineal, involucrando una o más
variables independientes que predicen mejor el valor de la variable dependiente. La regresión
lineal se ajusta a una línea recta o superficie que minimiza las discrepancias entre los valores de
salida previstos y reales. Existen calculadoras de regresión lineal simples que utilizan un método
de "mínimos cuadrados" para descubrir la línea que mejor se ajusta a un conjunto de datos
emparejados. Luego estima el valor de X (variable dependiente) a partir de Y (variable
independiente)

En la regresión lineal simple, solo hay una variable independiente, mientras que en la regresión
lineal múltiple, hay múltiples variables independientes. Se supone que la relación entre la variable
dependiente y las variables independientes es lineal, lo que significa que la relación se puede
representar mediante una línea recta.

SUPUESTOS DEL MODELO DE REGRESIÓN LINEAL

1. Linealidad en las variables: en algunos casos, el supuesto de que la determinación de los


valores del gasto en consumo, 𝐶𝑖 , a partir de los de la renta, 𝑌𝑖 , se produce a través de un
modelo lineal es excesivamente restrictiva, pues creemos que el modelo de relación es
más bien no lineal. Examinaremos en el próximo capítulo una variedad de modelos
alternativos al lineal que aquí analizamos. Sin embargo, en la mayoría de estos casos, el
modelo lineal es nuevamente una buena aproximación al verdadero modelo, no lineal, de
Relacion entre variable dependiente e independiente. El caso quizás más paradigmático de
no linealidad, surge cuando se cree que el porcentaje de aumento en renta disponible que
se transmite a consumo, no es constante, sino que decrece con el nivel de renta. Nótese
que el modelo lineal tiene la propiedad de que el cociente de incrementos consumo/renta
disponible o, si se prefiere, la derivada del consumo con respecto a la renta disponible, es
1, constante y, por ello, independiente del nivel de renta. Se tendría una Relacion muy
distinta con un modelo del tipo:

𝐶𝑖 = 𝐵0 + 𝐵1 𝑌1 − 𝐵2 𝑌 2 + 𝑢𝑖 : 𝑖 = 1,2, … … . . , 𝑛
2. Linealidad en los parámetros: muy diferente es la situación en que los parámetros entran
en la relación entre variable dependiente e independientes de modo no lineal. El
tratamiento que requieren tales modelos, con excepción de algunos casos sencillos, es
sustancialmente más complejo, por lo que no es discutido en este texto.
3. Esperanza matemática nula: suponemos que la esperanza matemática del término de
error 𝑢𝑖 del modelo es cero: 𝐸(𝑢𝑖 ) = 0; 1,2, … … . . , 𝑛. Si, por el contrario, tuviésemos
𝐸(𝑢𝑖 ) = 𝑎 ≠ 0, , Éste sería un efecto constante sobre 𝑌𝑖 𝑦, por ello, determinista 𝑦
debería incluirse como parte del termino constante 𝐵0 en (1) Una situación en que este
supuesto no se cumpliría es cuando el investigador, por error, omite del modelo una
variable explicativa relevante. Así, supongamos que en vez de especificar el modelo
𝑦𝑖 = 𝐵0 + 𝐵1 𝑥1 + 𝐵2 𝑥2𝑡 + 𝑢𝑡 : 𝑡 = 1,2, … … . . , 𝑇

4. Ausencia de auto correlación: además, suponemos que los términos de error


correspondientes a dos observaciones muéstrales cualesquiera, que son dos variables
aleatorias diferentes, son estadísticamente incorrelacionadas (auto correlación espacial en
un corte transversal de datos ordenados geográficamente).

TIPOS DE REGRESIÓN

Regresión lineal simple

En una regresión lineal, se trata de establecer una relación entre una variable independiente y su
correspondiente variable dependiente. Esta relación se expresa como una línea recta. No es
posible trazar una línea recta que pase por todos los puntos de un gráfico si estos se encuentran
ordenados de manera caótica. Por lo tanto, sólo se determina la ubicación óptima de esta línea
mediante una regresión lineal. Algunos puntos seguirán distanciados de la recta, pero esta
distancia debe ser mínima. El cálculo de la distancia mínima de la recta a cada punto se denomina
función de pérdida.

La ecuación de una línea recta tiene la siguiente forma:

𝑌 = 𝐵0 + 𝐵1 𝑋+∈
donde:

 Y es la variable independiente.
 β₀ y β₁ son dos constantes desconocidas que representan el punto de intersección y la
pendiente respectivamente.
 ε (epsilon) es la función de pérdida.

A continuación, se muestra un ejemplo gráfico de un modelo de una regresión lineal simple:


Aplicación de la regresión lineal simple:
Para predecir la cosecha en función de la precipitación, con la precipitación como variable
independiente y la cosecha como variable dependiente.

Para saber qué calificación obtendrán los alumnos en función del número de horas que estudien:
aquí la cantidad de horas de estudio representa la variable independiente y las calificaciones, la
dependiente.

Para prever el salario basado en la experiencia: la experiencia se convierte en la variable


independiente y el salario en la variable dependiente.

Limitaciones de la regresión lineal simple:


La regresión lineal simple establece que existe una relación entre las variables, pero no revela una
relación causal: Y depende de, pero no implica que genere a Y.

Si necesitas establecer algo más que la existencia de una relación, tendrás que hacer análisis
adicionales.

Regresión Múltiple
La regresión lineal múltiple encuentra la relación entre dos o más variables independientes y su
correspondiente variable dependiente.

Un modelo de regresión lineal múltiple es un modelo estadístico versátil para evaluar las
relaciones entre un destino continuo y los predictores. Los predictores pueden ser campos
continuos, categóricos o derivados, de modo que las relaciones no lineales también estén
soportadas

La ecuación de regresión lineal múltiple tiene la siguiente forma:

𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 𝑋2 + ⋯ +∈

Donde:
 Y es la variable dependiente.
 X es una variable independiente.
 β son coeficientes.
 ε (épsilon) es la función de pérdida.

A continuación, se muestra un ejemplo de gráfico de un modelo de regresión lineal múltiple:

Aplicaciones de la regresión lineal múltiple:

Este tipo de regresión permite predecir tendencias y valores futuros. El análisis de regresión lineal
múltiple ayuda a determinar el grado de influencia de las variables independientes sobre la
variable dependiente, es decir, cuánto cambiará la variable dependiente cuando cambiemos las
variables independientes.

Hay varios supuestos asociados con la regresión lineal múltiple, incluida la linealidad, la
independencia de los errores, la homocedasticidad (varianza constante de los errores) y la
normalidad de los errores. Estos supuestos deben verificarse y, si se violan, es posible que se
necesiten transformaciones o ajustes apropiados.

La regresión lineal múltiple se puede implementar en varios lenguajes de programación, como


Python, R o MATLAB. Las bibliotecas como scikit-learn en Python y la función lm() en R brindan
funciones convenientes para ajustar múltiples modelos de regresión lineal.
REFERENCIAS BIBLIOGRAFICAS

Saavedra, J. A. (2023). Regresión lineal: teoría y ejemplos. Ebac. https://ebac.mx/blog/regreson-


lineal#:~:text=La%20regresi%C3%B3n%20lineal%20es%20un,utilizado%20en%20el%20aprendizaje
%20autom%C3%A1tico

colaboradores de Wikipedia. (2023). Regresión lineal. Wikipedia, la enciclopedia libre.


https://es.wikipedia.org/wiki/Regresi%C3%B3n_lineal

Regresión lineal. (s. f.). Scribd. https://es.scribd.com/document/353588784/Regresion-Lineal

Novales, A. (s/f). Análisis de Regresion. Ucm.es. Recuperado el 16 de agosto de 2023, de


https://www.ucm.es/data/cont/docs/518-2013-11-13-Analisis%20de%20Regresion.pdf

También podría gustarte