Está en la página 1de 9

REGRESIÓN MÚLTIPLE

Brenda Sarahi Or tiz Solís

Matricula: 1817454
Modelo de La regresión lineal múltiple permite generar un modelo
lineal en el que el valor de la variable dependiente o
respuesta (YY) se determina a partir de un conjunto de
variables independientes llamadas predictores
regresión lineal (X1X1, X2X2, X3X3…)

La ecuación de la regresión lineal múltiple es de la


múltiple siguiente forma:

Puede ser representado como:

Y las instancias:
Cada una de nuestras entradas X (temperatura,
velocidad del viento y presión) debe formar una
Data set de relación lineal con nuestra salida y (humedad) para
que nuestro modelo de regresión lineal múltiple sea

ejemplo preciso.

  1 9.472 14.1197 1015.13


1
X= 1
1

[ 9.3 55
9.377
8.288

14.2646
3.9284
14.1036

1015.63
1015. 94
1016.4 1

]
0.89

y=
[ 0.86
0.89
0.83
…˙
]
Grafi ca de dispersión:

Resultados

ŷ = 1.14–0.031𝑥 ¹- 0.004𝑥 ²
E s u n o de l o s m ét o do s u ti l iza do s pa ra cal cu l a r , est i ma l o s
va lo res desco n o ci do s en u n m o del o de reg resi ó n l in ea l

O bjetivo : Mi n i m iza r el erro r

D eri va n do y despeja ndo se o bt ien e:

Mínimos
Cuadrados  

Ordenados
  1  
9.472 14.1197 0.89
1015.13
1
X= 1
1

[ 9.3 55
9.377 y
8.288

14.2646
3.9284
=
14.1036

[ ]0.86
1015.63
0.89
1015.
0.83
1016.4
… …
94
1
˙
]
El método del descenso por gradiente es un
algoritmo de optimización que permite converger

Descenso hacia el valor mínimo de una función mediante


un proceso iterativo.

por El proceso puede ser fácil:

gradiente

O puede ser difícil:


Pasos :

Par tien do de n u estro error a min im iza r

Método
Su stituimos los va lores de y gorrito

 
1. Inicia liz amos nuestro parám etros 𝜃 (m y c ) y el
learnin g ra te (L)

m =0 c =0 L=0.0001

2. Calc ulam os la s derivada s parc iales de la


fu nc ión de costo respec to a m y c

Dm es la der ivada parcia l respec to a m


Dm es la derivada parcial respecto a c

Método

3. Actualizamos los valores de m y c usando


la ecuación:

4. Iteramos el proceso hasta que nuestra


función tenga un valor muy pequeño -> 0
Los valores m y c fi nales serán nuestros
valores óptimos.
[1] Regresión Múltiple

https://ichi.pro /es /regresion-lineal-multipl


e-en-python-21324445754792

[2] Mínimos cuadrados ordenados


Referencias https://www.cienciadedatos.net /documento
s /py10-regresion-lineal-python.html

[3] Descenso por gradiente


https://turing.iimas.unam.mx /~ivanvladimir
/posts /gradient_descent /

También podría gustarte