Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Para este análisis se debe tener en cuenta, que existen varios métodos estadísticos que se
usan cuando la variable de respuesta y las variables predictivas son continuas y se quiere
predecir los valores de la primera respuesta en función de las secundarias. En conclusión,
el análisis de regresión es ajustar un modelo a los datos valorando los coeficientes a partir
de los análisis observados, para que con esto se pueda predecir valores de la variable de
respuesta de una o más variables predictivas.[ CITATION Pab16 \l 12298 ]
Identificar que con una variable de respuesta se relaciona con las variables
predictivas.
Describir el modelo de la relación de las variables de respuesta y predictivas y buscar
la derivada de una función matemática optima que represente un modelo matemático
para esa relación.
Pronosticar la variable de respuesta con la ayuda de las variables explicativas o
predictoras.
Tipos de Regresión
1. Lineal simple
Se le denomina regresión lineal simple cuando solo existe una variable independiente.
Depende del argumento, a la variable de modelo se le conoce como variable de respuesta, y
a las variables independientes como regresores, predictores o features. [ CITATION Joa20 \l
12298 ]
Y =a+a X 1
2. Lineal múltiple
La regresión lineal múltiple se enfoca en ajustar los modelos lineales entre una variable
dependiente y más de una variable independiente. En este tipo de modelos es importante
resaltar la heterocedasticidad, la multicolinealidad y la especificación. [ CITATION Mon16 \l
12298 ]
Y =a1 X 1+ a2 X 2 +b
3. Polinomial
La Regresión Polinomial es un método especial de regresión lineal, se extiende el modelo
lineal al adicionar variables predictoras adicionales, conseguidos al aumentar cada uno de
los predictores originales a una potencia.[ CITATION Lig19 \l 12298 ]
Y =a X 1 +a X 22 +b
4. Logística
Es una técnica estadística multivariante que permite evaluar la relación que existe entre
una variable dependiente no métrica, de particularidad dicotómica y un conjunto de
variables independientes métricas o no métricas.
Para este método, tiene la forma del siguiente modelo.
Y = β0 + β 1 x i + ε i para i=1,2 , … ,n
Por tanto, se deduce:
Si Y =1 , ε i =1−β 0−β 1 x i
SiY =0 , ε i=−β 0−β 1 xi
Por lo que ε i, no puede llevar distribución normal porque toma valores discretos. [ CITATION
lle04 \l 12298 ]
Viajar a lo largo de una gradiente de error MSE es equivalente a viajar a lo largo de una
gradiente de error RMSE, pero con la diferencia de la tasa de flujo, ya que esta tasa de flujo
depende de la puntuación del error MSE en sí.
Resumiendo, aunque los errores RMSE y los MSE son muy similares en términos de
puntuación, no pueden ser intercambiables de una manera inmediata para métodos que se
enfocan en gradientes.[ CITATION sit19 \l 12298 ]
Error absoluto medio (MAE)
En el error MAE se calcula como si seria un promedio de diferencias absolutas entre los
valores de predicción y los valores objetivos. El error MAE es una puntuación lineal, por lo
que significa que se ponderan por igual todas las diferencias en el promedio. Se calcula
matemáticamente por la siguiente ecuación.
N
1
M A E= ∑| y i− ^y i|
N i=1
Lo que lo hace mas importante a esta métrica es que penaliza errores gigantes no tan mal
como lo haría un error MSE. Por esto, no es tan sensitivo a los valores atípicos como en el
error cuadrático medio.
Una importancia acerca del error MAE, es sus gradientes con lo que respecta a las
predicciones. El gradiend es una función de pasos y se torna -1 cuando Y_hat es mas
pequeño que el resultado objetivo y +1 cuando este es mas grande que el resultado objetivo.
Se debe tener en cuanta que, si se desea obtener una predicción constante, la mejor opción
sería el valor de la mediana de los valores de resultado objetivo. Esta se puede encontrar
realizando la derivada del error total con respecto a la constante cuando tiende a 0, y se
puede así descubrir a partir de la ecuación mencionada. [ CITATION sit19 \l 12298 ]
R al cuadrado (R2)
Otra medida que se puede utilizar para examinar un modelo es el R 2 y que está
estrechamente en relación con el error MSE, pero esta tiene la ventaja de estar a libre de
escala, en este no interesa si los valores de salida son muy grandes o pequeños, el método
R2 estará siempre entre -∞ y 1.
Cuando R2 tiende a ser negativo, solo puede significar que el modelo es peor que la
predicción de la media. El modelo matemático de esta ecuación es la siguiente.
MSE ( model )
R2=1−
MSE ( baseline )
Donde el MSE(model) se calcula como se lo hizo anteriormente y el MSE(baseline) se da por
la siguiente ecuación:
N
1 2
MSE (baseline)= ∑ ( y i− ý )
N i=1
Donde ý es la media y observada.
Para estar un poco mas claro, se puede decir que a esta MSE(baseline) hace como referencia
de una MSE que obtendría un modelo mucho más simple. Esto quiere decir que seria un
modelo que predice siempre el promedio de todos los casos muestra. Un resultado cercano a
1 indicaría un modelo con error cercano a cero, y un resultado cercano a cero indicaría un
modelo cercano a MSE(baseline).[ CITATION sit19 \l 12298 ]
Se debe tener en cuenta la asimetría que se proyectan de las curvas de error. Desde el
punto de vista del error métrico RMSLE, es mejor siempre predecir mas valores de la misma
cantidad que valores menos que del objetivo. Se llega a la conclusión que el error RMSLE
penaliza una aproximación poco predicha más que una aproximación sobre pronosticada.
[ CITATION Sit19 \l 12298 ]
Constantes optimas de las diferentes métricas
Tabla 1: Constantes óptimas para diferentes métricas de evaluación de regresión
Metrica Datos
Constantes
s x y
MSE 11 … 5
RMSLE 9.11 … 9
MAE 8 … 8
MSPE 6.6 … 6
MAPE 6 … 27
Observaciones:
La constante optima del error RMSLE resulta ser mas alta que las constantes tanto para el error
MAPE como para el error MSPE.
El error MSE esta bastante inclinada hacia el valor enorme del conjunto de datos ingresados, en
cambio que el error MAE es mucho menos inclinada.
Los errores MSPE y MAPE se orientan a resultados objetivos mas pequeños ya que a estos se
asiganan mayor peso al objeto de entrada.
El error RMSLE esta considerado frecuentemente como mejor metrica que la del error MAPE, ya
que no esta tan orientado a objetivos pequeños, pero que funciona muy bien con errores relativos.
[ CITATION Sit19 \l 12298 ]
Referencias
[1] P. Pablo Vinuesa, «Welcome to Pablo Vinuesa's Research and Teaching Site,» Google
Scholar, 22 Octubre 2016. [En línea]. Available:
https://www.ccg.unam.mx/~vinuesa/R4biosciences/docs/Tema9_regresion.html.
[Último acceso: 9 Junio 2021].
[4] L. Gonzalez, «Aprende IA,» Copyright © 2021 Aprende IA, 11 Enero 2019. [En línea].
Available: https://aprendeia.com/algoritmo-regresion-polinomial-machine-learning/.
[Último acceso: 9 Junio 2021].
[5] lleon, «La Biblioteca Central 'Pedro Zulen' de la Universidad Nacional Mayor de San
Marcos,» 31 Marzo 2004. [En línea]. Available:
https://sisbib.unmsm.edu.pe/bibvirtualdata/Tesis/Basic/Salcedo_pc/enPDF/Cap2.P
DF. [Último acceso: 9 Junio 2021].