Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aprendizaje Supervisado
MiM + Analytics
Regresión
Clasificación
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
I Fácil de estimar.
Y = β0 + β1 X +ε.
| {z }
f (X ;β0 ,β1 )
Y = β0 + β1 X1 + β2 X2 + · · · + βp Xp +ε,
| {z }
f (x;β0 ,...,βp )
I Validación modelo:
I In sample: Ra2 = 1 − (1 − R 2 )(n − 1)/(n − p − 1).
M
X
RSE = (yj − ybj )2 , o el Ra2 fuera de la muestra.
j=1
I Si además:
I Asumimos que los errores son independientes y N(0, σ 2 ):
Y |x ∼ N(xT β, σ 2 )
Y |x ∼A N(xT β, σ 2 ).
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
Y = XB + E,
ls(y~x, data)
#data en formato "dataframe"
lsfit(x, y, intercept = TRUE)
#"x" e "y" en formato "matrix".
I Regularización: glmnet(...family=“mgaussian”).
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
Métodos automáticos de selección
Shrinkage methods
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
Y = 1 + 2x − sin(6x) +N(0, 2)
| {z }
f (x)
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
Métodos automáticos de selección
Shrinkage methods
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
M0 = {f (X1 , . . . , Xp ) = β0 }.
Output:
rsq: The r-squared for each model.
rss: Residual sum of squares for each model.
adjr2: Adjusted r-squared.
cp: Mallow C (AIC).
bic: Bayes information criterion.
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
Métodos automáticos de selección
Shrinkage methods
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
b ridge = argmin
β RSS(b1 , . . . , bp ) +λ ||b||22
λ
b1 ,...,bp | {z } | {z }
Bias Variance
b ridge = β
I En el caso de diseños ortonormales: β b MCO /(1 + λ).
λ
b ridge → β
I A medida que λ → 0, β b MCO .
λ
I Variables estandarizadas.
De manera equivalente y compacta:
lasso
β̂ λ = argmin RSS(b1 , . . . , bp ) + λ||b||1
b1 ,...,bp
install.packages(’glmnet’)
library(glmnet)
alpha = 0 (Ridge).
alpha = 1 (LASSO).
alpha en (0,1) (ENet).
Output:
Coeficientes estimados para cada valor de lambda.
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
I 1 + b1 + · · · + bp parámetros a aprender.
I k nodos {a ≤ ν1 ≤ ν2 ≤ · · · ≤ νk ≤ b}.
Regresión
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
log(Verosimilitud modelo)
pseudo-R 2 de McFadden: 1− .
log(Verosimilitud del modelo null)
TP TN
Sensibilidad (TPR) = vs. Especificidad (TNR) = .
P N
I Ridge: q = 2, LASSO: q = 1.
G. Martos Modelos Lineales y Extensiones UTDT 63 / 80
Regresión logı́stica en R
### Librerı́a glm:
# Parámetros sensibles:
formula, data: especificación y datos.
family =
- Modelo logı́stico: binomial(link = "logit")
- Regresión lineal: gaussian(link = "identity")
- Modelo de conteo: poisson(link = "log")
I One–vs–all: C modelos de
una clase contra las restantes.
Predecimos la observación
nueva en la clase con mayor
probabilidad estimada.
I One–vs–one: Entrenamos
C (C − 1)/2 modelos de una
clase contra otra. Predicciones
por voto y mayorı́a (puedes
utilizar los tresholds a–priori).
I Computacionalmente eficientes.
I Inferencia (supuestos).
Regresión
Modelos lineales (refresh)
Modelos lineales multitarget
Selección y Regularización de modelos lineales
De los modelo lineales a los modelos aditivos
Clasificación
Regresión logı́stica
Otras técnicas lineales para clasificación
yb = sign{wT x − c}.
b −1 (c
I w=Σ µ1 − µ
b −1 ).
I c = 21 (log π
bT
−µ b −1 b + µ
bT b −1 b ).
−1 Σ µ 1Σ µ
b1
π
b−1 −1 −1
I π
b−1 y πb1 son simplemente las frecuencias observadas de −1 y
1 en la muestra de Train (est. puntuales de prob. apriori).
# Discriminante lineal
lda(formula, data, ..., subset, na.action)
# Discriminante cuadrático
qda(formula, data, ..., subset, na.action)
# Parámetros sensibles:
formula, data: especificación y datos.
weights, subset, na.action: opciones standard de mod lin.
control = glm.control(epsilon = 1e-8, maxit = 25)
method = método para estimar medias y covarianzas
- ’mle’: maxima verosimilitud.
- ’moment’: método de momentos.
- ’mve’: método robusto (aconsejable).
CV = si es igual a TRUE estima por LOOCV.
Regresión
Clasificación