Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Otros:
Aprendizaje con refuerzo
Sistemas recomendadores
Además se mencionará consejos prácticos para aplicar
algoritmos de aprendizaje.
Aprendizaje
Supervisado
Predicción de precios de
casas
Predicción de precios de
casas
Predicción de precios de
casas
Aprendizaje supervisado
Las “Respuestas correctas” son dadas.
Problema de regresión: predice valores continuos.
Otro ejemplo: Cáncer de
pecho (malignos o benignos)
Otro ejemplo: Cáncer de
pecho (malignos o benignos)
Aprendizaje supervisado
Problema de clasificación: predice valores discretos.
Valores: 0,1,2,3 (0-benigno, 1-tipo, 2-tipo, 3- maligno)
Otro ejemplo: Cáncer de
pecho (malignos o benignos)
Ejemplo considerando 2 características
(edad y tamaño del tumor)
Ejemplo considerando 2 características
(edad y tamaño del tumor)
Ejemplo considerando 2 características
(edad y tamaño del tumor)
Grosor del grupo
Uniformidad en el tamaño de las células
Uniformidad en la forma de las células
Etc
Ej. Estás llevando una compañía y quieres desarrollar algoritmos
de aprendizaje para apuntar cada uno de los 2 problemas
siguientes:
Problema 1: Tienes un gran inventario de items idénticos. Quieres
predecir cuántos de los items se venderán en los siguientes 3
meses.
Problema 2: Quieres que tu SW examine cuentas personales de
clientes, y por cada cuenta decidir si ha sido hackeada o
comprometida
Notación:
m = Nro. de ejemplos de entrenamiento
x = variable de entrada / características
y = variable de salida / variable objetivo
(x, y) Un ejemplo de entrenamiento
Θi : parámetros
¿Cómo escoger los Θi parámetros?
Idea: escoger θ0 y θ1 tal que hθ(x) sea cercano a ‘y’
para nuestros ejemplos de entrenamiento (x,y)
Función de Costo
Función de costo:
1 m
J( 0 ,1)
2m i1
(h (x (i) ) y (i) ) 2
m
J(1) (1x y ) (0 0 0 ) 0
1 (i) (i) 2 1 2 2 2 J(1)=0
2m i1 2m
hθ(x) J(θ1)
y(i)
hθ(x(i))
m J(0.5)=0.58
J(1) (1x y ) ((0.5 1) (12) (1.5 3) ) 0.58
1 (i) (i) 2 1 2 2 2
2m i1 2x3
hθ(x) J(θ1)
y(i)
hθ(x(i))
m J(0)=2.3
J(1) (1x y ) ((10) (2 0) (30) ) 2.3
1 (i) (i) 2 1 2 2 2
2m i1 2x3
hθ(x) J(θ1)
y(i)
hθ(x(i))
minimizar J(θ1)
Ahora volvemos con el problema inicial, sin simplificar
minimizar asumiendo θ0= 0.
hθ(x) J(θ0,θ1)
Al tener 2 parámetros,
La función se vuelve una
en 3D vista en el sig. slide.
h (x) 500.06x
J(θ0,θ1)
Θ0 = 360
Θ1 = 0
hθ(x) J(θ0,θ1)
hθ(x) J(θ0,θ1)
Se requeriría un algoritmo eficiente que calcule
automáticamente los valores para θ0 y θ1 que minimice
la función J.
El Algoritmo:
Empezar por algún valor para θ0,θ1
Ir cambiando θ0,θ1 para reducir J(θ0,θ1) hasta llegar a un
mínimo local
Algoritmo Gradient Descent
Repetir hasta que converja {
(para j=0 y j=1)
Matriz: Vector:
Regresión lineal con
múltiples variables
Notación a usar
n = número de características
x2 = nro de habitaciones / 5
x2 = ( nro habitaciones – 2 ) / 5
Si θ € Rn+1:
Ejemplo
m=4
m x (n+1) m-dim
Caso general
m ejemplos (x(1),y(1)),…, (x(m),y(m)), con n características
Octave
Lenguaje de programación parecido a Matlab, pero
OpenSource.
nxn , O(n3)
n <= 10 000
No inversabilidad
¿Qué pasaría si XTX no es posible invertir?
Hay 2 motivos:
Características redundantes (linealmente dependientes). Ej. x1
= tamaño en pies2 , x2= tamaño en m2
Demasiadas características (m <= n). Ej. 10 ejemplos de
entrenamiento y 100 parámetros θ.
Para solucionarlo se puede borrar algunas características o
usar Regularización.
Ejercicios
Problema 1
Problema 2
Problema 3
Problema 4
Problema 5
Problema 6
Problemas 6 al 10
Problema 7
Problema 8
Problema 9
Problema 10
Problema 11
Problema 12
Problema 13
Problema 14
Problema 15
Problemas en Octave
Problema 2
Problema 3
Problema 4
Problema 5