Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Negocios
Minería de Datos
Unidad 4: Evaluación y Selección de Modelos
Relator: Christian Pieringer
Aprendizaje de máquina persigue que
programas sean mejores en una tarea
2
Hemos visto dos grandes tipos de
algoritmos de aprendizaje
3
Debemos cuidar algunas condiciones para
asegurar el rendimiento del algoritmo
4
Y una vez que entrenamos el modelo …
5
Necesitamos evaluar el o los modelos
entrenados
6
Debemos evaluar todos los modelos:
No Free Lunch Theorem
7
MÉTRICAS DE DESEMPEÑO
8
Observemos el siguiente problema
de clasificación automática
Iris
51 7.0 3.2 4.7 1.4
versicolor
Iris 𝑚=3
52 6.4 3.2 4.5 1.5
versicolor
Iris
101 6.3 3.3 6.0 2.5
virginica
Iris
102 5.8 2.7 5.1 1.9
virginica
10
Sea 𝑦ො la clase predicha por el
clasificador C
Sepal Length Sepal Width Petal Length Petal Width
id Class (𝒚) ෝ
𝒚
(cm) (cm) (cm) (cm)
Iris
51 7.0 3.2 4.7 1.4 Iris setosa
versicolor
Iris Iris
52 6.4 3.2 4.5 1.5
versicolor versicolor
Iris Iris
101 6.3 3.3 6.0 2.5
virginica virginica
Iris
102 5.8 2.7 5.1 1.9 Iris setosa
virginica
12
Definiciones
• Sea:
– P la cantidad de tuplas consideradas como
positivas (de la clase de interés)
– N la cantidad de tuplas consideradas como
negativas (todas las otras tuplas)
P
N
13
Definiciones (cont.)
14
Definiciones (cont.)
15
Matriz de Confusión
19
Ejemplo (cont.)
20
Sensibilidad y Especificidad
21
Exactitud y Completitud
• Recall (Completitud)
– proporción de los datos positivos que son clasificados como
positivos
Clase
𝑇𝑃 𝑇𝑃 predicha
𝑟𝑒𝑐𝑎𝑙𝑙 = =
𝑇𝑃 + 𝐹𝑁 𝑃 Si No
Clase Si TP FN P
real No FP TN N
22
Precision y Recall deben ser usadas
en conjunto
2 × 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 × 𝑟𝑒𝑐𝑎𝑙𝑙
𝐹=
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑟𝑒𝑐𝑎𝑙𝑙
23
Ejemplo
𝑀𝐶𝑖𝑖
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 =
σ𝑗 𝑀𝐶𝑗𝑖
𝑀𝐶𝑖𝑖
𝑟𝑒𝑐𝑎𝑙𝑙 =
σ𝑗 𝑀𝐶𝑖𝑗
25
Ejemplo: ¿Cuál sería el recall y
precisión para la clase SUV?
26
Curva ROC
1
True Positive Rate (TPR)
𝐶3
𝐶2
𝐶1
Aleatorio, al azar
0 1
False Positive Rate (FPR)
28
Curva ROC
1
True Positive Rate (TPR)
𝐶3
𝐶2 𝐶3 > 𝐶2 > 𝐶1
𝐶1
El rendimiento de cada
clasificador queda reflejado
0
False Positive Rate (FPR)
1
en el área bajo la curva (AUC)
29
ESTIMACIÓN DEL RENDIMIENTO
30
Estimación del Rendimiento
31
Estimación de Rendimiento
• Acc
Datos • Precision-Recall
• Specificity-Sensitivity
• ROC
Conjunto de
testeo
32
Hold out
Conjunto de
entrenamiento
𝑁1 = 2ൗ3
En general se usa esta
división de los datos, pero
Datos 𝐷 = 𝑁1 + 𝑁2
dependerá de la base de
datos.
Conjunto de
testeo 𝑁2 = 1ൗ3
33
Random Sub-sampling
K=1
Testeo Estimación desempeño
Datos
…
𝐷 = 𝑁1 + 𝑁2 Entrenamiento
K=20
Testeo Estimación desempeño
34
K-Fold Cross-Validation
𝐷1
𝐷2
Datos
…
𝐷 = 𝐷1 + ⋯ + 𝐷𝑘 𝐷𝑘
35
K-Fold Cross-Validation (cont)
• Iteración i =1
Entrenamiento Testeo
𝐷1
𝐷2 𝐷1
𝐷2
…
Datos
…
𝐷𝑘
𝐷𝑘
𝐷 = 𝐷1 + ⋯ + 𝐷𝑘
36
K-Fold Cross-Validation (cont)
• Iteración i = 2
Entrenamiento Testeo
𝐷1
𝐷1 𝐷2
𝐷2
Datos
… …
𝐷𝑘
𝐷𝑘
𝐷 = 𝐷1 + ⋯ + 𝐷𝑘
37
K-Fold Cross-Validation (cont)
• Iteración i = k
𝐷1
Entrenamiento Testeo
𝐷1 𝐷𝑘
𝐷2
…
Datos
…
𝐷𝑘−1
𝐷𝑘
𝐷 = 𝐷1 + ⋯ + 𝐷𝑘
38
Leave-one-out
39