Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Automático
1/ 21
Tutora:
Àngela Martín
10-11-2023
Aprendizaje
Automático
2/ 21
Tutora:
Àngela Martín
Ejemplo
Primera Búsqueda:
1 Ejemplo
Generar árbol de
Regresión Primera Búsqueda: Generar árbol de Regresión
Parámetros ω y τ
Parámetros ω y τ
Cálculo de τ
Generar subarbol Cálculo de τ
Árbol final
Generar subarbol
Árbol final
Aprendizaje
Automático
3/ 21
Tutora:
Àngela Martín
Ejemplo
Primera Búsqueda:
1 Ejemplo
Generar árbol de
Regresión Primera Búsqueda: Generar árbol de Regresión
Parámetros ω y τ
Parámetros ω y τ
Cálculo de τ
Generar subarbol Cálculo de τ
Árbol final
Generar subarbol
Árbol final
Aprendizaje
Automático
4/ 21
Tutora:
Àngela Martín La fila i, i = 1.,7, representa que una persona que haga ejercicio
(Si/No), su alimentacion sea saludable (Si/No), tome alcohol
Ejemplo (Si/No) y tenga sobrepeso (Si/No), la tasa de colesterol será la
Primera Búsqueda:
Generar árbol de
Regresión
correspondiente al valor de la columna Colesterol que es la clase.
Parámetros ω y τ
Cálculo de τ
Generar subarbol Ej. Ejercicio Alimentacion Alcohol Sobrepeso Colesterol
Árbol final (A1 ) saludable (A2 ) (A3 ) (A4 ) (Clase)
1 Si Si No No 200
2 Si Si Si No 250
3 No No Si Si 400
4 Si No No No 290
5 Si No Si No 300
6 No No No Si 450
7 Si Si No Si 220
Tutora:
Àngela Martín
Calculo de la media de los valores de la clase para los valores
Ejemplo
de los atributos
Primera Búsqueda:
Generar árbol de
Regresión
Parámetros ω y τ 200 + 250 + 290 + 300 + 220
Cálculo de τ µA1 =Si = = 252
Generar subarbol 5
Árbol final
400 + 450
µA1 =No = = 425
2
q
1
σA1 =No = ((400 − 425)2 + (450 − 425)2 ) = 35, 35
2−1
Entonces para A1 :
5
ErrorA1 =Si = × 43, 24 = 30, 88
7
2
ErrorA1 =No = × 35, 35 = 10, 10
7
Ejemplo
Primera Búsqueda:
ErrortotalA1 = 30, 88 + 10, 10 = 40, 98
Generar árbol de
Regresión
Parámetros ω y τ Hacemos lo mismo con el resto de los atributos: A2 , A3 y A4
Cálculo de τ
Generar subarbol
Árbol final
ErrortotalA2 = 101, 60
ErrortotalA3 = 100, 54
ErrortotalA4 = 77, 81
Aprendizaje
Automático
9/ 21
Tutora:
Àngela Martín
Selección del nodo raiz
Ejemplo El mejor atributo es A1 ya que es el que tiene menor error. Por
Primera Búsqueda:
Generar árbol de tanto, se crea un nodo raiz que se distingue por este atributo y
Regresión
Parámetros ω y τ que tiene dos sucesores etiquetados con los valores Si y No:
Cálculo de τ
Generar subarbol
Árbol final
Aprendizaje
Automático
10/ 21
Tutora:
Sucesores del nodo raiz (A1 )
Àngela Martín
Necesitamos definir ω y τ .
Ejemplo ω indica el mínimo número de ejemplos del conjunto inicial
Primera Búsqueda:
Generar árbol de que debe tener un nodo para seguir subdividiendose. Gene-
Regresión
Parámetros ω y τ ralmente se escoge ω > 3.
Cálculo de τ
Generar subarbol
Árbol final
M5 no divide un nodo si tiene pocos ejemplos (en este caso
menos de 4). Weka utiliza ω = 4. No obstante, no se puede
dividir un nodo si la desviación típica de los valores de la
Clase de los ejemplos que concurren en el nodo no supera el
5 % de la desviación típica del conjunto de ejemplos inicial
(τ ).
Aprendizaje
Automático
11/ 21 Cálculo de τ
Tutora:
Àngela Martín Media de los valores de la clase:
Ejemplo
Primera Búsqueda:
200 + 250 + 400 + 290 + 300 + 450 + 220
Generar árbol de µClase = = 301, 42
Regresión
Parámetros ω y τ
7
Cálculo de τ
Generar subarbol Desviación típica:
Árbol final
σClase = 86, 53
Valor para τ :
τ = 86, 53 ∗ 0, 05 = 4,32
Tutora:
Àngela Martín
Ejemplos cubiertos por cada valor de los atributos
n
Si =⇒ (1, 2, 4, 5, 7)
A1 = (1)
Ejemplo No =⇒ (3, 6)
Primera Búsqueda:
Generar árbol de
Regresión n
Parámetros ω y τ Si =⇒ (1, 2, 7)
A2 = (2)
Cálculo de τ No =⇒ (3, 4, 5, 6)
Generar subarbol
Árbol final
n
Si =⇒ (2, 3, 5)
A3 = (3)
No =⇒ (1, 4, 6, 7)
n
Si =⇒ (3, 6, 7)
A4 = (4)
No =⇒ (1, 2, 4, 5)
Aprendizaje
Automático
13/ 21
Tutora:
Àngela Martín
Tutora:
Àngela Martín El mejor atributo es A2 ya que es el que tiene menor error y
supera el valor de τ que era 4,32. Por tanto se crea el hijo
Ejemplo izquierdo del nodo raiz.
Primera Búsqueda:
Generar árbol de
Regresión
Parámetros ω y τ
Cálculo de τ
Generar subarbol
Árbol final
Aprendizaje
Automático
16/ 21
Tutora:
Àngela Martín
Tabla de los ejemplos (1,2,4,5,7) para los atributos A2 A3 y A4
Ejemplo
Primera Búsqueda:
Generamos el subarbol del nodo A2 procediendo de la misma
Generar árbol de
Regresión manera que para el caso anterior y nos queda la siguiente tabla:
Parámetros ω y τ
Cálculo de τ
Ej. Alimentación Alcohol Sobrepeso Colesterol
Generar subarbol (A2 ) (A3 ) (A4 ) (Clase)
Árbol final 1 Si No No 200
2 Si Si No 250
4 No No No 290
5 No Si No 300
7 Si No Si 220
Aprendizaje
Automático
19/ 21
Tutora:
Àngela Martín
Ejemplo
Primera Búsqueda: El segundo paso (segunda búsqueda) intenta simplificar el
Generar árbol de
Regresión
Parámetros ω y τ
árbol de regresión generado en el paso anterior, borrando
Cálculo de τ de los modelos lineales los atributos que no incrementan en
Generar subarbol
Árbol final error estimado de clasificación.
Aprendizaje
Automático
20/ 21
Tutora:
Àngela Martín El tercer paso (tercera búsqueda) trata de reducir el árbol
(podarlo) sin que pierdan propiedades. El árbol resultante
Ejemplo separa los ejemplos de entrenamiento dependiendo de su
Primera Búsqueda:
Generar árbol de
Regresión
clase y tiene asociado en cada nodo hoja un modelo lineal
Parámetros ω y τ
Cálculo de τ
que calcula el valor de la clase dependiendo del valor de los
Generar subarbol
Árbol final
atributos que intervienen en el modelo.
NOTA: en la asignatura se prescinde de la etapa de poda del
árbol pero, se puede ver el árbol podado en weka. Las dos últimas
búsquedas se pueden hacer juntas y de este modo solo se recorre
el árbol una vez.
Aprendizaje
Automático
21/ 21
Tutora:
Àngela Martín