Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Algoritmo ID3
Algoritmo ID3
UPIICSA
Algoritmos Computacionales
Profesor: José Mario Rodríguez Aparicio
Secuencia: 3CM32
Algoritmo ID3
Presenta: Méndez Rodríguez Cristopher J.
Fecha de Entrega: 23/Mayo/2020
Contenido
Introducción.............................................................3
Algoritmo ID3............................................................4
Entropía..................................................................4
Ganancia de Información.......................................5
Ejemplos....................................................................6
Conclusiones.............................................................8
Bibliografia................................................................9
Introducción
El algoritmo ID3 es utilizado dentro del ámbito de la inteligencia artificial. Su uso se engloba en
la búsqueda de hipótesis o reglas en él, dado un conjunto de ejemplos.
ID3 (Iterative Dichotomiser 3) es un algoritmo constructivo greedy para obtener árboles de
decisión propuesto por Ross Quinlan.
Construye un árbol de arriba a abajo, de forma directa, sin hacer uso de backtracking.
Se usa el concepto de Ganancia de Información para seleccionar el atributo más útil en cada
paso.
Recordemos que el árbol de decisión consta de reglas para clasificar datos usando los atributos
que tienen.
◦ Un nodo de decisión está asociado a uno de los atributos, y tiene 2 o más ramas, cada
una representando posibles valores del atributo.
◦ Los nodos-hoja están asociados al atributo objetivo que se quiere clasificar (todos al
mismo) y, por tanto, es el resultado de la decisión del árbol.
Algoritmo ID3
Ya vimos que el algoritmo ID3 emplea un procedimiento de arriba a abajo haciendo un
recorrido voraz por el espacio de las posibles ramificaciones sin backtracking. Para ello, ID3
hace uso de conceptos como entropía y ganancia de información.
La elección del mejor atributo se establece mediante la entropía. Eligiendo aquel que
proporcione una mejor ganancia de información.
Entropía
Permite calcular el grado de incertidumbre de una muestra:
◦ Una muestra completamente homogénea tiene entropía 0.
◦ Una muestra igualmente distribuida tiene entropía 1.
La fórmula de la entropía es:
Entropía(S) = - P log2 (P) – N log2 (N), donde P son los ejemplos positivos y N los negativos.
Intuición:
o Mide la ausencia de “homogeneidad” de la clasificación
o Teoría de la Información: cantidad media de información (en bits) necesaria para
codificar la clasificación de un ejemplo de D
Ejemplos:
Ganancia de Información
La Ganancia de Información se basa en el decremento de la entropía cuando el conjunto de
datos se divide en los valores de un atributo.
En el algoritmo ID3, en cada nodo usamos el atributo con mayor ganancia de información
(considerando los ejemplos correspondientes al nodo)
Ejemplos
Conclusiones
El algoritmo ID3 es un algoritmo muy rápido, construye un árbol pequeño y solo necesita
comprobar unos cuantos datos, hasta que todos estén clasificados. Se obtienen reglas
comprensibles, usa todo el conjunto de datos que se le den y al encontrar nodos-hoja, el
algoritmo no continua, esto quiere decir que se reduce el total de comprobaciones.
Sin embargo, hay que tener cuidado al manejar esta técnica ya que es fácil incurrir en una
sobre clasificación. Y aunque sólo se comprueba un atributo en cada paso, se hace de manera
rápida.
Bibliografia