Está en la página 1de 8

¿Qué es un árbol de decisión?

Un árbol de decisión es un mapa de los posibles resultados de una


serie de decisiones relacionadas. Permite que un individuo o una
organización comparen posibles acciones entre sí según sus costos,
probabilidades y beneficios. Se pueden usar para dirigir un
intercambio de ideas informal o trazar un algoritmo que anticipe
matemáticamente la mejor opción.

Un árbol de decisión, por lo general, comienza con un único nodo y


luego se ramifica en resultados posibles. Cada uno de esos
resultados crea nodos adicionales, que se ramifican en otras
posibilidades. Esto le da una forma similar a la de un árbol.

Hay tres tipos diferentes de nodos: nodos de probabilidad, nodos de


decisión y nodos terminales. Un nodo de probabilidad, representado
con un círculo, muestra las probabilidades de ciertos resultados. Un
nodo de decisión, representado con un cuadrado, muestra una
decisión que se tomará, y un nodo terminal muestra el resultado
definitivo de una ruta de decisión.

Los árboles de decisión también se pueden dibujar con símbolos de


diagramas de flujo,que a algunas personas les parecen más fáciles
de leer y comprender.

Símbolos de los árboles de decisión


Figura Nombre Significado

Nodo de decisión Indica una decisión que se tomará

Nodo de probabilidad Muestra múltiples resultados inciertos

Ramificaciones Cada ramificación indica un posible


alternativas resultado o acción

Muestra una alternativa que no estaba


Alternativa rechazada
seleccionada
Figura Nombre Significado

Nodo terminal Indica un resultado definitivo

Cómo dibujar un árbol de decisión


Para dibujar un árbol de decisión, primero debes elegir un medio.
Puedes dibujarlo a mano en un papel o una pizarra, o puedes usar
un software de árboles de decisión. En cualquier caso, te mostramos
los pasos que debes seguir:

1. Comienza con la decisión principal. Dibuja un pequeño


recuadro para representar este punto, luego dibuja una línea desde
el recuadro hacia la derecha para cada posible solución o acción.
Etiquétalas correctamente.

2. Agrega nodos de decisión y probabilidad para expandir el árbol


del siguiente modo:

 Si otra decisión es necesaria, dibuja otro recuadro.

 Si el resultado es incierto, dibuja un círculo (los círculos


representan nodos de probabilidad).

 Si el problema está resuelto, déjalo en blanco (por ahora).

Desde cada nodo de decisión, dibuja soluciones posibles. Desde


cada nodo de probabilidad, dibuja líneas que representen los
resultados posibles. Si deseas analizar tus opciones de forma
numérica, incluye la probabilidad de cada resultado y el costo de
cada acción.

3. Continúa con la expansión hasta que cada línea alcance un


extremo, lo que significa que no hay más decisiones que tomar o
resultados probables que considerar. Luego, asigna un valor a cada
resultado posible. Puede ser una puntuación abstracta o un valor
financiero. Agrega triángulos para indicar los extremos.

Con un árbol de decisión completo, ya estás listo para comenzar a


analizar la decisión que enfrentas.

Crear diagramas es rápido y sencillo con Lucidchart. Inicia una


prueba gratuita hoy mismo para empezar a crear y colaborar.

Genera un árbol de decisión

Ejemplo de análisis de un árbol de


decisión
Al calcular la utilidad o el valor esperado de cada decisión en el
árbol, puedes minimizar el riesgo y maximizar la probabilidad de
obtener un resultado deseado.

Para calcular la utilidad esperada de una decisión, solo debes restar


el costo de esa decisión a los beneficios esperados. Los beneficios
esperados son iguales al valor total de todos los resultados que
puedan derivar de esa decisión, y cada valor se multiplica por la
probabilidad de que ocurra. A continuación te mostraremos cómo
nosotros calcularíamos estos valores para el ejemplo descrito
anteriormente:

Al identificar cuál es el resultado más deseable, es importante tener


en cuenta las preferencias de utilidad del encargado de tomar la
decisión. Por ejemplo, algunos prefieren opciones de bajo riesgo,
mientras que otros están dispuestos a correr riesgos si el beneficio
es mayor.

Al usar tu árbol de decisión acompañado por un modelo de


probabilidad, puedes emplearlo para calcular la probabilidad
condicional de un evento o la probabilidad de que suceda, en el
caso de que otro evento ocurra. Para hacerlo, simplemente empieza
con el evento inicial, luego sigue la ruta desde ese evento hasta el
evento objetivo, y multiplica la probabilidad de cada uno de esos
eventos juntos.

De este modo, un árbol de decisión se puede emplear como un


diagrama de árbol tradicional, que traza las probabilidades de
determinados eventos, como lanzar una moneda dos veces.

Ventajas y desventajas
Los árboles de decisión siguen siendo populares por razones como
las siguientes:

 Son muy fáciles de entender

 Pueden ser útiles con o sin datos fehacientes, y cualquier dato


requiere una preparación mínima

 Se pueden agregar nuevas opciones a los árboles existentes

 Su valor al seleccionar la mejor de numerosas opciones

 Se combinan fácilmente con otras herramientas de toma de


decisiones

Sin embargo, los árboles de decisión pueden volverse excesivamente


complejos. En esos casos, un diagrama de influencia más compacto
puede ser una buena alternativa. Los diagramas de influencia se
enfocan en los objetivos, las entradas y las decisiones
fundamentales.
Árboles de decisión en minería de datos
y aprendizaje automático
Un árbol de decisión también puede usarse para ayudar a crear
modelos predictivos automatizados, que puedan emplearse en el
aprendizaje automático, la minería de datos y las estadísticas.
Conocido como "el aprendizaje basado en árboles de decisión", este
método toma en consideración las observaciones sobre un elemento
para predecir su valor.

En estos árboles de decisión, los nodos representan datos en lugar


de decisiones. Este tipo de árbol también se conoce como "árbol de
clasificación". Cada ramificación contiene un conjunto de atributos o
reglas de clasificación asociadas a una etiqueta de clase específica,
que se halla al final de la ramificación.

Estas reglas, también conocidas como "reglas de decisión", se


pueden expresar en una cláusula "Si... entonces...". Cada valor de
datos o decisión forma una cláusula, de tal manera que, por
ejemplo, "si las condiciones 1, 2 y 3 se cumplen, entonces el
resultado X será el resultado definitivo con certeza Y".

Cada dato adicional ayuda a que el modelo prediga de forma más


precisa a qué conjunto finito de valores pertenece el asunto en
cuestión. Esa información se puede usar posteriormente como una
entrada en un modelo más grande de toma de decisiones.

A veces la variable predicha será un número real, como un precio.


Los árboles de decisión con resultados posibles, infinitos y continuos
se llaman "árboles de regresión".

Para una mayor precisión, se suelen combinar múltiples árboles con


métodos de ensamblado:
 Bagging (Ensamblado) crea múltiples árboles de decisión
haciendo un remuestreo de los datos de origen, luego hace que
los árboles voten para llegar a un consenso.

 Un clasificador de selva aleatoria consiste en múltiples


árboles diseñados para aumentar la tasa de clasificación.

 Los árboles ampliados se pueden usar en árboles de


clasificación y de regresión.

 Los árboles en una Selva aleatoria (Rotation Forest) se


entrenan mediante el uso del análisis de componentes principales
(ACP) en una porción aleatoria de los datos.

Un árbol de decisión se considera ideal cuando representa la mayor


cantidad de datos con el menor número de niveles o preguntas. Los
algoritmos diseñados para crear árboles de decisión optimizados
incluyen CART, ASSISTANT, CLS y ID3/4/5. Un árbol de decisión
también se puede generar mediante la creación de reglas de
asociación, ubicando la variable objetivo a la derecha.

Cada método debe determinar cuál es la mejor forma de dividir los


datos en cada nivel. Los métodos comunes para hacerlo incluyen la
medición de la impureza de Gini, la obtención de información y la
reducción de variaciones.

Emplear los árboles de decisión en el aprendizaje automático tiene


numerosas ventajas:

 El costo del uso del árbol para predecir los datos disminuye
con cada punto de datos adicional.

 Funciona para los datos numéricos o categóricos.

 Puede modelar problemas con múltiples resultados.

 Usa un modelo de caja blanca (lo que hace que los resultados
sean fáciles de explicar).

 La fiabilidad de un árbol se puede cuantificar y poner a


prueba.
 Tiende a ser preciso independientemente de si viola las
suposiciones de los datos de origen.

Pero también tienen algunas desventajas:

 Cuando se presentan datos categóricos con múltiples niveles,


la información obtenida se inclina a favor de los atributos con
mayoría de niveles.

 Los cálculos pueden volverse complejos al lidiar con la falta de


certezas y numerosos resultados relacionados.

 Las conjunciones entre nodos se limitan a AND, mientras que


los gráficos de decisión admiten nódulos relacionados mediante
OR.

También podría gustarte