Está en la página 1de 6

Taller en clases

I. ¿Cómo funciona los bosques aleatorios, y porque es un método usado por muchos
científicos de datos? Que es Random Forest?

Random Forest es un algoritmo que surgió hace casi veinte años y se utiliza
ampliamente por el balance que ofrece entre complejidad y resultados. Uno de los
sectores en los que se aplican este tipo de algoritmos es el financiero. Algunos
ejemplos de su aplicación en este sector son: segmentación de clientes, detección de
fraudes, pronóstico de ventas, autenticación de clientes y análisis de comportamiento
de mercados, entre otros. Un área de particular interés en este sector es la
identificación de clientes a quienes otorgar una tarjeta de crédito, esto es crítico para
las instituciones financieras, pues una selección incorrecta de estos clientes podría
derivar en un incremento de su cartera vencida, se apoyan cada vez más en
algoritmos de aprendizaje automático, con los cuales se obtienen modelos que
permiten en un momento dado tomar decisiones lo más precisas posibles en este
sentido. Funciona con la toma de muestras aleatorias de los datos y luego
construyendo una serie continua de árboles de decisión en los subconjuntos (crear un
montón de árboles de decisión generando un modelo más grande) es decir, Se
generan múltiples árboles, Cada árbol da una clasificación (vota por una clase). Y el
resultado es la clase con mayor número de votos en todo el bosque (forest).

II. ¿Cuál es la diferencia de usar Arboles de decisiones y bosques aleatorio (Bagging) para
problemas de clasificación?

La diferencia es que grandes rasgos existen dos tipos de árboles de decisión:


* Árboles de decisión simples: el resultado se construye mediante un proceso de
clasificación. * Árboles de decisión múltiples (random forest): el resultado se construye
mediante el desarrollo iterativo de n procesos de clasificación, es decir con decisión
tree se obtiene un clasificador grande o pequeño(al comparar por ejemplo rango con
etiqueta se evalúa el rasgo que más parentesco tenga con la etiqueta y se genera el
árbol de decisión) y con Random Forest se crean muchos clasificadores ( se escoge
aleatoriamente una cantidad limitada de rasgos y se crea un árbol de decisiones y se
repite este proceso para crear n números de árboles de decisiones.
III. Implemente el código de Xgboost suministrado en el siguiente enlace, luego, implemente
el modelo de árboles de decisión visto en clases y compare los resultados.

Implementación del código con ejercicio: Hongos:

Modelo 01
Modelo_ 02
código de Xgboost : Case7.
Árbol de decisión: case 7:

RandomForest: case 7:
Comparación de Resultados:

Comparando los resultados del caso 7 con el código Xgboost , el árbol de decisiones y
el RandomForest se evidencia :

Con el código Xgboost se obtiene una precisión del 54%

Con el árbol de decisiones se obtiene una precisión del 75%

Con RandomForest se obtiene una precisión indefinida.

También podría gustarte