Está en la página 1de 18

MINERÍA DE DATOS

1
CLASIFICACIÓN – PARTE II

2
RANDOM FOREST

¿Porqué elegir sólo un camino o ruta?

¿Obtendremos la verdad con un solo resultado?

¿Y si existen otros enfoques para abordar el mismo problema?

3
RANDOM FOREST
• ¿Nos basta tomar un árbol de decisión?

• ¿Y si hay información que está dejando de lado?

• ¿Existirá sobreajuste?

4
RANDOM FOREST

Dejemos que el bosque nos guíe

5
RANDOM FOREST
• Características
• Se generan n árboles

• Cada árbol es generado con un subconjunto de los sets disponibles.

• Los subconjuntos utilizados no son disjuntos necesariamente.

• Las variables que generarán los árboles son elegidas aleatoriamente.

• Obtengo finalmente un bosque con n árboles de decisión.

6
RANDOM FOREST

• El resultado termina
siendo una “votación” de
los resultados que arroja
cada árbol.
• La predicción corresponde
a la clasificación más
votada entre los árboles
del bosque.

7
RANDOM FOREST

Ventajas Desventajas

• Alto nivel de certeza. • Riesgo de sobreajuste con


• Útil con grandes volúmenes set de datos con mucho
de datos. ruido.
• Presenta las variables • Menor interpretabilidad.
importantes en la • Tamaño y variedad de las
clasificación de los datos. variables tiende a privilegiar
atributos.

8
ADABOOST
• Otra estrategia para mejorar los resultados del modelo.

• Utiliza “modelos débiles” a los que iterativamente les asigna


un peso de acuerdo a su predicción.

• El conjunto de modelos entrega un resultado mejor que


utilizando sólo uno de ellos.

9
REDES NEURONALES

• ¿La clasificación que


obtenemos es
totalmente absoluta?

• ¿Y si el modelo fuese
capaz de aprender
basado en una
experiencia anterior?

10
REDES NEURONALES
• Las redes neuronales están compuestas por:
• Nodos o neurona

• Función de propagación, que basada en los pesos de cada atributo,


hará que el nodo “reaccione”

• Función de activación, la que ajusta los pesos de la red de acuerdo a


los resultados obtenidos en la iteración.

• Función de transferencia, devuelve el valor obtenido por la activación.

Excitatoria o inhibidora

11
REDES NEURONALES

12
PERCEPTRON

Un perceptron puede aprender sólo con funciones linealmente separables


b(t) es el sesgo de la ecuación de activación en la iteración t

13
ENTRENANDO AL PERCEPTRON

14
OBJETIVOS
• Mejorar su capacidad de generalización

• Reducir el error para cada iteración del modelo

15
APRENDIZAJE
• Supervisado
• Necesita datos preclasificados
• Formar los datos de entrenamiento y de test.

• No Supervisado
• No necesitan preclasificados

SOBREAJUSTE

16
CARACTERÍSTICAS
• Can learn directly from data.
• They exhibit good learning ability –better than other AI approaches
• Can learn from noisy or corrupted data
• Parallel information processing
• Computationally fast once trained
• Robustness to partial failure of the network
• Useful where data are available and difficult to acquire symbolic
knowledge
• Drawback of NN
• knowledge captured by a NN through learning (in weights –real numbers) is not in a
familiar form for human beings, e.g. if-then rules (NNs are black box structures).
• Over fitting issues.

17
MINERÍA DE DATOS

18

También podría gustarte