Documentos de Académico
Documentos de Profesional
Documentos de Cultura
JAIME MIRANDA
(jmiranda@dii.uchile.cl)
Departamento de Ingeniera Industrial
Universidad de Chile
DISCRIMINANTES BSICOS
CONCEPTOS BSICOS
Medida de distancia
Prototipo o centro de clase ms cercana
Entre ms cerca mayor pertenencia de a la clase
Hipersuperficies
Clasificacin de acuerdo a si los objetos estn a uno u otro lado de una
hipersuperficie o conjunto de hiperplanos
X2
X1
Regla de Bayes
p ( X L / C K ) * p (C K )
p (C K / X L ) =
p( X L )
Donde:
TCNICAS EMPLEADAS
MTODOS SUPERVISADOS
Redes neuronales
rboles de decisin
SVM
MTODOS NO SUPERVISADOS
Fuzzy C-means (Cluster)
Mapas Kohonen
NUEVAS TCNICAS
MCS (Multiclassifier Systems )
Clamping (Heurstica seleccin de atributos)
Respuesta deseada
MAESTRO
INFORMACIN
RELACIONES
MEDIO
AMBIENTE
Respuesta calculada
CONOCIMIENTO
DEL NEGOCIO
SISTEMA DE
APRENDIZAJE
Error
INFORMACIN
MEDIO
RELACIONES
AMBIENTE
CONOCIMIENTO
DEL NEGOCIO
Respuesta calculada
SISTEMA DE
APRENDIZAJE
Error
Salida del
Sistema
Sistema no supervisado
CASO DE ESTUDIO
ALGUNAS DEFINICIONES
APRENDIZAJE
El aprendizaje es una habilidad de la que disponen gran parte de los sistemas
naturales para adaptarse al entorno en el que vive.
Adquisicin de conocimiento de un proceso por medio del anlisis, ejercicio o
experiencia.
Un proceso por el cual los parmetros libres del sistema se adaptan a travs de
un proceso continuo de estimulacin a partir del entorno en el que el sistema
est inmerso.
TEORA ESTADSTICA
ENFOQUE BAYESIANO
p ( X L / C K ) * p (C K )
p (C K / X L ) =
p( X L )
DONDE:
P(C ) = 1
i
P( X k ) = 1
g ( xk ) > g ( xk )
P (C j / xk ) > P (Ci / xk )
CLASIFICACIN LINEAL
f: X
X= (x1, x2,, xn )
f( X) 0
Clase 1
f( X) 0
Clase 2
f (X ) = w x
+b
Clase 1
Saldo
Clase 2
w x
+b = 0
w
b
Transacciones
MODELO PERCEPTRN
ALGUNAS NOCIONES
Propuesto en 1956 por Frank Rosenblatt.
Fue objeto de gran inters a comienzos de los 60s.
Primer algoritmo iterativo para clasificacin lineal.
Este algoritmo garantiza encontrar un hiperplano separador de clases, para
datos linealmente separables.
Unidad bsica de la arquitectura de las redes neuronales.
Se basa en una representacin neuronal biolgica.
MODELO
Una neurona con pesos sinpticos y nivel umbral ajustable.
Neurona biolgica.
PROPSITO
Clasificar estmulos externos de un objeto respecto a una clase.
APRENDIZAJE
Determinar el vector de pesos ptimo (w) que clasifique bien a cada objeto.
ELEMENTOS BSICOS
UNIDADES DE ENTRADA
Elementos que estimulan la red.
Atributos o variables de entrada.
CONEXIONES
Por las que se propaga la seal que conforma el patrn.
Pesos wi indican que tan fuerte es el atributo.
COMBINADOR LINEAL
Capta las seales y las combina en una sola.
FUNCIN DE ACTIVACIN
Activa o no la seal.
ARQUITECTURA PERCEPTRON
MODELO GENERAL
MODELO PERCEPTRON
DEFINICIONES
Vector de pesos
W = w 0 , w 1 ,..... w n ,
Conjunto de ejemplos
E =
(x
)(
t u = +1
, t 1 , x 2 , t 2 ,......... x p , t
t u = 1
),
ALGORITMO PERCEPTRON
1.
Inicializar W=(w1,...wn) = 0.
2.
3.
4.
>0
<0
t u = +1
No tomar ninguna accin
y
t u = 1
Si clasifica mal:
W " = W + t u xu
5.
Volver a 2.
Clase 1
Saldo
Clase 2
Antigedad
CONVERGENCIA
El algoritmo perceptron converge siempre en tiempo finito, para un conjunto
separable y finito de ejemplos
Seal sucia
Seal limpia
Salida del
Sistema
S+n0
Seal limpia
Salida del
filtro
Fuente de ruido
n1
Filtro
Adaptivo
Error
Cancelador de Ruido
X1
1
0
1
0
FUNCIO N BO O LEANAS
X2
AND
1
1
1
0
0
0
0
0
X2
X1
X1
1
0
1
0
FUNCIO N BO O LEANAS
X2
OR
1
1
1
1
0
1
0
0
X2
X1
UN PEQUEO PROBLEMA
X1
1
0
1
0
FUNCION BOOLEANAS
X2
XOR
1
0
1
1
0
1
0
0
X2
?
X1
Aplicaciones en la industria
Retencin o fuga de clientes
Deteccin de fraudes
Scoring
Fortalezas
Fuerte en lo referente a la modelacin no lineal
Trabaja tanto con variables categricas como continuas
Alta aplicabilidad (variadas reas de estudio)
Debilidades
Difcil interpretacin de las relaciones entre las variables (Heursticas)
Sobreajuste
PRINCIPALES TEOREMAS
REPRESENTACIN DE FUNCIONES
Cualquier funcin booleana de un nmero finito de entradas puede
representarse en forma exacta por un patrn multicapas
HETCH-NIELSEN
Cualquier funcin continua dentro de un cubo n-dimensional puede
implementarse en forma exacta por una red con una capa oculta
HORNIK
La funcin puede ser representada con una red multicapa, siempre y
cuando tenga un nmero adecuado de unidades escondidas
KOLGOMOROV
Una capa oculta es suficiente para la aproximacin de cualquier funcin
Atributos
Clases
x1
x2
...
xi
1
0
..
.
Capa de salida
Capa de entrada
Capa oculta
Salida del
Sistema
Funcin de
Activacin (Z)
Salida
MLP (Y)
MLP
Error (e)
FUNCIONES DE ACTIVACIN
FUNCIONES SIGMOIDES
Logstica (0,1)
---
Logstica
Tangente Hiperblica
MTODO DE APRENDIZAJE
Error
Salida Calculada
Salida Deseada
FORWARD
BACKWARD
TASA DE APRENDIZAJE ()
Es la encargada de la velocidad en que son modificados los pesos en cada una
de las iteraciones del algoritmo
Toma valores entre 0 y 1
Valor alto
Rpida minimizacin del error
Soluciones poco precisas e inestables
Valor bajo
Mayor precisin en la bsqueda de la minimizacin del error
Mayor cantidad de pocas pata ajustar el modelo
Sobreajuste por alto nmero de iteraciones del algoritmo
w( k ) = f `(e) x ( k )
Tasa de aprendizaje
MOMENTUM
Trata de aumentar la tasa de aprendizaje sin producir inestabilidad
Trata de aumentar la velocidad de convergencia
Ayuda en los baches provocado por los mnimos locales
Amortigua las oscilaciones del error e durante el aprendizaje
Momentum
w(k ) = f `(e) x( k ) + w( k 1)
SOBREAJUSTE DE LA RED
SOBREAJUSTE
FORTALEZAS
DEBILIDADES
MODELOS SUPERVISADOS
REDES NEURONALES MLP
JAIME MIRANDA
(jmiranda@dii.uchile.cl)
Departamento de Ingeniera Industrial
Universidad de Chile