Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Perceptrón Simple: Redes Neuronales Con Aprendizaje Supervisado
Perceptrón Simple: Redes Neuronales Con Aprendizaje Supervisado
Voz Seguridad
Reconocimiento de voz Reconocimiento de rostros
Compresin de voz Identificacin
Sintetizadores de texto a voz Acceso de personas
Algunas Posibles Aplicaciones
Financieros Manufactura
Evaluacin de bienes races Control de procesos de
Consultor de prestamos manufactura
Evaluacin de bonos Anlisis y diseo de productos
corporativos Diagnstico de mquinas y
Anlisis del uso de la lnea de procesos
crdito Identificacin de partes en tiempo
Prediccin de tipo de cambio real
Sistemas de inspeccin de calidad
Prediccin de fin de proceso
Anlisis de mantenimiento de
mquinas
Modelado de sistemas dinmicos
Algunas Posibles Aplicaciones
Medicina Otros
Deteccin de cncer mamario
o en la piel
Anlisis de EEG y ECG
Diseo de prtesis
Optimizacin de tiempos de Oficinas postales
trasplante Verificacin remota
Reduccin de gastos en
Predicciones Climatolgicas
hospitales
Filtrado de ruido
ServoControl
etc.
Modelos existentes de RNA
Perceptrn
Adaline
Perceptrn multicapa
Memorias asociativas
Mquina de Boltzmann
Mquina de Cauchy
Propagacin hacia atrs (backpropagation)
Redes de Elman
Redes de Hopfield
Red de contrapropagacin
Redes de neuronas de base radial
Redes de neuronas de aprendizaje competitivo
Mapas Autoorganizados (Redes de Kohonen)
Crecimiento dinmico de clulas
Gas Neuronal Creciente
Redes ART (Adaptative Resonance Theory)
Clasificacin de las RNA
Segn su Topologa o Patrn de Conexiones
pueden ser:
Redes de propagacin hacia adelante
Monocapa
Multicapa
Redes Recurrentes
Segn su Tipo de Entrada pueden ser:
Redes Analgicas
Redes Discretas
Redes Hbridas //Entrada Analgica y Salida Discreta
Clasificacin de las RNA
Segn su Tipo de Aprendizaje pueden ser:
Aprendizaje Supervisado
Aprendizaje por correccin de error.
Aprendizaje por refuerzo.
Aprendizaje estocstico.
Aprendizaje No Supervisado
Aprendizaje Hebbiano.
Aprendizaje competitivo y cooperativo.
Aprendizaje Hbrido //Fase Supervisada y No Supervisada
Clasificacin de las RNA
Segn el Aprendizaje que Observan:
Redes OFF LINE //son ms estables, poseen pesos estticos
Se distingue entre la fase de aprendizaje y la fase de
operacin
Redes ON LINE //se debe estudiar estabilidad, pesos dinmicos
No se distingue entre la fase de entrenamiento y de
operacin
El Perceptrn se sita en:
Segn su Topologa o Patrn de Conexin:
Red de propagacin hacia adelante
Monocapa
Segn su Tipo de Entrada:
Red Hbrida // su entrada es analgica y su salida es discreta
Segn su Tipo de Aprendizaje:
Aprendizaje Supervisado
Entonces podemos decir que
El Perceptrn es un tipo Red Neuronal Monocapa
Hbrida de Aprendizaje Supervisado.
p2 w1,2
b
1
Dos Capas
1a Capa compuesta de varias neuronas
2a. Capa formada por una sola neurona
Funcin de transferencia en escaln .
El Perceptrn
Bias
Bloque de construccin bsico
W1 Compuesto por el peso
I1
W2
sinptico y la neurona
I2 Los Pesos ponderan los
I3
W3 F(x) O valores de las entradas
X La combinacin de los pesos y
Wn
la funcin de transferencia
In F(x), transforma las entradas
a la salida O necesaria
Pesos
Entradas
Sinapticos Neurona El entrenato es a traves de los
cambios en los pesos hasta
que el lograr la salida deseada
Qu tipo de problemas resuelve?
ne w old
If t = 1 and a = 0, then 1 w = 1w +p
n ew old
If t = 0 and a = 1, then 1 w = 1w p
new ol d
If t = a, then 1w = 1w
Ejemplo 1.
{p 1, t1} { p 2, t 2} {p Q, tQ }
1 t = 1 1 t = 0 0 t = 0
p
1 = 1 p
2 = 2 p
3 = 3
2 2 1
Punto de Partida
Inicializacin aleatoria de los pesos
1.0
1w =
0.8
Presentar p1 a la RNA:
a = hardlim 1 w p 1 = hardlim 1.0 0.8 1
T
a = hardlim 0.6 = 0
2
Clasificacin Incorrecta
Regla de Aprendizaje Tentativo
Conjunto1w para p1
No es estable
Agregar p1 a 1w
Regla Tentativa:
ne w old
If t = 1 and a = 0, then 1 w = 1w +p
w new
= wol d
+ p1 = 1.0 + 1 = 2.0
1 1
0.8 2 1.2
Segundo Vector de Entrada
a = hardlim 1 w p 2 = hardlim 2.0 1.2 1
T
Modificacin de la Regla:
ne w old
If t = 0 and a = 1, then 1 w = 1w p
ne w ol d 2.0 1 3.0
1w = 1w p2 = =
1.2 2 0.8
Tercer Vector de Entrada
T 0
a = hardlim 1 w p3 = hardlim 3.0 0.8
1
a = ha rdlim 0.8 = 1
(Clasificacin Incorrecta)
w ne w
= wol d
p3 = 3.0 0 = 3.0
1 1
0.8 1 0.2
ne w ol d
b = b +e
El bias es un
PESO con
e = ta entrada de 1
Perceptrones de Mltiples
Neuronas
ne w ol d new ol d
bi = bi + ei b =b +e
Ejemplo 2.
Conjunto de Entrenamiento
1 1
1 p =
1 1 t = 1 2 p =
1 2 t = 0
1 1
Pesos Iniciales
n=Wp+b n
1 si n 0
a hardlim n
0 todo lo contrario
poca y Bias
Se le llama poca a cada iteracin de la red por el
lote de entradas en la que haya ajuste de variables.
El ajuste de variables se puede hacer despus de la
presentacin de vectores de entrada individuales o
por lotes.
La variable tambin es llamada elemento de
tendencia o 'bias, que es el que mueve el hiperplano
de decisin a lo largo del eje 'x' o y. A esta variable
se le denomina en muchas ocasiones con el smbolo
b.
Algoritmo de entrenamiento del
Perceptrn
repetir
para cada par de los vectores de entrenamiento (x, t)
evaluar la salida ai cuando xi es la entrada al perceptrn
si a t, entonces
forme un nuevo vector de pesos w de acuerdo a...
la ecuacin correspondiente
de otra manera,
no haga nada
fin (del si)
fin (del para)
hasta que a = t para todos los vectores.
Los valores de los pesos para este caso estn restringidos entre -1 y 1.
Qu pasa si la funcin que queremos
realizar ahora es la siguiente?
x2
(0,1) (1,1)
1 0 X1 X2 Y
0 0 0
0 1 1
1 0 1
1 1 0
0 1
x1
(0,0 (1,0)
)