Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Presentacion RNA
Presentacion RNA
ARTIFICIALES
Neuronas Biolgicas
Nuestros cerebros cuentan con millones de neuronas que
se interconectan para elaborar " Redes Neuronales que
procesan informacion.
Cada neurona trabaja como un simple procesador y la
interaccin masiva entre ellas as como su procesamiento
en paralelo hacen posible las habilidades del cerebro.
Lasealcomputadadeesamanera(s),estomadacomo
argumentoparaunafuncinnolineal(f),lacualpuede
tenerdiferentesformas.Lassiguientessonunosejemplos:
La estructura de la red
APRENDIZAJE (ENTRENAMIENTO)
La principal caracterstica importante de las RNAs es
su capacidad para aprender de su ambiente, y
mejorar su desempeo a travs del aprendizaje
Una RNA aprende acerca de su ambiente a travs de
un proceso interactivo de ajustes de sus pesos
sinpticos y niveles de sesgo (bias)
El aprendizaje puede ser supervisado (set de
entrenamiento) o no supervisado (no hay un set de
entrenamiento pero se sabe donde se quiere llegar).
ui (W , X ) wij x j
j 1
Yi f ui WX
Donde f representa la funcin de activacin
para esa unidad (Hard, Ramp, Sigmoid)
u(t)
.
.
.
. . .
x(t)
.
.
.
y(t)
e(t)=d(t) - y(t)
1 2
J (t ) e t
2
1
2 1
2
2
J (t ) (d t y (t )) (d (t ) 2d (t ) y (t ) y (t ) )
2
2
Minimizando el error tenemos:
J (t ) 1
y (t )
y (t )
(2d (t )
2 y (t )
)
w 2
w
w
y (t )
wkj
wkj x j
k 1
wkj
xj
J (t ) 1
(2d (t ) x(t ) 2 y (t ) x(t ))
w
2
yendo en direccin contraria al gradiente tenemos
J (t )
(d (t ) y (t )) x(t )
w
wkj (t ) ek (t ) x j (t )
wkj (t ) ek (t ) x j (t )
La seal de error es medible directamente, i.e., se
requiere conocer la respuesta deseada desde una fuente
externa
regla de correccin de error local (alrededor de la neurona
k)
APRENDIZAJE HEBBIANO
CuandounaxondeunaclulaAestlo
suficientementecercanoaparaestimularunaclula
Byrepetidamenteopersistentementetomaparteen
sudisparo,algnprocesodecrecimientoocambios
metblicosocurrenenunaoambasclulasdetal
formaquelaeficicenciadeAcomounadelas
clulasquehacequeBdispare,seincrementa
Hebb, 1949
APRENDIZAJE HEBBIANO
Sidosneuronasencualquierladodeunasinapsis
(conexin)seactivansimultneamente(i.e.,
sincrnicamente), entonceslafuerzadedicha
sinapsisseincrementaselectivamente
Sidosneuronasencualquierladodeunasinapsis
(conexin)seactivanasincrnicamente, entonces
dichasinapsissedebilitaoeliminaselectivamente
Sinapsis Hebbianas
Usan un mecanismo dependientedeltiempo, ltamente
local, y fuertementeinteractivo para incrementar la
eficiencia como una funcin de la correlacin entre las
actividades pre-sinpticas y post-sinpticas
Modelos Matemticos
xj
wkj
yk
wkj (t ) F ( yk (t ), x j (t ))
F es una funcin de las seales pre y postsinpticas
Hiptesis de Hebb
xj
wkj
yk
wkj (t ) yk (t ) x j (t )
: tasa de aprendizaje
(regla del producto de las
actividades)
Perceptron (Rosenblatt)
Neurona No Lineal, Modelo McCulloch-Pitts
x1
y
x2
Meta: clasificar
correctamente el conjunto de
x
estmulos externos (x1 ,x2 , ..., xn) en una de dos
n
clases, C1 o C2
C1 : si la salida y es +1
http://www.cs.bham.ac.uk/~jlw/sem2a2/Web/LearningTLU.htm
1. Inicializacin
w(0)=0
Perceptron Example
2
.5
.3
=-1
Perception Training
wi (t 1) wi (t ) wi (t )
wi (t ) (T O ) I i
Weights include Threshold. T=Desired, O=Actual output.
Example: T=0, O=1, W1=0.5, W2=0.3, I1=2, I2=1,Theta=-1
Perceptrons
Can add learning rate to speed up the
learning process ; just multiply in with delta
computation
Essentially a linear discriminant
Perceptron theorem: If a linear discriminant
exists that can separate the classes without
error, the training procedure is guaranteed
to find that line or plane.
RESULT OF APPLET
This applet demonstrates a
Kohonen Feature Map
neural net in threedimensional space.
The task of this neural net
is to span its map over all
blue points (the input
values of the net) in an
even way and without
crossing one point twice.
This problem is similar to
the classic Travelling
SalesmanProblem, where
the shortest path between
a certain number of cities
is to be found without
passing one city twice.
sample applet
Gracias
Jairo Alonso Tunjano
LMS Learning
LMS = Least Mean Square learning Systems, more general than the
previous perceptron learning rule. The concept is to minimize the total
error, as measured over all training examples, P. O is the raw output,
as calculated by wi I i
1
2
Dis tan ce( LMS ) TP OP
2 P
i
W(old)
W(new)
wk c
Error
wk
Chain rule:
Error Error O j
wk
O j
wk
Error
O j
Oj f (I W )
O j
I k f ' ActivationFunction ( I kWk )
wk
wk c (T j O j ) I k f ' ActivationFunction
1
2
1
(
T
O
)
(T j O j ) 2
P
P
2 P
2
(T j O j )
O j
O j
We can remove the sum since we are taking the partial derivative wrt Oj
Activation Function
To apply the LMS learning rule, also
known as the delta rule, we need a
differentiable activation function.
wk cI k T j O j f ' ActivationFunction
Old:
O
1 : wi I i 0
New:
0 : otherwise
O
1 e
1
wi I i
i