Documentos de Académico
Documentos de Profesional
Documentos de Cultura
edu/ml/
BASE DE DATOS DE INFORMACION VARIA
Los axones
influyen en las dendritas
sobre unos
espacios estrechos llamados sinapsis. La estimulacin en
una sinapsis hace que las neuronas se disparen y en
otras se desalientan el disparo. El aprendizaje se lleva a
cabo en las cercanas de la sinapsis
La Neurona McCulloch-PittS
En este modelo tan sencillo
puede verse que la activacin
de la neurona depende del valor
que tomen los pesos y las
entradas, de forma que la
variacin de stos origina
distintas salidas para la misma
entrada a la neurona.
La Neurona McCulloch-Pitts
Celulas McCulloch&Pitts
Las clulas operan en lapsos discretos
Una red neuronal de McCulloch&Pitts tiene la
capacidad de computo universal. Es decir,
cualquier estructura que puede ser programada
en una computadora, puede ser modelada con
este tipo de redes
Clulas de mcCulloch-Pitts
Ejemplo del not:
0(-1)=0
1(-1)=-1
0>-1
-1>-1
entonces
entonces
1
0
0(1)+0(1)=0
0(1)+1(1)=1
1(1)+0(1)=1
1(1)+1(1)=2
..
..
..
..
0>1
1>1
1>1
2>1
..entonces
..entonces
..entonces
..entonces
0
0
0
1
Ejemplo del OR
0(1)+0(1)=0
0(1)+1(1)=1
1(1)+0(1)=1
1(1)+1(1)=2
..
..
..
..
0>0
1>0
1>0
2>0
..entonces 0
..entonces1
..entonces 1
..entonces 1
En el caso del XOR, no se puede solucionar con este tipo, ya que con una celula
no se puede, por no ser un caso linealmente separado
El perceptron
Su autor principal es Rosenblat quien generaliz las
clulas de McCulloch-Pitts, y concibi como un sistema
capa de realizar tareas de clasificacin
de forma
automtica.
Su idea era disponer de un sistema que a partir de un
conjunto de ejemplos (patrones) de clases diferentes,
fuera capaz
de determinar las ecuaciones de las
superficies que hacan de frontera de dichas clases
aprendizaje
supervisado),
calculamos el error.
Qu es un perceptrn?
Un perceptrn es una estructura neuronal ms una regla
de aprendizaje. Como se explicaba anteriormente, una
neurona se compone de un conjunto de entradas, cada
una con un peso, que se introducen en el cuerpo de la
misma para su procesamiento. Ese procesamiento puede
consistir en:
Combinacin lineal:
y i xi
i
Distancia eucldea:
x
i i
Wk1 Wk X y y
t
donde:
W = vector de pesos.
k = iteracin actual.
= factor de aprendizaje.
X = vector de entradas.
yd = salida deseada.
y = salida obtenida en la iteracin k.
Ventajas
Se puede representar matemticamente
Software de aprendizaje
Tolerantes al ruidos
Aprendizaje supervisado y no supervisado
Desventajas
Dependientes del diseo
Dependiente de los datos
Retroalimentacin
frmula de ajuste
Ejemplo
Tabla representativa
X0
X1
X2
X3
Yd
Ejemplo
Red neuronal que sume dos nmeros enteros
X1
X2
Yd
12
W1= 3
Y= X1(W1) + X2(W2)
W2 = 2
Y= 1(3) + 2(2)= 7
Y=2(3) + 3(2)= 12
Y= 0(3) + 1(2) = 2
X1
X2
Yd
10
W1= 2
W2 = 2
Y= X1(W1) + X2(W2)
Y= 1(2) + 2(2)= 6
Y=2(2) + 3(2)= 10
Y= 0(2) + 1(2) = 2
X1
X2
Yd
W1= 2
Y= X1(W1) + X2(W2)
W2 = 1
Y= 1(2) + 2(1)=4
Y=2(2) + 3(1)= 7
Y= 0(2) +1(1) = 1
X1
X2
Yd
W1= 1
Y= X1(W1) + X2(W2)
W2 = 1
Y= 1(1) + 2(1)=3
Y=2(1) + 3(1)= 5
Y= 0(1) + 1(1) = 1
ALGORITMO ADELINE
El Adeline (Algoritmo LMS).
1. Asigna valores aleatorios a los pesos.
2. Aplica un vector de entrada y obtiene la salida
correspondiente
Salida = w*x.
Error = salida deseada salida obtenida.
Wi = Wi + alpha * error * entradai .
3. Volver al dos.
Red de hopfield
John Hopfield, gracias al trabajo sobre
neurofisiologa en invertebrados, desarroll un
tipo de red neuronal autoasociativa.
Estas redes son bastante parecidas al modelo
del
Perceptrn,
pero
presentan
una
caracterstica adicional: las neuronas en la capa
media, presentan conexiones de salida hacia
otras neuronas de la capa media.
Nethop= newhop(T);
Y = sim(nethop,{Q TS),{},{Ai}
10x5
Backpropagation
La backpropagation es un tipo de red de aprendizaje
supervisado, que emplea un ciclo de propagacionadaptacin d e dos fases. Una vez que se ha aplicado un
patrn a la entrada como estimulo, este se propaga
desde la primera capa a travs de las capas superiores
de la red, hasta general una salida. La seal de salida se
compara con la salida deseada y se calcula una seal de
error.
Estructura de la red
La estructura tpica de una red multicapa es la siguiente
Regla de aprendizaje
El algoritmo backpropagation para redes multicapa es
una generalizacin del algoritmo LMS, ambos algoritmos
realizan su labor de actualizacin de pesos y ganancias
con base en el erro medio cuadrtico.
La red
backpropagation trabaja bajo aprendizaje
supervisado y por tanto necesita un set de
entrenamiento que le describa casa salida y su valor de
salida esperado de la siguiente forma:
{p1,t1},{p2,t2}{pQ,tQ}
Donde pQ es una entrada a la red y tQ es la
correspondiente salida deseada para el patrn q-iesimo.
El algoritmo debe ajustar los parametros de la red para
minimizar el error cuadratico medio.
Red kohonen
Redes no supervisadas o
autoorganizativas
Caractersiticas:
1. Ninguna salida deseada
2. No requiere tutor
3. Extrae caractersticas de la entrada para clasificacin
Algoritmo de aprendizaje
1. Inicializar pesos sinpticos
2. Aplicar un patrn de entrada (X)
3. Obtener la neurona vencedora (menor
distancia)
4. Actualizar los pesos correspondientes a
la neurona vencedora
Aplicaciones
Agrupamientos por familiaridad
Extraccin de caractersticas
Obtencin de centros de gaussianas de RBR
red1 = init(red1);
red1.trainParam.epochs = 10;
for i=1:25
red1 = train(red1,p);
w = red1.IW{1,1};
plot(w(:,1),w(:,2),'xr',p(1,:),p(2,:),'o')
axis([min(p(1,:))-1 max(p(1,:))+1 min(p(2,:))-1 max(p(2,:))+1])
xlabel('x1')
ylabel('x2')
title('Red de Kohonen')
legend('pesos','patrones','location','NorthWest')
pause(0.1)
end
w
a = sim(red1,p);
ac = vec2ind(a);
[X ac']