Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
CIDE. Programa de electrnica.
.
Figura 1. Estructura Biolgica de una Neurona. [1] Como se indic en la seccin anterior las RNA,
funcionan de manera similar a su contraparte biolgica,
Como se puede observar, la clula est dividida en con algunas caractersticas: aprendizaje, plasticidad y
partes funcionales, cada una de ellas se describe a procesamiento en paralelo. Aprendizaje: ya que la
continuacin: neurona puede ser entrenada y aprender a responder
segn las entradas a una situacin especfica, mediante
Axn: Rama principal que sale del cuerpo de la las salidas deseadas; Plasticidad: pues si alguna de las
Neurona, su principal funcin es la de transmitir la estructuras funcionales llegase a fallar, existen otras que
informacin a las dendritas, stas a su vez conectan respaldan la funcin de la neurona, evitando que sta
dicha informacin a las otras Neuronas. responda de manera errada y Procesamiento en
paralelo: ya que al recibir varios estmulos al mismo
Dendritas: Ramas ms cortas que el axn, las tiempo responde segn el estmulo ms fuerte o segn
cuales llevan los impulsos nerviosos a otras neuronas. A sea configurada.
travs de ellas se realizan las conexiones o Sinapsis con
otras Neuronas. Para explicar el funcionamiento del Perceptrn se
debe hacer referencia a su concepcin matemtica, ste
Soma: Es el cuerpo de la clula nerviosa, su modelo, permite realizar una aproximacin a la
funcin es la de fabricar los elementos necesarios para programacin necesaria que emular el funcionamiento
la vida de la Neurona, tal como sucede en las otras de la Neurona.
clulas del cuerpo.
2
CIDE. Programa de electrnica.
.
Neuronales Artificiales (RNA), en el presente artculo tipo lineal o Sigmoidal. En el caso de los datos discretos,
solo haremos referencia al Perceptrn Bsico. la funcin de activacin debe ser de tipo escaln.
Adems de su estructura se debe reconocer en las RNA, Tabla 2.2.4.1 Resumen de RNA segn tipo de datos [1]
4 caractersticas importantes: Topologa, mecanismo de RNA CONTINUAS RNA HIBRIDAS RNA
aprendizaje, asociacin entre la informacin de entrada E:ANALOGA DISCRETAS
y la informacin de salida y la forma como se representa S:ANALOGA E: ANALOGA E: BINARIA
S: BINARIA S: BINARIA
la informacin, de ello depende la comprensin del
funcionamiento de ste primer acercamiento al BACKPROPAGATIO PERCEPTRON HOPFIELD
Perceptrn. N DISCRETO
A continuacin se presenta una breve descripcin de LINEAR ADALINE/MADA ART
tales caractersticas. ASOCIATIVE LINE (ASOCIATIVE
MEMORY RESONANCE
2.2.1 Topologa: THEORY)
Hace referencia a la forma como se conectan las redes Como se observa en la tabla se escriben tres ejemplos
neuronales, el nmero de conexiones entre las para que el lector profundice en el estudio de cada uno
neuronas, la cantidad de neuronas en cada capa y el de ellos, y de otros propuestos para cada una de las
grado de conectividad. En ste caso se habla de Redes clasificaciones presentadas.
Monocapa y Redes Multicapa.
Es la forma como la red actualiza los pesos de acuerdo Para identificar la estructura del Perceptrn simple, (De
a la informacin de entrada; como analoga a los una sola capa), se debe partir de las caractersticas
sistemas biolgicos, se puede pensar en la forma como mencionadas en el apartado anterior.
se conecta o desconecta una red neuronal; cuando se
produce un aprendizaje, se genera una conexin esto
quiere decir que para la RNA, el peso es distinto de
cero, pero cuando se realiza una desconexin por el
proceso de aprendizaje que sucede en el cerebro, esto
se interpreta en la RNA, como el equivalente a cero del
peso que conecta a la entrada respectiva.
Figura 2.3.1 Estructura del Perceptrn Simple [1]
Segn esta caracterstica las RNA pueden ser: con
aprendizaje supervisado o con aprendizaje no
supervisado. Cada uno de ellos tienen sus propias
A continuacin se realiza una descripcin del algoritmo
caractersticas no se profundizar en ellos ya que sta
usado para implementar un Perceptrn bsico, bajo
intensin escapa a los lmites del presente artculo.
entorno Matlab, se aplican conceptos de programacin
estructurada, para que el cdigo sea de fcil
2.2.3 Asociacin de la informacin Entrada / Salida: comprensin y se realice la adaptacin necesaria si se
quiere usar otro entorno de programacin. Se hace
Es la forma como la red neuronal almacena los pesos necesario mencionar, que Matlab ya trae en sus
nuevos a partir de los aprendizajes, estos son formas de herramientas (Toolbox), los algoritmos de algunas redes
representacin del nuevo conocimiento para la RNA.
neuronales, sin embargo en el presente artculo se
Es decir tiene un comportamiento similar al encontrado presenta un cdigo genrico el cual se puede
en los sistemas biolgicos y que se conoce como implementar en diferentes ambientes de programacin.
memoria asociativa.
Para explicar la estructura del cdigo, se plantea el
Segn ste criterio, las RNA pueden ser: siguiente orden en el algoritmo planteado.
Heteroasociativas (Mantienen la informacin gracias a la
existencia de dos capas una para captar la informacin y 1. Se fijan los pesos aleatorios: Son valores que
otra para retenerla) y Autoasociativas (compara las
multiplican a la entrada, generalmente entre 0 y
entradas actuales con los datos almacenados y escoge 1, sin embargo estos valores son irrelevantes,
el ms parecido en el estado presente). es decir su valor no interesa pero deben existir,
la nica restriccin es que no pueden ser cero,
2.2.4 Representacin de la informacin esto indicara que la entrada no se tiene en
Entrada/Salida: cuenta.
2. Se establecen las entradas: Se configura la
Los datos a tratar pueden ser continuos o discretos, en matriz de entrada, segn el nmero de entradas
el primer caso se habla de datos tipo analgicos, y los valores que toman cada una de ellas.
tomados de variables reales, por tanto la funcin de
activacin debe ser de la misma naturaleza, es decir de
3
CIDE. Programa de electrnica.
.
3. Se calcula la salida segn la funcin de estado de entrada una salida, en ste caso
aprendizaje. Para el Perceptrn se usar la ser un vector de una columna con cuatro
funcin hardlim, de Matlab. filas, como se indica a continuacin
4. Se actualizan pesos segn respuesta. De Y=[0 0 0 1]
acuerdo a la funcin determinada, se recalculan La salida deseada corresponde a una
los nuevos pesos, stos ayudarn a reevaluar compuerta AND, cuya salida depende de las
las nuevas entradas. entradas
5. Se regresa al paso 3 hasta obtener la
respuesta deseada. Tabla 3.1 Estados compuerta AND
4
CIDE. Programa de electrnica.
.
El programa final, como se utiliz en Matlab hasta obtener la salida deseada, se establece el
fue: ciclo for, donde T es el nmero de
%1. Fijar pesos aleatorios iteraciones que el programa debe recalcular los
Wn=rand(2,1); pesos hasta obtener los adecuados para que la
%2. Establecer los valores de entrada neurona aprenda a resolver la compuerta OR.
X=[0 0; 0 1;1 0;1 1]; Se sugiere que el lector cambie las salidas
Th=0.1; %Bias o referencia del Perceptrn deseadas y revise el nmero de iteraciones que
%3. Calcular la salida de la neurona el Perceptrn requiere para obtener las
yd=[0;0;0;1]; respuestas a las compuertas AND.
y=hardlim((X*Wn)-Th);
plot(X,y),grid on, hold on 4 EJEMPLO DE APLICACION
e=yd-y; %Se calcula el error al restar la
salida deseada de la salida obtenida.
Como ejemplo de aplicacin, se plantea el de
ed=0.1;% Se establece el error aceptado,
seleccionar una prenda de vestir, segn sus
en ste caso 0.1
caractersticas en cuanto a la Calidad de la tela y Tipo
N=2; %se establecen las iteraciones,
de Tela. Para la categora Calidad se establecen dos
pueden ser definidas por la velocidad de
estados, Buena =1, Baja =0; para la categora Tipo, los
aprendizaje
estados son: No pao=0 y Pao=1.
%Aqu empieza el entrenamiento de la
neurona, se hace de manera recursiva La idea es que el Perceptrn seleccione dos
%W(i,j) i=fila; j= Columna opciones, por costos, ya que de otra manera se
n=0.9; %Factor de ganancia en el rango de excedera en el presupuesto asignado para la compra de
0.0 a 1.0 las prendas, de tal forma que cuando las categoras Tipo
ent=2; y Calidad sean las parejas ordenadas:
r=0; No Pao, Buena y Pao, Baja.
% Se inician los nuevos pesos Respectivamente, pero que no seleccione los
for T=1:N %Ciclo for correspondiente a las estados:
iteraciones del aprendizaje por refuerzo No Pao, Baja y Pao, Buena
if e==0 La situacin se puede resumir en la Tabla 4.1:
break
else Tabla 4.1. Resumen situacin seleccin de una
for i=1:4 %Ciclo for correspondiente a prenda
las filas segn no de entradas i=filas
for k=1:ent %Ciclo for para Categora de la Tela
Seleccin
actualizar pesos. k=columnas Tipo Calidad
Wn(k,1)=Wn(k,1)+(n*(X(i,k)*e(i,1))) No Pao Baja No
end No Pao Buena Si
yn(i,1)=(hardlim((X(i,1)*(Wn(1,1)- Pao Baja Si
Th))+((X(i,2)*Wn(2,1)-Th)))) Pao Buena No
%Funcin para calcular las nuevas
salidas. Ahora bien, si la Tabla 4.1 se interpreta en binario,
end se puede representar as:
e=yd-yn
M=e-ed Tabla 4.2. Seleccin de una prenda en binario.
T %si el error es mayor que la tolerancia
continua haciendo el proceso se define la T C S
velocidad de aprendizaje para aplicar la 0 0 0
forma de calcular nuevos peso
0 1 1
end
1 0 1
end
%5. Continua hasta que el error sea menor 1 1 0
que la tolerancia
La funcin que se ajusta al comportamiento de la
situacin anterior es la de una compuerta tipo XOR, se
Se dejaron los comentarios para ubicar al lector sugiere revisar ste concepto si el lector no est
con respecto a los 5 pasos planteados en el familiarizado.
apartado anterior y el desarrollo de ste. Si se Para ello solo se debe modificar en el programa
quiere cambiar la salida deseada, solo se anterior el vector de salida deseada yd, y observar la
deben modificar los datos del vector yd, que salida que la neurona calcula, al finalizar el aprendizaje
para efectos del ejemplo, corresponde a una yn, analizar el error M y determinar el nmero de
compuerta OR y observar la respuesta en el iteraciones T, as cmo identificar los pesos en las
vector yn. entradas ajustados a la respuesta deseada, permite
identificar la velocidad de respuesta y la capacidad de
Para determinar el nmero de veces que la aprendizaje.
neurona tuvo que realizar el ajuste de los pesos
5
CIDE. Programa de electrnica.
.
6 REFERENCIAS
[1] E. Marrero, Pgina Profesor: Eddie Marrero, Marzo
2005. [En lnea]. Available:
http://academic.uprm.edu/eddiem/psic3001/id36.htm.
[ltimo acceso: 5 Febrero 2012].
[2] Aldabas, Emiliano. Introduccin al reconocimiento
de patrones mediante redes neuronales, [En lnea].
Available: www.eel.upc.es.. [ltimo acceso: 23 Marzo
2013].
[3] J. R. Hilera, Redes Neuronales Artificiales.
Fundamentos, Modelos y Aplicaciones, Madrid,
espaa: Alfaomega, 1995.
[4] MathWorks, Inc., Neuron Model, 2013. [En lnea].