Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Redes Multicapa PDF
Redes Multicapa PDF
INTRODUCCIN
datos, nmero de capas ocultas en la estructura de la red, nmero de neuronas en las capas ocultas,
1. FUNDAMENTOS TERICOS
balance de materia y energa, y tambin en otras leyes como por ejemplo la termodinmica y
parciales, junto con las condiciones de borde o fronteras apropiadas, las cuales son resueltas por
En esencia se basan en las leyes fsicas. Al igual que los modelos tericos se basan en las
ecuaciones de balance de materia y energa y en otras leyes existentes, pero cierta cantidad de
a. Las ecuaciones de modelamiento, son tan complejas de resolverlas que resulta muy dificultoso,
b. La falta de datos.
La gran mayora de los modelos matemticos usados en la prctica estn dentro de esta
categora.
C) MODELOS MATEMTICOS EMPRICOS.
Estos modelos no estn basados en las leyes fsicas. En este caso el proceso es considerado como
una caja negra, donde la relacin matemtica que gobierna el proceso es desconocida o muy
compleja depende nicamente de las variables de entrada y salida, ignorando la estructura interior o
La mejor manera de construir este tipo de modelos es a travs de diseos Experimentales, es decir,
los datos o puntos experimentales iniciales estn basados en algn diseo experimental.
Como los anteriores tampoco estn basados en las leyes fsicas, el procedimiento para la
determinacin de la relacin entre las variables de entrada y de salida, no es secuencial, sino que se
obtiene por la interconexin de elementos que operan en forma paralela. Estos modelos en el
inversa.
Las Redes Neuronales permiten la solucin de problemas complejos, utilizando procedimientos que
no se sustentan en una secuencia de pasos, sino que inspirados en el cerebro humano, utilizan una
Las REDES NEURONALES ARTIFICIALES son una teora que an esta en proceso de desarrollo, su
Desde 1985 comenzaron a consolidarse los congresos ms importantes como Neuronal Networks for
El Departamento de Defensa de los Estados Unidos, la Sociedad Europea de Redes Neuronales son
basa en el estudio del procesamiento de la informacin por el cerebro humano; este rgano biolgico
tiene varias caractersticas deseables para los sistemas de procesamiento de informacin digitales,
tales como:
1. Es robusto y tolerante a fallas, diariamente mueren neuronas sin afectar su desempeo.
2. Es flexible, se ajusta a nuevos ambientes por aprendizaje, no hay que programarlo.
3. Puede manejar informacin difusa, con ruido o inconsistente.
4. Es altamente paralelo
5. Es pequeo, compacto y consume poca energa.
informacin imprecisa suministrada por los sentidos a un ritmo increblemente veloz. Logra descifrar
un susurro en una sala ruidosa, identificar una persona por su voz o por una manera particular de
clase, aprende a crear las representaciones internas que hacen posibles estas habilidades.
funcionamiento, varios investigadores han desarrollado desde hace ms de 30 aos la teora de las
Las neuronas tienen tres componentes principales, las dendritas (ramas cortas), el cuerpo de la
las dendritas y el cuerpo celular reciben seales de entrada; el cuerpo celular las combina e integra y
emite seales de salida. El axn transmite dichas seales a los terminales axnicos, a travs de los
cuales por sinapsis con dendritas de otras neuronas, se distribuye la informacin a un nuevo
conjunto de neuronas, se calcula que en el cerebro humano existen del orden de 1015 conexiones.
Las seales que se utilizan son de dos tipos: elctrica y qumica. La seal generada por la neurona y
transportada a lo largo del axn es un impulso elctrico, mientras que la seal que se transmite entre
los terminales axnicos de una neurona y las dendritas de la otra es de origen qumico.
Para establecer una similitud directa entre la actividad sinptica y la analoga con las redes
neuronales artificiales podemos considerar lo siguiente: las seales que llegan a la sinapsis son las
denominado peso asociado a la sinapsis correspondiente. Estas seales de entrada pueden excitar a
la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El efecto es la suma de las
entradas ponderadas. Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona
se activa (da salida). Esta es una situacin de todo o nada; cada neurona se activa o no se activa. La
facilidad de transmisin de seales se altera mediante la actividad del sistema nervioso. Las sinapsis
son susceptibles a la fatiga, deficiencia de oxgeno y la presencia de anestsicos, entre otro. Esta
A partir del siguiente grfico se representan los elementos anlogos del sistema artificial con los que
x1
x2
w1
w2
x3 f s
w3
w4
x4 w5
x5
Las entradas Xi representan las seales que provienen de otras neuronas y que son
Los pesos Wi son la intensidad de la sinpsis que conecta dos neuronas; tanto Xi como Wi
f, es la funcin umbral ( funcin de transferencia) que la neurona debe sobrepasar para activarse;
Entre las FUNCIONES DE TRANSFERENCIA utilizadas en el sistema artificial tenemos las funciones:
hardlim
hardlims
poslin
purelin
satlin
satlins
logsig
tansig
1.2.2. TOPOLOGIA DE LA RED NEURONAL
fig. N 2 : Estructura de la Red Neuronal.
capas
ocultas
capa 1
de
entra capa de
da 2 salida
1 K1
1 S1
3
2 K2 S2
2
4
3 K3
n 5 SY
m Kr
siguiente manera: una vez que se ha aplicado un patrn a la entrada de la red como estmulo, este se
propaga desde la primera capa a travs de las capas superiores de la red, hasta generar una salida.
La seal de salida se compara con la salida deseada y se calcula una seal de error para cada una
de las salidas.
Las salidas de error se propagan hacia atrs, partiendo de la capa de salida, hacia todas las
neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la
capa oculta solo reciben una fraccin de la seal total del error, basndose aproximadamente en la
contribucin relativa que haya aportado cada neurona a la salida original. Este proceso se repite,
capa por capa, hasta que todas las neuronas de la red hayan recibido una seal de error que
describa su contribucin relativa al error total. Basndose en la seal de error percibida, se actualizan
los pesos de conexin de cada neurona, para hacer que la red converja hacia un estado que permita
capas intermedias se organizan a s mismas de tal modo que las distintas neuronas aprenden a
reconocer distintas caractersticas del espacio total de entrada. Despus del entrenamiento, cuando
se les presente un patrn arbitrario de entrada que contenga ruido o que est incompleto, las
neuronas de la capa oculta de la red respondern con una salida activa si la nueva entrada contiene
un patrn que se asemeje a aquella caracterstica que las neuronas individuales hayan aprendido a
reconocer durante su entrenamiento. Y a la inversa, las unidades de las capas ocultas tienen una
tendencia a inhibir su salida si el patrn de entrada no contiene la caracterstica para reconocer, para
Backpropagation tiende a desarrollar relaciones internas entre neuronas con el fin de organizar los
datos de entrenamiento en clases. Esta tendencia se puede extrapolar, para llegar a la hiptesis
consistente en que todas las unidades de la capa oculta de una Backpropagation son asociadas de
alguna manera a caractersticas especficas del patrn de entrada como consecuencia del
observador humano, lo importante es que la red ha encontrado una representacin interna que le
permite generar las salidas deseadas cuando se le dan las entradas, en el proceso de entrenamiento.
Esta misma representacin interna se puede aplicar a entradas que la red no haya visto antes, y la
red clasificar estas entradas segn las caractersticas que compartan con los ejemplos de
entrenamiento.
Una red neuronal tipo Backpropagation, es una red de correspondencia puesto que es capaz de
calcular alguna relacin funcional entre su entrada y su salida. Es decir que para un conjunto de P
pares de vectores (x1,y1), (x2,y2), ......... , (xp,yp), donde los elementos xi pertenecen al vector de
entrada, y los elementos yi pertenecen al vector de salida, que poseen una correspondencia funcional
y = f(x) donde x RN, y RM, con el entrenamiento la red aprender y proporcionar una
2. PRUEBAS REALIZADAS
7. La salida grfica.
5) La contrastacin de la estabilidad de los resultados obtenidos por redes neuronales con los
6) La aplicacin de las redes neuronales y contrastacin con diseos experimentales en dos trabajos
de investigacin:
cal.
La estructura de los programas desarrollados para llevar a cabo las diferentes pruebas se muestra en
p, t nuevos
an
datos
(pnew)
pn, tn a pre
(pnewn)
red r
(a,t) red
entrenada
entrenamiento grfico
post
(a newn)
2
a new
no
error mx.
permitido
si
1
2.1.2. ALGORITMO PARA DETERMINAR EL MXIMO CON REDES NEURONALES PARA DOS
VARIABLES DE ENTRADA Y UNA RESPUESTA. (las pruebas implican la variacin de valores de las
variables independientes).
W, b
p1=min:mx
p2=min:mx
escalado
red
entrenada
an>mx
mx
an,p1n,p2n
end
end
a, p1, p2
p1 mx
p2 mx
a mx
2.1.3. ALGORITMO DEL PROGRAMA PARA HALLAR VALORES MXIMOS, PARA TRES
VARIABLES DE ENTRADA Y DOS RESPUESTAS. (las pruebas implican la variacin de
valores de las variables independientes).
sW1,sB1
sW2,sB2
rW1,rB1
rW2,rB2
q = 50:0.5:60
L= 3:0.1:5
T=320:380
PRETRATAMIENTO
qn,ln,tn
rendimiento (r), a
partir de la red
r > 0.35
obtener
selectividad(s) a
partir de la red.
s>smx
registrar
valores
mximos
q,l,t
end
end
end
valores
mximos
q,l,t
2.2. RESPUESTAS OBTENIDAS UTIZANDO DISEO EXPERIMENTAL ROTABLE
COMPUESTO Y REDES NEURONALES
100
80
v.e.
60 r.m.
red.
40
20
0
1 3 5 7 9 11 13 15 17 19
experimento
100
80
v.e.
60 r.m.
red.
40
20
0
1 3 5 7 9 11 13 15 17 19
experimento
2.3. OPTIMIZACIN DE RENDIMIENTO Y SELECTIVIDAD EN UN SISTEMA DE REACCIONES
MULTIPLES UTILIZANDO REDES NEURONALES.
Reaccin 1
producto deseado
(principal)
CH2= CH- CH 3 + Cl2 CH 2 = CH- CH 2Cl + HCl
k1
reaccin 2 k3 reaccin 3
k2
Subproductos no deseados
Influencia de la temperatura de
entrada al reactor CSTR
select./rendimiento
0.6
0.5
0.4
selectividad
0.3
rendimiento
0.2
0.1
0
200 250 275 300 350 400
temperatura (C)
Influencia de la longitud del
reactor PFR
0.6
select/rendimiento
0.5
0.4
selectividad
0.3
rendimiento
0.2
0.1
0
2 3 4 5 6
longitud (m)
CONCLUSIONES
5. Los coeficientes de correlacin y la prueba F, permiten afirmar que los resultados obtenidos
con las redes neuronales en los casos de comportamiento no lineal, se ajustan mas a los
resultados experimentales que los obtenidos utilizando diseos experimentales rotables
compuestos.
6. Las redes neuronales proporcionan un procedimiento mas estable en las respuestas, que los
modelos matemticos empricos obtenidos con la aplicacin de diseos experimentales al
ignorar con mayor efectividad datos irrelevantes en la entrada.
BIBLIOGRAFA BSICA.
1. http://personal5.iddeo.es/wintrmute/ia/neuronal.htm
2. http://www.gc.ssr.upm.es/inves/neural/ann2/anntutorial.html
3. http://wwwdsa.uqac.uquebec.ca/~jmtorres/investigacion/index.htm