Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Matich Redesneuronales
Matich Redesneuronales
Ctedra:
Informtica Aplicada a la Ingeniera de Procesos Orientacin I
Tema:
Profesores:
Carlos Alberto Ruiz
Marta Susana Basualdo
Autor:
Damin Jorge Matich
Marzo de 2001
Contenidos
Contenidos........................................................................................................................ 2
Introduccin..................................................................................................................... 4
1.1
Generalidades................................................................................................................... 8
3.1
3.2
3.2.1
3.2.2
3.2.3
3.2.4
3.2.5
3.3
4.2
4.3
4.4
5.2
5.3
5.4
5.4.1
Aprendizaje supervisado. ................................................................................................ 19
5.4.1.1 Aprendizaje por correccin de error.......................................................................... 20
5.4.1.2 Aprendizaje por refuerzo. ........................................................................................... 20
5.4.1.3 Aprendizaje estocstico. .............................................................................................. 21
5.4.2
Aprendizaje no supervisado. ........................................................................................... 21
5.4.2.1 Aprendizaje hebbiano.................................................................................................. 22
5.4.2.2 Aprendizaje competitivo y comparativo. ................................................................... 22
5.5
5.6
5.7
5.7.1
5.7.2
5.7.3
5.8
5.9
Principales Topologas................................................................................................... 27
6.1
6.2
Redes monocapa..........................................................................................................27
6.3
6.4
6.5
6.5.1
Ejemplo. ............................................................................................................................ 28
6.6
6.7
6.8
6.8.1
6.8.2
Aplicaciones ................................................................................................................... 34
7.1
7.1.1
7.1.2
7.1.3
7.1.4
7.2
7.2.1
7.2.2
7.2.3
8.2
Bibliografa .................................................................................................................... 55
Introduccin
Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con
la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple
del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen
muy poderosas.
Lo que bsicamente ocurre en una neurona biolgica es lo siguiente: la neurona
es estimulada o excitada a travs de sus entradas (inputs) y cuando se alcanza un cierto
umbral, la neurona se dispara o activa, pasando una seal hacia el axon. Posteriores
investigaciones condujeron al descubrimiento de que estos procesos son el resultado de
eventos electroqumicos.
Como ya se sabe, el pensamiento tiene lugar en el cerebro, que consta de
billones de neuronas interconectadas. As, el secreto de la inteligencia -sin importar
como se defina- se sita dentro de estas neuronas interconectadas y de su interaccin.
Tambin, es bien conocido que los humanos son capaces de aprender. Aprendizaje
significa que aquellos problemas que inicialmente no pueden resolverse, pueden ser
resueltos despus de obtener ms informacin acerca del problema. Por lo tanto, las
Redes Neuronales...
Consisten de unidades de procesamiento que intercambian datos o
informacin.
Se utilizan para reconocer patrones, incluyendo imgenes, manuscritos y
secuencias de tiempo (por ejemplo: tendencias financieras).
Resea Histrica
el aprendizaje de una funcin no-lineal. Esto demostr que el Perceptron era muy dbil,
dado que las funciones no-lineales son extensamente empleadas en computacin y en
los problemas del mundo real.
1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de
propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente
aclarado en 1985.
1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las dems
previamente inventadas. La misma simula otras habilidades del cerebro: memoria a
largo y corto plazo.
1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su
libro: Computacin neuronal de decisiones en problemas de optimizacin.
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje
de propagacin hacia atrs (backpropagation).
A partir de 1986, el panorama fue alentador con respecto a las
investigaciones y el desarrollo de las redes neuronales. En la actualidad, son
numerosos los trabajos que se realizan y publican cada ao, las aplicaciones
nuevas que surgen (sobretodo en el rea de control) y las empresas que lanzan
al mercado productos nuevos, tanto hardware como software (sobre todo para
simulacin).
Generalidades
3.2.2 Auto-organizacin.
Las redes neuronales emplean su capacidad de aprendizaje adaptativo para
autoorganizar la informacin que reciben durante el aprendizaje y/o la operacin.
Mientras que el aprendizaje es la modificacin de cada elemento procesal, la
autoorganizacin consiste en la modificacin de la red neuronal completa para llevar a
cabo un objetivo especfico.
Cuando las redes neuronales se usan para reconocer ciertas clases de patrones,
ellas autoorganizan la informacin usada. Por ejemplo, la red llamada backpropagation,
crear su propia representacin caracterstica, mediante la cual puede reconocer ciertos
patrones.
Esta autoorganizacin provoca la generalizacin: facultad de las redes
neuronales de responder apropiadamente cuando se les presentan datos o situaciones a
las que no haba sido expuesta anteriormente. El sistema puede generalizar la entrada
para obtener una respuesta. Esta caracterstica es muy importante cuando se tiene que
solucionar problemas en los cuales la informacin de entrada no es muy clara; adems
permite que el sistema d una solucin, incluso cuando la informacin de entrada est
especificada de forma incompleta.
3.2.3
Tolerancia a fallos.
principio fuera sncrono, se necesitara un reloj global o maestro con el cual los pulsos
estn sincronizados. ste tampoco es el caso. Las neuronas no pueden ser circuitos de
umbral lgico, porque hay miles de entradas variables en la mayora de las neuronas y el
umbral es variable con el tiempo, siendo afectado por la estimulacin, atenuacin, etc.
La precisin y estabilidad de tales circuitos no es suficiente para definir ninguna funcin
booleana. Los procesos colectivos que son importantes en computacin neuronal no
pueden implementarse por computacin digital. Por todo ello, el cerebro debe ser un
computador analgico.
Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos
los hechos fisiolgicos hablan a favor de las acciones de las neuronas como integradores
analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo cual no es
caracterstico de sistemas biestables.
Los circuitos del cerebro no implementan computacin recursiva y por lo tanto
no son algortmicos. Debido a los problemas de estabilidad, los circuitos neuronales no
son suficientemente estables para definiciones recursivas de funciones como en
computacin digital. Un algoritmo, por definicin, define una funcin recursiva.
11
Elementos Bsicos
I1
O1
I2
O2
In
On
Salidas
Entradas
Capa de
Capas
Capa de
entrada
ocultas
salida
Figura 4.1: ejemplo de una red neuronal totalmente conectada.
Dendritas (entradas)
Sinapsis (pesos)
Axon (salidas)
Figura 4.2: comparacin entre una neurona biolgica (izquierda) y una artificial (derecha).
global, gini. Esto se logra a travs de la funcin de entrada, la cual se calcula a partir del
vector entrada. La funcin de entrada puede describirse como sigue:
inputi = (ini1 wi1)* (ini2 wi2)*... (inin win)
donde: * representa al operador apropiado (por ejemplo: mximo, sumatoria,
productoria, etc.), n al nmero de entradas a la neurona Ni y wi al peso.
Los valores de entrada se multiplican por los pesos anteriormente ingresados a la
neurona. Por consiguiente, los pesos que generalmente no estn restringidos cambian la
medida de influencia que tienen los valores de entrada. Es decir, que permiten que un
gran valor de entrada tenga solamente una pequea influencia, si estos son lo
suficientemente pequeos.
(n
ij
wij ) ,
con j = 1, 2, ..., n
(n
ij
13
Una neurona biolgica puede estar activa (excitada) o inactiva (no excitada); es
decir, que tiene un estado de activacin. Las neuronas artificiales tambin tienen
diferentes estados de activacin; algunas de ellas solamente dos, al igual que las
biolgicas, pero otras pueden tomar cualquier valor dentro de un conjunto determinado.
La funcin activacin calcula el estado de actividad de una neurona;
transformando la entrada global (menos el umbral, i) en un valor (estado) de
activacin, cuyo rango normalmente va de (0 a 1) o de (1 a 1). Esto es as, porque una
neurona puede estar totalmente inactiva (0 o 1) o activa (1).
La funcin activacin, es una funcin de la entrada global (gini) menos el umbral
(i). Las funciones de activacin ms comnmente utilizadas se detallan a
continuacin:
1) Funcin lineal:
1
f ( x ) = a * x
1
x 1 / a
- 1/a < x < 1 / a
x 1/ a
1
, con x = gini - i.
1 + e g x
eg x eg x
, con x = gini - i.
e g x + e g x
14
1
Binaria:
0
si act i i
, donde i es el umbral.
de lo contrario
15
16
Entrada:
descripcin de
la situacin.
Salida:
descripcin de
la decisin.
Encontrar la decisin
por procesamiento de la
informacin de entrada.
Salida de la red
neuronal.
Entrada de la
red neuronal.
Lo mismo ocurre cuando se utiliza una red neuronal como un sistema de sostn
de decisiones. La salida de la red neuronal es directa o indirectamente la solucin al
problema o la decisin a tomar. Por ejemplo: si uno desea determinar si un cliente, el
cual est preguntando por la solicitud de un crdito, es un buen candidato (lo que
significa que es confiable, o sea, que puede devolver el crdito solicitado), se podran
tomar en consideracin variables o atributos tales como antecedentes de crditos,
pasivo, garantas y ganancias. Las variables o atributos pertenecientes a un cliente
especfico son las entradas al proceso de decisin. El resultado de tal proceso podra ser
una decisin similar a la siguiente: cliente bueno o cliente malo.
Los atributos expuestos en la Tabla 5.1 sern tomados en cuenta para el caso del
puntaje para un crdito:
Abreviacin
Nombre
A1
Historia de crditos
A2
Pasivo
A3
Garanta
A4
Ganancia
Valores
Mala
Desconocida
Buena
Alto
Bajo
Ninguna
Adecuada
1 (baja)
2 (adecuada)
3 (alta)
Tabla 5.1
A menudo las reglas que muestran la lgica (o falta de lgica) sobre las que se
basan las decisiones no son tan obvias. Por lo tanto, una persona que no conoce mucho
acerca del sujeto que solicita el prstamo, no puede tomar una decisin correcta. Notar
que aqu los valores son ms bien simblicos que numricos. Las redes neuronales
reales necesitan entradas numricas, pero por el momento se utilizarn entradas
simblicas para facilitar el entendimiento.
En la Tabla 5.2 se presenta un conjunto de datos de anteriores situaciones de
decisin, cada una de ellas caracterizada por diferentes valores de las variables de
entrada, con su respectiva decisin (0 es un cliente bueno, 1 uno promedio y 2 uno
malo).
17
N
01
02
03
04
05
06
07
08
09
10
11
12
13
14
A1
malo
conocido
conocido
conocido
conocido
conocido
malo
malo
bueno
bueno
bueno
bueno
bueno
bueno
A2
A3
alto
ninguno
alto
ninguno
bajo
ninguno
bajo
ninguno
bajo
ninguno
bajo
adecuado
bajo
ninguno
bajo
adecuado
bajo
ninguno
alto
adecuado
alto
ninguno
alto
ninguno
alto
ninguno
alto
ninguno
Tabla 5.2
A4
1
2
2
1
3
3
1
3
3
3
1
2
3
2
Clase
2
2
1
2
0
0
2
1
0
0
2
1
0
2
Se ha visto que los datos de entrada se procesan a travs de la red neuronal con
el propsito de lograr una salida. Tambin se dijo que las redes neuronales extraen
generalizaciones desde un conjunto determinado de ejemplos anteriores de tales
problemas de decisin. Una red neuronal debe aprender a calcular la salida correcta para
cada constelacin (arreglo o vector) de entrada en el conjunto de ejemplos. Este proceso
de aprendizaje se denomina: proceso de entrenamiento o acondicionamiento. El
conjunto de datos (o conjunto de ejemplos) sobre el cual este proceso se basa es, por
ende, llamado: conjunto de datos de entrenamiento.
Si la topologa de la red y las diferentes funciones de cada neurona (entrada,
activacin y salida) no pueden cambiar durante el aprendizaje, mientras que los pesos
sobre cada una de las conexiones si pueden hacerlo; el aprendizaje de una red neuronal
significa: adaptacin de los pesos.
En otras palabras el aprendizaje es el proceso por el cual una red neuronal
modifica sus pesos en respuesta a una informacin de entrada. Los cambios que se
producen durante el mismo se reducen a la destruccin, modificacin y creacin de
conexiones entre las neuronas. En los sistemas biolgicos existe una continua
destruccin y creacin de conexiones entre las neuronas. En los modelos de redes
neuronales artificiales, la creacin de una nueva conexin implica que el peso de la
misma pasa a tener un valor distinto de cero. De la misma manera, una conexin se
destruye cuando su peso pasa a ser cero.
18
donde t hace referencia a la etapa de aprendizaje, wij(t+1) al peso nuevo y wij(t) al peso
viejo.
5.4.1
Aprendizaje supervisado.
19
Nj
outj
peso
ini
Ni
outi
5.4.2
Aprendizaje no supervisado.
21
22
Los datos son codificados dentro de un intervalo, [0.0 + buffer de baja, 1.0
buffer de alta], por medio de una funcin lineal. Los buffer (amortiguadores) son
necesarios, especialmente cuando se trabaja con series de tiempo, porque a menudo
puede observarse que una variable numrica cae por debajo del valor mnimo
presenciado hasta el momento, o por encima del mximo. Por medio de esta manera de
codificacin se conduce a un conjunto de valores por encima de 0.0 y por debajo de 1.0,
cuando se utiliza un salto de 0.0 a 1.0
23
Por ejemplo, para la Figura 5.3, se debe encontrar la ecuacin que describa la
funcin de transformacin; a la cual llamaremos t y se escribe como sigue:
t: datos originales (x) datos codificados (xnuevos);
t(x) = xnuevos = a * x + b;
5.7.2
Viejo
1
0
0
Medio
0
1
0
Entrada: Viejo
Codificacin de la edad
Joven
0
0
1
24
5.7.3
Procedimiento de codificacin
Funcin de transformacin lineal
# neuronas
1
n valores simblicos
con orden
Variables
pseudodiscretas
Numricos, pero
dividido dentro de T
subintervalos
26
Principales Topologas
La conectividad entre los nodos de una red neuronal est relacionada con la
forma en que las salidas de las neuronas estn canalizadas para convertirse en entradas
de otras neuronas. La seal de salida de un nodo puede ser una entrada de otro elemento
de proceso, o incluso ser una entrada de s mismo (conexin autorrecurrente).
Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o
de niveles precedentes, la red se describe como de conexin hacia delante (ver Figura
27
4.1). Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles
previos o del mismo nivel, incluyndose ellas mismas, la red es de conexin hacia
atrs.
Las redes de propagacin hacia atrs que tienen lazos cerrados son llamadas:
sistemas recurrentes.
6.5.1 Ejemplo.
100 90
[segundos/ C] = tiempo = 10 [segundos/ C] = 1 [segundos/ C]
30 20
temperatura 10
Esto significa que se produce un incremento de tiempo de aproximadamente 1
segundo, cuando la temperatura se eleva 1C.
Ahora si se supone que en lugar del tiempo se tiene la activacin de una neurona
y en lugar de la temperatura, la entrada global. Dado que la mayora de las funciones de
activacin son no lineales (por ejemplo la funcin sigmoidea o la tangente hiperblica),
se tiene que calcular la derivada de la funcin con respecto al peso; por consiguiente, la
entrada global cambia. Esta derivada se utiliza para cambiar los pesos durante el
proceso de aprendizaje.
Para cada una de las neuronas en la capa de salida, la desviacin objetivo (la cual
es: la salida objetivo menos la salida real) es multiplicada por la derivada de la funcin
activacin. Utilizando la derivada se logra una sintonizacin fina de los pesos cuando
la salida real esta cerca de la salida deseada. Al mirar la Figura 6.1, la misma muestra
una constelacin donde la salida real para una neurona es 0.95 y la deseada es de 1.0
28
Activacin
F. sigmiodea (g, x)
Salida deseada = 1
Salida real = 0.95
Entrada global
Figura 6.1: desviacin a la salida objetivo.
29
1
(probabilidad)
1 + e d / T
Ya se sabe que las redes neuronales son sistemas que almacenan cierta
informacin aprendida. Esta informacin se registra de forma distribuida en los pesos
asociados a las conexiones entre neuronas. Por tanto, puede imaginarse una red como
cierto tipo de memoria que almacena datos de forma estable, datos que se grabarn en
dicha memoria como consecuencia del aprendizaje de la red y que podrn ser ledos a la
salida como respuesta a cierta informacin de entrada, comportndose entonces la red
como lo que habitualmente se conoce por memoria asociativa: cuando se aplica un
estmulo (dato de entrada) la red responde con una salida asociada a dicha informacin
de entrada.
31
32
33
Aplicaciones
Biologa:
-
Empresa:
-
Medio ambiente:
-
Finanzas:
-
Identificacin de falsificaciones.
Interpretacin de firmas.
34
Manufacturacin:
-
Inspeccin de la calidad.
Medicina:
-
Monitorizacin en cirugas.
Militares:
-
7.1.1
Asociacin y clasificacin.
7.1.4
Optimizacin.
36
7.2.1
Hoy ms que nunca, las empresas estn sujetas a la presin de los elevados
costos. Esto puede verse en diferentes sectores corporativos, tales como la planificacin
del staff de empleados. Desde el punto de vista de las empresas, un empleado que falla
al ejecutar la mayor parte de las tareas asignadas, evidencia una baja productividad. Por
el otro lado, esta situacin es frustrante para el empleado. Ambos efectos causan costos,
los cuales podran evitarse realizando antes una prueba de aptitud. Estos problemas no
solamente son originados por los empleados nuevos, sino tambin por aquellos que son
reubicados dentro de la misma empresa.
En este proyecto de investigacin se examin hasta donde la prediccin de
aptitudes puede llevarse a cabo por una red neuronal, cuya topologa suministre una
tarea satisfactoria y as lograr una prediccin ms exitosa.
Base de datos y codificacin:
El primer problema que se les present fue cmo codificar los datos obtenidos,
decidiendo transformarlos dentro del intervalo [0.1, 1.0].
Cmo codificar la salida objetivo fue la prxima pregunta que consideraron.
Normalmente la compaa slo quiere conocer si una persona ejecutar bien o mal la
tarea determinada, o si su desempeo ser muy bueno, bueno, promedio, malo o muy
malo. Consecuentemente, (a) asignaron la salida dada dentro de varias clases y (b)
transformaron las cifras representativas dentro del intervalo [0, 1], utilizando en parte
una funcin lineal.
Algoritmo de aprendizaje:
37
Topologa de la red:
7.2.2
habilidades de las redes para producir salidas correctas cuando analizan un dato real. El
proyecto lo realizaron conjuntamente con la compaa que lo solicit, la cual se dedica a
la fabricacin de bicicletas y por ende, necesita de tubos para la construccin de las
mismas; cuyo consumo deban predecir.
Base de datos y codificacin:
Tiempo
Figura 7.1: series de tiempo empleadas en la
planificacin de la demanda de materiales.
Cada serie de tiempo incluye datos desde 1992 a 1994 (semanalmente). Las
series, pedido y stock, fueron codificados dentro del intervalo [0.0, 0.9], para lo cual
utilizaron una funcin de transformacin lineal. Mientras que al consumo lo codificaron
en dos pasos, porque esta serie de tiempo vara, en partes, de manera muy brusca. Para
el primer paso emplearon la frmula:
z new =
xold m x
std (x )
39
Topologa
Exactitud
10-10-36-1
30.0%
10-20-36-1
10.0%
10-27-10-1
10.0%
Tabla 7.1
9-27-1
9-9-18-1
9-18-9-1
Error permitido
10 %
20 %
10 %
20 %
10 %
20 %
Tabla 7.2
Exactitud
86.36 %
89.39 %
87.88 %
90.15 %
66.67 %
70.45 %
La puntuacin para un crdito representa una tarea de gran riesgo para las
instituciones crediticias. Estas instituciones tienen un fuerte inters en evitar tales
situaciones, rechazando los candidatos que parecen ser un riesgo malo. Ya que un
candidato rechazado, que de hecho era un buen riesgo crediticio, no impone costos
reales; mientras que, un candidato que es incapaz de restituir el pago del crdito
extendido puede causar prdidas sustanciales (recordar el caso Schneider en Alemania).
Diferentes mtodos son aplicados en este campo. Muy a menudo la decisin
tomada, aprobacin o rechazo, se basa sobre los siguientes factores: carcter, capacidad
y capital (crditos triple C); siendo esta solamente humana y naturalmente subjetiva.
Otro mtodo es la utilizacin de un sistema de puntuacin numrico. El mismo
utiliza rasgos comunes que resultan ser importantes para la evaluacin de los candidatos
para un crdito. La importancia especfica de cada simple caracterstica est expresada
por pesos. Cada candidato al crdito se pondera con una cierta cifra indicativa (suma
integral de los rasgos) y si se sita por encima de un umbral determinado se considera
como una persona digna de crdito.
Debido a que ambos mtodos tienen aspectos negativos -subjetivamente por un
lado y una simple dependencia lineal entre caracterstica por el otro-, los esfuerzos
apuntan a la aplicacin de tcnicas de inteligencia artificial, tales como Sistemas
Expertos (XPS) y Redes Neuronales, en el campo de la puntuacin para la solicitud de
40
un crdito. Por lo tanto la tarea a ser consumada por medio de una red neuronal es tratar
de predecir una correcta clasificacin de los clientes.
Escenario de los datos:
690
2 (buena/mala)
307 (buenas): clase 2
Distribucin de clases
383 (malas): clase 1
N de atributos:
14
-continuos
6
-binarios
4
-ordenados
4
Tabla 7.3
Codificacin:
Neurona de entrada
100
010
001
Tabla 7.4
La capa de salida estaba formada por una simple neurona binaria que daba una
clasificacin bueno/malo.
Utilizando el procedimiento de codificacin de la Tabla 7.4, al menos 32
neuronas les fueron necesarias en la capa de entrada. Por supuesto otras formas de
codificacin de los atributos pueden ser posibles.
Resultados:
41
ver en la Tabla 7.5, en donde intentaron mantener una distribucin similar de candidatos
buenos y malos.
Subconjunto
N de ejemplos
Entrenamiento
480
Testeo
210
Distribucin
214 (buenos)
266 (malos)
93 (buenos)
117 (malos)
Tabla 7.5
pocas
Exactitud
66
100
100
Tabla 7.6
80.6 %
80.4 %
82.5 %
42
Software Comerciales
Soteica S.R.L.
Alvarez Thomas 796, 3 C, 1427 Buenos Aires, Argentina,
Tel.: +54-11-4555-5703, ext. 218, Fax: +54-11-4551-0751, e-mail: carlos@soteica.com.ar
2
Sumario:
Introduccin:
43
44
Leonides (1998) puede mencionarse como una buena fuente de informacin sobre la
teora y prctica de las mismas. Esta seccin solamente pretende dar una breve
introduccin a las capacidades del software NeurOn-Line Studio.
El NeurOn-Line Studio puede utilizarse off-line u on-line, siendo una
herramienta para el anlisis de procesos. Tpicamente la fuente de datos es un
historiador de datos u otro archivo de datos. Empleando poderosas herramientas de
visualizacin, es posible analizar un amplio conjunto de datos desordenados de hasta
100,000 registros y ms de 100 variables. El NeurOn-Line Studio provee una gua paso
a paso a travs del proceso de preprocesamiento de datos, configuracin del modelo,
entrenamiento, validacin y puesta en lnea. Para maximizar la productividad, muchas
tcnicas de decisin, tales como seleccin de las entradas relevantes, tiempos de retraso
y arquitectura de la red, estn automatizadas o convenientemente asistidas.
Una vez que un modelo se ha construido, es posible utilizar el NeurOn-Line
Studio para descubrir formas ms ventajosas para correr el proceso a travs de la
simulacin y de la optimizacin. Sobre la base de una funcin objetivo, que expresa
rentabilidad en trminos de variables de proceso predichas y medidas, el NeurOn-Line
Studio aplica el modelo de red neuronal para determinar las condiciones de operacin
ptima, dentro de las restricciones del caso.
Es posible implementar los modelos predictivos y las capacidades de
optimizacin de NeurOn-Line Studio como controles ActiveX en el entorno de
Windows NT, 2000 y 98. Los mismos pueden correrse en contenedores adecuados, que
incluyen Visual Basic y aplicaciones C++, aplicaciones MS Office, y otros que siguen
la norma COM, tales como los provistos por la mayora de los proveedores de DCSs e
historiadores de datos.
Los modelos del NeurOn-Line Studio pueden tambin fcilmente integrarse
dentro del ambiente de las aplicaciones del sistema experto G2. Esta integracin resulta
estratgica, sobre todo por la coleccin de rutinas de conectividad del G2, orientacin a
objetos y su habilidad para representar reglas expertas en lenguaje natural estructurado.
Empleando los modelos del NeurOn-Line Studio en esta forma aumentan la capacidad
del G2 para el manejo inteligente de operaciones de proceso.
45
46
Modelos del
NeurOn-Line.
Modelo Inferencial
con tiempo muerto
aplicado a las
entradas.
Modelo Inferencial,
Modelo de
Optimizacin.
Modelo Inferencial
con tiempo muerto
aplicado a las
entradas.
Con el objetivo de ejecutar una prueba del concepto para la aplicacin del
NeurOn-Line Studio como un sensor virtual, los datos fueron colectados desde el
historiador de datos de la planta PI (OSI Soft) de la Refinera de La Plata de RepsolYPF (Ensenada, Pcia. de Buenos Aires, Argentina). El objetivo fue inferir el 90% del
Punto de Destilacin de la nafta de la Unidad de Cracking Cataltico Fluidizado
(Fluidized Catalytic Cracking Unit FCCU). Este caso fue descripto en detalle por
Ruiz (1999) pero una breve descripcin se da a continuacin.
Los datos fueron colectados utilizando la interfase Excel DataLink del
historiador PI, colectando inicialmente 63 variables operativas, durante el perodo de
junio-octubre de 1998. El volumen total de informacin recogida fue de 80 Mbytes
aproximadamente. Despus del filtrado de los datos, inspeccin para identificar los
perodos de operacin inestables o mal funcionamiento de los sensores, un perodo de 8
das fue seleccionado como el conjunto de entrenamiento. Un conjunto de validacin
independiente tambin fue extrado, para utilizarse sobre la validacin del modelo
finalmente entrenado.
El conjunto de datos de entrenamiento fue inspeccionado a fondo para detectar
los perodos malos. La Figura 1 refleja el perodo cuando el caudal de alimentacin a la
FCCU se cambi de 170 a 180 m3/h. El NeurOn-Line Studio permite, directamente
desde el grfico, embanderar los datos para ser previamente preprocesados al
entrenamiento de la NN.
47
Figura 1: cambio en el flujo de alimentacin a la FCCU (marcados en rojo) de 170 a 180 m3/h.
48
Figura 4: diagrama de flujo del proceso obtenido a travs del simulador HYSYS de la columna
de separacin C3/C3=.
49
Figura 5: facilidad del caso de estudio HYSYS empleado para generar la grilla de entrenamiento.
Como la grilla de datos generada para entrenar el modelo est libre de ruidos, la
NN entrenada muestra una muy buena concordancia. En la Figura 7 puede mostrarse
cuan buena es la prediccin de la composicin de producto de tope (propileno), ya sea
en el grfico de lnea o en el X-Y, donde la composicin predicha y al actual se
comparan casi exactamente.
50
51
Figura 9: clasificacin de las variables del modelo de optimizacin del separador C3.
52
Figura 10: histograma del weathering point para ambos conjuntos de datos,
entrenamiento (izquierda) y validacin (derecha).
Figura 11: prediccin del weathering point del propano (rosa) vs el valor actual (rojo).
Conclusiones:
53
Line Studio, para desarrollar y poner en lnea tal tecnologa y cubrir las necesidades del
personal de ingeniera, de tal manera que ningn profesionalismo se necesite poseer
sobre las NNs, pero s sobre el proceso y las relaciones causa-efecto.
Reconocimientos:
Referencias:
Ruiz C. (1999), Predicting the 90% Distillation Point of a Fluidized Catalytic Cracking
Unit Naphtha. An Application of NOL Studio, Gensyms Users Society Conference
(GUS 99), Orlando, Florida, USA.
En la Tabla 8.1 se detalla una lista con el nombre de varios software comerciales
de redes neuronales:
Software
NeurOn-Line
HNeT (Holographic/Quantum
Neuronal Technology).
NeuroMonitor Pro.
NeuroShell Predictor.
NeuroDynamX
NeuroSolutions
Neural OptiMatch TM
Compaa
Gensym Corporation
125 Cambridge Park Drive.
Cambridge, Massachussetts 02140
Representante en Argentina.
Soteica S.R.L.: Av. Alvarez Thomas
796 - 3 C, (1427) Buenos Aires,
Argentina.
AND Corporation
(212) 279-3833 Nueva York, (416)
920-8260 Toronto
ERA Technology
Cleeve Road, Leatherhead, Surrey,
KT22 7SA UK.
Ward Systems Group, Inc.
Executive Park West, 5 Hillcrest Dr.
Federick , MD 21703
DynaMind
NeuroDimension Inc.
NeuralR
Tabla 8.1
54
Webpage
http://www.gensym.com
http://www.soteica.com.ar
http://www.andcorporation.com
http://www.era.co.uk
http://www.warsystems.com
http://www.neuroshell.com
http://neurodynamx.com
http://www.nd.com
http://www.neural.com
Bibliografa
55