Está en la página 1de 8

MODELO DE RED NEURONAL PARA LA PREDICCIÓN DEL PODER

CALORÍFICO (HHV) A PARTIR DEL ANÁLISIS PROXIMAL DE RESIDUOS


CARBONOSOS
Aucanshala, Yessenia; Paladines, Daniela
Estudiantes Escuela de Ingeniería Química 9no Semestre

Resumen

En las distintas industrias como en el sector agrícola se generan residuos que pueden ser
aprovechados para la producción de energía y obtener combustible a partir de biomasa
de residuos agrícolas para generar energía eléctrica y calor; evitando la dependencia de
los combustibles comerciales. En el trabajo se presenta un modelo de Red Neuronal
Artificial estándar (RNA´s) que correlaciona el poder calorífico (HHV) de residuos
carbonosos industriales y agrícolas con sus análisis proximales para conocer si son aptos
como fuentes de energía. Se analizan parámetros que determinen la capacidad de
procesos de pirólisis y gasificación, para ellos se consideró una RNA con 3 neuronas en
la capa de entrada, 3 neuronas para cada capa oculta, siendo dos, y una neurona en la
capa de salida. Los datos de entrada se consideraron: Carbón fijo (CF), Materia volátil
(MV) y la cantidad de Cenizas (Ash) las misma que obtuvieron al realizar análisis
proximal de los residuos, para calcular el de Poder calorífico en la neurona de salida, del
entrenamiento se obtuvo un error medio absoluto promedio de 4,49 que es inferior a los
datos experimentales que van de 5,1 hasta 15,72. Además se puede seguir entrenando la
red para reducir aún más el valor de error, alternando parámetros para las conexiones
(pesos y umbral).

Palabras Claves: Red Neuronal; Poder Calorífico; Análisis Proximal; Residuos


Carbonosos;

Introducción

Las Redes Neuronales Artificiales (RNA´s) son empíricas que nacen de la inquietud de
modelar sistemas nerviosos. Son redes interconectadas, que operan en paralelo mediante
procesadores simples, usualmente adaptativos y con organización jerárquica que
intentan interactuar con los objetos del mundo real, del mismo modo que lo hace el
sistema nervioso central. (Montaño 2002)
Estas redes son muy populares en la modelación de sistemas debido a su alta eficiencia
en la adaptación y en el aprendizaje mediante el reconocimiento de patrones. Desde la
perspectiva del reconocimiento de patrones las redes neuronales son una extensión de
métodos clásicos estadísticos. Las redes neuronales responden a un modelo biológico de
interconexión entre elementos de procesamiento denominados neuronas artificiales.
(Escobar & Pinto, 2009)
Las redes neuronales biológicas ajustan dinámicamente parámetros internos (pesos y
tendencias) que rigen la representación de la información o conocimiento, adoptando la
capacidad de generalizar respuestas ante eventos nunca antes suscitados. De manera
análoga, se representan estos procesos, mediante algoritmos o circuitos electrónicos.
(Villada & García, 2016)

Las redes neuronales son modelos que en su estructura contienen neuronas o nodos
como unidades de procesamiento distribuidas en diferentes tipos de capas que están
interconectadas entre sí por conexiones. La transferencia de información entre cada capa
siguiendo la analogía biológica se da por medio de conexiones llamados pesos
sinápticos, los cuales conectan cada neurona de un nivel inferior a todas las neuronas
del siguiente nivel, conocido como patrón de conectividad; además estos pesos varían
con el tiempo mediante un proceso que se conoce como aprendizaje, por el cual
modifica las conexiones entre neuronas, pesos sinápticos, para realizar la tarea deseada.
(Vásquez-carrera 2018)
La función suma y la función de transferencia son dos componentes de las redes
neuronales que realizan actividades muy importantes. La función sumatoria, suma el
producto entre los vectores de entrada y el vector de pesos, y luego, se dirige el
resultado a la función de transferencia que generalmente es no lineal y es la que
determina el estado dinámico de un sistema de redes neuronales Existen varios tipos de
funciones de activación: sigmoide, tangente hiperbólica, función signo, entre otras.
(Hernández, Pedraza y Torres 2011)

Las redes neuronales a diferencia de los algoritmos, que son instrucciones previamente
entrenadas, estás deben se entrenadas, esto empieza con las variables de entrada y la
Red Neuronal misma se ejecuta en función de alguna regla de aprendizaje.
Existen diferentes tipos de redes neuronales desde el año que se crearon en 1943,
apareció la Red perceptrón (RP), siendo la más sencilla que tenía una sola ´´neurona´´,
siendo su capa oculta, esta red realiza una suma ponderada de las entradas y las
multiplica con sus pesos escogidos, y el resultado se compara con un patrón o llamado
también sistema de activación de lo cual genera un resultado binario, siendo esto de
acuerdo a lo que se programó como una respuesta de Si o No, es así, si le valor es
mayor será 1 y si es menor tendrá un valor de cero.(Andrade, 2013)
La ecuación que se deduce de este tipo de red es:
n
y=∑ ( Xi ∙Wi)−u Ecuación 1
1=1

La ecuación se asemeja a la ecuación de la recta: y= m x + b, donde m relaciona a los


pesos (w) y b está relacionada con el umbral que siempre será 1, pero como actúa como
un modelo de regresión lineal, donde el valor es continuo y no binario, entonces se
evalúa el valor de la regresión lineal y si este supera un cierto umbral (u) será 1 y si es
menor al umbral será 0, el umbral es el valor opuesto de b.
Las investigaciones avanzan, y se vio que RP era muy sencillo y no se era útil para
resolver problemas de tendencia no lineal, así surgen nuevas Redes Neuronales
Artificiales.
Red Neuronal Perceptrón Multicapa (RPM) es una red que está basada en la RP, pero
posee más capas ocultas, se analiza con realimentación hacia atrás (Backpropagation)
esta red posee una o varias capas ocultas y una de salida así como de entrada de nodos
de computación, es utilizada en la interpretación de imágenes de perceptrón remota y en
otras aplicaciones de clasificación, aun así se conoce debilidades de este modelo, siendo
aun lentas en el aprendizaje y en la pobre capacidad de generalización, esto ha llevado a
incrementar la rapidez de aprendizaje del procedimiento de entrenamiento para mejorar
los resultados y la calidad de entrenamiento. (Barandela, Gasca, & Alejo, 2001)
Pese a sus limitaciones las características más importantes del perceptrón multicapa se
encuentran las siguientes:
 Se trata de una estructura altamente no lineal.
 Presenta tolerancia a fallos.
 El sistema es capaz de establecer una relación entre dos conjuntos de datos.
 Existe la posibilidad de realizar una implementación hardware.
Backpropagation es el algoritmo más utilizado de aprendizaje para RMP, el cual
consiste en utilizar el error generado por la red y propagarlo hacia atrás, es decir,
reproducirlo hacia las neuronas de las capas anteriores, pero presenta desventajas como
se mencionó anteriormente la lentitud de convergencia, el precio del método general de
ajuste funcional puede incidir en el aprendizaje, además no garantiza un mínimo de
error global en la red.(Mercado, Pedraza, & Martínez, 2015)
Pero como la tecnología y la ciencia avanza crean nuevos algoritmos de aprendizaje, así
como resilient backpropagation, es considerado un algoritmo mas eficiente para la
estimulación de los parámetros (pesos sinápticos) de una red neuronal, tal que permite
acercarse al resultado deseado con un mínimo de error.
Otras redes creadas de acuerdo a las características del problema, tomaron por nombre
Red Neuronal Adaline (RNA) y Red Neuronal Maladine (RNM), se crearon cerca delo
años 60, los elementos adaptativos lineales estás redes fueron usadas para
reconocimiento de voz, predicción del tiempo, control adaptativo y sobre todo en filtros
que eliminen los ecos de líneas telefónicas.
Este tipo de redes son sencillas está adaptadas a una neurona de salida, esta red presenta
en la entrada un elemento el cual puede adaptarse al aprendizaje de la misma red
linealmente. En el trabajo de investigación los autores proponen un sistema adaptativo
que pueda aprendes fácilmente que se basa en la búsqueda del mínimo error en la salida
deseada y la obtenida, antes de usar la función de activación de escalón. (Medina, 2015)
Este tipo de red utiliza un aprendizaje OFF-LINE (fuera de línea) con supervisión de la
regla del mínimo error cuadrado medio (LMS) se usa para encontrar los pesos
sinápticos (W) deseados que s e asocian a las variables de entrada (X), asignando el
valor deseado de salida (Y). para el entrenamiento se adaptan los pesos a medida que se
vaya presentando los patrones de entrenamiento y salidas deseadas para cada uno de
ellos , es así que, para cada entrada-salida se realiza un proceso automático de pequeños
ajustes en los valores de los pesos hasta obtener que el resultado sea igual al deseado.
(Barandela et al., 2001)
Luego de revisar el nivel de aprendizaje y los resultados de estas Redes neuronales
apareció en 1988 otro modelo: Red Neuronal Kohonen (RNK) se caracteriza por la
capacidad de organizar mapas topológicos, constituyendo tal cual a mapas topológicos
de los fenómenos motores y sensoriales existentes en el cerebro humano, este modelo
expuesto en el V Congreso ISKO en España es capaz de clasificar las entradas (revistas)
sobre una rejilla, de modo que cada nodo de la rejilla se forme un cluster con revistas
que tienen un perfil de uso similar y determina el comportamiento de las unidades
departamentales en función de os usos a revistas. Los resultados no solo permiten
asumir una visión topológica de las revistas clasificadas en función de los usos
realizados por los departamentos sino también determina topológicamente las revistas
en función a los parámetros anterior, cuan usadas han sido, el factor de impacto de las
mismas, así como la disponibilidad en Bibliotecas. (Barragón Reyes, Guerrero Bote, &
Zapico Alonso, 2001)
Los RNK no son más que una capa competitiva, similar a la contra-propagación, la
diferencia principal viene en la influencia que una neurona tiene sobre sus vecinas.
En la contra-propagación cada neurona tiene una realimentación positiva, mientras que
influye negativamente al resto de las neuronas de la misma capa, debido a la influencia
que cada neurona ejerce sobre el resto en esa apa va a ser función de la distancia entre
las mismas, para ello utiliza la función conocida como sombrero mejicano. (Barragón
Reyes et al., 2001)
Otro Red conocida son las Redes de función de Base Radial (RBF) para la predicción de
series de tiempo caóticas utilizando como algoritmo de aprendizaje el algoritmo
relocating-lms, resaltando la consecución de un error mínimo al comparar los datos
reales de la serie de tiempo con los predichos por la red. (Mercado et al., 2015)
Es este tipo de red se destaca el proceso de aprendizaje mencionan (Mercado et al) al
cual está sujeto la red y los resultados con las distintas configuraciones utilizadas, así
demuestran las variaciones que pueden generar en las simulaciones de este tipo de
problemas. La arquitectura utilizada por las RBF es muy similar a la del perceptrón
multicapa, con la característica de que las RBF utilizan siempre tres capas; una capa de
entrada, una capa oculta y una de salida, mientas que los MLP pueden tener más. (2015)
Las neuronas de esta capa son las funciones de base radial y cada neurona de la capa de
salida es un combinador lineal. Los pesos se ajustan utilizando el algoritmo de mínimos
cuadrados ordinarios (LMS) y para ajustar los pesos utilizando el método de la pseudo-
inversa, es necesario representar matricialmente las salidas deseadas.
Metodología
La red neuronal artificial estándar es de cuatro etapas, en la entrada hay una neurona
para el Carbón fijo (CF), para la Materia Volátil (MV) y para el contenido de Cenizas
(Ash). Dos capas intermedias u ocultas cuyo tamaño varía para encontrar la estructura
adecuada del modelo entre menos parámetros, minimización del error y capacidad
predictiva. A la salida una neurona para determinar el poder calorífico (HHV) del
residuo.
Figura 1. Modelo de red neuronal estándar de alimentación hacia adelante para la correlación y
predicción del poder calorífico (HHV) a partir de datos de análisis proximal

Para el cálculo de la activación de cada neurona se denota la salida que procesa la j-


ésima neurona en la i-ésima capa como Vij. (Ec. 2)
ni−1

V ij =σ ( Y ij )=σ (∑
k =1
)
W ijk V (i−1) k +θij Ecuación 2

Así, Wijk es el peso (conexión) entre la j-ésima neurona en la i-ésima capa con respecto
de la k-ésima neurona en la (i-1)-ésima capa. La salida Y de la neurona j en la capa i se
calcula como la sumatoria de las salidas de la capa i−1 multiplicadas por el peso
respectivo que las conecta con la neurona ij, se agrega θ el cual va asociado a la neurona
ij. A esta salida se aplica una función de activación, que para las capas de entrada y
salida es la función identidad.
Para las capas ocultas o intermedias, que capturan la no linealidad de los datos, la
función de activación σ(Y), monotónica creciente o sigmoide es apropiado para
aproximar una función no lineal mediante la construcción de redes neuronales. (Ec. 3)
1
σ ( x )= ( 1+ tanh ( x ) ) Ecuación 3
2
Una función sigmoidal tiene como característica que para alcanzar sus límites de 0 y 1
se requiere de introducir datos de pequeña y gran magnitud al sistema respectivamente.
De este modo, la región útil de la función de activación es aproximadamente entre 0.1 y
0.9; por lo tanto, las variables de entrada como de salida a la RNA son escaladas
linealmente dentro de este rango.
El entrenamiento se basa en la minimización del error medio absoluto entre los datos
experimentales y los predichos por la red en Excel usando la herramienta Solver con el
método GRG Nonlinear que utiliza el gradiente reducido generalizado. Se detiene el
entrenamiento cuando el error medio absoluto del conjunto de validación aumenta aun
cuando el error medio absoluto del conjunto de entrenamiento sigue disminuyendo. El
conjunto de entrenamiento consta de datos de análisis proximales con su respectivo
poder calorífico reportado (HHV). (Ec. 4)
np
100 % HHV pred −HHV exp
E= ∑ ¿( ¿ )∨Ecuación 4 ¿
np i=1 HHV exp

En el conjunto de datos experimentales se usa de la base de datos el 80% para entrenar y


el 20% para validar. Además cada red se entrena al menos tres veces con conjuntos de
parámetros aleatorios diferentes para las conexiones (pesos y umbrales), ya que una vez
encontrada la estructura adecuada de la RNA se puede variar diferentes valores de inicio
y los conjuntos finales de parámetros.
Resultados y Discusión
A partir de diferentes configuraciones en la Tabla 1 se presenta los parámetros del
tamaño de red seleccionada como la más adecuada para funcionar como modelo
predictivo.
Tabla 1. Parámetros de la RNA 1 (3-3-3-1)
Neurona en Neurona de la capa anterior Umbral
Capa la capa
1 2 3
actual
1 0.1956 0.4298 0.9495 -06973
2 2 0.1370 6.2484 -0.3480 -3.6690
3 -5.2388 0.7161 -4.7528 3.8418
1 1.0233 1.0704 1.3196 1.5670
3 2 2.4954 0.0357 0.3591 -1.1782
3 0.5489 -6.9769 1.3085 0.0518
4 1 0.2286 2.1042 -0.2798 1.8776

En la Tabla 2 se presentan los factores de escalamientos para las entradas y salidas de la


red.
Tabla 2. Factores de escalamiento para entradas y salidas de la RNA
Variable a b
FC 0.008839779 0.176022099
VM 0.008920607 0.108206958
Ash (cenizas) 0.010299987 0.100309
HHV 0.027818346 0.256617289

En la Tabla 3 se muestran tres modelos de Redes Neuronales con la configuración final


seleccionada (3-3-3-1).
Tabla 3. Comparación del error cuadrado medio de los modelos en la predicción del
potencial calorífico (HHV)
Modelo DRM
RNA 1 (3-3-3-1) 4.257
RNA 2 (3-3-3-1) 4.584
RNA 3 (3-3-3-1) 4.651

Además este modelo probó la capacidad predictiva con datos de tres muestras de EPDM
(residuo abundante de hule de la industria automotriz) siendo ideal como parte de un
proceso de revalorización de residuos. Los resultados ofrecen un poder calorífico que lo
ubica en la media de los residuos reportados en la Tabla 4.
Tabla 4. Valor de poder calorífico (HHV) predicho por el modelo de RNA para tres
tipos de EPDM con diferente proporción de etileno.
% de etileno en EPDM HHV (Mj/Kg)
48 25
55 24
65 23

En la Figura 2 se compara el poder calorífico (HHV) experimental contra el predicho


por el modelo de RNA 1.

Figura 2. Poder Calorífico (HHV) experimental contra el predicho por el modelo de RNA.

Conclusiones
Las Redes Neuronales Artificiales estándar demuestran que son aptas para revalorizar
los residuos de las industrias, después de varios entrenamientos se encontró la estructura
adecuada para la Red, con datos presentes en la tabla 1, y se contrastar los resultado
obtenidos en tres modelos de redes que mantienen la estructura (3-3-3-1) que presenta
un error cuadrado medio de 4,257 siendo el más apto, comparado al que presentan en
diferentes bibliografías que son superiores a 5 que incluso sobre pasa los 15 (DRM). En
la Gráfica 2 se puede observar la relación lineal existente del HHV experimental frente
al predicho por la Red con 0,95 siendo casi lineal, entonces si los valores de una
variable (parámetros de la red) se modifican de manera sistemática con respecto a los
valores de experimentales, se observa que si están correlacionadas.
Referencias:
Andrade, E. (2013). Estudio de los principales tipos de redes neuronales y las
herramientas para su aplicación. Universidad Politécnica Saleciana de Cuenca.
Barandela, R., Gasca, E., & Alejo, R. (2001). CORRECCION DE LA MUESTRA
PARA EL APRENDIZAJE DEL PERCEPTRON MULTICAPA. Iberoamericana
de Inteligencia Artificial, 5(1137–36601), 2–9.
Barragón Reyes, M. J., Guerrero Bote, V., & Zapico Alonso, F. (2001). Uso del
algoritmo de Kohonen, aplicado al estudio de la localización y accesibilidad de
revistas científicas en bibliotecas universitarias. Universidad de Extremadura,
169–183.
HERNÁNDEZ, C., PEDRAZA, L. y TORRES, N., 2011. Redes neuronales y
predicción de tráfico. Tecnura, vol. 15, no. 29, pp. 90-97. ISSN 0123-921X. DOI
10.14483/22487638.6725.
Medina, A. (2015). Diagnóstico de Señales Biomédicas con Redes Neuronales
Artificiales. https://doi.org/10.13140/RG.2.1.2239.1767
Mercado, D., Pedraza, L., & Martínez, E. (2015). Comparación de Redes Neuronales
aplicadas a la predicción de Series de Tiempo. Prospectiva, 13(2), 88.
https://doi.org/10.15665/rp.v13i2.491
MONTAÑO, J.J., 2002. Redes Neuronales Artificiales aplicadas al Análisis de Datos.
Network, pp. 275.
VÁSQUEZ-CARRERA, P., 2018. Comparison between artificial neural network and
multiple regression for the prediction of superficial roughness in dry turning
Yusimit Zamora-Hernández h  p://orcid.org/0000-0002-0112-1061 h 
p://orcid.org/0000-0003-4734-8584 Mario Porras-Vásconez h  . ,
Villada, Fernando, Muñoz, Nicolás, & García-Quintero, Edwin. (2016). Redes
Neuronales Artificiales aplicadas a la Predicción del Precio del Oro. Información
tecnológica, 27(5), 143-150. https://dx.doi.org/10.4067/S0718-
07642016000500016
Zambrano Escobar, Alejandro, & Pinto Mindiola, Lácides. (2009). Aplicación de las
redes neuronales artificiales en procesadores digitales de señales: caracterización
de sensores infrarrojos. Universidad, Ciencia y Tecnología, 13(51), 129-136.
Recuperado en 04 de mayo de 2020, de http://ve.scielo.org/scielo.php?
script=sci_arttext&pid=S1316-48212009000200008&lng=es&tlng=es.

También podría gustarte