Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Articulo para IA
Articulo para IA
=
R
p
p
p
P
2
1
(3)
El vector de entrada se propaga a travs de las conexiones
existentes produciendo una entrada neta n en cada una las
neuronas de la capa siguiente, la entrada neta a la neurona j de
la capa siguiente, debido a la presencia del patrn de
entrenamiento en la entrada esta dada por la ecuacin (4).
Ntese que la entrada neta es el valor justo antes de pasar por
la funcin de transferencia.
=
+ =
R
i
j i ji j
b p W n
1
0 0 0
(4)
Donde:
W
o
ji
Peso que une la componente i de la entrada con la
neurona j de la capa oculta
p
i
Componente i del vector p que contiene el
patrn de entrenamiento de q componentes.
b
o
j
Ganancia de la neurona j de la capa oculta.
Cada una de las neuronas de la capa oculta tiene como
salida a
o
j
|
.
|
\
|
+ =
=
0
1
0
j i
R
i
ji
o o
j
b p W f a
(5)
A su vez cada salida de la capa oculta es la entrada de la
capa de salida, comportndose la salida de esta ltima como se
muestra.
|
|
.
|
\
|
+ =
=
S
K j
m
j
S
Kj
S S
K
b a W f a
1
(6)
Donde:
W
s
kj
Peso que une la neurona j de la capa oculta con
la neurona k de la capa de salida, la cual cuenta con
s neuronas.
a
o
j
Salida de la neurona j de la capa oculta, la cual
cuenta con m neuronas.
b
s
k
Ganancia de la neurona k de la capa de salida.
a
s
k
Entrada neta a la neurona k de la capa de salida.
La salida real de la red se compara con el valor esperado
para calcular el error.
( )
S
K K K
a t e = (7)
El error medio cuadrtico debido a cada patrn p propagado
esta dado por.
( )
=
=
S
K
K
e ep
1
2 2
2
1
(8)
El proceso se repite para el nmero total de patrones de
entrenamiento. El objetivo del algoritmo en el proceso de
aprendizaje es actualizar todos los pesos y ganancias de la red
minimizando el error medio cuadrtico total.
=
=
r
p
ep e
1
2 2 (9)
Donde:
e
2
Error total en el proceso de aprendizaje en una
SIE2003 3
iteracin luego de haber presentado a la red todos
los patrones de entrenamiento.
El error que genera una red neuronal en funcin de sus
pesos, es un espacio de n dimensiones, donde n es el nmero
de pesos. Al evaluar el gradiente del error en un punto de esa
superficie se obtiene la direccin en la cual la funcin del
error tiene un mayor crecimiento; como el objetivo del
proceso de aprendizaje es minimizar el error, debe tomarse la
direccin negativa del gradiente para obtener el mayor
decremento del error, condicin requerida para realizar la
actualizacin de la matriz de pesos en el algoritmo
Backpropagation.
D. Seleccin del conjunto de entrenamiento.
Para implementar el modelo neuronal se tomaron los datos
de consumo del interruptor 5330, correspondiente al circuito
Santiago Industrial, durante los meses de enero y julio de los
aos 2001 y 2002. Estos meses corresponden a las estaciones
ms notables en Cuba teniendo en cuenta los parmetros
meteorolgicos. La nubosidad no se tom en cuenta entre las
variables meteorolgicas debido a que en especfico Santiago
de Cuba la misma depende, entre otros, de factores no
disponibles como la actividad elctrica superior de la
atmsfera originada en la zona norte oriental.
Es interesante aclarar que en la medida que se incrementen
los datos del conjunto de entrenamiento la prediccin alcanza
mayor exactitud.
III. RESULTADOS Y DISCUSIN
Las corridas se realizaron empleando un Software
confeccionado sobre MatLab a partir del empleo de sus
herramientas para el trabajo con las Redes Neuronales
Artificiales.
Dentro de los meses seleccionados se tomaron varios das
al azar para realizar las comprobaciones.
La convergencia se logr en todos los casos para una
cantidad de corridas que oscila entre 9 y 13 con un error de
aproximacin no mayor de 0.01, un error medio de
generalizacin inferior al 5 % y un error mximo de
generalizacin no mayor del 10 %. El tiempo del
entrenamiento se encuentra alrededor de 10 minutos.
Se realizaron corridas utilizando una cantidad de patrones
de entrenamientos ligeramente superior a la cantidad de pesos
de la red obteniendo como resultado un error de
generalizacin muy prximo al 100%. Los resultados
descritos en el prrafo anterior se lograron con una cantidad
de patrones superior a 4 veces los pesos de la red. Para lograr
tal cantidad de datos fue necesario realizar el entrenamiento
para tres meses, lo que implic tomar adems del mes de
inters el anterior y el posterior.
Las figuras 1 a la 4 muestran las potencias pronosticadas y
demandadas para dos das de estaciones diferentes. Las
grficas muestran las potencias en MW para cada hora del da
Para el 1ro de enero del 2002 el error absoluto, a cada hora
Fig. 1. Potencia pronosticada para el 1ro de enero del 2002.
Fig. 4. Potencia demandada para el 1ro de julio del 2002.
Fig. 2. Potencia demandada para el 1ro de enero del 2002.
Fig. 3. Potencia pronosticada para el 1ro de julio del 2002.
SIE2003 4
del da fue:
%Error = [5.7820 1.5633 4.1367 5.7700 6.1600
8.2933 1.3567 5.3500 9.5500 7.9733 1.3100
9.3367 1.7767 1.6167 8.2300 5.1433 4.5767
0.6986 2.8414 3.6629 2.2257 3.3043 5.2033
2.9400] Error mximo = 9.55% Error mnimo = 0.69%
Error medio = 4.5334%.
Para el 1ro de julio del 2002 el error absoluto a cada hora
del da fue de:
%Error = [3.2787 2.1441 4.4600 6.8532 2.4836
4.7444 6.1397 6.2111 3.8615 3.3554 3.4514
5.1338 0.9043 2.9900 6.8299 2.3933 6.2714
5.8800 4.9462 1.3457 1.5800 2.7059 3.4152
2.2141] Error mximo = 6.85% Error mnimo = 0.9%
Error medio = 3.89%.
IV. CONCLUSIONES
Los resultados demuestran la eficacia de la aplicacin de un
modelo basado en las Redes Neuronales Artificiales al
pronstico de la demanda elctrica. Tal como lo muestran las
grficas comparativas los resultados obtenidos para un da
determinado entrando los datos meteorolgicos
correspondientes a dicho da, son muy similares a los
esperados.
La precisin de la prediccin, a pesar de la poca cantidad de
datos con los que se entren la red y de no haber incluido
otras variables que influyen en el consumo energtico como
son la nubosidad y la consideracin de los das de la semana,
es considerable, llegando a encontrarse la media del error no
mayor al 5% en todos los casos.
Para que se obtengan resultados aceptables teniendo en
cuenta el error de generalizacin, para esta aplicacin, se
necesitan, al menos, 4 patrones de entrenamiento por cada
peso de la red.
AGRADECIMIENTO
Este trabajo es el fruto de los esfuerzos realizados y la
abnegacin en el estudio durante un largo perodo de tiempo
que no habra fructificado sin la colaboracin decidida de
instituciones como la Empresa Elctrica Santiago de Cuba,
en especial de los profesionales de su despacho municipal y
del Centro de Estudios de Energas Renovables de la
Universidad de Oriente que aportaron los datos de carga
elctrica y variables meteorolgicas.
REFERENCIAS
[1] CHEN S., Yu D, Doghaddanjo A, Whether sensitive short-term load
forecsting using nonfully connected artificial neural network. IEEE
Transaction on Power Systems, Vol. 7, No. 3, pp 1098-1105, 1992.
[2] DELGADO Alberto. "Inteligencia Artificial y Minirobots". Bogota
D.C. Colombia. Ecoe Ediciones. Julio 1998.
[3] FISCHBACH Gerald D.. "Mente y cerebro". Investigacin y Ciencia #
194, Noviembre de 1992.
[4] FREEMAN James y SKAPURA David. "Redes Neuronales:
Algoritmos, aplicaciones y tcnicas de programacin". Delaware
E.U.A. Addison Wesley Iberoamericana S.A. 1993.
[5] GIRALDO Didier, TABARES Ivan. "Programa que entrena neuronas
para implementar funciones lgicas". Scientia et technica. Ao II, #5,
Junio de 1997.
[6] GROSS G, Galiana F, Short-term load forecasting, Proceedings of
the IEEE, Vol. 75, No. 12, pp 1558-1573, 1987.
[7] HAGAN Martin, DEMUTH Howard y BEALE Mark. "Neural Network
Design". PWS Publishing Company. Boston U.S.A. 1996.
[8] HILERA Jos R., MARTINEZ Vctor J. "Redes Neuronales
Artificiales. Fundamentos, modelos y aplicaciones ". Ra-ma Editorial.
Madrid. 1995.
[9] HINTON Geoffrey E. "Redes neuronales que aprenden de la
experiencia". Investigacin y ciencia. #194, Noviembre de 1992.
[10] HSU Y. Y., Ho K. L., Fuzzy expert systems: an application to short-
term load forecasting. IEE Proceedings C. Vol.139, No. 6, pp 471-477,
1992.
[11] HSU Y. Y., Yang C. C., Desing of artificial neural netwoks for short-
term load forecasting. Part I: Self-organisin feature maps gor day type
identification., IEE Proceedings-C, Vol. 138, No. 5, pp 407-413, 1991.
[12] HSU Y. Y., Yang C. C., Desing of artificial neural netwoks for short-
term load forecasting. Part I: Multilayer feedforward networks for peak
load and valley load forecasting., IEE Proceedings-C, Vol. 138, No. 5,
pp 414-418, 1991.
[13] KANDEL Eric R., ROBERT Hawkins. "Bases biolgicas del
aprendizaje y de la individualidad". Investigacin y ciencia #194,
Noviembre de 1992.
[14] KOSKO. "Bidirectional Associative Memories". IEEE Transactions on
system, Man & Cybernetics, #18, 1988, pags 42-60.
[15] LATHI B.P. "Introduccin a la teora y sistemas de comunicacin".
Limusa editores. Mjico. 1995.
[16] LEE K, Choi T, Ku C, Park J., "Short-term load forecasting using
diagonal recurrent neural network", Proceedings of the second
international forum on applications of neural networks to power
systems, Yokohama, Japan, pp 227-232, 1993.
[17] M. Minsky y S. Papert. "Perceptrons". ED. MIT Press,1969
[18] PARK D, El-Sharkawi M, Marks II. R, Atlas L, Damborg M, Electric
load forecasting using an artificial neural network IEEE Transactions
on Power Systems, Vol. 6, No. 2, pp 442-449, 1991.
[19] RAHMAN S, Formulation and analysis of a rule-based short-term load
forecasting algorithm, Proceedings of the IEEE, Vol. 78, No. 5, pp
805-816, 1990.
[20] RAHMAN S, An expert system based algorithm for short term load
forecast, IEEE transactions on Power Systems, Vol. 3, No. 2, pp 392-
399, 1988.
[21] SIMPSON P.K. "Foundations of neural Networks". Artificial Neural
Networks. IEEE PRESS. New York. 1992.
[22] VANKAYALA V, Rao N, Artificial neural networks and their
applications to power systems a bibliographical survey. Electric
Power Systems Research, 28, pp 67-79, 1993
[23] WIDROW Bernard, LEHR Michael A. "30 years of adaptive neural
networks: Perceptron, Madaline, and Backpropagation". Proceedings of
the IEEE, vol 78 #9, September 1990, pp 1415-1442.
Ing. Delmar Jaime Garca Profesor Asistente del Departamento de
Electroenergtica de la Facultad de Ingeniera Elctrica de la Universidad de
Oriente desde 1986. Graduado de Ingeniero Electricista en la Universidad de
Oriente, Cuba en 1986. Curso de postgrado internacional de Informtica
aplicada a los Sistemas Elctricos de Potencia en 1997. Profesor invitado por
las universidades nicaragenses UNI 1998 y UPONIC 1999 y 2000. E-mail:
delmar@fie.uo.edu.cu.
Ing. Alexander Cabrera Milans Ingeniero en adiestramiento en la Empresa
Elctrica Santiago de Cuba desde2003. Graduado de Ingeniero Electricista
en la Universidad de Oriente, Cuba en 2003.