Documentos de Académico
Documentos de Profesional
Documentos de Cultura
NDICE
Introduccin
El perceptrn simple
Ensayos de Pozos
Ensayo de Recuperacin de Presin (Build up test)
11
11
Ejemplo de Aplicacin
13
Conclusin
22
Bibliografa
23
2|Pgina
INTRODUCCIN
Con las Redes Neuronales se busca la solucin de problemas complejos, no como una secuencia de
pasos, sino como la evolucin de unos sistemas de computacin inspirados en el cerebro humano, y
dotados por tanto de cierta inteligencia, los cuales no son sino la combinacin de elementos
simples de proceso (neuronas) interconectados, que operando de forma paralela en varios estilos,
consiguen resolver problemas relacionados con el reconocimiento de formas o patrones, prediccin,
codificacin, control y optimizacin entre otras aplicaciones. En el caso planteado en este trabajo se
busca mostrar la posibilidad de realizar un ajuste de curva de un ensayo de pozo de recuperacin de
presin Build Up usando redes neuronales artificiales mediante una utilidad diseada en el lenguaje
Visual Basic for Applications (VBA) para trabajar en Microsoft Excel y as dejar en evidencia las
capacidades en este rea de esta poderosa hoja de clculo.
3|Pgina
4|Pgina
- Una funcin de activacin. El valor obtenido con la regla de propagacin, se filtra a travs de una
funcin conocida como funcin de activacin y es la que nos da la salida de la neurona. Segn para
lo que se desee entrenar la red neuronal, se suele escoger una funcin de activacin u otra en
ciertas neuronas de la red. En la siguiente tabla se muestran las funciones de activacin ms
usuales.
5|Pgina
FUNCIN
RANGO
IDENTIDAD
y=x
[-inf, +inf]
ESCALN
y = signo(x)
{-1,+1}
y = H(x)
{0,+1}
LINEAL A
TRAMOS
-1, si x<-1
GRFICA
[-1,+1]
y = x, si -1<=x<=+1
+1, si x>+1
SIGMOIDEA
GAUSSIANA
1
y = -------1+e^(-x)
[0,+1]
y = tgh(x)
[-1,+1]
y = A.e^(-Bx^2)
[0,+1]
En muchas ocasiones la razn para la aplicacin de una funcin de activacin distinta de la identidad
surge de la necesidad de que las neuronas produzcan una salida acotada. Esto desde un punto de
vista de similitud con el sistema biolgico, no es tan descabellado, ya que las respuestas de las
neuronas biolgicas estn acotadas en amplitud. Adems cada neurona tiene asociado un nmero
denominado bas o umbral, que puede verse como un nmero que indica a partir de que valor del
potencial postsinptico la neurona produce una salida significativa.
6|Pgina
Lo usual es que las neuronas se agrupen en capas de manera que una RNA est formada por varias
capas de neuronas. Aunque todas las capas son conjuntos de neuronas, segn la funcin que
desempean, suelen recibir un nombre especifico. Las ms comunes son las siguientes:
- Capa de entrada: las neuronas de la capa de entrada, reciben los datos que se proporcionan a la
RNA para que los procese.
- Capas ocultas: estas capas introducen grados de libertad adicionales en la RNA. El nmero de ellas
puede depender del tipo de red que estemos considerando. Este tipo de capas realiza gran parte del
procesamiento.
- Capa de salida: Esta capa proporciona la respuesta de la red neuronal. Normalmente tambin
realiza parte del procesamiento.
El otro criterio ms habitual para clasificar las redes neuronales es el tipo de aprendizaje que se
utilice. Hay cuatro clases de aprendizaje distintos:
a. Aprendizaje supervisado: En este tipo de aprendizaje se le proporciona a la RNA una serie de
ejemplos consistentes en unos patrones de entrada, junto con la salida que debera dar la red. El
proceso de entrenamiento consiste en el ajuste de los pesos para que la salida de la red sea lo ms
parecida posible a la salida deseada. Es por ello que en cada iteracin se use alguna funcin que
nos d cuenta del error o el grado de acierto que est cometiendo la red.
b. Aprendizaje no supervisado o autoorganizado: En este tipo de aprendizaje se presenta a la red
una serie de ejemplos pero no se presenta la respuesta deseada. Lo que hace la RNA es reconocer
regularidades en el conjunto de entradas, es decir, estimar una funcin densidad de probabilidad p(x)
que describe la distribucin de patrones x en el espacio de entrada Rn.
c. Aprendizaje Hbrido: Es una mezcla de los anteriores. Unas capas de la red tienen un
aprendizaje supervisado y otras capas de la red tienen un aprendizaje de tipo no supervisado. Este
tipo de entrenamiento es el que tienen redes como las RBF.
7|Pgina
APRENDIZAJE
ARQUITECTURA
SUPERVISADO
HACIA-ADELANTE
PERCEPTRN
MLP
ADALINA
BACKPROPAGATION
BOLTZMANN MACHINE
REALIMENTADOS
BSB
FUZZY COG. MAP
HACIA-ADELANTE
LAM Y OLAM
MAPAS DE KOHONEN
REALIMENTADOS
ART 1, 2, 3
HOPFIELD
BAM
NO SUPERVISADO
TIPOS DE RED
HBRIDOS
RBF
CONTRAPROPAGACIN
REFORZADO
APRENDIZAJE REFORZADO
Existe un gran nmero de modelos de redes neuronales, sin embargo, en este trabajo mostraremos
dos de los modelos ms conocidos y utilizados, el perceptrn simple y el perceptrn multicapa, ya
que ellos son el fundamento terico para nuestro estudio.
El perceptrn simple
El perceptrn simple fue introducido por Frank Rosenblatt. Es un sistema capaz de realizar tareas de
clasificacin de forma automtica en el que a partir de un nmero de ejemplos etiquetados, el
sistema determina la ecuacin del plano discriminante. Puede usarse como neurona dentro de otro
tipo de red de neurona artificial. Posee aprendizaje supervisado y conexiones en un slo sentido. Es
reconocido por su capacidad de aprender a reconocer patrones y es un modelo unidireccional
compuesto por dos capas de neuronas. Con respecto al entrenamiento las neuronas de entrada son
discretas y la funcin de activacin de las de salida es de tipo escaln.
Arquitectura. Es una red monocapa con varias neuronas de entrada conectadas a la neurona de
salida. Observando la imagen anterior podemos calcular el valor de la salida, del siguiente modo:
- En el caso de que la salida sea +1, la entrada pertencer a una clase, situada a un lado del
hiperplano.
8|Pgina
- En el caso de que la salida sea -1, la entrada pertencer a la clase contraria, situada al otro lado del
hiperplano.
El perceptrn simple es un hiperplano de dimensin n-1 capaz de separar las clases. La ecuacin de
dicho hiperplano es:
w1x1+w2x2+=0
La cual si se simplifica queda del siguiente modo:
Donde la parte que multiplica x1 es la pendiente de la recta y la otra parte es el punto de corte con el
eje de ordenadas.
Aprendizaje supervisado. Para el proceso de aprendizaje del perceptrn simple es necesario saber:
- Los datos son puntos en un espacio multidimensional.
- Se dispone de un conjunto de observaciones, puntos representados en el hiperplano, de los que se
sabe su categora o clase.
- Se tiene que determinar la ecuacin del hiperplano que separa los ejemplos de un tipo de los de
otro.
- La ecuacin del hiperplano se deduce a partir de los ejemplos.
- El aprendizaje es proceso iterativo supervisado.
- Hasta encontrar el hiperplano discriminante se debe ir modificando los parmetros de la red (pesos
y umbral).
- Este proceso de aprendizaje supervisado tiene un nmero finito de iteraciones.
Los pasos a seguir para el aprendizaje son:
1.
2.
3.
4.
Las neuronas de la capa oculta usan como regla de propagacin la suma ponderada de las entradas
con los pesos sinpticos wij y sobre esa suma ponderada se aplica una funcin de transferencia de
tipo sigmoide, que es acotada en respuesta.
El aprendizaje que se suele usar en este tipo de redes recibe el nombre de retropropagacin del error
(backpropagation). Como funcin de coste global, se usa el error cuadrtico medio. Es decir, que
dado un par (xk, dk) correspondiente a la entrada k de los datos de entrenamiento y salida deseada
asociada se calcula la cantidad:
que vemos que es la suma de los errores parciales debido a cada patrn (ndice p), resultantes de la
diferencia entre la salida deseada dp y la salida que da la red f ante el vector de entrada xk. Si estas
salidas son muy diferentes de las salidas deseadas, el error cuadrtico medio ser grande. f es la
funcin de activacin de las neuronas de la capa de salida e y la salida que proporcionan las
neuronas de la ltima capa oculta.
Sobre esta funcin de coste global se aplica algn procedimiento de minimizacin. En el caso del
MLP se hace mediante un descenso por gradiente. Las expresiones que resultan aplicando la regla
de la cadena son las siguientes:
a. Obtener la respuesta de la red ante ese patrn. Esta parte se consigue propagando la entrada
hacia adelante, ya que este tipo de red es feedforward. Las salidas de una capa sirven como entrada
a las neuronas de la capa siguiente, procesndolas de acuerdo a la regla de propagacin y la funcin
de activacin correspondientes.
b. Calcular los errores asociados segn la ecuacin de trminos delta
c. Calcular los incrementos parciales (sumandos de los sumatorios). Estos incrementos dependen
de los errores calculados en 2.b
3. Calcular el incremento total, para todos los patrones, de los pesos y los umbrales segn las
expresiones en la ecuacin de trminos delta
4. Actualizar pesos y umbrales
5. Calcular el error actual y volver al paso 2 si no es satisfactorio.
ENSAYOS DE POZOS
Los ensayos de pozos consisten en ocasionar una perturbacin en el caudal y analizar la respuesta
de presin asociada a dicha perturbacin con el objeto de obtener informacin de la transmisividad
de la formacin (kh/m), del factor de dao (s), y de la presin esttica de la formacin (p). En nuestro
caso utilizaremos el ensayo de recuperacin de presin (Build up test) con el fin de estimar la presin
esttica (Pe).
DP
P(Dt=0)=Pwf final
CIERRE
PREVIO
Q=0
FLUENCIA
Q
DRAW DOWN
tp
Dt
BUILD UP
RECUP. DE PRESION
Q=0
Dt
t
Al cerrar el pozo, la presin comienza a subir partiendo de la Pwf (presin dinmica de fondo) hasta
que luego de un tiempo considerado de cierre Dt, la presin registrada de fondo alcanza el valor
esttico Pe (presin esttica).
El registro de presin de fondo, representa una presin esttica en proceso de restauracin (Pws), la
cual no necesariamente alcanza el valor esttico de Pe.
Pws Pe
Depender del tiempo de cierre del pozo y del tiempo de produccin. A medida que el tiempo de
cierre se incrementa Pws se aproximar a Pe.
Se establece para el ensayo de recuperacin Build Up que para flujo de estado no estable
(transiente) se cumple la siguiente ecuacin (Ecuacin de Horner, 1951):
11 | P g i n a
donde:
Pws: Presin de fondo durante la restauracin o cierre, psi
t: Tiempo de cierre, horas
La Ecuacin de Horner sugiere que la relacin entre pws y (tp+t)/t es una lnea recta en escala
semi-log.
Pws = a m log[(tp+Dt)/Dt]
donde:
a = Pi
162.6 0 0 0
12 | P g i n a
EJEMPLO DE APLICACIN
El desarrollo de nuestro ejemplo consiste en ajustar la curva de un ensayo de presin mediante el
uso de redes neuronales artificiales en Excel y mostrar las caractersticas de esta poderosa
metodologa. Para poder realizar nuestro estudio primero debemos determinar la presin esttica del
reservorio a partir del ensayo de presin.
Para desarrollar nuestro caso haremos uso del conjunto de datos extrado de un ensayo de
recuperacin Build Up de un ejercicio del libro Advanced Reservoir Engineering, de los autores Tarek
Ahmed y Paul D. McKinney, el cual nos presenta lo siguiente:
Tiempo de produccin tp (hs): 53
N
Tiempo (hs)
1
2
3
4
5
6
7
8
9
10
11
Pws (Psig)
0
0,167
0,333
0,5
0,667
0,833
1
1,167
1,333
1,5
1,667
1429,6
1451,5
1476
1498,6
1520,1
1541,5
1561,3
1581,9
1599,7
1617,9
1635,3
Tiempo (hs)
Pws (Psig)
12
13
14
15
16
17
18
19
20
21
22
2
2,333
2,667
3
3,333
3,667
4
4,5
5
5,5
6
1665,7
1691,8
1715,3
1736,3
1754,7
1770,1
1783,5
1800,7
1812,8
1822,4
1830,7
Tiempo (hs)
23
24
25
26
27
28
29
30
31
32
33
6,5
7
7,5
8
8,5
9
10
11
12
12,667
14,62
Pws (Psig)
1837,2
1841,1
1844,5
1846,7
1849,6
1850,4
1852,7
1853,5
1854
1854
1855
Donde el tiempo cero representa la presin en el momento en que se cierra el pozo. Los posteriores
datos corresponden a mediciones de presin con el tiempo medido, teniendo como referencia el
instante en que se cierra el pozo.
Si a partir de estos datos graficamos la presin vs. el tiempo de cierre obtenemos la siguiente curva:
Grfico Lineal
1900
1850
1800
1750
Pws (psi)
1700
1650
1600
1550
1500
1450
1400
0
10
12
14
16
Tiempo (hs)
Se puede observar que la mayor recuperacin de presin se produce en los tiempos iniciales luego
del cierre del pozo y que los tiempos tardos tienden a un valor lmite el cual nosotros queremos
averiguar que es el valor de la presin esttica Pe.
Para obtener el valor lmite de presin debemos determinarlo en un tiempo infinito, para lo cual
tenemos que hacer el correspondiente tratamiento de los datos y aplicar la tcnica de extrapolacin
de la lnea recta. La tabla con los datos a utilizar es la siguiente:
13 | P g i n a
Tiempo
(hs)
Pws
(Psig)
(tp+DT)
DT
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0
0,167
0,333
0,5
0,667
0,833
1
1,167
1,333
1,5
1,667
2
2,333
2,667
3
3,333
1429,6
1451,5 318,37
1476 160,16
1498,6 107,00
1520,1 80,46
1541,5 64,63
1561,3 54,00
1581,9 46,42
1599,7 40,76
1617,9 36,33
1635,3 32,79
1665,7 27,50
1691,8 23,72
1715,3 20,87
1736,3 18,67
1754,7 16,90
2,503
2,205
2,029
1,906
1,810
1,732
1,667
1,610
1,560
1,516
1,439
1,375
1,320
1,271
1,228
17
3,667
1770,1
1,189
15,45
Log10 (tp+DT)
DT
Tiempo
(hs)
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
4
4,5
5
5,5
6
6,5
7
7,5
8
8,5
9
10
11
12
12,667
14,62
Pws
(Psig)
1783,5
1800,7
1812,8
1822,4
1830,7
1837,2
1841,1
1844,5
1846,7
1849,6
1850,4
1852,7
1853,5
1854
1854
1855
(tp+DT)
DT
14,25
12,78
11,60
10,64
9,83
9,15
8,57
8,07
7,63
7,24
6,89
6,30
5,82
5,42
5,18
4,63
Log10 (tp+DT)
DT
1,154
1,106
1,064
1,027
0,993
0,962
0,933
0,907
0,882
0,859
0,838
0,799
0,765
0,734
0,715
0,665
Pws (psi)
1790
1740
1690
1640
1590
1540
1490
1440
1.00
10.00
100.00
(tp+Dt)/Dt
En el cual podemos observar que los tiempos aumentan en las abscisas en sentido de derecha a
izquierda. Tambin podemos notar que los valores de la curva tienden a linealizarse en la regin de
tiempos tardos, lo que nos permite extrapolar una recta y estimar el valor de la presin esttica,
segn la teora de Horner. Para lograr esto, hacemos uso de Excel y la opcin de agregar lnea de
tendencia, que tambin tiene la opcin de arrojar la ecuacin de la misma, de la cual tambin se hizo
uso. Debido a esto la grfica nos queda de la siguiente manera:
14 | P g i n a
y = -7.067ln(x) + 1865.8
1790
Pws (psi)
1740
1690
1640
1590
1540
1490
1440
1.00
10.00
(tp+Dt)/Dt
100.00
15 | P g i n a
En donde podemos observar en la primera fila un conjunto de etiquetas y una serie de valores
cargados respectivamente que vienen inicialmente con el programa para realizar pruebas de
prctica. En la columna A se encuentran los valores de bias o umbral, que son los valores de
activacin para la neurona para cada dato de entrada correspondiente. En la columna B se
encuentran los valores correspondientes a la variable independiente. Y por ltimo en la columna C
los valores correspondientes a la variable dependiente, que sern los valores que pretende ajustar la
red neuronal. En este ejemplo se muestra el caso de una variable independiente, pero en el caso que
tuviramos ms de una debemos cargar los valores de cada una consecutivamente en columnas
diferentes partiendo desde la columna B hasta la ltima variable independiente y luego en la
siguiente a esta la variable dependiente. Se debe respetar en el momento de la carga de valores,
para evitar errores de interpretacin de datos por parte del programa, que la primera fila de cada
columna corresponde a la etiqueta de las respectivas variables.
Para comenzar a utilizar el programa lo primero que debemos hacer es eliminar el conjunto de
valores iniciales que trae el mismo y realizar la carga de valores correspondientes a nuestro caso.
Para nuestro caso los valores a cargar en el programa para la variable independiente son los
correspondientes a la columna de valores ``Log10 [(tp+Dt)/Dt] de la tabla de datos a utilizar y para
la variable dependiente los valores respectivos de presin. Tambin para poder realizar
comparaciones en el anlisis, repetiremos el proceso incluyendo adems el valor de presin esttica
(estimado a partir del anlisis de Horner) y su respectivo valor de ``Log10 [(tp+Dt)/Dt] el cual es
igual a cero. Para el valor correspondiente a bias o umbral utilizaremos el valor de 1 ``por defecto
ya que tendremos en cuenta todos los valores por igual. Posteriormente a la carga de valores
debemos habilitar las Macros de Excel, ya que esta utilidad fue escrita en este lenguaje y de esta
manera queda activada, en donde nos mostrar la siguiente pantalla:
En donde podemos observar que aparece una ventana con una serie de opciones del programa. Por
un lado tenemos las opciones ``Shrink/Normal, ``Show/Hide Help y ``RePos que corresponden al
posicionamiento de la ventana del programa en pantalla. Por otro lado tenemos la opcin ``Exit, que
como su nombre lo indica es para abandonar el programa y finalmente, las que son de inters a
nuestro problema, ``Initialize Data, ``1. Locate Data, ``2. Hidden Neurons, ``3. Settings y ``4.
Train que son para el procesamiento de los datos. Tambin podemos observar cuatro opciones con
signo de interrogacin y la opcin ``About, en donde las primeras no tienen informacin alguna ni
ninguna utilidad ya que fueron creadas con el propsito de incluir mejoras en versiones futuras y en
la ltima se brinda una breve descripcin del programa, por lo cual no tienen demasiada importancia
para nuestro caso.
Para comenzar con el procesamiento de datos, luego de haber cargado los respectivos valores de
las variables y bias o umbrales, debemos posicionarnos en la opcin ``1. Locate Data, con lo cual
nos aparecer una pantalla similar a la imagen anteriormente mostrada. Posteriormente a esta
accin debemos seleccionar la opcin ``Initialize Data, con lo cual el programa iniciar un
reconocimiento de los datos a utilizar. Cuando hayamos seleccionado la opcin nos aparecer la
siguiente pantalla:
16 | P g i n a
Con el fin de mostrar de mejor manera los cambios en pantalla, a partir de la imagen anterior y de
ahora en adelante, hemos decidido seleccionar la opcin ``Show/Hide Help para ocultar la ayuda
del programa y as obtener una mejor visin en pantalla. Luego de haber seleccionado la opcin
``Initialize Data, el programa nos posiciona en la opcin ``2. Hidden Neurons, en donde podemos
ver que el mismo nos indica la cantidad de variables ingresadas en la ventana ``Inputs y la cantidad
de datos ingresados en la ventana ``Patterns. Tambin podemos observar que en la primera fila de
las columnas C y D de la hoja ``TRAINDATA aparecen las etiquetas de ``Neural Model y
``ERROR, que son las columnas donde el programa arrojar el resultado del procesamiento de la
RNA.
Siguiendo con nuestra explicacin en este paso el programa nos pide que indiquemos la cantidad de
neuronas de la capa oculta. Como ya hemos desarrollado anteriormente en la teora, esto es de gran
importancia, ya que influye en la exactitud y eficiencia del comportamiento de la RNA. Nosotros
haremos nuestro estudio variando el nmero de neuronas en la capa oculta, pero por ahora
simplemente utilizaremos una neurona en la capa oculta a modo de ejemplo de mostrar como
funciona el programa. Una vez definida la cantidad de neuronas, seleccionamos la opcin ``Initialise
Network, con lo cual nos aparecer la siguiente pantalla:
En donde podemos observar que el programa ha creado una nueva hoja llamada CHART1, en donde
muestra los grficos de los resultados del procesamiento. Tambin podemos observar que nos ha
posicionado en la opcin ``3.Settings, en donde debemos ajustar ciertos valores correspondientes
17 | P g i n a
En esta pantalla podemos observar una serie de opciones y ventanas nuevas. Entre las opciones
que aparecen tenemos ``Reset Weights, ``Train, ``Pause y ``Graphs to Display. Y entre las
ventanas que aparecen tenemos ``Normalised Error y ``Epochs.
La opcin ``Reset Weights sirve dar un valor de ajuste inicial a los pesos de las variables de
entrada. Para aplicar el mtodo iterativo es necesario asignar un valor inicial, pero a veces debido al
valor asignado inicialmente el mtodo no converge, por lo cual es necesario reajustar este valor y
repetir el proceso, lo cual se hace por medio de esta opcin.
La opcin ``Train sirve para iniciar el proceso de entrenamiento de la RNA. Simplemente se
selecciona y se puede observar como transcurre el proceso.
La opcin ``Pause sirve para detener el proceso de entrenamiento de la RNA. A veces es necesario
detener el proceso para reajustar valores o corregir un error que fuese detectado durante el
entrenamiento. Esto se logra por medio de esta opcin.
La opcin ``Graphs to Display nos permite elegir entre cuatro grficos de salida con los resultados
del entrenamiento de la red. Entre los grficos de salida podemos elegir ``Model & Actual(muestra
el ajuste de curva hecho por el modelo), ``Model vs Actual (compara el valor arrojado por el modelo
respecto a los datos reales mediante la aproximacin de la funcin identidad), ``Error(muestra el
error de aproximacin respecto de cada dato cargado) y ``Decomposition (muestra la contribucin
al error causada por cada neurona).
18 | P g i n a
La ventana ``Normalised Error indica el error medio cuadrtico global de ajuste producido por la
RNA con respecto a los datos reales. Este valor sirve para comparar el grado de exactitud de la RNA.
La ventana ``Epochs indica el nmero de iteraciones transcurridas durante el entrenamiento. Sirve
para ir observando como se van ajustando los valores a medida que transcurre el entrenamiento.
Como ya hemos definido todas las caractersticas del proceso lo nico que resta es seleccionar la
opcin ``Train y poder observar los resultados que arroja el procesamiento. Para el caso de una
neurona en la capa oculta sin considerar la presin esttica estimada, seleccionando la hoja
``TRAINDATA nos arroja en pantalla el siguiente resultado:
Donde podemos observar que han aparecido valores en las columnas D, E, F y G, las cuales han
sido etiquetadas ``Neural Model, ``ERROR, ``hidVal1 y ``hidVal2.
En la columna etiquetada ``Neural Model el programa carga los valores del modelo que arroja el
procesamiento de la RNA.
En la columna etiquetada ``ERROR el programa carga los valores del error relativo calculado con
respecto a los valores ingresados para el procesamiento de la RNA.
En las columna etiquetadas ``hidVal1 y ``hidVal2 el programa carga los valores de las
contribuciones al error global por parte de las distintas neuronas que integran la RNA.
Adems podemos observar que la ventana del ``Normalised Error nos arroja un valor de 0,028336.
Estos valores sern tenidos en cuenta, ya que servirn de punto de comparacin para el ajuste de
curva.
Los grficos obtenidos para el caso de una neurona en la capa oculta sin considerar la presin
esttica estimada son los siguientes:
Model Error
0.08
Relative Error
0.06
0.04
0.02
0
-0.02
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
-0.04
-0.06
Pattern Number
19 | P g i n a
En el grfico de la pgina anterior se observa el error relativo entre la prediccin del modelo y cada
valor particular cargado.
Neural Contributions
Relative Contribution
1.5
1
0.5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
-0.5
-1
-1.5
Pattern Number
En el grfico anterior se puede observar la contribucin al error global causada por la neurona de la
capa oculta. Como en este caso solo hay una neurona en la capa oculta, tenemos solo una curva.
Pws (psig)
Neural Model
1700
1650
1600
1550
1500
1450
1400
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
Pattern Number
En el grfico superior se puede comparar el ajuste de curva que ocurre entre la red neuronal y los
datos suministrados a la red. De esta manera se puede observar el grado de coincidencia de la red.
Actual v Model
1900
Model
1800
1700
1600
1500
1400
1400
1500
1600
1700
1800
1900
Actual
20 | P g i n a
En este ltimo grfico podemos observar la comparacin entre el valor ingresado y el valor que nos
arroja la red neuronal. En este caso lo que se busca es comparar la aproximacin de los datos con
respecto a la funcin identidad. Mientras ms se aproxime a esta, mejor ser el ajuste obtenido por la
red neuronal.
Analizando los grficos anteriores podemos observar que si bien el ajuste de curva es muy
aproximado, no llega a ser el ptimo, por lo cual se decide hacer otros procesamientos con un
nmero distinto de neuronas en la capa oculta y ver como influye esto en el resultado.
Para tal motivo se realizo el mismo procedimiento en donde solamente se vari el nmero de
neuronas en la capa oculta entre 1 y 10. Tal procedimiento se realiz para dos situaciones
particulares, considerando la presin esttica estimada mediante el anlisis del ensayo de pozo y sin
considerar esta. Lo que se busca con esto es poder determinar para que nmero de neuronas en la
capa oculta la red neuronal logra ajustar mejor la curva. Para poder establecer una comparacin de
los resultados se registro el error normalizado en cada procesamiento. Los resultados obtenidos
fueron los siguientes:
1
10
S/
0,028336 0,010036 0,009907 0,01061 0,00922 0,00914 0,01026 0,00867 0,008957 0,00723
PE
C/
0,029183 0,013226 0,009737 0,010873 0,01141 0,01037 0,009895 0,01274 0,011561 0,012991
PE
La grfica obtenida a partir de estos datos es la siguiente:
0.035
Error Normalizado
0.03
0.025
0.02
Sin PE
0.015
Con PE
0.01
0.005
0
1
10
N de Neuronas
Donde podemos ver que el menor error normalizado sin considerar la presin esttica Pe es con 10
neuronas en la capa oculta y teniendo en cuenta la presin esttica Pe el menor error se presenta
con 3 neuronas en la capa oculta. Tambin podemos notar que el error es muy similar con 3 y 7
neuronas. Adems podemos observar que el error sigue una tendencia parecida para ambos casos
en el intervalo entre 1 y 7 neuronas. Por tal motivo podemos afirmar que es importante definir el
nmero de neuronas en la capa oculta para obtener un ajuste de curva adecuado y valores de salida
que se correspondan con la realidad. Debido a esto, dado el intervalo de neuronas en la capa oculta
estudiado para nuestro caso, el mejor ajuste lo obtendramos con 3 y 7 neuronas.
21 | P g i n a
CONCLUSIN
Es imposible afirmar el nmero de neuronas en la capa oculta ptimo para el ajuste de curva, debido
que el intervalo estudiado es muy limitado. Lo que si podemos afirmar es que es primordial la
correcta eleccin del nmero de las mismas para obtener un resultado adecuado. Adems se debe
decir que el uso de este tipo de herramientas permite aproximarnos al resultado requerido tanto
como sea necesario. Tambin se debe marcar la importancia del correcto entrenamiento de la red, ya
que un sobreentrenamiento producir un aumento en el error de los valores pronosticados por la
misma.
Se debe comentar que es posible ajustar la curva de un ensayo de presin por medio de redes RNA,
lo que no significa que se pueda asegurar que todas las curvas de los ensayos y todas redes
neuronales puedan ajustar una curva de manera exitosa. En el caso del perceptrn multicapa esto es
posible, ya que tiene caractersticas especiales para tal fin. Tambin siempre que se pueda es
importante considerar la alternativa del uso de RNA, ya que presenta grandes a la hora de resolver
problemas. Es importante destacar que el uso de RNA es una herramienta muy potente para
pronstico y para resolver problemas en ingeniera y otras ciencias.
Adems debemos decir que Excel posee las caractersticas adecuadas, en conjunto con otras
aplicaciones, para la implementacin de RNA. Por lo tanto es absolutamente posible aplicarlas bajo
el entorno de dicha hoja de clculo.
22 | P g i n a
BIBLIOGRAFA
Libros
B. Martin del Brio y A. Sanz Molina, Redes Neuronales y Sistemas Borrosos, de. Ra-Ma, 1997
Jos R. Hilera y Victor J Martinez, Redes Neuronales Artificiales, Alfaomega, Madrid, Espaa,
2000
Internet
http://petrounefa.blogspot.com.ar/
http://www.energia.gov.ar/contenidos/verpagina.php?idpagina=818
http://industria-petrolera.lacomunidadpetrolera.com/2009/01/anlisis-de-pruebas-de-presinparte-i.html
http://industria-petrolera.lacomunidadpetrolera.com/2009/01/anlisis-de-pruebas-de-presinparte-ii.html
http://eto-electronica.blogspot.com.ar/2008/11/redes-neuronales-artificiales-i.html
http://es.wikipedia.org/wiki/Red_neuronal_artificial
http://ocw.ehu.es/ensenanzas-tecnicas/redes-neuronales-artificiales-y-sus
aplicaciones/contenidos/pdf/libro-del-curso
http://prof.usb.ve/mvillasa/redes/Introduccion-vl.pdf
http://electronica.com.mx/neural/
http://www.philbrierley.com/main.html?code/vba.html&code/codeleft.html
http://www.palisade.com/neuraltools/
http://www.alyuda.com/forecasting-tool-for-excel.htm
23 | P g i n a