Está en la página 1de 23

AJUSTE DE CURVA DE UN ENSAYO DE

PRESIN MEDIANTE EL USO DE


REDES NEURONALES ARTIFICIALES

NDICE

Introduccin

Redes Neuronales Artificiales

Analoga con el cerebro

Modelo de la Unidad de Procesamiento Elemental

Arquitectura de una RNA

Tipos de Redes Neuronales - Clasificacin de las RNA

El perceptrn simple

El perceptrn multicapa (MLP)

Ensayos de Pozos
Ensayo de Recuperacin de Presin (Build up test)

11
11

Ejemplo de Aplicacin

13

Conclusin

22

Bibliografa

23

2|Pgina

INTRODUCCIN
Con las Redes Neuronales se busca la solucin de problemas complejos, no como una secuencia de
pasos, sino como la evolucin de unos sistemas de computacin inspirados en el cerebro humano, y
dotados por tanto de cierta inteligencia, los cuales no son sino la combinacin de elementos
simples de proceso (neuronas) interconectados, que operando de forma paralela en varios estilos,
consiguen resolver problemas relacionados con el reconocimiento de formas o patrones, prediccin,
codificacin, control y optimizacin entre otras aplicaciones. En el caso planteado en este trabajo se
busca mostrar la posibilidad de realizar un ajuste de curva de un ensayo de pozo de recuperacin de
presin Build Up usando redes neuronales artificiales mediante una utilidad diseada en el lenguaje
Visual Basic for Applications (VBA) para trabajar en Microsoft Excel y as dejar en evidencia las
capacidades en este rea de esta poderosa hoja de clculo.

3|Pgina

REDES NEURONALES ARTIFICIALES


Las Redes Neuronales Artificiales, RNA estn inspiradas en las redes neuronales biolgicas del
cerebro humano. Estn constituidas por elementos que se comportan de forma similar a la neurona
biolgica en sus funciones ms comunes. Estos elementos estn organizados de una forma parecida
a la que presenta el cerebro humano.
Las RNA al margen de "parecerse" al cerebro presentan una serie de caractersticas propias del
cerebro. Por ejemplo las RNA aprenden de la experiencia, generalizan de ejemplos previos a
ejemplos nuevos y abstraen las caractersticas principales de una serie de datos.
Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio o experiencia. Las
RNA pueden cambiar su comportamiento en funcin del entorno. Se les muestra un conjunto de
entradas y ellas mismas se ajustan para producir unas salidas consistentes.
Generalizar: extender o ampliar una cosa. Las RNA generalizan automticamente debido a su propia
estructura y naturaleza. Estas redes pueden ofrecer, dentro de un margen, respuestas correctas a
entradas que presentan pequeas variaciones debido a los efectos de ruido o distorsin.
Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto. Algunas RNA
son capaces de abstraer la esencia de un conjunto de entradas que aparentemente no presentan
aspectos comunes o relativos.

Analoga con el cerebro


La neurona es la unidad fundamental del sistema nervioso y en particular del cerebro. Cada neurona
es una simple unidad procesadora que recibe y combina seales desde y hacia otras neuronas. Si la
combinacin de entradas es suficientemente fuerte la salida de la neurona se activa. La Figura
muestra las partes que constituyen una neurona.

Figura - Componentes de una Neurona

El cerebro consiste en uno o varios billones de neuronas densamente interconectadas. El axn


(salida) de la neurona se ramifica y est conectada a las dendritas (entradas) de otras neuronas a
travs de uniones llamadas sinapsis. La eficacia de la sinapsis es modificable durante el proceso de
aprendizaje de la red.

4|Pgina

Modelo de la Unidad de Procesamiento Elemental


McCulloch and Pitts en 1943 concibieron un modelo abstracto y simple de una neurona artificial, este
es el elemento bsico de procesamiento en una red neuronal artificial. En la figura se muestra su
esquema:

Figura - Esquema de una neurona artificial

Una neurona artificial es un procesador elemental, en el sentido de que procesa un vector


x(x1,x2,...xN) de entradas y produce una respuesta o salida nica. Los elementos clave de una
neurona artificial los podemos ver en la figura anterior y son los siguientes:
- Las entradas que reciben los datos de otras neuronas. En una neurona biolgica corresponderan a
las dendritas
- Los pesos sinpticos wij. Al igual que en una neurona biolgica se establecen sinapsis entre las
dendritas de una neurona y el axn de otra, en una neurona artificial a las entradas que vienen de
otras neuronas se les asigna un peso, un factor de importancia. Este peso, que es un nmero, se
modifica durante el entrenamiento de la red neuronal, y es aqu por tanto donde se almacena la
informacin que har que la red sirva para un propsito u otro.
- Una regla de propagacin. Con esas entradas y los pesos sinpticos, se suele hacer algn tipo de
operacin para obtener el valor del potencial postsinptico (valor que es funcin de las entradas y los
pesos y que es el que se utiliza en ltimo trmino para realizar el procesamiento). Una de las
operaciones ms comunes es sumar las entradas, pero teniendo en cuenta la importancia de cada
una (el peso sinptico asociado a cada entrada). Es lo que se llama suma ponderada, aunque otras
operaciones tambin son posibles.

Ecuacin - Suma ponderada

- Una funcin de activacin. El valor obtenido con la regla de propagacin, se filtra a travs de una
funcin conocida como funcin de activacin y es la que nos da la salida de la neurona. Segn para
lo que se desee entrenar la red neuronal, se suele escoger una funcin de activacin u otra en
ciertas neuronas de la red. En la siguiente tabla se muestran las funciones de activacin ms
usuales.

5|Pgina

FUNCIN

RANGO

IDENTIDAD

y=x

[-inf, +inf]

ESCALN

y = signo(x)

{-1,+1}

y = H(x)

{0,+1}

LINEAL A
TRAMOS

-1, si x<-1

GRFICA

[-1,+1]

y = x, si -1<=x<=+1
+1, si x>+1
SIGMOIDEA

GAUSSIANA

1
y = -------1+e^(-x)

[0,+1]

y = tgh(x)

[-1,+1]

y = A.e^(-Bx^2)

[0,+1]

En muchas ocasiones la razn para la aplicacin de una funcin de activacin distinta de la identidad
surge de la necesidad de que las neuronas produzcan una salida acotada. Esto desde un punto de
vista de similitud con el sistema biolgico, no es tan descabellado, ya que las respuestas de las
neuronas biolgicas estn acotadas en amplitud. Adems cada neurona tiene asociado un nmero
denominado bas o umbral, que puede verse como un nmero que indica a partir de que valor del
potencial postsinptico la neurona produce una salida significativa.

Arquitectura de una RNA


Desde un punto de vista matemtico, se puede ver una red neuronal como un grafo dirigido y
ponderado donde cada uno de los nodos son neuronas artificiales y los arcos que unen los nodos
son las conexiones sinpticas. Al ser dirigido, los arcos son unidireccionales. Qu quiere decir esto?
En el lenguaje de neuronas y conexiones significa que la informacin se propaga en un nico
sentido, desde una neurona presinptica (neurona origen) a una neurona postsinptica (neurona
destino)
Por otra parte es ponderado, lo que significa que las conexiones tienen asociado un nmero real, un
peso, que indica la importancia de esa conexin con respecto al resto de las conexiones. Si dicho
peso es positivo la conexin se dice que es excitadora, mientras que si es negativa se dice que es
inhibidora.

6|Pgina

Lo usual es que las neuronas se agrupen en capas de manera que una RNA est formada por varias
capas de neuronas. Aunque todas las capas son conjuntos de neuronas, segn la funcin que
desempean, suelen recibir un nombre especifico. Las ms comunes son las siguientes:
- Capa de entrada: las neuronas de la capa de entrada, reciben los datos que se proporcionan a la
RNA para que los procese.
- Capas ocultas: estas capas introducen grados de libertad adicionales en la RNA. El nmero de ellas
puede depender del tipo de red que estemos considerando. Este tipo de capas realiza gran parte del
procesamiento.
- Capa de salida: Esta capa proporciona la respuesta de la red neuronal. Normalmente tambin
realiza parte del procesamiento.

Tipos de Redes Neuronales - Clasificacin de las RNA


Segn el criterio que escojamos para clasificar las RNA tendremos una clasificacin u otra. Lo ms
comn es usar la arquitectura y el tipo de aprendizaje como criterios de clasificacin.
Si nos fijamos en la arquitectura podemos tener dos posibilidades distintas. Si la arquitectura de la
red no presenta ciclos, es decir, no se puede trazar un camino de una neurona a s misma, la red se
llama unidireccional o hacia-adelante (feedforward).
Por el contrario, si podemos trazar un camino de una neurona a s misma la arquitectura presenta
ciclos. Este tipo de redes se denominan recurrentes o realimentados (recurrent).

Figura - Representacin de redes unidireccionales y realimentadas

El otro criterio ms habitual para clasificar las redes neuronales es el tipo de aprendizaje que se
utilice. Hay cuatro clases de aprendizaje distintos:
a. Aprendizaje supervisado: En este tipo de aprendizaje se le proporciona a la RNA una serie de
ejemplos consistentes en unos patrones de entrada, junto con la salida que debera dar la red. El
proceso de entrenamiento consiste en el ajuste de los pesos para que la salida de la red sea lo ms
parecida posible a la salida deseada. Es por ello que en cada iteracin se use alguna funcin que
nos d cuenta del error o el grado de acierto que est cometiendo la red.
b. Aprendizaje no supervisado o autoorganizado: En este tipo de aprendizaje se presenta a la red
una serie de ejemplos pero no se presenta la respuesta deseada. Lo que hace la RNA es reconocer
regularidades en el conjunto de entradas, es decir, estimar una funcin densidad de probabilidad p(x)
que describe la distribucin de patrones x en el espacio de entrada Rn.
c. Aprendizaje Hbrido: Es una mezcla de los anteriores. Unas capas de la red tienen un
aprendizaje supervisado y otras capas de la red tienen un aprendizaje de tipo no supervisado. Este
tipo de entrenamiento es el que tienen redes como las RBF.
7|Pgina

d. Aprendizaje reforzado (reinforcement learning): Es un aprendizaje con caractersticas del


supervisado y con caractersticas del autoorganizado. No se proporciona una salida deseada, pero si
se le indica a la red en cierta medida el error que comete, aunque es un error global.
TABLA CLASIFICACIN DE ALGUNOS TIPOS DE REDES NEURONALES

APRENDIZAJE

ARQUITECTURA

SUPERVISADO

HACIA-ADELANTE

PERCEPTRN
MLP
ADALINA
BACKPROPAGATION
BOLTZMANN MACHINE

REALIMENTADOS

BSB
FUZZY COG. MAP

HACIA-ADELANTE

LAM Y OLAM
MAPAS DE KOHONEN

REALIMENTADOS

ART 1, 2, 3
HOPFIELD
BAM

NO SUPERVISADO

TIPOS DE RED

HBRIDOS

RBF
CONTRAPROPAGACIN

REFORZADO

APRENDIZAJE REFORZADO

Existe un gran nmero de modelos de redes neuronales, sin embargo, en este trabajo mostraremos
dos de los modelos ms conocidos y utilizados, el perceptrn simple y el perceptrn multicapa, ya
que ellos son el fundamento terico para nuestro estudio.

El perceptrn simple
El perceptrn simple fue introducido por Frank Rosenblatt. Es un sistema capaz de realizar tareas de
clasificacin de forma automtica en el que a partir de un nmero de ejemplos etiquetados, el
sistema determina la ecuacin del plano discriminante. Puede usarse como neurona dentro de otro
tipo de red de neurona artificial. Posee aprendizaje supervisado y conexiones en un slo sentido. Es
reconocido por su capacidad de aprender a reconocer patrones y es un modelo unidireccional
compuesto por dos capas de neuronas. Con respecto al entrenamiento las neuronas de entrada son
discretas y la funcin de activacin de las de salida es de tipo escaln.

Figura Representacin de un Perceptrn Simple

Arquitectura. Es una red monocapa con varias neuronas de entrada conectadas a la neurona de
salida. Observando la imagen anterior podemos calcular el valor de la salida, del siguiente modo:

- En el caso de que la salida sea +1, la entrada pertencer a una clase, situada a un lado del
hiperplano.
8|Pgina

- En el caso de que la salida sea -1, la entrada pertencer a la clase contraria, situada al otro lado del
hiperplano.
El perceptrn simple es un hiperplano de dimensin n-1 capaz de separar las clases. La ecuacin de
dicho hiperplano es:
w1x1+w2x2+=0
La cual si se simplifica queda del siguiente modo:

Donde la parte que multiplica x1 es la pendiente de la recta y la otra parte es el punto de corte con el
eje de ordenadas.

Figura Clases que separa el perceptrn

Aprendizaje supervisado. Para el proceso de aprendizaje del perceptrn simple es necesario saber:
- Los datos son puntos en un espacio multidimensional.
- Se dispone de un conjunto de observaciones, puntos representados en el hiperplano, de los que se
sabe su categora o clase.
- Se tiene que determinar la ecuacin del hiperplano que separa los ejemplos de un tipo de los de
otro.
- La ecuacin del hiperplano se deduce a partir de los ejemplos.
- El aprendizaje es proceso iterativo supervisado.
- Hasta encontrar el hiperplano discriminante se debe ir modificando los parmetros de la red (pesos
y umbral).
- Este proceso de aprendizaje supervisado tiene un nmero finito de iteraciones.
Los pasos a seguir para el aprendizaje son:
1.
2.
3.
4.

Inicializacin aleatoria de los pesos y umbral.


Se toma un patrn de entrada-salida.
Se calcula la salida de la red.
Si y = d(x) (clasificacin correcta).
Si y d(x) (clasificacin incorrecta) se modifican los parmetros.
5. Se vuelve al paso 2 hasta completar el conjunto de patrones de entrenamiento.
6. Se repiten los pasos anteriores hasta alcanzar el criterio de parada.

El perceptrn multicapa (MLP)


Este es uno de los tipos de redes ms comunes. Se basa en el perceptrn simple solo que el nmero
de capas ocultas puede ser mayor o igual que una. Es una red unidireccional (feedforward). La
arquitectura tpica de esta red es la siguiente:
9|Pgina

Figura - Representacin de un Perceptrn Multicapa (MLP)

Las neuronas de la capa oculta usan como regla de propagacin la suma ponderada de las entradas
con los pesos sinpticos wij y sobre esa suma ponderada se aplica una funcin de transferencia de
tipo sigmoide, que es acotada en respuesta.
El aprendizaje que se suele usar en este tipo de redes recibe el nombre de retropropagacin del error
(backpropagation). Como funcin de coste global, se usa el error cuadrtico medio. Es decir, que
dado un par (xk, dk) correspondiente a la entrada k de los datos de entrenamiento y salida deseada
asociada se calcula la cantidad:

Ecuacin - Error cuadrtico medio

que vemos que es la suma de los errores parciales debido a cada patrn (ndice p), resultantes de la
diferencia entre la salida deseada dp y la salida que da la red f ante el vector de entrada xk. Si estas
salidas son muy diferentes de las salidas deseadas, el error cuadrtico medio ser grande. f es la
funcin de activacin de las neuronas de la capa de salida e y la salida que proporcionan las
neuronas de la ltima capa oculta.
Sobre esta funcin de coste global se aplica algn procedimiento de minimizacin. En el caso del
MLP se hace mediante un descenso por gradiente. Las expresiones que resultan aplicando la regla
de la cadena son las siguientes:

Ecuacin - Trminos delta

Siendo yk las salidas de la capa oculta.


El aprendizaje por backpropagation queda como sigue:
1. Inicializar los pesos y los umbrales iniciales de cada neurona. Hay varias posibilidades de
inicializacin siendo las ms comunes las que introducen valores aleatorios pequeos.
2. Para cada patrn del conjunto de los datos de entrenamiento
10 | P g i n a

a. Obtener la respuesta de la red ante ese patrn. Esta parte se consigue propagando la entrada
hacia adelante, ya que este tipo de red es feedforward. Las salidas de una capa sirven como entrada
a las neuronas de la capa siguiente, procesndolas de acuerdo a la regla de propagacin y la funcin
de activacin correspondientes.
b. Calcular los errores asociados segn la ecuacin de trminos delta
c. Calcular los incrementos parciales (sumandos de los sumatorios). Estos incrementos dependen
de los errores calculados en 2.b
3. Calcular el incremento total, para todos los patrones, de los pesos y los umbrales segn las
expresiones en la ecuacin de trminos delta
4. Actualizar pesos y umbrales
5. Calcular el error actual y volver al paso 2 si no es satisfactorio.

ENSAYOS DE POZOS
Los ensayos de pozos consisten en ocasionar una perturbacin en el caudal y analizar la respuesta
de presin asociada a dicha perturbacin con el objeto de obtener informacin de la transmisividad
de la formacin (kh/m), del factor de dao (s), y de la presin esttica de la formacin (p). En nuestro
caso utilizaremos el ensayo de recuperacin de presin (Build up test) con el fin de estimar la presin
esttica (Pe).

Ensayo de Recuperacin de Presin (Build up test):


El ensayo de recuperacin de presin es una prueba utilizada para determinar la presin en el estado
transitorio. Bsicamente, la prueba es realizada por un pozo productor y se requiere que produzca a
tasa constante por un cierto tiempo, denominado tiempo de flujo (tp). Luego, se cierra el pozo
(usualmente en la superficie) permitiendo que la presin se restaure en el pozo, y recordando que la
presin (usualmente en el fondo) en el pozo es una funcin del tiempo. A partir de esta data, es
frecuentemente posible estimar la permeabilidad de la formacin y la presin del rea de drenaje
actual, y caracterizar el dao o estimulacin y las heterogeneidades del yacimiento o los lmites.

DP

P(Dt=0)=Pwf final
CIERRE
PREVIO
Q=0

FLUENCIA
Q
DRAW DOWN
tp

Dt
BUILD UP
RECUP. DE PRESION
Q=0
Dt
t

Al cerrar el pozo, la presin comienza a subir partiendo de la Pwf (presin dinmica de fondo) hasta
que luego de un tiempo considerado de cierre Dt, la presin registrada de fondo alcanza el valor
esttico Pe (presin esttica).
El registro de presin de fondo, representa una presin esttica en proceso de restauracin (Pws), la
cual no necesariamente alcanza el valor esttico de Pe.
Pws Pe
Depender del tiempo de cierre del pozo y del tiempo de produccin. A medida que el tiempo de
cierre se incrementa Pws se aproximar a Pe.
Se establece para el ensayo de recuperacin Build Up que para flujo de estado no estable
(transiente) se cumple la siguiente ecuacin (Ecuacin de Horner, 1951):

11 | P g i n a

donde:
Pws: Presin de fondo durante la restauracin o cierre, psi
t: Tiempo de cierre, horas
La Ecuacin de Horner sugiere que la relacin entre pws y (tp+t)/t es una lnea recta en escala
semi-log.

Pws = a m log[(tp+Dt)/Dt]
donde:
a = Pi

162.6 0 0 0

El valor de la pendiente m es igual al coeficiente del trmino del logaritmo de la ecuacin.


La extrapolacin de la lnea recta al tiempo de cierre infinito, [(t+t)/t]=1, da la presin llamada Pi.
Esto se realiza porque resulta imprctico y antieconmico mantener cerrado el pozo un tiempo
infinito.

Acerca de la presin Pi podemos afirmar lo siguiente:


a) Esta cantidad es la presin que sera obtenida a un tiempo de cierre infinito.
b) En el caso de un pozo en un yacimiento infinito, Pi es la presin inicial.
c) En realidad, Pi es menor a la presin inicial de un yacimiento debido al agotamiento de energa del
yacimiento por produccin de fluidos.
d) Pi es ligeramente mayor que la presin promedio en el rea de drenaje del pozo.
Debido a lo establecido anteriormente, podemos considerar la presin inicial Pi aproximadamente
igual a la presin esttica Pe.

12 | P g i n a

EJEMPLO DE APLICACIN
El desarrollo de nuestro ejemplo consiste en ajustar la curva de un ensayo de presin mediante el
uso de redes neuronales artificiales en Excel y mostrar las caractersticas de esta poderosa
metodologa. Para poder realizar nuestro estudio primero debemos determinar la presin esttica del
reservorio a partir del ensayo de presin.
Para desarrollar nuestro caso haremos uso del conjunto de datos extrado de un ensayo de
recuperacin Build Up de un ejercicio del libro Advanced Reservoir Engineering, de los autores Tarek
Ahmed y Paul D. McKinney, el cual nos presenta lo siguiente:
Tiempo de produccin tp (hs): 53
N

Tiempo (hs)

1
2
3
4
5
6
7
8
9
10
11

Pws (Psig)

0
0,167
0,333
0,5
0,667
0,833
1
1,167
1,333
1,5
1,667

1429,6
1451,5
1476
1498,6
1520,1
1541,5
1561,3
1581,9
1599,7
1617,9
1635,3

Tiempo (hs)

Pws (Psig)

12
13
14
15
16
17
18
19
20
21
22

2
2,333
2,667
3
3,333
3,667
4
4,5
5
5,5
6

1665,7
1691,8
1715,3
1736,3
1754,7
1770,1
1783,5
1800,7
1812,8
1822,4
1830,7

Tiempo (hs)

23
24
25
26
27
28
29
30
31
32
33

6,5
7
7,5
8
8,5
9
10
11
12
12,667
14,62

Pws (Psig)
1837,2
1841,1
1844,5
1846,7
1849,6
1850,4
1852,7
1853,5
1854
1854
1855

Donde el tiempo cero representa la presin en el momento en que se cierra el pozo. Los posteriores
datos corresponden a mediciones de presin con el tiempo medido, teniendo como referencia el
instante en que se cierra el pozo.
Si a partir de estos datos graficamos la presin vs. el tiempo de cierre obtenemos la siguiente curva:

Grfico Lineal
1900
1850
1800
1750

Pws (psi)

1700
1650
1600
1550
1500
1450
1400
0

10

12

14

16

Tiempo (hs)
Se puede observar que la mayor recuperacin de presin se produce en los tiempos iniciales luego
del cierre del pozo y que los tiempos tardos tienden a un valor lmite el cual nosotros queremos
averiguar que es el valor de la presin esttica Pe.
Para obtener el valor lmite de presin debemos determinarlo en un tiempo infinito, para lo cual
tenemos que hacer el correspondiente tratamiento de los datos y aplicar la tcnica de extrapolacin
de la lnea recta. La tabla con los datos a utilizar es la siguiente:
13 | P g i n a

Tiempo
(hs)

Pws
(Psig)

(tp+DT)
DT

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

0
0,167
0,333
0,5
0,667
0,833
1
1,167
1,333
1,5
1,667
2
2,333
2,667
3
3,333

1429,6
1451,5 318,37
1476 160,16
1498,6 107,00
1520,1 80,46
1541,5 64,63
1561,3 54,00
1581,9 46,42
1599,7 40,76
1617,9 36,33
1635,3 32,79
1665,7 27,50
1691,8 23,72
1715,3 20,87
1736,3 18,67
1754,7 16,90

2,503
2,205
2,029
1,906
1,810
1,732
1,667
1,610
1,560
1,516
1,439
1,375
1,320
1,271
1,228

17

3,667

1770,1

1,189

15,45

Log10 (tp+DT)
DT

Tiempo
(hs)

18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33

4
4,5
5
5,5
6
6,5
7
7,5
8
8,5
9
10
11
12
12,667
14,62

Pws
(Psig)
1783,5
1800,7
1812,8
1822,4
1830,7
1837,2
1841,1
1844,5
1846,7
1849,6
1850,4
1852,7
1853,5
1854
1854
1855

(tp+DT)
DT
14,25
12,78
11,60
10,64
9,83
9,15
8,57
8,07
7,63
7,24
6,89
6,30
5,82
5,42
5,18
4,63

Log10 (tp+DT)
DT
1,154
1,106
1,064
1,027
0,993
0,962
0,933
0,907
0,882
0,859
0,838
0,799
0,765
0,734
0,715
0,665

A partir de estos datos generamos el grfico semilog de presin vs [(tp+DT)/DT]:

Grfico semilog - Horner


1890
1840

Pws (psi)

1790
1740
1690
1640
1590
1540
1490
1440
1.00

10.00

100.00

(tp+Dt)/Dt
En el cual podemos observar que los tiempos aumentan en las abscisas en sentido de derecha a
izquierda. Tambin podemos notar que los valores de la curva tienden a linealizarse en la regin de
tiempos tardos, lo que nos permite extrapolar una recta y estimar el valor de la presin esttica,
segn la teora de Horner. Para lograr esto, hacemos uso de Excel y la opcin de agregar lnea de
tendencia, que tambin tiene la opcin de arrojar la ecuacin de la misma, de la cual tambin se hizo
uso. Debido a esto la grfica nos queda de la siguiente manera:

14 | P g i n a

Grfico semilog - Horner


1890
1840

y = -7.067ln(x) + 1865.8

1790

Pws (psi)

1740
1690
1640
1590
1540
1490
1440
1.00

10.00

(tp+Dt)/Dt

100.00

En donde la ecuacin de la lnea de tendencia es la siguiente:


y= -7,06ln(x) + 1865
De la ecuacin anterior podemos deducir que la presin esttica es de 1865 psi, obtenida a partir de
la metodologa de anlisis de ensayo de presin desarrollada anteriormente.
Por lo tanto, para [(tp+Dt)/Dt]=1, que corresponde a un tiempo infinito, la presin esttica
correspondiente es Pe= 1865 psi.
Ahora que ya obtuvimos el valor de presin esttica procedemos a realizar el ajuste de curva en
Excel. Para ello haremos uso de una aplicacin generada a partir de una macro de Excel de
distribucin gratuita llamada Tiberius XL. La misma utiliza el modelo de red neuronal artificial del
perceptrn multicapa (MLP) junto con el algoritmo de retropropagacin (backpropagation).
En el mercado existen otras herramientas altamente profesionales que utilizan RNA en Excel, tales
como Alyuda Forecaster XL o Palisade NeuralTools, pero se decidi hacer uso de la nombrada
anteriormente por ser muy didctica y su simplicidad para el caso que a nosotros nos ocupa. La
desventaja que presenta el uso de la utilidad seleccionada es que no se puede acceder al algoritmo
de programacin libremente, ya que se encuentra protegido por contrasea, y para poder acceder al
mismo se debera realizar la compra de la licencia, lo cual esta fuera de nuestro alcance.
Para acceder a esta utilidad se debe ingresar al Libro de Excel llamado ``TiberiusXL.xls. Cuando lo
hagamos, nos encontraremos situados en la hoja llamada ``TRAINDATA, en donde nos aparece la
siguiente pantalla:

15 | P g i n a

En donde podemos observar en la primera fila un conjunto de etiquetas y una serie de valores
cargados respectivamente que vienen inicialmente con el programa para realizar pruebas de
prctica. En la columna A se encuentran los valores de bias o umbral, que son los valores de
activacin para la neurona para cada dato de entrada correspondiente. En la columna B se
encuentran los valores correspondientes a la variable independiente. Y por ltimo en la columna C
los valores correspondientes a la variable dependiente, que sern los valores que pretende ajustar la
red neuronal. En este ejemplo se muestra el caso de una variable independiente, pero en el caso que
tuviramos ms de una debemos cargar los valores de cada una consecutivamente en columnas
diferentes partiendo desde la columna B hasta la ltima variable independiente y luego en la
siguiente a esta la variable dependiente. Se debe respetar en el momento de la carga de valores,
para evitar errores de interpretacin de datos por parte del programa, que la primera fila de cada
columna corresponde a la etiqueta de las respectivas variables.
Para comenzar a utilizar el programa lo primero que debemos hacer es eliminar el conjunto de
valores iniciales que trae el mismo y realizar la carga de valores correspondientes a nuestro caso.
Para nuestro caso los valores a cargar en el programa para la variable independiente son los
correspondientes a la columna de valores ``Log10 [(tp+Dt)/Dt] de la tabla de datos a utilizar y para
la variable dependiente los valores respectivos de presin. Tambin para poder realizar
comparaciones en el anlisis, repetiremos el proceso incluyendo adems el valor de presin esttica
(estimado a partir del anlisis de Horner) y su respectivo valor de ``Log10 [(tp+Dt)/Dt] el cual es
igual a cero. Para el valor correspondiente a bias o umbral utilizaremos el valor de 1 ``por defecto
ya que tendremos en cuenta todos los valores por igual. Posteriormente a la carga de valores
debemos habilitar las Macros de Excel, ya que esta utilidad fue escrita en este lenguaje y de esta
manera queda activada, en donde nos mostrar la siguiente pantalla:

En donde podemos observar que aparece una ventana con una serie de opciones del programa. Por
un lado tenemos las opciones ``Shrink/Normal, ``Show/Hide Help y ``RePos que corresponden al
posicionamiento de la ventana del programa en pantalla. Por otro lado tenemos la opcin ``Exit, que
como su nombre lo indica es para abandonar el programa y finalmente, las que son de inters a
nuestro problema, ``Initialize Data, ``1. Locate Data, ``2. Hidden Neurons, ``3. Settings y ``4.
Train que son para el procesamiento de los datos. Tambin podemos observar cuatro opciones con
signo de interrogacin y la opcin ``About, en donde las primeras no tienen informacin alguna ni
ninguna utilidad ya que fueron creadas con el propsito de incluir mejoras en versiones futuras y en
la ltima se brinda una breve descripcin del programa, por lo cual no tienen demasiada importancia
para nuestro caso.
Para comenzar con el procesamiento de datos, luego de haber cargado los respectivos valores de
las variables y bias o umbrales, debemos posicionarnos en la opcin ``1. Locate Data, con lo cual
nos aparecer una pantalla similar a la imagen anteriormente mostrada. Posteriormente a esta
accin debemos seleccionar la opcin ``Initialize Data, con lo cual el programa iniciar un
reconocimiento de los datos a utilizar. Cuando hayamos seleccionado la opcin nos aparecer la
siguiente pantalla:
16 | P g i n a

Con el fin de mostrar de mejor manera los cambios en pantalla, a partir de la imagen anterior y de
ahora en adelante, hemos decidido seleccionar la opcin ``Show/Hide Help para ocultar la ayuda
del programa y as obtener una mejor visin en pantalla. Luego de haber seleccionado la opcin
``Initialize Data, el programa nos posiciona en la opcin ``2. Hidden Neurons, en donde podemos
ver que el mismo nos indica la cantidad de variables ingresadas en la ventana ``Inputs y la cantidad
de datos ingresados en la ventana ``Patterns. Tambin podemos observar que en la primera fila de
las columnas C y D de la hoja ``TRAINDATA aparecen las etiquetas de ``Neural Model y
``ERROR, que son las columnas donde el programa arrojar el resultado del procesamiento de la
RNA.
Siguiendo con nuestra explicacin en este paso el programa nos pide que indiquemos la cantidad de
neuronas de la capa oculta. Como ya hemos desarrollado anteriormente en la teora, esto es de gran
importancia, ya que influye en la exactitud y eficiencia del comportamiento de la RNA. Nosotros
haremos nuestro estudio variando el nmero de neuronas en la capa oculta, pero por ahora
simplemente utilizaremos una neurona en la capa oculta a modo de ejemplo de mostrar como
funciona el programa. Una vez definida la cantidad de neuronas, seleccionamos la opcin ``Initialise
Network, con lo cual nos aparecer la siguiente pantalla:

En donde podemos observar que el programa ha creado una nueva hoja llamada CHART1, en donde
muestra los grficos de los resultados del procesamiento. Tambin podemos observar que nos ha
posicionado en la opcin ``3.Settings, en donde debemos ajustar ciertos valores correspondientes
17 | P g i n a

al procesamiento. All se pueden observar las opciones de ``Redisplay Rate, ``Epcochs y


``Learning Rate.
La opcin ``Redisplay Rate indica el intervalo de iteraciones durante el procesamiento seleccionado
para actualizar los grficos en pantalla. Esta opcin importa desde el punto de vista que este es un
proceso lento y la variacin de este valor puede contribuir en que se desarrolle en menor tiempo.
Para nuestro caso simplemente utilizaremos el valor por defecto de 10.
La opcin ``Epcochs indica el nmero de iteraciones a realizar. Un nmero pequeo puede
ocasionar que arroje un resultado incorrecto y un nmero muy elevado puede ocasionar que el
proceso sea demasiado lento. Para nuestro caso utilizaremos el valor por defecto de 1000.
La opcin ``Learning Rate indica un coeficiente que mide la disminucin del error (ajusta el error).
Un valor grande ocasiona que el ajuste del error en cada iteracin sea menor pero la velocidad de
procesamiento mayor, mientras que un valor pequeo tiene un mejor ajuste del error pero el
procesamiento es ms lento. Este coeficiente vara entre 0 y 1. Para nuestro caso utilizaremos el
valor de 0,4.
Luego de ajustar estos valores el programa nos indica que debemos seleccionar la opcin ``4.Train,
en donde luego de hacerlo nos aparecer la siguiente pantalla:

En esta pantalla podemos observar una serie de opciones y ventanas nuevas. Entre las opciones
que aparecen tenemos ``Reset Weights, ``Train, ``Pause y ``Graphs to Display. Y entre las
ventanas que aparecen tenemos ``Normalised Error y ``Epochs.
La opcin ``Reset Weights sirve dar un valor de ajuste inicial a los pesos de las variables de
entrada. Para aplicar el mtodo iterativo es necesario asignar un valor inicial, pero a veces debido al
valor asignado inicialmente el mtodo no converge, por lo cual es necesario reajustar este valor y
repetir el proceso, lo cual se hace por medio de esta opcin.
La opcin ``Train sirve para iniciar el proceso de entrenamiento de la RNA. Simplemente se
selecciona y se puede observar como transcurre el proceso.
La opcin ``Pause sirve para detener el proceso de entrenamiento de la RNA. A veces es necesario
detener el proceso para reajustar valores o corregir un error que fuese detectado durante el
entrenamiento. Esto se logra por medio de esta opcin.
La opcin ``Graphs to Display nos permite elegir entre cuatro grficos de salida con los resultados
del entrenamiento de la red. Entre los grficos de salida podemos elegir ``Model & Actual(muestra
el ajuste de curva hecho por el modelo), ``Model vs Actual (compara el valor arrojado por el modelo
respecto a los datos reales mediante la aproximacin de la funcin identidad), ``Error(muestra el
error de aproximacin respecto de cada dato cargado) y ``Decomposition (muestra la contribucin
al error causada por cada neurona).
18 | P g i n a

La ventana ``Normalised Error indica el error medio cuadrtico global de ajuste producido por la
RNA con respecto a los datos reales. Este valor sirve para comparar el grado de exactitud de la RNA.
La ventana ``Epochs indica el nmero de iteraciones transcurridas durante el entrenamiento. Sirve
para ir observando como se van ajustando los valores a medida que transcurre el entrenamiento.
Como ya hemos definido todas las caractersticas del proceso lo nico que resta es seleccionar la
opcin ``Train y poder observar los resultados que arroja el procesamiento. Para el caso de una
neurona en la capa oculta sin considerar la presin esttica estimada, seleccionando la hoja
``TRAINDATA nos arroja en pantalla el siguiente resultado:

Donde podemos observar que han aparecido valores en las columnas D, E, F y G, las cuales han
sido etiquetadas ``Neural Model, ``ERROR, ``hidVal1 y ``hidVal2.
En la columna etiquetada ``Neural Model el programa carga los valores del modelo que arroja el
procesamiento de la RNA.
En la columna etiquetada ``ERROR el programa carga los valores del error relativo calculado con
respecto a los valores ingresados para el procesamiento de la RNA.
En las columna etiquetadas ``hidVal1 y ``hidVal2 el programa carga los valores de las
contribuciones al error global por parte de las distintas neuronas que integran la RNA.
Adems podemos observar que la ventana del ``Normalised Error nos arroja un valor de 0,028336.
Estos valores sern tenidos en cuenta, ya que servirn de punto de comparacin para el ajuste de
curva.
Los grficos obtenidos para el caso de una neurona en la capa oculta sin considerar la presin
esttica estimada son los siguientes:

Model Error
0.08

Relative Error

0.06
0.04
0.02
0
-0.02

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

-0.04
-0.06
Pattern Number

19 | P g i n a

En el grfico de la pgina anterior se observa el error relativo entre la prediccin del modelo y cada
valor particular cargado.

Neural Contributions

Relative Contribution

1.5
1
0.5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
-0.5
-1
-1.5
Pattern Number

En el grfico anterior se puede observar la contribucin al error global causada por la neurona de la
capa oculta. Como en este caso solo hay una neurona en la capa oculta, tenemos solo una curva.
Pws (psig)
Neural Model

Actual and Model


1900
1850
1800
1750
Value

1700
1650
1600
1550
1500
1450
1400
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
Pattern Number

En el grfico superior se puede comparar el ajuste de curva que ocurre entre la red neuronal y los
datos suministrados a la red. De esta manera se puede observar el grado de coincidencia de la red.

Actual v Model

1900

Model

1800
1700
1600
1500
1400
1400

1500

1600

1700

1800

1900

Actual

20 | P g i n a

En este ltimo grfico podemos observar la comparacin entre el valor ingresado y el valor que nos
arroja la red neuronal. En este caso lo que se busca es comparar la aproximacin de los datos con
respecto a la funcin identidad. Mientras ms se aproxime a esta, mejor ser el ajuste obtenido por la
red neuronal.
Analizando los grficos anteriores podemos observar que si bien el ajuste de curva es muy
aproximado, no llega a ser el ptimo, por lo cual se decide hacer otros procesamientos con un
nmero distinto de neuronas en la capa oculta y ver como influye esto en el resultado.
Para tal motivo se realizo el mismo procedimiento en donde solamente se vari el nmero de
neuronas en la capa oculta entre 1 y 10. Tal procedimiento se realiz para dos situaciones
particulares, considerando la presin esttica estimada mediante el anlisis del ensayo de pozo y sin
considerar esta. Lo que se busca con esto es poder determinar para que nmero de neuronas en la
capa oculta la red neuronal logra ajustar mejor la curva. Para poder establecer una comparacin de
los resultados se registro el error normalizado en cada procesamiento. Los resultados obtenidos
fueron los siguientes:
1

Nmero de Neuronas en la capa oculta


4
5
6
7

10

S/
0,028336 0,010036 0,009907 0,01061 0,00922 0,00914 0,01026 0,00867 0,008957 0,00723
PE
C/
0,029183 0,013226 0,009737 0,010873 0,01141 0,01037 0,009895 0,01274 0,011561 0,012991
PE
La grfica obtenida a partir de estos datos es la siguiente:

Error Normalizado vs. N de Neuronas

0.035

Error Normalizado

0.03
0.025
0.02

Sin PE

0.015

Con PE

0.01
0.005
0
1

10

N de Neuronas
Donde podemos ver que el menor error normalizado sin considerar la presin esttica Pe es con 10
neuronas en la capa oculta y teniendo en cuenta la presin esttica Pe el menor error se presenta
con 3 neuronas en la capa oculta. Tambin podemos notar que el error es muy similar con 3 y 7
neuronas. Adems podemos observar que el error sigue una tendencia parecida para ambos casos
en el intervalo entre 1 y 7 neuronas. Por tal motivo podemos afirmar que es importante definir el
nmero de neuronas en la capa oculta para obtener un ajuste de curva adecuado y valores de salida
que se correspondan con la realidad. Debido a esto, dado el intervalo de neuronas en la capa oculta
estudiado para nuestro caso, el mejor ajuste lo obtendramos con 3 y 7 neuronas.

21 | P g i n a

CONCLUSIN
Es imposible afirmar el nmero de neuronas en la capa oculta ptimo para el ajuste de curva, debido
que el intervalo estudiado es muy limitado. Lo que si podemos afirmar es que es primordial la
correcta eleccin del nmero de las mismas para obtener un resultado adecuado. Adems se debe
decir que el uso de este tipo de herramientas permite aproximarnos al resultado requerido tanto
como sea necesario. Tambin se debe marcar la importancia del correcto entrenamiento de la red, ya
que un sobreentrenamiento producir un aumento en el error de los valores pronosticados por la
misma.
Se debe comentar que es posible ajustar la curva de un ensayo de presin por medio de redes RNA,
lo que no significa que se pueda asegurar que todas las curvas de los ensayos y todas redes
neuronales puedan ajustar una curva de manera exitosa. En el caso del perceptrn multicapa esto es
posible, ya que tiene caractersticas especiales para tal fin. Tambin siempre que se pueda es
importante considerar la alternativa del uso de RNA, ya que presenta grandes a la hora de resolver
problemas. Es importante destacar que el uso de RNA es una herramienta muy potente para
pronstico y para resolver problemas en ingeniera y otras ciencias.
Adems debemos decir que Excel posee las caractersticas adecuadas, en conjunto con otras
aplicaciones, para la implementacin de RNA. Por lo tanto es absolutamente posible aplicarlas bajo
el entorno de dicha hoja de clculo.

22 | P g i n a

BIBLIOGRAFA
Libros

Tarek Ahmed y Paul D. McKinney, Advanced Reservoir Engineering, Elsevier, 2005

L. P. DAKE, Fundamentals of Reservoir Engineering, Elsevier, Seventeenth impression, 1998

L. P. DAKE, The Practice of Reservoir Engineering, Elsevier, Revised Edition, 1999

B. Martin del Brio y A. Sanz Molina, Redes Neuronales y Sistemas Borrosos, de. Ra-Ma, 1997

Jos R. Hilera y Victor J Martinez, Redes Neuronales Artificiales, Alfaomega, Madrid, Espaa,
2000

Haykin S., Neural Networks , 2nd Edition, Prentice Hall, 1999

Internet

http://petrounefa.blogspot.com.ar/

http://www.energia.gov.ar/contenidos/verpagina.php?idpagina=818

http://industria-petrolera.lacomunidadpetrolera.com/2009/01/anlisis-de-pruebas-de-presinparte-i.html

http://industria-petrolera.lacomunidadpetrolera.com/2009/01/anlisis-de-pruebas-de-presinparte-ii.html

http://eto-electronica.blogspot.com.ar/2008/11/redes-neuronales-artificiales-i.html

http://es.wikipedia.org/wiki/Red_neuronal_artificial

http://ocw.ehu.es/ensenanzas-tecnicas/redes-neuronales-artificiales-y-sus
aplicaciones/contenidos/pdf/libro-del-curso

http://prof.usb.ve/mvillasa/redes/Introduccion-vl.pdf

http://electronica.com.mx/neural/

http://www.philbrierley.com/main.html?code/vba.html&code/codeleft.html

http://www.palisade.com/neuraltools/

http://www.alyuda.com/forecasting-tool-for-excel.htm

23 | P g i n a

También podría gustarte