Está en la página 1de 25

ALGUNAS CONSIDERACIONES SOBRE FLUJOS DE TRABAJO DE G&G Y

SU RELACIÓN CON EL MANEJO Y GESTIÓN DE LOS DATOS E


INFORMACIÓN Y LAS HERRAMIENTAS TECNOLÓGICAS EXISTENTES
Aldo Omar Montagna
YPF S.A.

RESUMEN
En este trabajo se presentan una serie de flujos de trabajo a utilizar en la
caracterización estática de reservorios basada en el modelado geológico, geofísico y
petrofísico. Se muestra como estos flujos van a ser altamente dependiente del conjunto
de datos e informaciones utilizable; las herramientas y aplicaciones disponibles; la
metodología de trabajo corporativo; el equipo de geocientistas interviniente; así cómo de
los fines y objetivos perseguidos con el estudio.
De esta forma, queda de manifiesto como las distintas posibles opciones y
combinaciones de cada una de estas variables van a terminar definiendo el flujo de
trabajo a aplicar, dentro de un menú de alternativas disponibles.
En este contexto el autor presenta, en primera instancia, un análisis del devenir histórico
de la caracterización geológica – geofísica – petrofísica de reservorios, destacando los
cambios producidos en las metodologías de trabajo a partir de la especialización y
complejidad cada vez más marcada de las herramientas tecnológicas disponibles y, la
mayor disponibilidad de datos y algoritmos de análisis; en función de una cada vez más
creciente necesidad de caracterizar reservorios menos convencionales.
Acto seguido, se presentará el impacto que estos flujos tienen en el manejo,
administración y gestión de los datos e información, junto a algunas pautas de
consideración en cada uno de los flujos analizados.
A partir de ello se desarrolla una suerte de corolario del trabajo dónde se destaca la
necesidad de conocer a priori los flujos de trabajo para poder implementar la mejor
política de manejo y gestión de datos e informaciones, el vínculo con las compañías
proveedoras de software, y la capacitación y soporte necesario para el mejor desarrollo
de la caracterización estática de reservorios.
Para potenciar esto, se entregan algunos indicadores cuya función es colaborar en la
determinación del flujo de trabajo existente, y a partir del mismo precisar los pasos a
seguir, fundamentalmente en lo que a definición de actores, roles y lineamientos de
trabajo se refiere, tendiente todo al ordenamiento de la trilogía bases de datos /
aplicativos / datos e información.
Por último y con todo esto perfectamente definido, se muestra una posible línea de
trabajo: La cristalización de un sector específico, con foco en los flujos de trabajo, la
tecnología y el manejo de datos e información, que empiece a diseñar e implementar las
mejores acciones a seguir. Estas acciones deberán ser orquestadas para, o bien
mejorar el flujo de trabajo actual, o bien migrar a otro flujo de trabajo, siempre y cuando
esta última opción realmente traiga una mejora en la cotidianeidad de los grupos de
estudio involucrados.
Palabras clave: Flujos de trabajo, geología y geofísica, aplicaciones, manejo y
administración de datos e información.
MARCO TEÓRICO
A lo largo del devenir histórico de la exploración – explotación de hidrocarburos, se ha
dado una marcada evolución en varios de los campos y disciplinas que están
relacionados con la caracterización geológica, geofísica y petrofísica de reservorios.
Este progreso lo hemos visto, entre otras cosas, en el avance de las prestaciones y
capacidades de los programas de interpretación; el perfeccionamiento y mejoría de las
plataformas de hardware asociadas; la aparición de nuevas técnicas y algoritmos de
procesamiento e interpretación; y, el mayor y mejor desarrollo en la adquisición y
procesamiento de datos e informaciones disponibles para la realización de los estudios.
Acompañando a esto, no podemos ignorar el afianzamiento del trabajo interdisciplinar
cómo base para una mejor caracterización estática del reservorio.
Todo esto, sumado a la marcada disminución de la producción de reservorios
convencionales y la consecuente necesidad de incorporar a los portafolios el análisis y
desarrollo de reservorios no convencionales, redunda en la exigencia de realizar una
mejor caracterización cualitativa y cuantitativa de los mismos. Sin lugar a dudas, la
situación mencionada termina impactando fuertemente en los flujos de trabajos de G&G
posibles.
En este escenario de complejidad, progreso y evolución se presentan aristas,
situaciones y cambios por demás atrayentes que marcan de alguna manera los flujos de
tareas de los geocientistas. Al evaluarlas, mensurarlas, e intentar vislumbrar y
determinar posibles rutas de acción no se pretende realizar un simple ejercicio de
conocimiento estéril asumiendo conceptos y discursos de moda, sino una base de
discusión y confrontación para comprender mejorar estas relaciones y sus
consecuencias.
Por ello es que proponemos que las cinco variables o tópicos esbozados líneas arriba
tomen el papel, el rol, de premisas teóricas para el desarrollo de este análisis, y de su
análisis, entendimiento e interrelación surja la base conceptual para la definición del
mejor flujo de trabajo posible.
En primer lugar, vamos a desarrollar la premisa teórica relacionada a la evolución de
los datos e información disponible para la realización de estudios y análisis
geológicos – geofísicos - petrofísicos. No es el objetivo de este trabajo analizar si
realmente es pertinente precisar un “progreso en los datos o información” o si en
realidad se debiese hablar de un “avance continuo en las herramientas, técnicas y
metodologías de adquisición” que redunda en una mejora de los datos e informaciones
utilizables. Independientemente de esta discusión semántica, la realidad nos marca que
los datos e información a disposición de los geocientistas son cada vez mayores y
mejores, cualitativa y cuantitativamente hablando.
Por supuesto, intentar esbozar un ejemplo que ayude a entender este tema en toda su
implicancia y alcance es una tarea casi imposible, sumado al hecho que entendemos no
es el nudo troncal de este trabajo, por lo que vamos a realizar un recorte conceptual al
circunscribir este tópico a dos ítems: los perfiles de pozo y la sísmica de reflexión.
En el caso de los perfiles eléctricos de pozos, una muestra suficientemente gráfica y
contundente, para describir la mejoría mencionada, lo conforman los registros de pozos
que permiten determinar la resistividad de la formación. De aquellos primeros perfiles
resistivos que aparecieron en la década del 50 del siglo pasado, conformados por dos
registros de corta y larga profundidad de investigación; al perfil de inducción de la
década del 80 con un perfil corto, uno medio y uno profundo; para llegar a la década del
90 con el perfil de inducción de alta resolución y las 6 curvas que lo conforman;
terminando ya en este siglo, con el desarrollo e implementación del perfil de inducción
que permite determinar heterogeneidades verticales y horizontales de resistividad de
una formación y el consiguiente análisis y caracterización de reservorios de areniscas
laminadas de pequeño espesor.
En absoluta consonancia, la información sísmica muestra un notorio progreso de los
datos e información disponible para los estudios de caracterización de reservorios: De la
sísmica 2D casi excluyente hasta la mitad de los años 80´s, a la irrupción de la sísmica
3D en los mediados de dicha década, para desembocar en la sísmica 4D a fines del
siglo pasado.
En ambos casos, la calidad y cantidad de información muestra un progreso notorio y
evidente, que debe tener su correlato en las herramientas tecnológicas para si análisis y
evaluación, en la aptitud y número de los geocientistas, y, por supuesto, en el flujo de
tareas a realizar.
Por ello es que vamos a ubicar, como segunda premisa teórica, al desarrollo de los
programas de procesamiento y fundamentalmente de interpretación de datos
geológicos, petrofísicos y geofísicos, que han acompañado la evolución que ha
sufrido, en estos últimos años, la caracterización estática de reservorios en general, y el
modelado geológico en particular.
Podemos resumir que sobre la base de un estudio estático basado en información 2D
(esencialmente mapas estructurales e isopáquicos y representaciones en dos
dimensiones de propiedades petrofísicas y lineamientos estructurales), se alimentaba
un simulador numérico que caracterizaba dinámicamente al reservorio. Este flujo
unidireccional, sin retroalimentaciones, tenía la particularidad de partir de un modelo
geológico inicial general, con relativamente poco detalle (propio de la naturaleza de la
fuente de información por excelencia usada, los mapas), y que muchas veces caía en
mayores generalizaciones y promedios que desnaturalizaban aún más ese modelo
geológico en desmedro de tiempos de procesamiento “razonablemente aceptables” de
la simulación dinámica.
Con el advenimiento de las herramientas de modelado de reservorios en tres
dimensiones, un nuevo campo de acción se abrió a los geocientistas. Los modelos 3D
dejaron de ser potestad de la ingeniería de reservorios para pasar a ser un instrumento
diario y potente para que geólogos – geofísicos pudiesen describir, analizar y mostrar
sus reservorios y/o yacimientos.
De esta forma, los modelos estáticos fueron adquiriendo cada vez más complicación en
su génesis, análisis y visualización, tanto como el escenario geológico del subsuelo lo
requiriese.
Para seguir analizando la enmarañada red de interrelaciones entre los tópicos
conceptuales considerados, es necesario destacar que esta complejidad impactó
directamente en una mayor necesidad de datos e información disponibles, y en un
notorio incremento en la información generada; así cómo en una cada vez más
creciente necesidad de disponer plataformas de hardware y estaciones de trabajo que
permitan en tiempo y forma la ejecución de estos programas de procesamiento e
interpretación.
Así entramos a describir la tercera premisa teórica, la evolución de las plataformas de
hardware. Desde mediados del siglo pasado a la actualidad, el progreso en todo lo
concerniente a capacidad de procesamiento, almacenamiento y potencialidad gráfica de
las plataformas de trabajo es realmente sorprendente y digno de mencionar. Así,
podemos ubicar en uno de los extremos de esta escala a los viejos y enormes centros
de cómputos, y a las computadoras personales, con prestaciones de workstations y que
magnifican el rendimiento hasta lo impensable, por otro lado.
Arbitrariamente podemos ubicar el inicio de esta línea evolutiva en los inicios de la
década de los 40´s, con aquellas computadoras de la primera generación que
emplearon bulbos para procesar información, el ingreso de los datos y programas en
código especial se hacía por medio de tarjetas perforadas; y el almacenamiento interno
se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de
lectura / escritura colocaba marcas magnéticas.
Aproximadamente 15 años después, en los mediados de los años 50´s, la IBM 650
entra en servicio por primera vez, destacándose el hecho que la escritura de programas
de aplicación en lenguaje de máquina es desplazada por el uso de lenguajes de
programación de alto nivel, como FORTRAN para las tareas científicas y COBOL para
los negocios.
De esta forma entramos a las computadoras de la segunda generación,
sustancialmente más pequeñas (aunque seguían necesitando de salas enteras para su
implementación, funcionamiento y mantenimiento), y rápidas que las de bulbos, usadas
para nuevas aplicaciones, como en los sistemas de reservación en líneas aéreas,
control de tránsito aéreo, y simulaciones para uso general. En el área petrolera
comienzan a usarse las viejas UNIVAC 1107®, BURROUGH D-805®, PDP-5 de DEC®,
y las científicas IBM 7070, 7090, 7094®.
En la década de los 70´s emergen las computadoras de la tercera generación con el
desarrollo de los circuitos integrados, en las cuales se colocan miles de componentes
electrónicos en una integración en miniatura. Las computadoras nuevamente se
hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente
más eficientes. Con el advenimiento y perfeccionamiento del microprocesador se entra
en la cuarta generación (de 1971 a la actualidad), con dos mejoras marcadas: el
reemplazo de las memorias con núcleos magnéticos por las de chips de silicio; y la
colocación de muchos más componentes en un chip. El tamaño reducido del
microprocesador de chips hizo posible la creación de las computadoras personales
(PC).
Paralelamente, a partir de 1990 y hasta la actualidad, se da una suerte de avalancha de
interfases gráficas que potencian aún más el uso del hardware y el desarrollo del
software en las etapas de exploración y explotación de hidrocarburos.
Esta evolución hardware – software, y la mayor disponibilidad de datos e información
nos permite introducirnos en la cuarta premisa de este marco teórico: la vinculada al
desarrollo e irrupción de nuevos algoritmos, técnicas y métodos de interpretación y
estudio.
Es de tal magnitud la importancia del avance y perfeccionamiento en la interrelación de
los tres tópicos mencionados anteriormente, que el progreso en todo lo concerniente a
capacidad de procesamiento, almacenamiento y potencialidad gráfica de las
plataformas de trabajo, asociado a la evolución y disponibilidad de mayores y mejores
fuentes de datos e información, nos permite aventurar, como juicio de valor, que en las
últimas décadas ha aparecido un tercer pilar del método científico que se suma a la
teoría y la praxis: la "mate matización" de la caracterización geológica, geofísica y
petrofísica de reservorios de hidrocarburos.
Cómo en toda ciencia aplicada, el objetivo de esta mate matización es obtener
información cuantitativa precisa de fenómenos que involucran muchos parámetros y
son, por ello, muy exigentes y retadores respecto de las técnicas de matemática
computacional que requieren.
Cómo ejemplo, extraído fuera de la órbita del petróleo, podemos decir que en el año
2002 asistimos a uno de los logros científicos más importantes de los últimos años: la
descripción completa de la secuencia del genoma humano. Detrás de este logro se
encuentra un algoritmo matemático que redujo drásticamente el tiempo necesario para
completar la secuencia.
Ya dentro de la escena hidrocarburífera, la mencionada evolución la podemos
caracterizar en varias aristas del trabajo cotidiano de los geocientistas, pero vamos a
hacer hincapié en un ejemplo por demás gráfico: La disponibilidad de algoritmos para la
construcción de mapas. En apenas 20 años hemos pasado de la tradicional
interpolación lineal, a técnicas avanzadas de geostadística, redes neuronales y
estadística multipunto para lograr un más sólido escenario de construcción de
representaciones 2D de cualquiera de los parámetros y variables involucradas en la
caracterización estática. Estos nuevos escenarios saltaron la valla del sustento
meramente matemático – geométrico para integrar conceptos estadísticos,
geoestadísticos e incluso geológicos en la confección de las cartografías resultantes.
Esta suerte de hito científico nos permite sacar algunas conclusiones generales: la
matemática computacional se transformó en elemento clave en la resolución de ciertos
problemas geológicos - geofísicos; el tipo de matemática computacional que se utiliza
es muy distinta de lo que clásicamente se entiende como análisis numérico; y la
interdisciplinariedad juega un papel fundamental.
Dentro de este tópico, el advenimiento de la geostadística y la inteligencia artificial
produjo un verdadero sismo en los flujos de trabajos algo rígidos y estructurados de los
geocientistas.
Así, la incertidumbre en los datos, la existencia de una estructura espacial, la necesidad
de disponer de una medida del error cometido en la estimación del fenómeno, en los
puntos en los que no se disponía datos en calidad y cantidad necesaria, con la intención
de minimizarlo; fueron algunas de las razones que dieron lugar al nacimiento de la
Geoestadística.
Hay que destacar que si bien su génesis estuvo asociada al ámbito de la minería, en
poco tiempo se ha mostrado como un potente instrumento para ser usado en el campo
de las etapas de exploración y desarrollo de hidrocarburos, siendo algunas de las
aplicaciones la creación de curvas de isovalores, el modelado de facies, la propagación
espacial de parámetros petrofísicos, la simulación de ocurrencia de eventos geológicos,
geofísicos y petrofísicos, etc.
En estrecha vinculación pero siguiendo un camino diferente, las redes neuronales
nacen dentro del amplio campo de la inteligencia artificial con la premisa de imitar, por
medio de algoritmos, tantas actividades mentales como sea posible, para alcanzar las
mejores capacidades humanas en estos aspectos. Para ello debe definirse formalmente
qué es y cómo funciona la actividad cerebral, y luego encontrar procedimientos para
simularla. La actualidad de los estudios de caracterización de reservorios nos dice que
las redes neuronales son cada vez más usadas en los distintos flujos de trabajos
seguidos, para la generación de nueva información o complementación de datos
existentes.
Para finalizar con el desarrollo del marco teórico nos queda el quinto y último
lineamiento conceptual, que es el referido a la cada vez más creciente necesidad de
estudiar, caracterizar y comprender reservorios cada vez más complejos,
caracterizados generalmente por presentar condiciones geológicas y petrofísicas
extremas.
Al respecto, debemos destacar que desde que comenzó la exploración – explotación de
hidrocarburos en la Argentina, la misma estuvo orientada a los denominados
yacimientos convencionales (esto es, reservorios psamíticos o carbonáticos, con
porosidades mayores a 12%, permeabilidades superiores a los 5 – 10 mD, y
viscosidades de petróleo mayores a 20 grados API).
En la actualidad, la mayoría de los yacimientos descubiertos con estas características
presenten un marcado grado de madurez productiva, sumado a la imposibilidad
manifiesta de incorporar reservas asociadas a estos campos, lo que conlleva a la
situación en la cual adquieren cada vez más relevancia el análisis y comprensión de los
yacimientos denominados “no convencionales”. Estos incluyen, entre otros, a las arenas
compactas, los reservorios "tight", las capas de carbón, las lutitas fracturadas, los
yacimientos de crudo pesado y extra pesado, las arenas bituminosas y los espesores de
areniscas con intercalaciones arcillosas con baja resistividad.
En muchos casos, las herramientas y los métodos de análisis convencionales se
encuentran severamente limitadas en su capacidad para evaluar el potencial de
reservas de dichos recursos, por lo que se hace imprescindible la aplicación de
instrumental y técnicas especiales de última generación para resolver estas situaciones,
mediante la recolección e integración de distintos tipos de datos específicos
adecuadamente seleccionados.
La actividad de desarrollo de campos no convencionales mostró un incremento
significativo de reservas en las últimas dos décadas del siglo XX, situación que se ha
acelerado en los últimos años por la cada vez menor disponibilidad de petróleos livianos
o reservorios convencionales.
Si bien en Argentina todavía no hay datos concretos y veraces al respecto, se estima
que las reservas mundiales de hidrocarburos son cercanas a los 11 trillones de barriles
equivalentes de petróleo, de los cuales alrededor del 70% corresponde a reservas no
convencionales y el resto a reservas convencionales. En íntima relación con esto, se
esboza que tan sólo es posible recuperar una pequeña porción de éstas últimas.
Existen autores que definen, para las reservas no convencionales, un factor de
recuperación cercano al 15%, notoriamente menor a las reservas convencionales, para
las que en promedio se acepta un 33%.
A la realidad de un menor factor de recupero, hay que adicionar la necesidad de utilizar
tecnología de punta, tanto en la prospección, análisis y extracción del hidrocarburo;
situación que redunda en que la explotación de estos recursos resulte económicamente
viable siempre y cuando el escenario de precios del gas y petróleo se mantenga acorde
a la inversión mencionada.
El siguiente esquema (Figura 1) trata de mostrar las distintas variables en juego y el
papel de los reservorios no convencionales más frecuentes y disponibles.
R
C E
F O P Q
A M R U
C P E E
I L C R
L E I I
I J O M
D I I
A D d E
D A Areniscas e
Baja N
D T
d Resistividad H O
e M I
Reservorios
A D T
Tight
D N R E
E E O C
S J Petróleos C N
A O Pesados A O
R R L
R D Lutitas B
con Gas Ó
O E Lutitas con U G
L Petróleo R I
L D O C
O A S O
T VOLUMEN de RESERVAS
O
S

Figura 1. Relación entre las premisas teóricas (extraída y modificada de Montagna et al, 2008)

Como corolario podemos mencionar que en definitiva, los tópicos mencionados


(especialmente la naturaleza de los reservorios a caracterizar, las herramientas
tecnológicas disponibles, las técnicas de evaluación e interpretación a utilizar, y el
conjunto de datos e información disponible), son los que van a terminar definiendo el
flujo de trabajo a seguir en la tarea de caracterizar estáticamente el reservorio a partir
del modelado geológico en tres dimensiones.
Para terminar con este andamiaje conceptual, dejamos el tópico teórico referido a la
interdisciplinariedad. Si bien el salto disciplinar a la geología y la geofísica lo venimos
destacando desde el mismo inicio del trabajo, en este ítem haremos referencia a la
necesidad de “nutrir” la caracterización estática de datos e informaciones, metodologías
y herramientas, conceptos e ideas de otras áreas, fundamentalmente ingeniería de
reservorios, construcción de pozos e ingeniería de producción.
Un ejemplo por demás importante de esta interdisciplinariedad es el ajuste de cualquier
caracterización de fluidos del reservorio realizada sobre datos e información geológica –
petrofísica con datos de producción de pozos, lo que entrega al modelo una robustez y
un grado de certeza que elimina puntos de incertidumbre y permite llegar a la etapa de
simulación numérica con menor cantidad de grados de libertad.
Este salto a las vallas disciplinares también deja su impronta en lo flujos de trabajo,
puesto que algunas de las tareas y quehaceres que lo conforman van a ser llevadas a
cabo por profesionales y técnicos que exceden un ambiente de G&G.
DESARROLLO

SITUACIÓN ACTUAL
Trabajando más allá de lo explicitado en el marco teórico, la situación ideal indica que el
análisis, definición e implementación de un determinado flujo de trabajo debería estar
signada exclusivamente por las características del reservorio que se intenta
caracterizar.
Sin embargo, la realidad muestra que la implementación y seguimiento de un flujo de
trabajo está gobernada no solo por las particularidades y peculiaridades del reservorio o
reservorios a estudiar, sino que entran en juegos otros factores, entre los que
destacamos, por un lado, el tipo, naturaleza y característica de los datos e información
disponible; mientras que por otra parte, toma crucial importancia la disponibilidad de
herramientas tecnológicas que se tengan en el ambiente técnico de G&G.
La siguiente figura (Figura 2) muestra uno de los tantos flujos de trabajo posible.

Aflora- Sísmica
Corona s Perfiles
mientos
Procesamiento

Sedimentología / Estratigrafía Sísmica


Análisis Análisis
ambiente

ANÁLISIS
secuencial de pozo

ANÁLISIS de
convencionales Sismoestratigráfico
depositacional

INTERPRETACIÓN
de pozo -

INTERPRETACIÓN
y especiales
correlaciones

Modelado
sísmico Interpretación

de DATOS
Evolución de velocidad estructural
Paleogeográfica -

DATOS
Definición Ciclos depositacionales
de tipos Evaluación
petrofísica Definición de Atributos
de roca
horizontes Inversión
a mapear AVO / AVA
Geoestadística sismofacies

Incertidumbres
Ensayos Distribución Distribución

VISUALIZACIÓN
VISUALIZACIÓN --
de facies Modelo
producción de fluidos
ESTÁTICO
ESTÁTICO 3D
MODELADO
Estático
MODELADO
PVT
Subsuelo
Barreras de Distribución Volumetría
Hi storia Distribución 3D
permeabilidad de tipos de roca propiedades
producción petrofísicas 3D
Definición
3D

unidades flujo
Ensayos
presión Propiedades Balance de
Fluídos Materiales

Figura 2. Flujo de Trabajo

Nuestra experiencia nos permite asegurar que no existe un único flujo de trabajo
posible, e incluso, podemos llegar a afirmar que existentes tantos flujos de trabajo como
geocientistas presentes. Por otra parte, también podemos aseverar que la mayoría de
las gerencias o sectores de G&G no han diseñado e implementado los flujos de trabajo
que hoy siguen en su cotidianeidad laboral de acuerdo a los basamentos mencionados,
sino que por el contrario, estas metodologías han ido mutando y modificándose, a
medida que las herramientas tecnológicas lo hacían, sin grandes análisis o
evaluaciones de opciones o disyuntivas.
Es más, las variaciones o cambios, o las ratificaciones y mantenimiento de las tareas
generalmente se suceden por la disponibilidad o no de alternativas dentro de los
paquetes de software que utilizan los geocientistas, y no por el cumplimiento y
satisfacción de las necesidades y requerimientos técnicos existentes o para usufructuar
al máximo los conjuntos de datos e información disponibles.
En otras palabras, podemos resumir que un escenario muy común en ciertos ambientes
de G&G, está caracterizado por algunas operaciones o trabajos que no se llevan a cabo
por no tener la disponibilidad de programas pertinentes para ese fin,
independientemente de la necesidad técnica de los mismos.
En definitiva, el flujo de trabajo es totalmente signado y definido por el software
existente.
Esta situación no sólo puede desencadenar en estudios que no contemplan la totalidad
de las tareas que se podrían realizar, sino que además pueden llevar a un entorno de
complejidad en lo que a gestión y manejo de datos e información se refiere.

FLUJOS DE TRABAJO
Sería realmente difícil y arduo intentar abarcar y considerar todas las opciones de flujos
de trabajo posibles y disponibles, y seguramente cometeríamos alguna omisión u olvido
involuntario. De hecho, la combinación de cualquier estadio de cada una de las
premisas teóricas desarrolladas produce un flujo de trabajo distinto.
A los fines de tratar de entregar un análisis y consideraciones que satisfaga aquello que,
a la luz de nuestra experiencia, consideramos las condiciones más generales y con
mayor grado de aplicación, hemos diferenciado tres flujos de trabajo diferentes.
Es necesario destacar que estos distintos flujos de trabajo se derivan de una
“metodología madre”, y las diferencias surgen, emanan, cuando se consideran los
distintos escenarios en que se puede desarrollar, al considerar las diversas
herramientas tecnológicas disponibles y las distintas alternativas de manejo y gestión de
los datos e información relacionadas. La figura 2 ejemplifica este flujo de trabajo troncal.
Antes de describir y especificar las consideraciones propias de cada uno de los flujos,
debemos enumerar y explicar algunas diferenciaciones que a priori hemos realizado.
Por ejemplo, llamamos procesamiento e interpretación “convencional” a aquellas tareas
que se realizan normal y asiduamente en un flujo de trabajo de caracterización estática
de reservorios. Así, el cálculo de porosidad efectiva, volumen de arcillas y saturación de
agua conformarían el análisis “convencional” a la hora de hablar de interpretación de
perfiles eléctricos de pozos. De la misma manera, la interpretación estructural
correspondiente al trazado de horizontes y fallas nos estaría dando el flujo tradicional de
interpretación sísmica 2D y 3D.
En la posición contraria, denominamos “trabajos de interpretación especiales” a aquellas
tareas esporádicas, menos frecuentes, que si bien potencian la interpretación
convencional necesitan de recursos adicionales distintivos, tanto en cuanto a
geocientistas, programas de software y datos e información de entrada. De esta forma,
una interpretación probabilística de perfiles, un procesamiento y evaluación del registro
de resonancia magnética, o un análisis AVO sobre los gathers de una sísmica 3D
entrarían en este rango de trabajos extraordinarios y menos habituales.
Flujo de trabajo Nº 1. (Figura 3) Caracterizado por:
1) Procesamiento e interpretación “convencional - básico” de G&G realizado
internamente.
2) Tercerización de trabajos de interpretación “especiales”.
3) Trabajo soportado fuertemente en un ambiente técnico predominado por una
única compañía proveedora de software.
4) Gestión y manejo de datos “compartimentalizado”, realizado “in house”, basado
en aplicativos y repositorios comerciales.

Aflora- Sísmica
Coronas Perfiles
mientos
Procesamiento

Sedimentología / Estratigrafía Sísmica


Análisis Análisis
ambiente

AN
secuencial de pozo

ANÁ
convencionales Sismoestratigráfico
depositacional

INTERPRETACI
de pozo -

INTERPRETACIÓ
y especiales

ÁLISIS
correlaciones

LISIS de
Modelado
sísmico Interpretación

de DATOS
Evolución de velocidad estructural
Paleogeográfica -

DATOS
Definición Ciclos depositacionales
de tipos Evaluación
Atributos

ÓN
de roca petrofísica Definición de

N
horizontes Inversión
a mapear AVO / AVA
Geoestadística sismofacies

Incertidumbres
Ensayos Distribución Distribución

VISUALIZACI
VISUALIZACIÓ
de facies Modelo
producción de fluidos

EST
MODELADO
ESTÁ
Estático

MODELADO
PVT
Subsuelo

ÁTICO
Barreras de Distribución Volumetría
Historia Distribución 3D

TICO 3D
permeabilidad de tipos de roca propiedades
producción petrofísicas 3D
Definición

3D

ÓN
unidades flujo
Ensayos

N --
presión Propiedades Balance de
Fluídos Materiales

Figura 3. Flujo de Trabajo Nº 1

Flujo de trabajo Nº 2. Diferenciado por:


a) Escasa tercerización de trabajos: Procesamiento e interpretación “convencional”
y “especial” de G&G realizado internamente.
b) El ambiente técnico es el resultante de la conjunción de soluciones tecnológicas
provenientes de varios proveedores de software.
c) Gestión y manejo de datos “interno y multidisciplinar” basado en aplicativos y
repositorios comerciales.
Flujo de trabajo Nº 3. Especificado por:
1. Procesamiento e interpretación “convencional” y “especial” de G&G interno.
2. Trabajo orientado fuertemente en herramientas y ambiente técnico proveniente
de varios proveedores y también a partir de desarrollos internos.
3. Gestión y manejo de datos “interno y multidisciplinar” basado en soluciones
propias (bases de datos corporativas, gestores documentales, etc.).

Flujo de trabajo Nº 1
La figura 3 representa el flujo mencionado. En colorado se muestran las tareas que
generalmente se desarrollan internamente, utilizando herramientas tecnológicas
provenientes de un único proveedor.
Entre las ventajas más notorias de este flujo de trabajo podemos diferenciar:
1) Relacionadas a un ambiente técnico fuertemente soportado por una única
compañía de software (arbitrariamente definimos un ambiente de estas características
cuando más del 80% del flujo de trabajo se lleva a cabo utilizando productos y módulos
desarrollados por un solo proveedor):
a) Relativa simpleza en lo que Gestión y manejo de datos se refiere.
Generalmente los aplicativos tienen una base de datos comercial dónde se
almacenan, por un lado, los datos necesarios para la realización de las distintas
tareas que conforman el flujo de trabajo; y por otra parte el resguardo de las
informaciones generadas en los distintos pasos resultantes de la aplicación de la
metodología seguida. Esta situación redunda en una mínima interacción y en
una muy pequeña necesidad de comunicación con otros aplicativos y / o bases
de datos; en evitar la carga del mismo dato en más de un repositorio / programa
de aplicación; y, fundamentalmente, en la inmediata disponibilidad y unicidad del
dato independientemente del módulo que se esté utilizando.
Ejemplo: Tres de los más importantes proveedores de software de G&G para
Unix – Linux (Landmark®, Schlumberger®, Paradigm®), así cómo los dos
máximos distribuidores de software para Windows (Geographix® –
Keengdom®), tienen una base de datos comercial dónde todas las disciplinas
que confluyen en el flujo de trabajo “corriente” (petrofísica; cortes y mapeo
geológico; procesamiento, interpretación y mapeo sísmico; etc.), tienen sus
datos de entrada y almacenan la información de salida. De esta forma, si
tomamos un dato puntual cómo el perfil de pozo, el mismo es único y está a
disposición de la interpretación petrofísica, del corte geológico, del análisis de
producción, etc., etc., lo que evita su duplicación y pérdida de unicidad en caso
de modificaciones ulteriores.
b) Única curva de aprendizaje referida al uso de las aplicaciones. En este caso
no sólo influye el ser aplicaciones de un único proveedor (lo que garantizaría
cierta coherencia y línea de amigabilidad similar en todos los módulos que
conforman la suite), sino también el hecho de considerar mayormente las
llamadas “tareas básicas”. La curva de aprendizaje de uso de las herramientas
esta circunscripta solamente a lo relacionado con cambios por mejoras de los
productos y la aparición de nuevas potencialidades en las distintas versiones del
producto.
Ejemplo: El software de mapeo. Tomemos como modelo la suite Landmark de
Unix. La mayor parte de sus aplicaciones (Petroworks®, el módulo de
interpretación de perfiles; Seisworks®, el programa de interpretación sísmica; y
Stratworks®, la aplicación de cortes geológicos), tienen funcionalidades más
básicas o más complejas de mapeo de propiedades. El hecho de ser aplicativos
realizados por un mismo proveedor nos asegura el mantenimiento de una línea
de desarrollo y uso común, en cuanto a algoritmos disponibles, flujo de trabajo e
incluso, interfases para el usuario (menús, macros, etc.), que provoca una única
e idéntica curva de aprendizaje, la cual solamente dependerá de sucesivas
mejoras que presenten a lo largo del devenir histórico del desarrollo de la
aplicación.
c) Ambiente técnico sencillo. En líneas generales el ambiente técnico no
presenta grandes complicaciones y no presenta necesidad de una gran
infraestructura de servicios. Los “backups / restore” se hacen siguiendo los
requerimientos del software en cuestión, y el hecho de no existir distintos
productos de software hace que no existan “incompatibilidades” que atenten
contra las versiones de sistema operativo.
Ejemplo: El contar con una suite de aplicativos de un único proveedor nos evita
el posible requerimiento de distintas versiones de sistema operativo
(especialmente en ambiente Unix), situaciones que se suele dar en el caso de
distintos proveedores. De igual forma, no existe la posibilidad de tener que caer
en distintas configuraciones del sistema operativo (bibliotecas .dll).
2) Vinculadas a la realización “in house” de trabajos, mayoritariamente, de
procesamiento e interpretación “convencional - básico” de G&G:
a) Trabajo “generalista”. El hecho de tercerizar aquellos trabajos definidos a priori
como “especiales” (menos frecuentes), posibilita el prescindir de los
“superespecialistas”; es decir, de aquellos geocientistas con un acentuado nivel
de especialización, que de acuerdo al tamaño y visión de la compañía, no
siempre son fáciles de obtener y mantener dentro de un staff técnico.
Ejemplo: Adquisición – Procesamiento – Interpretación Sísmica Convencional –
Interpretación Sísmica Especial. Un flujo de trabajo que contemple solamente la
realización de tareas básicas de interpretación sísmica (para nosotros, la
interpretación estructural basada en cubos de verdadera amplitud y atributos de
traza compleja post apilamiento), no requiere contar con geofísicos
especializados en procesamiento sísmico o geofísicos que dominen la
interpretación de información sísmica prestack o trabajos de facies sísmicas. Al
tercerizar estos trabajos, los profesionales internos sólo deben fiscalizar el
cumplimiento de los pasos preacordados y la recepción en tiempo y forma de los
entregables estipulados al momento de realizar el trabajo.
Las desventajas o debilidades referidas al flujo de trabajo número 1 la podemos ubicar
en:
1) Relacionadas con el hecho que la mayor parte de los programas y softwares de
G&G están circunscriptos a un solo proveedor:
a) Posible insuficiencia en cuanto a la diversidad de datos e información
plausibles de ser almacenados. En determinadas ocasiones las bases de
datos comerciales no cubren la totalidad del amplio espectro de datos e
información correspondientes a G&G, sino que sólo contemplan aquellos datos
que son necesarios para alimentar los flujos de trabajo de cada uno de los
aplicativos.
Ejemplos: La mayor parte de las bases de datos comerciales sólo habilitan la
carga parcial de información ambiental de los perfiles de pozo, no permitiendo
almacenar toda la información que viene en los cabezales de los registros. Así
cómo se permite la carga de Rw (resistividad del agua de formación) y Rmf
(resistividad del filtrado de lodo), necesarios para un cálculo de Saturación de
agua, no soporta el almacenamiento de Rmc (resistividad del revoque), ya que
este parámetro no es utilizado en una interpretación convencional.
b) Imposibilidad de realizar todas las tareas necesarias. En ciertas
circunstancias, una desventaja asociada a esto es cuando algunos de los
módulos que conforman la suite completa no satisface las necesidades y
requerimientos técnicos o no se ajustan a las particularidades y peculiaridades
de los proyectos, lo que provoca algún tipo de “déficit técnico” en el estudio
encarado.
Ejemplo: La suite Discovery® de Geographix® - Landmark®, es una excelente
herramienta de interpretación geofísica – geológica - petrofísica, pero no cuenta
en la actualidad de un módulo de interpretación sísmica en tres dimensiones (del
estilo Geoprobe®, GeoViz® o VoxelGeo®). Ergo, el centrar toda la tarea de
G&G en una plataforma cómo la mencionada significa no contar con la
prestación técnica mencionada, que puede adquirir gran relevancia en
yacimientos con complicado marco estructural o complejidad estratigráfica.
c) Curva de aprendizaje soportada por “on sites” de la compañía de servicios.
Si bien la curva de aprendizaje en el uso de las herramientas es rápida y simple,
en este tipo de flujo de trabajo es muy común la presencia de “on sites” de la
compañía proveedora de software. La utilización correcta de estos especialistas
calificados debería desembocar en una cada vez mejor utilización de los
programas, así cómo en el allanamiento en forma rápida cualquier problema en
el uso cotidiano de las herramientas en cuestión. Sin embargo, muchas veces se
desvirtúa el papel de estos recursos, pasando a ser los verdaderos “hacedores”
de los trabajos, al ocupar el papel de interlocutores entre el geocientista y los
aplicativos.
En este caso, se cae en una suerte de “dependencia permanente”, que no sólo
atenta contra el aprendizaje en el uso de los programas, sino que a veces es
tomado cómo un recurso del proyecto, con tareas y funciones acordadas
específicas.
Ejemplo: Existen geólogos y geofísicos que sólo trabajan en una estación de
trabajo con el especialista de la compañía de software al lado, indicándole los
lineamientos teóricos pero sin involucrarse en el uso de la herramienta. Estos
geocientistas dominan ampliamente los flujos de trabajo en forma conceptual,
pero no pueden plasmarlos en los aplicativos específicos, por lo que requieren
del especialista en software para llevarlo a cabo.
2) Vinculadas a la tercerización de los trabajos especiales o no cotidianos:
a) Pérdida del “know How”. Los estudios que se realizan a través de consultoras
o compañías de servicio tienen la característica de “caja negra” para los
geocientistas de las compañías productoras. Asociado a esto, estos trabajos
prácticamente tienen una muy alta imposibilidad de actualización en caso de
contar con nuevos datos; debiéndose encarar otro estudio para contemplar e
involucrar la nueva información existente.
Ejemplo: Un trabajo de caracterización de fluidos de reservorio en base a
información de pozos y gathers sísmicos. El hecho de realizarlo internamente
permite su constante actualización a medida que los datos e información de
nuevos sondeos se encuentren disponibles, aunque por supuesto, para ello se
requiere de un software específico y de geofísicos entrenados en este quehacer.
En el caso contrario, dónde el servicio se ha tercerizado, si no se contempla
alguna cláusula de actualización que contemple el advenimiento de nuevos
datos e información que asegure el modelo tenga retroalimentación, el resultado
es un estudio que adquiere la naturaleza de “final” o “definitivo”, a pesar de la
posibilidad ulterior de reajuste.

Flujo de trabajo Nº 2
Este flujo de trabajo, a diferencia del número 1, está signado por una mayor realización
de trabajos de procesamiento e interpretación “in house”, así cómo en un ambiente
técnico dónde coexisten aplicativos provenientes de varios proveedores.
Por otro lado, al igual que en el flujo anterior, la gestión y manejo de datos es interna
basada en aplicativos y repositorios comerciales, pero con la diferencia que podemos
tener más de un repositorio para el mismo tipo de dato e información, sumado al hecho
que los datos de G&G se vinculan y relacionan con datos e información provenientes de
otras disciplinas (ingeniería de reservorios, producción, construcción de pozos, etc.).
Las fortalezas más conspicuas de este flujo de trabajo son:
1) Relacionadas a que el ambiente técnico esté conformado por aplicativos de
varias empresas de software (arbitrariamente colocamos el hito en el hecho que
ningún proveedor ostente con sus productos y programas más del 50% del flujo de
trabajo):
a) Alta capacidad de realizar tareas. En este flujo la mayor parte de las
necesidades y requerimientos técnicos están contemplados, situación que
asegura un tratamiento adecuado de las singularidades y rasgos específicos de
los proyectos y que termina asegurando una suerte de “excelencia técnica”.
Generalmente en estas condiciones, los geocientistas definen, a priori, las tareas
a realizar de acuerdo a las características del proyecto y la naturaleza de los
datos e información disponible, y en función de ello se escogen las herramientas
a utilizar.
Ejemplo: La mayor parte de los programas de evaluación de perfiles
convencionales no contemplan la interpretación inversa de registros, teniendo
disponible solamente la interpretación determinística de los mismos. Por ello, en
caso de requerirse la mencionada tecnología, existen programas específicos y
determinados que se adicionan a la suite de aplicaciones disponibles por los
proveedores habituales. Casos similares lo conformarían un programa de
interpretación geoquímica, o un módulo de interpretación sísmica
preapilamiento.
En este último caso vamos a hacer una referencia concreta: Volviendo a los tres
de los más importantes proveedores de software de G&G para Unix – Linux,
podemos asegurar que ni Landmark®, Schlumberger® o Paradigm® cuentan
con módulos de la calidad de Jason® o Humpson & Russell®; y si los
geocientistas deben realizar trabajos de análisis de gathers sísmicos,
posiblemente deberán adicionar a sus herramientas tecnológicas habituales
algunos de los programas mencionados.
b) Mayores alternativas de para el almacenamiento de datos e información, a
pesar de la mayor diversidad de los mismos. Si bien las bases de datos
comerciales convencionales siguen siendo las mismas, muchas veces estos
aplicativos especiales o “específicos” tienen la capacidad de almacenar datos
especiales, de uso no muy frecuente pero necesarios para alimentar los flujos de
trabajo de cada uno de los aplicativos, tanto en repositorios de datos cómo en
archivos relacionales.
Ejemplo: Los aplicativos que permiten realizar análisis de “facies sísmicas”
ofrecen la posibilidad de guardar un sinnúmero de ventanas de tiempo, con su
nombre, descripción y observaciones, que generalmente no tienen posibilidad de
almacenamiento en otros programas. Este es el caso del software StratiMagic®,
que permite almacenar todos los intervalos de análisis que el geocientista
considere importantes. Muchos otros softwares permiten hacer ventanas y
mapear cualquier atributo sísmico, pero sólo puede almacenarse las
características de ese intervalo de tiempo en el nombre del mapa resultante. En
Stratimagic® se guarda la ventana, la cuál puede ser vista o analizada en 3
dimensiones, haciendo cortes arbitrarios e incluso, con la posibilidad de hacer
una suerte de times slices sobre la misma.
2) Vinculadas al hecho de “autoabastecerse internamente” en cuanto a la
realización de trabajos especiales esporádicos:
a) Actualización permanente de los trabajos. Los trabajos siempre están en
condición de ser ajustados al contar con nuevos datos e información, por lo que
los mismos son versiones finales en un tiempo y para un determinado conjunto
de datos, y si cambian esas condiciones, los modelos pueden ser fácilmente
reconstruidos y renovados.
Ejemplo: Una caracterización estática a partir de un modelo geocelular 3D
construido a partir de datos de pozos (perfiles y roca fundamentalmente) e
información sísmica (atributos postapilamiento 3D). En base a este estudio se
ubican nuevos pozos, los cuales son perforados y un conjunto de datos e
información se obtiene, la cual retroalimenta el modelo inicial mejorando la
calidad del mismo.
b) Obtención del “Know How”. El conocimiento, el “saber como”, se incrementa
día a día, a medida que más y mejores trabajos son realizados. Esta ventaja
incluso puede llegar a ser el puntapié inicial para la confección de una carpeta
de lecciones aprendidas aplicable a distintos escenarios geológicos – geofísicos
– petrofísicos; o, a la conformación de “comunidades o familias técnicas” que
usufructúen y alimenten estos saberes.
Ejemplo: El hecho de modelar estáticamente y dinámicamente “in house”
distintos reservorios (ambientalmente hablando), hace que cada vez que se
necesite encarar un modelado se puedan tener casos de estudios concretos y
aplicables, de los cuales obtener una suerte de “buenas y malas prácticas”, que
gobiernen en un inicio la planificación del nuevo trabajo. Estas experiencias
previas, que pueden ser agrupadas de acuerdo a distintos criterios (por ejemplo,
reservorios clásticos, reservorios carbonáticos, reservorios fisurados, etc.), están
disponibles en caso de necesidades futuras en cualquiera de las unidades de
negocios existentes.
Los inconvenientes relacionados con el flujo de trabajo número 2 los podemos ubicar
en:
1) Relacionados con la multiplicidad de proveedores existentes:
a) Manifiesta complejidad en lo que gestión y manejo de datos se refiere. El
hecho que no todos los programas utilizados tengan un mismo repositorio
comercial nos lleva a la necesidad de almacenar el mismo dato en varias bases
de datos, con el consiguiente riesgo de pérdida de unicidad o uso parcial del
dato e información. Esto hace necesario una gran necesidad de interacción y
comunicación entre aplicativos y / o bases de datos, así cómo una muy buena
planificación de la carga, manejo y administración de los datos, para lograr su
inmediata disponibilidad independientemente del módulo que se esté utilizando.
Ejemplo: Una situación común es que dos de los grandes proveedores de
software de G&G para Unix – Linux (Landmark®, Schlumberger®), no tienen
programas completos de modelado geocelular 3D para la caracterización
estática de reservorios. En caso de necesidad de los geocientistas de modelar
geológicamente con esta tecnología, utilizan otras variantes existentes en el
mercado (Petrel®, GoCad®, Roxar®, etc.), lo que obliga a volver a cargar en
estos programas datos e información (coordenadas, profundidad, registros de
pozos, topes, horizontes, cubos sísmicos, etc.), que ya estaban almacenados en
las bases de datos (OpenWorks® y GeoFrame®, respectivamente). Esto, hace
que no sólo sea necesario trabajar con una buena gestión de datos que impida
el posible error ante reiteradas cargas en distintos aplicativos / repositorios, sino
el evitar la posible modificación de algunos datos en algunos de los programas,
con la consecuente pérdida de unicidad del mismo. Asimismo, también debe ser
importante que el mencionado manejo de datos e información asegure que estén
disponibles en todos los programas que la necesiten.
b) Curva de aprendizaje, referida al uso de las aplicaciones, complicada y
difícil. El tener varios programas de distintos proveedores implica distintas
metodologías de trabajo, diseño de menús, condiciones de amigabilidad con el
usuario, realización del mismo trabajo de distinta forma, etc., situación que
conlleva a la necesidad que el geocientista invierta mucho tiempo en el
aprendizaje del uso de los aplicativos.
Ejemplo: Nuevamente nos referiremos al trabajo de mapeo de isopropiedades,
pero desde una óptica y posición diametralmente opuesta a lo manifestado en el
caso del flujo de trabajo número uno. El hecho de que buena parte de los
aplicativos tienen módulos de mapeo no cambia, pero al ser los programas de
distintos proveedores, posiblemente haga que los algoritmos disponibles difieran,
al igual que los flujos de trabajo y las interfases con el usuario (menús, macros,
“features”, etc.), lo que obliga al geocientista a manejar varias herramientas para
realizar la misma tarea, de acuerdo al programa que esté utilizando.
c) Ambiente técnico complejo. El mismo se torna complicado por el sólo hecho
de coexistir aplicativos que pueden estar desarrollados para distintos sistemas
operativos (Unix, Linux, Windows), o incluso, programas que corren en un mismo
sistema operativo pero no necesariamente en la misma versión. De la misma
forma, los procesos de backups / restore varían de acuerdo a los proveedores, y
la necesidad de tiempo y recursos se ve directamente influenciada por tal
motivo.
Ejemplo: Muchas veces, los upgrades o nuevas versiones del software requieren
una determinada versión de sistema operativo, situación que contrasta o
confronta con otras aplicaciones que no han sufrido modificaciones y que por
ende no necesitan una actualización del sistema operativo. Otras veces,
coinciden distintos aplicativos en la misma versión, pero algunos programas
requieren que determinadas bibliotecas o que algunos archivos estén ocultos o
inactivos, mientras que otros aplicativos requieren de ellos para su
funcionamiento. En este último caso, el hecho de existir distintos productos de
software hace que existan “incompatibilidades” que atenten una misma
configuración del sistema operativo (bibliotecas dll), debiéndose incluso “montar”
dos ambientes técnicos distintos para subsanar estos inconvenientes.
2) Vinculadas a la realización “in house” de trabajos, mayoritariamente, de
procesamiento e interpretación “especial” de G&G. Cómo ya explicamos en el flujo
anterior (en ese caso como ventaja al ser tercerizadas este tipo de tareas), este
escenario obliga a contar con “superespecialistas”, que muchas veces no son
usufructuados en su máxima capacidad y posibilidad, y que además requerirán
softwares especiales.
Ejemplo: Adquisición – Procesamiento – Interpretación Geoquímica. La
realización “interna” de todas las tareas relacionadas a la evaluación geoquímica
requiere contar con geólogos especialistas, que muchas veces no son fáciles de
obtener y que no tendrán una aplicación frecuente y cotidiana en estas tareas.

Flujo de trabajo Nº 3
Este último flujo de trabajo incorpora (con respecto al flujo 2), la viabilidad de tener
herramientas aplicadas provenientes de desarrollos internos; así cómo la posibilidad de
una gestión y manejo de datos “interno y multidisciplinar” basado en una conjunción de
repositorios comerciales y soluciones de base de datos y/o gestores documentales
propios, desarrollados “in house”.
Los beneficios más visibles de este flujo de trabajo son:
1) Relacionados a la potencialidad y alto grado de “enfoque en las necesidades
propias” que el software desarrollado “in house” puede tener, así cómo la
aplicabilidad, neutralidad, pluralidad y orientación que muestra un repositorio de
datos propio con respecto a cualquier otro producto más o menos similar que
pueda existir en el mercado.
a) Aplicabilidad de los productos desarrollados. La mayor parte de los
proveedores de software diseñan, programan e implementan sus productos en
base a necesidades, requerimientos, solicitudes y sugerencias de las compañías
usuarias de esas herramientas.
En determinados casos, algunas de estas corporaciones se transforman en
“partners tecnológicos” o “aliados estratégicos” (dependiendo por supuesto del
grado de importancia que la compañía tenga a nivel usuario), y sus “opiniones”
son priorizadas con respecto a las demandas de otras compañías.
Estas situaciones derivan en un escenario que se repite con mayores o menores
similitudes en todas las empresas de desarrollo de software, y el resultado es la
creación de paquetes de aplicaciones amplios, poderosos, que contemplan y
ponen a disposición de los geocientistas una gran posibilidad de algoritmos,
macros, “features”, para realizar su trabajo. Algunas veces este gran acervo de
posibilidades termina complicando el flujo de trabajo, al poner a disposición (y
entendimiento, por supuesto), del geocientista un sinnúmero de opciones y
operaciones que él no necesita para la realización de una muy buena parte de
su trabajo cotidiano.
Una de las mejores formas de subsanar esta situación es con los desarrollos
propios. Estos programas se hacen pura y exclusivamente siguiendo los flujos
de trabajo de la compañía, contemplando solamente aquellos algoritmos,
funciones y operaciones necesarias para satisfacer las necesidades inherentes a
la actualidad técnica de los proyectos que conforman el portafolio de G&G.
Ejemplo: El software de mapeo. El programa Z-Map® es una potente
herramienta que permite hacer un sinnúmero de operaciones relacionadas con el
mapeo de propiedades geológicas – geofísicas – petrofísicas. Una de esas
operaciones es el grillado, la confección de una grilla ortogonal de valores X, Y,
Z calculados a partir de los datos de entrada. Para esto, entre otras cosas, se
debe seleccionar el algoritmo de grillado. El Z-Map® ofrece muchos algoritmos,
que algunas veces responden a las particularidades de los distintos conjuntos de
datos de entrada posibles, pero en otras ocasiones responden a los distintos
“know how” de todas las compañías que son usuarios de este programa, y que
solicitan al proveedor incorpore esos algoritmos al producto. Nuestra experiencia
nos dice que el 80% de los usuarios (geólogos, geofísicos, petrofísicos),
desarrollan el 80% de sus tareas utilizando el 20% de la potencialidad del Z-
Map®, por lo que un programa de mapeo que rescate ese 20% necesario va a
resultar un producto simple, pero muy poderoso en cuanto a las necesidades y
requerimientos, simplificando curvas de aprendizaje, mantenimiento y
fundamentalmente, rapidez en las operaciones.
b) Base de datos única. No existe en el mercado una base de datos única,
multidisciplinar, neutra. La mayor parte de las compañías tienen bases de datos
disciplinares (geología – geofísica, construcción de pozos, producción, etc.), con
variado grado de interconexión entre ellas, en las cuales los datos e información
ingresan en formatos propios de la compañía desarrolladora, y que siempre
están sujetos a posibles cambios de versiones, upgrades, que muchas veces
obligan a un trabajo extra de gestión de datos. El hecho de tener una base de
datos corporativa propia, de desarrollo interno, soluciona la mayor parte de estas
consideraciones, ya que el diseño de la misma contempla los datos a almacenar
no en forma disciplinar sino siguiendo los flujos de trabajo escogidos e
implementados; con un formato neutro (ASCII fundamentalmente), no comercial;
y con datos cargados por única vez.
Ejemplo: Hasta hace unos meses atrás, Landmark® tenía tres grandes bases de
datos: Openworks® (para geología y geofísica), Dims® (para construcción de
pozos), y TOW® (para producción). Para lo que es el negocio de E&P integrado,
esta compañía carecía de un repositorio de datos que contemplara la
información de instalaciones de superficies. Con el advenimiento de EDM®,
quedaron dos grandes plataformas (OW® y EDM®), que a veces obliga a la
duplicación de datos e información, con la consiguiente posibilidad de pérdida de
unicidad. Asimismo, el almacenamiento de información es en formatos propios
que necesitan de módulos y programas de Landmark® para su interacción,
quedando además sujetos al cronograma de mejoras y upgrades decididos por
la compañía desarrolladora. A esto hay que agregarle la posibilidad de contar
con campos no necesarios (para los flujos de trabajo existentes en la compañía
usuaria), o por el contrario, tablas o campos faltantes, no contemplados en el
diseño del repositorio comercial. De esta forma, los datos de producción e
información sísmica (necesarios en un ambiente de G&G para hacer mapas de
burbujas a ser relacionados con mapas de atributos sísmicos, por ejemplo),
pueden coexistir en una base de datos corporativa propia, pero difícilmente lo
hagan en bases de datos comerciales, donde la compartimentalización
disciplinar rige el diseño de las mismas.
La desventaja más notoria y remarcable de este flujo de trabajo está vinculada a las
implicancias que conllevan el desarrollo interno y el mantenimiento posterior,
tanto de software aplicado cómo de un repositorio de datos único y corporativo.
a) Necesidad de un grupo de programación – soporte adecuado. Previamente
al desarrollo de las aplicaciones, hay que hacer un trabajo concienzudo de
relevamiento de necesidades, particularidades, requerimientos, de todos y cada
uno de los geocientistas presentes, para que, de su análisis y evaluación surja la
planificación de las posibles opciones a desarrollar.
Acto seguido, se deberá conformar un grupo de desarrolladores, con usuarios
calificados que primeramente “traduzcan” el requerimiento técnico al ambiente
computacional, y en segunda instancia se transformen en los primeros
“testeadores” de las versiones que se vayan desarrollando e implementando.
Por último, se debe contar con un equipo que lleve a cabo el mantenimiento,
asistencia y el relevamiento de nuevas funcionalidades necesarias a agregar.
Todo esto debe traducirse en un grupo de recursos humanos importante, dónde
confluyen analistas de sistemas, programadores, geocientistas calificados, y
usuarios y técnicos expertos en el manejo y gestión de datos e información.

INDICADORES
Independientemente de los distintos flujos de trabajo existentes, es importante saber
cuál o cuáles son los flujos de tareas que en nuestro ambiente de G&G se está llevando
a cabo. El conocimiento del mismo nos permitirá diseñar e implementar acciones que
permitan el mejor diseño del ambiente técnico; una acertada gestión del dato y la
información; y, especialmente, buscar alternativas u opciones de mejora para el logro
final de contar con las herramientas necesarias para que los geocientistas puedan
desarrollar en inmejorables condiciones sus trabajos.
Por ello, en este tópico vamos a presentar una serie de indicadores, de guías,
tendientes a poder caracterizar un flujo de trabajo desde el punto de vista de su
naturaleza, actualidad y complejidad, así como su relación con las herramientas
tecnológicas utilizadas para su concreción, con el último objetivo de entregar una
verdadera radiografía del flujo de trabajo de G&G existente y del ambiente técnico en el
cual se desarrolla.
Algunos de los indicadores propuestos son:
1) ¿En cuántos aplicativos / bases de datos se almacenan las coordenadas de los
pozos?
a) Menos de 5 aplicativos / bases de datos.
b) Entre 5 y 10 aplicativos / bases de datos.
c) Más de 10 aplicativos / bases de datos.
2) ¿En cuántos aplicativos / bases de datos se almacenan los registros eléctricos
de SP y GR?
a) Menos de 3 aplicativos / bases de datos.
b) Entre 3 y 5 aplicativos / bases de datos.
c) Más de 5 aplicativos / bases de datos.
3) ¿Quiénes cargan los perfiles de pozos adquiridos en los aplicativos / bases de
datos?
a) Gestores / Administradores de datos de G&G.
b) Gestores / Administradores de datos de TI.
c) Usuarios.
d) Todos.
4) ¿Cuantos programas de mapeo tienen disponibles? (Se consideran en este
punto aquellas aplicaciones que tienen algoritmos de mapeo internos, como
pueden ser programas de corte geológicos, interpretación de perfiles,
interpretación sísmica, etc.)
a) Menos de 3 módulos de mapeo.
b) Entre 3 y 5 módulos de mapeo.
c) Más de 5 módulos de mapeo.
5) ¿Cuál es la relación gestores / administradores de datos vs. usuarios?
a) 1 gestor de datos cada 4 usuarios.
b) 1 gestor de datos entre 5 y 9 usuarios.
c) 1 gestor de datos cada 10 o más usuarios.
6) La información de G&G está, mayoritariamente, en:
a) Bases de datos comerciales.
b) Carpetas de Windows – Unix en servidores.
c) Carpetas de Windows – Unix en discos locales.
d) Base de datos corporativa.
e) Aplicativos.
f) Archivo Técnico.
g) Todos.
7) La información de producción en un ambiente de G&G esta disponible a partir
de:
a) Transferencia directa entre aplicativos / bases de datos.
b) Archivos ASCII en aplicativos / bases de datos.
c) Carga manual en aplicativos / bases de datos.
8) En un mismo proyecto de estudio, de un determinado nivel de referencia
conspicuo (Tope de la F. Vaca Muerta en Cuenca Neuquina, Tope de la F.
Springhill en Cuenca Austral, etc.), existe la siguiente cantidad de topes / mapas
estructurales distintos:
a) Menos de 3 topes / mapas estructurales en un mismo aplicativo / bases
de datos.
b) Entre 3 y 5 topes / mapas estructurales en un mismo aplicativo / bases de
datos.
c) Más de 5 topes / mapas estructurales en un mismo aplicativo / bases de
datos.
9) El numero de onsites de las compañías de servicios es:
a) Ninguno.
b) Uno.
c) Más de uno.
10) La documentación del Archivo técnico está:
a) En papel, no totalmente catalogada y clasificada.
b) En papel, clasificada y catalogada.
c) Parte en papel, clasificada y catalogada; y parte en medio magnético, en
carpetas.
d) Totalmente en medio magnético, en un gestor documental.
11) El equipo de Sistemas aplicada a la G&G o Tecnología Informática de G&G está
conformado por:
a) Profesionales y técnicos de TI.
b) Usuarios calificados y técnicos de G&G.
c) Ambos.
12) La comunicación con los proveedores de software es realizada por:
a) Personal de TI.
b) Personal de G&G.
c) Ambos.
A partir del estado de cada uno de estos indicadores, se podrá trabajar en la definición
del verdadero escenario de actuación de G&G, pudiéndose definir los distintos actores,
sus roles y fundamentalmente, su participación en lo que es el ordenamiento de la
trilogía bases de datos / aplicativos / datos e información.
Un flujo de trabajo desarrollado en un ambiente técnico cercano al que arbitrariamente
definimos cómo número 1 estaría caracterizado por respuestas “a” en los indicadores 1,
2, 4, 6, 7 y 9. Los mismos indicadores entregando la opción “b” estarían caracterizando
el flujo número 2, quedando las otras alternativas de respuesta para indicar la presencia
de un flujo de trabajo próximo al número 3.
El resto de los indicadores, si bien nos entregan información sobre el flujo de trabajo
implementado y seguido, nos ayudan a caracterizar en gran medida al ambiente técnico
existente, y son también utilizados para determinar la profundidad de las acciones a
tomar, máxime si consideramos en su justa importancia la relación entre flujo de trabajo,
aplicativos, y manejo, administración y gestión de los datos e información
correspondientes a G&G.
Con todo esto perfectamente definido, el último paso es la cristalización de un sector
específico, con foco en la tecnología y el manejo de datos e información, que empiece a
diseñar e implementar las mejores acciones a seguir. Estas acciones deberán ser
orquestadas para, o bien mejorar el flujo de trabajo actual y el ambiente técnico que le
hace de sustento, o bien pasar a otro flujo de trabajo, siempre y cuando esta última
opción realmente traiga una mejora en la cotidianeidad de los grupos de estudio
involucrados.

PROPUESTA
La idea de este trabajo no es solamente mostrar posibles flujos de trabajos y dar
herramientas para que cada uno pueda ubicar en cuál está inmerso; sino que nuestra
intención es exponer la importancia de tener bien definido el flujo y el ambiente técnico
en el que se desarrolla, fundamentalmente en lo que se refiere a la gestión de las
herramientas tecnológicas del sector de G&G y en su relación con el manejo y gestión
de los datos e información técnica existente.
Por ello, cómo corolario de éste gran tópico que llamamos desarrollo, vamos a exponer
sucintamente una suerte de proposición, de posible camino a seguir, con el objeto de
compartir una experiencia que tuvo y tiene un buen nivel de aplicabilidad y resultado.
La experiencia a la cual nos referimos es la de formar un equipo de trabajo integrado y
multidisciplinario, donde la interdisciplina debe expresarse en más de una arista o
esfera. De hecho, la definición de los actores debe plasmar en la práctica esa
descompartimentalización mencionada. Así, esa eliminación de vallas o fronteras debe
considerar el trasvasamiento del límite entre G&G y Tecnología Informática; entre la
misma G&G y el resto de las gerencias técnicas (perforación de pozos, reservorios,
producción, etc.); entre usuarios y gestores de datos; e, incluso, entre las compañías
operadoras y las compañías de servicio proveedoras de software.
Este grupo, entonces, debe contemplar los siguientes perfiles: usuarios calificados,
gestores de datos, administradores de bases de datos, profesionales de tecnología
informática y especialistas de software de las compañías desarrolladoras.
Una radiografía de los actores mencionados nos presenta a los usuarios calificados
como aquellos geocientistas que dominan un doble aspecto o enfoque de los flujos de
trabajo de G&G, tanto el conocimiento de las tareas técnicas que conforman la
cotidianeidad operativa del día a día, cómo un dominio por arriba de la media del
usuario común en la función y uso de las herramientas informáticas aplicadas, no
solamente que tiene la compañía sino las existentes en el mercado.
Siguiendo con la caracterización funcional, definimos como gestores de datos todos
esos geocientistas y/o técnicos competentes que presentan una muy alta experticia en
lo que a manejo y gestión de los datos e información, ubicando en esta categoría a
geólogos, geofísicos, petrofísicos, geodestas, técnicos, auxiliares, con probada
experiencia en la recepción, validación, catalogación y almacenamiento de datos. Estos
actores tienen a su cargo las funciones básicas que van desde la administración del
mantenimiento del modelo de datos unificado de G&G (o mejor expresado, de E&P);
hasta la actualización de las informaciones de los repositorios de datos, y la garantía de
la calidad de la información de las bases de datos, comerciales o propias, integradas de
E&P.
Relacionados a ellos, los administradores de bases de datos son personas de formación
en sistemas, cuyo rol es la administración y mantenimiento de los ambientes de bases
de datos, así cómo de los servidores de áreas de almacenamiento de datos.
El último lugar en este escenario multidisciplinar lo dejamos para los especialistas en el
uso del software (“on sites”). Estos generalmente pertenecen a las compañías
proveedoras de software, pueden ser de extracción geológica – geofísica o de sistemas,
y están fuertemente orientados al uso y utilización de las herramientas tecnológicas
aplicadas. Una de sus particularidades más relevantes es la de tener detrás de ellos
toda la estructura de las compañías de servicio desarrolladoras de software, para
subsanar cualquier inconveniente o mostrar tendencias del mercado.
Este equipo como un todo, debe tener una especie de “misión”, o “precepto troncal”,
único y general, que vaya más allá de los flujos de trabajo. Esta suerte de “hoja de ruta”
debe tener como premisa fundamental la de “liderar la gestión de soluciones integradas
de tecnologías de información específicas de la disciplina G&G tanto en ambiente de
Exploración cómo de Reservorios o Desarrollo”.
Por supuesto, este sería un lineamiento conceptual de mínima, pudiéndose extrapolar el
campo de acción a “las tecnologías de información del negocio de E&P”, haciendo esto
mucho más interdisciplinario al abarcar desde la Exploración, Reservorios, Construcción
de Pozos, Ingeniería de Producción hasta llegar a Instalaciones de Superficie.
En base a nuestra experiencia, ambas opciones son adecuadas, aunque tal vez
debamos aconsejar (se acuerdo al tamaño de la compañía, la complejidad de los flujos
de trabajos, la diversidad de operaciones y la presencia de objetivos comunes o no
dentro de esta disimilitud de operaciones), la posibilidad de comenzar con una disciplina
(por ejemplo G&G), y lo largo del devenir histórico del proyecto ir incorporando a las
otras áreas de trabajo.
A los fines de este trabajo, nos estamos concentrando en una propuesta disciplinar con
foco en el mencionado negocio de G&G, haciendo pequeñas menciones a posibilidades
de “saltar las vallas de los focos disciplinarios” dónde entendamos su mención agregue
valor al proyecto de G&G.
Ahora bien, definida la misión, el próximo paso es identificar las “áreas de
responsabilidad”, los “campos de acción”, con la finalidad de evitar superposiciones o,
en el otro extremo, trabajos que no se realicen por entender que es potestad de otros
sectores. Los mismos serían:
- Promover la adopción de una visión estratégica en el manejo de software de
G&G y las mejores prácticas existentes en el mercado.
- Impulsar, en conjunto con los referentes técnicos y funcionales la definición de
standars y la recomendación de aplicativos de G&G que satisfaga sus
necesidades, asegurando la integración entre las diferentes disciplinas y los
mejores flujos de trabajo. Una vez definidas las alternativas de software
existentes, este grupo deberá evaluar en base a los distintos flujos de trabajo y
recomendar los pasos a seguir.
- Definir e instrumentar la actualización tecnológica de los distintos ambientes
técnicos informáticos para el mediano – largo plazo, así como los planes de
adquisición y mantenimiento de software, actualización de servidores y
plataformas de hardware. Para ello, conjuntamente con Compras o
Abastecimientos y TI Corporativo manejar la relación con los proveedores de
software y responsables de los distintos estamentos del ambiente técnico.
- Implementar y realizar el manejo y gestión de datos e información. Para ello,
algunas (o todas), de las siguientes funciones deben ser realizadas:
- Desarrollo e implementación de protocolos de aplicación entre
herramientas.
- Concreción de una Base de Datos Corporativa, basada en soluciones
comerciales o propias.
- Diseño, implementación y mantenimiento de estructuras de directorios.
- Definición de estándares para los ambientes Unix, Linux y Windows
relacionados con la esfera de E&P
- Manejo y Gestión del Archivo Técnico. Análisis, definición e
implementación de planes de escaneo y digitalización de información en
papel, así como la incorporación de un gestor documental de
documentos técnicos.
- Definición de estándares para Almacenamiento de Datos y Escaneo y
Digitalización de datos e información.
- Geodesia: Implementar programas de gestión de la información
geodésica así como la resolución de problemas relativos a los diferentes
sistemas de proyección.
- Diseño, implementación y mantenimiento de oleoteca y litoteca.
Entendemos que el fin último de un sector de esta naturaleza es el de colaborar en el
funcionamiento de las gerencias funcionales (exploración y/o desarrollo), propiciando un
entorno tecnológico acorde a las necesidades de los geocientistas.

CONCLUSIONES
Como una suerte de corolario de este trabajo, vamos a destacar una serie de
consideraciones. Ellas son:
1) El dinamismo técnico en que está inmerso el ambiente de G&G en la industria
petrolera, manifestado entre otras cosas por la especialización y complejidad de
las herramientas tecnológicas disponibles, la mayor disponibilidad de datos y
algoritmos de análisis, y la necesidad de caracterizar reservorios cada vez
menos convencionales; impacta fuertemente en los flujos de trabajo existentes.
2) El hecho de simplificar la diversidad de flujos existentes en tres opciones es
totalmente parcial y arbitrario. La realidad nos marca que existen tantos flujos de
trabajo cómo herramientas tecnológicas disponibles y fundamentalmente, de
acuerdo a la combinación que de esas herramientas se realice.
3) Conocer el o los flujos de trabajo existentes es crucial, fundamental, para poder
adoptar medidas y trabajos concernientes a la mejor concreción y desarrollo de
la mencionada metodología. El uso de indicadores para tal fin es de vital
importancia, ya que permite individualizar, cualificar y cuantificar los flujos
presentes y el ambiente técnico en el cuál se desarrolla.
4) Contar con un grupo dependiendo de E&P y externo a TI, conformado por
profesionales de amplia trayectoria en ambas esferas y que tenga cómo
objetivos fundamentales la definición, administración y mantenimiento del
ambiente técnico (software y hardware aplicado), y la gestión y manejo de los
datos e información, velará por el mejor entorno para el mejoramiento y
seguimiento de los flujos de trabajo.
5) Existe un vínculo muy estrecho entre los flujos de trabajo y el manejo y gestión
de los datos e información. Precisar con exactitud ese vínculo redundará en
mejores prácticas de data management.

BIBLIOGRAFÍA
Bouffaro, B. (2006) “Why data management is more important than over?”. First Break. Vol.
24. January 2006.
Chandrasekhar, T.; Best, R. (2008) “Get timely to trusted data. Legacy data management
improves the efficiency of the geological data workflow”. Hart´s E&P. Nº 1. 2008.
Dinnen, P.; Tonstad, K.; Halland, T. (2003) “Data integration expands E&P choices”. Hart´s
E&P. October 2003.
Gould, A. (2002) “Information manager in the E&P industry”. World Energy. Vol. 5. Nº 1. 2002.
Merg, H.; Gilman, J.; Godbey, K. (2003) “Web-based collaborative technical workflow
management”. Oil&Gas Review. Vol. 2. 2003.
Montagna, A. (2005) “Algunas consideraciones sobre la gestión de datos e información en
el ámbito de Petrobras Argentina”. Informe Inédito, Marzo 2005.
Montagna, A. (2006) “Iniciativas de gestión y manejo de datos e información de E&P”. I
WorkShop Data Management. IAPG. Buenos Aires, Agosto 2006.
Montagna, A.; Larriestra, C. (2008) “Flujos de trabajo en el modelado estático de reservorios:
definición y análisis de posibles alternativas de acuerdo a necesidades e informacion
disponible”. Presentado en el Simposio de Modelado Geológico, VIII Congreso de
Hidrocarburos. Mar del Plata, Noviembre 2008.
Pandolfo, L.; Albano, J.; Dogliani, J.; Quintana, J. (2002). “DBU+. Una herramienta integrada
para las Geociencias”. Revista Petrotecnia, Abril 2002.
Tobias, S.; Ahmed, V.; Brown, D. (1998). “Integrated workflow methodologies for asset
teams”. Asia Pacific Conference of Integrated Modelling for Asset Management. SPE. March
1998, Kuala Lumpur, Malaysia.
Tobias, S. (1998). “Framework characterization and reservoir characterization:
decouple/recouple workflows for SS&E asset teams”. SPETIG on reservoir characterization
(SPERC). July 1998.

También podría gustarte